WO2021089499A1 - Verfahren und system zum prüfen einer automatisierten fahrfunktion durch reinforcement-learning - Google Patents

Verfahren und system zum prüfen einer automatisierten fahrfunktion durch reinforcement-learning Download PDF

Info

Publication number
WO2021089499A1
WO2021089499A1 PCT/EP2020/080740 EP2020080740W WO2021089499A1 WO 2021089499 A1 WO2021089499 A1 WO 2021089499A1 EP 2020080740 W EP2020080740 W EP 2020080740W WO 2021089499 A1 WO2021089499 A1 WO 2021089499A1
Authority
WO
WIPO (PCT)
Prior art keywords
scenario
automated driving
function
reward
driving function
Prior art date
Application number
PCT/EP2020/080740
Other languages
English (en)
French (fr)
Inventor
Vladislav Nenchev
Andrea Favrin
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Priority to CN202080073227.2A priority Critical patent/CN114616157A/zh
Priority to US17/775,097 priority patent/US20220396280A1/en
Publication of WO2021089499A1 publication Critical patent/WO2021089499A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/04Monitoring the functioning of the control system
    • B60W50/045Monitoring control system parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/06Improving the dynamic response of the control system, e.g. improving the speed of regulation or avoiding hunting or overshoot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks

Definitions

  • the present disclosure relates to a method and a system for testing an automated driving function by means of reinforcement learning.
  • the present disclosure relates in particular to the generation of scenarios that violate a specification of an automated driving function. State of the art
  • Automated driving can be done with different degrees of automation. Exemplary degrees of automation are assisted, partially automated, highly automated or fully automated driving. These degrees of automation were defined by the Federal Highway Research Institute (BASt) (see BASt publication “Research compact”, edition 11/2012). For example, the vehicles with level 4 are fully autonomous in city operation.
  • BASt Federal Highway Research Institute
  • a possible approach to the verification and evaluation of self-driving vehicles that have to master a large number of possible traffic situations lies in a virtual simulation environment.
  • the simulated environment In order to obtain a meaningful evaluation of an autonomous driving function from the simulation, the simulated environment must be sufficiently realistic.
  • a method for testing an automated driving function by means of reinforcement leaming comprises providing at least one specification of an automated driving function; generating a scenario, the scenario being indicated by a first set of parameters; and determining a reward function such that the reward is higher in a case in which the scenario in a simulation does not meet the at least one specification than in a case in which the scenario in the simulation fulfills the at least one specification.
  • the reward function can be determined using a rule-based model, for example.
  • the reward function which depends on the trajectories of all objects in the scenario, is determined.
  • the RL agent learns to generate scenarios that maximize a reward and reflect a violation of the specification of the driving function. Learning can therefore be accelerated by including existing prior knowledge in the training process.
  • the automated driving function can be efficiently falsified in order to reveal weak points in the automated driving function.
  • the rule-based model preferably describes a controller of the vehicle for the automated driving function.
  • the controller is a (simplified) model of the behavior of the vehicle driving with the automated driving functions.
  • the method preferably further comprises generating a second set of parameters indicating a modification of the first set of parameters. This can be done by an adversarial agent.
  • the method further comprises:
  • the further scenario is preferably generated in accordance with the third set of parameters using an inequality constraint that excludes certain scenarios.
  • the inequality constraint can be defined as follows:
  • the further scenario is preferably generated in accordance with the third parameter set using a projection of the parameter set onto a set of specific scenarios.
  • a system for testing an automated driving function by means of reinforcement learning comprises a processor unit which is configured to carry out the method for testing an automated driving function by means of reinforcement learning according to the embodiments described in this document.
  • the system is set up to carry out the method described in this document.
  • the method can implement the aspects of the system described in this document.
  • the method according to the invention can also be simulated in an HIL (hardware in the loop) environment.
  • SW software program
  • the SW program can be set up to be executed on one or more processors, and thereby to execute the method described in this document.
  • a storage medium is specified.
  • the storage medium can comprise a SW program which is set up to be executed on one or more processors and thereby to execute the method described in this document.
  • automated driving can be understood to mean driving with automated longitudinal or lateral guidance or autonomous driving with automated longitudinal and lateral guidance.
  • the automated driving can be, for example, driving on the motorway for a longer period of time or driving for a limited time as part of parking or maneuvering.
  • automated driving includes automated driving with any degree of automation. Exemplary degrees of automation are assisted, partially automated, highly automated or fully automated driving. These degrees of automation were defined by the Federal Highway Research Institute (BASt) (see BASt publication “Research compact”, edition 11/2012).
  • assisted driving With assisted driving, the driver continuously performs the longitudinal or lateral guidance, while the system takes on the other function within certain limits.
  • TAF partially automated driving
  • the system takes over the longitudinal and lateral guidance for a certain period of time and / or in specific situations, whereby the driver has to constantly monitor the system as with assisted driving.
  • HAF highly automated driving
  • the system takes over the longitudinal and lateral guidance for a certain period of time without the driver having to constantly monitor the system; however, the driver must be able to take over driving the vehicle within a certain period of time.
  • VAF fully automated driving
  • VAF the system can automatically cope with driving in all situations for a specific application; a driver is no longer required for this application.
  • SAE levels 1 to 4 of the SAE J3016 standard SAE - Society of Automotive Engineering
  • highly automated driving (HAF) Level 3 corresponds to the SAE J3016 standard.
  • SAE J3016 provides for SAE level 5 as the highest degree of automation, which is not included in the definition of BASt.
  • SAE level 5 corresponds to driverless driving, in which the system can automatically cope with all situations like a human driver during the entire journey; a driver is generally no longer required.
  • Figure 1 schematically shows a driver assistance system for automated driving according to embodiments of the present disclosure
  • FIG. 2 shows a general scheme of a reinforcement leaming approach
  • FIG. 3 shows a flow diagram of a method for testing an automated driving function according to embodiments of the present disclosure
  • FIG. 4 shows a scheme for testing an automated driving function according to embodiments of the present disclosure.
  • FIG. 5 shows a scheme for testing an automated driving function according to further embodiments of the present disclosure.
  • FIG. 1 schematically shows a driver assistance system for automated driving according to embodiments of the present disclosure.
  • the vehicle 100 comprises the driver assistance system 110 for automated driving.
  • the longitudinal and lateral guidance of the vehicle 100 takes place automatically.
  • the driver assistance system 110 thus takes over the vehicle guidance.
  • the driver assistance system 110 controls the drive 20, the transmission 22, the hydraulic service brake 24 and the steering 26 via intermediate units (not shown).
  • the vehicle can include at least one environment sensor 12 which is set up to record environment data that indicate the vehicle environment.
  • the at least one environment sensor 12 can include, for example, a LiDAR system, one or more radar systems and / or one or more cameras.
  • an ACC Adaptive Cruise Control
  • the ACC function is set up to maintain a safe distance from a vehicle in front.
  • the ACC requirements can be formalized as follows:
  • target speed mode and time interval mode Two possible modes: target speed mode and time interval mode
  • a speed V d specified or desired by the driver ie v d E ⁇ v d rnin , ⁇ v d max , is to be maintained.
  • a time advantage t h ie t h E t h Tnax ⁇ , to be maintained for a preceding vehicle.
  • the system is in the target speed mode if V d ⁇ h / t d , otherwise the system is in the time interval mode.
  • the acceleration of the vehicle must always be a c E
  • reinforcement leaming is used, and in particular a reinforcement learning-based adversarial agent (in labeled Agent on the characters).
  • the RL agent learns to generate scenarios that maximize a particular reward. Since the agent's goal is to falsify the driving function, the reward function is designed in such a way that the agent receives a high reward if the scenario leads to a violation of the specification and a low reward if the autonomous driving function works according to the specification .
  • the agent repeatedly observes the state of the system 5, which includes all relevant variables for the given specification. Based on the state, the agent carries out an action a according to its learned guideline and receives a corresponding reward R (s, a). The action consists of a finite set of scenario parameters. Over time, the agent changes its policy to maximize its reward.
  • the output of the RL agent is a scenario parameter set a, which includes, for example, an initial vehicle speed, the desired vehicle, the initial time gap and a speed profile of the vehicle which is encoded by a finite time series of speed segments Vf, where t t et 0 , t 1 . . t n . It is started with an initial set of parameters ao and a corresponding initial environmental condition is calculated in this way.
  • the state s t contains all variables relevant for checking compliance with the specifications, e.g. minimum and maximum acceleration, minimum and maximum distance to the vehicle in front or minimum and maximum time progress, minimum and maximum speed, etc. Then all of the above specification instructions can either be recorded directly or numerically by an inequality of the form A [s; a] - b ⁇ 0 can be approximated.
  • the input of the RL-based agent is the environmental state s t at time t and the outputs are the modified scenario parameters a t + i for the next run.
  • Figure 2 shows a general scheme for this case.
  • FIG. 3 shows a flow diagram of a method 300 for testing an automated driving function by means of reinforcement learning according to embodiments of the present disclosure.
  • the method 300 comprises, in block 310, providing at least one specification of an automated driving function; in block 320, generating a scenario, the scenario being indicated by a first set of parameters; and in block 330 determining a reward function such that the reward is higher in a case in which the scenario in a simulation does not meet the at least one specification than in a case in which the scenario in the simulation fulfills the at least one specification , wherein the reward function is determined using a rule-based model.
  • Xk + 1 fk (Xk, dest, St) for determining a new set of parameters a est for an estimate of the maximum reward Rest, max delivers. If the optimization problem is not convex (which is often the case) convex relaxation or other approximation methods can be used.
  • An RL agent then receives the status s t and the RL agent reward in parallel
  • the RL agent can only learn the difference between the rule-based control behavior and the actual system and not the overall system and generate a corresponding modification ann.
  • the method described above can be used to approximate previous knowledge by means of an inequality g (s t , a est ) ⁇ 0.
  • FIGS 4 and 5 show two possible schemes according to embodiments of the present disclosure that implement this.
  • the method comprises generating a second set of parameters indicating a modification of the first set of parameters, and generating a further scenario in accordance with a third set of parameters, the third set of parameters being determined based on the second set of parameters and using the rule-based model.
  • the generation of the further scenario takes place in accordance with the third parameter set using an inequality constraint that excludes certain scenarios.
  • an inequality constraint that excludes certain scenarios.
  • FIG. 5 the block G in FIG. 5 represents an exemplary inequality limitation of the following type: ⁇ cinn Ctest ⁇ ⁇ Cl threshold
  • a suitable control input ü t is selected according to a certain scenario class. For example, to prevent a collision with a vehicle in front.
  • the reward function is determined using the rule-based model, for example.
  • the RL agent learns to generate scenarios that maximize a reward and reflect a violation of the specification of the driving function. Learning can therefore be accelerated by including existing prior knowledge in the training process.
  • the automated driving function can be efficiently falsified in order to reveal weak points in the automated driving function.

Abstract

Die vorliegende Offenbarung betrifft ein Verfahren zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Learning. Das Verfahren umfasst ein Bereitstellen wenigstens einer Spezifikation einer automatisierten Fahrfunktion; ein Erzeugen eines Szenarios, wobei das Szenario durch einen ersten Parametersatz at angegeben ist; und ein Ermitteln einer Belohnungsfunktion derart, dass die Belohnung Rnn in einem Fall höher ist, in dem das Szenario in einer Simulation die wenigstens eine Spezifikation nicht erfüllt, als in einem Fall, in dem das Szenario in der Simulation die wenigstens eine Spezifikation erfüllt.

Description

Verfahren und System zum Prüfen einer automatisierten Fahrfunktion durch
Reinforcement-Learning
Die vorliegende Offenbarung betrifft ein Verfahren und ein System zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Learning. Die vorliegende Offenbarung betrifft insbesondere die Erzeugung von Szenarien, die eine Spezifikation einer automatisierten Fahrfunktion verletzen. Stand der Technik
Fahrassistenzsysteme zum automatisierten Fahren gewinnen stetig an Bedeutung. Das automatisierte Fahren kann mit verschiedenen Automatisierungsgraden erfolgen. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012). Beispielsweise sind die Fahrzeuge mit Level 4 vollautonom im Stadtbetrieb unterwegs.
Eine große Herausforderung für die Entwicklung autonomer Fahrfunktionen ist die strenge Verifizierung und Validierung zur Erreichung der Einhaltung der Sicherheitsrichtlinien sowie eines ausreichenden Kundenvertrauensniveaus. Klassische Testansätze skalieren für autonomes Fahren nur unzureichend, da sie für jede Freigabe große Mengen an realen Fahrten erfordern.
Ein möglicher Ansatz zur Verifikation und Bewertung von selbstfahrenden Fahrzeugen, die eine Vielzahl von möglichen Verkehrssituationen meistern müssen, liegt in einer virtuellen Simulationsumgebung. Um eine aussagekräftige Bewertung einer autonomen Fahrfunktion aus der Simulation zu erhalten, muss die simulierte Umgebung ausreichend realistisch sein. Zudem muss das zulässige Verhalten (Spezifikation) des autonomen Fahrzeugs automatisch überprüfbar sein, und die ausgeführten Testszenarien müssen alle typischen Fälle sowie seltene, aber realistische Fahr Situationen ab decken.
Während es einige Ansätze zur Erfüllung der ersten beiden Anforderungen gibt, ist die Erfüllung dieser Anforderungen aufgrund der hohen Dimensionalität und Nichtkonvexität des relevanten Parameterraums keine leichte Aufgabe. Datengesteuerte Ansätze bieten bis zu einem gewissen Grad Abhilfe, aber die Analyse großer Mengen an realen Daten kann nicht garantieren, dass alle relevanten Szenen einbezogen und getestet wurden. So basieren die meisten bestehenden Ansätze auf einer geeigneten stichprobenbasierten Prüfung, die möglicherweise analytische Modelle verwendet. Diese Verfahren sind jedoch nicht für die gesamte End-to-End-Fahrfunktion von der Sensordatenverarbeitung bis zum erzeugten Aktuatorsignal durchführbar und müssen bei einer Systemänderung komplett neu ausgeführt werden. Offenbarung der Erfindung
Es ist eine Aufgabe der vorliegenden Offenbarung, ein Verfahren zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Leaming, ein Speichermedium zum Ausfuhren des Verfahrens und ein System zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Learning anzugeben, die eine schnelle und effiziente Prüfung der automatisierten Fahrfunktion erlauben. Zudem ist es eine Aufgabe der vorliegenden Offenbarung, die automatisierte Fahrfunktion effizient zu falsifizieren, um Schwachstellen in der automatisierten Fahrfunktion aufzudecken.
Diese Aufgabe wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
Gemäß einem unabhängigen Aspekt der vorliegenden Offenbarung ist ein Verfahren zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Leaming angegeben. Das Verfahren umfasst ein Bereitstellen wenigstens einer Spezifikation einer automatisierten Fahrfunktion; ein Erzeugen eines Szenarios, wobei das Szenario durch einen ersten Parametersatz angegeben ist; und ein Ermitteln einer Belohnungsfunktion derart, dass die Belohnung in einem Fall höher ist, in dem das Szenario in einer Simulation die wenigstens eine Spezifikation nicht erfüllt, als in einem Fall, in dem das Szenario in der Simulation die wenigstens eine Spezifikation erfüllt. Die Belohnungsfunktion kann zum Beispiel unter Verwendung eines regelbasierten Modells ermittelt werden.
Erfindungsgemäß wird die Belohnungsfunktion, die von den Trajektorien aller Objekte im Szenario abhängt, ermittelt. Insbesondere lernt der RL- Agent, Szenarien zu generieren, die eine Belohnung maximieren und eine Verletzung der Spezifikation der Fahrfunktion widerspiegeln. Das Lernen kann also dadurch beschleunigt werden, indem vorhandenes Vorwissen in den Trainingsprozess einbezogen wird. Hierdurch kann die automatisierte Fahrfunktion effizient falsifiziert werden, um Schwachstellen in der automatisierten Fahrfunktion aufzudecken.
Vorzugsweise beschreibt das regelbasierte Modell einen Regler des Fahrzeugs für die automatisierte Fahrfunktion. Der Regler ist dabei ein (vereinfachtes) Modell des Verhaltens des mit der automatisierten Fahrfunktionen fahrenden Fahrzeugs. Vorzugsweise umfasst das Verfahren weiter ein Erzeugen eines zweiten Parametersatzes, der eine Modifikation des ersten Parametersatzes angibt. Dies kann durch einen Adversarial Agent erfolgen.
Vorzugsweise umfasst das Verfahren weiter:
Ermitteln einer Schätzung Rest des Wertes der Belohnungsfunktion für ein konkretes Szenario unter Verwendung eines regelbasierten Modells in einer Simulation;
Erzeugen eines weiteren Szenarios entsprechend einem dritten Parametersatz at+i, wobei der dritte Parametersatz at+i basierend auf dem zweiten Parametersatz awl und dem Parametersatz aest„ der die Schätzung Rest basierend auf dem regelbasierten Modell maximiert, bestimmt wird; und
Ermitteln der Belohnungsfunktion derart, dass die Belohnung R in einem Fall höher ist, in dem für ein Szenario in einer Simulation die Schätzung Rest des Wertes der Belohnungsfunktion niedriger ist als der tatsächliche Wert R der Belohnungsfunktion.
Vorzugsweise erfolgt das Erzeugen des weiteren Szenarios entsprechend dem dritten Parametersatz unter Verwendung einer Ungleichungsbeschränkung, die bestimmte Szenarien ausschließt. Die Ungleichungsbeschränkung kann wie folgt definiert sein:
\cinn Ctest\ ^ ClSchwelle
Vorzugsweise erfolgt das Erzeugen des weiteren Szenarios entsprechend dem dritten Parametersatz unter Verwendung einer Projektion des Parametersatzes auf eine Menge von bestimmten Szenarien.
Gemäß einem weiteren Aspekt der vorliegenden Offenbarung ist ein System zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Learning angegeben. Das System umfasst eine Prozessoreinheit, konfiguriert ist, um das Verfahren zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Learning gemäß den in diesem Dokument beschriebenen Ausführungsformen auszuführen.
Das System ist insbesondere eingerichtet, das in diesem Dokument beschriebene Verfahren auszuführen. Das Verfahren kann die Aspekte des in diesem Dokument beschriebenen Systems implementieren. Das erfindungsgemäße Verfahren kann auch in einer HIL (Hardware in the Loop) Umgebung simuliert werden.
Gemäß einem weiteren unabhängigen Aspekt ist ein Software (SW) Programm angegeben. Das SW Programm kann eingerichtet werden, um auf einem oder mehreren Prozessoren Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.
Gemäß einem weiteren unabhängigen Aspekt ist ein Speichermedium angegeben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.
Unter dem Begriff „automatisiertes Fahren“ kann im Rahmen des Dokuments ein Fahren mit automatisierter Längs- oder Querführung oder ein autonomes Fahren mit automatisierter Längs- und Querführung verstanden werden. Bei dem automatisierten Fahren kann es sich beispielsweise um ein zeitlich längeres Fahren auf der Autobahn oder um ein zeitlich begrenztes Fahren im Rahmen des Einparkens oder Rangierens handeln. Der Begriff „automatisiertes Fahren“ umfasst ein automatisiertes Fahren mit einem beliebigen Automatisierungsgrad. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012).
Beim assistierten Fahren führt der Fahrer dauerhaft die Längs- oder Querführung aus, während das System die jeweils andere Funktion in gewissen Grenzen übernimmt. Beim teilautomatisierten Fahren (TAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum und/oder in spezifischen Situationen, wobei der Fahrer das System wie beim assistierten Fahren dauerhaft überwachen muss. Beim hochautomatisierten Fahren (HAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum, ohne dass der Fahrer das System dauerhaft überwachen muss; der Fahrer muss aber in einer gewissen Zeit in der Lage sein, die Fahrzeugführung zu übernehmen. Beim vollautomatisierten Fahren (VAF) kann das System für einen spezifischen Anwendungsfall das Fahren in allen Situationen automatisch bewältigen; für diesen Anwendungsfall ist kein Fahrer mehr erforderlich. Die vorstehend genannten vier Automatisierungsgrade entsprechen den SAE-Level 1 bis 4 der Norm SAE J3016 (SAE - Society of Automotive Engineering). Beispielsweise entspricht das hochautomatisierte Fahren (HAF) Level 3 der Norm SAE J3016. Ferner ist in der SAE J3016 noch der SAE-Level 5 als höchster Automatisierungsgrad vorgesehen, der in der Definition der BASt nicht enthalten ist. Der SAE-Level 5 entspricht einem fahrerlosen Fahren, bei dem das System während der ganzen Fahrt alle Situationen wie ein menschlicher Fahrer automatisch bewältigen kann; ein Fahrer ist generell nicht mehr erforderlich.
Kurze Beschreibung der Zeichnungen
Ausführungsbeispiele der Offenbarung sind in den Figuren dargestellt und werden im Folgenden näher beschrieben. Es zeigen:
Figur 1 schematisch ein Fahrassistenzsystem zum automatisierten Fahren gemäß Ausführungsformen der vorliegenden Offenbarung,
Figur 2 ein allgemeines Schema eines Reinforcement-Leaming Ansatzes;
Figur 3 ein Flussdiagram eines Verfahrens zum Prüfen einer automatisierten Fahrfunktion gemäß Ausführungsformen der vorliegenden Offenbarung;
Figur 4 ein Schema zum Prüfen einer automatisierten Fahrfunktion gemäß Ausführungsformen der vorliegenden Offenbarung; und
Figur 5 ein Schema zum Prüfen einer automatisierten Fahrfunktion gemäß weiteren Ausführungsformen der vorliegenden Offenbarung.
Ausführungsformen der Offenbarung
Im Folgenden werden, sofern nicht anders vermerkt, für gleiche und gleichwirkende Elemente gleiche Bezugszeichen verwendet.
Figur 1 zeigt schematisch ein Fahrassistenzsystem zum automatisierten Fahren gemäß Ausführungsformen der vorliegenden Offenbarung. Das Fahrzeug 100 umfasst das Fahrassistenzsystem 110 zum automatisierten Fahren. Beim automatisierten Fahren erfolgt die Längs- und Querführung des Fahrzeugs 100 automatisch. Das Fahrassistenzsystem 110 übernimmt also die Fahrzeugführung. Hierzu steuert das Fahrassistenzsystem 110 den Antrieb 20, das Getriebe 22, die hydraulische Betriebsbremse 24 und die Lenkung 26 über nicht dargestellte Zwischeneinheiten.
Zur Planung und Durchführung des automatisierten Fahrens werden Umfeldinformationen einer Umfeldsensorik, die das Fahrzeugumfeld beobachtet, vom Fahrerassi stenz System 110 entgegengenommen. Insbesondere kann das Fahrzeug wenigstens einen Umgebungssensor 12 umfassen, der zur Aufnahme von Umgebungsdaten, die das Fahrzeugumfeld angeben, eingerichtet ist. Der wenigstens eine Umgebungssensor 12 kann beispielsweise ein LiDAR- System, ein oder mehrere Radar-Systeme und/oder eine oder mehrere Kameras umfassen.
Es ist ein Ziel der vorliegenden Offenbarung, anhand einer automatisch verifizierbaren Spezifikation und einer durchgängigen virtuellen Simulationsumgebung für eine autonome oder automatisierte Fahrfunktion zu lernen, wie effizient Szenarien, die die Funktion verfälschen, generiert werden können.
In einem Beispiel wird eine ACC (Adaptive Cruise Control)-Funktion betrachtet. Die ACC- Funktion ist eingerichtet, um einen Sicherheitsabstand zu einem vorausfahrenden Fahrzeug einzuhalten. Mittels einer Zeitlücke th, definiert als th = h/v, können die ACC-Anforderungen wie folgt formalisiert werden:
- Zwei mögliche Modi: Sollgeschwindigkeits-Modus und Zeitabstand-Modus;
Im Sollgeschwindigkeits-Modus soll eine vom Fahrer vorgegebene bzw. gewünschte Geschwindigkeit Vd, d.h. vd E \vd rnin,· vd max , beibehalten werden.
Im Zeitabstand-Modus soll ein Zeitvorsprung th, d.h. th E
Figure imgf000009_0001
th Tnax\, zu einem vorausfahrenden Fahrzeug beibehalten werden.
Das System befindet sich im Sollgeschwindigkeits-Modus, wenn Vd <h/td gilt, ansonsten ist das System im Zeitabstand-Modus. Zudem muss die Beschleunigung des Fahrzeugs jederzeit ac E
\o-c,min'' <-t-c,max\ erfüllen.
Gemäß den Ausführungsformen der vorliegenden Offenbarung wird Reinforcement-Leaming (RL) verwendet, und insbesondere ein Reinforcement-Learning basierter Adversarial Agent (in den Figuren mit Agent bezeichnet). Der RL-Agent lernt, Szenarien zu generieren, die eine bestimmte Belohnung maximieren. Da das Ziel des Agenten darin besteht, die Fahrfunktion zu falsifizieren, ist die Belohnungsfunktion derart gestaltet, dass der Agent eine hohe Belohnung erhält, wenn das Szenario zu einer Verletzung der Spezifikation führt, und eine niedrige Belohnung, wenn die autonome Fahrfunktion gemäß der Spezifikation arbeitet.
Der Agent beobachtet wiederholt den Zustand des Systems 5, der alle relevanten Variablen für die gegebene Spezifikation umfasst. Basierend auf dem Zustand führt der Agent eine Aktion a gemäß seiner erlernten Richtlinie durch und erhält eine entsprechende Belohnung R(s,a). Die Aktion besteht aus einem endlichen Satz von Szenarioparametern. Im Laufe der Zeit ändert der Agent seine Richtlinie, um seine Belohnung zu maximieren.
Die Ausgabe des RL-Agenten ist ein Szenarioparametersatz a, der z.B. eine anfängliche Fahrzeuggeschwindigkeit, das gewünschte Fahrzeug, die anfängliche Zeitlücke und ein Geschwindigkeitsprofil des Fahrzeugs umfasst, das durch eine endliche Zeitreihe von Geschwindigkeitssegmenten Vf kodiert ist, wobei tt e t0, t1 . . tn. Es wird mit einem anfänglichen Parametersatz ao begonnen und ein entsprechender anfänglicher Umgebungszustand so berechnet. Der Zustand st enthält alle für die Überprüfung der Einhaltung der Spezifikationen relevanten Variablen, z.B. minimale und maximale Beschleunigung, minimaler und maximaler Abstand zum Vorderfahrzeug oder minimaler und maximaler Zeitfortschritt, minimale und maximale Geschwindigkeit usw. Dann können alle obigen Spezifikationsanweisungen entweder direkt erfasst oder numerisch durch eine Ungleichung der Form A[s; a] - b < 0 approximiert werden.
Der Eingang des RL-basierten Agenten ist der Umgebungszustand st zum Zeitpunkt t und die Ausgänge sind die modifizierten Szenarioparameter at+i für den nächsten Durchlauf. Die Belohnungsfunktion ist ausgewählt, z.B. so dass R(s, a ) = £ max(0, (exp(x) — 1)), wobei x der Wert einer beliebigen Zeile der linken Seite der Ungleichung A[s; a] - b < 0 für die Spezifikation bezeichnet. Dies garantiert, dass die Belohnung nur dann groß ist, wenn der Agent ein Szenario gefunden hat, das gegen die Spezifikation verstößt. Figur 2 zeigt ein allgemeines Schema für diesen Fall.
Allgemeine RL- Ansätze gehen zu Lasten langsamer, hoher Varianz, das Erlernen komplexer Aufgaben kann Millionen von Iterationen in Anspruch nehmen, und jede Iteration könnte kostenintensiv sein. Noch wichtiger ist, dass die Variation zwischen den Lerndurchläufen sehr hoch sein kann, was bedeutet, dass einige Durchläufe eines RL-Algorithmus erfolgreich sind, während andere aufgrund von Zufälligkeiten bei der Initialisierung und Abtastung scheitern. Diese hohe Variabilität des Lernens kann eine signifikante Hürde für die Anwendung von RL sein. Das Problem wird in großen Parameterräumen noch größer.
Die oben genannten Probleme können gelindert werden, indem Vorkenntnisse über den Vorgang eingebracht werden, die durch eine Ungleichung g(st, a ) < 0 , die Szenarien, die die Spezifikation auf triviale Art verletzen, ausschließt, angemessen modelliert werden können, d.h. es stellt z.B. sicher, dass das Fahrzeug in einem nicht-verletzenden (sicheren) Zustand startet. Diese Ungleichung wird entweder als Regularisierungsausdruck in der Belohnungsfunktion oder als Ausgabebeschränkung für das neuronale Netz zur Fokussierung des Lernfortschritts in den Lernprozess integriert. Jede kontinuierliche variablenfähige RL- Methode, z.B. Policy-Gradient-Methoden oder aktorkritische Methoden, können für den RL- Agenten verwendet werden.
Auch wenn mit der oben beschriebenen Methode viele Parametrierungen, die trivial gegen die Spezifikation verstoßen, ausgeschlossen werden können, dauert es immer noch eine beträchtliche Anzahl von Durchläufen, die bis zu mehreren Tagen dauern können, bis interessante Szenarien durch den RL-Agenten generiert werden. Deshalb können noch mehr Vorkenntnisse integriert werden, um den Lernprozess zu beschleunigen.
Figur 3 zeigt ein Flussdiagramm eines Verfahrens 300 zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Learning gemäß Ausführungsformen der vorliegenden Offenbarung.
Das Verfahren 300 umfasst im Block 310 ein Bereitstellen wenigstens einer Spezifikation einer automatisierten Fahrfunktion; im Block 320 ein Erzeugen eines Szenarios, wobei das Szenario durch einen ersten Parametersatz angegeben ist; und im Block 330 ein Ermitteln einer Belohnungsfunktion derart, dass die Belohnung in einem Fall höher ist, in dem das Szenario in einer Simulation die wenigstens eine Spezifikation nicht erfüllt, als in einem Fall, in dem das Szenario in der Simulation die wenigstens eine Spezifikation erfüllt, wobei die Belohnungsfunktion unter Verwendung eines regelbasierten Modells ermittelt wird.
Unabhängig vom tatsächlich verwendeten Algorithmus im autonomen oder automatisierten Fahrzeug wird davon ausgegangen, dass das Fahrzeug von einem traditionellen (regelbasierten) Steuerungssystem gesteuert wird und die Fahrdynamik durch ein einfaches analytisches Modell beschrieben wird, alle erfassbar durch die Differenzengleichung Xk+i = fä k, st, at), wobei Xk den Zustand des Fahrzeugs über die Ausführungszeit bezeichnet. Darauf aufbauend kann für den aktuellen Umgebungszustand st das folgende Optimierungsproblem formuliert werden: ma xRest(aest,st) aest
Xk+1 = fk(Xk, dest, St) zum Bestimmen eines neuen Parametersatzes aest für eine Schätzung der maximalen Belohnung Rest, max liefert. Wenn das Optimierungsproblem nicht konvex ist (was oft der Fall ist) kann auf eine konvexe Relaxation oder andere Annäherungsverfahren zurückgegriffen werden.
Dann erhält ein RL- Agent parallel den Zustand st und die RL-Agent-Belohnung
Rnn \R(st, üt) Restlru l E {1,2} und erzeugt einen neuen Parametersatz ann. Auf diese Weise kann der RL-Agent nur den Unterschied zwischen dem regelbasierten Steuerungsverhalten und dem eigentlichen System und nicht dem Gesamtsystem erlernen und eine entsprechende Modifikation ann erzeugen. Schließlich wird der neue Parametersatz für die nächste Ausführung auf as+t = aest + ann festgelegt. Um eine Initialisierung in einem unsicheren Zustand zu vermeiden, kann die zuvor beschriebene Methode verwendet werden, um Vorkenntnisse durch eine Ungleichung g(st, aest) < 0 zu approximieren.
Figuren 4 und 5 zeigen zwei mögliche Schemata gemäß Ausführungsformen der vorliegenden Offenbarung, die dies implementieren.
Das Verfahren umfasst ein Erzeugen eines zweiten Parametersatzes, der eine Modifikation des ersten Parametersatzes angibt, und ein Erzeugen eines weiteren Szenarios entsprechend einem dritten Parametersatz, wobei der dritte Parametersatz basierend auf dem zweiten Parametersatz und unter Verwendung des regelbasierten Modells bestimmt wird.
In einigen Ausführungsformen erfolgt das Erzeugen des weiteren Szenarios entsprechend dem dritten Parametersatz unter Verwendung einer Ungleichungsbeschränkung, die bestimmte Szenarien ausschließt. Dies ist in Figur 5 dargestellt. Insbesondere stellt der Block G in Figur 5 eine beispielhafte Ungleichheitsbegrenzung des folgenden Typs dar: \cinn Ctest\ ^ ClSchwelle
Die vorliegende Offenbarung ist jedoch nicht auf die Ungleichheitsbegrenzung beschränkt und es kann ein verallgemeinertes Optimierungsproblem verwendet werden, das wie folgt beschrieben werden kann: cik = arg m aEA
Figure imgf000013_0001
Figure imgf000013_0002
Hier wird ein geeigneter Kontrolleingang üt entsprechend einer bestimmten Szenarioklasse ausgewählt. Um beispielsweise eine Kollision mit einem vorausfahrenden Fahrzeug zu verhindern.
Erfindungsgemäß wird die Belohnungsfunktion zum Beispiel unter Verwendung des regelbasierten Modells ermittelt. Insbesondere lernt der RL- Agent, Szenarien zu generieren, die eine Belohnung maximieren und eine Verletzung der Spezifikation der Fahrfunktion widerspiegeln. Das Lernen kann also dadurch beschleunigt werden, indem vorhandenes Vorwissen in den Trainingsprozess einbezogen wird. Hierdurch kann die automatisierte Fahrfunktion effizient falsifiziert werden, um Schwachstellen in der automatisierten F ahrfunktion aufzudecken .

Claims

Patentansprüche
1. Verfahren (300) zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement- Learning, umfassend: Bereitstellen (310) wenigstens einer Spezifikation einer automatisierten Fahrfunktion;
Erzeugen (320) eines Szenarios, wobei das Szenario durch einen ersten Parametersatz at angegeben ist; und
Ermitteln (330) einer Belohnungsfunktion derart, dass die Belohnung R in einem Fall höher ist, in dem das Szenario in einer Simulation die wenigstens eine Spezifikation nicht erfüllt, als in einem Fall, in dem das Szenario in der Simulation die wenigstens eine Spezifikation erfüllt.
2. Das Verfahren (300) nach Anspruch 1, wobei die Belohnungsfunktion unter Verwendung eines regelbasierten Modells (RBM) ermittelt wird.
3. Das Verfahren (300) nach Anspruch 1 oder 2, wobei das regelbasierte Modell (RBM) einen Regler des Fahrzeugs für die automatisierte Fahrfunktion beschreibt, wobei der Regler ein Modell des mit der automatisierten Fahrfunktion gesteuerten Fahrzeugs ist.
4. Das Verfahren (300) nach einem der Ansprüche 1 bis 3, weiter umfassend:
Erzeugen eines zweiten Parametersatzes ann, der eine Modifikation des ersten Parametersatzes at angibt.
5. Das Verfahren (300) nach Anspruch 4, weiter umfassend: Ermitteln einer Schätzung Rest des Wertes der Belohnungsfunktion für ein konkretes Szenario unter Verwendung eines regelbasierten Modells (RBM) in einer Simulation;
Erzeugen eines weiteren Szenarios entsprechend einem dritten Parametersatz at+i, wobei der dritte Parametersatz at+i basierend auf dem zweiten Parametersatz awl und dem Parametersatz aest„ der die Schätzung Rest basierend auf dem regelbasierten Modell (RBM) maximiert, bestimmt wird; und
Ermitteln der Belohnungsfunktion derart, dass die Belohnung R in einem Fall höher ist, in dem für ein Szenario in einer Simulation die Schätzung Rest des Wertes der Belohnungsfunktion niedriger ist als der tatsächliche Wert R der Belohnungsfunktion.
6. Das Verfahren (300) nach Anspruch 5, wobei das Erzeugen des weiteren Szenarios entsprechend dem dritten Parametersatz at+i unter Verwendung einer Ungleichungsbeschränkung G, die bestimmte Szenarien ausschließt, oder einer Projektion des Parametersatzes auf eine Menge von bestimmten Szenarien erfolgt.
7. Speichermedium, umfassend ein Software-Programm, das eingerichtet ist, um auf einem oder mehreren Prozessoren ausgeführt zu werden, und um dadurch das Verfahren (300) gemäß einem der Ansprüche 1 bis 6 auszuführen.
8. System zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Learning, umfassend eine Prozessoreinheit, konfiguriert ist, um das Verfahren zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Learning gemäß einem der Ansprüche (300) 1 bis 6 auszuführen.
PCT/EP2020/080740 2019-11-07 2020-11-03 Verfahren und system zum prüfen einer automatisierten fahrfunktion durch reinforcement-learning WO2021089499A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080073227.2A CN114616157A (zh) 2019-11-07 2020-11-03 用于通过强化学习检查自动化的行驶功能的方法和系统
US17/775,097 US20220396280A1 (en) 2019-11-07 2020-11-03 Method and System for Checking an Automated Driving Function by Reinforcement Learning

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019130040.1 2019-11-07
DE102019130040.1A DE102019130040A1 (de) 2019-11-07 2019-11-07 Verfahren und System zum Prüfen einer automatisierten Fahrfunktion durch Reinforcement-Learning

Publications (1)

Publication Number Publication Date
WO2021089499A1 true WO2021089499A1 (de) 2021-05-14

Family

ID=73131720

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/080740 WO2021089499A1 (de) 2019-11-07 2020-11-03 Verfahren und system zum prüfen einer automatisierten fahrfunktion durch reinforcement-learning

Country Status (4)

Country Link
US (1) US20220396280A1 (de)
CN (1) CN114616157A (de)
DE (1) DE102019130040A1 (de)
WO (1) WO2021089499A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113485300B (zh) * 2021-07-15 2022-10-04 南京航空航天大学 一种基于强化学习的自动驾驶车辆碰撞测试方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017223192A1 (en) * 2016-06-21 2017-12-28 Sri International Systems and methods for machine learning using a trusted model
DE102018217004A1 (de) * 2017-10-12 2019-04-18 Honda Motor Co., Ltd. Autonome Fahrzeugstrategiegenerierung
US10509127B2 (en) * 2017-12-13 2019-12-17 Luminar Technologies, Inc. Controlling vehicle sensors based on road configuration
US10996141B2 (en) * 2018-09-28 2021-05-04 Intel Corporation Method and an autonomous ground vehicle

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ANDREA FAVRIN ET AL: "Learning to falsify automated driving vehicles with prior knowledge", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 25 January 2021 (2021-01-25), XP081867038 *
KATO KOKI ET AL: "Falsification of Cyber-Physical Systems with Reinforcement Learning", 2018 IEEE WORKSHOP ON MONITORING AND TESTING OF CYBER-PHYSICAL SYSTEMS (MT-CPS), IEEE, 10 April 2018 (2018-04-10), pages 5 - 6, XP033382505, DOI: 10.1109/MT-CPS.2018.00009 *
TUNCALI CUMHUR ERKAN ET AL: "Simulation-based Adversarial Test Generation for Autonomous Vehicles with Machine Learning Components", 2018 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV), IEEE, 26 June 2018 (2018-06-26), pages 1555 - 1562, XP033423320, DOI: 10.1109/IVS.2018.8500421 *
XIAO WANG ET AL: "Falsification-Based Robust Adversarial Reinforcement Learning", ARXIV.ORG, 17 July 2020 (2020-07-17), XP081713323 *
XIN QIN ET AL: "Automatic Testing and Falsification with Dynamically Constrained Reinforcement Learning", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 30 October 2019 (2019-10-30), XP081522972 *

Also Published As

Publication number Publication date
DE102019130040A1 (de) 2021-05-12
US20220396280A1 (en) 2022-12-15
CN114616157A (zh) 2022-06-10

Similar Documents

Publication Publication Date Title
WO2021058223A1 (de) Verfahren zur effizienten, simulativen applikation automatisierter fahrfunktionen
EP3082000B1 (de) Verfahren und system zum testen eines mechatronischen systems
DE102019124018A1 (de) Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme
EP3942379B1 (de) Verfahren zum trainieren wenigstens eines algorithmus für ein steuergerät eines kraftfahrzeugs, computerprogrammprodukt, kraftfahrzeug sowie system
DE102018109835A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Netzkonfiguration eines neuronalen Netzes
WO2020187591A1 (de) Verfahren und vorrichtung zum ansteuern eines roboters
DE102019134053A1 (de) Verfahren zur kontinuierlichen Absicherung im Fahrversuch applizierter automatisierter Fahrfunktionen
WO2021089499A1 (de) Verfahren und system zum prüfen einer automatisierten fahrfunktion durch reinforcement-learning
AT523850B1 (de) Computergestütztes Verfahren und Vorrichtung zur wahrscheinlichkeitsbasierten Geschwindigkeitsprognose für Fahrzeuge
DE102020120141A1 (de) Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme mittels probabilistisch prädizierter Systemantworten
DE102019213061A1 (de) Klassifizierung von KI-Modulen
EP4105811A1 (de) Computerimplementiertes verfahren zum szenariobasierten testen und/oder homologation von zu testenden zumindest teilweise autonomen fahrfunktionen durch key performance indicators (kpi)
EP3783493A1 (de) Verfahren zum testen eines systems auf eine anforderung
EP3979009A1 (de) Erzeugen eines vereinfachten modells für xil-systeme
DE102019124257A1 (de) Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zur Ermittlung von KI-Trainingsdaten in einem Fahrzeug und Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zur Ermittlung von relevanten Situationsparametern zum Trainieren einer künstlichen Intelligenzeinheit eines automatisiert fahrbaren Fahrzeuges
WO2018206522A1 (de) Produktreifebestimmung eines technischen systems und insbesondere eines autonom fahrenden fahrzeugs
DE102013200932A1 (de) Verfahren und Vorrichtung zur Überwachung einer Funktion eines Motorsteuergeräts zum Einsatz in einem Motorsystem mit einem Verbrennungsmotor
DE102019214162A1 (de) Verfahren und Vorrichtung zum Simulieren eines Steuergerätes
DE102022002457A1 (de) Verfahren zur Prädiktion eines Einflusses eines Verkehrsteilnehmers auf zumindest einen anderen Verkehrsteilnehmer und Verfahren zum Betrieb eines Fahrzeugs
DE102021132542A1 (de) Verfahren zum bereitstellen eines bit-flip-fehlerrobusten; perturbationsrobusten und komprimierten neuronalen netzes; computerprogramm; fahrerassistenzsystem
WO2021105103A1 (de) Verfahren und software-werkzeug zum vornehmen ausführbarer spezifikationen bei der systementwicklung oder -validierung komplexer funktionaler systeme
EP3783452A1 (de) Computerimplementiertes verfahren und testeinheit zum approximieren von testergebnissen und verfahren zum bereitstellen eines trainierten, künstlichen neuronalen netzes
EP4214642A1 (de) Verfahren zur bereitstellung einer maschinell gelernten steuerfunktion zur fahrzeugsteuerung anhand bereitgestellter fahrzeugsensordaten
DE102022114913A1 (de) Computerimplementiertes Verfahren zur Verwendung von gespeicherten Spezifikationsanteilen
DE102022002916A1 (de) Verfahren zum Ermitteln einer Schaltstrategie für ein Schaltgetriebe eines Fahrzeugs, sowie Verfahren zum Trainieren eines lernfähigen Systems zur Prädiktion einer Schaltstrategie und Fahrerassistenzsystem

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20801208

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20801208

Country of ref document: EP

Kind code of ref document: A1