DE102020206327A1 - Method and device for testing a technical system - Google Patents
Method and device for testing a technical system Download PDFInfo
- Publication number
- DE102020206327A1 DE102020206327A1 DE102020206327.3A DE102020206327A DE102020206327A1 DE 102020206327 A1 DE102020206327 A1 DE 102020206327A1 DE 102020206327 A DE102020206327 A DE 102020206327A DE 102020206327 A1 DE102020206327 A1 DE 102020206327A1
- Authority
- DE
- Germany
- Prior art keywords
- classifier
- simulation
- classifiers
- test cases
- test case
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3604—Software analysis for verifying properties of programs
- G06F11/3608—Software analysis for verifying properties of programs using formal methods, e.g. model checking, abstract interpretation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M17/00—Testing of vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3684—Test management for test design, e.g. generating new test cases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3688—Test management for test execution, e.g. scheduling of test suites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/15—Vehicle, aircraft or watercraft design
Abstract
Verfahren (10) zum Prüfen eines technischen Systems, gekennzeichnet durch folgende Merkmale:- in einer Simulation des Systems werden Simulationsergebnisse (11) gewonnen,- in Validierungsversuchen (12) am System werden den Simulationsergebnissen (11) entsprechende Messdaten (13) erfasst,- anhand der Simulationsergebnisse (11) und Messdaten (13) wird für mehrere Kataloge (14, 15) von Testfällen des Systems jeweils ein Klassifikator (16, 17) gebildet (19),- durch die Klassifikatoren (16, 17) werden weitere Testfälle jeweils dahingehend eingestuft (18), ob die Simulation im jeweiligen weiteren Testfall zuverlässig (20), unzuverlässig (21) oder nicht zu beurteilen (22) ist,- diejenigen weiteren Testfälle, in welchen die Simulation unzuverlässig (21) oder nicht zu beurteilen (22) ist, werden erfasst und- anhand eines mit den erfassten weiteren Testfällen (21, 22) verbundenen Verbesserungspotenziales (23) für die Klassifikatoren (16, 17) werden Kandidaten (24) für mögliche weitere Validierungsversuche (26) priorisiert (25).Method (10) for testing a technical system, characterized by the following features: - simulation results (11) are obtained in a simulation of the system, - measurement data (13) corresponding to the simulation results (11) are recorded in validation tests (12) on the system, - Using the simulation results (11) and measurement data (13), a classifier (16, 17) is formed (19) for several catalogs (14, 15) of test cases of the system, - the classifiers (16, 17) are used to generate further test cases classified (18) as to whether the simulation is reliable (20), unreliable (21) or not to be assessed (22) in the respective further test case, - those further test cases in which the simulation is unreliable (21) or not to be assessed (22 ) are recorded and - on the basis of an improvement potential (23) associated with the recorded further test cases (21, 22) for the classifiers (16, 17), candidates (24) for possible further validation attempts (26) prioritized (25).
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Prüfen eines technischen Systems. Die vorliegende Erfindung betrifft darüber hinaus eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium.The present invention relates to a method for testing a technical system. The present invention also relates to a corresponding device, a corresponding computer program and a corresponding storage medium.
Stand der TechnikState of the art
In der Softwaretechnik wird die Nutzung von Modellen zur Automatisierung von Testaktivitäten und zur Generierung von Testartefakten im Testprozess unter dem Oberbegriff „modellbasiertes Testen“ (model-based testing, MBT) zusammengefasst. Hinlänglich bekannt ist beispielsweise die Generierung von Testfällen aus Modellen, die das Sollverhalten des zu testenden Systems beschreiben.In software engineering, the use of models to automate test activities and to generate test artifacts in the test process is summarized under the heading of “model-based testing” (MBT). For example, the generation of test cases from models that describe the target behavior of the system to be tested is well known.
Insbesondere eingebettete Systeme (embedded systems) sind auf schlüssige Eingangssignale von Sensoren angewiesen und stimulieren wiederum ihre Umwelt durch Ausgangssignale an unterschiedlichste Aktoren. Im Zuge der Verifikation und vorgelagerter Entwicklungsphasen eines solchen Systems wird daher in einer Regelschleife dessen Modell (model in the loop, MiL), Software (software in the loop, SiL), Prozessor (processor in the loop, PiL) oder gesamte Hardware (hardware in the loop, HiL) gemeinsam mit einem Modell der Umgebung simuliert. In der Fahrzeugtechnik werden diesem Prinzip entsprechende Simulatoren zur Prüfung elektronischer Steuergeräte je nach Testphase und -objekt mitunter als Komponenten-, Modul- oder Integrationsprüfstände bezeichnet.Embedded systems in particular are dependent on coherent input signals from sensors and in turn stimulate their environment through output signals to a wide variety of actuators. In the course of the verification and upstream development phases of such a system, its model (model in the loop, MiL), software (software in the loop, SiL), processor (processor in the loop, PiL) or entire hardware (hardware in the loop, HiL) is simulated together with a model of the environment. In vehicle technology, simulators corresponding to this principle for testing electronic control devices are sometimes referred to as component, module or integration test benches, depending on the test phase and object.
Derartige Simulationen sind auf verschiedenen Gebieten der Technik verbreitet und finden beispielsweise Einsatz, um eingebettete Systeme in Elektrowerkzeugen, Motorsteuergeräte für Antriebs-, Lenk- und Bremssysteme, Kamerasysteme, Systeme mit Komponenten der künstlichen Intelligenz und des maschinellen Lernens, Robotiksysteme oder autonome Fahrzeuge in frühen Phasen ihrer Entwicklung auf Tauglichkeit zu prüfen. Dennoch werden die Ergebnisse von Simulationsmodellen nach dem Stand der Technik aufgrund fehlenden Vertrauens in ihre Zuverlässigkeit nur begrenzt in Freigabeentscheidungen einbezogen.Such simulations are widespread in various fields of technology and are used, for example, to convert embedded systems in power tools, engine control units for drive, steering and braking systems, camera systems, systems with components of artificial intelligence and machine learning, robotics systems or autonomous vehicles in early phases to check their development for suitability. Nevertheless, the results of state-of-the-art simulation models are only included in release decisions to a limited extent due to a lack of confidence in their reliability.
Offenbarung der ErfindungDisclosure of the invention
Die Erfindung stellt ein Verfahren zum Prüfen eines technischen Systems, eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium gemäß den unabhängigen Ansprüchen bereit.The invention provides a method for testing a technical system, a corresponding device, a corresponding computer program and a corresponding storage medium according to the independent claims.
Der erfindungsgemäße Ansatz fußt auf der Erkenntnis, dass die Güte von Simulationsmodellen für eine korrekte Vorhersage der damit erzielbaren Testergebnisse entscheidend ist. Auf dem Gebiet des MBT beschäftigt sich die Teildisziplin der Validierung mit der Aufgabe, reale Messungen mit Simulationsergebnissen zu vergleichen. Dazu werden verschiedene Metriken, Maßzahlen oder andere Vergleicher verwendet, die Signale miteinander verknüpfen und die im Folgenden zusammenfassend als Signalmetriken (SM) bezeichnet werden sollen. Beispiele für derartige Signalmetriken sind Metriken, die Größe, Phasenverschiebung und Korrelationen vergleichen. Einige Signalmetriken sind durch einschlägige Normen definiert, z. B. gemäß
Allgemeiner ausgedrückt unterstützen Unsicherheitsquantifizierungstechniken die Abschätzung der Simulations- und Modellgüte. Das Ergebnis einer Bewertung der Modellgüte unter Heranziehung einer Signalmetrik oder allgemeiner unter Verwendung einer Unsicherheitsquantifizierungsmethode für eine bestimmte Eingabe X, bei der es sich um einen Parameter oder ein Szenario handeln kann, wird nachfolgend als Simulationsmodell-Fehlermetrik - kurz: Fehlermetrik - SMerrorX bezeichnet. Zur Verallgemeinerung (Interpolation und Extrapolation) von SMerrorX für bisher nicht betrachtete Eingaben, Parameter oder Szenarien X können maschinelle Lernmodelle etwa auf der Grundlage sogenannter Gaußprozesse verwendet werden.In more general terms, uncertainty quantification techniques support the estimation of the simulation and model quality. The result of an assessment of the model quality using a signal metric or, more generally, using an uncertainty quantification method for a specific input X, which can be a parameter or a scenario, is hereinafter referred to as the simulation model error metric - in short: error metric - SMerrorX. For generalization (interpolation and extrapolation) of SMerrorX for inputs, parameters or scenarios X that have not been considered previously, machine learning models can be used, for example on the basis of so-called Gaussian processes.
Bei der Verifizierung wird der Prüfling (system under test, SUT) typischerweise anhand einer Anforderung, Spezifikation oder Leistungskennzahl untersucht. Es ist zu beachten, dass boolesche Anforderungen oder Spezifikationen oft in quantitative Messungen umgewandelt werden können, indem man Formalismen wie die Signal-Temporallogik (signal temporal logic, STL) verwendet. Derartige Formalismen können als Grundlage einer quantitativen Semantik dienen, die sich insofern als Verallgemeinerung der Verifikation darstellt, als ein positiver Wert die Erfüllung und ein negativer Wert die Verletzung einer Anforderung indiziert. Im Folgenden werden solche Anforderungen, Spezifikationen oder Leistungsmaße zusammenfassend als „quantitative Anforderungen“ (QSpec) bezeichnet.During verification, the test item (system under test, SUT) is typically examined on the basis of a requirement, specification or performance indicator. It should be noted that Boolean requirements or specifications can often be converted into quantitative measurements using formalisms such as signal temporal logic (STL). Such formalisms can serve as the basis of quantitative semantics, which in this respect represent a generalization of the verification, rather than a positive one Value indicates fulfillment and a negative value indicates violation of a requirement. In the following, such requirements, specifications or performance measures are collectively referred to as “quantitative requirements” (QSpec).
Derlei quantitative Anforderungen können entweder anhand des realen SUT oder eines Modells desselben - gleichsam eines „virtuellen SUT“ - überprüft werden. Zum Zwecke dieser Verifikation werden Kataloge mit Testfällen zusammengestellt, denen ein SUT genügen muss, um zu entscheiden, ob es die gewünschten Leistungs- und Sicherheitseigenschaften aufweist. Ein solcher Testfall kann parametrisiert werden und so eine beliebige Anzahl von Einzeltests abdecken.Such quantitative requirements can either be checked using the real SUT or a model of the same - a “virtual SUT”, so to speak. For the purpose of this verification, catalogs are compiled with test cases that an SUT must satisfy in order to decide whether it has the desired performance and security properties. Such a test case can be parameterized and thus cover any number of individual tests.
Vor diesem Hintergrund trägt der vorgeschlagene Ansatz dem Bedürfnis nach belastbaren Testergebnissen Rechnung, um die Leistungs- und Sicherheitseigenschaften eines SUT zu gewährleisten. Gerade bei der Durchführung von Tests anhand einer Simulation des Systems oder einer Teilkomponente - anstelle von Tests am wirklichen System - gilt es sicherzustellen, dass die Simulationsergebnisse vertrauenswürdig sind.Against this background, the proposed approach takes into account the need for reliable test results in order to guarantee the performance and safety properties of an SUT. Especially when performing tests based on a simulation of the system or a subcomponent - instead of tests on the real system - it is important to ensure that the simulation results are trustworthy.
Eine große Herausforderung für die Modellvalidierung besteht darin, reale Messungen und Stimuli für die entsprechende Simulation zu ermitteln, die ein Höchstmaß an Informationen über die Genauigkeit des Modells liefern. Für simulationsbasierte Tests werden zudem Angaben darüber benötigt, wie gut das simulierte System die gestellten Anforderungen erfüllt.A major challenge for model validation is to determine real measurements and stimuli for the corresponding simulation that provide the highest level of information about the accuracy of the model. For simulation-based tests, information is also required about how well the simulated system meets the requirements.
Anhand der oben umrissenen Fehlermetrik lässt sich ein Klassifikator bilden, der für einen parametrisierten Satz von Testfällen - nachfolgend als „Testkatalog“ bezeichnet - die Zuverlässigkeit der Simulation in jedem betrachteten Testfall beurteilt und diesen entsprechend einstuft. Ein solches Vorgehen fußt auf dem Gedanken, die als unzuverlässig eingestuften Testfälle zu erfassen und in der Praxis zu untersuchen. Nachdem die Tests am System durchgeführt wurden, können die gewonnenen Erkenntnisse auf verschiedene Weise genutzt werden, z. B. zur Fortbildung des Klassifikators, zur Verbesserung der Parametrisierung oder zur Modelloptimierung. Eine Einschränkung dieses Ansatzes ergibt sich daraus, dass für jeden Satz von Testfällen eine Einstufung vorgenommen werden muss und sämtliche nicht zuverlässigen Fälle als Anwärter für experimentelle Messungen in Betracht kommen, sofern sie nicht herangezogen werden, um das Modell, die Parametrisierung oder das Metamodell zu verbessern.Using the error metrics outlined above, a classifier can be created that assesses the reliability of the simulation in each test case under consideration for a parameterized set of test cases - hereinafter referred to as the “test catalog” - and classifies them accordingly. Such a procedure is based on the idea of recording the test cases classified as unreliable and examining them in practice. After the tests have been performed on the system, the knowledge gained can be used in various ways, e.g. B. to train the classifier, to improve the parameterization or to optimize the model. A limitation of this approach arises from the fact that a classification must be made for each set of test cases and all non-reliable cases are considered as candidates for experimental measurements, unless they are used to improve the model, the parameterization or the metamodel .
Ein Vorzug der erfindungsgemäßen Lösung liegt vor diesem Hintergrund in der Erschließung der aus verschiedenen Sätzen von parametrisierten Testfällen zu ziehenden Erkenntnisse. Die Anzahl der für wirkliche Tests empfohlenen Testfälle wird auf diesem Wege durch eine Kombination der durch mehrere Klassifikatoren gelieferten Informationen reduziert. Darüber hinaus berücksichtigt der vorgeschlagene Ansatz hauptsächlich Testfälle, die weder als zuverlässig noch als unzuverlässig eingestuft werden. Auf diesem Wege lässt sich die Anzahl der wirklichen Tests reduzieren, ohne das Modell, die Modellparametrisierung oder die Parametrisierung eines etwaigen Validierungs-oder Metamodells zu beeinflussen.Against this background, one advantage of the solution according to the invention lies in the development of the knowledge to be drawn from various sets of parameterized test cases. The number of test cases recommended for real tests is reduced in this way by a combination of the information provided by several classifiers. In addition, the proposed approach mainly takes into account test cases that are classified as neither reliable nor unreliable. In this way, the number of actual tests can be reduced without influencing the model, the model parameterization or the parameterization of any validation or metamodel.
Die Anwendung derartiger Tests kommt auf unterschiedlichsten Feldern in Betracht. Zu denken ist beispielsweise an die funktionale Sicherheit automatisierter Systeme, wie sie etwa zur Automatisierung von Fahrfunktionen (automated driving) genutzt werden.Such tests can be used in a wide variety of fields. One should think, for example, of the functional safety of automated systems, such as those used to automate driving functions (automated driving).
Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen des im unabhängigen Anspruch angegebenen Grundgedankens möglich. So kann eine automatisierte, computer-implementierte Testumgebung vorgesehen sein, um die Qualität der getesteten Hardware- oder Softwareprodukte weitgehend selbsttätig zu verbessern.The measures listed in the dependent claims enable advantageous developments and improvements of the basic idea specified in the independent claim. An automated, computer-implemented test environment can thus be provided in order to improve the quality of the tested hardware or software products largely automatically.
FigurenlisteFigure list
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
-
1 eine Datenbank für Simulation und experimentelle Messungen. -
2 eine Darstellung des vorgeschlagenen Algorithmus. -
3 die Berechnung einer erwarteten Verbesserung im Detail. -
4 eine auf einer Klassifizierung mit hoher Genauigkeit basierende Variante. -
5 eine Variante zur Berechnung der erwarteten Verbesserung. -
6 schematisch eine Arbeitsstation.
-
1 a database for simulation and experimental measurements. -
2 a representation of the proposed algorithm. -
3 the calculation of an expected improvement in detail. -
4th a variant based on a classification with high accuracy. -
5 a variant for calculating the expected improvement. -
6th schematically a workstation.
Ausführungsformen der ErfindungEmbodiments of the invention
Es sei bemerkt, dass dieser Ansatz unabhängig vom für die Einstufung eingesetzten Klassifikator ist, dessen Bildung auf vielfältige Weise erfolgen kann. In den Anwendungsbeispielen wird gleichwohl auf unterschiedliche Implementierungsmöglichkeiten Bezug genommen.It should be noted that this approach is independent of the classifier used for the classification, which can be formed in a variety of ways. In the application examples, however, reference is made to different implementation options.
Die in der Simulation des Systems gewonnenen Simulationsergebnisse (
Wie
Durch einen paarweisen Vergleich (
Abhängig von den Eigenschaften der Klassifikatoren (
Für den ursprünglichen (
In der in
An die Stelle eines paarweisen Vergleiches (
Wie bereits erwähnt hängt der oben vorgestellte Ansatz nicht von einer bestimmten Umsetzung des Klassifikators (
Wenn beispielsweise die Parameter des Klassifikators (
Der Informationsgehalt der neuen Messungen wird in diesem Ausführungsbeispiel auf der Grundlage üblicher Informationsmaße berechnet. Die Priorisierung (
Eine andere Variante bietet sich an, wenn mindestens ein Beurteilungsmerkmal des Klassifikators (
Dieses Verfahren (
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 10303489 A1 [0004]DE 10303489 A1 [0004]
Zitierte Nicht-PatentliteraturNon-patent literature cited
- ISO 18571 [0007]ISO 18571 [0007]
Claims (11)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020206327.3A DE102020206327A1 (en) | 2020-05-20 | 2020-05-20 | Method and device for testing a technical system |
CN202110539523.3A CN113704085A (en) | 2020-05-20 | 2021-05-18 | Method and device for checking a technical system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020206327.3A DE102020206327A1 (en) | 2020-05-20 | 2020-05-20 | Method and device for testing a technical system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020206327A1 true DE102020206327A1 (en) | 2021-11-25 |
Family
ID=78408518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020206327.3A Pending DE102020206327A1 (en) | 2020-05-20 | 2020-05-20 | Method and device for testing a technical system |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113704085A (en) |
DE (1) | DE102020206327A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021208759A1 (en) | 2021-08-11 | 2023-02-16 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method of training a machine learning algorithm to generate test specifications for testing a software-based system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10303489A1 (en) | 2003-01-30 | 2004-08-12 | Robert Bosch Gmbh | Motor vehicle control unit software testing, whereby the software is simulated using a test system that at least partially simulates the control path of a control unit |
-
2020
- 2020-05-20 DE DE102020206327.3A patent/DE102020206327A1/en active Pending
-
2021
- 2021-05-18 CN CN202110539523.3A patent/CN113704085A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10303489A1 (en) | 2003-01-30 | 2004-08-12 | Robert Bosch Gmbh | Motor vehicle control unit software testing, whereby the software is simulated using a test system that at least partially simulates the control path of a control unit |
Non-Patent Citations (1)
Title |
---|
ISO 18571 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021208759A1 (en) | 2021-08-11 | 2023-02-16 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method of training a machine learning algorithm to generate test specifications for testing a software-based system |
Also Published As
Publication number | Publication date |
---|---|
CN113704085A (en) | 2021-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102020205539A1 (en) | Method and device for testing a technical system | |
EP1922613A2 (en) | Method and device for automatically evaluating a software source code quality | |
DE102019209540A1 (en) | Process and device for the optimal distribution of test cases on different test platforms | |
EP3757792A2 (en) | Method and device for testing a system, for selecting real tests and for testing systems with machine learning components | |
DE102019134053A1 (en) | Process for the continuous validation of automated driving functions applied in driving tests | |
DE102011086352A1 (en) | Method and diagnostic system to support guided troubleshooting in technical systems | |
DE102020206327A1 (en) | Method and device for testing a technical system | |
DE102020205540A1 (en) | Method and device for testing a technical system | |
DE102020206321A1 (en) | Method and device for testing a technical system | |
DE102021109126A1 (en) | Procedure for testing a product | |
DE102021109129A1 (en) | Procedure for testing a product | |
DE102020205131A1 (en) | Method and device for simulating a technical system | |
EP3757698A1 (en) | Method and device for evaluating and selecting signal comparison metrics | |
DE102020205527A1 (en) | Method and device for testing a technical system | |
DE102020206323A1 (en) | Method and device for testing a technical system | |
DE102020205977A1 (en) | Method and device for testing a technical system | |
DE102020206324A1 (en) | Method and device for testing a technical system | |
DE102021200298A1 (en) | Method and device for testing a technical system | |
DE102020205526A1 (en) | Method and device for testing a technical system | |
DE102020206322A1 (en) | Method and device for testing a technical system | |
DE102021109133A1 (en) | Method and device for creating test cases for a test system | |
DE102021202335A1 (en) | Method and device for testing a technical system | |
DE102021201505A1 (en) | Method and device for testing a technical system | |
DE102021102460A1 (en) | Procedure for performing a simulation | |
DE102020215387A1 (en) | Method for optimizing a test set for automatic qualification of a virtual model for an automotive component |