DE102020206327A1 - Method and device for testing a technical system - Google Patents

Method and device for testing a technical system Download PDF

Info

Publication number
DE102020206327A1
DE102020206327A1 DE102020206327.3A DE102020206327A DE102020206327A1 DE 102020206327 A1 DE102020206327 A1 DE 102020206327A1 DE 102020206327 A DE102020206327 A DE 102020206327A DE 102020206327 A1 DE102020206327 A1 DE 102020206327A1
Authority
DE
Germany
Prior art keywords
classifier
simulation
classifiers
test cases
test case
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020206327.3A
Other languages
German (de)
Inventor
Joachim Sohns
Ji Su Yoon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020206327.3A priority Critical patent/DE102020206327A1/en
Priority to CN202110539523.3A priority patent/CN113704085A/en
Publication of DE102020206327A1 publication Critical patent/DE102020206327A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3604Software analysis for verifying properties of programs
    • G06F11/3608Software analysis for verifying properties of programs using formal methods, e.g. model checking, abstract interpretation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3684Test management for test design, e.g. generating new test cases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3688Test management for test execution, e.g. scheduling of test suites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design

Abstract

Verfahren (10) zum Prüfen eines technischen Systems, gekennzeichnet durch folgende Merkmale:- in einer Simulation des Systems werden Simulationsergebnisse (11) gewonnen,- in Validierungsversuchen (12) am System werden den Simulationsergebnissen (11) entsprechende Messdaten (13) erfasst,- anhand der Simulationsergebnisse (11) und Messdaten (13) wird für mehrere Kataloge (14, 15) von Testfällen des Systems jeweils ein Klassifikator (16, 17) gebildet (19),- durch die Klassifikatoren (16, 17) werden weitere Testfälle jeweils dahingehend eingestuft (18), ob die Simulation im jeweiligen weiteren Testfall zuverlässig (20), unzuverlässig (21) oder nicht zu beurteilen (22) ist,- diejenigen weiteren Testfälle, in welchen die Simulation unzuverlässig (21) oder nicht zu beurteilen (22) ist, werden erfasst und- anhand eines mit den erfassten weiteren Testfällen (21, 22) verbundenen Verbesserungspotenziales (23) für die Klassifikatoren (16, 17) werden Kandidaten (24) für mögliche weitere Validierungsversuche (26) priorisiert (25).Method (10) for testing a technical system, characterized by the following features: - simulation results (11) are obtained in a simulation of the system, - measurement data (13) corresponding to the simulation results (11) are recorded in validation tests (12) on the system, - Using the simulation results (11) and measurement data (13), a classifier (16, 17) is formed (19) for several catalogs (14, 15) of test cases of the system, - the classifiers (16, 17) are used to generate further test cases classified (18) as to whether the simulation is reliable (20), unreliable (21) or not to be assessed (22) in the respective further test case, - those further test cases in which the simulation is unreliable (21) or not to be assessed (22 ) are recorded and - on the basis of an improvement potential (23) associated with the recorded further test cases (21, 22) for the classifiers (16, 17), candidates (24) for possible further validation attempts (26) prioritized (25).

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Prüfen eines technischen Systems. Die vorliegende Erfindung betrifft darüber hinaus eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium.The present invention relates to a method for testing a technical system. The present invention also relates to a corresponding device, a corresponding computer program and a corresponding storage medium.

Stand der TechnikState of the art

In der Softwaretechnik wird die Nutzung von Modellen zur Automatisierung von Testaktivitäten und zur Generierung von Testartefakten im Testprozess unter dem Oberbegriff „modellbasiertes Testen“ (model-based testing, MBT) zusammengefasst. Hinlänglich bekannt ist beispielsweise die Generierung von Testfällen aus Modellen, die das Sollverhalten des zu testenden Systems beschreiben.In software engineering, the use of models to automate test activities and to generate test artifacts in the test process is summarized under the heading of “model-based testing” (MBT). For example, the generation of test cases from models that describe the target behavior of the system to be tested is well known.

Insbesondere eingebettete Systeme (embedded systems) sind auf schlüssige Eingangssignale von Sensoren angewiesen und stimulieren wiederum ihre Umwelt durch Ausgangssignale an unterschiedlichste Aktoren. Im Zuge der Verifikation und vorgelagerter Entwicklungsphasen eines solchen Systems wird daher in einer Regelschleife dessen Modell (model in the loop, MiL), Software (software in the loop, SiL), Prozessor (processor in the loop, PiL) oder gesamte Hardware (hardware in the loop, HiL) gemeinsam mit einem Modell der Umgebung simuliert. In der Fahrzeugtechnik werden diesem Prinzip entsprechende Simulatoren zur Prüfung elektronischer Steuergeräte je nach Testphase und -objekt mitunter als Komponenten-, Modul- oder Integrationsprüfstände bezeichnet.Embedded systems in particular are dependent on coherent input signals from sensors and in turn stimulate their environment through output signals to a wide variety of actuators. In the course of the verification and upstream development phases of such a system, its model (model in the loop, MiL), software (software in the loop, SiL), processor (processor in the loop, PiL) or entire hardware (hardware in the loop, HiL) is simulated together with a model of the environment. In vehicle technology, simulators corresponding to this principle for testing electronic control devices are sometimes referred to as component, module or integration test benches, depending on the test phase and object.

DE10303489A1 offenbart ein derartiges Verfahren zum Testen von Software einer Steuereinheit eines Fahrzeugs, eines Elektrowerkzeugs oder eines Robotiksystems, bei dem durch ein Testsystem eine von der Steuereinheit steuerbare Regelstrecke wenigstens teilweise simuliert wird, indem Ausgangssignale von der Steuereinheit erzeugt werden und diese Ausgangssignale der Steuereinheit zu ersten Hardware-Bausteinen über eine erste Verbindung übertragen werden und Signale von zweiten Hardware-Bausteinen als Eingangssignale zur Steuereinheit über eine zweite Verbindung übertragen werden, wobei die Ausgangssignale als erste Steuerwerte in der Software bereitgestellt werden und zusätzlich über eine Kommunikationsschnittstelle in Echtzeit bezogen auf die Regelstrecke zum Testsystem übertragen werden. DE10303489A1 discloses such a method for testing software of a control unit of a vehicle, a power tool or a robotics system, in which a test system at least partially simulates a controlled system by the control unit by generating output signals from the control unit and these output signals from the control unit to the first hardware Modules are transferred via a first connection and signals from second hardware modules are transferred as input signals to the control unit via a second connection, the output signals being provided as first control values in the software and additionally via a communication interface in real time based on the controlled system to the test system be transmitted.

Derartige Simulationen sind auf verschiedenen Gebieten der Technik verbreitet und finden beispielsweise Einsatz, um eingebettete Systeme in Elektrowerkzeugen, Motorsteuergeräte für Antriebs-, Lenk- und Bremssysteme, Kamerasysteme, Systeme mit Komponenten der künstlichen Intelligenz und des maschinellen Lernens, Robotiksysteme oder autonome Fahrzeuge in frühen Phasen ihrer Entwicklung auf Tauglichkeit zu prüfen. Dennoch werden die Ergebnisse von Simulationsmodellen nach dem Stand der Technik aufgrund fehlenden Vertrauens in ihre Zuverlässigkeit nur begrenzt in Freigabeentscheidungen einbezogen.Such simulations are widespread in various fields of technology and are used, for example, to convert embedded systems in power tools, engine control units for drive, steering and braking systems, camera systems, systems with components of artificial intelligence and machine learning, robotics systems or autonomous vehicles in early phases to check their development for suitability. Nevertheless, the results of state-of-the-art simulation models are only included in release decisions to a limited extent due to a lack of confidence in their reliability.

Offenbarung der ErfindungDisclosure of the invention

Die Erfindung stellt ein Verfahren zum Prüfen eines technischen Systems, eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium gemäß den unabhängigen Ansprüchen bereit.The invention provides a method for testing a technical system, a corresponding device, a corresponding computer program and a corresponding storage medium according to the independent claims.

Der erfindungsgemäße Ansatz fußt auf der Erkenntnis, dass die Güte von Simulationsmodellen für eine korrekte Vorhersage der damit erzielbaren Testergebnisse entscheidend ist. Auf dem Gebiet des MBT beschäftigt sich die Teildisziplin der Validierung mit der Aufgabe, reale Messungen mit Simulationsergebnissen zu vergleichen. Dazu werden verschiedene Metriken, Maßzahlen oder andere Vergleicher verwendet, die Signale miteinander verknüpfen und die im Folgenden zusammenfassend als Signalmetriken (SM) bezeichnet werden sollen. Beispiele für derartige Signalmetriken sind Metriken, die Größe, Phasenverschiebung und Korrelationen vergleichen. Einige Signalmetriken sind durch einschlägige Normen definiert, z. B. gemäß ISO 18571 .The approach according to the invention is based on the knowledge that the quality of simulation models is decisive for a correct prediction of the test results that can be achieved with them. In the field of MBT, the sub-discipline of validation deals with the task of comparing real measurements with simulation results. For this purpose, various metrics, measures or other comparators are used that link signals with one another and that are collectively referred to below as signal metrics (SM). Examples of such signal metrics are metrics that compare size, phase shift, and correlations. Some signal metrics are defined by relevant standards, e.g. B. according to ISO 18571 .

Allgemeiner ausgedrückt unterstützen Unsicherheitsquantifizierungstechniken die Abschätzung der Simulations- und Modellgüte. Das Ergebnis einer Bewertung der Modellgüte unter Heranziehung einer Signalmetrik oder allgemeiner unter Verwendung einer Unsicherheitsquantifizierungsmethode für eine bestimmte Eingabe X, bei der es sich um einen Parameter oder ein Szenario handeln kann, wird nachfolgend als Simulationsmodell-Fehlermetrik - kurz: Fehlermetrik - SMerrorX bezeichnet. Zur Verallgemeinerung (Interpolation und Extrapolation) von SMerrorX für bisher nicht betrachtete Eingaben, Parameter oder Szenarien X können maschinelle Lernmodelle etwa auf der Grundlage sogenannter Gaußprozesse verwendet werden.In more general terms, uncertainty quantification techniques support the estimation of the simulation and model quality. The result of an assessment of the model quality using a signal metric or, more generally, using an uncertainty quantification method for a specific input X, which can be a parameter or a scenario, is hereinafter referred to as the simulation model error metric - in short: error metric - SMerrorX. For generalization (interpolation and extrapolation) of SMerrorX for inputs, parameters or scenarios X that have not been considered previously, machine learning models can be used, for example on the basis of so-called Gaussian processes.

Bei der Verifizierung wird der Prüfling (system under test, SUT) typischerweise anhand einer Anforderung, Spezifikation oder Leistungskennzahl untersucht. Es ist zu beachten, dass boolesche Anforderungen oder Spezifikationen oft in quantitative Messungen umgewandelt werden können, indem man Formalismen wie die Signal-Temporallogik (signal temporal logic, STL) verwendet. Derartige Formalismen können als Grundlage einer quantitativen Semantik dienen, die sich insofern als Verallgemeinerung der Verifikation darstellt, als ein positiver Wert die Erfüllung und ein negativer Wert die Verletzung einer Anforderung indiziert. Im Folgenden werden solche Anforderungen, Spezifikationen oder Leistungsmaße zusammenfassend als „quantitative Anforderungen“ (QSpec) bezeichnet.During verification, the test item (system under test, SUT) is typically examined on the basis of a requirement, specification or performance indicator. It should be noted that Boolean requirements or specifications can often be converted into quantitative measurements using formalisms such as signal temporal logic (STL). Such formalisms can serve as the basis of quantitative semantics, which in this respect represent a generalization of the verification, rather than a positive one Value indicates fulfillment and a negative value indicates violation of a requirement. In the following, such requirements, specifications or performance measures are collectively referred to as “quantitative requirements” (QSpec).

Derlei quantitative Anforderungen können entweder anhand des realen SUT oder eines Modells desselben - gleichsam eines „virtuellen SUT“ - überprüft werden. Zum Zwecke dieser Verifikation werden Kataloge mit Testfällen zusammengestellt, denen ein SUT genügen muss, um zu entscheiden, ob es die gewünschten Leistungs- und Sicherheitseigenschaften aufweist. Ein solcher Testfall kann parametrisiert werden und so eine beliebige Anzahl von Einzeltests abdecken.Such quantitative requirements can either be checked using the real SUT or a model of the same - a “virtual SUT”, so to speak. For the purpose of this verification, catalogs are compiled with test cases that an SUT must satisfy in order to decide whether it has the desired performance and security properties. Such a test case can be parameterized and thus cover any number of individual tests.

Vor diesem Hintergrund trägt der vorgeschlagene Ansatz dem Bedürfnis nach belastbaren Testergebnissen Rechnung, um die Leistungs- und Sicherheitseigenschaften eines SUT zu gewährleisten. Gerade bei der Durchführung von Tests anhand einer Simulation des Systems oder einer Teilkomponente - anstelle von Tests am wirklichen System - gilt es sicherzustellen, dass die Simulationsergebnisse vertrauenswürdig sind.Against this background, the proposed approach takes into account the need for reliable test results in order to guarantee the performance and safety properties of an SUT. Especially when performing tests based on a simulation of the system or a subcomponent - instead of tests on the real system - it is important to ensure that the simulation results are trustworthy.

Eine große Herausforderung für die Modellvalidierung besteht darin, reale Messungen und Stimuli für die entsprechende Simulation zu ermitteln, die ein Höchstmaß an Informationen über die Genauigkeit des Modells liefern. Für simulationsbasierte Tests werden zudem Angaben darüber benötigt, wie gut das simulierte System die gestellten Anforderungen erfüllt.A major challenge for model validation is to determine real measurements and stimuli for the corresponding simulation that provide the highest level of information about the accuracy of the model. For simulation-based tests, information is also required about how well the simulated system meets the requirements.

Anhand der oben umrissenen Fehlermetrik lässt sich ein Klassifikator bilden, der für einen parametrisierten Satz von Testfällen - nachfolgend als „Testkatalog“ bezeichnet - die Zuverlässigkeit der Simulation in jedem betrachteten Testfall beurteilt und diesen entsprechend einstuft. Ein solches Vorgehen fußt auf dem Gedanken, die als unzuverlässig eingestuften Testfälle zu erfassen und in der Praxis zu untersuchen. Nachdem die Tests am System durchgeführt wurden, können die gewonnenen Erkenntnisse auf verschiedene Weise genutzt werden, z. B. zur Fortbildung des Klassifikators, zur Verbesserung der Parametrisierung oder zur Modelloptimierung. Eine Einschränkung dieses Ansatzes ergibt sich daraus, dass für jeden Satz von Testfällen eine Einstufung vorgenommen werden muss und sämtliche nicht zuverlässigen Fälle als Anwärter für experimentelle Messungen in Betracht kommen, sofern sie nicht herangezogen werden, um das Modell, die Parametrisierung oder das Metamodell zu verbessern.Using the error metrics outlined above, a classifier can be created that assesses the reliability of the simulation in each test case under consideration for a parameterized set of test cases - hereinafter referred to as the “test catalog” - and classifies them accordingly. Such a procedure is based on the idea of recording the test cases classified as unreliable and examining them in practice. After the tests have been performed on the system, the knowledge gained can be used in various ways, e.g. B. to train the classifier, to improve the parameterization or to optimize the model. A limitation of this approach arises from the fact that a classification must be made for each set of test cases and all non-reliable cases are considered as candidates for experimental measurements, unless they are used to improve the model, the parameterization or the metamodel .

Ein Vorzug der erfindungsgemäßen Lösung liegt vor diesem Hintergrund in der Erschließung der aus verschiedenen Sätzen von parametrisierten Testfällen zu ziehenden Erkenntnisse. Die Anzahl der für wirkliche Tests empfohlenen Testfälle wird auf diesem Wege durch eine Kombination der durch mehrere Klassifikatoren gelieferten Informationen reduziert. Darüber hinaus berücksichtigt der vorgeschlagene Ansatz hauptsächlich Testfälle, die weder als zuverlässig noch als unzuverlässig eingestuft werden. Auf diesem Wege lässt sich die Anzahl der wirklichen Tests reduzieren, ohne das Modell, die Modellparametrisierung oder die Parametrisierung eines etwaigen Validierungs-oder Metamodells zu beeinflussen.Against this background, one advantage of the solution according to the invention lies in the development of the knowledge to be drawn from various sets of parameterized test cases. The number of test cases recommended for real tests is reduced in this way by a combination of the information provided by several classifiers. In addition, the proposed approach mainly takes into account test cases that are classified as neither reliable nor unreliable. In this way, the number of actual tests can be reduced without influencing the model, the model parameterization or the parameterization of any validation or metamodel.

Die Anwendung derartiger Tests kommt auf unterschiedlichsten Feldern in Betracht. Zu denken ist beispielsweise an die funktionale Sicherheit automatisierter Systeme, wie sie etwa zur Automatisierung von Fahrfunktionen (automated driving) genutzt werden.Such tests can be used in a wide variety of fields. One should think, for example, of the functional safety of automated systems, such as those used to automate driving functions (automated driving).

Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen des im unabhängigen Anspruch angegebenen Grundgedankens möglich. So kann eine automatisierte, computer-implementierte Testumgebung vorgesehen sein, um die Qualität der getesteten Hardware- oder Softwareprodukte weitgehend selbsttätig zu verbessern.The measures listed in the dependent claims enable advantageous developments and improvements of the basic idea specified in the independent claim. An automated, computer-implemented test environment can thus be provided in order to improve the quality of the tested hardware or software products largely automatically.

FigurenlisteFigure list

Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:

  • 1 eine Datenbank für Simulation und experimentelle Messungen.
  • 2 eine Darstellung des vorgeschlagenen Algorithmus.
  • 3 die Berechnung einer erwarteten Verbesserung im Detail.
  • 4 eine auf einer Klassifizierung mit hoher Genauigkeit basierende Variante.
  • 5 eine Variante zur Berechnung der erwarteten Verbesserung.
  • 6 schematisch eine Arbeitsstation.
Embodiments of the invention are shown in the drawings and explained in more detail in the description below. It shows:
  • 1 a database for simulation and experimental measurements.
  • 2 a representation of the proposed algorithm.
  • 3 the calculation of an expected improvement in detail.
  • 4th a variant based on a classification with high accuracy.
  • 5 a variant for calculating the expected improvement.
  • 6th schematically a workstation.

Ausführungsformen der ErfindungEmbodiments of the invention

1 illustriert eine Datenbank (27) mit mehreren Katalogen (14, 15) oder parametrisierten Sätzen von Testfällen des zu prüfenden Systems. Die in jedem Katalog (14, 15) enthaltenen Testfälle sind dahingehend eingestuft, ob die Simulation im jeweiligen Testfall zuverlässig (20), unzuverlässig (21) oder - gemäß einer optionalen Ausführungsform - nicht zu beurteilen (22) ist. 1 illustrates a database ( 27 ) with multiple catalogs ( 14th , 15th ) or parameterized sets of test cases of the system to be tested. The ones in each catalog ( 14th , 15th ) contained test cases are classified according to whether the simulation in the respective test case is reliable ( 20th ), unreliable ( 21 ) or - according to an optional embodiment - not to be assessed ( 22nd ) is.

Es sei bemerkt, dass dieser Ansatz unabhängig vom für die Einstufung eingesetzten Klassifikator ist, dessen Bildung auf vielfältige Weise erfolgen kann. In den Anwendungsbeispielen wird gleichwohl auf unterschiedliche Implementierungsmöglichkeiten Bezug genommen.It should be noted that this approach is independent of the classifier used for the classification, which can be formed in a variety of ways. In the application examples, however, reference is made to different implementation options.

Die in der Simulation des Systems gewonnenen Simulationsergebnisse (11) und in entsprechenden Validierungsversuchen (12) am System erfassten Messdaten (13) werden in dieser gemeinsamen Datenbank (27) abgelegt. Darüber hinaus enthält die Datenbank (27) Kandidaten (24) sowohl für mögliche Validierungsexperimente (26) als auch für weitere Tests. Alle simulierten und wirklichen Tests werden an derselben Produktvariante durchgeführt. Die Handhabung und Versionierung von Varianten von Tests und Simulationsergebnissen (11) sind nicht Gegenstand der vorliegenden Beschreibung.The simulation results obtained in the simulation of the system ( 11 ) and in corresponding validation tests ( 12th ) measurement data recorded on the system ( 13th ) are stored in this common database ( 27 ) filed. In addition, the database contains ( 27 ) Candidates ( 24 ) both for possible validation experiments ( 26th ) as well as for further tests. All simulated and real tests are performed on the same product variant. The handling and versioning of variants of tests and simulation results ( 11 ) are not part of the present description.

Wie 2 verdeutlicht, wird anhand dieser Simulationsergebnisse (11) und Messdaten (13) für jeden Katalog (14, 15) anfänglich ein Klassifikator (16, 17) gebildet (19). Durch diese Klassifikatoren (16, 17) werden weitere Testfälle jeweils dahingehend eingestuft (18), ob die Simulation im jeweiligen Testfall zuverlässig (20), unzuverlässig (21) oder nicht zu beurteilen (22) ist. Diejenigen Testfälle, in welchen die Simulation unzuverlässig (21) oder nicht zu beurteilen (22) ist, werden in der gemeinsamen Datenbank (27) erfasst.As 2 clarified, is based on these simulation results ( 11 ) and measurement data ( 13th ) for each catalog ( 14th , 15th ) initially a classifier ( 16 , 17th ) educated ( 19th ). Through these classifiers ( 16 , 17th ) further test cases are classified accordingly ( 18th ), whether the simulation is reliable in the respective test case ( 20th ), unreliable ( 21 ) or not to be judged ( 22nd ) is. Those test cases in which the simulation is unreliable ( 21 ) or not to be judged ( 22nd ) are stored in the shared database ( 27 ) recorded.

Durch einen paarweisen Vergleich (28) der Klassifikatoren (16, 17) in den einzelnen erfassten Testfällen lässt sich nunmehr das mit dem jeweils betrachteten Testfall verbundene Verbesserungspotenzial (23) für die Klassifikatoren (16, 17) berechnen. Anhand dieses Verbesserungspotenziales (23) werden Kandidaten für mögliche weitere Validierungsversuche (12) priorisiert (25). Schließlich werden entsprechende neue Messungen am System durchgeführt und die Klassifikatoren (16, 17) im Lichte der neuen Messdaten (13) zumindest teilweise fortgebildet (24). Die genannten Schritte lassen sich beliebig wiederholen.By a pairwise comparison ( 28 ) of the classifiers ( 16 , 17th ) In the individually recorded test cases, the potential for improvement associated with the test case under consideration can now be identified ( 23 ) for the classifiers ( 16 , 17th ) to calculate. Based on this potential for improvement ( 23 ) become candidates for possible further validation attempts ( 12th ) prioritized ( 25th ). Finally, new measurements are carried out on the system and the classifiers ( 16 , 17th ) in the light of the new measurement data ( 13th ) at least partially trained ( 24 ). The steps mentioned can be repeated as required.

Abhängig von den Eigenschaften der Klassifikatoren (16, 17) und den daraus resultierenden Unsicherheiten für die Einstufung (18) kann die besagte Priorisierung (25) auf unterschiedliche Weise erfolgen. Gemäß 3 wird hierzu einer unter den durch einen ersten Klassifikator (16) eingestuften Testfällen ausgewählt (29) und simuliert. Anhand der Ausgabe (30) dieser Simulation wird die an das System gestellte Anforderung QSpec für den Testfall bewertet (31) und ein zweiter Klassifikator (17) fortgebildet (32).Depending on the properties of the classifiers ( 16 , 17th ) and the resulting uncertainties for the classification ( 18th ) said prioritization ( 25th ) can be done in different ways. According to 3 becomes one of the classifiers defined by a first classifier ( 16 ) classified test cases selected ( 29 ) and simulated. Based on the output ( 30th ) This simulation evaluates the QSpec requirement placed on the system for the test case ( 31 ) and a second classifier ( 17th ) trained ( 32 ).

Für den ursprünglichen (17) und solchermaßen fortgebildeten (33) Klassifikator wird sodann jeweils die Unsicherheit (37, 38) bei der Einstufung eines dem Testfall entsprechenden zweiten Testfalles beurteilt. Auf dieser Grundlage lässt sich das Verbesserungspotenzial (23) des zweiten Klassifikators (17) schließlich durch Vergleich (28) der Unsicherheit (37) des ursprünglichen Klassifikators (17) mit jener (38) des fortgebildeten Klassifikators (33) berechnen. Im Rahmen dieser Prozedur lassen sich anstelle des ursprünglichen Klassifikators (17) auch potentielle Validierungsmessungen als Vergleichsmaßstab heranziehen.For the original ( 17th ) and trained in this way ( 33 ) The classifier is then the uncertainty ( 37 , 38 ) when classifying a second test case corresponding to the test case. On this basis, the improvement potential ( 23 ) of the second classifier ( 17th ) finally by comparison ( 28 ) of uncertainty ( 37 ) of the original classifier ( 17th ) with that (38) of the advanced classifier ( 33 ) to calculate. As part of this procedure, instead of the original classifier ( 17th ) also use potential validation measurements as a benchmark.

In der in 4 beleuchteten Variante werden anstatt der Betrachtung einzelner Testfälle letztere in Gruppen (34) eingeteilt, , die durch ihren Informationsgehalt gekennzeichnet sind, um das Verbesserungspotenzial (23) durch den paarweisen Vergleich (28) der Klassifikatoren (16, 17) für diese Gruppen (34) zu berechnen.In the in 4th illuminated variant, instead of considering individual test cases, the latter in groups ( 34 ), which are characterized by their information content in order to identify the potential for improvement ( 23 ) by the pairwise comparison ( 28 ) of the classifiers ( 16 , 17th ) for these groups ( 34 ) to calculate.

An die Stelle eines paarweisen Vergleiches (28) einzelner Testfälle oder Gruppen (34) mag auch das in 5 veranschaulichte Vorgehen treten. Hier wird der zweite Klassifikator (17) anhand der Ausgabe (30) der Simulation lediglich hypothetisch anhand des betrachteten Kandidaten (24) fortgebildet (32), um sein Verbesserungspotenzial (23) aus der Steigerung (23) des durch die Fortbildung (32) erzielten Erkenntnisgewinnes (36) gegenüber dem durch den ursprünglichen zweiten Klassifikator (17) erzielten Erkenntnisgewinn (35) abzuleiten. Nur wenn eine solche Steigerung (23) tatsächlich zu erwarten ist, wird der betrachtete Test oder die Validierungsmessung wirklich am System durchgeführt.Instead of a pairwise comparison ( 28 ) individual test cases or groups ( 34 ) also likes that in 5 the illustrated procedure. Here the second classifier ( 17th ) based on the output ( 30th ) the simulation only hypothetically based on the candidate under consideration ( 24 ) trained ( 32 ) in order to identify its potential for improvement ( 23 ) from the increase ( 23 ) of the advanced training ( 32 ) gained knowledge ( 36 ) compared to that provided by the original second classifier ( 17th ) obtained knowledge gain ( 35 ) to derive. Only if such an increase ( 23 ) is actually to be expected, the test under consideration or the validation measurement is actually carried out on the system.

Wie bereits erwähnt hängt der oben vorgestellte Ansatz nicht von einer bestimmten Umsetzung des Klassifikators (16, 17) ab. Nachfolgend seien einige Beispiele angeführt, wie die mögliche Verbesserung der Auswahl neuer Testpunkte berechnet werden könnte.As already mentioned, the approach presented above does not depend on a specific implementation of the classifier ( 16 , 17th ) away. Below are some examples of how the possible improvement in the selection of new test points could be calculated.

Wenn beispielsweise die Parameter des Klassifikators (16, 17) - etwa aufgrund einer begrenzten Menge an Trainingsdaten - hinreichend genau bekannt sind, so kann es eine Reihe von Testfällen geben, die sich nicht als zuverlässig (20) oder unzuverlässig (21) einstufen (18) lassen. Für diese Fälle ist die Zuverlässigkeit der Simulation nicht eindeutig zu beurteilen (22 - 3 und 5). Es bedarf daher zusätzlicher Daten, um eine Untererfassung zu vermeiden und die Unsicherheit (37, 38 - 3) der Klassifikatoren (16, 17) zu reduzieren. Zu diesem Zweck können neue echte Messdaten (13) erhoben werden, um die Klassifikatoren (16, 17) weiterzubilden (32) und so zu verbessern.For example, if the parameters of the classifier ( 16 , 17th ) - for example due to a limited amount of training data - are known with sufficient accuracy, there may be a number of test cases that do not prove to be reliable ( 20th ) or unreliable ( 21 ) classify ( 18th ) permit. In these cases, the reliability of the simulation cannot be clearly assessed ( 22nd - 3 and 5 ). Additional data is therefore required in order to avoid under-recording and to reduce the uncertainty ( 37 , 38 - 3 ) of the classifiers ( 16 , 17th ) to reduce. For this purpose, new real measurement data ( 13th ) are collected in order to use the classifiers ( 16 , 17th ) to further educate ( 32 ) and so to improve.

Der Informationsgehalt der neuen Messungen wird in diesem Ausführungsbeispiel auf der Grundlage üblicher Informationsmaße berechnet. Die Priorisierung (25) von Testfällen und Validierungsexperimenten erfolgt durch paarweise Berechnung des Informationsgehalts.In this exemplary embodiment, the information content of the new measurements is calculated on the basis of conventional information measures. The prioritization ( 25th ) of test cases and Validation experiments are carried out by calculating the information content in pairs.

Eine andere Variante bietet sich an, wenn mindestens ein Beurteilungsmerkmal des Klassifikators (16, 17) - zum Beispiel die Fehlermetrik SMerrorX - auf einem Metamodell basiert, das anhand der Simulationsergebnisse (11) beurteilt wird. Für die Neuauswertung des Klassifikators (16, 17) werden neue wirkliche Messdaten (13) herangezogen, wobei dieser nur einmal zu Beginn trainiert wird. Bewertet wird dabei, für welche Punkte im Parameter- oder Zustandsraum zusätzliche Informationen nützlich sein könnten, um die Unsicherheit des Metamodells zu reduzieren. Dies erfolgt für sämtliche Kataloge (14, 15). Basierend auf dem jeweiligen Informationsgehalt werden die Testfälle priorisiert (25) und diejenigen Kandidaten (24) mit der höchsten Bewertung in Wirklichkeit getestet. Wenn einige Testkataloge (14, 15) anhand übereinstimmender Merkmale - zum Beispiel einer auf dem gleichen Signal basierenden einheitlichen Fehlermetrik - klassifiziert werden, so könnten auch die Klassifikatoren (16, 17) anhand eines gemeinsamen Metamodells bewertet werden. In diesem Fall wird die Bewertung, falls das Metamodell verbessert werden konnte, in allen betroffenen Testfällen vorgenommen.Another variant is advisable if at least one assessment criterion of the classifier ( 16 , 17th ) - for example the error metric SMerrorX - is based on a metamodel that is based on the simulation results ( 11 ) is assessed. For the re-evaluation of the classifier ( 16 , 17th ) new real measurement data ( 13th ), although this is only trained once at the beginning. It is assessed for which points in the parameter or state space additional information could be useful in order to reduce the uncertainty of the metamodel. This is done for all catalogs ( 14th , 15th ). The test cases are prioritized based on the respective information content ( 25th ) and those candidates ( 24 ) tested with the highest rating in reality. If some test catalogs ( 14th , 15th ) are classified on the basis of matching features - for example a uniform error metric based on the same signal - the classifiers ( 16 , 17th ) are assessed using a common metamodel. In this case, if the metamodel could be improved, the assessment is carried out in all test cases concerned.

Dieses Verfahren (10) kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einer Arbeitsstation (40) implementiert sein, wie die schematische Darstellung der 6 verdeutlicht.This method ( 10 ) can be in software or hardware, for example, or in a mixed form of software and hardware, for example in a workstation ( 40 ) be implemented as shown in the schematic representation of the 6th made clear.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 10303489 A1 [0004]DE 10303489 A1 [0004]

Zitierte Nicht-PatentliteraturNon-patent literature cited

  • ISO 18571 [0007]ISO 18571 [0007]

Claims (11)

Verfahren (10) zum Prüfen eines technischen Systems, insbesondere eines zumindest teilautonomen Roboters oder Fahrzeuges, gekennzeichnet durch folgende Merkmale: - in einer Simulation des Systems werden Simulationsergebnisse (11) gewonnen, - in Validierungsversuchen (12) am System werden den Simulationsergebnissen (11) entsprechende Messdaten (13) erfasst, - anhand der Simulationsergebnisse (11) und Messdaten (13) wird für mehrere Kataloge (14, 15) von Testfällen des Systems jeweils ein Klassifikator (16, 17) gebildet (19), - durch die Klassifikatoren (16, 17) werden weitere Testfälle und potentiell in Frage kommende Validierungsmessungen jeweils dahingehend eingestuft (18), ob die Simulation im jeweiligen weiteren Testfall zuverlässig (20), unzuverlässig (21) oder nicht zu beurteilen (22) ist, - diejenigen weiteren Testfälle und potentiell in Frage kommende Validierungsmessungen, in welchen die Simulation unzuverlässig (21) oder nicht zu beurteilen (22) ist, werden erfasst und - anhand eines mit den erfassten weiteren Testfällen (21, 22) verbundenen Verbesserungspotenziales (23) für die Klassifikatoren (16, 17) werden Kandidaten (24) für mögliche weitere Validierungsversuche (26) priorisiert (25).Method (10) for testing a technical system, in particular an at least partially autonomous robot or vehicle, characterized by the following features: - in a simulation of the system, simulation results (11) are obtained, - in validation experiments (12) on the system, the simulation results (11) corresponding measurement data (13) are recorded, - based on the simulation results (11) and measurement data (13), a classifier (16, 17) is formed (19) for several catalogs (14, 15) of test cases of the system, - by the classifiers ( 16, 17), further test cases and potential validation measurements are classified (18) as to whether the simulation is reliable (20), unreliable (21) or not to be assessed (22) in the respective further test case, - those further test cases and Potential validation measurements in which the simulation is unreliable (21) or cannot be assessed (22) are recorded and attached d of an improvement potential (23) for the classifiers (16, 17) associated with the recorded further test cases (21, 22), candidates (24) for possible further validation attempts (26) are prioritized (25). Verfahren (10) nach Anspruch 1, gekennzeichnet durch folgende Merkmale: - die Simulationsergebnisse (11) und Messdaten (13) werden in einer gemeinsamen Datenbank (27) abgelegt und - die Kandidaten (24) sowie Stimuli und Parameter (28) der entsprechenden Simulation werden der Datenbank (27) hinzugefügt.Method (10) according to Claim 1 , characterized by the following features: - the simulation results (11) and measurement data (13) are stored in a common database (27) and - the candidates (24) as well as stimuli and parameters (28) of the corresponding simulation are added to the database (27) . Verfahren (10) nach Anspruch 1 oder 2, gekennzeichnet durch folgendes Merkmal: - das Verbesserungspotenzial (23) wird durch einen paarweisen Vergleich (28) der Klassifikatoren (16, 17) in den einzelnen erfassten Testfällen berechnet.Method (10) according to Claim 1 or 2 , characterized by the following feature: the improvement potential (23) is calculated by comparing (28) the classifiers (16, 17) in pairs in the individually recorded test cases. Verfahren (10) nach Anspruch 1 oder 2, gekennzeichnet durch folgende Merkmale: - unter den durch einen ersten (16) der Klassifikatoren (16, 17) eingestuften Testfällen wird ein erster Testfall ausgewählt (29), - durch die Simulation des ersten Testfalles wird eine Ausgabe (30) erzeugt, - anhand der Ausgabe (30) wird eine an das System gestellte Anforderung für den ersten Testfall bewertet (31) und ein zweiter (17) der Klassifikatoren (16, 17) fortgebildet (32), - für den ursprünglichen (17) und fortgebildeten (33) zweiten Klassifikator wird jeweils eine Unsicherheit beim Einstufen (18) eines dem ersten Testfall entsprechenden zweiten Testfalles beurteilt und - das Verbesserungspotenzial (23) des zweiten Klassifikators (17) wird durch den Vergleich der Unsicherheit (37) des ursprünglichen zweiten Klassifikators (17) mit der Unsicherheit (38) des fortgebildeten zweiten Klassifikators (33) berechnet.Method (10) according to Claim 1 or 2 , characterized by the following features: - a first test case is selected (29) from the test cases classified by a first (16) of the classifiers (16, 17), - an output (30) is generated by the simulation of the first test case, - based on of the output (30), a requirement placed on the system for the first test case is evaluated (31) and a second (17) of the classifiers (16, 17) is further developed (32), - for the original (17) and further developed (33) second classifier, an uncertainty in the classification (18) of a second test case corresponding to the first test case is assessed and - the improvement potential (23) of the second classifier (17) is determined by comparing the uncertainty (37) of the original second classifier (17) with the Uncertainty (38) of the advanced second classifier (33) is calculated. Verfahren (10) nach Anspruch 1 oder 2, gekennzeichnet durch folgende Merkmale: - die erfassten weiteren Testfälle (21, 22) werden in Gruppen (34) eingeteilt und - das Verbesserungspotenzial (23) wird durch einen paarweisen Vergleich (28) der Klassifikatoren (16, 17) für die Gruppen (34) berechnet.Method (10) according to Claim 1 or 2 , characterized by the following features: - the recorded further test cases (21, 22) are divided into groups (34) and - the improvement potential (23) is determined by a pairwise comparison (28) of the classifiers (16, 17) for the groups (34 ) calculated. Verfahren (10) nach Anspruch 1 oder 2, gekennzeichnet durch folgende Merkmale: - unter den durch einen ersten (16) der Klassifikatoren (16, 17) eingestuften Testfällen wird ein Testfall ausgewählt (29), - durch die Simulation des Testfalles wird eine Ausgabe (30) erzeugt, - anhand der Ausgabe (30) wird eine an das System gestellte Anforderung für den Testfall bewertet (31) und ein zweiter (17) der Klassifikatoren (16, 17) fortgebildet (32), - für den ursprünglichen (17) und fortgebildeten (33) zweiten Klassifikator wird jeweils ein Erkenntnisgewinn (35, 36) ermittelt und - das Verbesserungspotenzial (23) des zweiten Klassifikators (17) wird aus der Steigerung des durch den fortgebildeten zweiten Klassifikator (33) erzielten Erkenntnisgewinnes (36) gegenüber dem durch den ursprünglichen zweiten Klassifikator (17) erzielten Erkenntnisgewinn (35) abgeleitet.Method (10) according to Claim 1 or 2 , characterized by the following features: - a test case is selected (29) from the test cases classified by a first (16) of the classifiers (16, 17), - an output (30) is generated by the simulation of the test case, - on the basis of the output (30), a requirement placed on the system for the test case is evaluated (31) and a second (17) of the classifiers (16, 17) is further developed (32), - for the original (17) and further developed (33) second classifier a gain in knowledge (35, 36) is determined in each case and - the potential for improvement (23) of the second classifier (17) is derived from the increase in the gain in knowledge (36) achieved by the advanced second classifier (33) compared to that achieved by the original second classifier (17) obtained knowledge gain (35) derived. Verfahren (10) nach Anspruch 1 oder 2, gekennzeichnet durch folgende Merkmale: - unter den möglichen, noch nicht durchgeführten Validierungsmessungen wird eine mögliche Messung ausgewählt, - durch die Simulation des zugehörigen Stimulus wird eine Ausgabe (30) erzeugt, - anhand der Ausgabe (30) wird eine an das System gestellte Anforderung für einen Testfall bewertet (31) und der zugehörige Klassifikatoren (16, 17) fortgebildet (32), - für den ursprünglichen (17) und fortgebildeten (33) Klassifikator wird jeweils ein Erkenntnisgewinn (35, 36) ermittelt und - das Verbesserungspotenzial (23) des Klassifikators (17) wird aus der Steigerung des durch den fortgebildeten Klassifikator (33) erzielten Erkenntnisgewinnes (36) gegenüber dem durch den ursprünglichen Klassifikator (17) erzielten Erkenntnisgewinn (35) abgeleitet.Method (10) according to Claim 1 or 2 , characterized by the following features: - a possible measurement is selected from the possible validation measurements that have not yet been carried out, - an output (30) is generated by the simulation of the associated stimulus, - a request made to the system is made on the basis of the output (30) for a test case evaluated (31) and the associated classifiers (16, 17) advanced (32), - a gain in knowledge (35, 36) is determined for the original (17) and advanced (33) classifier and - the potential for improvement (23 ) of the classifier (17) is derived from the increase in the knowledge gain (36) achieved by the advanced classifier (33) compared to the knowledge gain (35) achieved by the original classifier (17). Verfahren (10) nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass eine automatische Verbesserung von durch das Prüfen erkannten Fehlern des Systems erfolgt.Method (10) according to one of the Claims 1 until 7th , characterized in that a automatic improvement of errors of the system recognized by the testing takes place. Computerprogramm, welches eingerichtet ist, das Verfahren (10) nach einem der Ansprüche 1 bis 8 auszuführen.Computer program which is set up, the method (10) according to one of the Claims 1 until 8th to execute. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 9 gespeichert ist.Machine-readable storage medium on which the computer program is based Claim 9 is stored. Vorrichtung (60), die eingerichtet ist, das Verfahren (10) nach einem der Ansprüche 1 bis 8 auszuführen.Device (60) which is set up, the method (10) according to one of the Claims 1 until 8th to execute.
DE102020206327.3A 2020-05-20 2020-05-20 Method and device for testing a technical system Pending DE102020206327A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102020206327.3A DE102020206327A1 (en) 2020-05-20 2020-05-20 Method and device for testing a technical system
CN202110539523.3A CN113704085A (en) 2020-05-20 2021-05-18 Method and device for checking a technical system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020206327.3A DE102020206327A1 (en) 2020-05-20 2020-05-20 Method and device for testing a technical system

Publications (1)

Publication Number Publication Date
DE102020206327A1 true DE102020206327A1 (en) 2021-11-25

Family

ID=78408518

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020206327.3A Pending DE102020206327A1 (en) 2020-05-20 2020-05-20 Method and device for testing a technical system

Country Status (2)

Country Link
CN (1) CN113704085A (en)
DE (1) DE102020206327A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021208759A1 (en) 2021-08-11 2023-02-16 Robert Bosch Gesellschaft mit beschränkter Haftung Method of training a machine learning algorithm to generate test specifications for testing a software-based system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10303489A1 (en) 2003-01-30 2004-08-12 Robert Bosch Gmbh Motor vehicle control unit software testing, whereby the software is simulated using a test system that at least partially simulates the control path of a control unit

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10303489A1 (en) 2003-01-30 2004-08-12 Robert Bosch Gmbh Motor vehicle control unit software testing, whereby the software is simulated using a test system that at least partially simulates the control path of a control unit

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ISO 18571

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021208759A1 (en) 2021-08-11 2023-02-16 Robert Bosch Gesellschaft mit beschränkter Haftung Method of training a machine learning algorithm to generate test specifications for testing a software-based system

Also Published As

Publication number Publication date
CN113704085A (en) 2021-11-26

Similar Documents

Publication Publication Date Title
DE102020205539A1 (en) Method and device for testing a technical system
EP1922613A2 (en) Method and device for automatically evaluating a software source code quality
DE102019209540A1 (en) Process and device for the optimal distribution of test cases on different test platforms
EP3757792A2 (en) Method and device for testing a system, for selecting real tests and for testing systems with machine learning components
DE102019134053A1 (en) Process for the continuous validation of automated driving functions applied in driving tests
DE102011086352A1 (en) Method and diagnostic system to support guided troubleshooting in technical systems
DE102020206327A1 (en) Method and device for testing a technical system
DE102020205540A1 (en) Method and device for testing a technical system
DE102020206321A1 (en) Method and device for testing a technical system
DE102021109126A1 (en) Procedure for testing a product
DE102021109129A1 (en) Procedure for testing a product
DE102020205131A1 (en) Method and device for simulating a technical system
EP3757698A1 (en) Method and device for evaluating and selecting signal comparison metrics
DE102020205527A1 (en) Method and device for testing a technical system
DE102020206323A1 (en) Method and device for testing a technical system
DE102020205977A1 (en) Method and device for testing a technical system
DE102020206324A1 (en) Method and device for testing a technical system
DE102021200298A1 (en) Method and device for testing a technical system
DE102020205526A1 (en) Method and device for testing a technical system
DE102020206322A1 (en) Method and device for testing a technical system
DE102021109133A1 (en) Method and device for creating test cases for a test system
DE102021202335A1 (en) Method and device for testing a technical system
DE102021201505A1 (en) Method and device for testing a technical system
DE102021102460A1 (en) Procedure for performing a simulation
DE102020215387A1 (en) Method for optimizing a test set for automatic qualification of a virtual model for an automotive component