DE102020206324A1 - Method and device for testing a technical system - Google Patents
Method and device for testing a technical system Download PDFInfo
- Publication number
- DE102020206324A1 DE102020206324A1 DE102020206324.9A DE102020206324A DE102020206324A1 DE 102020206324 A1 DE102020206324 A1 DE 102020206324A1 DE 102020206324 A DE102020206324 A DE 102020206324A DE 102020206324 A1 DE102020206324 A1 DE 102020206324A1
- Authority
- DE
- Germany
- Prior art keywords
- tests
- simulation
- measure
- error
- fulfillment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3696—Methods or tools to render software testable
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/26—Functional testing
- G06F11/261—Functional testing by simulating additional hardware, e.g. fault simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3692—Test management for test results analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Evolutionary Computation (AREA)
- Geometry (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Verfahren (10) zum Prüfen eines technischen Systems, gekennzeichnet durch folgende Merkmale:
- mittels einer Simulation (11) des Systems werden Tests (12) durchgeführt,
- die Tests (12) werden hinsichtlich eines Erfüllungsmaßes (13) einer quantitativen Anforderung an das System und eines Fehlermaßes (14) der Simulation (11) ausgewertet,
- abhängig vom Erfüllungsmaß (13) und Fehlermaß (14) wird eine Einstufung (15) der Tests (12) als entweder zuverlässig (16) oder unzuverlässig (17) vorgenommen,
- die als unzuverlässig (17) eingestuften Tests (12) werden zumindest teilweise durch experimentelle Messung (21) am System bestätigt und
- das Fehlermaß (14) wird durch einen Ergebnisvergleich (33) zwischen der Simulation (11) und Messung (21) verfeinert.
Method (10) for testing a technical system, characterized by the following features:
- Tests (12) are carried out by means of a simulation (11) of the system,
- The tests (12) are evaluated with regard to a degree of fulfillment (13) of a quantitative requirement for the system and a degree of error (14) of the simulation (11),
- Depending on the degree of fulfillment (13) and degree of error (14), the tests (12) are classified (15) as either reliable (16) or unreliable (17),
- The tests (12) classified as unreliable (17) are at least partially confirmed by experimental measurements (21) on the system and
- The error measure (14) is refined by a comparison of results (33) between the simulation (11) and measurement (21).
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Prüfen eines technischen Systems. Die vorliegende Erfindung betrifft darüber hinaus eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium.The present invention relates to a method for testing a technical system. The present invention also relates to a corresponding device, a corresponding computer program and a corresponding storage medium.
Stand der TechnikState of the art
In der Softwaretechnik wird die Nutzung von Modellen zur Automatisierung von Testaktivitäten und zur Generierung von Testartefakten im Testprozess unter dem Oberbegriff „modellbasiertes Testen“ (model-based testing, MBT) zusammengefasst. Hinlänglich bekannt ist beispielsweise die Generierung von Testfällen aus Modellen, die das Sollverhalten des zu testenden Systems beschreiben.In software engineering, the use of models to automate test activities and to generate test artifacts in the test process is summarized under the heading of “model-based testing” (MBT). For example, the generation of test cases from models that describe the target behavior of the system to be tested is well known.
Insbesondere eingebettete Systeme (embedded systems) sind auf schlüssige Eingangssignale von Sensoren angewiesen und stimulieren wiederum ihre Umwelt durch Ausgangssignale an unterschiedlichste Aktoren. Im Zuge der Verifikation und vorgelagerter Entwicklungsphasen eines solchen Systems wird daher in einer Regelschleife dessen Modell (model in the loop, MiL), Software (software in the loop, SiL), Prozessor (processor in the loop, PiL) oder gesamte Hardware (hardware in the loop, HiL) gemeinsam mit einem Modell der Umgebung simuliert. In der Fahrzeugtechnik werden diesem Prinzip entsprechende Simulatoren zur Prüfung elektronischer Steuergeräte je nach Testphase und -objekt mitunter als Komponenten-, Modul- oder Integrationsprüfstände bezeichnet.Embedded systems in particular are dependent on coherent input signals from sensors and in turn stimulate their environment through output signals to a wide variety of actuators. In the course of the verification and upstream development phases of such a system, its model (model in the loop, MiL), software (software in the loop, SiL), processor (processor in the loop, PiL) or entire hardware (hardware in the loop, HiL) is simulated together with a model of the environment. In vehicle technology, simulators corresponding to this principle for testing electronic control devices are sometimes referred to as component, module or integration test benches, depending on the test phase and object.
Derartige Simulationen sind auf verschiedenen Gebieten der Technik verbreitet und finden beispielsweise Einsatz, um eingebettete Systeme in Elektrowerkzeugen, Motorsteuergeräte für Antriebs-, Lenk- und Bremssysteme, Kamerasysteme, Systeme mit Komponenten der künstlichen Intelligenz und des maschinellen Lernens, Robotiksysteme oder autonome Fahrzeuge in frühen Phasen ihrer Entwicklung auf Tauglichkeit zu prüfen. Dennoch werden die Ergebnisse von Simulationsmodellen nach dem Stand der Technik aufgrund fehlenden Vertrauens in ihre Zuverlässigkeit nur begrenzt in Freigabeentscheidungen einbezogen.Such simulations are widespread in various fields of technology and are used, for example, to convert embedded systems in power tools, engine control units for drive, steering and braking systems, camera systems, systems with components of artificial intelligence and machine learning, robotics systems or autonomous vehicles in early phases to check their development for suitability. Nevertheless, the results of state-of-the-art simulation models are only included in release decisions to a limited extent due to a lack of confidence in their reliability.
Offenbarung der ErfindungDisclosure of the invention
Die Erfindung stellt ein Verfahren zum Prüfen eines technischen Systems, eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium gemäß den unabhängigen Ansprüchen bereit.The invention provides a method for testing a technical system, a corresponding device, a corresponding computer program and a corresponding storage medium according to the independent claims.
Der erfindungsgemäße Ansatz fußt auf der Erkenntnis, dass die Güte von Simulationsmodellen für die korrekte Vorhersagbarkeit der damit erzielbaren Testergebnisse entscheidend ist. Auf dem Gebiet des MBT beschäftigt sich die Teildisziplin der Validierung mit der Aufgabe, reale Messungen mit Simulationsergebnissen zu vergleichen. Dazu werden verschiedene Metriken, Maßzahlen oder andere Vergleicher verwendet, die Signale miteinander verknüpfen und die im Folgenden zusammenfassend als Signalmetriken (SM) bezeichnet werden sollen. Beispiele für derartige Signalmetriken sind Metriken, die Größe, Phasenverschiebung und Korrelationen vergleichen. Einige Signalmetriken sind durch einschlägige Normen definiert, z. B. gemäß
Allgemeiner ausgedrückt unterstützen Unsicherheitsquantifizierungstechniken die Abschätzung der Simulations- und Modellgüte. Das Ergebnis einer Bewertung der Modellgüte unter Heranziehung einer Signalmetrik oder allgemeiner unter Verwendung einer Unsicherheitsquantifizierungsmethode für eine bestimmte Eingabe X, bei der es sich um einen Parameter oder ein Szenario handeln kann, wird nachfolgend als Simulationsmodell-Fehlermetrik - kurz: Fehlermetrik - SMerrorX bezeichnet. Zur Verallgemeinerung (Interpolation und Extrapolation) von SMerrorX für bisher nicht betrachtete Eingaben, Parameter oder Szenarien X können maschinelle Lernmodelle etwa auf der Grundlage sogenannter Gaußprozesse verwendet werden.In more general terms, uncertainty quantification techniques support the estimation of the simulation and model quality. The result of an assessment of the model quality using a signal metric or, more generally, using an uncertainty quantification method for a specific input X, which can be a parameter or a scenario, is hereinafter referred to as the simulation model error metric - in short: error metric - SMerrorX. For generalization (interpolation and extrapolation) of SMerrorX for inputs, parameters or scenarios X that have not been considered previously, machine learning models can be used, for example on the basis of so-called Gaussian processes.
Bei der Verifizierung wird der Prüfling (system under test, SUT) typischerweise anhand einer Anforderung, Spezifikation oder Leistungskennzahl untersucht. Es ist zu beachten, dass Boolesche Anforderungen oder Spezifikationen oft in quantitative Messungen umgewandelt werden können, indem man Formalismen wie die Signal-Temporallogik (signal temporal logic, STL) verwendet. Derartige Formalismen können als Grundlage einer quantitativen Semantik dienen, die sich insofern als Verallgemeinerung der Verifikation darstellt, als ein positiver Wert die Erfüllung und ein negativer Wert die Verletzung einer Anforderung indiziert. Im Folgenden werden solche Anforderungen, Spezifikationen oder Leistungsmaße zusammenfassend als „quantitative Anforderungen“ (QSpec) bezeichnet.During verification, the test item (system under test, SUT) is typically examined on the basis of a requirement, specification or performance indicator. It should be noted that Boolean requirements or specifications can often be converted into quantitative measurements using formalisms such as signal temporal logic (STL). Such formalisms can serve as the basis of quantitative semantics, which in this respect represent a generalization of the verification, rather than a positive one Value indicates fulfillment and a negative value indicates violation of a requirement. In the following, such requirements, specifications or performance measures are collectively referred to as “quantitative requirements” (QSpec).
Derlei quantitative Anforderungen können entweder anhand des realen SUT oder eines Modells desselben - gleichsam eines „virtuellen SUT“ - überprüft werden. Zum Zwecke dieser Verifikation werden Kataloge mit Testfällen zusammengestellt, denen ein SUT genügen muss, um zu entscheiden, ob es die gewünschten Leistungs- und Sicherheitseigenschaften aufweist. Ein solcher Testfall kann parametrisiert werden und so eine beliebige Anzahl von Einzeltests abdecken.Such quantitative requirements can either be checked using the real SUT or a model of the same - a “virtual SUT”, so to speak. For the purpose of this verification, catalogs are compiled with test cases that an SUT must satisfy in order to decide whether it has the desired performance and security properties. Such a test case can be parameterized and thus cover any number of individual tests.
Vor diesem Hintergrund trägt der vorgeschlagene Ansatz dem Bedürfnis nach belastbaren Testergebnissen Rechnung, um die Leistungs- und Sicherheitseigenschaften eines SUT zu gewährleisten. Gerade bei der Durchführung von Tests anhand einer Simulation des Systems oder einer Teilkomponente - anstelle des realen Systems - gilt es sicherzustellen, dass die Simulationsergebnisse vertrauenswürdig sind.Against this background, the proposed approach takes into account the need for reliable test results in order to guarantee the performance and safety properties of an SUT. Especially when performing tests based on a simulation of the system or a subcomponent - instead of the real system - it is important to ensure that the simulation results are trustworthy.
Validierungstechniken werden verwendet, um zu bewerten, inwieweit Simulationsmodell und reale Messungen übereinstimmen. Der Vergleich zwischen den Simulationsergebnissen und den realen Messungen erfolgt unter Verwendung des Validierungsmodells SMerrorX, welches aus einer Validierungsmetrik (für existierende Daten) und deren Verallgemeinerung auf neue Eingaben ohne entsprechende Messungen besteht. Die Verallgemeinerung ist gegeben durch Inter- und Extrapolation etwa mittels eines Gaußprozesses oder anderweitigen maschinellen Lernverfahrens. Die Vorhersage von SMerrorX ist jedoch mit einer Unsicherheit verbunden, die als Intervall oder als Wahrscheinlichkeitsverteilung modelliert werden kann.Validation techniques are used to assess the extent to which the simulation model and real measurements match. The comparison between the simulation results and the real measurements is made using the validation model SMerrorX, which consists of a validation metric (for existing data) and its generalization to new inputs without corresponding measurements. The generalization is given by inter- and extrapolation, for example using a Gaussian process or other machine learning processes. However, the prediction of SMerrorX is associated with an uncertainty that can be modeled as an interval or as a probability distribution.
Das nachfolgend beschriebene Verfahren trägt dazu bei, die Validierungsmetrik oder deren Verallgemeinerung zu verbessern, z. B. durch das besagte maschinelle Lernen oder Parameteridentifizierung unter Verwendung neuer realer Testergebnisse. Es trägt auf diese Weise dazu bei, durch Unsicherheit des Validierungsmodells bedingte schlechte Validierungsergebnisse zu vermeiden. In diesem Fall kann das Hinzufügen weiterer Prüfergebnisse die Unsicherheit des Validierungsmodells verringern und die Validierungsergebnisse potenziell verbessern.The method described below helps to improve the validation metric or its generalization, e.g. B. by said machine learning or parameter identification using new real test results. In this way, it helps to avoid bad validation results caused by uncertainty in the validation model. In this case, adding more test results can reduce the uncertainty of the validation model and potentially improve the validation results.
Ein Vorzug der erfindungsgemäßen Lösung besteht hierbei darin, dass sie im Gegensatz zu Konzepten, die ausschließlich auf Validierung oder ausschließlich auf Verifizierung basieren, beide Ansätze auf geschickte Weise vereint. Dazu wird ein „virtueller Test-Klassifikator“ eingeführt, welcher die Erfordernisse von Modellvalidierung und Produkttest kombiniert. Dies wird durch die Verknüpfung von Informationen aus der Validierung von Simulations- und Modellgüte (SMerrorX) einerseits und Testanforderungen (QSpec) andererseits erreicht.One advantage of the solution according to the invention is that, in contrast to concepts that are based exclusively on validation or exclusively on verification, it cleverly combines both approaches. For this purpose, a “virtual test classifier” is introduced, which combines the requirements of model validation and product testing. This is achieved by linking information from the validation of simulation and model quality (SMerrorX) on the one hand and test requirements (QSpec) on the other.
Die Anwendung entsprechender Tests kommt auf unterschiedlichsten Feldern in Betracht. Zu denken ist beispielsweise an die funktionale Sicherheit automatisierter Systeme, wie sie etwa zur Automatisierung von Fahrfunktionen (automated driving) genutzt werden.The application of corresponding tests can be considered in a wide variety of fields. One should think, for example, of the functional safety of automated systems, such as those used to automate driving functions (automated driving).
Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen des im unabhängigen Anspruch angegebenen Grundgedankens möglich. So kann eine automatisierte, computer-implementierte Testumgebung vorgesehen sein, um die Qualität der getesteten Hardware- oder Softwareprodukte weitgehend selbsttätig zu verbessern.The measures listed in the dependent claims enable advantageous developments and improvements of the basic idea specified in the independent claim. An automated, computer-implemented test environment can thus be provided in order to improve the quality of the tested hardware or software products largely automatically.
FigurenlisteFigure list
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
-
1 einen virtuellen Test-Klassifikator. -
2 einen ersten Ansatz zur Erzeugung der Entscheidungsgrenze des Klassifikators auf der Grundlage von Daten. -
3 einen zweiten Ansatz zur Erzeugung der Entscheidungsgrenze des Klassifikators auf der Grundlage einer formellen Lösung. -
4 die Nutzung des Klassifikators, um ein Validierungsmodell zu verbessern. -
5 die Visualisierung eines Klassifikationsergebnisses in einem durch die Testparameter aufgespannten Merkmalsraum. -
6 schematisch eine Arbeitsstation.
-
1 a virtual test classifier. -
2 a first approach to generating the decision limit of the classifier based on data. -
3 a second approach to generating the decision limit of the classifier based on a formal solution. -
4th using the classifier to improve a validation model. -
5 the visualization of a classification result in a feature space spanned by the test parameters. -
6th schematically a workstation.
Ausführungsformen der ErfindungEmbodiments of the invention
Erfindungsgemäß wird im Rahmen eines Tests X, welcher als Testfall einem Testkatalog entnommen oder als Instanz eines parametrischen Tests gewonnen werden kann, der Simulationsmodellfehler SMerrorX ausgewertet und die quantitative Spezifikation QSpec auf der Grundlage einer Simulation des SUT bewertet. Der virtuelle Testklassifikator verwendet als Eingabe SMerrorX und QSpec und trifft eine binäre Entscheidung dahingehend, ob das auf der Simulation basierende Testergebnis vertrauenswürdig ist oder nicht.According to the invention, as part of a test X, which can be taken from a test catalog as a test case or obtained as an instance of a parametric test, the simulation model error SMerrorX is evaluated and the quantitative specification QSpec is evaluated on the basis of a simulation of the SUT. The virtual test classifier uses SMerrorX and QSpec as inputs and makes a binary decision as to whether the test result based on the simulation is trustworthy or not.
Gemäß dem in der Informatik und insbesondere Mustererkennung üblichen Sprachgebrauch ist als Klassifikator hierbei jedweder Algorithmus oder jedwede mathematische Funktion zu verstehen, welche einen Merkmalsraum auf eine Menge von Klassen abbildet, die im Zuge einer Klassifizierung gebildet und voneinander abgegrenzt wurden. Um entscheiden zu können, in welche Klasse ein Objekt einzustufen oder zu klassieren (umgangssprachlich auch: „klassifizieren“) ist, zieht der Klassifikator sogenannte Klassen- oder Entscheidungsgrenzen heran. Sofern eine Unterscheidung zwischen Verfahren und Instanz nicht von Bedeutung ist, wird der Begriff „Klassifikator“ in der Fachsprache und auch nachfolgend teilweise gleichbedeutend mit „Einstufung“ oder „Klassierung“ verwendet.According to the common usage in computer science and in particular in pattern recognition, a classifier is to be understood as any algorithm or any mathematical function that maps a feature space to a set of classes that were formed and separated from one another in the course of a classification. In order to be able to decide in which class an object is to be classified or classified (colloquially also: "classify"), the classifier uses so-called class or decision limits. If a distinction between procedure and instance is not important, the term “classifier” is used in the technical language and also in the following partly synonymous with “classification” or “classification”.
Wie die Abbildung erkennen lässt, unterteilt die Entscheidungsgrenze (
Dieser virtuelle Test-Klassifikator (
Da diese Betrachtungsweise die Kenntnis des Modellfehlers SMerrorX des Simulationsmodells voraussetzt, wird davon ausgegangen, dass letzteres im Vorfeld der Verwendung des virtuellen Test-Klassifikators (
In Betracht kommt ferner eine allgemeinere, z. B. polynomielle Entscheidungsgrenze (
Für die Zwecke der folgenden Ausführungen seien I die Eingabemenge, 0 die - unter Umständen auch Eingaben umfassende - Ausgabemenge und m1, m2:I → 0 das Systemmodell und reale System als Funktionen, die lediglich für eine endliche Anzahl an Eingaben durch Simulation (
Ausgehend von diesen Definitionen kann die Abweichung des Erfüllungsmaßes (
Somit ergibt sich der Klassifikator (
Das Simulationsmodell wird hierbei im Fall VTC(ε, δ) = W als zuverlässig in dem Sinne eingestuft, dass m1 und m2 hinsichtlich p übereinstimmen. Es ist zu beachten, dass der Klassifikator (
Ein wesentlicher Vorteil dieser Darstellung besteht darin, dass der virtuelle Test-Klassifikator (
Diese Betrachtung lässt sich auf einfache Weise für eine Mehrzahl m an Fehlermaßen und eine Mehrzahl n quantitativer Anforderungen verallgemeinern, wobei m typischerweise sehr klein und n groß ausfällt. In diesem Fall können n - m virtuelle Test-Klassifikatoren (
Alternativ lässt sich der virtuelle Test-Klassifikator (
- • Der Klassifikator (
18 -1 bis3 ) wurde gemäß den obigen Ausführungen definiert. - • Gegeben ist ein Modell für die Simulation (
11 ) sowie eine Menge von Tests (12 ) mitsamt definierter Eingabeparameter. - • Die Anforderungen QSpec sind quantifizierbar und vorgegeben und werden im Rahmen eines Überwachungssystems implementiert, das die Tests (
12 ) hinsichtlich des Erfüllungsmaßes (13 ) dieser Anforderungen auswertet. In der Abbildung beziehen sich beide Erfüllungsmaße (13 ) auf dieselbe Anforderung QSpec, die jedoch einmal anhand der Simulation (11 ) und einmal im Wege experimenteller Messung (21 ) am System bewertet wird. - • Gegeben ist ferner ein Fehlermaß (
14 ), das für die Zwecke nachfolgenden Ausführungen und Figuren aus Gründen der Vereinfachung mit dem zugrundeliegenden Validierungsmodell gleichgesetzt wird. Für einige Testeingaben wurden also bereits Simulation (11 ) und Messung (21 ) durchgeführt, und das Fehlermaß (14 ) verallgemeinert die entsprechenden Tests (12 ) auf neue, bislang nicht durchgeführte Experimente mit einer gewissen Zuverlässigkeit, die z. B. durch eine Ober- und Untergrenze für das Fehlermaß (14 ) bestimmt wird. Für den Klassifikator (18 ) wird lediglich das ungünstigste, also höchste Fehlermaß (14 ) herangezogen. Es sei angemerkt, dass der Klassifikator (18 ) zur weiteren Verfeinerung des Fehlermaßes (14 ) verwendet werden kann.
- • The classifier (
18th -1 until3 ) was defined as described above. - • A model for the simulation is given (
11 ) as well as a lot of tests (12th ) including defined input parameters. - • The QSpec requirements are quantifiable and specified and are implemented within the framework of a monitoring system that carries out the tests (
12th ) with regard to the degree of fulfillment (13th ) evaluates these requirements. In the figure, both compliance measures relate (13th ) to the same request QSpec, which, however, once based on the simulation (11 ) and once by way of experimental measurement (21 ) is assessed on the system. - • There is also a measure of error (
14th ), which for the purposes of the following explanations and figures is equated with the underlying validation model for reasons of simplification. For some test entries, simulation (11 ) and measurement (21 ) performed, and the measure of error (14th ) generalizes the corresponding tests (12th ) to new, so far not carried out experiments with a certain reliability. B. by an upper and lower limit for the error measure (14th ) is determined. For the classifier (18th ) only the most unfavorable, i.e. the highest degree of error (14th ) are used. It should be noted that the classifier (18th ) to further refine the measure of error (14th ) can be used.
Unter diesen Annahmen mag sich das Verfahren (
- 1. Mittels der Simulation (
11 ) werden die Tests (12 ) durchgeführt, wobei Ausgangssignale erzeugt werden. - 2. Die Ausgangssignale werden hinsichtlich des Erfüllungsmaßes (
13 ) der Anforderungen QSpec und des Fehlermaßes (14 ) der Simulation (11 ) gemäß dem SMerrorX-Fehlermodell ausgewertet. - 3. Genommenes Erfüllungsmaß (
13 ) und Fehlermaß (14 ) werden dem Klassifikator (18 ) zugeführt. - 4. Für jeden Test (
12 ) nimmt der Klassifikator (18 ) der jeweiligen Plattform eine Einstufung (15 ) in eine der folgenden Klassen (A, B, C, D -1 ) vor: Der Test (12 ) war in der Simulation (11 ) erfolgreich und sein Ergebnis ist zuverlässig (16 ); der Test ist in der Simulation (11 ) fehlgeschlagen und sein Ergebnis ist zuverlässig (16 ); oder das Ergebnis der Simulation (11 ) ist unzuverlässig (17 ). - 5. Zuverlässige (
16 ) Testergebnisse, für welche die Simulation (11 ) nunmehr als vertrauenswürdig gilt, werden einer entsprechenden Datenbank (31 ) hinzugefügt. - 6. Für simulierte Tests (
12 ), die als unzuverlässig (17 ) eingestuft werden, werden dem Benutzer neue experimentelle Messungen (21 ) empfohlen oder automatisch ausgeführt. Das zu prüfende reale System wird diesen neuen Tests unterzogen und die so erhaltenen Messungen (21 ) werden zusammen mit den Ergebnissen der Simulation (11 ) verwendet, um das Validierungsmodell durch Verringerung der Unsicherheit zu verbessern (33 ). Dies wird wie folgt erreicht: Es werden diejenigen simulierten Tests (12 ) ausgewählt, die als unzuverlässig (17 ) eingestuft wurden und nahe an der Entscheidungsgrenze (19 -1 ) des Klassifikators (18 ) liegen. Die entsprechende experimentelle Messung (21 ) - also gleichsam der „wirkliche“ Test mit der entsprechenden Eingabe X - wird durchgeführt. Die Ergebnisse von Simulation (11 ) und Messung (21 ) werden zur Berechnung des Fehlermaßes SMerrorX verwendet. Mit Hilfe dieses Fehlermaßes (14 ) wird das Validierungsmodell verbessert, indem dessen Unsicherheit im Datenpunkt X verringert wird. Dies kann durch Training des Validierungsmodells mit den zusätzlichen Daten oder manuell erfolgen. Es sei bemerkt, dass als Validierungsmetrik im Sinne der obigen Ausführungen jedwede Abbildung verstanden werden mag, welche der Eingabe X ein beispielsweise reellwertiges Fehlermaß (14 ) SMerrorX als Funktion der Ergebnisse von Simulation (11 ) und Messung (21 ) zuordnet. - 7. Sofern die Entscheidungsgrenze (
19 ) des Klassifikators (18 ), wie oben zu2 erläutert, auf der Grundlage von Daten gezogen wurde, kann dieser - ebenfalls optional - anhand der Ergebnisse der Messung (21 ) aktualisiert und mittels dieser Datenpunkte verbessert werden.
- 1. Using the simulation (
11 ) the tests (12th ), with output signals being generated. - 2. The output signals are determined with regard to the degree of compliance (
13th ) the requirements QSpec and the degree of error (14th ) the simulation (11 ) evaluated according to the SMerrorX error model. - 3. Accepted measure of fulfillment (
13th ) and measure of error (14th ) are assigned to the classifier (18th ) supplied. - 4. For each test (
12th ) takes the classifier (18th ) the respective platform a classification (15th ) into one of the following classes (A, B, C, D -1 ) before: The test (12th ) was in the simulation (11 ) successful and its result is reliable (16 ); the test is in the simulation (11 ) failed and its result is reliable (16 ); or the result of the simulation (11 ) is unreliable (17th ). - 5. Reliable (
16 ) Test results for which the simulation (11 ) is now considered to be trustworthy, a corresponding database (31 ) added. - 6. For simulated tests (
12th ) considered unreliable (17th ), new experimental measurements (21 ) recommended or executed automatically. The real system to be tested is subjected to these new tests and the measurements thus obtained (21 ) together with the results of the simulation (11 ) used to improve the validation model by reducing uncertainty (33 ). This is achieved as follows: Those simulated tests (12th ) selected as unreliable (17th ) and close to the decision limit (19th -1 ) of the classifier (18th ) lie. The corresponding experimental measurement (21 ) - the "real" test with the corresponding input X - is carried out. The results of simulation (11 ) and measurement (21 ) are used to calculate the error measure SMerrorX. With the help of this error measure (14th ) the validation model is improved by reducing its uncertainty in data point X. This can be done by training the validation model with the additional data or manually. It should be noted that as a validation metric in the sense of the above explanations, any mapping can be understood which gives the input X a, for example, real-valued error measure (14th ) SMerrorX as a function of the results of simulation (11 ) and measurement (21 ) assigns. - 7. If the decision limit (
19th ) of the classifier (18th ) as above too2 explained, was drawn on the basis of data, this can - also optionally - based on the results of the measurement (21 ) can be updated and improved using these data points.
Dieses Verfahren (
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 10303489 A1 [0004]DE 10303489 A1 [0004]
Zitierte Nicht-PatentliteraturNon-patent literature cited
- ISO 18571 [0007]ISO 18571 [0007]
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020206324.9A DE102020206324A1 (en) | 2020-05-20 | 2020-05-20 | Method and device for testing a technical system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020206324.9A DE102020206324A1 (en) | 2020-05-20 | 2020-05-20 | Method and device for testing a technical system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020206324A1 true DE102020206324A1 (en) | 2021-11-25 |
Family
ID=78408473
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020206324.9A Pending DE102020206324A1 (en) | 2020-05-20 | 2020-05-20 | Method and device for testing a technical system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020206324A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10303489A1 (en) | 2003-01-30 | 2004-08-12 | Robert Bosch Gmbh | Motor vehicle control unit software testing, whereby the software is simulated using a test system that at least partially simulates the control path of a control unit |
-
2020
- 2020-05-20 DE DE102020206324.9A patent/DE102020206324A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10303489A1 (en) | 2003-01-30 | 2004-08-12 | Robert Bosch Gmbh | Motor vehicle control unit software testing, whereby the software is simulated using a test system that at least partially simulates the control path of a control unit |
Non-Patent Citations (1)
Title |
---|
ISO 18571 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102020205539A1 (en) | Method and device for testing a technical system | |
EP3757795A1 (en) | Method and device for optimal distribution of test cases to different test platforms | |
EP3757792A2 (en) | Method and device for testing a system, for selecting real tests and for testing systems with machine learning components | |
DE102020205540A1 (en) | Method and device for testing a technical system | |
DE102020206321A1 (en) | Method and device for testing a technical system | |
DE102020206327A1 (en) | Method and device for testing a technical system | |
DE102020206324A1 (en) | Method and device for testing a technical system | |
DE102020205977A1 (en) | Method and device for testing a technical system | |
DE102020206322A1 (en) | Method and device for testing a technical system | |
DE10133670A1 (en) | Method for automatic generation of a knowledge base for a technical system diagnosis system from a model of the technical system, e.g. for fault monitoring and diagnosis of a motor vehicle onboard control system | |
EP3757698A1 (en) | Method and device for evaluating and selecting signal comparison metrics | |
DE102020205527A1 (en) | Method and device for testing a technical system | |
DE102020206323A1 (en) | Method and device for testing a technical system | |
DE102021200927A1 (en) | Method and device for analyzing a system embedded in particular in an at least partially autonomous robot or vehicle | |
DE102021109126A1 (en) | Procedure for testing a product | |
DE102021201505A1 (en) | Method and device for testing a technical system | |
DE102021109129A1 (en) | Procedure for testing a product | |
DE102021202335A1 (en) | Method and device for testing a technical system | |
DE102021200298A1 (en) | Method and device for testing a technical system | |
DE102020205526A1 (en) | Method and device for testing a technical system | |
DE102020205963B3 (en) | Device and computer-implemented method for operating a test bench | |
DE102021102460A1 (en) | Procedure for performing a simulation | |
DE102017213764A1 (en) | Device for the reliability analysis of a mechatronic system | |
DE102020205131A1 (en) | Method and device for simulating a technical system | |
DE102021109127A1 (en) | Procedure for testing a product |