DE102020205526A1 - Method and device for testing a technical system - Google Patents
Method and device for testing a technical system Download PDFInfo
- Publication number
- DE102020205526A1 DE102020205526A1 DE102020205526.2A DE102020205526A DE102020205526A1 DE 102020205526 A1 DE102020205526 A1 DE 102020205526A1 DE 102020205526 A DE102020205526 A DE 102020205526A DE 102020205526 A1 DE102020205526 A1 DE 102020205526A1
- Authority
- DE
- Germany
- Prior art keywords
- simulation
- classification
- tests
- classifier
- test
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012360 testing method Methods 0.000 title claims abstract description 114
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000004088 simulation Methods 0.000 claims abstract description 65
- 238000007670 refining Methods 0.000 claims abstract description 4
- 238000005259 measurement Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 4
- 238000012800 visualization Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 3
- 238000012797 qualification Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 claims 2
- 238000010200 validation analysis Methods 0.000 description 11
- 238000013459 approach Methods 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 7
- 238000012795 verification Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000011002 quantification Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012783 upstream development Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
- G06F11/3688—Test management for test execution, e.g. scheduling of test suites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/26—Functional testing
- G06F11/261—Functional testing by simulating additional hardware, e.g. fault simulation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B17/00—Systems involving the use of models or simulators of said systems
- G05B17/02—Systems involving the use of models or simulators of said systems electric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/36—Preventing errors by testing or debugging software
- G06F11/3668—Software testing
- G06F11/3672—Test management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Verfahren (10) zum Prüfen eines technischen Systems, gekennzeichnet durch folgende Merkmale:- mittels einer Simulation (11) des Systems werden Tests (12) durchgeführt,- die Tests (12) werden hinsichtlich eines Erfüllungsmaßes (13) einer quantitativen Anforderung an das System und eines Fehlermaßes (14) der Simulation (11) ausgewertet,- abhängig vom Erfüllungsmaß (13) und Fehlermaß (14) wird eine vorläufige Einstufung (15) der Tests (12) als entweder zuverlässig (16) oder unzuverlässig (17) vorgenommen und- durch eine schrittweise Verfeinerung der Einstufung (15) wird ein Klassifikator (18) für die Einstufung (15) optimiert.A method (10) for testing a technical system, characterized by the following features: tests (12) are carried out by means of a simulation (11) of the system, - the tests (12) are performed with regard to a measure (13) of a quantitative requirement for the system and an error measure (14) of the simulation (11) is evaluated, - depending on the fulfillment measure (13) and error measure (14), a preliminary classification (15) of the tests (12) as either reliable (16) or unreliable (17) is carried out and - By gradually refining the classification (15), a classifier (18) is optimized for the classification (15).
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Prüfen eines technischen Systems. Die vorliegende Erfindung betrifft darüber hinaus eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium.The present invention relates to a method for testing a technical system. The present invention also relates to a corresponding device, a corresponding computer program and a corresponding storage medium.
Stand der TechnikState of the art
In der Softwaretechnik wird die Nutzung von Modellen zur Automatisierung von Testaktivitäten und zur Generierung von Testartefakten im Testprozess unter dem Oberbegriff „modellbasiertes Testen“ (model-based testing, MBT) zusammengefasst. Hinlänglich bekannt ist beispielsweise die Generierung von Testfällen aus Modellen, die das Sollverhalten des zu testenden Systems beschreiben.In software engineering, the use of models to automate test activities and to generate test artifacts in the test process is summarized under the heading of "model-based testing" (MBT). For example, the generation of test cases from models that describe the target behavior of the system to be tested is well known.
Insbesondere eingebettete Systeme (embedded systems) sind auf schlüssige Eingangssignale von Sensoren angewiesen und stimulieren wiederum ihre Umwelt durch Ausgangssignale an unterschiedlichste Aktoren. Im Zuge der Verifikation und vorgelagerter Entwicklungsphasen eines solchen Systems wird daher in einer Regelschleife dessen Modell (model in the loop, MiL), Software (software in the loop, SiL), Prozessor (processor in the loop, PiL) oder gesamte Hardware (hardware in the loop, HiL) gemeinsam mit einem Modell der Umgebung simuliert. In der Fahrzeugtechnik werden diesem Prinzip entsprechende Simulatoren zur Prüfung elektronischer Steuergeräte je nach Testphase und -objekt mitunter als Komponenten-, Modul- oder Integrationsprüfstände bezeichnet.Embedded systems in particular are dependent on conclusive input signals from sensors and in turn stimulate their environment through output signals to a wide variety of actuators. In the course of the verification and upstream development phases of such a system, its model (model in the loop, MiL), software (software in the loop, SiL), processor (processor in the loop, PiL) or entire hardware (hardware in the loop, HiL) is simulated together with a model of the environment. In vehicle technology, simulators corresponding to this principle for testing electronic control devices are sometimes referred to as component, module or integration test benches, depending on the test phase and object.
Derartige Simulationen sind auf verschiedenen Gebieten der Technik verbreitet und finden beispielsweise Einsatz, um eingebettete Systeme in Elektrowerkzeugen, Motorsteuergeräte für Antriebs-, Lenk- und Bremssysteme, Kamerasysteme, Systeme mit Komponenten der künstlichen Intelligenz und des maschinellen Lernens, Robotiksysteme oder autonome Fahrzeuge in frühen Phasen ihrer Entwicklung auf Tauglichkeit zu prüfen. Dennoch werden die Ergebnisse von Simulationsmodellen nach dem Stand der Technik aufgrund fehlenden Vertrauens in ihre Zuverlässigkeit nur begrenzt in Freigabeentscheidungen einbezogen.Such simulations are widespread in various fields of technology and are used, for example, to convert embedded systems in power tools, motor control units for drive, steering and braking systems, camera systems, systems with components of artificial intelligence and machine learning, robotics systems or autonomous vehicles in early phases to check their development for suitability. Nevertheless, the results of state-of-the-art simulation models are only included in release decisions to a limited extent due to a lack of confidence in their reliability.
Offenbarung der ErfindungDisclosure of the invention
Die Erfindung stellt ein Verfahren zum Prüfen eines technischen Systems, eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium gemäß den unabhängigen Ansprüchen bereit.The invention provides a method for testing a technical system, a corresponding device, a corresponding computer program and a corresponding storage medium according to the independent claims.
Der erfindungsgemäße Ansatz fußt auf der Erkenntnis, dass die Güte von Simulationsmodellen für die korrekte Vorhersagbarkeit der damit erzielbaren Testergebnisse entscheidend ist. Auf dem Gebiet des MBT beschäftigt sich die Teildisziplin der Validierung mit der Aufgabe, reale Messungen mit Simulationsergebnissen zu vergleichen. Dazu werden verschiedene Metriken, Maßzahlen oder andere Vergleicher verwendet, die Signale miteinander verknüpfen und die im Folgenden zusammenfassend als Signalmetriken (SM) bezeichnet werden sollen. Beispiele für derartige Signalmetriken sind Metriken, die Größe, Phasenverschiebung und Korrelationen vergleichen. Einige Signalmetriken sind durch einschlägige Normen definiert, z. B. gemäß
Allgemeiner ausgedrückt unterstützen Unsicherheitsquantifizierungstechniken die Abschätzung der Simulations- und Modellgüte. Das Ergebnis einer Bewertung der Modellgüte unter Heranziehung einer Signalmetrik oder allgemeiner unter Verwendung einer Unsicherheitsquantifizierungsmethode für eine bestimmte Eingabe X, bei der es sich um einen Parameter oder ein Szenario handeln kann, wird nachfolgend als Simulationsmodell-Fehlermetrik - kurz: Fehlermetrik - SMerrorX bezeichnet. Zur Verallgemeinerung (Interpolation und Extrapolation) von SMerrorX für bisher nicht betrachtete Eingaben, Parameter oder Szenarien X können maschinelle Lernmodelle etwa auf der Grundlage sogenannter Gaußprozesse verwendet werden.In more general terms, uncertainty quantification techniques support the estimation of the simulation and model quality. The result of an assessment of the model quality using a signal metric or, more generally, using an uncertainty quantification method for a specific input X, which can be a parameter or a scenario, is referred to below as the simulation model error metric - in short: error metric - SMerrorX. For generalization (interpolation and extrapolation) of SMerrorX for inputs, parameters or scenarios X that have not been considered previously, machine learning models can be used, for example on the basis of so-called Gaussian processes.
Bei der Verifizierung wird der Prüfling (system under test, SUT) typischerweise anhand einer Anforderung, Spezifikation oder Leistungskennzahl untersucht. Es ist zu beachten, dass boolesche Anforderungen oder Spezifikationen oft in quantitative Messungen umgewandelt werden können, indem man Formalismen wie die Signal-Temporallogik (signal temporal logic, STL) verwendet. Derartige Formalismen können als Grundlage einer quantitativen Semantik dienen, die sich insofern als Verallgemeinerung der Verifikation darstellt, als ein positiver Wert die Erfüllung und ein negativer Wert die Verletzung einer Anforderung indiziert. Im Folgenden werden solche Anforderungen, Spezifikationen oder Leistungsmaße zusammenfassend als „quantitative Anforderungen“ (QSpec) bezeichnet.During verification, the test item (system under test, SUT) is typically examined on the basis of a requirement, specification or performance indicator. It should be noted that Boolean requirements or specifications can often be converted into quantitative measurements using formalisms such as signal temporal logic (STL). Such formalisms can serve as the basis of quantitative semantics, which in this respect represent a generalization of the verification, rather than a positive one Value indicates fulfillment and a negative value indicates violation of a requirement. In the following, such requirements, specifications or performance measures are collectively referred to as “quantitative requirements” (QSpec).
Derlei quantitative Anforderungen können entweder anhand des realen SUT oder eines Modells desselben - gleichsam eines „virtuellen SUT“ - überprüft werden. Zum Zwecke dieser Verifikation werden Kataloge mit Testfällen zusammengestellt, denen ein SUT genügen muss, um zu entscheiden, ob es die gewünschten Leistungs- und Sicherheitseigenschaften aufweist. Ein solcher Testfall kann parametrisiert werden und so eine beliebige Anzahl von Einzeltests abdecken.Such quantitative requirements can either be checked using the real SUT or a model of the same - a “virtual SUT”, so to speak. For the purpose of this verification, catalogs are compiled with test cases that an SUT must meet in order to decide whether it has the desired performance and security properties. Such a test case can be parameterized and thus cover any number of individual tests.
Vor diesem Hintergrund trägt der vorgeschlagene Ansatz dem Bedürfnis nach belastbaren Testergebnissen Rechnung, um die Leistungs- und Sicherheitseigenschaften eines SUT zu gewährleisten. Gerade bei der Durchführung von Tests anhand einer Simulation des Systems oder einer Teilkomponente - anstelle des realen Systems - gilt es sicherzustellen, dass die Simulationsergebnisse vertrauenswürdig sind.Against this background, the proposed approach takes into account the need for reliable test results in order to guarantee the performance and safety properties of an SUT. When performing tests based on a simulation of the system or a subcomponent - instead of the real system - it is important to ensure that the simulation results are trustworthy.
Validierungstechniken, die die Abweichung zwischen Simulations- und realem Systemverhalten überprüfen, sind Bestandteil derartiger Methoden zur Bewertung der Simulations- und Modellqualität. Um diese Abweichung zu quantifizieren, wird - wie oben dargelegt - für die Eingabe X die Validierungsfehlermetrik SMerrorX berechnet. Andererseits wird das System auf die Erfüllung der Anforderung QSpec hin untersucht; das auf diese Weise ermittelte Erfüllungsmaß trägt zu einem besseren Verständnis von Testergebnissen und Systemverhalten bei. Hierzu wird im Weiteren ein so genannter virtueller Testklassifikator eingeführt, um unter Berücksichtigung beider Qualitätsaspekte diejenigen Teilbereiche der Merkmalsräume einzugrenzen, in denen eine Simulation dem vorgesehenen Zweck genügt.Validation techniques that check the deviation between simulation and real system behavior are part of such methods for evaluating the simulation and model quality. In order to quantify this deviation, the validation error metric SMerrorX is calculated for the input X - as explained above. On the other hand, the system is checked for compliance with the QSpec requirement; the degree of compliance determined in this way contributes to a better understanding of test results and system behavior. For this purpose, a so-called virtual test classifier is introduced below, in order to delimit those sub-areas of the feature spaces in which a simulation is sufficient for the intended purpose, taking into account both quality aspects.
Die Merkmalskombinationen werden zu diesem Zweck im Hinblick auf die Zuverlässigkeit der durch sie definierten Tests in der Simulation eingestuft. Um zu einem klaren Verständnis der resultierenden Klassifikation zu gelangen und den Klassifikator selbst zu optimieren, bedarf es eines ausgeklügelten Algorithmus zur Auflösung oder Vereinfachung der durch den virtuellen Testklassifikator definierten Streuverteilung.For this purpose, the combinations of features are classified in the simulation with regard to the reliability of the tests they define. In order to get a clear understanding of the resulting classification and to optimize the classifier itself, a sophisticated algorithm is required to resolve or simplify the scatter distribution defined by the virtual test classifier.
Ein Vorzug der erfindungsgemäßen Lösung für diese Aufgabe besteht darin, dass sie im Gegensatz zu Konzepten, die ausschließlich auf Validierung oder ausschließlich auf Verifizierung basieren, beide Ansätze auf geschickte Weise vereint. Dazu wird der besagte virtuelle Test-Klassifikator eingeführt, welcher die Erfordernisse von Modellvalidierung und Produkttest kombiniert. Dies wird durch die Verknüpfung von Informationen aus der Validierung von Simulations- und Modellgüte (SMerrorX) einerseits und Testanforderungen (QSpec) andererseits erreicht.One advantage of the solution according to the invention for this task is that, in contrast to concepts that are based exclusively on validation or exclusively on verification, it cleverly combines both approaches. For this purpose, the aforementioned virtual test classifier is introduced, which combines the requirements of model validation and product testing. This is achieved by linking information from the validation of simulation and model quality (SMerrorX) on the one hand and test requirements (QSpec) on the other.
Die Anwendung entsprechender Tests kommt auf unterschiedlichsten Feldern in Betracht. Zu denken ist beispielsweise an die funktionale Sicherheit automatisierter Systeme, wie sie etwa zur Automatisierung von Fahrfunktionen (automated driving) genutzt werden.The application of corresponding tests can be considered in a wide variety of fields. One should think, for example, of the functional safety of automated systems, such as those used to automate driving functions.
Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen des im unabhängigen Anspruch angegebenen Grundgedankens möglich. So kann eine automatisierte, computer-implementierte Testumgebung vorgesehen sein, um die Qualität der getesteten Hardware- oder Softwareprodukte weitgehend selbsttätig zu verbessern.The measures listed in the dependent claims allow advantageous developments and improvements of the basic idea specified in the independent claim. An automated, computer-implemented test environment can be provided in order to improve the quality of the tested hardware or software products largely automatically.
FigurenlisteFigure list
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
-
1 einen virtuellen Test-Klassifikator. -
2 einen Ansatz zur Erzeugung der Entscheidungsgrenze des Klassifikators auf der Grundlage von Daten. -
3 die Vorklassifizierung eines virtuellen Testraums unter Hervorhebung eines unzuverlässigen Bereichs. -
4 die mögliche weitere Klassifizierung innerhalb des unzuverlässigen Bereichs. -
5 das beispielhafte Ergebnis einer optimierungsbasierten virtuellen Testklassifizierung in zwei verschiedenen Darstellungen. -
6 die Darstellung der Zuverlässigkeit und Klassifikation im Parameterraum in einer frühen Verfahrensphase. -
7 die Darstellung der Zuverlässigkeit und Klassifikation im Parameterraum gemäß einem durch Verfeinerung der Bereiche des Parameterraumes verbesserten Klassifikator, wobei auf eine Unterscheidung bestandener und nicht bestandener Testfälle verzichtet wird. -
8 eine Abbildung der zuvor im Parameterraum dargestellten Information in das Koordinatensystem des Klassifikators. Zur besseren Übersichtlichkeit sind hier nur die unzuverlässigen Testfälle dargestellt. -
9 eine erweiterte Darstellung, welche die Zuverlässigkeit von Testfällen nahe der Entscheidungsgrenze des Klassifikators in Zweifel zieht. -
10 eine Darstellung des Klassifikators, welche die Information aus dem Parameterraum zur Risikoeinschätzung kombiniert. -
11 die Beschreibung eines erfindungsgemäßen Verfahrens aus Anwendungssicht. -
12 die Visualisierung eines Klassifikationsergebnisses in einem durch die Testparameter aufgespannten Merkmalsraum. -
13 schematisch eine Arbeitsstation.
-
1 a virtual test classifier. -
2 an approach to generating the decision limit of the classifier based on data. -
3 the pre-classification of a virtual test room highlighting an unreliable area. -
4th the possible further classification within the unreliable area. -
5 the exemplary result of an optimization-based virtual test classification in two different representations. -
6th the representation of the reliability and classification in the parameter space in an early process phase. -
7th the representation of the reliability and classification in the parameter space according to a classifier improved by refining the areas of the parameter space, whereby a distinction between passed and failed test cases is dispensed with. -
8th a mapping of the information previously shown in the parameter space into the coordinate system of the classifier. For the sake of clarity, only the unreliable test cases are shown here. -
9 an extended representation that shows the reliability of test cases close to the Doubts the decision limit of the classifier. -
10 a representation of the classifier, which combines the information from the parameter space for risk assessment. -
11 the description of a method according to the invention from an application perspective. -
12th the visualization of a classification result in a feature space spanned by the test parameters. -
13th schematically a workstation.
Ausführungsformen der ErfindungEmbodiments of the invention
Erfindungsgemäß wird im Rahmen eines Tests X, welcher als Testfall einem Testkatalog entnommen oder als Instanz eines parametrischen Tests gewonnen werden kann, der Simulationsmodellfehler SMerrorX ausgewertet und die quantitative Spezifikation QSpec auf der Grundlage einer Simulation des SUT bewertet. Der virtuelle Testklassifikator verwendet als Eingabe SMerrorX und QSpec und trifft eine binäre Entscheidung dahingehend, ob das auf der Simulation basierende Testergebnis vertrauenswürdig ist oder nicht.According to the invention, as part of a test X, which can be taken from a test catalog as a test case or obtained as an instance of a parametric test, the simulation model error SMerrorX is evaluated and the quantitative specification QSpec is evaluated on the basis of a simulation of the SUT. The virtual test classifier uses SMerrorX and QSpec as inputs and makes a binary decision as to whether the test result based on the simulation is trustworthy or not.
Gemäß dem in der Informatik und insbesondere Mustererkennung üblichen Sprachgebrauch ist als Klassifikator hierbei jedweder Algorithmus oder jedwede mathematische Funktion zu verstehen, welche einen Merkmalsraum auf eine Menge von Klassen abbildet, die im Zuge einer Klassifizierung gebildet und voneinander abgegrenzt wurden. Um entscheiden zu können, in welche Klasse ein Objekt einzustufen oder zu klassieren (umgangssprachlich auch: „klassifizieren“) ist, zieht der Klassifikator sogenannte Klassen- oder Entscheidungsgrenzen heran. Sofern eine Unterscheidung zwischen Verfahren und Instanz nicht von Bedeutung ist, wird der Begriff „Klassifikator“ in der Fachsprache und auch nachfolgend teilweise gleichbedeutend mit „Einstufung“ oder „Klassierung“ verwendet.According to the common usage in computer science and in particular in pattern recognition, a classifier is to be understood as any algorithm or any mathematical function that maps a feature space onto a set of classes that were formed and delimited from one another in the course of a classification. In order to be able to decide in which class an object is to be classified or classified (colloquially also: "classify"), the classifier uses so-called class or decision limits. If a distinction between procedure and instance is not important, the term “classifier” is used in the technical language and also in the following partly synonymous with “classification” or “classification”.
Wie die Abbildung erkennen lässt, unterteilt die Entscheidungsgrenze (
Dieser virtuelle Test-Klassifikator (
Da diese Betrachtungsweise die Kenntnis des Modellfehlers SMerrorX des Simulationsmodells voraussetzt, wird davon ausgegangen, dass letzteres im Vorfeld der Verwendung des virtuellen Test-Klassifikators (
In Betracht kommt ferner eine allgemeinere, z. B. polynomielle Entscheidungsgrenze (
Insbesondere der erste, zu
Im solchermaßen vorausgewählten Bereich für ein gegebenes Erfüllungs- (
Die konservative Eigenschaft der Klassifikation führt hierbei mit hoher Wahrscheinlichkeit zu einem Informationsverlust durch fehlerhafte Einstufungen, d. h. zu einer zunehmenden Ineffizienz bei der Abgabe von Empfehlungen zur Auswahl sinnvoller realer Messungen. Um diesen Verlust wertvoller Informationen zu vermeiden, die nach den vorgegebenen Kriterien und der Eigenart der Klassifikationsmethode bewertet wurden, muss die Menge der ungeordneten Informationen in einer Vorauswahlphase identifiziert und entsprechend berücksichtigt werden. Anhand des folgenden Beispiels sei diese Vorgehensweise näher erläutert.The conservative property of the classification leads with a high probability to a loss of information due to incorrect classifications, i.e. H. to an increasing inefficiency in the provision of recommendations for the selection of meaningful real measurements. In order to avoid this loss of valuable information, which has been evaluated according to the specified criteria and the nature of the classification method, the amount of disordered information must be identified in a pre-selection phase and taken into account accordingly. This procedure is explained in more detail using the following example.
Im Falle einer einfachen linearen Klassifikation, die sich auf die Betrachtung der ungünstigsten Fälle stützt, gibt es zu viele Punkte innerhalb des unzuverlässigen Bereichs, selbst wenn diese vorgegebenen Kriterien - etwa hinsichtlich des übereinstimmenden Vorzeichens der in Simulation und Realmessung ermittelten Erfüllungsmaße (
Der zunächst ungeordnete Dreiecksbereich vermeintlich unzuverlässiger Testfälle birgt somit eine gewisse Entropie, die allerdings nur schwer zu nutzen ist. Um seine einzelnen Teilbereiche angemessen zu unterscheiden, erweist sich eine iterative Methode als zielführend, die auf der Messung dieses Informationsgehaltes basiert. Aus den Ergebnissen einer solchen iterativen Klassierung von Testfällen innerhalb des besagten Bereiches können diverse Empfehlungen abgeleitet werden.The initially disordered triangular area of supposedly unreliable test cases thus harbors a certain entropy, which, however, is difficult to use. An iterative method based on the measurement of this information content proves to be expedient in order to appropriately differentiate between its individual sub-areas. Various recommendations can be derived from the results of such an iterative classification of test cases within the said area.
Eine solche Methode mag sie wie folgt gestalten: Zunächst wird ein Suchraster in Abhängigkeit von der Größe des betrachteten Bereichs festgelegt, um eine Untermenge von vorselektierten unzuverlässigen Teilbereichen zu definieren. Das auf der Entropie basierende Informationsmaß dieser Untermenge wird nunmehr für bestimmte Attribute berechnet, indem gemäß dem Suchraster wiederholt Teilbereiche mit Informationsgehalt betrachtet und auf dieser Grundlage die Entscheidungsgrenze verfeinert, der klassifizierte Bereich dem Parameterraum zugeordnet, der geänderte Bereich markiert und die Suchrastergeometrie aktualisiert wird.Such a method may be designed as follows: First, a search grid is defined as a function of the size of the area under consideration in order to define a subset of preselected unreliable sub-areas. The entropy-based information measure of this subset is now calculated for certain attributes by repeatedly considering sub-areas with information content according to the search grid and refining the decision limit on this basis, assigning the classified area to the parameter space, marking the changed area and updating the search grid geometry.
In
Zusammenfassend lassen sich die Vorteile dieses schrittweisen Ansatzes wie folgt beschreiben: Der Informationsverlust im Rahmen der Klassifikation und somit letztlich die Zahl unnötiger realer Messungen wird reduziert; der unzuverlässige Bereich wird klarer abgegrenzt und das Verständnis des Simulationsmodells je nach der Untersuchung im Parameterraum bereichsweise vertieft; und eine Möglichkeit zur Ableitung von Empfehlungen bezüglich der Validierung wird geschaffen.In summary, the advantages of this step-by-step approach can be described as follows: The loss of information in the context of the classification and thus ultimately the number of unnecessary real measurements is reduced; the unreliable area is delimited more clearly and the understanding of the simulation model is deepened in areas depending on the investigation in the parameter space; and a possibility for deriving recommendations regarding validation is created.
Anstatt die Testfälle im von Erfüllungsmaß (
Ähnlich wie bei dem oben beschriebenen Ansatz wird auch hier der Parameterraum in verschiedene Bereiche unterteilt: Die mit dem Bezugszeichen
In den „gemischten“ Bereichen (
Dabei kann die besagte Information auf drei verschiedene Arten verwendet werden: ähnlich wie zu den
Nach der Klassifikation im Parameterraum werden die Punkte - wie oben bereits erwähnt - auf den in
- • Gegeben ist ein Modell für die Simulation (
11 ) sowie eine Menge von Tests (12 ) mitsamt definierter Eingabeparameter. - • Die Anforderungen QSpec sind quantifizierbar und vorgegeben und werden im Rahmen eines Überwachungssystems implementiert, das die Tests (
12 ) hinsichtlich des Erfüllungsmaßes (13 ) dieser Anforderungen auswertet. In der Abbildung beziehen sich beide Erfüllungsmaße (13 ) auf dieselbe Anforderung QSpec, die jedoch einmal anhand der Simulation (11 ) und einmal im Wege experimenteller Messung (21 ) am System bewertet wird. - • SMerrorX ist ein Fehlermaß (
14 ), das im Vorfeld definiert wurde. Für einige Testeingaben wurden also bereits Simulation (11 ) und Messung (21 ) durchgeführt, und das Fehlermaß (14 ) verallgemeinert die entsprechenden Tests (12 ) auf neue, bislang nicht durchgeführte Experimente mit einer gewissen Zuverlässigkeit, die z. B. durch eine Ober- und Untergrenze für das Fehlermaß (14 ) bestimmt wird. Für den Klassifikator (18 ) wird lediglich das ungünstigste, also höchste Fehlermaß (14 ) herangezogen. Es sei angemerkt, dass der Klassifikator (18 ) zur weiteren Verfeinerung des Fehlermaßes (14 ) verwendet werden kann.
- • A model for the simulation is given (
11 ) as well as a lot of tests (12th ) including defined input parameters. - • The QSpec requirements are quantifiable and specified and are implemented within the framework of a monitoring system that carries out the tests (
12th ) with regard to the degree of fulfillment (13th ) evaluates these requirements. In the figure, both compliance measures refer to (13th ) to the same request QSpec, which, however, once based on the simulation (11 ) and once by way of experimental measurement (21 ) is evaluated on the system. - • SMerrorX is a measure of error (
14th ), which was defined in advance. For some test entries, simulation (11 ) and measurement (21 ) performed, and the measure of error (14th ) generalizes the corresponding tests (12th ) to new, so far not carried out experiments with a certain reliability. B. by an upper and lower limit for the error measure (14th ) is determined. For the classifier (18th ) only the most unfavorable, i.e. the highest degree of error (14th ) are used. It should be noted that the classifier (18th ) to further refine the measure of error (14th ) can be used.
Unter diesen Annahmen mag sich das Verfahren (
- 1. Gemäß den obigen Erläuterungen wird ein Klassifikator (
18 ) definiert. - 2. Die Tests (
12 ) werden durchgeführt, wobei Ausgangssignale erzeugt werden. - 3. Die Ausgangssignale werden hinsichtlich des Erfüllungsmaßes (
13 ) der Anforderungen QSpec und des Fehlermaßes (14 ) der Simulation (11 ) gemäß dem SMerrorX-Fehlermodell ausgewertet und dem Klassifikator (18 ) zugeführt. - 4. In einer Vorauswahlphase (
20 ) nimmt der Klassifikator (18 ) für jeden Test (12 ) eine Einstufung (15 ) in eine der folgenden Klassen (A, B, C, D -1 ) vor: Der Test (12 ) war in der Simulation (11 ) erfolgreich und sein Ergebnis ist zuverlässig (16 ); der Test ist in der Simulation (11 ) fehlgeschlagen und sein Ergebnis ist zuverlässig (16 ); oder das Ergebnis der Simulation (11 ) ist unzuverlässig (17 ). - 5. Der optimierte Klassifikator (
18 ) kann auf der Grundlage dieser Vorauswahl angewendet werden und liefert mehrere unzuverlässige Bereiche (39 ) mit Zahlenverhältnissen. - 6. Zuverlässige (
16 ) Testergebnisse, für welche die Simulation (11 ) nunmehr als vertrauenswürdig gilt, werden einer entsprechenden Datenbank hinzugefügt (36 ). - 7. Unzuverlässige (
17 ) Tests (12 ) können abhängig von den Zahlenverhältnissen zum Anlass genommen werden, dem Benutzer die Durchführung einer entsprechenden Messung (21 ) am System zu empfehlen, wobei die abschließende Entscheidung dem Benutzer vorbehalten bleiben sollte. - 8. Optional können manuell oder automatisch neue experimentelle Messungen (
21 ) vorgenommen werden.
- 1. As explained above, a classifier (
18th ) Are defined. - 2. The tests (
12th ) are performed, generating output signals. - 3. The output signals are determined with regard to the degree of compliance (
13th ) the requirements QSpec and the degree of error (14th ) the simulation (11 ) according to the SMerrorX error model evaluated and the classifier (18th ) supplied. - 4. In a pre-selection phase (
20th ) takes the classifier (18th ) for each test (12th ) a classification (15th ) into one of the following classes (A, B, C, D -1 ) before: The test (12th ) was in the simulation (11 ) successful and its result is reliable (16 ); the test is in the simulation (11 ) failed and its result is reliable (16 ); or the result of the simulation (11 ) is unreliable (17th ). - 5. The optimized classifier (
18th ) can be applied based on this preselection and yields several unreliable areas (39 ) with numerical ratios. - 6. Reliable (
16 ) Test results for which the simulation (11 ) is now considered to be trustworthy, are added to a corresponding database (36 ). - 7. Unreliable (
17th ) Testing (12th ) can, depending on the numerical proportions, be used as an opportunity to instruct the user to carry out a corresponding measurement (21 ) on the system, whereby the final decision should be left to the user. - 8. Optionally, new experimental measurements (
21 ) can be made.
Die anhand der
- 1. Zunächst werden einige Tests in Simulation und Wirklichkeit vorgenommen.
- 2. Im ersten Schritt wird jeder Test als entweder zuverlässig, also in Simulation und Experiment übereinstimmend bestanden, als unzuverlässig, also als in Simulation und Experiment übereinstimmend nicht bestanden, oder als unzuverlässig eingestuft, sofern Simulation und Experiment unterschiedliche Testergebnisse liefern.
- 3. Anhand dieser Vorqualifizierung wird der Parameterraum in zuverlässige, unzuverlässige (
41 ), gemischte (42 ) sowie optionale Grenzbereiche am Rande der zuverlässigen Bereiche eingeteilt. Anhand dieser Einteilung wird jeder Testfall anhand seiner Zugehörigkeit zu einem der genannten Bereiche erneut eingestuft. - 4. Die Einstufung wird anhand der beschriebenen Darstellung im Parameterraum verbessert, indem die besagten Bereiche in zunehmend kleinere Teilbereiche unterteilt und der Informationsgehalt jedes dieser Abschnitte optimiert wird.
- 5. Die Einstufung jedes Punktes wird auf den Testraum abgebildet.
- 6. Anhand der Verteilung der Punkte im Testraum werden neue Testkandidaten (
44 ) ausgewählt.
- 1. First, some tests are carried out in simulation and in reality.
- 2. In the first step, each test is classified as either reliable, meaning that the simulation and experiment consistently pass, unreliable, that is, the simulation and experiment fail, or unreliable if the simulation and experiment deliver different test results.
- 3. On the basis of this pre-qualification, the parameter space is converted into reliable, unreliable (
41 ), mixed (42 ) as well as optional border areas at the edge of the reliable areas. Based on this classification, each test case is re-classified based on its affiliation to one of the named areas. - 4. The classification is improved on the basis of the representation described in the parameter space by dividing the said areas into increasingly smaller sub-areas and optimizing the information content of each of these sections.
- 5. The classification of each point is mapped onto the test room.
- 6. Based on the distribution of the points in the test room, new test candidates (
44 ) selected.
Das Ergebnis der solchermaßen optimierten Einstufung (
Dieses Verfahren (
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 10303489 A1 [0004]DE 10303489 A1 [0004]
Zitierte Nicht-PatentliteraturNon-patent literature cited
- ISO 18571 [0007]ISO 18571 [0007]
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020205526.2A DE102020205526A1 (en) | 2020-04-30 | 2020-04-30 | Method and device for testing a technical system |
CN202110471517.9A CN113590460A (en) | 2020-04-30 | 2021-04-29 | Method and device for checking a technical system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020205526.2A DE102020205526A1 (en) | 2020-04-30 | 2020-04-30 | Method and device for testing a technical system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020205526A1 true DE102020205526A1 (en) | 2021-11-04 |
Family
ID=78243004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020205526.2A Pending DE102020205526A1 (en) | 2020-04-30 | 2020-04-30 | Method and device for testing a technical system |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113590460A (en) |
DE (1) | DE102020205526A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10303489A1 (en) | 2003-01-30 | 2004-08-12 | Robert Bosch Gmbh | Motor vehicle control unit software testing, whereby the software is simulated using a test system that at least partially simulates the control path of a control unit |
-
2020
- 2020-04-30 DE DE102020205526.2A patent/DE102020205526A1/en active Pending
-
2021
- 2021-04-29 CN CN202110471517.9A patent/CN113590460A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10303489A1 (en) | 2003-01-30 | 2004-08-12 | Robert Bosch Gmbh | Motor vehicle control unit software testing, whereby the software is simulated using a test system that at least partially simulates the control path of a control unit |
Non-Patent Citations (1)
Title |
---|
ISO 18571 |
Also Published As
Publication number | Publication date |
---|---|
CN113590460A (en) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102020205539A1 (en) | Method and device for testing a technical system | |
DE102004024262A1 (en) | Knowledge-based diagnostic system for a complex technical system with two separate knowledge bases for processing technical system data and processing customer complaints | |
DE102005042126A1 (en) | Method and apparatus for automatically evaluating the quality of a software source code | |
EP1020815A2 (en) | Apparatus and method for automatic diagnosis of a technical system with efficient reuse of information | |
DE102019209540A1 (en) | Process and device for the optimal distribution of test cases on different test platforms | |
DE102019124018A1 (en) | Method for optimizing tests of control systems for automated vehicle dynamics systems | |
DE102021100149A1 (en) | Computer-implemented method for providing a test history of traffic scenarios to be tested | |
EP3757792A2 (en) | Method and device for testing a system, for selecting real tests and for testing systems with machine learning components | |
DE102023103743A1 (en) | METHOD AND SYSTEM FOR PREDICTING A PROCESS SEQUENCE FOR A VEHICLE MANUFACTURING PROCESS | |
DE102020205540A1 (en) | Method and device for testing a technical system | |
DE102020205526A1 (en) | Method and device for testing a technical system | |
DE69507138T2 (en) | MACHINE FAULT INSULATION USING QUALITATIVE PHYSICS | |
DE102020206327A1 (en) | Method and device for testing a technical system | |
DE102020206321A1 (en) | Method and device for testing a technical system | |
DE102018117881A1 (en) | SYSTEM AND METHOD FOR USING BUSINESS INTELLIGENCE FOR RULEBASED MANUFACTURING PROCESSING DESIGN | |
DE102021200927A1 (en) | Method and device for analyzing a system embedded in particular in an at least partially autonomous robot or vehicle | |
WO2022128992A1 (en) | Method for verifying an implemented neural network | |
EP3757698A1 (en) | Method and device for evaluating and selecting signal comparison metrics | |
DE102021110083A1 (en) | Training an artificial neural network to test an automatic driving function of a vehicle | |
DE102020205131A1 (en) | Method and device for simulating a technical system | |
DE102021200298A1 (en) | Method and device for testing a technical system | |
DE102020206322A1 (en) | Method and device for testing a technical system | |
DE102020206323A1 (en) | Method and device for testing a technical system | |
DE102020205527A1 (en) | Method and device for testing a technical system | |
DE102020206324A1 (en) | Method and device for testing a technical system |