WO2024078989A1 - Verfahren und vorrichtung zur anomaliedetektion und -analyse eines fahrzeugproduktes - Google Patents

Verfahren und vorrichtung zur anomaliedetektion und -analyse eines fahrzeugproduktes Download PDF

Info

Publication number
WO2024078989A1
WO2024078989A1 PCT/EP2023/077703 EP2023077703W WO2024078989A1 WO 2024078989 A1 WO2024078989 A1 WO 2024078989A1 EP 2023077703 W EP2023077703 W EP 2023077703W WO 2024078989 A1 WO2024078989 A1 WO 2024078989A1
Authority
WO
WIPO (PCT)
Prior art keywords
neural network
anomaly
vehicle product
vehicle
feature
Prior art date
Application number
PCT/EP2023/077703
Other languages
English (en)
French (fr)
Inventor
Anja Fessler
Mark Schutera
Original Assignee
Zf Friedrichshafen Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zf Friedrichshafen Ag filed Critical Zf Friedrichshafen Ag
Publication of WO2024078989A1 publication Critical patent/WO2024078989A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4184Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by fault tolerance, reliability of production system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41875Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by quality surveillance of production
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/024Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31356Automatic fault detection and isolation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31455Monitor process status
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32181Monitor production, assembly apparatus with multiple sensors

Definitions

  • the present invention relates to the field of vehicle products.
  • the present invention relates to a method and a device for anomaly detection of vehicle products.
  • the disadvantage of the methods known from the state of the art is that the evaluation of the sensor data is inadequate in terms of accuracy and reliability.
  • the known methods are not able to detect anomalies, such as previously unknown features of the vehicle products under consideration, with the necessary certainty. This leads to more frequent incorrect analyses and to that poor performance of the algorithms or neural networks underlying the procedures cannot be identified or can only be identified with great effort.
  • the present invention is therefore based on the object of at least partially eliminating the above-mentioned disadvantages of the known methods.
  • the problem is solved by a method, a computer-implemented system, a computer program product and a computer-readable storage medium according to the independent claims.
  • the present invention relates to a method for anomaly detection of a vehicle product.
  • the method is designed to be carried out by a computer-implemented system.
  • the computer-implemented system can be a local system or a cloud-based system and comprises an input unit, one or more processor units and an output unit, wherein the processor units are designed to carry out several steps of the method according to the invention.
  • the vehicle product can comprise a vehicle component or the entirety of a vehicle.
  • the vehicle can be a passenger vehicle and/or a commercial vehicle, such as a land vehicle, an industrial vehicle, an industrial machine, a vehicle for a swap body, a mobile robot and/or an automated driverless transport system.
  • the vehicle component can be a component of a drive train (such as an electric), a braking system, a chassis, a body, an interior and/or a control system (e.g. electronic control unit or ECU, electronic control module or ECM, or control unit for autonomous driving such as “autopilot”), whereby the present invention is not limited to the aforementioned examples.
  • a control system e.g. electronic control unit or ECU, electronic control module or ECM, or control unit for autonomous driving such as “autopilot”
  • the method includes training and validating a neural network on several feature classes using a training and validation data set.
  • the training and validation data set contains data points relating to at least one attribute. status and/or production parameters of the vehicle product/production process.
  • the neural network which preferably has a deep learning network, typically comprises an input layer, an output layer and one or more intermediate layers (hidden layers) between the input layer and the output layer.
  • Each subsequent layer of the neural network contains the output of the previous layer as input, with the input or output comprising several neurons (nodes).
  • the respective node can in turn comprise several components, which are to be multiplied by an associated weighting factor.
  • a training and validation data set is used to train and validate the neural network.
  • the training and validation data set or a subset thereof, which forms a training data set is fed to the neural network.
  • the weighting factors of the components of the nodes are optimized or iteratively adjusted until the deviation falls below a threshold value.
  • the now trained neural network with the adjusted weighting factors is then validated with the training and validation data set or another subset thereof, which forms a validation data set. This tests whether the trained neural network actually delivers the desired output.
  • the training and validation dataset contains a large number of data points relating to one or more condition and/or manufacturing parameters of the vehicle product or the manufacturing process for producing the vehicle product.
  • Condition parameters can be understood as the size, weight, geometric shape, material composition, color, or in general any physical, electrical, chemical and/or computational parameter of the vehicle product or a feature of the vehicle product (such as the dimension of a crack on a brake).
  • Manufacturing parameters can refer to the manufacturing process itself, such as manufacturing time, manufacturing method. Alternatively, the manufacturing parameter can be the system used to manufacture the vehicle product. product is manufactured, such as operating time, operating status or failure frequency of the system. However, the present invention is not limited to these exemplary parameters.
  • the neural network is trained and validated on several feature classes.
  • the feature classes represent different classes of features that are related to the state and/or production parameters. For example, such features refer to specific values/thresholds/value ranges/changes/change rates/.../etc. of the state and/or production parameters. This means that using the neural network trained and validated in this way, the process is able to identify a feature related to the state and/or production parameters with a certain hit rate/performance.
  • the method according to the invention comprises receiving sensor data that have a number of data points, the sensor data being generated when the vehicle product and/or its manufacturing process are recorded using a sensor module.
  • the sensor module can be selected depending on the condition and/or manufacturing parameters to be considered. For example, if the dimension of a crack on a brake is to be considered as a condition parameter, a camera can be used.
  • a number of sensor modules that record the vehicle product and/or monitor the manufacturing process of the vehicle product and thereby generate sensor data about the same or different condition and/or manufacturing parameters.
  • the sensor modules can be arranged stationary (for example as integral parts of a monitoring system) or mobile (for example on a vehicle or another moving object).
  • the sensor data collected in this way after being received by a computer-implemented system and in particular read by its processor unit(s), are evaluated based on the neural network trained and validated as described above in order to detect an anomaly data point from the acquired data points.
  • Anomaly data point is generally understood to mean such a data point from the received sensor data that cannot be identified by means of the trained and validated neural network or only with a hit rate that falls below a predefined threshold.
  • the anomaly data point relates to a feature of the detected vehicle product or the manufacturing process that is to be assigned to a new or not previously known feature class that is different from the several feature classes for which the neural network was trained and validated.
  • the anomaly data point relates to the geometric shape of a crack on a brake, wherein the shape does not belong to the previously known feature classes.
  • the anomaly data point relates to the specific form of representation of a feature of a previously known feature class.
  • the form of representation can be the representation or appearance as numerical values or as letters or letter sequences, sentences or texts, whereby alternatively or additionally it can be the font and/or font size or other formatting parameters.
  • the anomaly data point can relate to the representation of the dimension of a crack in the brake as letters, whereby the neural network was not previously trained and validated for such a representation, but only for numerical representations.
  • each of the prediction values is assigned to one of the several feature classes on which the neural network was previously trained and validated.
  • the prediction values are determined using an epistemic uncertainty estimation model, preferably using a Monte Carlo dropout model or a Bayesian model.
  • the trained and validated neural network is slightly modified by slightly changing the weighting factors, whereby the modification of the weighting factors is carried out several times.
  • An uncertainty value of the prediction values is then determined.
  • the uncertainty value can be a variance or an entropy of the prediction values.
  • the mean value of several uncertainty values, each of which relates to one of the several anomaly data points is preferably determined.
  • the determined uncertainty value is compared with one or more threshold values that define several value ranges, whereby an action signal is generated depending on which of the value ranges the determined uncertainty value lies in.
  • An example threshold value is the standard deviation of the prediction values. If the determined uncertainty value (in particular the determined variance) of the prediction values lies within the standard deviation, a warning signal, for example, is triggered as an action signal.
  • a signal is generated as an action signal, for example to retrain the neural network, if necessary to revalidate it, or alternatively to create a report on the high degree of uncertainty of the neural network, if necessary with a note that the threshold values with which the uncertainty value or the variance is to be compared should be adjusted accordingly.
  • the computer program product according to the invention is designed to be loaded into a memory of a computer and comprises software code sections with which the method steps of the method according to the invention are carried out when the computer program product runs on the computer.
  • a program is part of the software of a data processing system, for example an evaluation device or a computer.
  • Software is a collective term for programs and associated data.
  • the complement to software is hardware.
  • Hardware refers to the mechanical and electronic configuration of a data processing system.
  • a computer is an evaluation device.
  • Computer program products usually comprise a sequence of instructions which, when the program is loaded, cause the hardware to carry out a specific process which leads to a specific result.
  • the computer program product produces the inventive technical effect described above.
  • the computer program product according to the invention is platform independent. This means that it can be executed on any computing platform.
  • the computer program product is preferably executed on an evaluation device according to the invention for detecting the surroundings of the vehicle.
  • the software code sections are written in any programming language, for example Python, Java, JavaScript, C, C++, C#, Matlab, LabView, Objective C.
  • the computer-readable storage medium is, for example, an electronic, magnetic, optical or magneto-optical storage medium.
  • FIG. 1 is a schematic representation of a method according to an embodiment
  • Fig. 2 is a schematic representation of a neural network with an input layer, an intermediate layer and an output layer;
  • Fig. 3 is a schematic representation of a computer-implemented system in interaction with a sensor module designed as a camera for detecting a vehicle product or its manufacturing process.
  • Fig. 1 shows a schematic representation of a method 100 according to an embodiment.
  • a neural network 200 is trained with a training data set for several feature classes.
  • the neural network 200 is preferably a deep learning network and is shown purely by way of example and schematically in Fig. 2.
  • the neural network 200 comprises an input layer 202 for receiving several inputs 201, an intermediate layer 203 for processing the received inputs 201 and an output layer 204 downstream of the intermediate layer 203 for forwarding several outputs 205.
  • the number of intermediate layers 203 can generally be selected arbitrarily and is not restricted to the embodiment shown here with, by way of example, only one intermediate layer 203.
  • the training data set which preferably forms a subset of a training and validation data set 20, contains training data points relating to at least one state and/or production parameter of the vehicle product/production process.
  • the weighting factors of the components of the nodes are optimized or iteratively adjusted until the deviation falls below a threshold value.
  • the trained neural network 200 is validated using a validation data set for the same feature classes on which the neural network 200 was trained.
  • the validation data set preferably forms a subset of the training and validation data set 20. This tests whether the trained neural network 200 actually delivers the desired output.
  • sensor data 32 which have several data points 41-45, 51-53, are received.
  • the sensor data 32 are generated when the vehicle product and/or its manufacturing process are detected using a sensor module 30.
  • Fig. 3 shows a purely exemplary and schematic representation of the sensor module 30, which is designed here as a camera. Although not shown here, in general several sensor modules 30 can be used, which detect the vehicle product and/or monitor the manufacturing process of the vehicle product and thereby generate sensor data 32 about the same or different status and/or manufacturing parameters.
  • Anomaly data point 51-53 is generally understood to mean a data point from the received sensor data 32 that cannot be detected by means of the trained and validated neural network or only with a hit rate that falls below a predefined threshold.
  • the anomaly data point 51/52/53 relates to the geometric shape of a crack on a brake, wherein the shape does not belong to the previously known feature classes for which the neural network 200 was trained and validated.
  • the anomaly data point 51/52/53 may relate to the representation of the dimension of a crack on the brake as letters, whereby the neural network 200 was not previously trained and validated on such a representation, but only on numerical representations.
  • a further method step 105 several prediction values Predictions for the anomaly data point 51/52/53 (or each of the anomaly data points 51-53).
  • the prediction values are each assigned to one of the several feature classes on which the neural network 200 was previously trained and validated.
  • the prediction values are determined using a Monte Carlo dropout model or a Bayesian In the case of the Monte Carlo dropout model, the trained and validated neural network 200 is slightly modified by slightly changing the weighting factors, with the modification of the weighting factors being carried out several times.
  • the uncertainty value ⁇ can be a variance or an entropy of the
  • Prediction values In case of several anomaly data points 51 -53, the mean value from several uncertainty values according to which each refer to one of the several anomaly data points 51-53.
  • n describes the number of anomaly data points 51-53.
  • the determined uncertainty value ⁇ is compared with one or more threshold values that define several value ranges.
  • An action signal is then generated depending on which of the value ranges the determined uncertainty value ⁇ lies in.
  • An example threshold value is the standard deviation of the prediction values. If the determined uncertainty value (in particular the determined variance) ⁇ of the prediction values is within the standard deviation, a warning signal is triggered as an action signal. If the determined uncertainty value (variance) ⁇ is outside the standard deviation, an action signal is triggered as an action signal.
  • a signal is generated to retrain the neural network, if necessary also to revalidate it, or alternatively to create a report on the high degree of uncertainty of the neural network 200, if necessary with an indication that the threshold values with which the uncertainty value ⁇ or the variance is to be compared should be adjusted accordingly.
  • the performance of the neural network 200 used with regard to anomaly detection of a vehicle product and/or its manufacturing process can advantageously be determined and monitored with greater reliability.
  • a suitable action signal can be generated based on the anomaly detection in order to detect anomaly data points with greater error reliability.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren (100) zur Anomaliedetektion und -analyse eines Fahrzeugproduktes, umfassend Trainieren und Validieren eines neuronalen Netzwerks (200) mit einem Trainings- und Validierungsdatensatz (20) auf mehrere Merkmalsklassen, die mit zumindest einem Zustands- und/oder Fertigungsparameter des Fahrzeugproduktes und/oder eines Fertigungsverfahrens zum Herstellen des Fahrzeugproduktes Zusammenhängen; Empfangen von Sensordaten (32) umfassend mehrere Datenpunkte (41-45, 51 -53), wobei die Sensordaten (32) beim Erfassen des Fahrzeugproduktes und/oder dessen Fertigunsprozesses mit Hilfe eines Sensormoduls (30) erzeugt sind; Auswerten der Sensordaten (32) basierend auf dem validierten neuronalen Netzwerk (200), um einen Anomaliedatenpunkt (51-53) aus den erzeugten Sensordaten (32) zu detektieren; Bestimmen mehrerer Prädiktionswerte für den Anomaliedatenpunkt (51-53) und Ermitteln eines Unsicherheitswerts der Prädiktionswerte.

Description

Verfahren und Vorrichtung zur Anomaliedetektion und -analyse eines Fahrzeugpro- duktes
TECHNISCHES GEBIET
Die vorliegende Erfindung betrifft das Gebiet der Fahrzeugprodukte. Insbesondere be- trifft die vorliegende Erfindung ein Verfahren und eine Vorrichtung zur Anomaliedetek- tion der Fahrzeugprodukte.
TECHNISCHER HINTERGRUND
In fahrzeugbezogenen Fertigungsprozessen, in denen Fahrzeugprodukte, etwa Fahr- zeugbauteile und/oder ganze Fahrzeuge, hergestellt werden, werden Verfahren ein- gesetzt, um Zustands- und/oder Fertigungsparameter der teils oder vollständig gefer- tigten Fahrzeugprodukte zu analysieren. Derartige Verfahren basieren auf Algorith- men, insbesondere künstlicher Intelligenz (Kl) beziehungsweise neuronalen Netzwer- ken (NN). Solche Algorithmen oder neuronalen Netzwerke werden mit Daten trainiert und validiert, die die Zustands- und/oder Fertigungsparameter beinhalten. Ein solche trainiertes und validiertes neuronale Netzwerk enthält typischerweise mehrere Schich- ten, etwa eine Eingabeschicht (Engl.: Input Layer), eine oder mehrere Zwischenschich- ten (Engl.: Hidden Layers) und eine Ausgabeschicht (Engl.: Output Layer). Diesen Schichten liegen Knoten (Engl.: Nodes) mit Gewichtungsfaktoren zugrunde, die durch das Trainieren dahingehend optimiert sind, aus Daten, die ein Sensormodul durch Er- fassen der Fahrzeugprodukte erzeugt, Zustands- und/oder Fertigungsparameter zu entnehmen.
Nachteilig ist es jedoch bei den aus dem Stand der Technik bekannten Verfahren, dass die Auswertung der Sensordaten hinsichtlich Genauigkeit und Zuverlässigkeit unzu- reichend sind. Insbesondere sind die bekannten Verfahren nicht in der Lage, Anoma- lien, etwa nicht vorbekannte Merkmale der betrachteten Fahrzeugprodukte, mit der gebotenen Sicherheit zu erkennen. Dies führt zu häufigeren Fehlanalysen sowie dazu, dass mangelhafte Performanz der den Verfahren zugrundeliegenden Algorithmen be- ziehungsweise neuronalen Netzwerke nicht oder nur mit hohem Aufwand identifizier- bar ist.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, die vorstehend genann- ten Nachteile der bekannten Verfahren zumindest teilweise zu beheben.
Die Aufgabe wird gelöst durch ein Verfahren, ein computerimplementiertes System, ein Computer-Programm-Produkt sowie ein computerlesbares Speichermedium ge- mäß den unabhängigen Ansprüchen.
Die vorliegende Erfindung betrifft ein Verfahren zur Anomaliedetektion eines Fahr- zeugproduktes. Das Verfahren ist dazu ausgebildet, durch ein computerimplementier- tes System ausgeführt zu werden. Das computerimplementiertes System kann ein lo- kales System oder ein cloud-basiertes System sein und umfasst eine Eingabeeinheit, eine oder mehrere Prozessoreinheiten und eine Ausgabeeinheit, wobei die Prozesso- reinheiten dazu ausgelegt sind, mehrere Schritte des erfindungsgemäßen Verfahrens durchzuführen. Das Fahrzeugprodukt kann ein Fahrzeugbauteil oder die Gesamtheit eines Fahrzeugs aufweisen. Das Fahrzeug kann ein Personenfahrzeug und/oder ein Nutzfahrzeug, etwa ein Landfahrzeug, ein Industriefahrzeug, eine Industriemaschine, ein Fahrzeug für eine Wechselbrücke, ein mobiler Roboter und/oder ein automatisier- tes fahrerloses Transportsystem sein. Das Fahrzeugbauteil kann ein Bauteil eines An- triebsstrangs (etwa ein elek), eines Bremssystems, eines Chassis, einer Karroserie, eines Interieurs und/oder eines Steuersystems (z.B. elektronische Steuer- oder Re- geleinheit beziehungsweise Electronic Control Unit oder ECU, elektronisches Steuer- oder Regelmodul beziehungsweise Electronic Control Module oder ECM, oder Steuer- /Regeleinheit für autonomes Fahren wie „Autopilot“) sein, wobei die vorliegende Erfin- dung nicht auf die vorgenannten Beispiele eingeschränkt ist.
Das Verfahren umfasst Trainieren und Validieren eines neuronalen Netzwerks auf mehrere Merkmalsklassen mit einem Trainings- und Validierungsdatensatz. Im Trai- nings- und Validierungsdatensatz sind Datenpunkte betreffend zumindest einen Zu- stands- und/oder Fertigungsparameter des Fahrzeugproduktes/des Fertigungsverfah- rens enthalten. Das neuronale Netzwerk, welches vorzugsweise ein Deep Learning- Netzwerk aufweist, umfasst typischerweise eine Eingabeschicht (Engl.: Input Layer), eine Ausgabeschicht (Engl.: Output Layer) und eine oder mehrere Zwischenschichten (Engl.: Hidden Layers) zwischen der Eingabeschicht und der Ausgabeschicht. Jede nachfolgende Schicht des neuronalen Netzwerks enthält als Eingabe die Ausgabe der vorigen Schicht, wobei die Ein- beziehungsweise Ausgabe mehrere Neuronen (Kno- ten) umfasst. Der jeweilige Knoten kann wiederum mehrere Komponenten umfassen, die mit einem dazugehörigen Gewichtungsfaktor zu multiplizieren sind.
Zum Trainieren und Validieren des neuronalen Netzwerks wird ein Trainings- und Va- lidierungsdatensatz verwendet. Beim Trainieren wird der Trainings- und Validierungs- datensatz oder eine Teilmenge hiervon, die einen Trainingsdatensatz bildet, dem neu- ronalen Netzwerk zugeführt. Durch Bestimmen einer Abweichung der Ausgabe von der gewünschten Ausgabe werden die Gewichtungsfaktoren der Komponenten der Knoten optimiert beziehungsweise iterativ angepasst, bis etwa die Abweichung einen Schwellwert unterschreitet. Das nun trainierte neuronale Netzwerk mit den angepass- ten Gewichtungsfaktoren wird anschließend mit dem Trainings- und Validierungsda- tensatz oder eine weitere Teilmenge hiervon, die einen Validierungsdatensatz bildet, validiert. Hierbei wird getestet, ob das trainierte neuronale Netzwerk tatsächlich die gewünschte Ausgabe liefert.
Der Trainings- und Validierungsdatensatz enthält eine Vielzahl von Datenpunkten, die einen oder mehrere Zustands- und/oder Fertigungsparameter des Fahrzeugproduktes oder des Fertigungsverfahrens zum Herstellen des Fahrzeugproduktes betreffen. Als Zustandsparameter kann die Größe, das Gewicht, die geometrische Form, die Materi- alzusammensetzung, die Farbe, oder im Allgemeinen ein beliebiger physikalischer, elektrotechnischer, chemischer und/oder rechnerischer Parameter des Fahrzeugpro- duktes oder eines Merkmals des Fahrzeugsproduktes (etwa die Dimension eines Ri- ßes auf einer Bremse) verstanden werden. Als Fertigungsparameter kann sich auf das Fertigungsverfahren an sich beziehen, etwa Herstellungsdauer, Herstellungsme- thode. Alternativ kann der Fertigungsparamter die Anlage, mit der das Fahrzeugpro- dukt gefertigt wird, betreffen, etwa Betriebszeit, Betriebszustand oder Ausfallshäufig- keit der Anlage. Die vorliegende Erfindung ist jedoch nicht auf diese beispielhaften Parameter eingeschränkt.
Mit Hilfe des Trainings- und Validierungsdatensatzes wird das neuronale Netzwerk auf mehrere Merkmalsklassen trainiert und validiert. Die Merkmalsklassen stellen unter- schiedliche Klassen von Merkmalen dar, die mit den Zustands- und/oder Fertigungs- parametern im Zusammenhang stehen. Beispielsweise beziehen sich derartige Merk- male auf konkrete Werte/Schwellwerte/Wertebereiche/Änderungen/Änderungsra- ten/.../etc. der Zustands- und/oder Fertigungsparameter. Dies bedeutet, dass mittels des solch trainierten und validierten neuronalen Netzwerks das Verfahren in der Lage ist, ein mit den Zustands- und/oder Fertigungsparametern zusammenhängendes Merkmal mit einer bestimmten Trefferquote/Performanz zu identifizieren.
Das erfindungsgemäße Verfahren umfasst Empfangen von Sensordaten, die mehrere Datenpunkte aufweisen, wobei die Sensordaten beim Erfassen des Fahrzeugproduk- tes und/oder dessen Fertigunsprozesses mit Hilfe eines Sensormoduls erzeugt sind. Das Sensormodul kann in Abhängigkeit von den zu betrachtenden Zustands- und/oder Fertigungsparametern gewählt sein. Beispielsweise kann, wenn als Zustandsparame- ter die Dimension eines Rißes auf einer Bremse zu betrachten ist, eine Kamera her- angezogen werden. Des Weiteren ist im Rahmen der vorliegenden Erfindung denkbar, mehrere Sensormodule einzusetzen, die das Fahrzeugprodukt erfassen und/oder den Fertigungsprozess des Fahrzeugproduktes überwachen und dabei Sensordaten über denselben oder unterschiedliche Zustands- und/oder Fertigungsparameter erzeugen. Die Sensormodule können stationär (etwa als integrale Teile eines Überwachungssys- tems) oder mobil (etwa an einem Fahrzeug oder einem sonstigen beweglichen Objekt) angeordnet sein.
Die auf diese Weise gesammelten Sensordaten werden, nachdem sie von einem com- puterimplementierten System empfangen und insbesondere von dessen Prozesso- reinheit(en) eingelesen sind, basierend auf dem wie oben beschrieben trainierten und validierten neuronalen Netzwerk ausgewertet, um einen Anomaliedatenpunkt aus den erfassten Datenpunkten zu erkennen. Unter Anomaliedatenpunkt ist im Allgemeinen ein derartiger Datenpunkt aus den empfangenen Sensordaten zu verstehen, der nicht mittels des trainierten und validierten neuronalen Netzwerks oder lediglich mit einer eine vordefinierte Schwelle unterschreitenden Trefferquote identifizierbar ist. Gemäß einer Ausführungsform betrifft der Anomaliedatenpunkt ein Merkmal des erfassten Fahrzeugproduktes oder des Fertigungsverfahrens, welches einer neuen beziehungs- weise nicht vorbekannten Merkmalsklasse zuzuordnen ist, die von den mehreren Merkmalsklassen, auf die das neuronale Netzwerk trainiert und validiert wurde, ver- schieden ist. Beispielsweise betrifft der Anomaliedatenpunkt die geometrische Form eines Rißes auf einer Bremse, wobei die Form nicht zu den vorbekannten Merkmals- klassen zählt.
Gemäß einer weiteren Ausführungsform betrifft der Anomaliedatenpunkt die konkrete Darstellungsform eines Merkmals einer vorbekannten Merkmalsklasse. Bei der Dar- stellungsform kann es sich um die Darstellung beziehungsweise Erscheinung als Zah- lenwerte oder als Buchstaben beziehungsweise Buchstabenfolge, Sätze oder Texte handeln, wobei es sich alternativ oder zusätzlich um die Schriftart und/oder -große beziehungsweise andere Formatierungsparameter handeln kann. Beispielsweise kann der Anomaliedatenpunkt die Darstellungsweise der Dimension eines Rißes auf der Bremse als Buchstaben betreffen, wobei das neuronale Netzwerk zuvor nicht auf eine solche Darstellungsweise, sondern lediglich auf zahlenmäßige Darstellungsweisen trainiert und validiert wurde.
Nachdem der Anomaliedatenpunkt oder mehrere Anomaliedatenpunkte erkannt wur- den, werden mehrere Prädiktionswerte (Engl.: Predictions) für den Anomaliedaten- punkt beziehungsweise jeden der Anomaliedatenpunkte bestimmt. Vorzugsweise ist jeder der Prädiktionswerte einer der mehreren Merkmalsklassen, auf die das neuro- nale Netzwerk zuvor trainiert und validiert wurde, zugeordnet. Außerdem erfolgt das Bestimmen der Prädiktionswerte mit Hilfe eines epistemischen Unsicherheitsabschät- zungsmodells, vorzugsweise mit Hilfe eines Monte Carlo Dropout-Modells oder eines bayesschen Modells. Im Fall des Monte Carlo Dropout-Modells wird das trainierte und validierte neuronale Netzwerk leicht abgewandelt, indem die Gewichtungsfaktoren ge- ringfügig abgeändert werden, wobei das Abändern der Gewichtungsfaktoren mehrfach ausgeführt wird. Anschließend wird ein Unsicherheitswert (Engl.: Uncertainty) der Prädiktionswerte er- mittelt. Der Unsicherheitswert kann eine Varianz oder eine Entropie der Prädiktions- werte sein. Im Fall mehrerer Anomaliedatenpunkte wird vorzugsweise der Mittelwert aus mehreren Unsicherheitswerten, die sich jeweils auf einen der mehreren Anoma- liedatenpunkte beziehen, ermittelt.
Basierend auf dem ermittelten Unsicherheitswert können Aussagen über die Perfor- manz des neuronalen Netzwerks hinsichtlich Anomalieerkennung für das Fahrzeug- produkt beziehungsweise dessen Fertigungsverfahren getroffen werden. Je größer der Unsicherheitswert, desto geringer ist die Genauigkeit der Anomalieerkennung. Gemäß einer weiteren Ausführungsform wird der ermittelte Unsicherheitswert mit einem oder mehreren Schwellwerten, die mehrere Wertebereiche definieren, verglichen, wobei ein Handlungssignal in Abhängigkeit davon, in welchem der Wertebereiche die ermittelte Unsicherheitswert liegt, generiert wird. Ein beispielhafter Schwellwert ist die Stan- dardabweichung der Prädiktionswerte. Wenn der ermittelte Unsicherheitswert (insbe- sondere die ermittelte Varianz) der Prädiktionswerte innerhalb der Standardabwei- chung liegt, wird als Handlungssignal beispielsweise ein Warnsignal getriggert. Wenn der ermittelte Unsicherheitswert außerhalb der Standardabweichung liegt, wird als Handlungssignal beispielsweise ein Signal dazu generiert, das neuronale Netzwerk erneut zu trainieren, ggf. auch erneut zu validieren, oder alternativ einen Bericht über den hohen Unsicherheitsgrad des neuronalen Netzwerks zu erstellen, ggf. mit einem Hinweis darauf, das die Schwellwerte, mit denen der Unsicherheitswert beziehungs- weise die Varianz zu vergleichen ist, entsprechend anzupassen.
Auf diese Weise lässt sich die Performanz des verwendeten neuronalen Netzwerks hinsichtlich Anomalieerkennung eines Fahrzeugproduktes und/oder dessen Ferti- gungsverfahrens vorteilhafterweise mit höherer Zuverlässigkeit ermitteln und überwa- chen. Außerdem können basierend auf der Anomaliedetektion ein passendes Hand- lungssignal generiert werden, um Anomaliedatenpunkte mit höherer Fehlersicherheit zu detektieren. Das erfindungsgemäße Computerprogrammprodukt ist ausgeführt, in einen Speicher eines Computers geladen zu werden und umfasst Softwarecodeabschnitte, mit denen die Verfahrensschritte des erfindungsgemäßen Verfahrens ausgeführt werden, wenn das Computerprogrammprodukt auf dem Computer läuft.
Ein Programm gehört zur Software eines Daten verarbeitenden Systems, zum Beispiel einer Auswerteeinrichtung oder einem Computer. Software ist ein Sammelbegriff für Programme und zugehörigen Daten. Das Komplement zu Software ist Hardware. Hardware bezeichnet die mechanische und elektronische Ausrichtung eines Daten verarbeitenden Systems. Ein Computer ist eine Auswerteeinrichtung.
Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt. Wenn das betreffende Pro- gramm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt den oben beschriebenen erfinderischen technischen Effekt hervor.
Das erfindungsgemäße Computerprogrammprodukt ist Plattform unabhängig. Das heißt, es kann auf jeder beliebigen Rechenplattform ausgeführt werden. Bevorzugt wird das Computerprogrammprodukt auf einer erfindungsgemäßen Auswertevorrich- tung zum Erfassen des Umfelds des Fahrzeugs ausgeführt.
Die Softwarecodeabschnitte sind in einer beliebigen Programmiersprache geschrie- ben, zum Beispiel in Python, Java, JavaScript, C, C++, C#, Matlab, LabView, Objective C.
Das computerlesbare Speichermedium ist beispielsweise ein elektronisches, magne- tisches, optisches oder magneto-optisches Speichermedium.
Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefüg- ten Zeichnungen beschrieben. Es zeigen: Fig. 1 eine schematische Darstellung eines Verfahrens gemäß einer Ausfüh- rungsform;
Fig. 2 eine schematische Darstellung eines neuronalen Netzwerks mit einer Eingabeschicht, einer Zwischenschicht und einer Ausgabeschicht;
Fig. 3 eine schematische Darstellung eines computerimplementiertes System in Zusammenwirkung mit einem als Kamera ausgebildeten Sensormodul zum Erfassen eines Fahrzeugproduktes oder dessen Fertigungsverfah- rens.
In den Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder funktionsähnli- che Bezugsteile. In den einzelnen Figuren sind die jeweils relevanten Bezugsteile ge- kennzeichnet.
Fig. 1 zeigt eine schematische Darstellung eines Verfahrens 100 gemäß einer Ausfüh- rungsform. In einem ersten Verfahrensschritt 101 wird ein neuronales Netzwerk 200 mit einem Trainingsdatensatz auf mehrere Merkmalsklassen trainiert. Das neuronale Netzwerk 200 ist vorzugsweise ein Deep Learning-Netzwerk und ist rein beispielhaft und schematisch in Fig. 2 gezeigt. Das neuronale Netzwerk 200 umfasst eine Einga- beschicht 202 zum Erhalten mehrerer Eingaben 201 , eine Zwischenschicht 203 zum Verarbeiten der erhaltenen Eingaben 201 und eine der Zwischenschicht 203 nachge- schaltete Ausgabeschicht 204 zum Weiterleiten mehrerer Ausgaben 205. Die Anzahl der Zwischenschicht 203 ist im Allgemeinen beliebig wählbar und nicht auf die hier gezeigte Ausführungsform mit beispielhaft nur einer Zwischenschicht 203 einge- schränkt. Im Trainingsdatensatz, welcher vorzugsweise eine Teilmenge eines Trai- nings- und Validierungsdatensatz 20 bildet, sind Trainingsdatenpunkte betreffend zu- mindest einen Zustands- und/oder Fertigungsparameter des Fahrzeugproduktes/des Fertigungsverfahrens enthalten. Durch Bestimmen einer Abweichung der Ausgabe 205 von der gewünschten Ausgabe werden die Gewichtungsfaktoren der Komponen- ten der Knoten (in Fig. 2 als graue Kreise rein schematisch dargestellt) optimiert be- ziehungsweise iterativ angepasst, bis etwa die Abweichung einen Schwellwert unter- schreitet. In einem weiteren Verfahrensschritt 102 wird das trainierte neuronale Netz- werk 200 mit Hilfe eines Validierungsdatensatzes auf diegleichen Merkmalsklassen, auf die das neuronale Netzwerk 200 trainiert wurde, validiert. Der Validierungsdaten- satz bildet vorzugsweise eine Teilmenge des Trainings- und Validierungsdatensatzes 20. Hierbei wird getestet, ob das trainierte neuronale Netzwerk 200 tatsächlich die ge- wünschte Ausgabe liefert.
In einem weiteren Verfahrensschritt 103 werden Sensordaten 32, die mehrere Daten- punkte 41-45,51-53 aufweisen, empfangen. Die Sensordaten 32 werden beim Erfas- sen des Fahrzeugproduktes und/oder dessen Fertigunsprozesses mit Hilfe eines Sen- sormoduls 30 erzeugt. Fig. 3 zeigt eine rein beispielhafte und schematsiche Darstel- lung des hier als Kamera ausgebildeten Sensormoduls 30. Obwohl hier nicht gezeigt, sind im Allgemeinen mehrere Sensormodule 30 einsetzbar, die das Fahrzeugprodukt erfassen und/oder den Fertigungsprozess des Fahrzeugproduktes überwachen und dabei Sensordaten 32 über denselben oder unterschiedliche Zustands- und/oder Fer- tigungsparameter erzeugen.
Die auf diese Weise gesammelten Sensordaten 32 werden, nachdem sie von einem computerimplementierten System 10 empfangen und insbesondere von dessen Pro- zessoreinheit(en) 14 eingelesen sind, in einem weiteren Verfahrensschritt 104 basie- rend auf dem wie oben beschrieben trainierten und validierten neuronalen Netzwerk 200 ausgewertet, um mehrere Anomaliedatenpunkte 51-53 aus den erfassten Daten- punkten 41 -45,51 -53 zu detaktieren. Unter Anomaliedatenpunkt 51 -53 ist im Allgemei- nen ein derartiger Datenpunkt aus den empfangenen Sensordaten 32 zu verstehen, der nicht mittels des trainierten und validierten neuronalen Netzwerks oder lediglich mit einer eine vordefinierte Schwelle unterschreitenden Trefferquote detektierbar ist. Beispielsweise betrifft der Anomaliedatenpunkt 51/52/53 die geometrische Form eines Rißes auf einer Bremse, wobei die Form nicht zu den vorbekannten Merkmalsklassen, auf die das neuronale Netzwerk 200 trainiert und validiert wurde, zählt. Alternativ kann der Anomaliedatenpunkt 51/52/53 die Darstellungsweise der Dimension eines Rißes auf der Bremse als Buchstaben betreffen, wobei das neuronale Netzwerk 200 zuvor nicht auf eine solche Darstellungsweise, sondern lediglich auf zahlenmäßige Darstel- lungsweisen trainiert und validiert wurde. In einem weiteren Verfahrensschritt 105 werden mehrere Prädiktionswerte
Figure imgf000011_0007
(Engl.: Predictions) für den Anomaliedatenpunkt 51/52/53 (beziehungsweise jeden der Anomaliedatenpunkte 51-53) bestimmt. Die Prädiktionswerte
Figure imgf000011_0008
sind jeweils einer der mehreren Merkmalsklassen, auf die das neuronale Netzwerk 200 zuvor trai- niert und validiert wurde, zugeordnet. Außerdem erfolgt das Bestimmen der Prädikti- onswerte mit Hilfe eines Monte Carlo Dropout-Modells oder eines bayess-
Figure imgf000011_0006
chen Modells. Im Fall des Monte Carlo Dropout-Modells wird das trainierte und vali- dierte neuronale Netzwerk 200 leicht abgewandelt, indem die Gewichtungsfaktoren geringfügig abgeändert werden, wobei das Abändern der Gewichtungsfaktoren mehr- fach ausgeführt wird.
Anschließend wird ein Unsicherheitswert σ (Engl.: Uncertainty) der Prädiktionswerte
Figure imgf000011_0001
ermittelt. Der Unsicherheitswert σ kann eine Varianz oder eine Entropie der
Prädiktionswerte
Figure imgf000011_0002
sein. Im Fall mehrerer Anomaliedatenpunkte 51 -53 wird vorzugsweise der Mittelwert
Figure imgf000011_0010
aus mehreren Unsicherheitswerten
Figure imgf000011_0003
gemäß
Figure imgf000011_0009
die sich jeweils auf einen der mehreren Anomaliedatenpunkte 51-53 bezie-
Figure imgf000011_0004
hen, ermittelt. Hierbei beschreibt n die Anzahl der Anomaliedatenpunkte 51-53.
Basierend auf dem ermittelten Unsicherheitswert (Varianz) σ können Aussagen über die Performanz des neuronalen Netzwerks hinsichtlich Anomalieerkennung für das Fahrzeugprodukt beziehungsweise dessen Fertigungsverfahren getroffen werden. Je größer der Unsicherheitswert, desto geringer ist die Genauigkeit der Anomalieerken- nung. In einem weiteren Verfahrensschritt 106 wird der ermittelte Unsicherheitswert σmit einem oder mehreren Schwellwerten, die mehrere Wertebereiche definieren, ver- glichen. Anschließend wird ein Handlungssignal in Abhängigkeit davon, in welchem der Wertebereiche die ermittelte Unsicherheitswert σ liegt, generiert. Ein beispielhafter Schwellwert ist die Standardabweichung der Prädiktionswerte. Wenn der ermittelte Unsicherheitswert (insbesondere die ermittelte Varianz) σ der Prädiktionswerte
Figure imgf000011_0005
innerhalb der Standardabweichung liegt, wird als Handlungssignal bei- spielsweise ein Warnsignal getriggert. Wenn der ermittelte Unsicherheitswert (Varianz) σ außerhalb der Standardabweichung liegt, wird als Handlungssignal beispielsweise ein Signal dazu generiert, das neuronale Netzwerk erneut zu trainieren, ggf. auch er- neut zu validieren, oder alternativ einen Bericht über den hohen Unsicherheitsgrad des neuronalen Netzwerks 200 zu erstellen, ggf. mit einem Hinweis darauf, das die Schwellwerte, mit denen der Unsicherheitswert σ beziehungsweise die Varianz zu ver- gleichen ist, entsprechend anzupassen.
Auf diese Weise lässt sich die Performanz des verwendeten neuronalen Netzwerks 200 hinsichtlich Anomaliedetaktion eines Fahrzeugproduktes und/oder dessen Ferti- gungsverfahrens vorteilhafterweise mit höherer Zuverlässigkeit ermitteln und überwa- chen. Außerdem können basierend auf der Anomaliedetektion ein passendes Hand- lungssignal generiert werden, um Anomaliedatenpunkte mit höherer Fehlersicherheit zu detektieren.
Bezugszeichen
10 computerimplementiertes System
12 Eingabe-/Ausgabeeinheit
14 Prozessoreinheit
20 Trainings- und Validierungsdatensatz
30 Sensormodul (Kamera)
41-45 normale Datenpunkte
51-53 Anomaliedatenpunkte
100 Verfahren
101-106 Verfahrensschritte
200 neuronales Netzwerk
201 Eingaben
202 Eingabeschicht
203 Zwischenschicht (verborgene Schicht)
204 Ausgabeschicht
205 Ausgaben

Claims

Ansprüche
1 . Verfahren (100) zur Anomaliedetektion und -analyse eines Fahrzeugproduktes, umfassend:
Trainieren und Validieren eines neuronalen Netzwerks (200) mit einem Trai- nings-und Validierungsdatensatz (20) auf mehrere Merkmalsklassen, die mit zumin- dest einem Zustands- und/oder Fertigungsparameter des Fahrzeugproduktes und/oder eines Fertigungsverfahrens zum Herstellen des Fahrzeugproduktes Zusam- menhängen;
Empfangen von Sensordaten (32) umfassend mehrere Datenpunkte (41-45,51 - 53), wobei die Sensordaten (32) beim Erfassen des Fahrzeugproduktes und/oder des- sen Fertigunsprozesses mit Hilfe eines Sensormoduls (30) erzeugt sind;
Auswerten der Sensordaten (32) basierend auf dem validierten neuronalen Netzwerk (200), um einen Anomaliedatenpunkt (51 -53) aus den erzeugten Sensorda- ten (32) zu detektieren;
Bestimmen mehrerer Prädiktionswerte für den Anomaliedatenpunkt (51 -53) und Ermitteln eines Unsicherheitswerts der Prädiktionswerte.
2. Verfahren (100) nach Anspruch 1 , wobei der Anomaliedatenpunkt (51 -53) ein Merkmal betrifft, welches einer Merkmalsklasse zugeordnet ist, die von den mehreren Merkmalsklassen, auf die das neuronale Netzwerk (200) trainiert und validiert wurde, verschieden ist.
3. Verfahren (100) nach Anspruch 1 , wobei der Anomaliedatenpunkt (51 -53) eine Darstellungsform eines Merkmals betrifft, welches einer der mehreren Merkmalsklas- sen, auf die das neuronale Netzwerk (200) trainiert und validiert wurde, entspricht.
4. Verfahren (100) nach einem der vorhergehenden Ansprüche, wobei das Be- stimmen der Prädiktionswerte mit Hilfe eines epistemischen Unsicherheitsabschät- zungsmodells, vorzugsweise mit Hilfe eines Monte Carlo Dropout-Modells oder eines bayesschen Modells, erfolgt.
5. Verfahren (100) nach einem der vorhergehenden Ansprüche, wobei jeder der Prädiktionswerte einer der mehreren Merkmalsklassen, auf die das neuronale Netz- werk (200) trainiert wurde, zugeordnet ist.
6. Verfahren (100) nach einem der vorhergehenden Ansprüche, weiter umfassend Ermitteln eines gemittelten Unsicherheitswerts aus mehreren Unsicherheitswerten, die sich jeweils auf einen von mehreren Anomaliedatenpunkte (51-53) beziehen.
7. Verfahren (100) nach einem der vorhergehenden Ansprüche, weiter umfas- send:
Vergleichen des ermittelten Unsicherheitswerts mit einem oder mehreren Schwellwerten, die mehrere Wertebereiche definieren;
Generieren eines Handlungssignales in Abhängigkeit davon, in welchem der Wertebereiche der ermittelte Unsicherheitswert liegt.
8. Computerimplementiertes System, umfassend eine Eingabeeinheit, eine oder mehrere Prozessoreinheiten und eine Ausgabeeinheit, wobei die Prozesoreinheiten dazu ausgebildet sind, die Schrite des Verfahrens (100) nach einem der Ansprüche 1 bis 7 auszuführen.
9. Computer-Programm-Produkt, umfassend Befehle, die bei der Ausführung des Programms durch ein cimputerimplementiertes System dieses veranlassen, das Ver- fahren (100) nach einem der Ansprüche 1 bis 7 auszuführen.
10. Computerlesbares Speichermedium, auf dem das Computer-Programm-Pro- dukt nach Anspruch 8 gespeichert ist.
PCT/EP2023/077703 2022-10-11 2023-10-06 Verfahren und vorrichtung zur anomaliedetektion und -analyse eines fahrzeugproduktes WO2024078989A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022126347.9A DE102022126347A1 (de) 2022-10-11 2022-10-11 Verfahren und Vorrichtung zur Anomaliedetektion und -analyse eines Fahrzeugproduktes
DE102022126347.9 2022-10-11

Publications (1)

Publication Number Publication Date
WO2024078989A1 true WO2024078989A1 (de) 2024-04-18

Family

ID=88315348

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/077703 WO2024078989A1 (de) 2022-10-11 2023-10-06 Verfahren und vorrichtung zur anomaliedetektion und -analyse eines fahrzeugproduktes

Country Status (2)

Country Link
DE (1) DE102022126347A1 (de)
WO (1) WO2024078989A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220012546A1 (en) * 2020-07-07 2022-01-13 Robert Bosch Gmbh Measurement of the sensitivity of classifiers based on interacting faults

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220012546A1 (en) * 2020-07-07 2022-01-13 Robert Bosch Gmbh Measurement of the sensitivity of classifiers based on interacting faults

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FANG QIHANG ET AL: "An Enhanced Fault Diagnosis Method with Uncertainty Quantification Using Bayesian Convolutional Neural Network", 2020 IEEE 16TH INTERNATIONAL CONFERENCE ON AUTOMATION SCIENCE AND ENGINEERING (CASE), IEEE, 20 August 2020 (2020-08-20), pages 588 - 593, XP033837191, DOI: 10.1109/CASE48305.2020.9216773 *
JAKOB GAWLIKOWSKI ET AL: "A Survey of Uncertainty in Deep Neural Networks", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 10 January 2022 (2022-01-10), XP091126774 *
PYLE RICHARD J ET AL: "Uncertainty Quantification for Deep Learning in Ultrasonic Crack Characterization", IEEE TRANSACTIONS ON ULTRASONICS, FERROELECTRICS, AND FREQUENCY CONTROL, IEEE, USA, vol. 69, no. 7, 20 May 2022 (2022-05-20), pages 2339 - 2351, XP011913194, ISSN: 0885-3010, [retrieved on 20220523], DOI: 10.1109/TUFFC.2022.3176926 *

Also Published As

Publication number Publication date
DE102022126347A1 (de) 2024-04-11

Similar Documents

Publication Publication Date Title
AT521607B1 (de) Verfahren und Vorrichtung zum Testen eines Fahrerassistenzsystem
DE102018108779A1 (de) Schätzvorrichtung eines maschinellen Bearbeitungsfehlerfaktors
DE102018005008A1 (de) Steuervorrichtung und maschinelle lernvorrichtung
DE102018128289A1 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
DE102019124018A1 (de) Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme
WO2021058223A1 (de) Verfahren zur effizienten, simulativen applikation automatisierter fahrfunktionen
EP3282399A1 (de) Verfahren zur verbesserten erkennung von prozessanomalien einer technischen anlage sowie entsprechendes diagnosesystem
DE102019206720B4 (de) Überwachung eines KI-Moduls einer Fahrfunktion eines Fahrzeugs
DE102018209108A1 (de) Schnelle Fehleranalyse für technische Vorrichtungen mit maschinellem Lernen
EP3796117B1 (de) Diagnoseverfahren und diagnosesystem für eine verfahrenstechnische anlage
WO2024078989A1 (de) Verfahren und vorrichtung zur anomaliedetektion und -analyse eines fahrzeugproduktes
EP3959660A1 (de) Training trainierbarer module mit lern-daten, deren labels verrauscht sind
WO2020216622A1 (de) Erkennung und behebung von rauschen in labels von lern-daten für trainierbare module
DE102021211610A1 (de) Verfahren zum Trainieren eines neuronalen Lernmodells zum Detektieren von Produktionsfehlern
EP1157317B1 (de) Verfahren und anordnung zur reduktion einer anzahl von messwerten eines technischen systems
DE102021202813A1 (de) Verfahren, Vorrichtung und Computerprogramm für eine Unsicherheitsbewertung einer Bildklassifikation
DE102021109126A1 (de) Verfahren zum Testen eines Produkts
DE102020203829A1 (de) Verfahren zum Überwachen eines Fahrzeugsystems zum Erkennen einer Umgebung eines Fahrzeugs
DE102020212921A1 (de) Verfahren, Computerprogramm und Vorrichtung zum Bewerten einer Verwendbarkeit von Simulationsdaten
WO2018091160A1 (de) Funktionsüberwachung einer sensoreinrichtung eines kraftfahrzeugs
DE102021207493A1 (de) Verfahren zur Unterstützung eines Betriebs eines Fahrzeuges mit einer Sensoreinheit, Computerprogrammprodukt sowie System
EP4214642A1 (de) Verfahren zur bereitstellung einer maschinell gelernten steuerfunktion zur fahrzeugsteuerung anhand bereitgestellter fahrzeugsensordaten
WO2023232428A1 (de) Überwachen einer mehrachsigen maschine mittels interpretierbarer zeitreihenklassifikation
WO2023237274A1 (de) Konzept zum auswählen von audioausschnitten von bremsquietschgeräuschen in einem fahrzeug
DE102022202696A1 (de) Verfahren zur Kategorisierung von durch einen Algorithmus des maschinellen Lernens ausgegeben Ausgabedaten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23786536

Country of ref document: EP

Kind code of ref document: A1