WO2024078989A1 - Verfahren und vorrichtung zur anomaliedetektion und -analyse eines fahrzeugproduktes - Google Patents
Verfahren und vorrichtung zur anomaliedetektion und -analyse eines fahrzeugproduktes Download PDFInfo
- Publication number
- WO2024078989A1 WO2024078989A1 PCT/EP2023/077703 EP2023077703W WO2024078989A1 WO 2024078989 A1 WO2024078989 A1 WO 2024078989A1 EP 2023077703 W EP2023077703 W EP 2023077703W WO 2024078989 A1 WO2024078989 A1 WO 2024078989A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- neural network
- anomaly
- vehicle product
- vehicle
- feature
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 claims abstract description 49
- 238000004519 manufacturing process Methods 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000010200 validation analysis Methods 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/4184—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by fault tolerance, reliability of production system
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/41875—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by quality surveillance of production
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B23/00—Testing or monitoring of control systems or parts thereof
- G05B23/02—Electric testing or monitoring
- G05B23/0205—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
- G05B23/0218—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
- G05B23/0224—Process history based detection method, e.g. whereby history implies the availability of large amounts of data
- G05B23/024—Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/31—From computer integrated manufacturing till monitoring
- G05B2219/31356—Automatic fault detection and isolation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/31—From computer integrated manufacturing till monitoring
- G05B2219/31455—Monitor process status
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/32—Operator till task planning
- G05B2219/32181—Monitor production, assembly apparatus with multiple sensors
Definitions
- the present invention relates to the field of vehicle products.
- the present invention relates to a method and a device for anomaly detection of vehicle products.
- the disadvantage of the methods known from the state of the art is that the evaluation of the sensor data is inadequate in terms of accuracy and reliability.
- the known methods are not able to detect anomalies, such as previously unknown features of the vehicle products under consideration, with the necessary certainty. This leads to more frequent incorrect analyses and to that poor performance of the algorithms or neural networks underlying the procedures cannot be identified or can only be identified with great effort.
- the present invention is therefore based on the object of at least partially eliminating the above-mentioned disadvantages of the known methods.
- the problem is solved by a method, a computer-implemented system, a computer program product and a computer-readable storage medium according to the independent claims.
- the present invention relates to a method for anomaly detection of a vehicle product.
- the method is designed to be carried out by a computer-implemented system.
- the computer-implemented system can be a local system or a cloud-based system and comprises an input unit, one or more processor units and an output unit, wherein the processor units are designed to carry out several steps of the method according to the invention.
- the vehicle product can comprise a vehicle component or the entirety of a vehicle.
- the vehicle can be a passenger vehicle and/or a commercial vehicle, such as a land vehicle, an industrial vehicle, an industrial machine, a vehicle for a swap body, a mobile robot and/or an automated driverless transport system.
- the vehicle component can be a component of a drive train (such as an electric), a braking system, a chassis, a body, an interior and/or a control system (e.g. electronic control unit or ECU, electronic control module or ECM, or control unit for autonomous driving such as “autopilot”), whereby the present invention is not limited to the aforementioned examples.
- a control system e.g. electronic control unit or ECU, electronic control module or ECM, or control unit for autonomous driving such as “autopilot”
- the method includes training and validating a neural network on several feature classes using a training and validation data set.
- the training and validation data set contains data points relating to at least one attribute. status and/or production parameters of the vehicle product/production process.
- the neural network which preferably has a deep learning network, typically comprises an input layer, an output layer and one or more intermediate layers (hidden layers) between the input layer and the output layer.
- Each subsequent layer of the neural network contains the output of the previous layer as input, with the input or output comprising several neurons (nodes).
- the respective node can in turn comprise several components, which are to be multiplied by an associated weighting factor.
- a training and validation data set is used to train and validate the neural network.
- the training and validation data set or a subset thereof, which forms a training data set is fed to the neural network.
- the weighting factors of the components of the nodes are optimized or iteratively adjusted until the deviation falls below a threshold value.
- the now trained neural network with the adjusted weighting factors is then validated with the training and validation data set or another subset thereof, which forms a validation data set. This tests whether the trained neural network actually delivers the desired output.
- the training and validation dataset contains a large number of data points relating to one or more condition and/or manufacturing parameters of the vehicle product or the manufacturing process for producing the vehicle product.
- Condition parameters can be understood as the size, weight, geometric shape, material composition, color, or in general any physical, electrical, chemical and/or computational parameter of the vehicle product or a feature of the vehicle product (such as the dimension of a crack on a brake).
- Manufacturing parameters can refer to the manufacturing process itself, such as manufacturing time, manufacturing method. Alternatively, the manufacturing parameter can be the system used to manufacture the vehicle product. product is manufactured, such as operating time, operating status or failure frequency of the system. However, the present invention is not limited to these exemplary parameters.
- the neural network is trained and validated on several feature classes.
- the feature classes represent different classes of features that are related to the state and/or production parameters. For example, such features refer to specific values/thresholds/value ranges/changes/change rates/.../etc. of the state and/or production parameters. This means that using the neural network trained and validated in this way, the process is able to identify a feature related to the state and/or production parameters with a certain hit rate/performance.
- the method according to the invention comprises receiving sensor data that have a number of data points, the sensor data being generated when the vehicle product and/or its manufacturing process are recorded using a sensor module.
- the sensor module can be selected depending on the condition and/or manufacturing parameters to be considered. For example, if the dimension of a crack on a brake is to be considered as a condition parameter, a camera can be used.
- a number of sensor modules that record the vehicle product and/or monitor the manufacturing process of the vehicle product and thereby generate sensor data about the same or different condition and/or manufacturing parameters.
- the sensor modules can be arranged stationary (for example as integral parts of a monitoring system) or mobile (for example on a vehicle or another moving object).
- the sensor data collected in this way after being received by a computer-implemented system and in particular read by its processor unit(s), are evaluated based on the neural network trained and validated as described above in order to detect an anomaly data point from the acquired data points.
- Anomaly data point is generally understood to mean such a data point from the received sensor data that cannot be identified by means of the trained and validated neural network or only with a hit rate that falls below a predefined threshold.
- the anomaly data point relates to a feature of the detected vehicle product or the manufacturing process that is to be assigned to a new or not previously known feature class that is different from the several feature classes for which the neural network was trained and validated.
- the anomaly data point relates to the geometric shape of a crack on a brake, wherein the shape does not belong to the previously known feature classes.
- the anomaly data point relates to the specific form of representation of a feature of a previously known feature class.
- the form of representation can be the representation or appearance as numerical values or as letters or letter sequences, sentences or texts, whereby alternatively or additionally it can be the font and/or font size or other formatting parameters.
- the anomaly data point can relate to the representation of the dimension of a crack in the brake as letters, whereby the neural network was not previously trained and validated for such a representation, but only for numerical representations.
- each of the prediction values is assigned to one of the several feature classes on which the neural network was previously trained and validated.
- the prediction values are determined using an epistemic uncertainty estimation model, preferably using a Monte Carlo dropout model or a Bayesian model.
- the trained and validated neural network is slightly modified by slightly changing the weighting factors, whereby the modification of the weighting factors is carried out several times.
- An uncertainty value of the prediction values is then determined.
- the uncertainty value can be a variance or an entropy of the prediction values.
- the mean value of several uncertainty values, each of which relates to one of the several anomaly data points is preferably determined.
- the determined uncertainty value is compared with one or more threshold values that define several value ranges, whereby an action signal is generated depending on which of the value ranges the determined uncertainty value lies in.
- An example threshold value is the standard deviation of the prediction values. If the determined uncertainty value (in particular the determined variance) of the prediction values lies within the standard deviation, a warning signal, for example, is triggered as an action signal.
- a signal is generated as an action signal, for example to retrain the neural network, if necessary to revalidate it, or alternatively to create a report on the high degree of uncertainty of the neural network, if necessary with a note that the threshold values with which the uncertainty value or the variance is to be compared should be adjusted accordingly.
- the computer program product according to the invention is designed to be loaded into a memory of a computer and comprises software code sections with which the method steps of the method according to the invention are carried out when the computer program product runs on the computer.
- a program is part of the software of a data processing system, for example an evaluation device or a computer.
- Software is a collective term for programs and associated data.
- the complement to software is hardware.
- Hardware refers to the mechanical and electronic configuration of a data processing system.
- a computer is an evaluation device.
- Computer program products usually comprise a sequence of instructions which, when the program is loaded, cause the hardware to carry out a specific process which leads to a specific result.
- the computer program product produces the inventive technical effect described above.
- the computer program product according to the invention is platform independent. This means that it can be executed on any computing platform.
- the computer program product is preferably executed on an evaluation device according to the invention for detecting the surroundings of the vehicle.
- the software code sections are written in any programming language, for example Python, Java, JavaScript, C, C++, C#, Matlab, LabView, Objective C.
- the computer-readable storage medium is, for example, an electronic, magnetic, optical or magneto-optical storage medium.
- FIG. 1 is a schematic representation of a method according to an embodiment
- Fig. 2 is a schematic representation of a neural network with an input layer, an intermediate layer and an output layer;
- Fig. 3 is a schematic representation of a computer-implemented system in interaction with a sensor module designed as a camera for detecting a vehicle product or its manufacturing process.
- Fig. 1 shows a schematic representation of a method 100 according to an embodiment.
- a neural network 200 is trained with a training data set for several feature classes.
- the neural network 200 is preferably a deep learning network and is shown purely by way of example and schematically in Fig. 2.
- the neural network 200 comprises an input layer 202 for receiving several inputs 201, an intermediate layer 203 for processing the received inputs 201 and an output layer 204 downstream of the intermediate layer 203 for forwarding several outputs 205.
- the number of intermediate layers 203 can generally be selected arbitrarily and is not restricted to the embodiment shown here with, by way of example, only one intermediate layer 203.
- the training data set which preferably forms a subset of a training and validation data set 20, contains training data points relating to at least one state and/or production parameter of the vehicle product/production process.
- the weighting factors of the components of the nodes are optimized or iteratively adjusted until the deviation falls below a threshold value.
- the trained neural network 200 is validated using a validation data set for the same feature classes on which the neural network 200 was trained.
- the validation data set preferably forms a subset of the training and validation data set 20. This tests whether the trained neural network 200 actually delivers the desired output.
- sensor data 32 which have several data points 41-45, 51-53, are received.
- the sensor data 32 are generated when the vehicle product and/or its manufacturing process are detected using a sensor module 30.
- Fig. 3 shows a purely exemplary and schematic representation of the sensor module 30, which is designed here as a camera. Although not shown here, in general several sensor modules 30 can be used, which detect the vehicle product and/or monitor the manufacturing process of the vehicle product and thereby generate sensor data 32 about the same or different status and/or manufacturing parameters.
- Anomaly data point 51-53 is generally understood to mean a data point from the received sensor data 32 that cannot be detected by means of the trained and validated neural network or only with a hit rate that falls below a predefined threshold.
- the anomaly data point 51/52/53 relates to the geometric shape of a crack on a brake, wherein the shape does not belong to the previously known feature classes for which the neural network 200 was trained and validated.
- the anomaly data point 51/52/53 may relate to the representation of the dimension of a crack on the brake as letters, whereby the neural network 200 was not previously trained and validated on such a representation, but only on numerical representations.
- a further method step 105 several prediction values Predictions for the anomaly data point 51/52/53 (or each of the anomaly data points 51-53).
- the prediction values are each assigned to one of the several feature classes on which the neural network 200 was previously trained and validated.
- the prediction values are determined using a Monte Carlo dropout model or a Bayesian In the case of the Monte Carlo dropout model, the trained and validated neural network 200 is slightly modified by slightly changing the weighting factors, with the modification of the weighting factors being carried out several times.
- the uncertainty value ⁇ can be a variance or an entropy of the
- Prediction values In case of several anomaly data points 51 -53, the mean value from several uncertainty values according to which each refer to one of the several anomaly data points 51-53.
- n describes the number of anomaly data points 51-53.
- the determined uncertainty value ⁇ is compared with one or more threshold values that define several value ranges.
- An action signal is then generated depending on which of the value ranges the determined uncertainty value ⁇ lies in.
- An example threshold value is the standard deviation of the prediction values. If the determined uncertainty value (in particular the determined variance) ⁇ of the prediction values is within the standard deviation, a warning signal is triggered as an action signal. If the determined uncertainty value (variance) ⁇ is outside the standard deviation, an action signal is triggered as an action signal.
- a signal is generated to retrain the neural network, if necessary also to revalidate it, or alternatively to create a report on the high degree of uncertainty of the neural network 200, if necessary with an indication that the threshold values with which the uncertainty value ⁇ or the variance is to be compared should be adjusted accordingly.
- the performance of the neural network 200 used with regard to anomaly detection of a vehicle product and/or its manufacturing process can advantageously be determined and monitored with greater reliability.
- a suitable action signal can be generated based on the anomaly detection in order to detect anomaly data points with greater error reliability.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Manufacturing & Machinery (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Testing And Monitoring For Control Systems (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren (100) zur Anomaliedetektion und -analyse eines Fahrzeugproduktes, umfassend Trainieren und Validieren eines neuronalen Netzwerks (200) mit einem Trainings- und Validierungsdatensatz (20) auf mehrere Merkmalsklassen, die mit zumindest einem Zustands- und/oder Fertigungsparameter des Fahrzeugproduktes und/oder eines Fertigungsverfahrens zum Herstellen des Fahrzeugproduktes Zusammenhängen; Empfangen von Sensordaten (32) umfassend mehrere Datenpunkte (41-45, 51 -53), wobei die Sensordaten (32) beim Erfassen des Fahrzeugproduktes und/oder dessen Fertigunsprozesses mit Hilfe eines Sensormoduls (30) erzeugt sind; Auswerten der Sensordaten (32) basierend auf dem validierten neuronalen Netzwerk (200), um einen Anomaliedatenpunkt (51-53) aus den erzeugten Sensordaten (32) zu detektieren; Bestimmen mehrerer Prädiktionswerte für den Anomaliedatenpunkt (51-53) und Ermitteln eines Unsicherheitswerts der Prädiktionswerte.
Description
Verfahren und Vorrichtung zur Anomaliedetektion und -analyse eines Fahrzeugpro- duktes
TECHNISCHES GEBIET
Die vorliegende Erfindung betrifft das Gebiet der Fahrzeugprodukte. Insbesondere be- trifft die vorliegende Erfindung ein Verfahren und eine Vorrichtung zur Anomaliedetek- tion der Fahrzeugprodukte.
TECHNISCHER HINTERGRUND
In fahrzeugbezogenen Fertigungsprozessen, in denen Fahrzeugprodukte, etwa Fahr- zeugbauteile und/oder ganze Fahrzeuge, hergestellt werden, werden Verfahren ein- gesetzt, um Zustands- und/oder Fertigungsparameter der teils oder vollständig gefer- tigten Fahrzeugprodukte zu analysieren. Derartige Verfahren basieren auf Algorith- men, insbesondere künstlicher Intelligenz (Kl) beziehungsweise neuronalen Netzwer- ken (NN). Solche Algorithmen oder neuronalen Netzwerke werden mit Daten trainiert und validiert, die die Zustands- und/oder Fertigungsparameter beinhalten. Ein solche trainiertes und validiertes neuronale Netzwerk enthält typischerweise mehrere Schich- ten, etwa eine Eingabeschicht (Engl.: Input Layer), eine oder mehrere Zwischenschich- ten (Engl.: Hidden Layers) und eine Ausgabeschicht (Engl.: Output Layer). Diesen Schichten liegen Knoten (Engl.: Nodes) mit Gewichtungsfaktoren zugrunde, die durch das Trainieren dahingehend optimiert sind, aus Daten, die ein Sensormodul durch Er- fassen der Fahrzeugprodukte erzeugt, Zustands- und/oder Fertigungsparameter zu entnehmen.
Nachteilig ist es jedoch bei den aus dem Stand der Technik bekannten Verfahren, dass die Auswertung der Sensordaten hinsichtlich Genauigkeit und Zuverlässigkeit unzu- reichend sind. Insbesondere sind die bekannten Verfahren nicht in der Lage, Anoma- lien, etwa nicht vorbekannte Merkmale der betrachteten Fahrzeugprodukte, mit der gebotenen Sicherheit zu erkennen. Dies führt zu häufigeren Fehlanalysen sowie dazu,
dass mangelhafte Performanz der den Verfahren zugrundeliegenden Algorithmen be- ziehungsweise neuronalen Netzwerke nicht oder nur mit hohem Aufwand identifizier- bar ist.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, die vorstehend genann- ten Nachteile der bekannten Verfahren zumindest teilweise zu beheben.
Die Aufgabe wird gelöst durch ein Verfahren, ein computerimplementiertes System, ein Computer-Programm-Produkt sowie ein computerlesbares Speichermedium ge- mäß den unabhängigen Ansprüchen.
Die vorliegende Erfindung betrifft ein Verfahren zur Anomaliedetektion eines Fahr- zeugproduktes. Das Verfahren ist dazu ausgebildet, durch ein computerimplementier- tes System ausgeführt zu werden. Das computerimplementiertes System kann ein lo- kales System oder ein cloud-basiertes System sein und umfasst eine Eingabeeinheit, eine oder mehrere Prozessoreinheiten und eine Ausgabeeinheit, wobei die Prozesso- reinheiten dazu ausgelegt sind, mehrere Schritte des erfindungsgemäßen Verfahrens durchzuführen. Das Fahrzeugprodukt kann ein Fahrzeugbauteil oder die Gesamtheit eines Fahrzeugs aufweisen. Das Fahrzeug kann ein Personenfahrzeug und/oder ein Nutzfahrzeug, etwa ein Landfahrzeug, ein Industriefahrzeug, eine Industriemaschine, ein Fahrzeug für eine Wechselbrücke, ein mobiler Roboter und/oder ein automatisier- tes fahrerloses Transportsystem sein. Das Fahrzeugbauteil kann ein Bauteil eines An- triebsstrangs (etwa ein elek), eines Bremssystems, eines Chassis, einer Karroserie, eines Interieurs und/oder eines Steuersystems (z.B. elektronische Steuer- oder Re- geleinheit beziehungsweise Electronic Control Unit oder ECU, elektronisches Steuer- oder Regelmodul beziehungsweise Electronic Control Module oder ECM, oder Steuer- /Regeleinheit für autonomes Fahren wie „Autopilot“) sein, wobei die vorliegende Erfin- dung nicht auf die vorgenannten Beispiele eingeschränkt ist.
Das Verfahren umfasst Trainieren und Validieren eines neuronalen Netzwerks auf mehrere Merkmalsklassen mit einem Trainings- und Validierungsdatensatz. Im Trai- nings- und Validierungsdatensatz sind Datenpunkte betreffend zumindest einen Zu-
stands- und/oder Fertigungsparameter des Fahrzeugproduktes/des Fertigungsverfah- rens enthalten. Das neuronale Netzwerk, welches vorzugsweise ein Deep Learning- Netzwerk aufweist, umfasst typischerweise eine Eingabeschicht (Engl.: Input Layer), eine Ausgabeschicht (Engl.: Output Layer) und eine oder mehrere Zwischenschichten (Engl.: Hidden Layers) zwischen der Eingabeschicht und der Ausgabeschicht. Jede nachfolgende Schicht des neuronalen Netzwerks enthält als Eingabe die Ausgabe der vorigen Schicht, wobei die Ein- beziehungsweise Ausgabe mehrere Neuronen (Kno- ten) umfasst. Der jeweilige Knoten kann wiederum mehrere Komponenten umfassen, die mit einem dazugehörigen Gewichtungsfaktor zu multiplizieren sind.
Zum Trainieren und Validieren des neuronalen Netzwerks wird ein Trainings- und Va- lidierungsdatensatz verwendet. Beim Trainieren wird der Trainings- und Validierungs- datensatz oder eine Teilmenge hiervon, die einen Trainingsdatensatz bildet, dem neu- ronalen Netzwerk zugeführt. Durch Bestimmen einer Abweichung der Ausgabe von der gewünschten Ausgabe werden die Gewichtungsfaktoren der Komponenten der Knoten optimiert beziehungsweise iterativ angepasst, bis etwa die Abweichung einen Schwellwert unterschreitet. Das nun trainierte neuronale Netzwerk mit den angepass- ten Gewichtungsfaktoren wird anschließend mit dem Trainings- und Validierungsda- tensatz oder eine weitere Teilmenge hiervon, die einen Validierungsdatensatz bildet, validiert. Hierbei wird getestet, ob das trainierte neuronale Netzwerk tatsächlich die gewünschte Ausgabe liefert.
Der Trainings- und Validierungsdatensatz enthält eine Vielzahl von Datenpunkten, die einen oder mehrere Zustands- und/oder Fertigungsparameter des Fahrzeugproduktes oder des Fertigungsverfahrens zum Herstellen des Fahrzeugproduktes betreffen. Als Zustandsparameter kann die Größe, das Gewicht, die geometrische Form, die Materi- alzusammensetzung, die Farbe, oder im Allgemeinen ein beliebiger physikalischer, elektrotechnischer, chemischer und/oder rechnerischer Parameter des Fahrzeugpro- duktes oder eines Merkmals des Fahrzeugsproduktes (etwa die Dimension eines Ri- ßes auf einer Bremse) verstanden werden. Als Fertigungsparameter kann sich auf das Fertigungsverfahren an sich beziehen, etwa Herstellungsdauer, Herstellungsme- thode. Alternativ kann der Fertigungsparamter die Anlage, mit der das Fahrzeugpro-
dukt gefertigt wird, betreffen, etwa Betriebszeit, Betriebszustand oder Ausfallshäufig- keit der Anlage. Die vorliegende Erfindung ist jedoch nicht auf diese beispielhaften Parameter eingeschränkt.
Mit Hilfe des Trainings- und Validierungsdatensatzes wird das neuronale Netzwerk auf mehrere Merkmalsklassen trainiert und validiert. Die Merkmalsklassen stellen unter- schiedliche Klassen von Merkmalen dar, die mit den Zustands- und/oder Fertigungs- parametern im Zusammenhang stehen. Beispielsweise beziehen sich derartige Merk- male auf konkrete Werte/Schwellwerte/Wertebereiche/Änderungen/Änderungsra- ten/.../etc. der Zustands- und/oder Fertigungsparameter. Dies bedeutet, dass mittels des solch trainierten und validierten neuronalen Netzwerks das Verfahren in der Lage ist, ein mit den Zustands- und/oder Fertigungsparametern zusammenhängendes Merkmal mit einer bestimmten Trefferquote/Performanz zu identifizieren.
Das erfindungsgemäße Verfahren umfasst Empfangen von Sensordaten, die mehrere Datenpunkte aufweisen, wobei die Sensordaten beim Erfassen des Fahrzeugproduk- tes und/oder dessen Fertigunsprozesses mit Hilfe eines Sensormoduls erzeugt sind. Das Sensormodul kann in Abhängigkeit von den zu betrachtenden Zustands- und/oder Fertigungsparametern gewählt sein. Beispielsweise kann, wenn als Zustandsparame- ter die Dimension eines Rißes auf einer Bremse zu betrachten ist, eine Kamera her- angezogen werden. Des Weiteren ist im Rahmen der vorliegenden Erfindung denkbar, mehrere Sensormodule einzusetzen, die das Fahrzeugprodukt erfassen und/oder den Fertigungsprozess des Fahrzeugproduktes überwachen und dabei Sensordaten über denselben oder unterschiedliche Zustands- und/oder Fertigungsparameter erzeugen. Die Sensormodule können stationär (etwa als integrale Teile eines Überwachungssys- tems) oder mobil (etwa an einem Fahrzeug oder einem sonstigen beweglichen Objekt) angeordnet sein.
Die auf diese Weise gesammelten Sensordaten werden, nachdem sie von einem com- puterimplementierten System empfangen und insbesondere von dessen Prozesso- reinheit(en) eingelesen sind, basierend auf dem wie oben beschrieben trainierten und validierten neuronalen Netzwerk ausgewertet, um einen Anomaliedatenpunkt aus den erfassten Datenpunkten zu erkennen. Unter Anomaliedatenpunkt ist im Allgemeinen
ein derartiger Datenpunkt aus den empfangenen Sensordaten zu verstehen, der nicht mittels des trainierten und validierten neuronalen Netzwerks oder lediglich mit einer eine vordefinierte Schwelle unterschreitenden Trefferquote identifizierbar ist. Gemäß einer Ausführungsform betrifft der Anomaliedatenpunkt ein Merkmal des erfassten Fahrzeugproduktes oder des Fertigungsverfahrens, welches einer neuen beziehungs- weise nicht vorbekannten Merkmalsklasse zuzuordnen ist, die von den mehreren Merkmalsklassen, auf die das neuronale Netzwerk trainiert und validiert wurde, ver- schieden ist. Beispielsweise betrifft der Anomaliedatenpunkt die geometrische Form eines Rißes auf einer Bremse, wobei die Form nicht zu den vorbekannten Merkmals- klassen zählt.
Gemäß einer weiteren Ausführungsform betrifft der Anomaliedatenpunkt die konkrete Darstellungsform eines Merkmals einer vorbekannten Merkmalsklasse. Bei der Dar- stellungsform kann es sich um die Darstellung beziehungsweise Erscheinung als Zah- lenwerte oder als Buchstaben beziehungsweise Buchstabenfolge, Sätze oder Texte handeln, wobei es sich alternativ oder zusätzlich um die Schriftart und/oder -große beziehungsweise andere Formatierungsparameter handeln kann. Beispielsweise kann der Anomaliedatenpunkt die Darstellungsweise der Dimension eines Rißes auf der Bremse als Buchstaben betreffen, wobei das neuronale Netzwerk zuvor nicht auf eine solche Darstellungsweise, sondern lediglich auf zahlenmäßige Darstellungsweisen trainiert und validiert wurde.
Nachdem der Anomaliedatenpunkt oder mehrere Anomaliedatenpunkte erkannt wur- den, werden mehrere Prädiktionswerte (Engl.: Predictions) für den Anomaliedaten- punkt beziehungsweise jeden der Anomaliedatenpunkte bestimmt. Vorzugsweise ist jeder der Prädiktionswerte einer der mehreren Merkmalsklassen, auf die das neuro- nale Netzwerk zuvor trainiert und validiert wurde, zugeordnet. Außerdem erfolgt das Bestimmen der Prädiktionswerte mit Hilfe eines epistemischen Unsicherheitsabschät- zungsmodells, vorzugsweise mit Hilfe eines Monte Carlo Dropout-Modells oder eines bayesschen Modells. Im Fall des Monte Carlo Dropout-Modells wird das trainierte und validierte neuronale Netzwerk leicht abgewandelt, indem die Gewichtungsfaktoren ge- ringfügig abgeändert werden, wobei das Abändern der Gewichtungsfaktoren mehrfach ausgeführt wird.
Anschließend wird ein Unsicherheitswert (Engl.: Uncertainty) der Prädiktionswerte er- mittelt. Der Unsicherheitswert kann eine Varianz oder eine Entropie der Prädiktions- werte sein. Im Fall mehrerer Anomaliedatenpunkte wird vorzugsweise der Mittelwert aus mehreren Unsicherheitswerten, die sich jeweils auf einen der mehreren Anoma- liedatenpunkte beziehen, ermittelt.
Basierend auf dem ermittelten Unsicherheitswert können Aussagen über die Perfor- manz des neuronalen Netzwerks hinsichtlich Anomalieerkennung für das Fahrzeug- produkt beziehungsweise dessen Fertigungsverfahren getroffen werden. Je größer der Unsicherheitswert, desto geringer ist die Genauigkeit der Anomalieerkennung. Gemäß einer weiteren Ausführungsform wird der ermittelte Unsicherheitswert mit einem oder mehreren Schwellwerten, die mehrere Wertebereiche definieren, verglichen, wobei ein Handlungssignal in Abhängigkeit davon, in welchem der Wertebereiche die ermittelte Unsicherheitswert liegt, generiert wird. Ein beispielhafter Schwellwert ist die Stan- dardabweichung der Prädiktionswerte. Wenn der ermittelte Unsicherheitswert (insbe- sondere die ermittelte Varianz) der Prädiktionswerte innerhalb der Standardabwei- chung liegt, wird als Handlungssignal beispielsweise ein Warnsignal getriggert. Wenn der ermittelte Unsicherheitswert außerhalb der Standardabweichung liegt, wird als Handlungssignal beispielsweise ein Signal dazu generiert, das neuronale Netzwerk erneut zu trainieren, ggf. auch erneut zu validieren, oder alternativ einen Bericht über den hohen Unsicherheitsgrad des neuronalen Netzwerks zu erstellen, ggf. mit einem Hinweis darauf, das die Schwellwerte, mit denen der Unsicherheitswert beziehungs- weise die Varianz zu vergleichen ist, entsprechend anzupassen.
Auf diese Weise lässt sich die Performanz des verwendeten neuronalen Netzwerks hinsichtlich Anomalieerkennung eines Fahrzeugproduktes und/oder dessen Ferti- gungsverfahrens vorteilhafterweise mit höherer Zuverlässigkeit ermitteln und überwa- chen. Außerdem können basierend auf der Anomaliedetektion ein passendes Hand- lungssignal generiert werden, um Anomaliedatenpunkte mit höherer Fehlersicherheit zu detektieren.
Das erfindungsgemäße Computerprogrammprodukt ist ausgeführt, in einen Speicher eines Computers geladen zu werden und umfasst Softwarecodeabschnitte, mit denen die Verfahrensschritte des erfindungsgemäßen Verfahrens ausgeführt werden, wenn das Computerprogrammprodukt auf dem Computer läuft.
Ein Programm gehört zur Software eines Daten verarbeitenden Systems, zum Beispiel einer Auswerteeinrichtung oder einem Computer. Software ist ein Sammelbegriff für Programme und zugehörigen Daten. Das Komplement zu Software ist Hardware. Hardware bezeichnet die mechanische und elektronische Ausrichtung eines Daten verarbeitenden Systems. Ein Computer ist eine Auswerteeinrichtung.
Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt. Wenn das betreffende Pro- gramm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt den oben beschriebenen erfinderischen technischen Effekt hervor.
Das erfindungsgemäße Computerprogrammprodukt ist Plattform unabhängig. Das heißt, es kann auf jeder beliebigen Rechenplattform ausgeführt werden. Bevorzugt wird das Computerprogrammprodukt auf einer erfindungsgemäßen Auswertevorrich- tung zum Erfassen des Umfelds des Fahrzeugs ausgeführt.
Die Softwarecodeabschnitte sind in einer beliebigen Programmiersprache geschrie- ben, zum Beispiel in Python, Java, JavaScript, C, C++, C#, Matlab, LabView, Objective C.
Das computerlesbare Speichermedium ist beispielsweise ein elektronisches, magne- tisches, optisches oder magneto-optisches Speichermedium.
Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefüg- ten Zeichnungen beschrieben. Es zeigen:
Fig. 1 eine schematische Darstellung eines Verfahrens gemäß einer Ausfüh- rungsform;
Fig. 2 eine schematische Darstellung eines neuronalen Netzwerks mit einer Eingabeschicht, einer Zwischenschicht und einer Ausgabeschicht;
Fig. 3 eine schematische Darstellung eines computerimplementiertes System in Zusammenwirkung mit einem als Kamera ausgebildeten Sensormodul zum Erfassen eines Fahrzeugproduktes oder dessen Fertigungsverfah- rens.
In den Figuren beziehen sich gleiche Bezugszeichen auf gleiche oder funktionsähnli- che Bezugsteile. In den einzelnen Figuren sind die jeweils relevanten Bezugsteile ge- kennzeichnet.
Fig. 1 zeigt eine schematische Darstellung eines Verfahrens 100 gemäß einer Ausfüh- rungsform. In einem ersten Verfahrensschritt 101 wird ein neuronales Netzwerk 200 mit einem Trainingsdatensatz auf mehrere Merkmalsklassen trainiert. Das neuronale Netzwerk 200 ist vorzugsweise ein Deep Learning-Netzwerk und ist rein beispielhaft und schematisch in Fig. 2 gezeigt. Das neuronale Netzwerk 200 umfasst eine Einga- beschicht 202 zum Erhalten mehrerer Eingaben 201 , eine Zwischenschicht 203 zum Verarbeiten der erhaltenen Eingaben 201 und eine der Zwischenschicht 203 nachge- schaltete Ausgabeschicht 204 zum Weiterleiten mehrerer Ausgaben 205. Die Anzahl der Zwischenschicht 203 ist im Allgemeinen beliebig wählbar und nicht auf die hier gezeigte Ausführungsform mit beispielhaft nur einer Zwischenschicht 203 einge- schränkt. Im Trainingsdatensatz, welcher vorzugsweise eine Teilmenge eines Trai- nings- und Validierungsdatensatz 20 bildet, sind Trainingsdatenpunkte betreffend zu- mindest einen Zustands- und/oder Fertigungsparameter des Fahrzeugproduktes/des Fertigungsverfahrens enthalten. Durch Bestimmen einer Abweichung der Ausgabe 205 von der gewünschten Ausgabe werden die Gewichtungsfaktoren der Komponen- ten der Knoten (in Fig. 2 als graue Kreise rein schematisch dargestellt) optimiert be- ziehungsweise iterativ angepasst, bis etwa die Abweichung einen Schwellwert unter-
schreitet. In einem weiteren Verfahrensschritt 102 wird das trainierte neuronale Netz- werk 200 mit Hilfe eines Validierungsdatensatzes auf diegleichen Merkmalsklassen, auf die das neuronale Netzwerk 200 trainiert wurde, validiert. Der Validierungsdaten- satz bildet vorzugsweise eine Teilmenge des Trainings- und Validierungsdatensatzes 20. Hierbei wird getestet, ob das trainierte neuronale Netzwerk 200 tatsächlich die ge- wünschte Ausgabe liefert.
In einem weiteren Verfahrensschritt 103 werden Sensordaten 32, die mehrere Daten- punkte 41-45,51-53 aufweisen, empfangen. Die Sensordaten 32 werden beim Erfas- sen des Fahrzeugproduktes und/oder dessen Fertigunsprozesses mit Hilfe eines Sen- sormoduls 30 erzeugt. Fig. 3 zeigt eine rein beispielhafte und schematsiche Darstel- lung des hier als Kamera ausgebildeten Sensormoduls 30. Obwohl hier nicht gezeigt, sind im Allgemeinen mehrere Sensormodule 30 einsetzbar, die das Fahrzeugprodukt erfassen und/oder den Fertigungsprozess des Fahrzeugproduktes überwachen und dabei Sensordaten 32 über denselben oder unterschiedliche Zustands- und/oder Fer- tigungsparameter erzeugen.
Die auf diese Weise gesammelten Sensordaten 32 werden, nachdem sie von einem computerimplementierten System 10 empfangen und insbesondere von dessen Pro- zessoreinheit(en) 14 eingelesen sind, in einem weiteren Verfahrensschritt 104 basie- rend auf dem wie oben beschrieben trainierten und validierten neuronalen Netzwerk 200 ausgewertet, um mehrere Anomaliedatenpunkte 51-53 aus den erfassten Daten- punkten 41 -45,51 -53 zu detaktieren. Unter Anomaliedatenpunkt 51 -53 ist im Allgemei- nen ein derartiger Datenpunkt aus den empfangenen Sensordaten 32 zu verstehen, der nicht mittels des trainierten und validierten neuronalen Netzwerks oder lediglich mit einer eine vordefinierte Schwelle unterschreitenden Trefferquote detektierbar ist. Beispielsweise betrifft der Anomaliedatenpunkt 51/52/53 die geometrische Form eines Rißes auf einer Bremse, wobei die Form nicht zu den vorbekannten Merkmalsklassen, auf die das neuronale Netzwerk 200 trainiert und validiert wurde, zählt. Alternativ kann der Anomaliedatenpunkt 51/52/53 die Darstellungsweise der Dimension eines Rißes auf der Bremse als Buchstaben betreffen, wobei das neuronale Netzwerk 200 zuvor nicht auf eine solche Darstellungsweise, sondern lediglich auf zahlenmäßige Darstel- lungsweisen trainiert und validiert wurde.
In einem weiteren Verfahrensschritt 105 werden mehrere Prädiktionswerte
(Engl.: Predictions) für den Anomaliedatenpunkt 51/52/53 (beziehungsweise jeden der Anomaliedatenpunkte 51-53) bestimmt. Die Prädiktionswerte
sind jeweils einer der mehreren Merkmalsklassen, auf die das neuronale Netzwerk 200 zuvor trai- niert und validiert wurde, zugeordnet. Außerdem erfolgt das Bestimmen der Prädikti- onswerte mit Hilfe eines Monte Carlo Dropout-Modells oder eines bayess-
chen Modells. Im Fall des Monte Carlo Dropout-Modells wird das trainierte und vali- dierte neuronale Netzwerk 200 leicht abgewandelt, indem die Gewichtungsfaktoren geringfügig abgeändert werden, wobei das Abändern der Gewichtungsfaktoren mehr- fach ausgeführt wird.
Anschließend wird ein Unsicherheitswert σ (Engl.: Uncertainty) der Prädiktionswerte
ermittelt. Der Unsicherheitswert σ kann eine Varianz oder eine Entropie der
Prädiktionswerte
sein. Im Fall mehrerer Anomaliedatenpunkte 51 -53 wird vorzugsweise der Mittelwert
aus mehreren Unsicherheitswerten
gemäß
die sich jeweils auf einen der mehreren Anomaliedatenpunkte 51-53 bezie-
hen, ermittelt. Hierbei beschreibt n die Anzahl der Anomaliedatenpunkte 51-53.
Basierend auf dem ermittelten Unsicherheitswert (Varianz) σ können Aussagen über die Performanz des neuronalen Netzwerks hinsichtlich Anomalieerkennung für das Fahrzeugprodukt beziehungsweise dessen Fertigungsverfahren getroffen werden. Je größer der Unsicherheitswert, desto geringer ist die Genauigkeit der Anomalieerken- nung. In einem weiteren Verfahrensschritt 106 wird der ermittelte Unsicherheitswert σmit einem oder mehreren Schwellwerten, die mehrere Wertebereiche definieren, ver- glichen. Anschließend wird ein Handlungssignal in Abhängigkeit davon, in welchem der Wertebereiche die ermittelte Unsicherheitswert σ liegt, generiert. Ein beispielhafter Schwellwert ist die Standardabweichung der Prädiktionswerte. Wenn der ermittelte Unsicherheitswert (insbesondere die ermittelte Varianz) σ der Prädiktionswerte
innerhalb der Standardabweichung liegt, wird als Handlungssignal bei- spielsweise ein Warnsignal getriggert. Wenn der ermittelte Unsicherheitswert (Varianz) σ außerhalb der Standardabweichung liegt, wird als Handlungssignal beispielsweise
ein Signal dazu generiert, das neuronale Netzwerk erneut zu trainieren, ggf. auch er- neut zu validieren, oder alternativ einen Bericht über den hohen Unsicherheitsgrad des neuronalen Netzwerks 200 zu erstellen, ggf. mit einem Hinweis darauf, das die Schwellwerte, mit denen der Unsicherheitswert σ beziehungsweise die Varianz zu ver- gleichen ist, entsprechend anzupassen.
Auf diese Weise lässt sich die Performanz des verwendeten neuronalen Netzwerks 200 hinsichtlich Anomaliedetaktion eines Fahrzeugproduktes und/oder dessen Ferti- gungsverfahrens vorteilhafterweise mit höherer Zuverlässigkeit ermitteln und überwa- chen. Außerdem können basierend auf der Anomaliedetektion ein passendes Hand- lungssignal generiert werden, um Anomaliedatenpunkte mit höherer Fehlersicherheit zu detektieren.
Bezugszeichen
10 computerimplementiertes System
12 Eingabe-/Ausgabeeinheit
14 Prozessoreinheit
20 Trainings- und Validierungsdatensatz
30 Sensormodul (Kamera)
41-45 normale Datenpunkte
51-53 Anomaliedatenpunkte
100 Verfahren
101-106 Verfahrensschritte
200 neuronales Netzwerk
201 Eingaben
202 Eingabeschicht
203 Zwischenschicht (verborgene Schicht)
204 Ausgabeschicht
205 Ausgaben
Claims
1 . Verfahren (100) zur Anomaliedetektion und -analyse eines Fahrzeugproduktes, umfassend:
Trainieren und Validieren eines neuronalen Netzwerks (200) mit einem Trai- nings-und Validierungsdatensatz (20) auf mehrere Merkmalsklassen, die mit zumin- dest einem Zustands- und/oder Fertigungsparameter des Fahrzeugproduktes und/oder eines Fertigungsverfahrens zum Herstellen des Fahrzeugproduktes Zusam- menhängen;
Empfangen von Sensordaten (32) umfassend mehrere Datenpunkte (41-45,51 - 53), wobei die Sensordaten (32) beim Erfassen des Fahrzeugproduktes und/oder des- sen Fertigunsprozesses mit Hilfe eines Sensormoduls (30) erzeugt sind;
Auswerten der Sensordaten (32) basierend auf dem validierten neuronalen Netzwerk (200), um einen Anomaliedatenpunkt (51 -53) aus den erzeugten Sensorda- ten (32) zu detektieren;
Bestimmen mehrerer Prädiktionswerte für den Anomaliedatenpunkt (51 -53) und Ermitteln eines Unsicherheitswerts der Prädiktionswerte.
2. Verfahren (100) nach Anspruch 1 , wobei der Anomaliedatenpunkt (51 -53) ein Merkmal betrifft, welches einer Merkmalsklasse zugeordnet ist, die von den mehreren Merkmalsklassen, auf die das neuronale Netzwerk (200) trainiert und validiert wurde, verschieden ist.
3. Verfahren (100) nach Anspruch 1 , wobei der Anomaliedatenpunkt (51 -53) eine Darstellungsform eines Merkmals betrifft, welches einer der mehreren Merkmalsklas- sen, auf die das neuronale Netzwerk (200) trainiert und validiert wurde, entspricht.
4. Verfahren (100) nach einem der vorhergehenden Ansprüche, wobei das Be- stimmen der Prädiktionswerte mit Hilfe eines epistemischen Unsicherheitsabschät- zungsmodells, vorzugsweise mit Hilfe eines Monte Carlo Dropout-Modells oder eines bayesschen Modells, erfolgt.
5. Verfahren (100) nach einem der vorhergehenden Ansprüche, wobei jeder der Prädiktionswerte einer der mehreren Merkmalsklassen, auf die das neuronale Netz- werk (200) trainiert wurde, zugeordnet ist.
6. Verfahren (100) nach einem der vorhergehenden Ansprüche, weiter umfassend Ermitteln eines gemittelten Unsicherheitswerts aus mehreren Unsicherheitswerten, die sich jeweils auf einen von mehreren Anomaliedatenpunkte (51-53) beziehen.
7. Verfahren (100) nach einem der vorhergehenden Ansprüche, weiter umfas- send:
Vergleichen des ermittelten Unsicherheitswerts mit einem oder mehreren Schwellwerten, die mehrere Wertebereiche definieren;
Generieren eines Handlungssignales in Abhängigkeit davon, in welchem der Wertebereiche der ermittelte Unsicherheitswert liegt.
8. Computerimplementiertes System, umfassend eine Eingabeeinheit, eine oder mehrere Prozessoreinheiten und eine Ausgabeeinheit, wobei die Prozesoreinheiten dazu ausgebildet sind, die Schrite des Verfahrens (100) nach einem der Ansprüche 1 bis 7 auszuführen.
9. Computer-Programm-Produkt, umfassend Befehle, die bei der Ausführung des Programms durch ein cimputerimplementiertes System dieses veranlassen, das Ver- fahren (100) nach einem der Ansprüche 1 bis 7 auszuführen.
10. Computerlesbares Speichermedium, auf dem das Computer-Programm-Pro- dukt nach Anspruch 8 gespeichert ist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022126347.9A DE102022126347A1 (de) | 2022-10-11 | 2022-10-11 | Verfahren und Vorrichtung zur Anomaliedetektion und -analyse eines Fahrzeugproduktes |
DE102022126347.9 | 2022-10-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024078989A1 true WO2024078989A1 (de) | 2024-04-18 |
Family
ID=88315348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2023/077703 WO2024078989A1 (de) | 2022-10-11 | 2023-10-06 | Verfahren und vorrichtung zur anomaliedetektion und -analyse eines fahrzeugproduktes |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102022126347A1 (de) |
WO (1) | WO2024078989A1 (de) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220012546A1 (en) * | 2020-07-07 | 2022-01-13 | Robert Bosch Gmbh | Measurement of the sensitivity of classifiers based on interacting faults |
-
2022
- 2022-10-11 DE DE102022126347.9A patent/DE102022126347A1/de active Pending
-
2023
- 2023-10-06 WO PCT/EP2023/077703 patent/WO2024078989A1/de unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220012546A1 (en) * | 2020-07-07 | 2022-01-13 | Robert Bosch Gmbh | Measurement of the sensitivity of classifiers based on interacting faults |
Non-Patent Citations (3)
Title |
---|
FANG QIHANG ET AL: "An Enhanced Fault Diagnosis Method with Uncertainty Quantification Using Bayesian Convolutional Neural Network", 2020 IEEE 16TH INTERNATIONAL CONFERENCE ON AUTOMATION SCIENCE AND ENGINEERING (CASE), IEEE, 20 August 2020 (2020-08-20), pages 588 - 593, XP033837191, DOI: 10.1109/CASE48305.2020.9216773 * |
JAKOB GAWLIKOWSKI ET AL: "A Survey of Uncertainty in Deep Neural Networks", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 10 January 2022 (2022-01-10), XP091126774 * |
PYLE RICHARD J ET AL: "Uncertainty Quantification for Deep Learning in Ultrasonic Crack Characterization", IEEE TRANSACTIONS ON ULTRASONICS, FERROELECTRICS, AND FREQUENCY CONTROL, IEEE, USA, vol. 69, no. 7, 20 May 2022 (2022-05-20), pages 2339 - 2351, XP011913194, ISSN: 0885-3010, [retrieved on 20220523], DOI: 10.1109/TUFFC.2022.3176926 * |
Also Published As
Publication number | Publication date |
---|---|
DE102022126347A1 (de) | 2024-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AT521607B1 (de) | Verfahren und Vorrichtung zum Testen eines Fahrerassistenzsystem | |
DE102018108779A1 (de) | Schätzvorrichtung eines maschinellen Bearbeitungsfehlerfaktors | |
DE102018005008A1 (de) | Steuervorrichtung und maschinelle lernvorrichtung | |
DE102018128289A1 (de) | Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung | |
DE102019124018A1 (de) | Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme | |
WO2021058223A1 (de) | Verfahren zur effizienten, simulativen applikation automatisierter fahrfunktionen | |
EP3282399A1 (de) | Verfahren zur verbesserten erkennung von prozessanomalien einer technischen anlage sowie entsprechendes diagnosesystem | |
DE102019206720B4 (de) | Überwachung eines KI-Moduls einer Fahrfunktion eines Fahrzeugs | |
DE102018209108A1 (de) | Schnelle Fehleranalyse für technische Vorrichtungen mit maschinellem Lernen | |
EP3796117B1 (de) | Diagnoseverfahren und diagnosesystem für eine verfahrenstechnische anlage | |
WO2024078989A1 (de) | Verfahren und vorrichtung zur anomaliedetektion und -analyse eines fahrzeugproduktes | |
EP3959660A1 (de) | Training trainierbarer module mit lern-daten, deren labels verrauscht sind | |
WO2020216622A1 (de) | Erkennung und behebung von rauschen in labels von lern-daten für trainierbare module | |
DE102021211610A1 (de) | Verfahren zum Trainieren eines neuronalen Lernmodells zum Detektieren von Produktionsfehlern | |
EP1157317B1 (de) | Verfahren und anordnung zur reduktion einer anzahl von messwerten eines technischen systems | |
DE102021202813A1 (de) | Verfahren, Vorrichtung und Computerprogramm für eine Unsicherheitsbewertung einer Bildklassifikation | |
DE102021109126A1 (de) | Verfahren zum Testen eines Produkts | |
DE102020203829A1 (de) | Verfahren zum Überwachen eines Fahrzeugsystems zum Erkennen einer Umgebung eines Fahrzeugs | |
DE102020212921A1 (de) | Verfahren, Computerprogramm und Vorrichtung zum Bewerten einer Verwendbarkeit von Simulationsdaten | |
WO2018091160A1 (de) | Funktionsüberwachung einer sensoreinrichtung eines kraftfahrzeugs | |
DE102021207493A1 (de) | Verfahren zur Unterstützung eines Betriebs eines Fahrzeuges mit einer Sensoreinheit, Computerprogrammprodukt sowie System | |
EP4214642A1 (de) | Verfahren zur bereitstellung einer maschinell gelernten steuerfunktion zur fahrzeugsteuerung anhand bereitgestellter fahrzeugsensordaten | |
WO2023232428A1 (de) | Überwachen einer mehrachsigen maschine mittels interpretierbarer zeitreihenklassifikation | |
WO2023237274A1 (de) | Konzept zum auswählen von audioausschnitten von bremsquietschgeräuschen in einem fahrzeug | |
DE102022202696A1 (de) | Verfahren zur Kategorisierung von durch einen Algorithmus des maschinellen Lernens ausgegeben Ausgabedaten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23786536 Country of ref document: EP Kind code of ref document: A1 |