DE102023205425A1 - Computer-implemented method for creating a feedforward neural network - Google Patents

Computer-implemented method for creating a feedforward neural network Download PDF

Info

Publication number
DE102023205425A1
DE102023205425A1 DE102023205425.6A DE102023205425A DE102023205425A1 DE 102023205425 A1 DE102023205425 A1 DE 102023205425A1 DE 102023205425 A DE102023205425 A DE 102023205425A DE 102023205425 A1 DE102023205425 A1 DE 102023205425A1
Authority
DE
Germany
Prior art keywords
fnn
neurons
actual
approximation
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023205425.6A
Other languages
German (de)
Inventor
Andreas Krug
Holger Ruppert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hochschule Heilbronn Koerperschaft Des Oeffentlichen Rechts
Original Assignee
Hochschule Heilbronn Koerperschaft Des Oeffentlichen Rechts
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hochschule Heilbronn Koerperschaft Des Oeffentlichen Rechts filed Critical Hochschule Heilbronn Koerperschaft Des Oeffentlichen Rechts
Publication of DE102023205425A1 publication Critical patent/DE102023205425A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)

Abstract

Es wird ein System (132) umfassend mindestens einen Elektromotor, mindestens eine programmierbare Steuer- und Auswerteeinheit (134) und mindestens einen Beschleunigungssensor (136), welcher eingerichtet ist Systemveränderungen durch Messen mindestens eines Beschleunigungssignals zu detektieren, vorgeschlagen. Die Steuer- und Auswerteeinheit (134) ist eingerichtet, ein Ist-Feedforward Neural Network (FNN) unter Verwendung eines Approximationsalgorithmus zu erzeugen, wobei das Ist-FNN mindestens eine Eingabeschicht (112), mindestens eine verdeckte Schicht (114) und mindestens eine Ausgabeschicht (116) umfasst, wobei das Erzeugen des Ist-FNN eine Approximation des Beschleunigungssignals umfasst, wobei das Beschleunigungssignal als Eingangsgröße für den Approximationsalgorithmus verwendet wird, wobei das Erzeugen des Ist-FNN die folgenden Schritte umfasst:i) Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht (114) als K ≥ W;ii) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht (114), wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst, wobei die Steuer- und Auswerteeinheit (134) eingerichtet ist, um die festgelegte Anzahl der Neuronen des Ist- FNN mit einer Anzahl von Neuronen eines vorbestimmten Referenz-FNN und die bestimmten Gewichtungskoeffizienten des Ist-FNN mit Gewichtungskoeffizienten des vorbestimmten Referenz-FNN zu vergleichen, wobei die Steuer- und Auswerteeinheit (134) eingerichtet ist, in Abhängigkeit des Ergebnisses des Vergleichs, mindestens eine Service- und/oder Wartungsmaßnahme auszuführen.A system (132) comprising at least one electric motor, at least one programmable control and evaluation unit (134) and at least one acceleration sensor (136), which is set up to detect system changes by measuring at least one acceleration signal, is proposed. The control and evaluation unit (134) is set up to generate an actual feedforward neural network (FNN) using an approximation algorithm, the actual FNN having at least one input layer (112), at least one hidden layer (114) and at least one output layer (116), wherein generating the actual FNN comprises an approximation of the acceleration signal, the acceleration signal being used as an input for the approximation algorithm, wherein generating the actual FNN comprises the following steps: i) determining a number of turning points W in an interval of the acceleration signal and setting a minimum number of the neurons K in the hidden layer (114) as K ≥ W; ii) determining activation functions of the neurons of the hidden layer (114), wherein determining the activation functions involves determining respective weighting coefficients and Bias coefficient using a backpropagation algorithm (BPA), wherein the control and evaluation unit (134) is set up to compare the specified number of neurons of the actual FNN with a number of neurons of a predetermined reference FNN and the specific weighting coefficients of the actual -FNN to compare with weighting coefficients of the predetermined reference FNN, the control and evaluation unit (134) being set up to carry out at least one service and/or maintenance measure depending on the result of the comparison.

Description

Technisches GebietTechnical area

Die vorliegende Erfindung betrifft ein computer-implementiertes Verfahren zum Erstellen eines Feedforward Neural Network (FNN) zum Lösen von mindestens einer Approximationsaufgabe, ein computer-implementiertes Verfahren zur Systemidentifikation eines Single Input Single Output (SISO) oder Multiple Input Multiple Output (MIMO) Systems, ein computer-implementiertes Verfahren zum Erstellen eines Softsensors, ein Messverfahren unter Verwendung eines Softsensors, einen Softsensor und eine Verwendung eines Softsensors.The present invention relates to a computer-implemented method for creating a feedforward neural network (FNN) for solving at least one approximation task, a computer-implemented method for system identification of a single input single output (SISO) or multiple input multiple output (MIMO) system, a computer-implemented method for creating a soft sensor, a measuring method using a soft sensor, a soft sensor and a use of a soft sensor.

Technischer HintergrundTechnical background

Zum Lösen von Approximationsaufgaben kann ein Feedforward Neural Network (FNN) verwendet werden. Beispielsweise eignen sich FNN sehr gut, um Funktionen oder Zeitverläufe, welche beispielsweise in einem technischen System als Messgröße vorliegen, zu approximieren, wie in Cybenko G., 1989, Approximation by superpositions of a sigmoidal function. Math. Control, Signals Syst, 2(4), 303-314 und Hornik K., Stinchcombe M., and White H., 1989, Multilayer feedforward networks are universal approximators, Neural Netw., 2(5), 359-366 beschrieben. Bisher existiert kein Verfahren, welches die Auslegung eines FNN für Approximationszwecke hinsichtlich der Neuronenzahl und der einzusetzenden Aktivierungsfunktion, speziell in der verdeckten Schicht des FNN, mathematisch beschreibt, siehe Aggarwal, C.C., 2018, Neural Networks and Deep Learning. Springer International Publishing oder Silva I.N., Spatti D.H., Flauzino R.A., Liboni L. H.B., und Reis-Alves, S.F., 2017, Artificial Neural Networks: A Practical Course. Springer International Publishing, Switzerland. Gängige Methoden zur Auslegung von FNN für Approximationszwecke basieren üblicherweise auf heuristischen Verfahren. Hierzu werden so lange Lösungsmöglichkeiten hinsichtlich der Findung einer geeigneten Aktivierungsfunktion und/oder einer geeigneten Neuronenzahl für die verdeckte Schicht empirisch ausprobiert, bis die Lösung für eine gewünschte Approximation gefunden wird, siehe Aggarwal, C.C., 2018, Neural Networks and Deep Learning. Springer International Publishing oder Silva I.N., Spatti D.H., Flauzino R.A., Liboni L. H.B., und Reis-Alves, S.F., 2017, Artificial Neural Networks: A Practical Course. Springer International Publishing, Switzerland. Approximationsverfahren werden auch in Mhaskar H.N. and Khachikyan L. (1995), „Neural networks for function approximation“, Proceedings of 1995 IEEE Workshop on Neural Networks for Signal Processing, 21-29, K. Hornik (1993), „Some new results on neural network approximation“, Neural Netw., 6(8), 1069-1072, Scarselli F. and Tsoi A.C. (1998), „Universal approximation using feedforward neural networks: A survey of some existing methods, and some new results“, Neural Netw., 11(1), 15-37., Hunter D., Yu H., Pukish M.S, Kolbusz J. and Wilamowski B.M. (2012), „Selection of Proper Neural Network Sizes and Architectures - A Comparative Study“, IEEE Transactions on Industrial Informatics, 8(2), 228-240, K. Gnana Sheela, S. N. Deepa (2013), „Review on Methods to Fix Number of Hidden Neurons in Neural Networks, Mathematical Problems in Engineering“, Vujicic, T., Matijevic, T., Ljucovic, J., Balota, A., & Sevarac, Z. (2016), „Comparative analysis of methods for determining number of hidden neurons in artificial neural network“, In Central european conference on information and intelligent systems, 219-223, Lin R., You S., Rao R. and Kuo C.-C. J. (2021), „On Relationship of Multilayer Perceptrons and Picewise Polynomial Approximators“, IEEE Signal Processing Letters, 28, 1813-1817 beschrieben.A feedforward neural network (FNN) can be used to solve approximation problems. For example, FNNs are very suitable for approximating functions or time courses that are present as measured variables in a technical system, for example, as in Cybenko G., 1989, Approximation by superpositions of a sigmoidal function. Math. Control, Signals Syst, 2(4), 303-314 and Hornik K., Stinchcombe M., and White H., 1989, Multilayer feedforward networks are universal approximators, Neural Netw., 2(5), 359-366 described. To date, there is no method that mathematically describes the design of an FNN for approximation purposes with regard to the number of neurons and the activation function to be used, especially in the hidden layer of the FNN, see Aggarwal, C.C., 2018, Neural Networks and Deep Learning. Springer International Publishing or Silva I.N., Spatti D.H., Flauzino R.A., Liboni L. H.B., and Reis-Alves, S.F., 2017, Artificial Neural Networks: A Practical Course. Springer International Publishing, Switzerland. Common methods for designing FNNs for approximation purposes are usually based on heuristic methods. For this purpose, possible solutions with regard to finding a suitable activation function and/or a suitable number of neurons for the hidden layer are tried out empirically until the solution for a desired approximation is found, see Aggarwal, C.C., 2018, Neural Networks and Deep Learning. Springer International Publishing or Silva I.N., Spatti D.H., Flauzino R.A., Liboni L. H.B., and Reis-Alves, S.F., 2017, Artificial Neural Networks: A Practical Course. Springer International Publishing, Switzerland. Approximation methods are also discussed in Mhaskar H.N. and Khachikyan L. (1995), “Neural networks for function approximation”, Proceedings of 1995 IEEE Workshop on Neural Networks for Signal Processing, 21-29, K. Hornik (1993), “Some new results on neural network approximation”, Neural Netw., 6(8), 1069-1072, Scarselli F. and Tsoi A.C. (1998), "Universal approximation using feedforward neural networks: A survey of some existing methods, and some new results", Neural Netw., 11(1), 15-37., Hunter D., Yu H., Pukish M.S, Kolbusz J. and Wilamowski B.M. (2012), “Selection of Proper Neural Network Sizes and Architectures - A Comparative Study”, IEEE Transactions on Industrial Informatics, 8(2), 228-240, K. Gnana Sheela, S. N. Deepa (2013), “Review on Methods to Fix Number of Hidden Neurons in Neural Networks, Mathematical Problems in Engineering", Vujicic, T., Matijevic, T., Ljucovic, J., Balota, A., & Sevarac, Z. (2016), "Comparative analysis of methods for determining number of hidden neurons in artificial neural networks”, In Central european conference on information and intelligent systems, 219-223, Lin R., You S., Rao R. and Kuo C.-C. J. (2021), “On Relationship of Multilayer Perceptrons and Picewise Polynomial Approximators”, IEEE Signal Processing Letters, 28, 1813-1817.

Bestehende Lösungen arbeiten üblicherweise im Wesentlichen nach dem Probierprinzip (trial und error) und liefern lediglich proprietäre Lösungen auf Basis von Expertenwissen oder Dropout-Regularisierungsmethoden, welche die Anzahl der Neuronen variieren bis ein angestrebtes Ergebnis erreicht wird. Dabei kann beispielsweise ein Neuronales Netz (NN) mit hoch angesetzter Anzahl an Neuronen in mehreren Durchläufen angepasst, indem unwichtige Neuronen (geringe Gewichtung) nach jedem Trainingslauf gelöscht werden und anschließend die Qualität der Approximation betrachtet wird. Wird diese nicht schlechter, war die Anpassung erfolgreich und der Prozess wiederholt sich, wird dieses schlechter, muss eine andere Anpassung gemacht werden bzw. eine angemessene Anzahl an Neuronen wurde bereits beim vorherigen Schritt erreicht. Somit besteht diese Methode aus einem iterativen Prozess, der oftmals sehr zeitintensiv ist, da viele Testdurchläufe notwendig sind, um akzeptable Ergebnisse erzielen zu können. Oftmals ist die Qualität der Approximation von dem individuell vorhandenen Expertenwissen bzw. von der Regularisierungsmethode abhängig, besitzt eine schlechte Nachvollzieh- und Reproduzierbarkeit und ist nicht allgemeingültig auf andere Approximationsaufgaben übertragbar.Existing solutions usually work essentially on a trial and error basis and only provide proprietary solutions based on expert knowledge or dropout regularization methods that vary the number of neurons until a desired result is achieved. For example, a neural network (NN) with a high number of neurons can be adapted in several runs by deleting unimportant neurons (low weighting) after each training run and then looking at the quality of the approximation. If this does not get worse, the adaptation was successful and the process repeats itself. If this gets worse, another adaptation must be made or an appropriate number of neurons has already been achieved in the previous step. This method therefore consists of an iterative process that is often very time-consuming, as many test runs are necessary to achieve acceptable results. The quality of the approximation often depends on the individual expert knowledge or the regularization method, has poor comprehensibility and reproducibility and is not generally transferable to other approximation tasks.

Aufgabe der ErfindungTask of the invention

Es wäre daher wünschenswert, Verfahren und Vorrichtungen bereitzustellen, welche die Nachteile bekannter Verfahren und Vorrichtungen zumindest weitgehend vermeiden. Insbesondere soll eine automatische, schnelle sowie reproduzierbare Erstellung einer optimalen Struktur eines FNN zur bestmöglichen Approximation von Funktionen oder allgemeinen Zeitverläufen ermöglicht werden.It would therefore be desirable to provide methods and devices which at least largely avoid the disadvantages of known methods and devices. In particular, the aim is to enable automatic, fast and reproducible creation of an optimal structure of an FNN for the best possible approximation of functions or general time courses.

Allgemeine Beschreibung der ErfindungGeneral description of the invention

Diese Aufgabe wird adressiert durch ein computer-implementiertes Verfahren zum Erstellen eines Feedforward Neural Network zum Lösen von mindestens einer Approximationsaufgabe, ein computer-implementiertes Verfahren zur Systemidentifikation eines Single Input Single Output oder Multiple Input Multiple Output Systems, ein computer-implementiertes Verfahren zum Erstellen eines Softsensors, ein Messverfahren unter Verwendung eines Softsensors, einen Softsensor und eine Verwendung eines Softsensors mit den Merkmalen der unabhängigen Patentansprüche. Vorteilhafte Weiterbildungen, welche einzeln oder in beliebiger Kombination realisierbar sind, sind in den abhängigen Ansprüchen dargestellt.This task is addressed by a computer-implemented method for creating a feedforward neural network for solving at least one approximation task, a computer-implemented method for system identification of a single input single output or multiple input multiple output system, a computer-implemented method for creating a Softsensors, a measuring method using a softsensor, a softsensor and a use of a softsensor with the features of the independent claims. Advantageous developments, which can be implemented individually or in any combination, are presented in the dependent claims.

Im Folgenden werden die Begriffe „haben“, „aufweisen“, „umfassen“ oder „einschließen“ oder beliebige grammatikalische Abweichungen davon in nicht-ausschließlicher Weise verwendet. Dementsprechend können sich diese Begriffe sowohl auf Situationen beziehen, in welchen, neben den durch diese Begriffe eingeführten Merkmalen, keine weiteren Merkmale vorhanden sind, oder auf Situationen, in welchen ein oder mehrere weitere Merkmale vorhanden sind. Beispielsweise kann sich der Ausdruck „A hat B“, „A weist B auf“, „A umfasst B“ oder „A schließt B ein“ sowohl auf die Situation beziehen, in welcher, abgesehen von B, kein weiteres Element in A vorhanden ist (d.h. auf eine Situation, in welcher A ausschließlich aus B besteht), als auch auf die Situation, in welcher, zusätzlich zu B, ein oder mehrere weitere Elemente in A vorhanden sind, beispielsweise Element C, Elemente C und D oder sogar weitere Elemente.Below, the terms “have,” “have,” “comprise,” or “include,” or any grammatical variations thereof, are used in a non-exclusive manner. Accordingly, these terms can refer both to situations in which, in addition to the features introduced by these terms, no further features are present, or to situations in which one or more further features are present. For example, the expression "A has B", "A includes B", "A includes B" or "A includes B" can refer to the situation in which, apart from B, no other element is present in A (i.e. to a situation in which A consists exclusively of B), as well as to the situation in which, in addition to B, one or more other elements are present in A, for example element C, elements C and D or even other elements .

Weiterhin wird darauf hingewiesen, dass die Begriffe „mindestens ein“ und „ein oder mehrere“ sowie grammatikalische Abwandlungen dieser Begriffe, wenn diese in Zusammenhang mit einem oder mehreren Elementen oder Merkmalen verwendet werden und ausdrücken sollen, dass das Element oder Merkmal einfach oder mehrfach vorgesehen sein kann, in der Regel lediglich einmalig verwendet werden, beispielsweise bei der erstmaligen Einführung des Merkmals oder Elementes. Bei einer nachfolgenden erneuten Erwähnung des Merkmals oder Elementes wird der entsprechende Begriff „mindestens ein“ oder „ein oder mehrere“ in der Regel nicht mehr verwendet, ohne Einschränkung der Möglichkeit, dass das Merkmal oder Element einfach oder mehrfach vorgesehen sein kann.Furthermore, it should be noted that the terms “at least one” and “one or more” as well as grammatical variations of these terms when used in connection with one or more elements or features and are intended to express that the element or feature is provided single or multiple times can usually only be used once, for example when the feature or element is introduced for the first time. If the feature or element is subsequently mentioned again, the corresponding term “at least one” or “one or more” is generally no longer used, without limiting the possibility that the feature or element can be provided once or multiple times.

Weiterhin werden im Folgenden die Begriffe „vorzugsweise“, „insbesondere“, „beispielsweise“ oder ähnliche Begriffe in Verbindung mit optionalen Merkmalen verwendet, ohne dass alternative Ausführungsformen hierdurch beschränkt werden. So sind Merkmale, welche durch diese Begriffe eingeleitet werden, optionale Merkmale, und es ist nicht beabsichtigt, durch diese Merkmale den Schutzumfang der Ansprüche und insbesondere der unabhängigen Ansprüche einzuschränken. So kann die Erfindung, wie der Fachmann erkennen wird, auch unter Verwendung anderer Ausgestaltungen durchgeführt werden. In ähnlicher Weise werden Merkmale, welche durch „in einer Ausführungsform der Erfindung“ oder durch „in einem Ausführungsbeispiel der Erfindung“ eingeleitet werden, als optionale Merkmale verstanden, ohne dass hierdurch alternative Ausgestaltungen oder der Schutzumfang der unabhängigen Ansprüche eingeschränkt werden soll. Weiterhin sollen durch diese einleitenden Ausdrücke sämtliche Möglichkeiten, die hierdurch eingeleiteten Merkmale mit anderen Merkmalen zu kombinieren, seien es optionale oder nicht-optionale Merkmale, unangetastet bleiben.Furthermore, the terms “preferably”, “in particular”, “for example” or similar terms are used below in connection with optional features, without this limiting alternative embodiments. Thus, features introduced by these terms are optional features and these features are not intended to limit the scope of protection of the claims and in particular the independent claims. Thus, as those skilled in the art will recognize, the invention can also be carried out using other embodiments. Similarly, features introduced by “in an embodiment of the invention” or by “in an embodiment of the invention” are understood to be optional features, without this being intended to limit alternative embodiments or the scope of protection of the independent claims. Furthermore, these introductory expressions should remain unaffected by all possibilities of combining the features introduced here with other features, be they optional or non-optional features.

In einem ersten Aspekt der vorliegenden Erfindung wird ein computer-implementiertes Verfahren zum Erstellen eines Feedforward Neural Network (FNN) zum Lösen von mindestens einer Approximationsaufgabe vorgeschlagen. Das FNN umfasst mindestens eine Eingabeschicht, mindestens eine verdeckte Schicht und mindestens eine Ausgabeschicht. Das Lösen von mindestens einer Approximationsaufgabe umfasst eine Approximation von einem oder mehreren von mindestens einer Funktion y(x), mindestens eines Vektors Y(X, t) oder mindestens einem messtechnisch ermittelten, analogen oder digitalen, Zeitverlauf y(t).In a first aspect of the present invention, a computer-implemented method for creating a feedforward neural network (FNN) for solving at least one approximation task is proposed. The FNN includes at least one input layer, at least one hidden layer and at least one output layer. Solving at least one approximation problem includes an approximation of one or more of at least one function y(x), at least one vector Y(X, t) or at least one measured, analog or digital, time course y(t).

Der Begriff „computer-implementiert“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf ein computer-implementierbares und automatisierbares Verfahren beziehen. Der Begriff kann, ohne Beschränkung, sich insbesondere auf ein Verfahren beziehen welches mindestens einen Computer und/oder mindestens ein Computer-Netzwerk involviert. Der Computer und/oder das Computer-Netzwerk können mindestens einen Prozessor umfassen, wobei der Prozessor dazu eingerichtet ist, mindestens einen Verfahrensschritt des Verfahrens der Erfindung durchzuführen. Bevorzugt wird jeder der Verfahrensschritte jeweils von dem Computer und/oder dem Computer-Netzwerk durchgeführt.The term "computer-implemented" as used herein is a broad term that should be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted meaning. The term can, without limitation, refer in particular to a computer-implementable and automatable method. The term can, without limitation, refer in particular to a method which involves at least one computer and/or at least one computer network. The computer and/or the computer network can comprise at least one processor, the processor being set up to carry out at least one method step of the method of the invention. Each of the method steps is preferably carried out by the computer and/or the computer network.

Das Verfahren kann vollständig automatisch durchgeführt werden. Eine Konfiguration eines FNN kann automatisch erfolgen. Der Begriff „automatisch“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf einen Prozess beziehen, welcher vollständig durch einen Computer und/oder ein Computer-Netzwerk, insbesondere einer Cloud, und/oder eine Maschine insbesondere ohne Benutzerinteraktion und/oder manuelles Eingreifen durchgeführt wird. Eine Benutzerinteraktion kann erforderlich sein, um den Prozess einzuleiten. Die automatische Konfiguration eines FNN kann eine signifikante Erhöhung der Qualität des FNN, insbesondere eine hohe Reproduzierbarkeit, ermöglichen.The procedure can be carried out completely automatically. An FNN can be configured automatically. The term "automatic" as used herein is a broad term that should be given its ordinary and common meaning as those skilled in the art would understand she understands. The term is not limited to a special or adapted meaning. The term can, without limitation, refer in particular to a process which is carried out entirely by a computer and/or a computer network, in particular a cloud, and/or a machine in particular without user interaction and/or manual intervention. User interaction may be required to initiate the process. The automatic configuration of an FNN can enable a significant increase in the quality of the FNN, in particular high reproducibility.

Der Begriff „Feedforward Neural Network“, auch als vorwärtsgerichtetes Netz oder vorwärtsfortschreibendes Netzwerk bezeichnet, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf ein neuronales Netzwerk beziehen, in welchem Signale von der Eingangsschicht nur in Richtung der Ausgangsschicht laufen. Das FNN kann ein neuronales Netzwerk ohne Rückkopplung sein. Das FNN kann beispielsweise mindestens ein Singlelayer Perzeptron oder mindestens ein Multilayer Perzeptron (MLPs) aufweisen. MLPs können eine Mehrzahl von Schichten aufweisen, welche typischerweise in einem Feed-Forward-Verfahren miteinander verbunden sind. Jedes Neuron in einer Schicht kann mindestens eine vorwärtsgerichtete Verbindung zu den Neuronen der nachfolgenden Schicht aufweisen.The term “feedforward neural network,” also referred to as a feedforward network or feedforward network, as used herein is a broad term that should be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted meaning. The term can, without limitation, refer in particular to a neural network in which signals from the input layer only travel towards the output layer. The FNN can be a non-feedback neural network. The FNN can, for example, have at least one single-layer perceptron or at least one multilayer perceptron (MLPs). MLPs can have a plurality of layers, which are typically connected to one another in a feed-forward process. Each neuron in a layer can have at least one forward connection to the neurons of the subsequent layer.

Der Begriff „Eingabeschicht“ wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Schicht des FNN beziehen, welche eingerichtet ist Inputdaten aufzunehmen, insbesondere mindestens einen Eingabewert. Die Eingabeschicht kann eine Mehrzahl von Neuronen aufweisen. Die Anzahl der Neuronen der Eingabeschicht kann einer Anzahl der Eingabewerte entsprechen. Der Begriff „Ausgabeschicht“ wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Schicht des FNN beziehen, welche eingerichtet ist, ein Ergebnis des FNN auszugeben. Eine Anzahl von Neuronen der Ausgabeschicht kann von einem Typ des zu lösenden Problems abhängig sein. Der Begriff „verdeckte Schicht“, auch als hidden layer bezeichnet, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Schicht des FNN beziehen, welche zwischen der Eingabe- und der Ausgabeschicht angeordnet ist. Das FNN kann eine Mehrzahl von verdeckten Schichten aufweisen. Die Anzahl von verdeckten Schichten kann abhängig von einem Anwendungsfall, beispielsweise eine Komplexität einer zu Approximierenden Funktion sein.The term “input layer” as used herein is a broad term that should be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted meaning. The term can, without limitation, refer in particular to a layer of the FNN which is set up to receive input data, in particular at least one input value. The input layer may have a plurality of neurons. The number of neurons of the input layer can correspond to a number of the input values. The term “output layer” as used herein is a broad term that should be given its ordinary and conventional meaning as understood by those skilled in the art. The term is not limited to a special or adapted meaning. The term can, without limitation, refer in particular to a layer of the FNN which is set up to output a result of the FNN. A number of output layer neurons may depend on a type of problem to be solved. The term "hidden layer", also referred to as hidden layer, as used herein is a broad term which should be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted meaning. The term may, without limitation, refer in particular to a layer of the FNN located between the input and output layers. The FNN can have a plurality of hidden layers. The number of hidden layers can depend on an application, for example the complexity of a function to be approximated.

Jedes Neuron kann Eingaben, insbesondere Zahlenwerte, beispielsweise von Neuronen der vorangehenden Schicht, mit einer Gewichtung empfangen, und diese Produkte (Gewicht*Zahlenwert) aufaddieren. Jedes Neuron kann weiter die Produkte mit einem Bias versehen. Das Neuron kann eingerichtet sein sich zu aktivieren, wenn der so bestimme Wert oberhalb eines Schwellenwerts ist, und einen aktivierten Ausgabewert auszugeben (beispielsweise 1). Andernfalls, wenn der Wert unterhalb des Schwellenwerts liegt, kann das Neuron einen deaktivierten Ausgabewert ausgeben (beispielsweise 0). Der Schwellenwert und der Ausgabewert des Neurons kann mittels einer sogenannten Aktivierungsfunktion eingestellt werden. Die Aktivierungsfunktion kann beispielsweise eine Tangens-Hyperbolikus- , oder Sigmoidfunktion oder eine Funktion von vergleichbarer Charakteristik aufweisen.Each neuron can receive inputs, in particular numerical values, for example from neurons in the previous layer, with a weight, and add up these products (weight*numerical value). Each neuron can further bias the products. The neuron can be set up to activate when the value determined in this way is above a threshold value and to output an activated output value (for example 1). Otherwise, if the value is below the threshold, the neuron may output a disabled output value (e.g. 0). The threshold value and the output value of the neuron can be set using a so-called activation function. The activation function can, for example, have a tangent hyperbolic or sigmoid function or a function with comparable characteristics.

Der Begriff „Erstellen eines FNN“ wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eines oder mehreres von einem Bestimmen von einstellbaren Parametern (wie beispielsweise Anzahl an Neuronen, Anzahl an Schichten, Werte von Gewichtungskoeffizienten, Werte von Biaskoeffizienten) eines FNN, Festlegen von einstellbaren Parametern eines FNN, ein Auslegen eines FNN beziehen. Das Erstellen eines FNN kann ein Bestimmen einer Anzahl an Neuronen zur Approximation von mindestens einer Funktion y(x), des mindestens einen Vektors Y(X, t) oder mindestens eines Zeitverlaufs y(t) in der verdeckten Schicht umfassen. Das Erstellen eines FNN kann weiter ein Bestimmen von einer jeweiligen Aktivierungsfunktion für die Neuronen der verdeckten Schicht umfassen. Das Erstellen eines FNN kann ein Bestimmen von Gewichtungskoeffizienten und Biaskoeffizienten umfassen, wie weiter unten beschrieben wird.The term “creating an FNN” as used herein is a broad term that should be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted meaning. The term can, without limitation, refer in particular to one or more of determining adjustable parameters (such as number of neurons, number of layers, values of weighting coefficients, values of bias coefficients) of an FNN, setting adjustable parameters of an FNN, an interpretation of an FNN. Creating an FNN may include determining a number of neurons to approximate at least one function y(x), the at least one vector Y(X, t), or at least one time course y(t) in the hidden layer. Creating an FNN may further include determining a respective activation function for the hidden layer neurons. Creating an FNN may include determining weighting coefficients and bias coefficients, as described below.

Der Begriff „Lösen von mindestens einer Approximationsaufgabe“ wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf ein Bestimmen von Parametern einer Funktionsannäherung von einem oder mehreren von mindestens einer Funktion y(x) (bspw. im Fall von SISO Systemen), bzw. mindestens eines Vektors Y(X, t) (bspw. im Fall von MIMO Systemen), oder mindestens einem messtechnisch ermittelten, analogen oder digitalen, Zeitverlauf y(t) beziehen. Hierin, wird zur Vereinfachung auf Funktionen y(x) Bezug genommen, wobei analoges für Vektoren Y(X, t) gilt. Die Funktion y(x) kann dabei eine beliebige, insbesondere unbekannte, Funktion sein. Der Zeitverlauf kann ein beliebiger zeitlicher Verlauf einer Messgröße sein, beispielsweise Messdaten yn(tn). Das Lösen von mindestens einer Approximationsaufgabe kann eine Approximation ỹK eines zum Beispiel messtechnisch ermittelten Zeitverlaufs yn(tn) oder einer unbekannten Funktion y(x) umfassen. Die Signale können sowohl analog als auch diskret sein.The term “solving at least one approximation problem” as used here, is a broad term which should be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted meaning. The term can, without limitation, refer in particular to determining parameters of a functional approximation of one or more of at least one function y(x) (e.g. in the case of SISO systems), or at least one vector Y(X, t) ( e.g. in the case of MIMO systems), or at least one measured, analog or digital, time course y(t). Here, for simplicity, reference is made to functions y(x), whereby the same applies to vectors Y(X, t). The function y(x) can be any, especially unknown, function. The time course can be any time course of a measured variable, for example measurement data y n (t n ). Solving at least one approximation problem can include an approximation ỹ K of a time course y n (t n ) determined by measurement, for example, or an unknown function y(x). The signals can be both analog and discrete.

Die Verfahrensschritte können in der angegebenen Reihenfolge durchgeführt werden, wobei einer oder mehrere der Schritte zumindest teilweise auch gleichzeitig durchgeführt werden können und wobei einer oder mehrere der Schritte mehrfach wiederholt werden können. Darüber hinaus können weitere Schritte unabhängig davon, ob sie in der vorliegenden Anmeldung erwähnt werden oder nicht, zusätzlich ausgeführt werden.The method steps can be carried out in the specified order, whereby one or more of the steps can also be carried out at least partially simultaneously and whereby one or more of the steps can be repeated several times. In addition, further steps may be additionally carried out, regardless of whether they are mentioned in the present application or not.

Das Verfahren umfasst die folgenden Schritte:

  1. a) Vorgeben mindestens einer Funktion y(x), mindestens eines Vektors Y(X, t) oder messtechnisches Ermitteln mindestens eines analogen oder digitalen Zeitverlaufs y(t) in einem Intervall [L,U];
  2. b) Bestimmen von einer Anzahl von Wendepunkten W in dem Intervall [L,U] und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht als K≥W;
  3. c) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizienten und Biaskoeffizienten unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst.
The procedure includes the following steps:
  1. a) specifying at least one function y(x), at least one vector Y(X, t) or measuring at least one analog or digital time curve y(t) in an interval [L,U];
  2. b) determining a number of turning points W in the interval [L,U] and setting a minimum number of neurons K in the hidden layer as K≥W;
  3. c) determining activation functions of the hidden layer neurons, wherein determining the activation functions includes determining respective weighting coefficients and bias coefficients using a backpropagation algorithm (BPA).

Das Verfahren kann auf Basis von analytischen Überlegungen ein Erstellen eines FNN ermöglichen, welches eine Approximation ỹK eines zum Beispiel messtechnisch ermittelten Zeitverlaufs yn(tn) oder einer unbekannten Funktion y(x) (bzw. Vektors Y(X, t)) beschreibt. Das Erstellen eines FNN für Approximationsaufgaben kann auf einer analytischen Betrachtung beliebiger y(x) (bzw. Y(X, t)) oder y(t) in einem Intervall [L, U] basieren. Anhand der vorliegenden Anzahl der Wendepunkte von y(x) (bzw. Y(X, t)) oder y(t) kann die kleinste Anzahl K an Neuronen in der verdeckten Schicht ermittelt werden, die mindestens erforderlich ist, um sowohl einen Zeitverlauf y(t), aber auch den Verlauf einer Funktion y(x) (bzw. Y(X, t)) optimal approximieren zu können. Da y(t) ≈ yn(tn) wird im weiteren Verlauf zur Vereinfachung für beide y(t) verwendet. Mittels des Verfahrens kann ein Erstellen eines FNN für Approximationsaufgaben automatisierbar sein. Das vorliegende Verfahren kann die übliche empirische Vorgehensweise mit dem Nachteil der teilweise sehr zeitintensiven Strukturoptimierung eines neuronalen Netzwerkes auf Basis eines analytischen Ansatzes ersetzen. Ein Vorteil des Verfahrens kann darin liegen, dass der bisher iterativ durchgeführte Prozess zum Erstellen eines FNN für Approximationsaufgaben in einem Arbeitsschritt durchgeführt werden kann. Eine optimale Approximation von Funktionen oder Zeitverläufen kann so ermöglicht werden. Eine Automatisierung des Entwicklungsprozesses kann mit besserer Zuverlässigkeit und Reproduzierbarkeit, im Vergleich zu bekannten Methoden, ermöglicht werden.Based on analytical considerations, the method can enable the creation of an FNN, which provides an approximation ỹ K of a time course y n (t n ) determined by measurement, for example, or an unknown function y(x) (or vector Y(X, t)). describes. Creating an FNN for approximation tasks can be based on an analytical consideration of any y(x) (or Y(X, t)) or y(t) in an interval [L, U]. Based on the existing number of turning points of y(x) (or Y(X, t)) or y(t), the smallest number K of neurons in the hidden layer can be determined, which is the minimum required to produce both a time course y (t), but also to be able to optimally approximate the course of a function y(x) (or Y(X, t)). Since y(t) ≈ y n (t n ) is used for both y(t) in the following for simplification. Using the method, it can be possible to automate the creation of an FNN for approximation tasks. The present method can replace the usual empirical approach with the disadvantage of the sometimes very time-consuming structural optimization of a neural network based on an analytical approach. An advantage of the method may be that the previously iterative process of creating an FNN for approximation tasks can be carried out in one step. An optimal approximation of functions or time courses can thus be made possible. Automation of the development process can be enabled with better reliability and reproducibility compared to known methods.

Die Schritte a) bis c) können jeweils vollständig automatisch durchgeführt werden. Der Begriff „vollständig automatisch“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere darauf beziehen, dass die Schritte a) bis c) jeweils vollständig durch einen Computer und/oder ein Computer-Netzwerk, insbesondere einer Cloud, insbesondere ohne Benutzerinteraktion und/oder manuelles Eingreifen durchgeführt wird. Eine Benutzerinteraktion kann erforderlich sein, um die einzelnen Schritte jeweils einzuleiten. Die Benutzerinteraktion kann das Auswählen von mindestens einem Datensatz und/oder das Eingeben mindestens eines Befehls umfassen.Steps a) to c) can each be carried out completely automatically. The term “fully automatic” as used herein is a broad term that should be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted meaning. The term can, without limitation, refer in particular to the fact that steps a) to c) are each carried out entirely by a computer and/or a computer network, in particular a cloud, in particular without user interaction and/or manual intervention. User interaction may be required to initiate each step. The user interaction may include selecting at least one record and/or entering at least one command.

Das Verfahren kann ermöglichen, den Prozess zum Erstellen eines FNN mit angemessener bzw. optimaler Anzahl an Neuronen zur Lösung von Approximationsaufgaben in einem einmaligen Schritt durchzuführen. Die Rechenintensität kann so deutlich verringert werden. Das Verfahren kann auf einer analytischen Betrachtung, und nicht auf dem trial and error Prinzip, basieren, so dass für messtechnisch ermittelte Zeitverläufe y(t) ein allgemeingültiges Verfahren zur Auslegung eines FNN mit einer definierten Anzahl an Neuronen ermöglicht werden kann. Dadurch kann die Zuverlässigkeit sowie die Nachvollzieh- und Reproduzierbarkeit erhöht werden.The method can enable the process of creating an FNN with an appropriate or optimal number of neurons to solve approximation tasks to be carried out in a one-time step. The computing intensity can be significantly reduced. The method can be based on an analytical consideration and not on the trial and error principle, so that a generally valid method for designing an FNN with a defined number of neurons can be made possible for time courses y (t) determined by measurement. This can increase reliability as well as the traceability and reproducibility can be increased.

In bekannten Verfahren, wie beispielsweise in EP 1 327 959 A2 beschrieben, werden mit neuronalen Netzen Approximationsaufgaben gelöst, um dann eine Systemidentifikation umzusetzen. In diesen Verfahren basiert die Entwicklung des neuronalen Netzes jedoch im Wesentlichen auf einer heuristischen Vorgehensweise mit der oben bereits beschriebenen Problematik. Ohne Wissen über ein optimal ausgelegtes neuronales Netz für die jeweilige Approximationsaufgabe erfolgt u.a. aus den Gewichtungen der Propagierungsfunktion, die als Systemparameter betrachtet werden, eine Systemidentifikation. Die vorliegende Erfindung schlägt dagegen eine analytische und reproduzierbare sowie eine deutlich vereinfachte Umsetzung von Approximationsaufgaben für die Umsetzung einer Systemidentifikation vor.In known methods, such as in EP 1 327 959 A2 described, approximation tasks are solved using neural networks in order to then implement system identification. In these methods, however, the development of the neural network is essentially based on a heuristic approach with the problems already described above. Without knowledge of an optimally designed neural network for the respective approximation task, a system identification occurs, among other things, from the weights of the propagation function, which are viewed as system parameters. The present invention, on the other hand, proposes an analytical and reproducible as well as a significantly simplified implementation of approximation tasks for the implementation of a system identification.

Der Begriff „Vorgeben“ mindestens einer Funktion y(x) (bzw. Y(X, t)) oder messtechnisches Ermitteln mindestens eines Zeitverlaufs y(t) in einem Intervall [L,U], wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eines oder mehreres von Durchführen mindestens einer Messung, Erfassen von Messdaten, Bereitstellen, beispielsweise durch Laden, insbesondere ein Importieren, und/oder ein Generieren mindestens eines Datensatzes beziehen.The term “specifying” at least one function y(x) (or Y(X, t)) or metrologically determining at least one time course y(t) in an interval [L,U], as used here, is a broad one Term to be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted meaning. The term can, without limitation, refer in particular to one or more of carrying out at least one measurement, acquiring measurement data, making available, for example by loading, in particular importing, and/or generating at least one data set.

Das Bestimmen der Anzahl der Wendepunkte kann ein Unterteilen des Intervalls [L,U] der zu approximierenden Funktion y(x) (bzw. Y(X, t)) oder des zu approximierenden Zeitverlaufs y(t) in insgesamt K Subintervalle [ΔLm,ΔUm] ∈ [L,U] mit m ∈ K umfassen. Grenzen der Subintervalle können durch y'(ΔLm)=0 und y'(ΔUm)=0 berechnet werden, wobei im Falle eines Zeitverlaufes y ' = d y d t

Figure DE102023205425A1_0001
und für eine Funktion y ' = d y d x
Figure DE102023205425A1_0002
gilt.Determining the number of turning points can involve dividing the interval [L,U] of the function y(x) (or Y(X, t)) to be approximated or the time course y(t) to be approximated into a total of K subintervals [ΔL m ,ΔU m] ∈ [L,U] with m ∈ K. Boundaries of the subintervals can be calculated by y'(ΔL m )=0 and y'(ΔU m )=0, where in the case of a time course y ' = d y d t
Figure DE102023205425A1_0001
and for a function y ' = d y d x
Figure DE102023205425A1_0002
applies.

Die zu approximierende Funktion y(x) (bzw. Y(X, t)) oder der zu approximierende Zeitverlauf y(t) können in den Subintervallen streng monoton steigend oder fallend sein und die erste Ableitung muss einen Vorzeichenwechsel aufweisen. In jedem Subintervall kann dann genau ein Wendepunkt der zu approximierenden Funktion y(x) (bzw. Y(X, t)) oder des zu approximierenden Zeitverlaufs y(t) vorliegen. Die Aktivierungsfunktion für eine Approximation einer derartigen Funktion y(x) (bzw. Y(X, t)) oder eines derartigen Zeitverlaufs y(t) innerhalb eines zeitlichen Subintervalls durch ein entsprechendes Neuron aus der verdeckten Schicht, kann ebenfalls streng monoton steigend oder fallend sein. Dieses ermöglicht eine möglichst gute Approximation. Beispiele für Aktivierungsfunktionen können beispielsweise die Gruppe der Sigmoidfunktionen oder eine Tangens-Hyperbolikusfunktion, oder eine Funktion vergleichbarer Charakteristik sein. Denkbar ist auch der Einsatz einer Signumfunktion.The function y(x) (or Y(X, t)) to be approximated or the time course y(t) to be approximated can be strictly monotonically increasing or decreasing in the subintervals and the first derivative must have a sign change. In each subinterval there can then be exactly one turning point of the function y(x) to be approximated (or Y(X, t)) or of the time course y(t) to be approximated. The activation function for an approximation of such a function y(x) (or Y(X, t)) or such a time course y(t) within a time subinterval by a corresponding neuron from the hidden layer can also be strictly monotonically increasing or decreasing be. This enables the best possible approximation. Examples of activation functions can be, for example, the group of sigmoid functions or a tangent hyperbolic function, or a function with comparable characteristics. The use of a sign function is also conceivable.

Das Bestimmen der Aktivierungsfunktionen umfasst ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines BPA. Der BPA kann mindestens einen Algorithmus aufweisen aus der Gruppe bestehend beispielsweise aus: einem Bayesian regularization Backpropagation-Algorithmus, oder einem Levenberg-Marquardt Backpropagation-Algorithmus. Beispielsweise kann der BPA wie in EP 1 327 959 A2 oder in Hecht-Nielsen R. (1989) „Theory of the backpropagation neural network“ International 1989 Joint Conference on Neural Networks, 1, 593-605.beschrieben ausgestaltet sein.Determining the activation functions includes determining respective weighting coefficient and bias coefficient using a BPA. The BPA can have at least one algorithm from the group consisting, for example, of: a Bayesian regularization backpropagation algorithm, or a Levenberg-Marquardt backpropagation algorithm. For example, the BPA can be as in EP 1 327 959 A2 or in Hecht-Nielsen R. (1989) “Theory of the backpropagation neural network” International 1989 Joint Conference on Neural Networks, 1, 593-605.

Das Verfahren kann ein Bestimmen der Approximation der Funktion y(x) (bzw. Y(X, t)) oder des Zeitverlauf y(t) unter Verwendung der in c) bestimmten Aktivierungsfunktionen aus der verdeckten Schicht und einem Neuron der Ausgabeschicht, welches die K Aktivierungsfunktionen aus der verdeckten Schicht überlagert, umfassen. Das Überlagern kann ein Aufsummieren umfassen. Gewichtungskoeffizienten und Biaskoeffizienten der Ausgabeschicht können durch einen BPA, beispielsweise einen der bereits erwähnten BPA, bestimmt werden.The method can determine the approximation of the function y(x) (or Y(X, t)) or the time course y(t) using the activation functions determined in c) from the hidden layer and a neuron in the output layer, which is the K activation functions superimposed from the hidden layer include. Overlaying may include summing. Weighting coefficients and bias coefficients of the output layer can be determined by a BPA, for example one of the BPAs already mentioned.

Das Verfahren kann eine Ausgabe einer Approximation der Funktion y(x) (bzw. Y(X, t)) oder des Zeitverlauf y(t) umfassen. Die Ausgabe kann unter Verwendung einer Schnittstelle erfolgen. Der Begriff „Schnittstelle“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf ein Element beziehen, welches eingerichtet ist Informationen zu übertragen. Die Schnittstelle kann eine Kommunikationsschnittstelle, insbesondere eine Datenschnittstelle sein. Die Schnittstelle kann mindestens eine elektronische Schnittstelle und/oder eine Mensch-Maschine-Schnittstelle aufweisen, wie beispielsweise eine Eingabe-/Ausgabe-Vorrichtung wie ein Display und/oder eine Tastatur. Die Schnittstelle kann mindestens eine Datenverbindung aufweisen, beispielweise eine Bluetooth-Verbindung, eine NFC-Verbindung oder eine andere Verbindung. Die Schnittstelle kann mindestens ein Netzwerk aufweisen oder Teil eines Netzwerkes sein. Die Schnittstelle kann mindestens einen Internet-Port, mindestens einen USB-Port, mindestens ein Laufwerk oder ein Webinterface aufweisen. Die Schnittstelle kann ein Element des Computers und/oder des Computer-Netzwerks sein.The method may include an output of an approximation of the function y(x) (or Y(X, t)) or the time course y(t). Output can be done using an interface. The term “interface” as used herein is a broad term that should be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted meaning. The term can, without limitation, refer in particular to an element that is set up to transmit information. The interface can be a communication interface, in particular a data interface. The interface may include at least one of an electronic interface and a human-machine interface, such as an input/output device such as a display and/or a keyboard. The interface can have at least one data connection, for example a Bluetooth connection, an NFC connection or another connection. The interface can comprise or be part of at least one network be network. The interface may include at least one Internet port, at least one USB port, at least one drive or a web interface. The interface can be an element of the computer and/or the computer network.

Im Folgenden werden beispielhaft Verfahrensschritte b) und c) für Zeitverläufe betrachtet. Vergleichbares lässt sich auch für Funktionen umsetzen, wie der Fachmann sofort erkennt. In the following, process steps b) and c) for time courses are considered as examples. Similar things can also be implemented for functions, as the expert will immediately recognize.

Für einen beliebigen Zeitverlauf kann in einem beliebigen zeitlichen Subintervall, dass für y(t) mit streng monoton steigendem oder fallendem Zeitverlauf und einem Vorzeichenwechsel in y' genau ein Wendepunkt W in diesem Subintervall vorliegen. Die Anzahl der Wendepunkte W von y(t) im gesamten Zeitintervall [L, U] kann dann die Minimalzahl K der zu verwendenden Neuronen innerhalb der verdeckten Schicht eines FNN definieren, die mindestens erforderlich ist, um eine optimale Approximation für den entsprechenden Zeitverlauf y(t) zu erzielen. Durchgeführte Simulationen zeigen, dass, wenn die Anzahl K der verwendeten Neuronen unterhalb des Wertes W liegt, die erzielbare Approximationsqualität des FNN deutlich schlechter ausfallen.For any time course, in any time subinterval that for y(t) with a strictly monotonically rising or falling time course and a sign change in y', there can be exactly one turning point W in this subinterval. The number of turning points W of y(t) in the entire time interval [L, U] can then define the minimum number K of neurons to be used within the hidden layer of an FNN, which is at least required to obtain an optimal approximation for the corresponding time course y( t) to achieve. Simulations carried out show that if the number K of neurons used is below the value W, the achievable approximation quality of the FNN is significantly worse.

Für die optimale Approximation des Zeitverlaufs y(t) innerhalb eines zeitlichen Subintervalls [ΔLm, ΔUm] durch ein entsprechendes Neuron aus der verdeckten Schicht kann die dafür benötigte Aktivierungsfunktion a(um(t)) ebenfalls streng monoton steigend oder fallend sein. So kann eine möglichst gute Anpassung an den Zeitverlauf y(t) im Subintervall [ΔLm,ΔUm]) erreicht werden.For the optimal approximation of the time course y(t) within a temporal subinterval [ΔL m , ΔU m ] by a corresponding neuron from the hidden layer, the activation function a(u m (t)) required for this can also be strictly monotonically increasing or decreasing. In this way, the best possible adaptation to the time course y(t) in the subinterval [ΔL m ,ΔU m ]) can be achieved.

Beispielsweise kann der Zeitverlauf y(t) eine Lösung von linearen Differentialgleichungen beliebiger Ordnung oder schwach nichtlinearen Differentialgleichungen erster Ordnung zum Beispiel vom Typ Lotka-Volterra sein. Derartige Zeitverläufe y(t) können durch die in einer Hyperbolikus-Funktion enthaltene e-Funktion geprägt sein. Beispielsweise kann für die Approximation der Zeitverläufe eine Tangens-Hyperbolikus Funktion als Hauptbestandteil der Aktivierungsfunktion a(um(t)) verwendet werden. Die Aktivierungsfunktion a(um(t)) des m-ten Neurons in der verdeckten Schicht, hier mit {1} bezeichnet, kann beispielsweise den folgenden Zeitverlauf aufweisen a ( u m ( t ) ) = 2 1 + e 2 u m ( t ) + 1.

Figure DE102023205425A1_0003
For example, the time course y(t) can be a solution of linear differential equations of any order or weakly nonlinear first-order differential equations, for example of the Lotka-Volterra type. Such time courses y(t) can be characterized by the e-function contained in a hyperbolic function. For example, a tangent hyperbolic function can be used as the main component of the activation function a(u m (t)) to approximate the time courses. The activation function a(u m (t)) of the mth neuron in the hidden layer, denoted here by {1}, can, for example, have the following time course a ( u m ( t ) ) = 2 1 + e 2 u m ( t ) + 1.
Figure DE102023205425A1_0003

Zur Skalierung von a (um (t)) kann eine sogenannte Propagierungsfunktion der verdeckten Schicht verwendet werden u m ( t ) = w m { 1 } t + b m { 1 }

Figure DE102023205425A1_0004
mit dem Gewichtungskoeffizient w m { 1 }
Figure DE102023205425A1_0005
und dem Biaskoeffizient b n { 1 } .
Figure DE102023205425A1_0006
Gewichtungskoeffizient und Biaskoeffizient können durch einen BPA wie zum Beispiel dem Bayesian regularization backpropagation- oder Levenberg-Marquardt-BPA bestimmt werden. Jedes zeitliche Subintervall kann dann durch eine oder mehrere Aktivierungsfunktionen und deren optimierten Parametern w m { 1 }
Figure DE102023205425A1_0007
und b m { 1 }
Figure DE102023205425A1_0008
beschrieben werden.To scale a (u m (t)) a so-called hidden layer propagation function can be used u m ( t ) = w m { 1 } t + b m { 1 }
Figure DE102023205425A1_0004
with the weighting coefficient w m { 1 }
Figure DE102023205425A1_0005
and the bias coefficient b n { 1 } .
Figure DE102023205425A1_0006
Weighting coefficient and bias coefficient can be determined by a BPA such as the Bayesian regularization backpropagation or Levenberg-Marquardt BPA. Each temporal subinterval can then be defined by one or more activation functions and their optimized parameters w m { 1 }
Figure DE102023205425A1_0007
and b m { 1 }
Figure DE102023205425A1_0008
to be discribed.

Für die Gesamtzahl K der zu verwendenden Aktivierungsfunktionen, welche der Gesamtzahl der Neuronen in der verdeckten Schicht eines FNN entspricht, kann gelten: K W .

Figure DE102023205425A1_0009
The total number K of activation functions to be used, which corresponds to the total number of neurons in the hidden layer of an FNN, can be: K W .
Figure DE102023205425A1_0009

So kann y(t) im gesamten Zeitintervall [L, U] durch die zuvor parametrierten Aktivierungsfunktionen a(um(t)) optimal approximiert werden. Zahlreiche Simulationen haben gezeigt, dass ein FNN zur Approximation von y(t) im gesamten Zeitintervall [L, U] mit K = W Neuronen bereits vergleichbar gute Ergebnisse hinsichtlich der Approximationsqualität liefert wie ein FNN mit K > W.In this way, y(t) can be optimally approximated in the entire time interval [L, U] by the previously parameterized activation functions a(u m (t)). Numerous simulations have shown that an FNN for approximating y(t) in the entire time interval [L, U] with K = W neurons already delivers comparably good results in terms of approximation quality as an FNN with K > W.

Mit den Ergebnissen der K Aktivierungsfunktionen a(um(t)) aus der verdeckten Schicht {1} kann dann in Verbindung mit einem einzigen weiteren Neuron in der Ausgabeschicht, hier mit {2} bezeichnet, welches die K Aktivierungsfunktionen aus der verdeckten Schicht überlagert (s. auch Gleichung (5)), die vollständige Approximation ỸK(t) von y(t) mit einem FFN auf Basis von K Neuronen durchgeführt werden. Es kann dann gelten: y ˜ K ( t ) = ( m = 1 K w m { 2 } a ( u m ( t ) ) ) + b { 2 } .

Figure DE102023205425A1_0010
With the results of the K activation functions a(u m (t)) from the hidden layer {1} can then be used in conjunction with a single additional neuron in the output layer, here designated {2}, which overlays the K activation functions from the hidden layer (see also equation (5)), the complete approximation Ỹ K (t) of y(t) can be carried out with an FFN based on K neurons. It can then apply: y ˜ K ( t ) = ( m = 1 K w m { 2 } a ( u m ( t ) ) ) + b { 2 } .
Figure DE102023205425A1_0010

Die Gewichtungen w m { 2 }

Figure DE102023205425A1_0011
und b m { 2 }
Figure DE102023205425A1_0012
der Ausgabeschicht können durch einen BPA bestimmt werden, beispielsweise einen der bereits erwähnten BPA.The weights w m { 2 }
Figure DE102023205425A1_0011
and b m { 2 }
Figure DE102023205425A1_0012
the output layer can be determined by a BPA, for example one of the BPAs already mentioned.

Die Anzahl der Neuronen K kann mit der Anzahl der Wendepunkte W für die Zeitfunktion y(t) im zu approximierenden Zeitintervall [L, U] übereinstimmen. Dann kann die Steigung und die Position des Wendepunktes in der Aktivierungsfunktion a(um(t)) mit Hilfe der Propagierungsfunktion um(t) für jeden Wendepunkt von y(t) separat berechnet werden. Ähnliche Überlegungen gelten auch für beliebige Funktionen y(x).The number of neurons K can match the number of turning points W for the time function y(t) in the time interval [L, U] to be approximated. Then the slope and the position of the turning point in the activation function a(u m (t)) can be calculated separately for each turning point of y(t) using the propagation function u m (t). Similar considerations also apply to arbitrary functions y(x).

Durch Ausschreiben von Gleichung (4) ergibt sich für die Approximation ỸK(t) eines Zeitverlaufes y(t) mit K Neuronen in der verdeckten Schicht: y ˜ K ( t ) = ( 2 1 + e 2 u 1 ( t ) + 1 ) w 1 { 2 } + ( 2 1 + e 2 u 2 ( t ) + 1 ) w 2 { 2 } + + ( 2 1 + e 2 u K ( t ) + 1 ) w K { 2 } + b { 2 } .

Figure DE102023205425A1_0013
By writing out equation (4), the approximation Ỹ K (t) of a time course y(t) with K neurons in the hidden layer results: y ˜ K ( t ) = ( 2 1 + e 2 u 1 ( t ) + 1 ) w 1 { 2 } + ( 2 1 + e 2 u 2 ( t ) + 1 ) w 2 { 2 } + + ( 2 1 + e 2 u K ( t ) + 1 ) w K { 2 } + b { 2 } .
Figure DE102023205425A1_0013

Das FNN kann durch Anwendung des Superpositionsprinzips aus insgesamt K = W Tangens-Hyperbolikus-Funktionen mathematisch nachgebildet werden. So kann eine optimale Approximation ỹK(t) eines Zeitverlaufes y(t) erhalten werden.The FNN can be mathematically modeled from a total of K = W tangent hyperbolic functions by applying the superposition principle. In this way, an optimal approximation ỹ K (t) of a time course y(t) can be obtained.

Beispielsweise kann das Verfahren die folgenden Schritte aufweisen:

  • - Messdatenerfassung, insbesondere Ermittlung von y(t),
  • - Bestimmung der in y(t) enthaltenen Wendepunkte W,
  • - Auslegung des FNN mit K = W Neuronen,
  • - Trainieren des FNNs, wobei das Trainieren ein Bestimmen der Gewichtungskoeffizient w m { 1 } ,   w m { 2 }
    Figure DE102023205425A1_0014
    und der Biaskoeffizient b m { 1 }
    Figure DE102023205425A1_0015
    und b { 2 }
    Figure DE102023205425A1_0016
    mit einem BPA umfasst,
  • - Ausgabe der Approximation ỸK(t).
For example, the method may include the following steps:
  • - Measurement data acquisition, in particular determination of y(t),
  • - Determination of the turning points W contained in y(t),
  • - Design of the FNN with K = W neurons,
  • - Training the FNN, whereby training involves determining the weighting coefficient w m { 1 } , w m { 2 }
    Figure DE102023205425A1_0014
    and the bias coefficient b m { 1 }
    Figure DE102023205425A1_0015
    and b { 2 }
    Figure DE102023205425A1_0016
    with a BPA ,
  • - Output of the approximation Ỹ K (t).

In einem weiteren Aspekt der vorliegenden Erfindung wird ein computer-implementiertes Verfahren zur Systemidentifikation eines Single Input Single Output (SISO) oder Multiple Input Multiple Output (MIMO) Systems vorgeschlagen. In dem Verfahren wird ein erfindungsgemäßes Verfahren zum Erstellen eines FNN zum Lösen von Approximationsaufgaben verwendet. Hinsichtlich Definitionen und Ausführungsformen wird auf die Beschreibung des Verfahrens zum Erstellen eines FNN zum Lösen von Approximationsaufgaben verwiesen.In a further aspect of the present invention, a computer-implemented method for system identification of a single input single output (SISO) or multiple input multiple output (MIMO) system is proposed. In the method, a method according to the invention for creating an FNN for solving approximation tasks is used. Regarding definitions and embodiments, reference is made to the description of the method for creating an FNN for solving approximation tasks.

Das SISO System oder das MIMO System kann mindestens ein technisches oder auch nichttechnisches System sein ausgewählt aus der Gruppe bestehend aus linearen oder schwach nichtlinearen, beispielsweise Lotka-Volterra-Systeme (Räuber-Beute-Syteme), dynamischen Systeme mit mindestens zwei Schnittstellen (Eingang, Ausgang) für technisch und/oder physikalische Messgrößen, wie beispielsweise Antriebssysteme, Softsensoren, Räuber-Beute-Systeme und ähnliche.The SISO system or the MIMO system can be at least one technical or non-technical system selected from the group consisting of linear or weakly nonlinear, for example Lotka-Volterra systems (predator-prey systems), dynamic systems with at least two interfaces (input, Output) for technical and/or physical measurement variables, such as drive systems, soft sensors, predator-prey systems and similar.

Das Verfahren umfasst die folgenden Schritte:

  1. i. Erfassen einer Sprungantwort y(t) oder Y(X, t)),
  2. ii. Bestimmen einer Anzahl von Wendepunkten W in der Sprungantwort y(t) oder Y(X, t)) und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht als K ≥ W;
  3. iii. Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst;
  4. iv. Erstellen des FNN mit K ≥ W Neuronen in der verdeckten Schicht, der in iii. bestimmten Aktivierungsfunktionen, Gewichtskoeffizienten und Biaskoeffizienten und Bestimmen einer approximierten Impulsantwort g̃K(t) des Systems unter Verwendung des FNN.
The procedure includes the following steps:
  1. i. Detecting a step response y(t) or Y(X, t)),
  2. ii. determining a number of turning points W in the step response y(t) or Y(X, t)) and setting a minimum number of the neurons K in the hidden layer as K ≥ W;
  3. iii. determining activation functions of the hidden layer neurons, wherein determining the activation functions comprises determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA);
  4. iv. Creating the FNN with K ≥ W neurons in the hidden layer shown in iii. certain activation functions, weight coefficients and bias coefficients and determining an approximate impulse response g̃ K (t) of the system using the FNN.

Die Verfahrensschritte können in der angegebenen Reihenfolge durchgeführt werden, wobei einer oder mehrere der Schritte zumindest teilweise auch gleichzeitig durchgeführt werden können und wobei einer oder mehrere der Schritte mehrfach wiederholt werden können. Darüber hinaus können weitere Schritte unabhängig davon, ob sie in der vorliegenden Anmeldung erwähnt werden oder nicht, zusätzlich ausgeführt werden.The method steps can be carried out in the specified order, whereby one or more of the steps can also be carried out at least partially simultaneously and whereby one or more of the steps can be repeated several times. In addition, further steps may be additionally carried out, regardless of whether they are mentioned in the present application or not.

Der Begriff „Impulsantwort", auch als Gewichtsfunktion oder Stoßantwort bezeichnet, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf ein Ausgangssignal eines Systems beziehen, welches am Eingang mit einem Dirac-Impuls angeregt wird. Die Impulsantwort kann eine Charakterisierung von SISO und MIMO Systemen ermöglichen. Der Begriff „Sprungantwort“, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf ein Ausgangssignal des Systems beziehen, dem am Eingang die Sprungfunktion zugeführt wird. Die Sprungantwort kann durch Faltung der Sprungfunktion mit der Impulsantwort bestimmt werden. Die Sprungantwort kann ein zeitliches Integral der Impulsantwort sein.The term "impulse response", also referred to as a weight function or shock response, as used herein, is a broad term which should be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted one Meaning. The term can, without limitation, refer in particular to an output signal of a system which is excited at the input with a Dirac pulse. The impulse response can enable a characterization of SISO and MIMO systems. The term “step response”, as used here used is a broad term which is intended to be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted meaning. The term may, without limitation, refer in particular to an output signal of the system refer to which the step function is fed at the input. The step response can be determined by convolving the step function with the impulse response. The step response can be a time integral of the impulse response.

Das Bestimmen der approximierten Impulsantwort g̃K(t) des Systems kann durch eine Differentiation der Approximation der Sprungantwort y(t) erfolgen. Die Approximation der Sprungantwort y(t) kann unter Verwendung der in iii) bestimmten Aktivierungsfunktionen aus der verdeckten Schicht und einem Neuron der Ausgabeschicht, welches die K Aktivierungsfunktionen aus der verdeckten Schicht überlagert, bestimmt werden, beispielsweise wie weiter oben beschrieben hinsichtlich des Verfahrens zum Erstellen eines Feedforward Neural Network zum Lösen von Approximationsaufgaben. Beispielsweise kann das Verfahren ein Anregen des System an einem Eingang x(t), beispielsweise mit einer Sprungfunktion (Einheitssprung) umfassen. Die Sprungfunktion kann definiert sein als x ( t ) = { 0   f ü r   t < 0 1   f ü r   t 0 .

Figure DE102023205425A1_0017
Determining the approximate impulse response g̃ K (t) of the system can be done by differentiating the approximation of the step response y(t). The approximation of the step response y(t) can be done using the activation functions from the hidden layer determined in iii) and a neuron in the output layer which has the K activation functions from the hidden layer superimposed, determined, for example as described above with regard to the method for creating a feedforward neural network for solving approximation tasks. For example, the method can include stimulating the system at an input x(t), for example with a step function (unit jump). The jump function can be defined as x ( t ) = { 0 f u r t < 0 1 f u r t 0 .
Figure DE102023205425A1_0017

Das Verfahren kann ein Erfassen der Sprungantwort y(t) als Datenpunkte an einem Ausgang des Systems umfassen. Unter Verwendung des erfindungsgemäßen Verfahrens zum Erstellen eines FNN zum Lösen von Approximationsaufgaben kann ein FNN derart automatisch so ausgelegt werden, dass dieses die optimale Approximation ỸK (t) der Sprungantwort y(t) liefert. Durch Differenzieren von ỸK(t) kann sich die approximierte Impulsantwort G̃K (t) des Systems ergeben. Die Lösung der Differentiation von ỸK (t) kann durch g ˜ K ( t ) = ( m = 1 K w m { 1,2 } [ 1 tanh 2 ( w m { 1 } t + b m { 1 } ) ] ) + b { 2 }

Figure DE102023205425A1_0018
gegeben sein.The method may include detecting the step response y(t) as data points at an output of the system. Using the method according to the invention for creating an FNN for solving approximation tasks, an FNN can be automatically designed in such a way that it delivers the optimal approximation Ỹ K (t) of the step response y(t). By differentiating Ỹ K (t) the approximate impulse response G̃ K (t) of the system can be obtained. The solution of the differentiation of Ỹ K (t) can be by G ˜ K ( t ) = ( m = 1 K w m { 1.2 } [ 1 tanh 2 ( w m { 1 } t + b m { 1 } ) ] ) + b { 2 }
Figure DE102023205425A1_0018
be given.

Alternativ oder zusätzlich, kann die approximierte Impulsantwort g̃K(t) des Systems, ohne eine Differentiation, direkt durch das FNN bereitgestellt werden. Das Bestimmen der approximierten Impulsantwort G̃K (t) des Systems erfolgt unter Verwendung der in iii) bestimmten Aktivierungsfunktionen, Gewichtungskoeffizienten und Biaskoeffizienten und einem Neuron der Ausgabeschicht, welches die K Aktivierungsfunktionen aus der verdeckten Schicht überlagert. Wird ein FNN mit K = W Neuronen, mit der Aktivierungsfunktion a ( u m ( t ) ) = 1 tanh 2 ( w m { 1 } t + b m { 1 } ) ,

Figure DE102023205425A1_0019
(nach Gleichung (7)) mit den Gewichtungskoeffizienten w m { 1 } , w m { 2 } , w m { 1,2 } = w m { 1 } w m { 2 } ,
Figure DE102023205425A1_0020
den Biaskoeffizienten b m { 1 }
Figure DE102023205425A1_0021
und b { 2 }
Figure DE102023205425A1_0022
zur Erzeugung von ỸK(t) ausgestattet, dann kann g̃K(t) direkt durch das FNN bereitgestellt werden. Anstatt der Gewichtungskoeffizienten w m { 2 }
Figure DE102023205425A1_0023
zur Approximation der Sprungantwort, können in der Ausgabeschicht die Gewichtungskoeffizienten w m { 1,2 } = w m { 1 } w m { 2 }
Figure DE102023205425A1_0024
verwendet werden. Die approximierte Impulsantwort g̃K(t) kann somit direkt ohne Durchführung einer Differentiation durch das FNN bereitgestellt werden.Alternatively or additionally, the approximate impulse response g̃ K (t) of the system can be provided directly by the FNN, without differentiation. Determining the approximate impulse response G̃ K (t) of the system is done using the activation functions, weighting coefficients and bias coefficients determined in iii) and a neuron of the output layer which overlays the K activation functions from the hidden layer. Will be an FNN with K = W neurons, with the activation function a ( u m ( t ) ) = 1 tanh 2 ( w m { 1 } t + b m { 1 } ) ,
Figure DE102023205425A1_0019
(according to equation (7)) with the weighting coefficients w m { 1 } , w m { 2 } , w m { 1.2 } = w m { 1 } w m { 2 } ,
Figure DE102023205425A1_0020
the bias coefficient b m { 1 }
Figure DE102023205425A1_0021
and b { 2 }
Figure DE102023205425A1_0022
equipped to generate Ỹ K (t), then g̃ K (t) can be directly provided by the FNN. Instead of the weighting coefficients w m { 2 }
Figure DE102023205425A1_0023
To approximate the step response, the weighting coefficients can be used in the output layer w m { 1.2 } = w m { 1 } w m { 2 }
Figure DE102023205425A1_0024
be used. The approximate impulse response g̃ K (t) can therefore be provided directly by the FNN without carrying out any differentiation.

Unter Verwendung von Gleichung (6) können Prognosen für technische Systeme durchgeführt werden. Durch die Approximation der Impulsantwort oder auch der Sprungantwort eines technischen Systems kann der Zeitverlauf der Übertragungsfunktion g(t) als g̃K(t) approximiert werden. In diesem Fall kann mittels Gleichung (6) durch Vorgabe einer bekannten Systemanregung x(t) die Systemreaktion y(t) prognostiziert werden. Dieses Verfahren eignet sich dann zum Beispiel für die Umsetzung eines Softsensors, wie weiter unten ausgeführt wird.Using equation (6) forecasts for technical systems can be carried out. By approximating the impulse response or the step response of a technical system, the time course of the transfer function g(t) can be approximated as g̃ K (t). In this case, the system reaction y(t) can be predicted using equation (6) by specifying a known system excitation x(t). This method is then suitable, for example, for implementing a soft sensor, as will be explained below.

Das Verfahren kann eine Ausgabe der approximierten Impulsantwort G̃K(t)umfassen, beispielsweise mittels der oben beschriebenen Schnittstelle. Da g̃K(t) das Systemverhalten beschreibt, kann eine prognostizierte Systemantwort y(t), bei beliebiger Eingangsfunktion x(t), durch folgende Gleichung gegeben werden: y ^ ( t ) x ( t ) g ˜ K ( t ) .

Figure DE102023205425A1_0025
The method may include an output of the approximate impulse response G̃ K (t), for example using the interface described above. Since g̃ K (t) describes the system behavior, a predicted system response y(t), given any input function x(t), can be given by the following equation: y ^ ( t ) x ( t ) G ˜ K ( t ) .
Figure DE102023205425A1_0025

Durch Faltung von g̃K(t) mit einem beliebigem Eingangssignal kann die Systemantwort ŷ(t) auf das Eingangssignal bestimmt werden.By convolving g̃ K (t) with any input signal, the system response ŷ(t) to the input signal can be determined.

Das Verfahren kann eine Transformation YK(s) der approximierten Antwort y(t) in einen Frequenzraum umfassen. Eine Übertragungsfunktion GK(s) kann bestimmt werden als G K ( s ) = Y ˜ K ( s ) / X ( s )

Figure DE102023205425A1_0026
wobei X(s) eine bekannte Systemanregung ist und YK(s) die transformierte, approximierte Antwort. Die Übertragungsfunktion kann die Fourier-Transformierte der Impulsantwort, oder für komplexe Frequenzen kann die Übertragungsfunktion die Laplace-Transformierte der Impulsantwort sein. Die Übertragungsfunktion kann das System im Frequenzbereich charakterisieren. Die Transformation kann eine Laplace-Transformation, eine z-, Fourier- oder diskrete Fouriertransformation umfassen. Mittels der approximierten Systemantwort ỸK(t) kann eine Systemidentifikation im Frequenzbereich, beispielsweise mittels der Laplace-Transformierten ỸK(S), möglich sein. Da die Systemanregung X(s) für gängige Zeitverläufe, wie zum Beispiel der Verlauf einer Impuls- oder Sprungfunktion oder eines Rauschsignals bekannt ist, resultiert aus der obigen Beziehung G ( s ) = Y ˜ K ( s ) X ( s ) ,
Figure DE102023205425A1_0027
die Übertragungsfunktion G(s) und somit die Identifizierung des Systems.The method may include a transformation Y K (s) of the approximate response y(t) into a frequency space. A transfer function G K (s) can be determined as G K ( s ) = Y ˜ K ( s ) / X ( s )
Figure DE102023205425A1_0026
where X(s) is a known system excitation and Y K (s) is the transformed, approximated response. The transfer function can be the Fourier transform of the impulse response, or for complex frequencies the transfer function can be the Laplace transform of the impulse response. The transfer function can characterize the system in the frequency domain. The transformation may include a Laplace transform, a z, Fourier or discrete Fourier transform. Using the approximate system response Ỹ K (t), a system identification in the frequency domain can be possible, for example using the Laplace transform Ỹ K ( S ). Since the system excitation X(s) is known for common time courses, such as the course of a pulse or step function or a noise signal, the above relationship results G ( s ) = Y ˜ K ( s ) X ( s ) ,
Figure DE102023205425A1_0027
the transfer function G(s) and thus the identification of the system.

In einem weiteren Aspekt der vorliegenden Erfindung wird ein computer-implementiertes Verfahren zum Erstellen eines Softsensors vorgeschlagen. Der Softsensor umfasst ein FNN. Der Softsensor ist eingerichtet, aus mindestens einer Messgröße mindestens eine Zielgröße unter Verwendung des FNN zu bestimmen. Das FNN wird unter Verwendung eines erfindungsgemäßen Verfahrens zum Erstellen eines FNN zum Lösen von Approximationsaufgaben erstellt. Hinsichtlich Definitionen und Ausführungsformen wird auf die Beschreibung der weiter oben beschriebenen Verfahren verwiesen.In a further aspect of the present invention, a computer-implemented method ren suggested for creating a soft sensor. The soft sensor includes an FNN. The soft sensor is set up to determine at least one target variable from at least one measured variable using the FNN. The FNN is created using a method according to the invention for creating an FNN for solving approximation tasks. With regard to definitions and embodiments, reference is made to the description of the methods described above.

Der Begriff „Softsensor", auch als Software-Sensor bezeichnet, wie er hier verwendet wird, ist ein weiter Begriff, dem seine gewöhnliche und gängige Bedeutung beigemessen werden soll, wie der Fachmann sie versteht. Der Begriff ist nicht beschränkt auf eine spezielle oder angepasste Bedeutung. Der Begriff kann, ohne Beschränkung, sich insbesondere auf eine Kombination von mindestens einer Messgröße und einem Modell beziehen, welches diese Daten zur Vorhersage einer Zielgröße verwendet.The term "soft sensor", also referred to as a software sensor, as used herein is a broad term which should be given its ordinary and common meaning as understood by those skilled in the art. The term is not limited to a special or adapted one Meaning: The term may, without limitation, refer in particular to a combination of at least one measurement variable and a model that uses this data to predict a target variable.

Die Messgröße kann eine technische und/oder physikalische Messgröße sein, welche in Form von elektrischen Messgrößen, beispielsweise Strom I und/oder Spannung U, datentechnisch weiterverarbeitet werden. Beispielsweise kann die Messgröße mindestens eine Größe umfassen ausgewählt aus der Gruppe bestehend aus: Strom I, Spannung U, Temperatur T, Volumenstrom Q, Massenstrom Qm, Druck oder mechanische Spannung p, Kraft F, Widerstand R, Induktivität, L, Kapazität C, Ruck r, Beschleunigung a, Geschwindigkeit v, Position x, Winkelruck r, Winkelbeschleunigung ω̇), Winkelgeschwindigkeit ω, Drehzahl n, Drehwinkel φ, (träge) Masse m, Schalldruck p, Lichtstärke I, Beleuchtungsstärke E, Lichtstrom Φ, Volumen V, Drehmoment M, Stoffmenge n, elektrische Feldstärke E, elektrische Verschiebungsdichte D, magnetische Feldstärke H, magnetische Flussdichte B, magnetischer Fluss Φ, elektrische oder magnetische oder mechanische Arbeit W, Energie E, Leistung oder Wirkleistung P, Drehimpuls L, Dichte ρ, (mittlere freie) (Weg-) Länge 1, Massenträgheitsmoment J, Wirkungsgrad η, Teilchenanzahl eines Systems N, Blindleitwert oder Suszeptanz B, Blindwiderstand oder Admittanz X, Scheinwiderstand oder Impedanz Z, Leitwert oder Konduktanz G, elektrische Stromdichte j, Magnetisierung M, elektrische Ladung Q; Blindleistung oder Reaktanz Q ,magnetischer Widerstand Rm, Scheinleistung S, Frequenz f, Periodendauer T, Auslenkung oder Amplitude x, Phasenverschiebung oderPhasenwinkel φ, Strahlungsenergie Qe, Schallintensität I, Schallpegel L, Schallleistung P, Schalldruck P.The measured variable can be a technical and/or physical measured variable, which is further processed for data purposes in the form of electrical measured variables, for example current I and/or voltage U. For example, the measured variable can include at least one variable selected from the group consisting of: current I, voltage U, temperature T, volume flow Q, mass flow Q m , pressure or mechanical tension p, force F, resistance R, inductance, L, capacitance C, Jerk r, acceleration a, speed v, position x, angular jerk r, angular acceleration ω̇), angular velocity ω, speed n, angle of rotation φ, (inert) mass m, sound pressure p, luminous intensity I, illuminance E, luminous flux Φ, volume V, torque M, amount of substance n, electric field strength E, electric displacement density D, magnetic field strength H, magnetic flux density B, magnetic flux Φ, electrical or magnetic or mechanical work W, energy E, power or active power P, angular momentum L, density ρ, (mean free ) (path) length 1, mass moment of inertia J, efficiency η, number of particles of a system N, reactance or susceptance B, reactance or admittance Reactive power or reactance Q, magnetic resistance R m , apparent power S, frequency f, period T, deflection or amplitude x, phase shift or phase angle φ, radiation energy Q e , sound intensity I, sound level L, sound power P, sound pressure P.

Die Zielgröße kann von Messgröße abweichen. Die Zielgröße kann eine Größe sein, welche aus der Messgröße unter Verwendung des FNN bestimmbar ist. Die Zielgröße kann eine technische und/oder physikalische Größe sein. Die Zielgröße kann ein Kennwert, eine Tendenz oder eine abstrakte Größe sein. Beispielsweise kann die Zielgröße mindestens eine Größe umfassen ausgewählt aus der Gruppe bestehend aus: Strom I, Spannung U, Temperatur T, Volumenstrom Q, Massenstrom Qm, Druck oder mechanische Spannung p, Kraft F, Widerstand R, Induktivität, L, Kapazität C, Ruck r, Beschleunigung a, Geschwindigkeit v, Position x, Winkelruck r, Winkelbeschleunigung ω̇, Winkelgeschwindigkeit ω, Drehzahl n, Drehwinkel φ, (träge) Masse m, Schalldruck p, Lichtstärke I, Beleuchtungsstärke E, Lichtstrom Φ, Volumen V, Drehmoment M, Stoffmenge n, elektrische Feldstärke E, elektrische Verschiebungsdichte D, magnetische Feldstärke H, magnetische Flussdichte B, magnetischer Fluss Φ, elektrische oder magnetische oder mechanische Arbeit W, Energie E, Leistung P, Drehimpuls L, Dichte ρ, (mittlere freie) (Weg-) Länge 1, Massenträgheitsmoment J, Wirkungsgrad η, Teilchenanzahl eines Systems N, Blindleitwert oder Suszeptanz B, Blindwiderstand oder Admittanz X, Scheinwiderstand oder Impedanz Z, Leitwert oder Konduktanz G, elektrische Stromdichte j, Magnetisierung M, elektrische Ladung Q; Blindleistung oder Reaktanz Q magnetischer Widerstand Rm, Scheinleistung S, Frequenz f, Periodendauer T, Auslenkung oder Amplitude x, Phasenverschiebung oder Phasenwinkel φ, Strahlungsenergie Qe, Schallintensität I, Schallpegel L, Schallleistung P, Schalldruck P.The target size may differ from the measurement size. The target variable can be a variable that can be determined from the measured variable using the FNN. The target quantity can be a technical and/or physical quantity. The target variable can be a characteristic value, a trend or an abstract quantity. For example, the target variable can include at least one variable selected from the group consisting of: current I, voltage U, temperature T, volume flow Q, mass flow Q m , pressure or mechanical tension p, force F, resistance R, inductance, L, capacitance C, Jerk r, acceleration a, speed v, position x, angular jerk r, angular acceleration ω̇, angular velocity ω, speed n, angle of rotation φ, (inert) mass m, sound pressure p, luminous intensity I, illuminance E, luminous flux Φ, volume V, torque M , amount of substance n, electric field strength E, electric displacement density D, magnetic field strength H, magnetic flux density B, magnetic flux Φ, electrical or magnetic or mechanical work W, energy E, power P, angular momentum L, density ρ, (mean free) (path -) Length 1, mass moment of inertia J, efficiency η, number of particles of a system N, reactance or susceptance B, reactance or admittance X, apparent resistance or impedance Z, conductance or conductance G, electrical current density j, magnetization M, electrical charge Q; Reactive power or reactance Q, magnetic resistance R m , apparent power S, frequency f, period T, deflection or amplitude x, phase shift or phase angle φ, radiant energy Q e , sound intensity I, sound level L, sound power P, sound pressure P.

In einem weiteren Aspekt der vorliegenden Erfindung wird ein Messverfahren unter Verwendung eines Softsensors vorgeschlagen. Das Verfahren umfasst die folgenden Schritte:

  • - Erfassen mindestens eines zeitlichen Verlaufs mindestens einer Messgröße mit mindestens einem Hardware-Sensor.
  • - Bestimmen mindestens einer Zielgröße unter Verwendung mindestens eines FNN des Softsensors, wobei das FNN unter Verwendung eines erfindungsgemäßen Verfahrens zum Erstellen eines FNN zum Lösen von Approximationsaufgaben erstellt ist.
In a further aspect of the present invention, a measurement method using a soft sensor is proposed. The procedure includes the following steps:
  • - Recording at least one time course of at least one measured variable with at least one hardware sensor.
  • - Determining at least one target variable using at least one FNN of the soft sensor, the FNN being created using a method according to the invention for creating an FNN for solving approximation tasks.

Hinsichtlich Definitionen und Ausführungsformen wird auf die Beschreibung der weiter oben beschriebenen Verfahren verwiesen.With regard to definitions and embodiments, reference is made to the description of the methods described above.

Das Messverfahren kann ein Durchführen einer Systemidentifikation unter Verwendung eines erfindungsgemäßen Verfahrens zur Systemidentifikation nach einer der oben und weiter unten beschriebenen Ausführungsformen umfassen.The measurement method may include carrying out a system identification using a method according to the invention for system identification according to one of the embodiments described above and further below.

In einem weiteren Aspekt der vorliegenden Erfindung wird ein Softsensor vorgeschlagen. Der Softsensor ist eingerichtet aus mindestens einer Messgröße mindestens eine Zielgröße zu bestimmen. Der Softsensor umfasst mindestens ein FNN. Das FNN umfasst mindestens eine Eingabeschicht, mindestens eine verdeckte Schicht und mindestens eine Ausgabeschicht. Das FNN ist unter Verwendung eines erfindungsgemäßen Verfahrens zum Erstellen eines FNN zum Lösen von Approximationsaufgaben erstellt. Hinsichtlich Definitionen und Ausführungsformen wird auf die Beschreibung der weiter oben beschriebenen Verfahren verwiesen. Der Softsensor kann zwei FNNs umfassen. Beispielsweise kann ein erstes FFN zur Approximation mindestens einer Funktion y(x) oder mindestens eines messtechnisch ermittelten Zeitverlaufs y(t) eingerichtet sein. Beispielsweise kann ein zweites FNN eingerichtet sein zum Bestimmen einer approximierten Impulsantwort g̃K(t) des Systems.In a further aspect of the present invention, a soft sensor is proposed. The soft sensor is set up to determine at least one target variable from at least one measured variable. The soft sensor includes at least one FNN. The FNN includes at least one input layer, at least one hidden layer and at least one output layer. The FNN is created using a method according to the invention for creating an FNN for solving approximation tasks. With regard to definitions and embodiments, reference is made to the description of the methods described above. The soft sensor can include two FNNs. For example, a first FFN can be set up to approximate at least one function y(x) or at least one time course y(t) determined by measurement. For example, a second FNN can be set up to determine an approximate impulse response g̃ K (t) of the system.

Der Softsensor kann eingerichtet sein ein erfindungsgemäßes Verfahren zur Systemidentifikation nach einer der oben und weiter unten beschriebenen Ausführungsformen durchzuführen. Der Softsensor kann eingerichtet sein ein erfindungsgemäßes Messverfahren nach einer der oben und weiter unten beschriebenen Ausführungsformen durchzuführen.The soft sensor can be set up to carry out a method according to the invention for system identification according to one of the embodiments described above and further below. The soft sensor can be set up to carry out a measuring method according to the invention according to one of the embodiments described above and further below.

Die vorgeschlagenen Verfahren ermöglichen, insbesondere aufgrund der einfachen Nutzung sowie des Kosteneinsparungspotentials eine deutliche Reduzierung eines Entwicklungsaufwands bei der Entwicklung von Softsensoren. Die Entwicklung von Softsensoren für verschiedenste Einsatzgebiete ist möglich und kann sogar automatisiert werden.The proposed methods enable a significant reduction in development effort in the development of soft sensors, particularly due to their ease of use and the potential for cost savings. The development of soft sensors for a wide variety of applications is possible and can even be automated.

In einem weiteren Aspekt der vorliegenden Erfindung wird eine Verwendung eines erfindungsgemäßen Softsensors vorgeschlagen für mindestens einen Verwendungszweck ausgewählt aus der Gruppe bestehend aus: Maschinenbau, Messtechnik (alle messtechnisch erfassbaren Messgrößen), Produktion (alle messtechnisch erfassbaren Zeitverläufe von Prozessgrößen), Prüftechnik (alle messtechnisch erfassbaren Zeitverläufe von Prüfgrößen), Steuerung von Lüftertechnik, insbesondere durch Erfassung von Volumenstrom oder Druck von strömenden Medien, Steuerung von einem Lüfter-Verbundsystem, Qualitätssicherung (alle messtechnisch erfassbaren Zeitverläufe von Qualitätsgrößen), Erfassung von Messgrößen für Prüfstände, Fahrzeugbau (beispielsweise Qualität oder Prozess oder Prüfung), Automobilindustrie (beispielsweise Qualität oder Prozess oder Prüfung), Bahnplanung von Robotersystemen, Lebensdauervorhersage in Getriebeanordnungen, Prozesstechnik (alle messtechnisch erfassbaren Zeitverläufe von Prozessgrößen), Flugzeugbau, Schiffsbau, Medizintechnik, Informationstechnik, Gebäudetechnik, Konsumelektronik, Energietechnik, Chemieindustrie.In a further aspect of the present invention, a use of a soft sensor according to the invention is proposed for at least one purpose selected from the group consisting of: mechanical engineering, measurement technology (all measured variables that can be measured), production (all time courses of process variables that can be measured), testing technology (all that can be measured Time courses of test variables), control of fan technology, in particular by recording the volume flow or pressure of flowing media, control of a fan network system, quality assurance (all time courses of quality variables that can be recorded by measurement), recording of measured variables for test benches, vehicle construction (e.g. quality or process or Testing), automotive industry (e.g. quality or process or testing), path planning of robot systems, service life prediction in gear arrangements, process technology (all time courses of process variables that can be measured), aircraft construction, shipbuilding, medical technology, information technology, building technology, consumer electronics, energy technology, chemical industry.

Beispielsweise kann der Softsensor in der elektrischen Antriebstechnik und/oder Robotik eingesetzt werden zum Bestimmen von einem oder mehrerer von: Strom I, Spannung U, Temperatur T, Volumenstrom Q, Massenstrom Qm, Kraft F, Widerstand R, Induktivität, L, Kapazität C, Ruck r, Beschleunigung a, Geschwindigkeit v, Position x, Winkelruck r, Winkelbeschleunigung ω̇, Winkelgeschwindigkeit ω Drehzahl n, Drehwinkel φ, (träge) Masse m, Schalldruck p, Drehmoment M, mechanische Arbeit W, Energie E, Leistung P, Drehimpuls L, Massenträgheitsmoment J, Wirkungsgrad η, elektrische Stromdichte j, Magnetisierung M, Blindleistung, Scheinleistung S, Frequenz f, Periodendauer T.For example, the soft sensor can be used in electrical drive technology and/or robotics to determine one or more of: current I, voltage U, temperature T, volume flow Q, mass flow Q m , force F, resistance R, inductance, L, capacitance C , jerk r, acceleration a, speed v, position x, angular jerk r, angular acceleration ω̇, angular velocity ω speed n, angle of rotation φ, (inert) mass m, sound pressure p, torque M, mechanical work W, energy E, power P, angular momentum L, mass moment of inertia J, efficiency η, electrical current density j, magnetization M, reactive power, apparent power S, frequency f, period T.

Beispielsweise kann der Softsensor in der Mess- und Prüftechnik, Prozesstechnik, Verfahrenstechnik, Automobiltechnik, in dem Flugzeugbau, oder in dem Schiffsbau eingesetzt werden zum Bestimmen von einem oder mehrerer Messgrößen von: Strom I, Spannung U, Temperatur T, Volumenstrom Q, Massenstrom Qm, Druck oder mechanische Spannung p, Kraft F, Widerstand R, Induktivität, L, Kapazität C, Ruck r, Beschleunigung a, Geschwindigkeit v, Position x, Winkelruck r, Winkelbeschleunigung ω̇, Winkelgeschwindigkeit ω, Drehzahl n, Drehwinkel φ, (träge) Masse m, Schalldruck p, Lichtstärke I, Beleuchtungsstärke E, Lichtstrom Φ, Volumen V, Drehmoment M, Stoffmenge n, elektrische Feldstärke E, elektrische Verschiebungsdichte D, magnetische Feldstärke H, magnetische Flussdichte B, magnetischer Fluss Φ, elektrische, magnetische, mechanische Arbeit W, Energie E, Leistung P, Drehimpuls L, Dichte ρ, (mittlere freie) (Weg-) Länge 1, Massenträgheitsmoment J, Wirkungsgrad η, Teilchenanzahl eines Systems N, Blindleitwert oder Suszeptanz B, Blindwiderstand oder Admittanz X, Scheinwiderstand oder Impedanz Z, Leitwert oder Konduktanz G, elektrische Stromdichte j, Magnetisierung M, elektrische Ladung Q; Blindleistung oder Reaktanz Q magnetischer Widerstand Rm, Scheinleistung S, Frequenz f, Periodendauer T, Auslenkung oder Amplitude x, Phasenverschiebung oderPhasenwinkel φ, Strahlungsenergie Qe, Schallintensität I, Schallpegel L, Schallleistung P, Schalldruck P.For example, the soft sensor can be used in measurement and testing technology, process engineering, process engineering, automotive engineering, in aircraft construction, or in shipbuilding to determine one or more measured variables of: current I, voltage U, temperature T, volume flow Q, mass flow Q m , pressure or mechanical tension p, force F, resistance R, inductance, L, capacity C, jerk r, acceleration a, speed v, position x, angular jerk r, angular acceleration ω̇, angular velocity ω, speed n, angle of rotation φ, (sluggish ) Mass m, sound pressure p, luminous intensity I, illuminance E, luminous flux Φ, volume V, torque M, amount of substance n, electric field strength E, electric displacement density D, magnetic field strength H, magnetic flux density B, magnetic flux Φ, electrical, magnetic, mechanical Work W, energy E, power P, angular momentum L, density ρ, (mean free) (path) length 1, mass moment of inertia J, efficiency η, number of particles in a system N, reactance or susceptance B, reactance or admittance X, apparent resistance or impedance Z, conductance or conductance G, electric current density j, magnetization M, electric charge Q; Reactive power or reactance Q, magnetic resistance R m , apparent power S, frequency f, period T, deflection or amplitude x, phase shift or phase angle φ, radiant energy Q e , sound intensity I, sound level L, sound power P, sound pressure P.

Beispielsweise kann der Softsensor in der Medizintechnik eingesetzt werden zum Bestimmen von einem oder mehrerer von: Strom I, Spannung U, Temperatur T, Kraft F, elektrische Feldstärke E, elektrische Verschiebungsdichte D, magnetische Feldstärke H, magnetische Flussdichte B, magnetischer Fluss Φ, Teilchenanzahl eines Systems N, Frequenz f, Periodendauer T, Beleuchtungsstärke E.For example, the soft sensor can be used in medical technology to determine one or more of: current I, voltage U, temperature T, force F, electric field strength E, electric displacement density D, magnetic field strength H, magnetic flux density B, magnetic flux Φ, particle number of a system N, frequency f, period T, illuminance E.

In einem weiteren Aspekt der vorliegenden Erfindung wird ein System umfassend mindestens einen Elektromotor, mindestens eine programmierbare Steuer- und Auswerteeinheit und mindestens einen Beschleunigungssensor, welcher eingerichtet ist Systemveränderungen durch Messen mindestens eines Beschleunigungssignals zu detektieren vorgeschlagen.In a further aspect of the present invention, a system comprising at least one electric motor, at least one programmable control and evaluation unit and at least one acceleration sensor, which is set up to measure system changes by measuring at least to detect an acceleration signal.

Die Steuer- und Auswerteeinheit ist eingerichtet ein Ist-Feedforward Neural Network (FNN) unter Verwendung eines Approximationsalgorithmus zu erzeugen. Das Ist-FNN umfasst mindestens eine Eingabeschicht, mindestens eine verdeckte Schicht und mindestens eine Ausgabeschicht. Das Erzeugen des Ist-FNN umfasst eine Approximation des Beschleunigungssignals. Das Beschleunigungssignal wird als Eingangsgröße für den Approximationsalgorithmus verwendet. Das Erzeugen des Ist-FNN umfasst die folgenden Schritte:

  1. i) Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht als K ≥ W;
  2. ii) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst.
The control and evaluation unit is set up to generate an actual feedforward neural network (FNN) using an approximation algorithm. The actual FNN includes at least one input layer, at least one hidden layer and at least one output layer. Generating the actual FNN includes an approximation of the acceleration signal. The acceleration signal is used as an input variable for the approximation algorithm. Generating the actual FNN includes the following steps:
  1. i) determining a number of turning points W in an interval of the acceleration signal and setting a minimum number of the neurons K in the hidden layer as K ≥ W;
  2. ii) determining activation functions of the hidden layer neurons, wherein determining the activation functions includes determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA).

Die Steuer- und Auswerteeinheit ist eingerichtet, um die festgelegte Anzahl der Neuronen des Ist- FNN mit einer Anzahl von Neuronen eines vorbestimmten Referenz-FNN und die bestimmten Gewichtungskoeffizienten des Ist-FNN mit Gewichtungskoeffizienten des vorbestimmten Referenz-FNN zu vergleichen, und insbesondere eine Abweichung zu bestimmen. Die Steuer- und Auswerteeinheit ist eingerichtet, in Abhängigkeit des Ergebnisses des Vergleichs, insbesondere bei einer Abweichung, welche mindestens eine Toleranz überschreitet, mindestens eine Service- und/oder Wartungsmaßnahme auszuführen. The control and evaluation unit is set up to compare the specified number of neurons of the actual FNN with a number of neurons of a predetermined reference FNN and the specific weighting coefficients of the actual FNN with weighting coefficients of the predetermined reference FNN, and in particular a deviation to determine. The control and evaluation unit is set up to carry out at least one service and/or maintenance measure depending on the result of the comparison, in particular in the event of a deviation that exceeds at least one tolerance.

Hinsichtlich Definitionen und Ausführungsformen, insbesondere zur Erzeugung des Ist-FNN und des Referenz-FNN, wird auf die Beschreibung des computer-implementiertes Verfahren zum Erstellen eines FNN zum Lösen von mindestens einer Approximationsaufgabe verwiesen. Insbesondere kann das System eingerichtet sein das computer-implementiertes Verfahren zum Erstellen eines FNN zum Lösen von mindestens einer Approximationsaufgabe, beispielsweise gemäß einer oder mehreren der oben beschriebenen Ausführungsformen, durchzuführen.With regard to definitions and embodiments, in particular for generating the actual FNN and the reference FNN, reference is made to the description of the computer-implemented method for creating an FNN for solving at least one approximation problem. In particular, the system can be set up to carry out the computer-implemented method for creating an FNN for solving at least one approximation task, for example according to one or more of the embodiments described above.

Die vorgeschlagenen Verfahren und Vorrichtungen können eine adaptive Identifikation von Parameteränderungen wie zum Beispiel der Dämpfung, der Periodendauer oder der Eigenkreisfrequenz von aperiodischen und periodischen Zeitverläufen, wie sie zum Beispiel in mechanischen oder elektrischen technischen Anordnungen auftreten können, ermöglichen. Diese Zeitverläufe können auf Basis eines intelligenten Approximationsverfahrens zur linearen und nichtlinearen Funktions-Approximation hinsichtlich der Parameteränderungen analysiert werden.The proposed methods and devices can enable adaptive identification of parameter changes such as the damping, the period length or the natural angular frequency of aperiodic and periodic time courses, such as those that can occur, for example, in mechanical or electrical technical arrangements. These time courses can be analyzed with regard to the parameter changes based on an intelligent approximation method for linear and non-linear function approximation.

Dieses kann, wie bereits weiter oben beschrieben, insbesondere im Hinblick auf das computer-implementiertes Verfahren zum Erstellen eines FNN zum Lösen von mindestens einer Approximationsaufgabe, mit einem speziell ausgelegten FNN erfolgen. Das vorgeschlagenen FNN kann durch einen neuartigen Algorithmus automatisch erzeugt werden, welcher auf einem mathematischen Analyseverfahren basiert und sich auf einem Gerät mit programmierbaren Bauteilen (z. Bsp. µC, DSP) einfach realisieren lässt. Neuartig ist insbesondere dabei, dass die Eigenschaften des FNN wie Neuronenzahl und Parametergewichtung der Neuronen direkt für die Analyse der Zeitverläufe betrachtet werden, was bei der klassischen Anwendung von neuronalen Netzen nicht der Fall ist. Der Vorteil dieses Verfahrens liegt insbesondere darin, dass das beschriebene neuronale Netz zur adaptiven Identifikation von Parameteränderungen ein Referenzmuster von aperiodischen und periodischen Zeitverläufen selbstständig erzeugt wird. Dadurch kann die aufwändige, üblicherweise manuelle Erstellung von Datenbanken zur Erzeugung von Referenzmustern entfallen.As already described above, this can be done with a specially designed FNN, particularly with regard to the computer-implemented method for creating an FNN for solving at least one approximation task. The proposed FNN can be generated automatically using a novel algorithm, which is based on a mathematical analysis method and can be easily implemented on a device with programmable components (e.g. µC, DSP). What is particularly new is that the properties of the FNN, such as the number of neurons and the parameter weighting of the neurons, are directly considered for the analysis of the time courses, which is not the case with the classic application of neural networks. The advantage of this method is, in particular, that the described neural network independently generates a reference pattern of aperiodic and periodic time courses for the adaptive identification of parameter changes. This eliminates the need for the time-consuming, usually manual creation of databases to create reference patterns.

Der Beschleunigungssensor kann an dem System, insbesondere an mindestens einem Element des Elektromotors angeordnet sein. Der Beschleunigungssensor kann eingerichtet sein mindestens ein Vibrationsmuster des Elektromotors zu erfassen.The acceleration sensor can be arranged on the system, in particular on at least one element of the electric motor. The acceleration sensor can be set up to detect at least one vibration pattern of the electric motor.

Systemveränderungen können beispielsweise mindestens eine Veränderung in einem Vibrationsmuster des Elektromotors umfassen. Beispiele hierfür können insbesondere eine Änderung einer Unwucht in mindestens einem Lüfterrad, wie sie u.a. durch beschädigte Lüfterflügel entstehen können, und/oder auftretende Vibrationen, beispielsweise betriebsbedingt auftretende Vibrationen bei Lagerschäden von elektrischen Maschinen, und/oder Verlust von Schmiermittel und/oder Lagerschäden sein.System changes may include, for example, at least one change in a vibration pattern of the electric motor. Examples of this can be, in particular, a change in an imbalance in at least one fan wheel, such as can arise, among other things, from damaged fan blades, and/or vibrations that occur, for example vibrations that occur due to operation in the event of bearing damage in electrical machines, and/or loss of lubricant and/or bearing damage.

Zur Detektion der Systemveränderungen kann, beispielsweise zu Beginn des Messbetriebes oder bei einer Inbetriebnahme des Elektromotors, automatisch ein Referenz-FNN, auch als Soll-FNN bezeichnet, anhand der Approximation des Messsignals erzeugt werden. Die Steuer- und Auswerteeinheit eingerichtet sein das Referenz-FNN vorzubestimmen, insbesondere bei einer Inbetriebnahme des Elektromotors. Das Vorbestimmen des Referenz-FNN kann die folgenden Schritte umfassen:

  1. iii) messtechnisches Ermitteln mindestens eines Beschleunigungssignals mit dem Beschleunigungssensor;
  2. iv) Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht als K ≥ W;
  3. v) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst.
To detect the system changes, for example at the beginning of the measurement operation or when the electric motor is started up, a reference FNN, also referred to as a target FNN, can be automatically generated based on the approximation of the measurement signal. The control and evaluation unit must be set up to predetermine the reference FNN, in particular when the electric motor is started up. Predetermining the reference FNN may include the following steps:
  1. iii) measuring at least one acceleration signal using the acceleration sensor;
  2. iv) determining a number of turning points W in an interval of the acceleration signal and setting a minimum number of the neurons K in the hidden layer as K ≥ W;
  3. v) determining activation functions of the hidden layer neurons, wherein determining the activation functions includes determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA).

Von dem Referenz-FNN können die Neuronenzahl und die Neuronengewichtungen zu Referenzzwecken abgespeichert werden, beispielsweise in einem Speicher der Steuer- und Auswerteeinheit oder in einem anderen externen Speicher. Diese Parameter können dann zum Vergleich mit dem Ist-FNN verwendet werden, insbesondere, wenn zuvor eine vorgegebene Approximationsqualität des Messsignals durch das FNN, welche durch den neuartigen Algorithmus gewährleistet wird, erreicht wurde.The number of neurons and the neuron weights can be stored by the reference FNN for reference purposes, for example in a memory of the control and evaluation unit or in another external memory. These parameters can then be used for comparison with the actual FNN, in particular if a predetermined approximation quality of the measurement signal was previously achieved by the FNN, which is guaranteed by the novel algorithm.

Die FNN's (Ist-FNN und Soll-FNN) können in Abhängigkeit von einer Eingangsgröße (zum Beispiel das Messsignal von einem Beschleunigungssensor) automatisch erstellt werden. Die Neuronenzahl und die Gewichtungen können zur Analyse zum Bestimmen von Systemänderungen genutzt werden. Als Ausgangsgröße kann das System beispielsweise Informationen über Systemänderungen erzeugen und/oder ausgeben, wie zum Beispiel den Lagerabnutzungsgrad.The FNN's (actual FNN and target FNN) can be created automatically depending on an input variable (for example the measurement signal from an acceleration sensor). The neuron count and weights can be used for analysis to determine system changes. As an output variable, the system can, for example, generate and/or output information about system changes, such as the degree of bearing wear.

Die Service- und/oder Wartungsmaßnahme kann mindestens eine Maßnahme umfassen ausgewählt aus der Gruppe bestehend aus: einem Erlassen und/oder einem Anzeigen mindestens einer Servicemeldung; einer Aufforderung zur Durchführung mindestens einer Maßnahme; einem Austausch mindestens eines Elements des Elektromotors; mindestens einer Wartungshandlung an mindestens einem Element des Elektromotors; einem Anpassen von mindestens einem Betriebsparameter des Elektromotors; und einem Beenden eines Betriebs des Elektromotors.The service and/or maintenance measure may include at least one measure selected from the group consisting of: issuing and/or displaying at least one service message; a request to carry out at least one measure; a replacement of at least one element of the electric motor; at least one maintenance operation on at least one element of the electric motor; adjusting at least one operating parameter of the electric motor; and terminating operation of the electric motor.

Die Steuer- und Auswerteeinheit kann eingerichtet sein, wenn keine Abweichung vorliegt oder die bestimmte Abweichung innerhalb mindestens einer vordefinierten Toleranz ist, den Betrieb des Systems fortzusetzen und/oder mindestens eine Meldung zu erlassen.The control and evaluation unit can be set up to continue operation of the system and/or to issue at least one message if there is no deviation or the specific deviation is within at least a predefined tolerance.

Die vorgegebene Approximationsqualität des adaptiv erstellten Ist-FNN kann fortlaufend überwacht werden. Die Approximationsqualität ergibt sich aus der Abweichung zwischen dem Messsignal und dessen Approximation durch das FNN. Der Beschleunigungssensor kann eingerichtet sein das Beschleunigungssignal fortlaufend zu messen, beispielsweise kontinuierlich oder zu festen Zeitpunkten. Die Steuer- und Auswerteeinheit eingerichtet ist das Ist-FNN adaptiv an das fortlaufende Messsignal anzupassen, beispielsweise kontinuierlich oder zu festen Zeitpunkten. Kommt es im Laufe des Betriebs zu Systemveränderungen, so unterscheidet sich bei vorgegebener Approximationsqualität der Aufbau des Soll-FNN vom Aufbau des Ist-FNN, welcher adaptiv an das fortlaufende Messsignal angepasst wird. Dadurch können Systemveränderungen fortlaufend erfasst werden.The specified approximation quality of the adaptively created actual FNN can be continuously monitored. The approximation quality results from the deviation between the measurement signal and its approximation by the FNN. The acceleration sensor can be set up to continuously measure the acceleration signal, for example continuously or at fixed times. The control and evaluation unit is set up to adapt the actual FNN adaptively to the continuous measurement signal, for example continuously or at fixed times. If system changes occur during operation, the structure of the target FNN differs from the structure of the actual FNN, which is adapted adaptively to the continuous measurement signal, given the given approximation quality. This allows system changes to be recorded continuously.

Es können die adaptive Anpassung des Ist-FNN lediglich dessen Neuronenzahl und dessen Gewichtungen betrachtet werden. So liefert beispielsweise die Betragssumme sämtlicher Gewichtungen der Neuronen eine Aussage über die Amplitude bzw. Intensität der Schwingung. Die Anzahl der Neuronen liefert die Information über die Schwingungsfrequenz. Mit diesen Informationen lassen sich einfach und schnell Veränderungen in der Eigenfrequenz, der Dämpfung oder den vorhandenen Schwingungsanteilen im Vibrationsmuster feststellen.Only the number of neurons and their weights can be considered for the adaptive adjustment of the actual FNN. For example, the sum of all the weights of the neurons provides information about the amplitude or intensity of the oscillation. The number of neurons provides information about the oscillation frequency. With this information, changes in the natural frequency, the damping or the existing vibration components in the vibration pattern can be easily and quickly determined.

Die Steuer- und Auswerteeinheit kann als programmierbarer Chip ausgestaltet sein. Dabei können die FNN's (Soll- und Ist-FNN) vollautomatisch mit dem oben beschriebenen neuartigen Algorithmus auf einem programmierbaren Bauteil, wie zum Beispiel einem µC oder DSP, erzeugt werden. Der Algorithmus zur automatischen Erzeugung der FNN's (Soll- und Ist-FNN), kann auf einem programmierbaren Chip mit wenig Aufwand umgesetzt werden. Für die auf dem Chip des Systems automatisch erzeugten FNN's dient das Messsignal eines Beschleunigungssensors als Eingangsgröße. Der Beschleunigungssensor kann an dem zu untersuchenden System angebracht sein. Änderungen in der Eingangsgröße, welche beispielsweise durch eine Unwucht im System oder durch den Verlust von Schmiermitteln oder durch Lagerschäden verursacht werden, führen zur adaptiven Anpassung des Ist-FNN und können erkannt werden, sobald der Aufbau des Ist-FNN vom Aufbau des Soll-FNN abweicht.The control and evaluation unit can be designed as a programmable chip. The FNN's (target and actual FNN) can be generated fully automatically using the novel algorithm described above on a programmable component, such as a µC or DSP. The algorithm for automatically generating the FNNs (target and actual FNN) can be implemented on a programmable chip with little effort. The measurement signal from an acceleration sensor serves as an input variable for the FNNs automatically generated on the system chip. The acceleration sensor can be attached to the system to be examined. Changes in the input variable, which are caused, for example, by an imbalance in the system or by the loss of lubricants or by bearing damage, lead to the adaptive adjustment of the actual FNN and can be recognized as soon as the structure of the actual FNN differs from the structure of the target FNN differs.

Die Steuer- und Auswerteeinheit kann eine Vergleichslogik und/oder eine Auswertelogik umfassen, insbesondere zur Durchführung des Vergleichs.The control and evaluation unit can include comparison logic and/or evaluation logic, in particular for carrying out the comparison.

Der Elektromotor kann der direkt an eine Anwendung oder an einen Fertigungsprozess, beispielswiese Lüfter, Fräsmaschine, oder Drehmaschine, gekoppelt sein. Der Elektromotor kann zum Betriebsbeginn ein individuelles Vibrationsmuster aufweisen, welches durch den Beschleunigungssensor erfasst und durch das Soll-FNN nachgebildet wird. Damit können neben der Lagerüberwachung selbst auch Fertigungsprozesse und Anwendungen überwacht werden. Veränderungen im Vibrationsmuster am Motorlager können beispielsweise durch Schmiermittelverlust, durch Lagerabnutzung im Bereich der Kugeln oder des Käfigs oder durch mechanisch bewegte Teile hervorgerufen werden. Werden diese Veränderungen festgestellt, so kann das System auch Auskunft über den Lagerzustand in Form einer Servicemeldung geben (Predictive Maintenance, Prozessüberwachung).The electric motor can be connected directly to an application or to a manufacturing process, for example a fan, milling machine, or torque machine, be coupled. At the start of operation, the electric motor can have an individual vibration pattern, which is detected by the acceleration sensor and reproduced by the target FNN. In addition to the warehouse monitoring itself, manufacturing processes and applications can also be monitored. Changes in the vibration pattern on the engine bearing can be caused, for example, by loss of lubricant, by bearing wear in the area of the balls or cage, or by mechanically moving parts. If these changes are detected, the system can also provide information about the bearing condition in the form of a service message (predictive maintenance, process monitoring).

Die Steuer- und Auswerteeinheit kann eingerichtet sein das Ist-FNN vollautomatisch zu erzeugen, insbesondere vollständig durch einen Computer und/oder ein Computer-Netzwerk, insbesondere einer Cloud, und/oder eine Maschine, insbesondere ohne Benutzerinteraktion und/oder manuelles Eingreifen. Die Steuer- und Auswerteeinheit kann eingerichtet sein das Referenz-FNN vollautomatisch zu bestimmen insbesondere vollständig durch einen Computer und/oder ein Computer-Netzwerk, insbesondere einer Cloud, und/oder eine Maschine, insbesondere ohne Benutzerinteraktion und/oder manuelles Eingreifen.The control and evaluation unit can be set up to generate the actual FNN fully automatically, in particular completely by a computer and/or a computer network, in particular a cloud, and/or a machine, in particular without user interaction and/or manual intervention. The control and evaluation unit can be set up to determine the reference FNN fully automatically, in particular completely by a computer and/or a computer network, in particular a cloud, and/or a machine, in particular without user interaction and/or manual intervention.

Das Referenz-FNN kann, wie oben beschrieben insbesondere vollautomatisch erstellt werden. Dieses kann als ein entscheidender Vorteil der vorliegenden Erfindung gegenüber bestehenden Techniken angesehen wird. Bei diesen bekannten Techniken kommen häufig manuell, und damit aufwändig erstellte Datenbanken mit verschiedenen Referenzmustern zum Einsatz, siehe beispielsweise bekannte Techniken beschrieben in DE 60020399 T2 , DE 10 2005 034 768 A1 , EP 2 359 106 B1 . Anhand des Referenz-FNN können dann auftretende Veränderungen im Vibrationsmuster, welche sich während des Betriebs des Motorlagers ergeben, extrem effektiv und ohne aufwändige Erstellung von Referenzdatenbanken und deren Analyse detektiert werden.The reference FNN can, in particular, be created fully automatically, as described above. This can be viewed as a key advantage of the present invention over existing techniques. These known techniques often use manually and therefore laboriously created databases with various reference patterns, see for example known techniques described in DE 60020399 T2 , DE 10 2005 034 768 A1 , EP 2 359 106 B1 . Using the reference FNN, changes in the vibration pattern that occur during operation of the engine mount can then be detected extremely effectively and without the need for time-consuming creation of reference databases and their analysis.

Bisher bekannte Verfahren, wie die Diskrete Fourier-Transformation (DFT) bzw. die Fast Fourier Transform (FFT), welche durch diskrete Ermittlung der Spektralanteile eines aperiodischen oder periodischen Messsignals zur Erkennung von Systemveränderungen herangezogen werden, siehe beispielsweise DOI:10.13140/RG.2.1.3738.2806, DOI: 10.1109/19.517004, DE 199 42 144 A1 , DE60020399 T2 , können im Wesentlichen die folgenden Nachteile aufweisen: Es muss in einer aufwändig und meist manuell erstellten Datenbank vor Betriebsbeginn ein Referenzmuster abgelegt werden. Dieser Schritt entfällt bei der vorliegend beschriebenen Erfindung, wodurch Entwicklungskosten eingespart werden können. DFT und FFT sind nur zur Beschreibung von linearen Systemen hervorragend geeignet. Die vorliegende Erfindung kann hingegen Systemveränderungen sowohl in linearen als auch nichtlinearen Systemen einfach detektieren. Effekte wie leakage and aliasing beeinflussen DFT- und FFT-basierte Verfahren in ihrer Aussagekraft. Die Analyse und Auswertung von DFT- und FFT-basierten Verfahren ist generell äußert aufwändig.Previously known methods, such as the Discrete Fourier Transform (DFT) or the Fast Fourier Transform (FFT), which are used to detect system changes by discretely determining the spectral components of an aperiodic or periodic measurement signal, see for example DOI:10.13140/RG.2.1 .3738.2806, DOI: 10.1109/19.517004, DE 199 42 144 A1 , DE60020399 T2 , can essentially have the following disadvantages: A reference sample must be stored in a complex and usually manually created database before operation begins. This step is omitted in the invention described here, which means that development costs can be saved. DFT and FFT are only excellent for describing linear systems. The present invention, on the other hand, can easily detect system changes in both linear and nonlinear systems. Effects such as leakage and aliasing influence the significance of DFT and FFT-based methods. The analysis and evaluation of DFT and FFT-based methods is generally extremely complex.

In DE 199 42 144 A1 wird weiterhin ein Verfahren vorgestellt. Durch ein „Harmonisch Aktiviertes Neuronales Netz“ werden die Parameter der periodischen Zeitverläufe oder deren Ungleichförmigkeit identifiziert und daraus die Dämpfung ermittelt. Jedoch muss hier vor Betriebsbeginn zuerst ein individuelles Neuronales Netz als Referenznetz aufwändig und manuell erstellt werden, um Veränderungen im Betrieb feststellen zu können. Während in DE 199 42 144 A1 die Neuronenzahl des eingesetzten neuronalen Netzes konstant ist, wird im Gegensatz dazu in der hier vorgestellten Erfindung die Neuronenzahl im FNN in Abhängigkeit vom Zeitverhalten des Messsignals automatisch angepasst.In DE 199 42 144 A1 a procedure is also presented. A “Harmonically Activated Neural Network” identifies the parameters of the periodic time courses or their non-uniformity and uses them to determine the damping. However, before operation begins, an individual neural network must first be created laboriously and manually as a reference network in order to be able to determine changes in operation. While in DE 199 42 144 A1 the number of neurons in the neural network used is constant, in contrast, in the invention presented here, the number of neurons in the FNN is automatically adjusted depending on the time behavior of the measurement signal.

In einem weiteren Aspekt wird ein computer-implementiertes Verfahren zum Betrieb eines Systems umfassend mindestens einen Elektromotor, mindestens eine programmierbare Steuer- und Auswerteeinheit und mindestens einen Beschleunigungssensor vorgeschlagen.In a further aspect, a computer-implemented method for operating a system comprising at least one electric motor, at least one programmable control and evaluation unit and at least one acceleration sensor is proposed.

In dem Verfahren wird ein System nach einem der vorhergehenden Ansprüche verwendet. Hinsichtlich Definitionen und Ausführungsformen wird auf die Beschreibung des weiter oben beschriebenen Systems verwiesen.A system according to one of the preceding claims is used in the method. With regard to definitions and embodiments, reference is made to the description of the system described above.

Die Verfahrensschritte können in der angegebenen Reihenfolge durchgeführt werden, wobei einer oder mehrere der Schritte zumindest teilweise auch gleichzeitig durchgeführt werden können und wobei einer oder mehrere der Schritte mehrfach wiederholt werden können. Darüber hinaus können weitere Schritte unabhängig davon, ob sie in der vorliegenden Anmeldung erwähnt werden oder nicht, zusätzlich ausgeführt werden.The method steps can be carried out in the specified order, whereby one or more of the steps can also be carried out at least partially simultaneously and whereby one or more of the steps can be repeated several times. In addition, further steps may be additionally carried out, regardless of whether they are mentioned in the present application or not.

Das Verfahren umfasst die folgenden Schritte:

  1. (1) Messen mindestens eines Beschleunigungssignals mit dem Beschleunigungssensor;
  2. (2) Erzeugen eines Ist-Feedforward Neural Network (FNN) unter Verwendung eines Approximationsalgorithmus mit der Steuer- und Auswerteeinheit, wobei das Ist-FNN mindestens eine Eingabeschicht, mindestens eine verdeckte Schicht und mindestens eine Ausgabeschicht umfasst, wobei das Erzeugen des Ist-FNN eine Approximation des Beschleunigungssignals umfasst, wobei das Beschleunigungssignal als Eingangsgröße für den Approximationsalgorithmus verwendet wird, wobei das Erzeugen des Ist-FNN die folgenden Schritte umfasst:
    1. i) Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht als K ≥ W;
    2. ii) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst;
  3. (3) Vergleichen der festgelegten Anzahl der Neuronen des Ist- FNN mit einer Anzahl von Neuronen eines vorbestimmten Referenz-FNN und der bestimmten Gewichtungskoeffizienten des Ist-FNN mit Gewichtungskoeffizienten des vorbestimmten Referenz-FNN mit der Steuer- und Auswerteeinheit;
  4. (4) in Abhängigkeit des Ergebnisses des Vergleichs, Ausführen mindestens einer Service- und/oder Wartungsmaßnahme.
The procedure includes the following steps:
  1. (1) measuring at least one acceleration signal with the acceleration sensor;
  2. (2) Generating an actual feedforward neural network (FNN) using an approximation algorithm with the control and evaluation unit, the actual FNN having at least one input layer, at least one hidden layer and at least one output layer, wherein generating the actual FNN comprises an approximation of the acceleration signal, wherein the acceleration signal is used as an input variable for the approximation algorithm, wherein generating the actual FNN comprises the following steps:
    1. i) determining a number of turning points W in an interval of the acceleration signal and setting a minimum number of the neurons K in the hidden layer as K ≥ W;
    2. ii) determining activation functions of the hidden layer neurons, wherein determining the activation functions comprises determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA);
  3. (3) comparing the specified number of neurons of the actual FNN with a number of neurons of a predetermined reference FNN and the determined weighting coefficients of the actual FNN with weighting coefficients of the predetermined reference FNN with the control and evaluation unit;
  4. (4) depending on the result of the comparison, carrying out at least one service and/or maintenance measure.

Ferner wird im Rahmen der vorliegenden Erfindung ein Computerprogramm vorgeschlagen, das bei Ablauf auf einem Computer oder Computer-Netzwerk eines oder mehrere der erfindungsgemäßen Verfahren in einer Ausgestaltung ausführt.Furthermore, within the scope of the present invention, a computer program is proposed which, when executed on a computer or computer network, executes one or more of the methods according to the invention in one embodiment.

Weiterhin wird im Rahmen der vorliegenden Erfindung ein Computerprogramm mit Programmcode-Mitteln vorgeschlagen, um eines oder mehrere der erfindungsgemäßen Verfahren in einer Ausgestaltung durchzuführen, wenn das Programm auf einem Computer oder Computer-Netzwerk ausgeführt wird. Insbesondere können die Programmcode-Mittel auf einem computerlesbaren Datenträger und/oder einem computerlesbaren Speichermedium gespeichert sein.Furthermore, within the scope of the present invention, a computer program with program code means is proposed in order to carry out one or more of the methods according to the invention in one embodiment when the program is executed on a computer or computer network. In particular, the program code means can be stored on a computer-readable data carrier and/or a computer-readable storage medium.

Der Begriffe „computerlesbarer Datenträger“ und „computerlesbares Speichermedium“, wie sie hier verwendet werden, können sich insbesondere auf nicht-transitorische Datenspeicher beziehen, beispielsweise ein Hardware-Datenspeichermedium, auf welchem computer-ausführbare Instruktionen gespeichert sind. Der computerlesbare Datenträger oder das computerlesbare Speichermedium können insbesondere ein Speichermedium wie ein Random-Access Memory (RAM) und/oder ein Read-Only Memory (ROM) sein oder umfassen.The terms “computer-readable data carrier” and “computer-readable storage medium” as used herein can refer in particular to non-transitory data storage, for example a hardware data storage medium on which computer-executable instructions are stored. The computer-readable data carrier or the computer-readable storage medium can in particular be or include a storage medium such as a random access memory (RAM) and/or a read-only memory (ROM).

Außerdem wird im Rahmen der vorliegenden Erfindung ein Datenträger vorgeschlagen, auf dem eine Datenstruktur gespeichert ist, die nach einem Laden in einen Arbeits- und/oder Hauptspeicher eines Computers oder Computer-Netzwerkes eines oder mehrere der erfindungsgemäßen Verfahren in einer Ausgestaltung ausführen kann.In addition, within the scope of the present invention, a data carrier is proposed on which a data structure is stored, which, after loading into a main memory and/or main memory of a computer or computer network, can execute one or more of the methods according to the invention in one embodiment.

Weiterhin wird im Rahmen der vorliegenden Erfindung ein nicht-transientes computerlesbares Medium vorgeschlagen, umfassend Instruktionen, die, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, den einen oder die mehreren Prozessoren dazu veranlassen, eines oder mehrere der erfindungsgemäßen Verfahren in einer Ausgestaltung durchzuführen.Furthermore, within the scope of the present invention, a non-transient computer-readable medium is proposed, comprising instructions which, when executed by one or more processors, cause the one or more processors to carry out one or more of the methods according to the invention in one embodiment.

Auch wird im Rahmen der vorliegenden Erfindung ein Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln vorgeschlagen, um eines oder mehrere der erfindungsgemäßen Verfahren in einer Ausgestaltung durchzuführen, wenn das Programm auf einem Computer oder Computer-Netzwerk ausgeführt wird.Within the scope of the present invention, a computer program product with program code means stored on a machine-readable carrier is also proposed in order to carry out one or more of the methods according to the invention in one embodiment when the program is executed on a computer or computer network.

Dabei wird unter einem Computer-Programmprodukt das Programm als handelbares Produkt verstanden. Es kann grundsätzlich in beliebiger Form vorliegen, so zum Beispiel auf Papier oder einem computerlesbaren Datenträger und kann insbesondere über ein Datenübertragungsnetz verteilt werden.A computer program product is understood to mean the program as a tradable product. In principle, it can be in any form, for example on paper or a computer-readable data carrier, and can in particular be distributed via a data transmission network.

Schließlich wird im Rahmen der vorliegenden Erfindung ein moduliertes Datensignal vorgeschlagen, welches von einem Computersystem oder Computernetzwerk ausführbare Instruktionen zum Ausführen eines oder mehrerer der erfindungsgemäßen Verfahren nach einer der beschriebenen Ausführungsformen enthält.Finally, within the scope of the present invention, a modulated data signal is proposed which contains instructions that can be executed by a computer system or computer network for carrying out one or more of the methods according to the invention according to one of the described embodiments.

Im Hinblick auf die computer-implementierten Aspekte der Erfindung können einer, mehrere oder sogar alle Verfahrensschritte der Verfahren gemäß einer oder mehreren der hier vorgeschlagenen Ausgestaltungen mittels eines Computers oder Computer-Netzwerks durchgeführt werden. Somit können, allgemein, jegliche der Verfahrensschritte, einschließlich der Bereitstellung und/oder Manipulation von Daten mittels eines Computers oder Computer-Netzwerks durchgeführt werden. Allgemein können diese Schritte jegliche der Verfahrensschritte umfassen, ausgenommen der Schritte, welche manuelle Arbeit erfordern, beispielsweise das Bereitstellen von Proben und/oder bestimmte Aspekte der Durchführung tatsächlicher Messungen.With regard to the computer-implemented aspects of the invention, one, several or even all method steps of the methods according to one or more of the embodiments proposed here can be carried out using a computer or computer network. Thus, in general, any of the method steps, including providing and/or manipulating data, may be performed using a computer or computer network. In general, these steps may include any of the method steps except those steps that require manual work, such as providing samples and/or certain aspects of performing actual measurements.

Zusammenfassend werden, ohne Beschränkung weiterer möglicher Ausgestaltungen, folgende Ausführungsformen vorgeschlagen:

  • Ausführungsform 1: Computer-implementiertes Verfahren zum Erstellen eines Feedforward Neural Network (FNN) zum Lösen von mindestens einer Approximationsaufgabe, wobei das FNN mindestens eine Eingabeschicht, mindestens eine verdeckte Schicht und mindestens eine Ausgabeschicht umfasst, wobei das Lösen von der mindestens einen Approximationsaufgabe eine Approximation von einem oder mehreren von mindestens einer Funktion y(x), mindestens eines Vektors Y(X, t) oder mindestens einem messtechnisch ermittelten, analogen oder digitalen, Zeitverlauf y(t) umfasst, wobei das Verfahren die folgenden Schritte umfasst:
    1. a) Vorgeben mindestens einer Funktion y(x), mindestens eines Vektors Y(X, t), oder messtechnisches Ermitteln mindestens eines analogen oder digitalen Zeitverlaufs y(t) in einem Intervall [L,U];
    2. b) Bestimmen von einer Anzahl von Wendepunkten W in dem Intervall [L,U] und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht als K ≥ W;
    3. c) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst.
  • Ausführungsform 2: Verfahren nach der vorhergehenden Ausführungsform, wobei das Verfahren ein Bestimmen der Approximation der Funktion y(x), des Vektors Y(X, t) oder des Zeitverlaufs y(t) unter Verwendung der in c) bestimmten Aktivierungsfunktionen aus der verdeckten Schicht und einem Neuron der Ausgabeschicht, welches die K Aktivierungsfunktionen aus der verdeckten Schicht überlagert, umfasst.
  • Ausführungsform 3: Verfahren nach einer der vorhergehenden Ausführungsformen, wobei das Bestimmen der Anzahl der Wendepunkte ein Unterteilen des Intervalls [L,U] der zu approximierenden Funktion y(x), des zu approximierenden Vektors Y(X, t) oder des zu approximierenden Zeitverlaufs y(t) in insgesamt K Subintervalle [ΔLm,ΔUm] ∈ [L,U] mit m ∈ K umfasst, wobei Grenzen der Subintervalle durch y'(ΔLm)=0 und y'(ΔUm)=0 berechnet werden, wobei im Falle eines Zeitverlaufes y'=dy/dt und für eine Funktion y'=dy/dx gilt.
  • Ausführungsform 4: Verfahren nach der vorhergehenden Ausführungsform, wobei die zu approximierende Funktion y(x), der zu approximierende Vektor Y(X, t) oder der zu approximierende Zeitverlauf y(t) in den Subintervallen streng monoton steigend oder fallend sind und die erste Ableitung einen Vorzeichenwechsel aufweisen, wobei in jedem Subintervall dann genau ein Wendepunkt der zu approximierenden Funktion y(x), des zu approximierenden Vektors Y(X, t) oder des zu approximierenden Zeitverlaufs y(t) vorliegt.
  • Ausführungsform 5: Computer-implementiertes Verfahren zur Systemidentifikation eines Single Input Single Output (SISO) oder Multiple Input Multiple Output (MIMO) Systems, wobei in dem Verfahren ein Verfahren zum Erstellen eines Feedforward Neural Network (FNN) zum Lösen von Approximationsaufgaben nach einer der vorhergehenden Ausführungsformen verwendet wird, wobei das Verfahren die folgenden Schritte umfasst:
    1. i. Erfassen einer Sprungantwort y(t) oder Y(X, t)),
    2. ii. Bestimmen einer Anzahl von Wendepunkten W in der Sprungantwort y(t) oder Y(X, t)) und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht als K ≥ W;
    3. iii. Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst;
    4. iv. Erstellen des FNN mit K ≥ W Neuronen in der verdeckten Schicht, der in iii. bestimmten Aktivierungsfunktionen, Gewichtskoeffizienten und Biaskoeffizienten und Bestimmen einer approximierten Impulsantwort g̃K(t) des Systems unter Verwendung des FNN.
  • Ausführungsform 6: Verfahren nach der vorhergehenden Ausführungsform, wobei das Verfahren eine Ausgabe der approximierten Impulsantwort g̃K(t) umfasst.
  • Ausführungsform 7: Verfahren nach einer der zwei vorhergehenden Ausführungsformen, wobei das Verfahren eine Transformation der approximierten Antwort y(t) in einen Frequenzraum umfasst, wobei eine Übertragungsfunktion G(s) bestimmt wird als G ( s ) = Y ˜ K ( s ) / X ( s )
    Figure DE102023205425A1_0028
    wobei X(s) eine bekannte Systemanregung ist und Y(s) die transformierte, approximierte Antwort.
  • Ausführungsform 8: Computer-implementiertes Verfahren zum Erstellen eines Softsensors, wobei der Softsensor ein Feedforward Neural Network (FNN) umfasst, wobei der Softsensor eingerichtet ist, aus mindestens einer Messgröße mindestens eine Zielgröße unter Verwendung des FNN zu bestimmen, wobei das FNN unter Verwendung eines Verfahrens nach einer der Ausführungsformen 1 bis 4 erstellt wird.
  • Ausführungsform 9: Messverfahren unter Verwendung eines Softsensors, wobei das Verfahren die folgenden Schritte umfasst:
    • - Erfassen mindestens eines zeitlichen Verlaufs mindestens einer Messgröße mit mindestens einem Hardware-Sensor;
    • - Bestimmen mindestens einer Zielgröße unter Verwendung mindestens eines Feedforward Neural Network (FNN) des Softsensors, wobei das FNN unter Verwendung eines Verfahrens nach einer der Ausführungsformen 1 bis 4 erstellt ist.
  • Ausführungsform 10: Messverfahren nach der vorhergehenden Ausführungsform, wobei das Messverfahren ein Durchführen einer Systemidentifikation unter Verwendung eines Verfahrens zur Systemidentifikation nach einer der Ausführungsformen 5 bis 7 umfasst.
  • Ausführungsform 11: Softsensor, wobei der Softsensor eingerichtet ist, aus mindestens einer Messgröße mindestens eine Zielgröße zu bestimmen, wobei der Softsensor mindestens ein Feedforward Neural Network (FNN) umfasst, wobei das FNN mindestens eine Eingabeschicht, mindestens eine verdeckte Schicht und mindestens eine Ausgabeschicht umfasst, wobei das FNN unter Verwendung eines Verfahrens nach einer der Ausführungsformen 1 bis 4 erstellt ist.
  • Ausführungsform 12: Softsensor nach der vorhergehenden Ausführungsform, wobei der Softsensor eingerichtet ist ein Verfahren zur Systemidentifikation nach einer der Ausführungsformen 5 bis 7 durchzuführen.
  • Ausführungsform 13: Softsensor nach einer der Ausführungsformen 11 und 12, wobei der Softsensor eingerichtet ist ein Messverfahren nach einer der Ausführungsformen 9 bis 10 durchzuführen.
  • Ausführungsform 14: System umfassend mindestens einen Elektromotor, mindestens eine programmierbare Steuer- und Auswerteeinheit und mindestens einen Beschleunigungssensor, welcher eingerichtet ist Systemveränderungen durch Messen mindestens eines Beschleunigungssignals zu detektieren, wobei die Steuer- und Auswerteeinheit eingerichtet ist ein Ist-Feedforward Neural Network (FNN) unter Verwendung eines Approximationsalgorithmus zu erzeugen, wobei das Ist-FNN mindestens eine Eingabeschicht, mindestens eine verdeckte Schicht und mindestens eine Ausgabeschicht umfasst, wobei das Erzeugen des Ist-FNN eine Approximation des Beschleunigungssignals umfasst, wobei das Beschleunigungssignal als Eingangsgröße für den Approximationsalgorithmus verwendet wird, wobei das Erzeugen des Ist-FNN die folgenden Schritte umfasst:
    1. i) Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht als K ≥ W;
    2. ii) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst,
    wobei die Steuer- und Auswerteeinheit eingerichtet ist, um die festgelegte Anzahl der Neuronen des Ist- FNN mit einer Anzahl von Neuronen eines vorbestimmten Referenz-FNN und die bestimmten Gewichtungskoeffizienten des Ist-FNN mit Gewichtungskoeffizienten des vorbestimmten Referenz-FNN zu vergleichen, wobei die Steuer- und Auswerteeinheit eingerichtet ist, in Abhängigkeit des Ergebnisses des Vergleichs, mindestens eine Service- und/oder Wartungsmaßnahme auszuführen.
  • Ausführungsform 15: System nach der vorhergehenden Ausführungsform, wobei die Service- und/oder Wartungsmaßnahme mindestens eine Maßnahme umfasst ausgewählt aus der Gruppe bestehend aus: einem Erlassen und/oder einem Anzeigen mindestens einer Servicemeldung; einer Aufforderung zur Durchführung mindestens einer Maßnahme; einem Austausch mindestens eines Elements des Elektromotors; mindestens einer Wartungshandlung an mindestens einem Element des Elektromotors; einem Anpassen von mindestens einem Betriebsparameter des Elektromotors; und einem Beenden eines Betriebs des Elektromotors.
  • Ausführungsform 16: System nach einer der Ausführungsformen 14 bis 15, wobei Systemveränderungen mindestens eine Veränderung in einem Vibrationsmuster des Elektromotors umfasst, insbesondere eine Änderung einer Unwucht in mindestens einem Lüfterrad und/oder auftretende Vibrationen und/oder Verlust von Schmiermittel und/oder Lagerschäden umfassen.
  • Ausführungsform 17: System nach einer der Ausführungsformen 14 bis 16, wobei der Beschleunigungssensor eingerichtet ist das Beschleunigungssignal fortlaufend zu messen, wobei die Steuer- und Auswerteeinheit eingerichtet ist das Ist-FNN adaptiv an das fortlaufende Messsignal anzupassen.
  • Ausführungsform 18: System nach einer der Ausführungsformen 14 bis 17, wobei die Steuer- und Auswerteeinheit eingerichtet ist das Referenz-FNN vorzubestimmen, insbesondere bei einer Inbetriebnahme des Elektromotors, wobei das Vorbestimmen des Referenz-FNN die folgenden Schritte umfasst:
    1. iii) messtechnisches Ermitteln mindestens eines Beschleunigungssignals mit dem Beschleunigungssensor;
    2. iv) Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht (114) als K ≥ W;
    3. v) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht (114), wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst.
  • Ausführungsform 19: System nach einer der Ausführungsformen 14 bis 18, wobei die Steuer- und Auswerteeinheit eingerichtet ist das Ist-FNN vollautomatisch zu erzeugen, wobei die Steuer- und Auswerteeinheit eingerichtet ist das Referenz-FNN vollautomatisch zu bestimmen.
  • Ausführungsform 20: System nach einer der Ausführungsformen 14 bis 19, wobei die Steuer- und Auswerteeinheit eingerichtet ist, wenn keine Abweichung vorliegt oder die bestimmte Abweichung innerhalb mindestens einer vordefinierten Toleranz ist, den Betrieb des Systems fortzusetzen und/oder mindestens eine Meldung zu erlassen.
  • Ausführungsform 21: System nach einer der Ausführungsformen 14 bis 20, wobei die Steuer- und Auswerteeinheit als programmierbarer Chip ausgestaltet ist.
  • Ausführungsform 22: Computer-implementiertes Verfahren zum Betrieb eines Systems umfassend mindestens einen Elektromotor, mindestens eine programmierbare Steuer- und Auswerteeinheit und mindestens einen Beschleunigungssensor, wobei in dem Verfahren ein System nach einer der Ausführungsformen 14 bis 11 verwendet wird, umfassend die folgenden Schritte:
    1. (1) Messen mindestens eines Beschleunigungssignals mit dem Beschleunigungssensor;
    2. (2) Erzeugen eines Ist-Feedforward Neural Network (FNN) unter Verwendung eines Approximationsalgorithmus mit der Steuer- und Auswerteeinheit, wobei das Ist-FNN mindestens eine Eingabeschicht, mindestens eine verdeckte Schicht und mindestens eine Ausgabeschicht umfasst, wobei das Erzeugen des Ist-FNN eine Approximation des Beschleunigungssignals umfasst, wobei das Beschleunigungssignal als Eingangsgröße für den Approximationsalgorithmus verwendet wird, wobei das Erzeugen des Ist-FNN die folgenden Schritte umfasst:
      1. i) Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht als K ≥ W;
      2. ii) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst;
    3. (3) Vergleichen der festgelegten Anzahl der Neuronen des Ist- FNN mit einer Anzahl von Neuronen eines vorbestimmten Referenz-FNN und der bestimmten Gewichtungskoeffizienten des Ist-FNN mit Gewichtungskoeffizienten des vorbestimmten Referenz-FNN mit der Steuer- und Auswerteeinheit;
    4. (4) in Abhängigkeit des Ergebnisses des Vergleichs, Ausführen mindestens einer Service- und/oder Wartungsmaßnahme.
  • Ausführungsform 23: Computerprogramm, das bei Ablauf auf einem Computer oder Computer-Netzwerk das Verfahren nach der vorhergehenden Ausführungsform ausführt.
In summary, the following embodiments are proposed, without limiting further possible configurations:
  • Embodiment 1: Computer-implemented method for creating a feedforward neural network (FNN) for solving at least one approximation task, the FNN comprising at least one input layer, at least one hidden layer and at least one output layer, wherein solving the at least one approximation task is an approximation of one or more of at least one function y(x), at least one vector Y(X, t) or at least one measured, analog or digital, time course y(t), the method comprising the following steps:
    1. a) specifying at least one function y(x), at least one vector Y(X, t), or metrologically determining at least one analog or digital time curve y(t) in an interval [L,U];
    2. b) determining a number of turning points W in the interval [L,U] and setting a minimum number of neurons K in the hidden layer as K ≥ W;
    3. c) determining activation functions of the hidden layer neurons, wherein determining the activation functions includes determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA).
  • Embodiment 2: Method according to the previous embodiment, wherein the method involves determining the approximation of the function y(x), the vector Y(X, t) or the time course y(t) using the activation functions determined in c) from the hidden layer and an output layer neuron overlaying the K activation functions from the hidden layer.
  • Embodiment 3: Method according to one of the preceding embodiments, wherein determining the number of turning points involves dividing the interval [L,U] of the function y(x) to be approximated, the vector Y(X, t) to be approximated or the time course to be approximated y(t) comprises a total of K subintervals [ΔL m ,ΔU m] ∈ [L,U] with m ∈ K, where boundaries of the subintervals are calculated by y'(ΔL m )=0 and y'(ΔU m )=0 where in the case of a time course y'=dy/dt and for a function y'=dy/dx applies.
  • Embodiment 4: Method according to the previous embodiment, wherein the function y(x) to be approximated, the vector Y(X, t) to be approximated or the time course y(t) to be approximated are strictly monotonically increasing or decreasing in the subintervals and the first Derivation have a sign change, with each subinterval then having exactly one turning point of the function y(x) to be approximated, the vector Y(X, t) to be approximated or the time course y(t) to be approximated.
  • Embodiment 5: Computer-implemented method for system identification of a Single Input Single Output (SISO) or Multiple Input Multiple Output (MIMO) system, wherein in the method a method for creating a feedforward neural network (FNN) for solving approximation tasks according to one of the preceding Embodiments is used, the method comprising the following steps:
    1. i. Detecting a step response y(t) or Y(X, t)),
    2. ii. determining a number of turning points W in the step response y(t) or Y(X, t)) and setting a minimum number of the neurons K in the hidden layer as K ≥ W;
    3. iii. determining activation functions of the hidden layer neurons, wherein determining the activation functions comprises determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA);
    4. iv. Creating the FNN with K ≥ W neurons in the hidden layer shown in iii. certain activation functions, weight coefficients and bias coefficients and determining an approximate impulse response g̃ K (t) of the system using the FNN.
  • Embodiment 6: Method according to the previous embodiment, wherein the method comprises an output of the approximate impulse response g̃ K (t).
  • Embodiment 7: Method according to one of the two previous embodiments, wherein the method comprises a transformation of the approximate response y(t) into a frequency space, with a transfer function G(s) being determined as G ( s ) = Y ˜ K ( s ) / X ( s )
    Figure DE102023205425A1_0028
    where X(s) is a known system excitation and Y(s) is the transformed, approximated response.
  • Embodiment 8: Computer-implemented method for creating a soft sensor, the soft sensor comprising a feedforward neural network (FNN), the soft sensor being set up to determine at least one target variable from at least one measured variable using the FNN, the FNN using a Method according to one of embodiments 1 to 4 is created.
  • Embodiment 9: Measuring method using a soft sensor, the method comprising the following steps:
    • - Recording at least one time course of at least one measured variable with at least one hardware sensor;
    • - Determining at least one target variable using at least one feedforward neural network (FNN) of the soft sensor, the FNN being created using a method according to one of embodiments 1 to 4.
  • Embodiment 10: Measuring method according to the preceding embodiment, wherein the measuring method includes performing system identification using a system identification method according to any one of Embodiments 5 to 7.
  • Embodiment 11: Soft sensor, wherein the soft sensor is set up to determine at least one target variable from at least one measured variable, wherein the soft sensor comprises at least one feedforward neural network (FNN), wherein the FNN comprises at least one input layer, at least one hidden layer and at least one output layer , wherein the FNN is created using a method according to one of embodiments 1 to 4.
  • Embodiment 12: Soft sensor according to the previous embodiment, wherein the soft sensor is set up to carry out a method for system identification according to one of embodiments 5 to 7.
  • Embodiment 13: Soft sensor according to one of embodiments 11 and 12, wherein the soft sensor is set up to carry out a measuring method according to one of embodiments 9 to 10.
  • Embodiment 14: System comprising at least one electric motor, at least one programmable control and evaluation unit and at least one acceleration sensor, which is set up to detect system changes by measuring at least one acceleration signal, the control and evaluation unit being set up as an actual feedforward neural network (FNN). using an approximation algorithm, wherein the actual FNN comprises at least one input layer, at least one hidden layer and at least one output layer, wherein generating the actual FNN comprises an approximation of the acceleration signal, the acceleration signal being used as an input variable for the approximation algorithm, where generating the actual FNN includes the following steps:
    1. i) determining a number of turning points W in an interval of the acceleration signal and setting a minimum number of the neurons K in the hidden layer as K ≥ W;
    2. ii) determining activation functions of the hidden layer neurons, wherein determining the activation functions includes determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA),
    wherein the control and evaluation unit is set up to compare the specified number of neurons of the actual FNN with a number of neurons of a predetermined reference FNN and the specific weighting coefficients of the actual FNN with weighting coefficients of the predetermined reference FNN, the tax - and evaluation unit is set up to carry out at least one service and/or maintenance measure depending on the result of the comparison.
  • Embodiment 15: System according to the previous embodiment, wherein the service and/or maintenance action comprises at least one action selected from the group consisting of: issuing and/or displaying at least one service message; a request to carry out at least one measure; a replacement of at least one element of the electric motor; at least one maintenance operation on at least one element of the electric motor; adjusting at least one operating parameter of the electric motor; and terminating operation of the electric motor.
  • Embodiment 16: System according to one of embodiments 14 to 15, wherein system changes include at least one change in a vibration pattern of the electric motor, in particular a change in an imbalance in at least one fan wheel and/or vibrations occurring and/or loss of lubricants and/or bearing damage.
  • Embodiment 17: System according to one of embodiments 14 to 16, wherein the acceleration sensor is set up to continuously measure the acceleration signal, the control and evaluation unit being set up to adaptively adapt the actual FNN to the continuous measurement signal.
  • Embodiment 18: System according to one of embodiments 14 to 17, wherein the control and evaluation unit is set up to predetermine the reference FNN, in particular when the electric motor is started up, wherein the predetermination of the reference FNN comprises the following steps:
    1. iii) measuring at least one acceleration signal using the acceleration sensor;
    2. iv) determining a number of turning points W in an interval of the acceleration signal and setting a minimum number of the neurons K in the hidden layer (114) as K ≥ W;
    3. v) determining activation functions of the hidden layer neurons (114), wherein determining the activation functions includes determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA).
  • Embodiment 19: System according to one of embodiments 14 to 18, wherein the control and evaluation unit is set up to generate the actual FNN fully automatically, wherein the control and evaluation unit is set up to determine the reference FNN fully automatically.
  • Embodiment 20: System according to one of embodiments 14 to 19, wherein the control and evaluation unit is set up, if there is no deviation or the specific deviation is within at least one predefined tolerance, to continue the operation of the system and / or to issue at least one message.
  • Embodiment 21: System according to one of embodiments 14 to 20, wherein the control and evaluation unit is designed as a programmable chip.
  • Embodiment 22: Computer-implemented method for operating a system comprising at least one electric motor, at least one programmable control and evaluation unit and at least one acceleration sensor, wherein a system according to one of embodiments 14 to 11 is used in the method, comprising the following steps:
    1. (1) measuring at least one acceleration signal with the acceleration sensor;
    2. (2) Generating an actual feedforward neural network (FNN) using an approximation algorithm with the control and evaluation unit, the actual FNN comprising at least one input layer, at least one hidden layer and at least one output layer, wherein generating the actual FNN an approximation of the acceleration signal, the acceleration signal being used as an input variable for the approximation algorithm, wherein generating the actual FNN comprises the following steps:
      1. i) determining a number of turning points W in an interval of the acceleration signal and setting a minimum number of the neurons K in the hidden layer as K ≥ W;
      2. ii) determining activation functions of the hidden layer neurons, wherein determining the activation functions comprises determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA);
    3. (3) comparing the specified number of neurons of the actual FNN with a number of neurons of a predetermined reference FNN and the determined weighting coefficients of the actual FNN with weighting coefficients of the predetermined reference FNN with the control and evaluation unit;
    4. (4) depending on the result of the comparison, carrying out at least one service and/or maintenance measure.
  • Embodiment 23: Computer program that, when executed on a computer or computer network, carries out the method according to the previous embodiment.

Kurze Beschreibung der FigurenShort description of the characters

Weitere Einzelheiten und Merkmale ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen, insbesondere in Verbindung mit den Unteransprüchen. Hierbei können die jeweiligen Merkmale für sich alleine oder zu mehreren in Kombination miteinander verwirklicht sein. Die Erfindung ist nicht auf die Ausführungsbeispiele beschränkt. Die Ausführungsbeispiele sind in den Figuren schematisch dargestellt. Gleiche Bezugsziffern in den einzelnen Figuren bezeichnen dabei gleiche oder funktionsgleiche bzw. hinsichtlich ihrer Funktionen einander entsprechende Elemente.Further details and features emerge from the following description of exemplary embodiments, in particular in connection with the subclaims. The respective features can be implemented alone or in combination with each other. The invention is not limited to the exemplary embodiments. The exemplary embodiments are shown schematically in the figures. The same reference numbers in the individual figures indicate the same or radio Elements that are identical or correspond to one another in terms of their functions.

Im Einzelnen zeigen:

  • 1 ein Flussdiagramm eines Ausführungsbeispiels eines Computer-implementiertes Verfahren zum Erstellen eines FNN zum Lösen von mindestens einer Approximationsaufgabe;
  • 2 eine beispielhafte Architektur eines Erstellten FNN für eine Approximationsaufgabe;
  • 3 ein Flussdiagramm eines Ausführungsbeispiels eines computer-implementiertes Verfahren zur Systemidentifikation eines SISO- oder MIMO-Systems;
  • 4 eine beispielhafte Architektur eines FNN zur Erzeugung der Impulsantwort; und
  • 5 ein beispielhaftes System und beispielhaftes Flussdiagramm eines Ausführungsbeispiels eines computer-implementierten Verfahrens zum Betrieb eines Systems.
Show in detail:
  • 1 a flowchart of an embodiment of a computer-implemented method for creating an FNN for solving at least one approximation task;
  • 2 an exemplary architecture of a created FNN for an approximation task;
  • 3 a flowchart of an exemplary embodiment of a computer-implemented method for system identification of a SISO or MIMO system;
  • 4 an exemplary architecture of an FNN for generating the impulse response; and
  • 5 an example system and example flowchart of an embodiment of a computer-implemented method for operating a system.

Beschreibung der AusführungsbeispieleDescription of the exemplary embodiments

1 zeigt ein Flussdiagramm eines Ausführungsbeispiels eines Computer-implementierten Verfahrens zum Erstellen eines FNN 110 zum Lösen von mindestens einer Approximationsaufgabe. Das FNN 110 umfasst, wie beispielsweise in den 2 und 4 gezeigt, mindestens eine Eingabeschicht 112, mindestens eine verdeckte Schicht 114 und mindestens eine Ausgabeschicht 116. Das Lösen von der mindestens einen Approximationsaufgabe umfasst eine Approximation von einem oder mehreren von mindestens einer Funktion y(x) mindestens eines Vektors Y(X, t) oder mindestens einem messtechnisch ermittelten, analogen oder digitalen, Zeitverlauf y(t). Die Funktion y(x) (bzw. der Y(X, t); im Folgenden wird zur Vereinfachung nur auf Funktionen Bezug genommen, wobei analoges für Vektoren gilt) kann dabei eine beliebige, insbesondere unbekannte, Funktion sein. Der Zeitverlauf kann ein beliebiger zeitlicher Verlauf einer Messgröße sein, beispielsweise Messdaten yn(tn). Das Lösen von mindestens einer Approximationsaufgabe kann eine Approximation ỹK eines zum Beispiel messtechnisch ermittelten Zeitverlaufs yn(tn) oder einer unbekannten Funktion y(x) umfassen. 1 shows a flowchart of an exemplary embodiment of a computer-implemented method for creating an FNN 110 for solving at least one approximation task. The FNN 110 includes, for example, in the 2 and 4 shown, at least one input layer 112, at least one hidden layer 114 and at least one output layer 116. Solving the at least one approximation problem includes an approximation of one or more of at least one function y (x) of at least one vector Y (X, t) or at least one measured, analog or digital, time course y(t). The function y(x) (or Y(X, t); in the following, for the sake of simplicity, reference will only be made to functions, whereby the same applies to vectors) can be any, in particular unknown, function. The time course can be any time course of a measured variable, for example measurement data y n (t n ). Solving at least one approximation problem can include an approximation ỹ K of a time course y n (t n ) determined by measurement, for example, or an unknown function y(x).

Das Verfahren umfasst die folgenden Schritte:

  1. a) (118) Vorgeben mindestens einer Funktion y(x) oder messtechnisches Ermitteln mindestens eines, analogen oder digitalen, Zeitverlaufs y(t) in einem Intervall [L,U];
  2. b) (120) Bestimmen von einer Anzahl von Wendepunkten W in dem Intervall [L,U] und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht 114 als K ≥ W;
  3. c) (122) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht 114, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst.
The procedure includes the following steps:
  1. a) (118) Specifying at least one function y(x) or measuring at least one, analog or digital, time course y(t) in an interval [L,U];
  2. b) (120) determining a number of turning points W in the interval [L,U] and setting a minimum number of neurons K in the hidden layer 114 as K ≥ W;
  3. c) (122) determining activation functions of the neurons of the hidden layer 114, wherein determining the activation functions includes determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA).

Die Verfahrensschritte können in der angegebenen Reihenfolge durchgeführt werden, wobei einer oder mehrere der Schritte zumindest teilweise auch gleichzeitig durchgeführt werden können und wobei einer oder mehrere der Schritte mehrfach wiederholt werden können. Darüber hinaus können weitere Schritte unabhängig davon, ob sie in der vorliegenden Anmeldung erwähnt werden oder nicht, zusätzlich ausgeführt werden.The method steps can be carried out in the specified order, whereby one or more of the steps can also be carried out at least partially simultaneously and whereby one or more of the steps can be repeated several times. In addition, further steps may be additionally carried out, regardless of whether they are mentioned in the present application or not.

Das Bestimmen der Anzahl der Wendepunkte kann ein Unterteilen des Intervalls [L,U] der zu approximierenden Funktion y(x) oder des zu approximierenden Zeitverlaufs y(t) in insgesamt K Subintervalle [ΔLm,ΔUm] ∈ [L,U] mit m G K umfassen. Grenzen der Subintervalle können durch y'(ΔLm)=0 und y'(ΔUm)=0 berechnet werden, wobei im Falle eines Zeitver- laufes   y ' = d y d t

Figure DE102023205425A1_0029
und für eine Funktion   y ' = d y d x
Figure DE102023205425A1_0030
gilt.Determining the number of turning points can involve dividing the interval [L,U] of the function y(x) to be approximated or the time course y(t) to be approximated into a total of K subintervals [ΔL m ,ΔU m] ∈ [L,U] with m GK include. Boundaries of the subintervals can be calculated by y'(ΔL m )=0 and y'(ΔU m )=0, where in the case of a time course y ' = d y d t
Figure DE102023205425A1_0029
and for a function y ' = d y d x
Figure DE102023205425A1_0030
applies.

Die zu approximierende Funktion y(x) oder der zu approximierende Zeitverlauf y(t) können in den Subintervallen streng monoton steigend oder fallend sein und die erste Ableitung kann einen Vorzeichenwechsel aufweisen. In jedem Subintervall muss dann genau ein Wendepunkt der zu approximierenden Funktion y(x) oder des zu approximierenden Zeitverlaufs y(t) vorliegen. Die Aktivierungsfunktion für eine Approximation einer derartigen Funktion y(x) oder eines derartigen Zeitverlaufs y(t) innerhalb eines zeitlichen Subintervalls durch ein entsprechendes Neuron aus der verdeckten Schicht, kann ebenfalls streng monoton steigend oder fallend sein. Dieses ermöglicht eine möglichst gute Approximation. Beispiele für Aktivierungsfunktionen können beispielswiese die Gruppe der Sigmoidfunktionen oder eine Tangens-Hyperbolikusfunktion, oder eine Funktion vergleichbarer Charakteristik sein. Denkbar ist auch der Einsatz einer Signumfunktion.The function y(x) to be approximated or the time course y(t) to be approximated can be strictly monotonically increasing or decreasing in the subintervals and the first derivative can have a sign change. In each subinterval there must then be exactly one turning point of the function y(x) to be approximated or of the time course y(t) to be approximated. The activation function for an approximation of such a function y(x) or such a time course y(t) within a time subinterval by a corresponding neuron from the hidden layer can also be strictly monotonically increasing or decreasing. This enables the best possible approximation. Examples of activation functions can be, for example, the group of sigmoid functions or a tangent hyperbolic function, or a function with comparable characteristics. The use of a sign function is also conceivable.

Im Folgenden werden beispielhaft Verfahrensschritte b) und c) für Zeitverläufe betrachtet. Vergleichbares lässt sich auch für Funktionen umsetzen, wie der Fachmann sofort erkennt.In the following, process steps b) and c) for time courses are considered as examples. Similar things can also be implemented for functions, as the expert will immediately recognize.

Für einen beliebigen Zeitverlauf kann in einem beliebigen zeitlichen Subintervall, dass für y(t) mit streng monoton steigendem oder fallendem Zeitverlauf und einem Vorzeichenwechsel in y' genau ein Wendepunkt W in diesem Subintervall vorliegen. Die Anzahl der Wendepunkte W von y(t) im gesamten Zeitintervall [L, U] kann dann die Minimalzahl K der zu verwendenden Neuronen innerhalb der verdeckten Schicht 114 eines FNN 110 definieren, die mindestens erforderlich ist, um eine optimale Approximation für den entsprechenden Zeitverlauf y(t) zu erzielen. Durchgeführte Simulation zeigen, dass, wenn die Anzahl K der verwendeten Neuronen unterhalb des Wertes W liegt, die erzielbare Approximationsqualität des FNN 110 deutlich schlechter ausfallen.For any time course, in any time subinterval, that for y (t) with a strictly monotonically rising or falling time course and a change of sign in y' there is exactly one turning point W in this subinterval. The number of turning points W of y(t) in the entire time interval [L, U] can then define the minimum number K of neurons to be used within the hidden layer 114 of an FNN 110, which is at least required to obtain an optimal approximation for the corresponding time course to achieve y(t). Simulations carried out show that if the number K of neurons used is below the value W, the achievable approximation quality of the FNN 110 is significantly worse.

Für die optimale Approximation des Zeitverlaufs y(t) innerhalb eines zeitlichen Subintervalls [ΔLm,ΔUm,] durch ein entsprechendes Neuron aus der verdeckten Schicht kann die dafür benötigte Aktivierungsfunktion a(um(t)) ebenfalls streng monoton steigend oder fallend sein. So kann eine möglichst gute Anpassung an den Zeitverlauf y(t) im Subintervall [ΔLm, ΔUm]) erreicht werden.For the optimal approximation of the time course y(t) within a temporal subinterval [ΔL m ,ΔU m ,] by a corresponding neuron from the hidden layer, the activation function a(u m (t)) required for this can also be strictly monotonically increasing or decreasing . In this way, the best possible adaptation to the time course y(t) in the subinterval [ΔL m , ΔU m ]) can be achieved.

Beispielsweise kann der Zeitverlauf y(t) eine Lösunge von linearen Differentialgleichungen beliebiger Ordnung oder schwach nichtlinearen Differentialgleichungen erster Ordnung beispielsweise vom Typ Lotka-Volterra sein. Derartige Zeitverläufe y(t) können durch die in einer Hyperbolikus-Funktion enthaltene e-Funktion geprägt sein. Beispielsweise kann für die Approximation der Zeitverläufe eine Tangens-Hyperbolikus Funktion als Hauptbestandteil der Aktivierungsfunktion a(um(t)) verwendet werden. Die Aktivierungsfunktion a (um (t)) des m-ten Neurons in der verdeckten Schicht 114, in 2 mit {1} bezeichnet, kann beispielsweise den folgenden Zeitverlauf aufweisen a ( u m ( t ) ) = 2 1 + e 2 u m ( t ) + 1.

Figure DE102023205425A1_0031
For example, the time course y(t) can be a solution of linear differential equations of any order or weakly nonlinear first-order differential equations, for example of the Lotka-Volterra type. Such time courses y(t) can be characterized by the e-function contained in a hyperbolic function. For example, a tangent hyperbolic function can be used as the main component of the activation function a(u m (t)) to approximate the time courses. The activation function a (u m (t)) of the mth neuron in the hidden layer 114, in 2 denoted by {1}, can, for example, have the following time course a ( u m ( t ) ) = 2 1 + e 2 u m ( t ) + 1.
Figure DE102023205425A1_0031

Zur Skalierung von a(um(t)) kann eine sogenannte Propagierungsfunktion der verdeckten Schicht 114 verwendet werden u m ( t ) = w m { 1 } + b m { 1 }

Figure DE102023205425A1_0032
mit dem Gewichtungskoeffizient w m { 1 }
Figure DE102023205425A1_0033
und dem Biaskoeffizient b m { 1 } .
Figure DE102023205425A1_0034
Gewichtungskoeffizient und Biaskoeffizient können durch einen BPA wie zum Beispiel dem Bayesian regularization backpropagation- oder Levenberg-Marquardt-BPA bestimmt werden. Jedes zeitliche Subintervall kann dann durch eine oder mehrere Aktivierungsfunktionen und deren optimierten Parametern w m { 1 }
Figure DE102023205425A1_0035
und b m { 1 }
Figure DE102023205425A1_0036
beschrieben werden.A so-called propagation function of the hidden layer 114 can be used to scale a(u m (t)). u m ( t ) = w m { 1 } + b m { 1 }
Figure DE102023205425A1_0032
with the weighting coefficient w m { 1 }
Figure DE102023205425A1_0033
and the bias coefficient b m { 1 } .
Figure DE102023205425A1_0034
Weighting coefficient and bias coefficient can be determined by a BPA such as the Bayesian regularization backpropagation or Levenberg-Marquardt BPA. Each temporal subinterval can then be defined by one or more activation functions and their optimized parameters w m { 1 }
Figure DE102023205425A1_0035
and b m { 1 }
Figure DE102023205425A1_0036
to be discribed.

Für die Gesamtzahl K der zu verwendenden Aktivierungsfunktionen, welche der Gesamtzahl der Neuronen in der verdeckten Schicht 114 eines FNN 110 entspricht, kann gelten: K W .

Figure DE102023205425A1_0037
The following applies to the total number K of activation functions to be used, which corresponds to the total number of neurons in the hidden layer 114 of an FNN 110: K W .
Figure DE102023205425A1_0037

So kann y(t) im gesamten Zeitintervall [L, U] durch die zuvor parametrierten Aktivierungsfunktionen a(um(t)) optimal approximiert werden. Zahlreiche Simulationen haben gezeigt, dass ein FNN 110 zur Approximation von y(t) im gesamten Zeitintervall [L, U] mit K = W Neuronen bereits vergleichbar gute Ergebnisse hinsichtlich der Approximationsqualität liefert wie ein FNN 110 mit K > W.In this way, y(t) can be optimally approximated in the entire time interval [L, U] by the previously parameterized activation functions a(u m (t)). Numerous simulations have shown that an FNN 110 for approximating y(t) in the entire time interval [L, U] with K = W neurons already delivers comparably good results in terms of approximation quality as an FNN 110 with K > W.

Mit den Ergebnissen der K Aktivierungsfunktionen a(um(t)) aus der verdeckten Schicht 114 {1} kann dann in Verbindung mit einem einzigen weiteren Neuron in der Ausgabeschicht 116, in 2 mit {2} bezeichnet, welches die K Aktivierungsfunktionen aus der verdeckten Schicht überlagert (s. auch Gleichung (5)), die vollständige Approximation ỹK(t) von y(t) mit einem FFN 110 auf Basis von K Neuronen durchgeführt werden. Es kann dann gelten: y ˜ K ( t ) = ( m = 1 K w m { 2 } a ( u m ( t ) ) ) + b { 2 } .

Figure DE102023205425A1_0038
With the results of the K activation functions a(u m (t)) from the hidden layer 114 {1} can then be used in conjunction with a single further neuron in the output layer 116, in 2 denoted by {2}, which overlays the K activation functions from the hidden layer (see also equation (5)), the complete approximation ỹ K (t) of y(t) can be carried out with an FFN 110 based on K neurons. It can then apply: y ˜ K ( t ) = ( m = 1 K w m { 2 } a ( u m ( t ) ) ) + b { 2 } .
Figure DE102023205425A1_0038

Die Gewichtungen w m { 2 }

Figure DE102023205425A1_0039
und b m { 2 }
Figure DE102023205425A1_0040
der Ausgabeschicht können durch einen BPA bestimmt werden, beispielsweise einen der bereits erwähnten BPA.The weights w m { 2 }
Figure DE102023205425A1_0039
and b m { 2 }
Figure DE102023205425A1_0040
the output layer can be determined by a BPA, for example one of the BPAs already mentioned.

Eine Ausführungsform eines durch das beschriebene Verfahren erstelltes FNN 110 ist in 2 gezeigt. Das FNN 110 ist eingerichtet zur Approximation ỸK(t) eines Zeitverlaufes y(t) mit insgesamt K Neuronen in der verdeckten Schicht 114, sowie einem Neuron in der Eingabeschicht 112 sowie der Ausgabeschicht 114. 2 zeigt weiter die Funktion des BPAs in Verbindung mit dem FNN 110. Eine Darstellung einer Zeitdiskretisierung in Verbindung mit der Ausführung des Algorithmus wird nicht gezeigt.An embodiment of an FNN 110 created by the described method is shown in FIG 2 shown. The FNN 110 is set up to approximate Ỹ K (t) of a time course y(t) with a total of K neurons in the hidden layer 114, as well as one neuron in the input layer 112 and the output layer 114. 2 further shows the function of the BPA in connection with the FNN 110. A representation of a time discretization in connection with the execution of the algorithm is not shown.

Stimmt die Anzahl der Neuronen K mit der Anzahl der Wendepunkte W für die Zeitfunktion y(t) im zu approximierenden Zeitintervall [L, U] überein, kann die Steigung und die Position des Wendepunktes in der Aktivierungsfunktion a(um(t)) mit Hilfe der Propagierungsfunktion um(t) für jeden Wendepunkt von y(t) separat berechnet werden. Ähnliche Überlegungen gelten auch für beliebige Funktionen y(x).If the number of neurons K agrees with the number of turning points W for the time function y(t) in the time interval [L, U] to be approximated, the slope and the position of the turning point in the activation function a(u m (t)) can also be used Using the propagation function u m (t) can be calculated separately for each turning point of y(t). Similar considerations also apply to arbitrary functions y(x).

Durch Ausschreiben von Gleichung (4) ergibt sich für die Approximation mit K Neuronen in der verdeckten Schicht ỹK(t) eines Zeitverlaufes y(t): y K ( t ) = ( 2 1 + e 2 u 1 ( t ) + 1 ) w 1 { 2 } + ( 2 1 + e 2 u 2 ( t ) + 1 ) w 2 { 2 } + + ( 2 1 + e 2 u K ( t ) + 1 ) w K { 2 } + b { 2 } .

Figure DE102023205425A1_0041
By writing out equation (4), the approximation with K neurons in the hidden layer ỹ K (t) of a time course y(t) results: y K ( t ) = ( 2 1 + e 2 u 1 ( t ) + 1 ) w 1 { 2 } + ( 2 1 + e 2 u 2 ( t ) + 1 ) w 2 { 2 } + + ( 2 1 + e 2 u K ( t ) + 1 ) w K { 2 } + b { 2 } .
Figure DE102023205425A1_0041

Aus Gleichung (5) wird ersichtlich, dass im Rahmen der vorliegenden Erfindung das FNN 110 durch Anwendung des Superpositionsprinzips aus insgesamt K = W Tangens-Hyperbolikus-Funktionen mathematisch nachgebildet werden kann, um eine optimale Approximation ỹK(t) eines Zeitverlaufes y(t) zu erhalten.From equation (5) it can be seen that within the scope of the present invention the FNN 110 can be mathematically modeled by using the superposition principle from a total of K = W tangent hyperbolic functions in order to achieve an optimal approximation ỹ K (t) of a time course y(t ) to obtain.

3 ein Flussdiagramm eines Ausführungsbeispiels eines computer-implementiertes Verfahren zur Systemidentifikation eines SISO oder MIMO Systems. In dem Verfahren wird ein erfindungsgemäßes Verfahren zum Erstellen eines FNN zum Lösen von Approximationsaufgaben verwendet, beispielsweise das in den 1 und 2 beschriebene Verfahren. Hinsichtlich Definitionen und Ausführungsformen wird auf die Beschreibung des Verfahrens zum Erstellen eines FNN zum Lösen von Approximationsaufgaben verwiesen. 3 a flowchart of an exemplary embodiment of a computer-implemented method for system identification of a SISO or MIMO system. In the method, a method according to the invention for creating an FNN for solving approximation tasks is used, for example that in the 1 and 2 described procedures. Regarding definitions and embodiments, reference is made to the description of the method for creating an FNN for solving approximation tasks.

Das SISO System oder das MIMO System kann mindestens ein technisches oder nichttechnisches System sein ausgewählt aus der Gruppe bestehend aus linearen oder schwach nichtlinearen, beispielsweise Lotka-Volterra-Systeme (Räuber-Beute-System), dynamischen Systeme mit mindestens zwei Schnittstellen (Eingang, Ausgang) für technisch und/oder physikalische Messgrößen, wie beispielsweise Antriebssysteme, Softsensoren, Räuber-Beute-Systeme und ähnliche.The SISO system or the MIMO system can be at least one technical or non-technical system selected from the group consisting of linear or weakly nonlinear, for example Lotka-Volterra systems (predator-prey system), dynamic systems with at least two interfaces (input, output ) for technical and/or physical measurement variables, such as drive systems, soft sensors, predator-prey systems and similar.

Das Verfahren umfasst die folgenden Schritte:

  1. i. (124) Erfassen einer Sprungantwort y(t) oder Y(X, t)),
  2. ii. (126) Bestimmen einer Anzahl von Wendepunkten W in der Sprungantwort y(t) oder Y(X, t)) und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht 114 als K ≥ W;
  3. iii. (128) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht 114, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst;
  4. iv. (130) Erstellen des FNN 110 mit K ≥ W Neuronen in der verdeckten Schicht 114, der in iii. bestimmten Aktivierungsfunktionen, Gewichtskoeffizienten und Biaskoeffizienten und Bestimmen einer approximierten Impulsantwort g̃K(t) des Systems unter Verwendung des FNN 110.
The procedure includes the following steps:
  1. i. (124) Detecting a step response y(t) or Y(X, t)),
  2. ii. (126) determining a number of turning points W in the step response y(t) or Y(X, t)) and setting a minimum number of the neurons K in the hidden layer 114 as K ≥ W;
  3. iii. (128) determining activation functions of the hidden layer neurons 114, wherein determining the activation functions includes determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA);
  4. iv. (130) Creating the FNN 110 with K ≥ W neurons in the hidden layer 114 shown in iii. certain activation functions, weight coefficients and bias coefficients and determining an approximate impulse response g̃ K (t) of the system using the FNN 110.

Die Verfahrensschritte können in der angegebenen Reihenfolge durchgeführt werden, wobei einer oder mehrere der Schritte zumindest teilweise auch gleichzeitig durchgeführt werden können und wobei einer oder mehrere der Schritte mehrfach wiederholt werden können. Darüber hinaus können weitere Schritte unabhängig davon, ob sie in der vorliegenden Anmeldung erwähnt werden oder nicht, zusätzlich ausgeführt werden.The method steps can be carried out in the specified order, whereby one or more of the steps can also be carried out at least partially simultaneously and whereby one or more of the steps can be repeated several times. In addition, further steps may be additionally carried out, regardless of whether they are mentioned in the present application or not.

Das Bestimmen der approximierten Impulsantwort g̃K(t) des Systems kann durch eine Differentiation der Approximation der Sprungantwort y(t) erfolgen. Die Approximation der Sprungantwort y(t) kann unter Verwendung der in iii) bestimmten Aktivierungsfunktionen aus der verdeckten Schicht 114 und einem Neuron der Ausgabeschicht 116, welches die K Aktivierungsfunktionen aus der verdeckten Schicht 114 überlagert, bestimmt werden, beispielsweise wie weiter oben beschrieben hinsichtlich des Verfahrens zum Erstellen eines Feedforward Neural Network zum Lösen von Approximationsaufgaben. Beispielsweise kann das Verfahren ein Anregen des System an einem Eingang x(t), beispielsweise mit einer Sprungfunktion (Einheitssprung) umfassen. Die Sprungfunktion kann definiert sein als x ( t ) = { 0   f u ¨ r   t < 0 1   f u ¨ r   t 0 .

Figure DE102023205425A1_0042
Determining the approximate impulse response g̃ K (t) of the system can be done by differentiating the approximation of the step response y(t). The approximation of the step response y(t) can be determined using the activation functions from the hidden layer 114 determined in iii) and a neuron from the output layer 116 which superimposes the K activation functions from the hidden layer 114, for example as described above with regard to Method for creating a feedforward neural network for solving approximation tasks. For example, the method can include stimulating the system at an input x(t), for example with a step function (unit jump). The jump function can be defined as x ( t ) = { 0 f u ¨ r t < 0 1 f u ¨ r t 0 .
Figure DE102023205425A1_0042

Das Verfahren kann ein Erfassen der Sprungantwort y(t) als Datenpunkte an einem Ausgang des Systems umfassen. Unter Verwendung des erfindungsgemäßen Verfahrens zum Erstellen eines FNN zum Lösen von Approximationsaufgaben kann ein FNN derart automatisch so ausgelegt werden, dass dieses die optimale Approximation ỹK (t) der Sprungantwort y(t) liefert. Durch Differenzieren von ỸK(t) kann sich die approximierte Impulsantwort G̃K (t) des Systems ergeben. Die Lösung der Differentiation von ỸK(t) kann durch g ˜ K ( t ) = ( m = 1 K w m { 1,2 } [ 1 tanh 2 ( w m { 1 } + b m { 1 } ) ] ) + b { 2 }

Figure DE102023205425A1_0043
gegeben sein.The method may include detecting the step response y(t) as data points at an output of the system. Using the method according to the invention for creating an FNN for solving approximation tasks, an FNN can be automatically designed in such a way that it delivers the optimal approximation ỹ K (t) of the step response y(t). By differentiating Ỹ K (t) the approximate impulse response G̃ K (t) of the system can be obtained. The solution of the differentiation of Ỹ K (t) can be by G ˜ K ( t ) = ( m = 1 K w m { 1.2 } [ 1 tanh 2 ( w m { 1 } + b m { 1 } ) ] ) + b { 2 }
Figure DE102023205425A1_0043
be given.

4 eine beispielhafte Architektur eines FNN zur Erzeugung der Impulsantwort. 4 an exemplary architecture of an FNN for generating the impulse response.

Alternativ oder zusätzlich, kann die approximierte Impulsantwort g̃K(t) des Systems, ohne eine Differentiation, direkt durch das FNN 110 bereitgestellt werden. Das Bestimmen der approximierten Impulsantwort g̃K(t) des Systems erfolgt unter Verwendung der in iii) bestimmten Aktivierungsfunktionen, Gewichtungskoeffizienten und Biaskoeffizienten und einem Neuron der Ausgabeschicht 116, welches die K Aktivierungsfunktionen aus der verdeckten Schicht 114 überlagert. Wird ein FNN mit K = W Neuronen, mit der Aktivierungsfunktion a ( u m ( t ) ) = 1 tanh 2 ( w m { 1 } t + b m { 1 } ) ,

Figure DE102023205425A1_0044
nach Gleichung (7)) mit den Gewichtungskoeffizienten w m { 1 } , w m { 2 } , w m { 1,2 } = w m { 1 } w m { 2 } ,
Figure DE102023205425A1_0045
den Biaskoeffizienten b m { 1 }
Figure DE102023205425A1_0046
und b { 2 }
Figure DE102023205425A1_0047
zur Erzeugung von ỸK(t) ausgestattet, dann kann g̃K(t) direkt durch das FNN bereitgestellt werden. Anstatt der Gewichtungskoeffizienten w m { 2 }
Figure DE102023205425A1_0048
zur Approximation der Sprungantwort, können in der Ausgabeschicht 116 die Gewichtungskoeffizienten w m { 1,2 } = w m { 1 } w m { 2 }
Figure DE102023205425A1_0049
verwendet werden. Die approximierte Impulsantwort g̃K(t) kann somit direkt ohne Durchführung einer Differentiation durch das FNN 110 bereitgestellt werden. 4 zeigt eine Architektur eines FNN 110, in welchem die approximierte Impulsantwort g̃K(t) direkt ohne Durchführung einer Differentiation durch das FNN 110 bereitgestellt werden kann.Alternatively or additionally, the approximate impulse response g̃ K (t) of the system may be provided directly by the FNN 110 without differentiation. The approximate impulse response g̃ K (t) of the system is determined using the activation function determined in iii). nen, weighting coefficients and bias coefficients and a neuron of the output layer 116, which overlays the K activation functions from the hidden layer 114. Will be an FNN with K = W neurons, with the activation function a ( u m ( t ) ) = 1 tanh 2 ( w m { 1 } t + b m { 1 } ) ,
Figure DE102023205425A1_0044
according to equation (7)) with the weighting coefficients w m { 1 } , w m { 2 } , w m { 1.2 } = w m { 1 } w m { 2 } ,
Figure DE102023205425A1_0045
the bias coefficient b m { 1 }
Figure DE102023205425A1_0046
and b { 2 }
Figure DE102023205425A1_0047
equipped to generate Ỹ K (t), then g̃ K (t) can be directly provided by the FNN. Instead of the weighting coefficients w m { 2 }
Figure DE102023205425A1_0048
To approximate the step response, the weighting coefficients can be used in the output layer 116 w m { 1.2 } = w m { 1 } w m { 2 }
Figure DE102023205425A1_0049
be used. The approximate impulse response g̃ K (t) can therefore be provided directly by the FNN 110 without carrying out any differentiation. 4 shows an architecture of an FNN 110 in which the approximate impulse response g̃ K (t) can be provided directly by the FNN 110 without performing any differentiation.

5 zeigt ein beispielhaftes System 132 und beispielhaftes Flussdiagramm eines Ausführungsbeispiels eines computer-implementierten Verfahrens zum Betrieb eines Systems 132. Das System umfasst mindestens einen Elektromotor, hier nicht dargestellt, mindestens eine programmierbare Steuer- und Auswerteeinheit 134 und mindestens einen Beschleunigungssensor 136. Das Verfahren umfasst die folgenden Schritte:

  1. (1) (138) Messen mindestens eines Beschleunigungssignals mit dem Beschleunigungssensor 136;
  2. (2) (140) Erzeugen eines Ist-Feedforward Neural Network (FNN) unter Verwendung eines Approximationsalgorithmus mit der Steuer- und Auswerteeinheit, wobei das Ist-FNN mindestens eine Eingabeschicht (112), mindestens eine verdeckte Schicht (114) und mindestens eine Ausgabeschicht (116) umfasst, wobei das Erzeugen des Ist-FNN eine Approximation des Beschleunigungssignals umfasst, wobei das Beschleunigungssignal als Eingangsgröße für den Approximationsalgorithmus verwendet wird, wobei das Erzeugen des Ist-FNN die folgenden Schritte umfasst:
    • i) Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht (114) als K ≥ W;
    • ii) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht (114), wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst;
  3. (3) (142) Vergleichen der festgelegten Anzahl der Neuronen des Ist- FNN mit einer Anzahl von Neuronen eines vorbestimmten Referenz-FNN und der bestimmten Gewichtungskoeffizienten des Ist-FNN mit Gewichtungskoeffizienten des vorbestimmten Referenz-FNN mit der Steuer- und Auswerteeinheit 134;
  4. (4) in Abhängigkeit des Ergebnisses des Vergleichs, Ausführen 144 mindestens einer Service- und/oder Wartungsmaßnahme.
5 shows an exemplary system 132 and an exemplary flowchart of an exemplary embodiment of a computer-implemented method for operating a system 132. The system includes at least one electric motor, not shown here, at least one programmable control and evaluation unit 134 and at least one acceleration sensor 136. The method includes following steps:
  1. (1) (138) measuring at least one acceleration signal with the acceleration sensor 136;
  2. (2) (140) Generating an actual feedforward neural network (FNN) using an approximation algorithm with the control and evaluation unit, the actual FNN having at least one input layer (112), at least one hidden layer (114) and at least one output layer (116), wherein generating the actual FNN comprises an approximation of the acceleration signal, the acceleration signal being used as an input for the approximation algorithm, wherein generating the actual FNN comprises the following steps:
    • i) determining a number of turning points W in an interval of the acceleration signal and setting a minimum number of the neurons K in the hidden layer (114) as K ≥ W;
    • ii) determining activation functions of the hidden layer neurons (114), wherein determining the activation functions comprises determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA);
  3. (3) (142) comparing the specified number of neurons of the actual FNN with a number of neurons of a predetermined reference FNN and the determined weighting coefficients of the actual FNN with weighting coefficients of the predetermined reference FNN with the control and evaluation unit 134;
  4. (4) depending on the result of the comparison, carrying out 144 at least one service and/or maintenance measure.

Die Service- und/oder Wartungsmaßnahme kann mindestens eine Maßnahme umfassen ausgewählt aus der Gruppe bestehend aus: einem Erlassen und/oder einem Anzeigen mindestens einer Servicemeldung; einer Aufforderung zur Durchführung mindestens einer Maßnahme; einem Austausch mindestens eines Elements des Elektromotors; mindestens einer Wartungshandlung an mindestens einem Element des Elektromotors; einem Anpassen von mindestens einem Betriebsparameter des Elektromotors; und einem Beenden eines Betriebs des Elektromotors. Beispielsweise kann die Service- und/oder Wartungsmaßnahme eine Anzeige mindestens einer Information umfassen, beispielsweise einer Warnung und/oder einer durchzuführenden Handlungsmaßnahme, unter Verwendung mindestens einer Mensch-Maschine-Schnittstelle 148, beispielsweise eines Displays.The service and/or maintenance measure may include at least one measure selected from the group consisting of: issuing and/or displaying at least one service message; a request to carry out at least one measure; a replacement of at least one element of the electric motor; at least one maintenance operation on at least one element of the electric motor; adjusting at least one operating parameter of the electric motor; and terminating operation of the electric motor. For example, the service and/or maintenance measure can include a display of at least one piece of information, for example a warning and/or an action to be taken, using at least one human-machine interface 148, for example a display.

Hinsichtlich des Erzeugen der FNN (Ist und Referenz-FNN) wird auf die Beschreibung der 1 bis 4 verwiesen.Regarding the creation of the FNN (actual and reference FNN), please refer to the description of 1 until 4 referred.

Zur Detektion der Systemveränderungen kann, beispielsweise zu Beginn des Messbetriebes oder bei einer Inbetriebnahme des Elektromotors, automatisch ein Referenz-FNN, auch als Soll-FNN bezeichnet, anhand der Approximation des Messsignals erzeugt 146 werden. Die Steuer- und Auswerteeinheit 134 eingerichtet sein das Referenz-FNN vorzubestimmen, insbesondere bei einer Inbetriebnahme des Elektromotors. Das Vorbestimmen des Referenz-FNN kann die folgenden Schritte umfassen:

  1. iii) messtechnisches Ermitteln mindestens eines Beschleunigungssignals mit dem Beschleunigungssensor 136;
  2. iv) Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht als K ≥ W;
  3. v) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht, wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst.
To detect the system changes, for example at the beginning of the measurement operation or when the electric motor is started up, a reference FNN, also referred to as a target FNN, can be automatically generated 146 based on the approximation of the measurement signal. The control and evaluation unit 134 can be set up to predetermine the reference FNN, in particular when the electric motor is started up. Predetermining the reference FNN may include the following steps:
  1. iii) metrologically determining at least one acceleration signal with the acceleration sensor 136;
  2. iv) determining a number of turning points W in an interval of the acceleration signal and setting a minimum one Number of neurons K in the hidden layer as K ≥ W;
  3. v) determining activation functions of the hidden layer neurons, wherein determining the activation functions includes determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA).

BezugszeichenlisteReference symbol list

110110
FNNFNN
112112
EingabeschichtInput layer
114114
Verdeckte SchichtHidden layer
116116
AusgabeschichtOutput layer
118118
Schritt a)Step a)
120120
Schritt b)step b)
122122
Schritt c)Step c)
124124
Schritt i)Step i)
126126
Schritt ii)Step ii)
128128
Schritt iii)Step iii)
130130
Schritt iv)Step iv)
132132
Systemsystem
134134
Steuer- und AuswerteeinheitControl and evaluation unit
136136
BeschleunigungssensorAccelerometer
138138
MessenMeasure
140140
Erzeugen Ist-FNNGenerate actual FNN
142142
VergleichenCompare
144144
AusführenCarry out
146146
Erzeugen Soll-FNNGenerate target FNN
148148
Mensch-Maschine-SchnittstelleHuman-machine interface

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • EP 1327959 A2 [0022, 0026]EP 1327959 A2 [0022, 0026]
  • DE 60020399 T2 [0087, 0088]DE 60020399 T2 [0087, 0088]
  • DE 102005034768 A1 [0087]DE 102005034768 A1 [0087]
  • EP 2359106 B1 [0087]EP 2359106 B1 [0087]
  • DE 19942144 A1 [0088, 0089]DE 19942144 A1 [0088, 0089]

Claims (10)

System (132) umfassend mindestens einen Elektromotor, mindestens eine programmierbare Steuer- und Auswerteeinheit (134) und mindestens einen Beschleunigungssensor (136), welcher eingerichtet ist Systemveränderungen durch Messen mindestens eines Beschleunigungssignals zu detektieren, wobei die Steuer- und Auswerteeinheit (134) eingerichtet ist ein Ist-Feedforward Neural Network (FNN) unter Verwendung eines Approximationsalgorithmus zu erzeugen, wobei das Ist-FNN mindestens eine Eingabeschicht (112), mindestens eine verdeckte Schicht (114) und mindestens eine Ausgabeschicht (116) umfasst, wobei das Erzeugen des Ist-FNN eine Approximation des Beschleunigungssignals umfasst, wobei das Beschleunigungssignal als Eingangsgröße für den Approximationsalgorithmus verwendet wird, wobei das Erzeugen des Ist-FNN die folgenden Schritte umfasst: i) Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht (114) als K ≥ W; ii) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht (114), wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst, wobei die Steuer- und Auswerteeinheit (134) eingerichtet ist, um die festgelegte Anzahl der Neuronen des Ist- FNN mit einer Anzahl von Neuronen eines vorbestimmten Referenz-FNN und die bestimmten Gewichtungskoeffizienten des Ist-FNN mit Gewichtungskoeffizienten des vorbestimmten Referenz-FNN zu vergleichen, wobei die Steuer- und Auswerteeinheit (134) eingerichtet ist, in Abhängigkeit des Ergebnisses des Vergleichs, mindestens eine Service- und/oder Wartungsmaßnahme auszuführen.System (132) comprising at least one electric motor, at least one programmable control and evaluation unit (134) and at least one acceleration sensor (136), which is set up to detect system changes by measuring at least one acceleration signal, wherein the control and evaluation unit (134) is set up to generate an actual feedforward neural network (FNN) using an approximation algorithm, the actual FNN having at least one input layer (112), at least one hidden layer (114) and at least one output layer (116), wherein generating the actual FNN comprises an approximation of the acceleration signal, the acceleration signal being used as an input for the approximation algorithm, wherein generating the actual FNN comprises the following steps: i) determining a number of turning points W in an interval of the acceleration signal and setting a minimum number of the neurons K in the hidden layer (114) as K ≥ W; ii) determining activation functions of the neurons of the hidden layer (114), wherein determining the activation functions includes determining respective weighting coefficients and bias coefficients using a backpropagation algorithm (BPA), wherein the control and evaluation unit (134) is set up to compare the specified number of neurons of the actual FNN with a number of neurons of a predetermined reference FNN and the specific weighting coefficients of the actual FNN with weighting coefficients of the predetermined reference FNN, wherein the control and evaluation unit (134) is set up to carry out at least one service and/or maintenance measure depending on the result of the comparison. System (132) nach Anspruch 1, wobei die Service- und/oder Wartungsmaßnahme mindestens eine Maßnahme umfasst ausgewählt aus der Gruppe bestehend aus: einem Erlassen und/oder einem Anzeigen mindestens einer Servicemeldung; einer Aufforderung zur Durchführung mindestens einer Maßnahme; einem Austausch mindestens eines Elements des Elektromotors; mindestens einer Wartungshandlung an mindestens einem Element des Elektromotors; einem Anpassen von mindestens einem Betriebsparameter des Elektromotors; und einem Beenden eines Betriebs des Elektromotors.System (132) after Claim 1 , wherein the service and/or maintenance measure comprises at least one measure selected from the group consisting of: issuing and/or displaying at least one service message; a request to carry out at least one measure; a replacement of at least one element of the electric motor; at least one maintenance operation on at least one element of the electric motor; adjusting at least one operating parameter of the electric motor; and terminating operation of the electric motor. System (132) nach einem der vorhergehenden Ansprüche, wobei Systemveränderungen mindestens eine Veränderung in einem Vibrationsmuster des Elektromotors umfasst, insbesondere eine Änderung einer Unwucht in mindestens einem Lüfterrad und/oder auftretende Vibrationen und/oder Verlust von Schmiermittel und/oder Lagerschäden umfassen.System (132) according to one of the preceding claims, wherein system changes include at least one change in a vibration pattern of the electric motor, in particular a change in an imbalance in at least one fan wheel and/or vibrations occurring and/or loss of lubricant and/or bearing damage. System (132) nach einem der vorhergehenden Ansprüche, wobei der Beschleunigungssensor (136) eingerichtet ist das Beschleunigungssignal fortlaufend zu messen, wobei die Steuer- und Auswerteeinheit (134) eingerichtet ist das Ist-FNN adaptiv an das fortlaufende Messsignal anzupassen.System (132) according to one of the preceding claims, wherein the acceleration sensor (136) is set up to continuously measure the acceleration signal, the control and evaluation unit (134) being set up to adaptively adapt the actual FNN to the continuous measurement signal. System (132) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswerteeinheit (134) eingerichtet ist das Referenz-FNN vorzubestimmen, insbesondere bei einer Inbetriebnahme des Elektromotors, wobei das Vorbestimmen des Referenz-FNN die folgenden Schritte umfasst: iii) messtechnisches Ermitteln mindestens eines Beschleunigungssignals mit dem Beschleunigungssensor (136); iv) Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht (114) als K ≥ W; v) Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht (114), wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst.System (132) according to one of the preceding claims, wherein the control and evaluation unit (134) is set up to predetermine the reference FNN, in particular when the electric motor is started up, the predetermining of the reference FNN comprising the following steps: iii) measuring at least one acceleration signal using the acceleration sensor (136); iv) determining a number of turning points W in an interval of the acceleration signal and setting a minimum number of the neurons K in the hidden layer (114) as K ≥ W; v) determining activation functions of the hidden layer neurons (114), wherein determining the activation functions includes determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA). System (132) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswerteeinheit (134) eingerichtet ist das Ist-FNN vollautomatisch zu erzeugen, wobei die Steuer- und Auswerteeinheit (134) eingerichtet ist das Referenz-FNN vollautomatisch zu bestimmen.System (132) according to one of the preceding claims, wherein the control and evaluation unit (134) is set up to generate the actual FNN fully automatically, the control and evaluation unit (134) being set up to determine the reference FNN fully automatically. System (132) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswerteeinheit (134) eingerichtet ist, wenn keine Abweichung vorliegt oder die bestimmte Abweichung innerhalb mindestens einer vordefinierten Toleranz ist, den Betrieb des Systems (132) fortzusetzen und/oder mindestens eine Meldung zu erlassen.System (132) according to one of the preceding claims, wherein the control and evaluation unit (134) is set up, if there is no deviation or the specific deviation is within at least one predefined tolerance, to continue the operation of the system (132) and / or at least one to issue notification. System (132) nach einem der vorhergehenden Ansprüche, wobei die Steuer- und Auswerteeinheit (134) als programmierbarer Chip ausgestaltet ist.System (132) according to one of the preceding claims, wherein the control and evaluation unit (134) is designed as a programmable chip. Computer-implementiertes Verfahren zum Betrieb eines Systems (132) umfassend mindestens einen Elektromotor, mindestens eine programmierbare Steuer- und Auswerteeinheit (134) und mindestens einen Beschleunigungssensor (136), wobei in dem Verfahren ein System (132) nach einem der vorhergehenden Ansprüche verwendet wird, umfassend die folgenden Schritte: - (138) Messen mindestens eines Beschleunigungssignals mit dem Beschleunigungssensor (136); - (140) Erzeugen eines Ist-Feedforward Neural Network (FNN) unter Verwendung eines Approximationsalgorithmus mit der Steuer- und Auswerteeinheit (134), wobei das Ist-FNN mindestens eine Eingabeschicht (112), mindestens eine verdeckte Schicht (114) und mindestens eine Ausgabeschicht (116) umfasst, wobei das Erzeugen des Ist-FNN eine Approximation des Beschleunigungssignals umfasst, wobei das Beschleunigungssignal als Eingangsgröße für den Approximationsalgorithmus verwendet wird, wobei das Erzeugen des Ist-FNN die folgenden Schritte umfasst: - Bestimmen von einer Anzahl von Wendepunkten W in einem Intervall des Beschleunigungssignals und Festlegen einer minimalen Anzahl der Neuronen K in der verdeckten Schicht (114) als K ≥ W; - Bestimmen von Aktivierungsfunktionen der Neuronen der verdeckten Schicht (114), wobei das Bestimmen der Aktivierungsfunktionen ein Bestimmen von jeweiligen Gewichtungskoeffizient und Biaskoeffizient unter Verwendung eines Backpropagation-Algorithmus (BPA) umfasst; - (142) Vergleichen der festgelegten Anzahl der Neuronen des Ist- FNN mit einer Anzahl von Neuronen eines vorbestimmten Referenz-FNN und der bestimmten Gewichtungskoeffizienten des Ist-FNN mit Gewichtungskoeffizienten des vorbestimmten Referenz-FNN mit der Steuer- und Auswerteeinheit (134); - (144) in Abhängigkeit des Ergebnisses des Vergleichs, Ausführen mindestens einer Service- und/oder Wartungsmaßnahme.Computer-implemented method for operating a system (132) comprising at least one electric motor, at least one programmable control and evaluation unit (134) and at least one acceleration sensor (136), a system (132) according to one of the preceding claims being used in the method , comprising the following steps: - (138) measuring at least one acceleration signal with the acceleration sensor (136); - (140) Generating an actual feedforward neural network (FNN) using an approximation algorithm with the control and evaluation unit (134), the actual FNN having at least one input layer (112), at least one hidden layer (114) and at least one Output layer (116), wherein generating the actual FNN comprises an approximation of the acceleration signal, the acceleration signal being used as an input variable for the approximation algorithm, wherein generating the actual FNN comprises the following steps: - determining a number of turning points W in an interval of the acceleration signal and setting a minimum number of the neurons K in the hidden layer (114) as K ≥ W; - determining activation functions of the hidden layer neurons (114), wherein determining the activation functions comprises determining respective weighting coefficient and bias coefficient using a backpropagation algorithm (BPA); - (142) comparing the specified number of neurons of the actual FNN with a number of neurons of a predetermined reference FNN and the determined weighting coefficients of the actual FNN with weighting coefficients of the predetermined reference FNN with the control and evaluation unit (134); - (144) depending on the result of the comparison, carrying out at least one service and/or maintenance measure. Computerprogramm, das bei Ablauf auf einem Computer oder Computer-Netzwerk das Verfahren nach dem vorhergehenden Anspruch ausführt.Computer program which, when executed on a computer or computer network, carries out the method according to the preceding claim.
DE102023205425.6A 2022-06-13 2023-06-12 Computer-implemented method for creating a feedforward neural network Pending DE102023205425A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022205960 2022-06-13
DE102022205960.3 2022-06-13

Publications (1)

Publication Number Publication Date
DE102023205425A1 true DE102023205425A1 (en) 2023-12-14

Family

ID=88873922

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023205425.6A Pending DE102023205425A1 (en) 2022-06-13 2023-06-12 Computer-implemented method for creating a feedforward neural network

Country Status (1)

Country Link
DE (1) DE102023205425A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19942144A1 (en) 1999-09-03 2001-06-07 Schroeder Dierk Method to identify and suppress oscillations or rotational irregularities involves identifying oscillation curve using intelligent method of non-linear functional approximation, e.g. neuronal net
EP1327959A2 (en) 2002-01-11 2003-07-16 EADS Deutschland GmbH Neural network for modelling a physical system and method for building the neural network
DE60020399T2 (en) 1999-11-03 2006-04-27 Rune Brincker METHOD FOR VIBRATION ANALYSIS
DE102005034768A1 (en) 2005-07-26 2007-02-01 Daimlerchrysler Ag Method and system for controlling condition of revolving part of machine tool, comprises sensors and processing units
EP2359106B1 (en) 2008-11-07 2013-04-17 Qass GmbH Method and device for vibration analyses and sample database therefor and use of a sample database

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19942144A1 (en) 1999-09-03 2001-06-07 Schroeder Dierk Method to identify and suppress oscillations or rotational irregularities involves identifying oscillation curve using intelligent method of non-linear functional approximation, e.g. neuronal net
DE60020399T2 (en) 1999-11-03 2006-04-27 Rune Brincker METHOD FOR VIBRATION ANALYSIS
EP1327959A2 (en) 2002-01-11 2003-07-16 EADS Deutschland GmbH Neural network for modelling a physical system and method for building the neural network
DE102005034768A1 (en) 2005-07-26 2007-02-01 Daimlerchrysler Ag Method and system for controlling condition of revolving part of machine tool, comprises sensors and processing units
EP2359106B1 (en) 2008-11-07 2013-04-17 Qass GmbH Method and device for vibration analyses and sample database therefor and use of a sample database

Similar Documents

Publication Publication Date Title
DE102016011520B4 (en) Production equipment with machine learning system and assembly and testing unit
DE102017006703A1 (en) Machine learning device that learns a current command for a motor, engine control device and machine learning method
DE102017010799A1 (en) A machine learning apparatus and robot system for learning a machining order of a laser machining robot and machine learning method therefor
DE102017011754A1 (en) Machine learning device for learning an assembly process and component assembly system
EP2999998B1 (en) Methods for ascertaining a model of an output variable of a technical system
DE102016009106A1 (en) Machining device equipped with control with processing time measuring function and measuring function on the machine
EP3297792B1 (en) Control and regulation of actuators of a robot by taking into consideration ambient contacts
DE102016007404A1 (en) A servo control device with online control gain enhancement function using a weighting function
WO2021058223A1 (en) Method for applying automated driving functions efficiently and in a simulated manner
DE202018102632U1 (en) Device for creating a model function for a physical system
DE112020003050T5 (en) ERROR COMPENSATION IN ANALOG NEURAL NETWORKS
DE102017009273A1 (en) A machine learning apparatus and method for learning a correlation between shipping control information and operating alarm information for an object
DE102018002785A1 (en) Controller and machine learning device
DE102019002644A1 (en) Control and control procedures
EP3667445A1 (en) Method and device and method for producing a product and computer program product
DE102021200042A1 (en) Device and method for the method of training the neural drift network and the neural diffusion network of a neural stochastic differential equation
DE102018003244A1 (en) Numerical control
DE102023205425A1 (en) Computer-implemented method for creating a feedforward neural network
EP3467722A1 (en) Configuration of a motor vehicle driver assisting device using a neural network in ongoing operation
DE102018216561A1 (en) Method, device and computer program for determining an agent&#39;s strategy
DE112021006961T5 (en) Numerical control device
DE102019130040A1 (en) Method and system for testing an automated driving function by means of reinforcement learning
DE202019103046U1 (en) Device for predicting a learning curve
DE102019002573A1 (en) INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
DE102022116180A1 (en) METHOD FOR DETERMINING TORQUE AND DRIVE SHAFT ANGLE

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06N0003040000

Ipc: G06N0003049900