WO2022063898A1 - Bestimmung einer übertragungsfunktion eines technischen systems - Google Patents

Bestimmung einer übertragungsfunktion eines technischen systems Download PDF

Info

Publication number
WO2022063898A1
WO2022063898A1 PCT/EP2021/076202 EP2021076202W WO2022063898A1 WO 2022063898 A1 WO2022063898 A1 WO 2022063898A1 EP 2021076202 W EP2021076202 W EP 2021076202W WO 2022063898 A1 WO2022063898 A1 WO 2022063898A1
Authority
WO
WIPO (PCT)
Prior art keywords
artificial neural
neural network
machine learning
layer
present
Prior art date
Application number
PCT/EP2021/076202
Other languages
English (en)
French (fr)
Inventor
Deniz Neufeld
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2022063898A1 publication Critical patent/WO2022063898A1/de

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the present invention relates to a system, a method, a use, a computer program and a device for determining a transfer function for a technical system.
  • Machine learning systems including artificial neural networks in particular, are a common method for modeling complex data-based systems.
  • Previously known architectures for mapping signal series to signal series ie for determining the transfer function (system function determination)
  • system function determination ie for determining the transfer function (system function determination)
  • machine learning systems are mostly used, to reduce the error of existing simulation models.
  • the reasons for this are that, on the one hand, due to the high dimensionality, it is not possible to understand which function the system has learned: Up until now, there has been no method that applies models to fundamental building blocks for system dimensioning that are already known from system theory (e.g. P- , I, D, PT1 elements, etc.) or to map polynomial functions.
  • system theory e.g. P- , I, D, PT1 elements, etc.
  • the present invention creates a machine learning system for determining a transfer function of a technical system.
  • the system includes at least one artificial neural layer.
  • the system is characterized in that one of the at least one artificial neural layer maps at least two difference equations in parallel.
  • the invention is based on the finding that, to map dynamic systems, a layer for a machine learning system, in particular an artificial neural network, can be constructed in such a way that internally at least two difference equations can be mapped parallel to one another.
  • Such a layer is suitable for building recurrent artificial neural networks.
  • Artificial neural networks of this type can be used to predict time series (setpoint
  • the artificial neural layer according to the present invention may include appropriate difference formulas.
  • the characteristic layer of the machine learning system according to the present invention can have a corresponding mapping thereto.
  • a system of machine learning can be understood to mean an artificial neural network.
  • the system can be a recurrent neural network.
  • a technical system can include a system for at least partially automated driving, a system for automated inspection of a production process, for example.
  • a technical system can be an industrial mechanical, hydraulic and electrical system based on analog input and output signals, in particular braking systems (hydraulic, electrical).
  • transfer functions of a technical system can be determined without having to set up system equations beforehand.
  • system models can be constructed and automatically parameterized based on their input and output measurement series without (or in addition to) numerical simulation models.
  • the resulting models are easier for those skilled in the art to understand.
  • the learned parameters can be validated using previously known techniques from systems theory. For example, in contrast to conventional machine learning systems, they can be converted into the well-known Laplace or z-representation. It is thus also possible to derive the stability of the system or similar properties using the methods already known.
  • the number of parameters to be learned can be smaller. This allows the resulting machine learning system to be used for inference with simple hardware. This enables the invention to be implemented simply and inexpensively.
  • the machine learning system according to the present invention can be implemented using the interfaces known from Recurrent Neural Network. As a result, the machine learning system according to the present invention can easily be used as part of a comprehensive machine learning system, e.g. an artificial neural network.
  • the formation of the difference equation of the terms takes place via a discretization, for example via Euler 1st order. This step depends on the sampling rate, which makes it part of the artificial neural network as ⁇ t .
  • the constant factors K and time constants T are formulated as matrices and represent the trainable weights in the shift.
  • the resulting model can be trained at a first sampling rate and used for inference at a second sampling rate that is different from the first Furthermore, the sampling rate used can be changed between training steps.
  • the machine learning system according to the present invention can be trained with a first, comparatively coarse, sampling rate and can be executed at a second, comparatively fine, sampling rate at inference time.
  • This property of the machine learning system according to the present invention can significantly reduce the training time of the system.
  • one of the at least two difference equations represents a P element or an I element or a D element or a PT1 element or a PD element, which are derived from system theory or known to control engineering.
  • the system comprises at least one artificial neural network layer for merging the outputs of the at least one artificial neural network layer, i. H. an artificial neural network layer capable of reducing the output dimensions.
  • a layer can be, for example, a fully connected layer, a convolutional neural network layer or a recurrent neural network layer.
  • a further aspect of the present invention is a method for determining a transfer function of a technical system as a function of a first series of input data and a second series of output data, using a system according to the present invention.
  • This aspect of the present invention is based on the finding that the transfer function of the technical system is learned and thus determined by the training of the machine learning system according to the present invention. Based on the inventive design of the characterizing layer of the system according to the present invention, the transfer function can be derived.
  • a further aspect of the present invention is the use of a machine learning system according to the present invention for status monitoring of the technical system.
  • This aspect is based on the finding that the transfer function of the technical system to be monitored that is learned by the machine learning system according to the invention reflects the correct state transitions.
  • the input data can now be supplied both to the technical system and to the correspondingly trained machine learning system used to monitor it.
  • the status of the technical system can be monitored by means of the machine learning system by comparing the initial data and, if necessary, providing a tolerance range for any deviations.
  • Another aspect of the present invention is the use of a machine learning system according to the present invention as a digital controller.
  • This aspect is based on the knowledge that a machine learning system according to the present invention learns a transfer function of a technical system. This can be used to apply input data to a trained machine learning system according to the present invention and to use the output data as control variables for a digital controller.
  • a further aspect of the present invention is a computer program which is set up to carry out all the steps of the method according to the present invention.
  • Another aspect of the present invention is a machine-readable storage medium on which the computer program according to an aspect of the present invention is stored.
  • a further aspect of the present invention is a device which is set up to carry out all the steps of the method according to the present invention.
  • FIG. 1 is a schematic representation of an artificial neural network layer according to the present invention.
  • Figure 2 is a schematic representation of layers for an artificial neural network according to the present invention.
  • FIG. 3 shows a schematic representation of an architecture of an artificial neural network
  • FIG. 4 shows a schematic representation of a trained artificial neural network.
  • FIG. 1 shows a schematic representation of a layer for an artificial neural network, which depicts the behavior of P, I, D, PT1 and PD elements from system theory.
  • the formation of the difference equation of the elements takes place via a discretization, for example via Euler of the 1st order.
  • This step depends on the sampling rate ⁇ t, which makes it part of the artificial neural network as ⁇ t.
  • the factors K and T are formulated as matrices and represent the trainable weights in the shift.
  • FIG. 2 shows a schematic representation of an artificial neural network or a part of an artificial neural network in which layers for an artificial neural network according to the present invention are used.
  • FIG. 2 shows the arrangement of two layers for an artificial neural network according to the present invention.
  • FC Fully Connected
  • non-linear activation functions can be applied in the architecture of a corresponding artificial neural network. This allows an architecture known from the Hammerstein-Wiener models for modeling static non-linearities in data to be achieved.
  • noisy input data is to be expected, e.g. due to noisy sensor data
  • additional convolutional layers can be used.
  • FIG. 3 shows a schematic representation of an artificial neural network or part of an artificial neural network comprising a cascade of layers for an artificial neural network according to the present invention.
  • FIG. 4 shows a schematic representation of an artificial neural network or part of an artificial neural network comprising a cascade of layers for an artificial neural network according to the present invention.
  • the output of the cascade of layers for an artificial neural network according to the present invention is converted into a fully connected artificial neural network.
  • the representation shows a resulting artificial neural network after training. At this time the weights of the activation functions lie. Based on the evaluation of the weights or their distribution, information about the modeled dynamic system can be derived, based on which the resulting artificial neural network can be interpreted.
  • the interpretability stems from the fact that the layers for an artificial neural network according to the present invention represent the time-dependent system behavior of the modeled system, while the fully connected part of the resulting artificial neural network represents the relevant influence on the dynamics of the model.
  • the respective edge weights can be interpreted as the global meaning of the corresponding path of the part of the resulting artificial neural network .
  • the P, I and PT1 elements with 0.5, 1.5 and 0.8 have a significantly higher influence on the modeled system than the D and I elements with only 0.1, and 0.2. From this it can be deduced that the modeled system mainly has the properties of P, I and PT1 elements.

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Feedback Control In General (AREA)

Abstract

System des maschinellen Lernens, insbesondere ein Recurrent Neural Networks, zum Bestimmen einer Übertragungsfunktion eines technischen Systems, umfassend mindestens eine künstliche neuronale Schicht, wobei eine der mindestens einen künstlichen neuronalen Schicht parallel mindestens zwei Differenzengleichungen abbildet.

Description

Beschreibung
Titel
Bestimmung einer Übertragungsfunktion eines technischen Systems
Die vorliegende Erfindung betrifft ein System, ein Verfahren, eine Verwendung, ein Computerprogramm sowie eine Vorrichtung zur Bestimmung einer Übertragungsfunktion für ein technisches System.
Stand der Technik
Herkömmlicherweise werden dynamische technische Systeme (z. B. elektrische Schaltungen, Hydrauliksysteme etc.) in der Systemtheorie und der Regelungstechnik mithilfe von parametrisierten Differenzialgleichungssystemen abgebildet. Die genauen Gleichungsparameter werden, falls unbekannt, über Versuche bestimmt.
Es ist bei komplexen Systemen mit diesem Verfahren oft nicht möglich, Übertragungsfunktionen nur über das Aufbringen einer Last und die Beobachtung der Systemantwort aufzustellen. Es ist für die erfolgreiche Systembeschreibung stets notwendig, die Struktur des zu modellierenden Systems im Vornherein zu kennen und so genau wie möglich zu modellieren.
Systeme des maschinellen Lernens, darunter insbesondere künstliche neuronale Netze, sind ein verbreitetes Verfahren um datenbasiert komplexe Systeme zu modellieren. Bisher bekannte Architekturen zur Abbildung von Signalreihen auf Signalreihen, also zur Bestimmung der Übertragungsfunktion (Systemfunktionsbestimmung), lernen jedoch laut Stand der Technik bei dieser Problemstellung für den Menschen nicht verständliche Modelle. Aus diesem Grund werden in der Praxis Systeme des maschinellen Lernens meist verwendet, um den Fehler bereits vorhandener Simulationsmodelle zu verringern. Gründe dafür sind, dass zum einen aufgrund der hohen Dimensionalität nicht nachvollzogen werden kann, welche Funktion durch das System erlernt wurde: Es existiert bisher kein Verfahren, die Modelle auf grundlegende aus der Systemtheorie bereits bekannte Bausteine für die Systemdimensionierung (z. B. P-, I-, D-, PT1-Glieder etc.) oder auch polynomielle Funktionen abzubilden. Zum anderen, ist die Interpretierbarkeit dieser Netze für den Menschen nicht ohne Weiteres möglich, sondern benötigt zusätzliche anwendungsfallabhängige Verfahren. Durch das Verwenden der Systeme für die Verbesserung der Simulation wird der maximale Einfluss der Systeme auf das Endergebnis und somit der maximale Fehler zwar begrenzt, kann aber nicht völlig ausgeschlossen werden.
Vorteile der Erfindung
Vor diesem Hintergrund schafft die vorliegende Erfindung ein System des maschinellen Lernens zum Bestimmen einer Übertragungsfunktion eines technischen Systems.
Das System umfasst dabei mindestens eine künstliche neuronale Schicht.
Das System zeichnet sich dabei dadurch aus, dass eine der mindestens einen künstlichen neuronalen Schicht parallel mindestens zwei Differenzengleichungen abbildet.
Die Erfindung basiert dabei auf der Erkenntnis, dass zur Abbildung von dynamischen Systemen eine Schicht für ein System des maschinellen Lernens, insbesondere ein künstliches neuronales Netz, derart aufgebaut sein kann, dass intern mindestens zwei Differenzengleichungen parallel zueinander abgebildet werden können.
Eine solche Schicht eignet sich zum Aufbau von rekurrenten künstlichen neuronalen Netzen. Künstliche neuronale Netze dieser Art können eingesetzt werden, um Zeitreihen (Sollwert | y) in Abhängigkeit von Zeitreihen (Eingabe | x) vorherzusagen. Abhängig davon, welche Arten von Systemverhalten erwartet werden, kann die künstliche neuronale Schicht gemäß der vorliegenden Erfindung entsprechende Differenzformeln umfassen.
So kann die allgemeine Differenzenformel y(k) = f(y(k — 1), y(k — 2), ... , y(k — n), x(k — 1), y(k — 2), ... , y(k — n) ) für diskrete dynamische Systeme verwendet werden.
Ferner können die aus der Systemtheorie bekannten Differenzengleichungen verwendet werden.
Dadurch, dass mittels der aus der Systemtheorie bekannten Differenzgleichungen, insbesondere der Gleichen zu den Grundgliedern, nämlich derjenigen zu P-, I-, D-, PT1- oder PD- Gliedern, im Wesentlichen alle linearen Systeme beschreibbar sind, werden bei Einsatz dieser Differenzengleichungen im Rahmen des Trainingsprozesses der Beitrag von im Modell ggf. nicht benötigter Funktionen minimiert. Diese führt wiederrum zu vergleichsweise kleinen und wenig komplexen Netzen, die zur Inferenzzeit auf einfacher Hardware ausgeführt werden können. Dies ermöglicht eine einfache und kostengünstige Umsetzung der Erfindung.
Zudem ist es denkbar, dass anstelle der Grundglieder eine Konkatenation von Grundgliedern, bspw. ein PID-Glied, verwendet wird. Die kennzeichnende Schicht des Systems des maschinellen Lernens gemäß der vorliegenden Erfindung kann dazu eine entsprechende Abbildung aufweisen.
Unter einem System des maschinellen Lernens kann vorliegend ein künstliches neuronales Netz verstanden werden.
Bei dem System kann es sich um ein Recurrent Neural Networks handeln.
Ein technisches System kann dabei u. a. ein System zum zumindest teilweise automatisierten Fahren, ein System zur automatisierten Inspektion bspw. eines Produktionsprozesses. Ferner kann vorliegend ein technisches System ein industrielles mechanisches, hydraulisches und elektrisches System auf Basis von Analogen Eingangs- und Ausgangssignalen sein Insbesondere Bremssysteme (hydraulisch, elektrisch).
Mittels des Systems des maschinellen Lernens gemäß der vorliegenden Erfindung lassen sich Übertragungsfunktionen eines technischen Systems bestimmen, ohne dass vorher die Aufstellung von Systemgleichungen erfolgen muss.
Mithilfe der vorliegenden Erfindung können automatisiert Systemmodelle auf Basis ihrer Eingangs- und Ausgangsmessreihen ohne (oder zur Ergänzung von) nummerischen Simulationsmodelle aufgebaut und automatisch parametrisiert werden.
Die resultierenden Modelle sind für den Fachmann leichter verständlich. Die gelernten Parameter können mithilfe von bisher bekannten Techniken aus der Systemtheorie validiert werden. So lassen sie sich bspw. im Gegensatz zu herkömmlichen Systemen des maschinellen Lernens in die bekannten Laplace- oder z-Darstellung überführen. Somit ist es zudem möglich, die Stabilität des Systems oder ähnliche Eigenschaften mit den bereits bekannten Verfahren herzuleiten.
Die vorliegende Erfindung und deren Einsatz bieten demnach eine ganze Reihe von Vorteilen.
So, muss das Systemmodell nicht mehr explizit vorgegeben werden, da die Parameter nummerisch bestimmt werden.
Im Vergleich zu üblichen Parameter-basierten Systemen des maschinellen Lernens, insbesondere künstlichen neuronalen Netzen, kann die Anzahl an zu erlernenden Parametern kleiner sein. Dadurch kann das resultierende System des maschinellen Lernens zur Inferenz mit einfacher Hardware verwendet werden. Dies ermöglicht eine einfache und kostengünstige Umsetzung der Erfindung. Das System des maschinellen Lernens gemäß der vorliegenden Erfindung lässt sich mittels der von Recurrent Neural Network bekannten Schnittstellen umsetzen. Dies führt dazu, dass das System des maschinellen Lernens gemäß der vorliegenden Erfindung auf einfache Art und Weise als Teil eines umfassenden Systems des maschinellen Lernens, bspw. eines künstlichen neuronalen Netzes verwendet werden kann.
Im Falle, dass die kennzeichnende Schicht des Systems des maschinellen Lernens gemäß der vorliegenden Erfindung die aus der Systemtheorie bekannten Grundglieder abbildet, so gilt für die Ausgabe y(t) in Abhängigkeit von der Eingabe x(t):
Figure imgf000006_0001
Die Bildung der Differenzengleichung der Glieder erfolgt über eine Diskretisierung, beispielsweise über Euler 1. Ordnung. Dieser Schritt ist abhängig von der Abtastrate, wodurch diese als Δt Teil des künstlichen neuronalen Netzes wird. Für die Modellierung von Multi-Input-Multi-Output Systemen werden die konstanten Faktoren K und Zeitkonstanten T als Matrizen formuliert und stellen die trainierbaren Gewichte in der Schicht dar.
Da im Gegensatz zu bisherigen sequentiellen Modellen in den Differenzengleichungen der Parameter Δt (Abtastrate) vorkommt, kann das resultierende Modell auf einer ersten Abtastrate trainiert und auf einer zweiten, von der ersten verschiedenen, Abtastrate zur Inferenz verwendet werden Ferner kann verwendete Abtastrate zwischen Trainingsschritten verändert werden.
Dabei wurde beobachtet, dass Menge der Unterschiede im Ergebnis bei geänderter Abtastrate auf die Stabilität des Modells schließen lässt.
Dies führt zu dem weiteren Vorteil, dass das System des maschinellen Lernens gemäß der vorliegenden Erfindung mit einer ersten, vergleichsweise groben, Abtastrate trainiert werden kann und zur Inferenzzeit auf einer zweiten, vergleichsweise feinen, Abtastrate ausgeführt werden kann. Durch diese Eigenschaft des Systems des maschinellen Lernens gemäß der vorliegenden Erfindung lässt sich die Trainingszeit des Systems signifikant reduzieren.
Nach einer Ausführungsform des Systems gemäß der vorliegenden Erfindung repräsentiert eine der mindestens zwei Differenzengleichungen ein P-Glied bzw. ein I-Glied bzw. ein D-Glied bzw. ein PT1-Glied bzw. ein PD-Glied, welche aus der Systemtheorie bzw. der Regelungstechnik bekannt sind.
Nach einer Ausführungsform des Systems gemäß der vorliegenden Erfindung weist das System mindestens eine künstliche neuronale Netzschicht zum Zusammenführen der Ausgaben der mindestens einen künstlichen neuronalen Schicht auf, d. h. eine Schicht eines künstlichen neuronalen Netzes, die dazu geeignet ist, die Ausgabedimensionen zu verkleinern. Eine solche Schicht kann beispielsweise eine Fully Connected Schicht, eine Convolutional Neural Network Schicht oder eine Recurrent Neural Network Schicht sein.
Ein weiterer Aspekt der vorliegenden Erfindung ist ein Verfahren zum Bestimmen einer Übertragungsfunktion eines technischen Systems in Abhängigkeit von einer ersten Reihe an Eingangsdaten und einer zweiten Reihe an Ausgangsdaten, mittels eines Systems gemäß der vorliegenden Erfindung.
Dieser Aspekt der vorliegenden Erfindung basiert auf der Erkenntnis, dass durch das Training des Systems des maschinellen Lernens gemäß der vorliegenden Erfindung die Übertragungsfunktion des technischen Systems erlernt und somit bestimmt wird. Anhand der erfindungsgemäßen Gestaltung der kennzeichnenden Schicht des Systems gemäß der vorliegenden Erfindung kann die Übertragungsfunktion abgeleitet werden.
Ein weiterer Aspekt der vorliegenden Erfindung ist die Verwendung eines Systems des maschinellen Lernens gemäß der vorliegenden Erfindung zur Zustandsüberwachung des technischen Systems.
Dieser Aspekt basiert auf der Erkenntnis, dass die durch das erfindungsgemäße System des maschinellen Lernens erlernte Übertragungsfunktion des zu überwachenden technischen Systems die korrekten Zustandsübergänge wiederspiegelt.
Zur Überwachung des technischen Systems können nunmehr die Eingangsdaten sowohl dem technischen System als auch dem zu seiner Überwachung eingesetzten, entsprechende trainierten System des maschinellen Lernens zugeführt werden. Über einen Abgleich der Ausgangsdaten und ggf. dem Vorsehen eines Toleranzbereichs für etwaige Abweichungen kann der Zustand des technischen Systems mittels des Systems des maschinellen Lernens überwacht werden.
Ein weiterer Aspekt der vorliegenden Erfindung ist die Verwendung eines Systems des maschinellen Lernens gemäß der vorliegenden Erfindung als digitaler Regler.
Dieser Aspekt basiert auf der Erkenntnis, dass ein System des maschinellen Lernens gemäß der vorliegenden Erfindung eine Übertragungsfunktion eines technischen Systems erlernt. Dies kann genutzt werden, um ein trainiertes System des maschinellen Lernens gemäß der vorliegenden Erfindung mit Eingangsdaten zu beaufschlagen und die Ausgangsdaten als Steuergrößen für einen digitalen Regler zu verwenden.
Ein weiterer Aspekt der vorliegenden Erfindung ist ein Computerprogramm, welches eingerichtet ist alle Schritte des Verfahrens gemäß der vorliegenden Erfindung auszuführen. Ein weiterer Aspekt der vorliegenden Erfindung ist ein maschinenlesbares Speichermedium, auf dem das Computerprogramm gemäß einem Aspekt der vorliegenden Erfindung gespeichert ist.
Ein weiter Aspekt der vorliegenden Erfindung ist eine Vorrichtung, welche eingerichtet ist alle Schritte des Verfahrens gemäß der vorliegenden Erfindung auszuführen.
Nachfolgend werden Ausführungsformen der vorliegenden Erfindung anhand von Zeichnungen näher erläutert.
Es zeigen
Fig. 1 eine schematische Darstellung einer Schicht für ein künstliches neuronales Netz gemäß der vorliegenden Erfindung;
Fig. 2 eine schematische Darstellung von Schichten für ein künstliches neuronales Netz gemäß der vorliegenden Erfindung;
Fig. 3 eine schematische Darstellung einer Architektur eines künstlichen neuronalen Netzes;
Fig. 4 eine schematische Darstellung eines trainierten künstlichen neuronalen Netzes.
Figur 1 zeigt eine schematische Darstellung einer Schicht für ein künstliches neuronales Netz, die das Verhalten von P-, I-, D-, PT1- und PD-Gliedern aus der Systemtheorie abbildet.
Im Zeitbereich würde für die Ausgabe y(t) der Schicht in Abhängigkeit von der Eingabe x(t) folgendes gelten:
Figure imgf000009_0001
Figure imgf000010_0001
Die Bildung der Differenzengleichung der Glieder, wie sie in Fig. 1 zu sehen sind, erfolgt über eine Diskretisierung, beispielsweise über Euler 1. Ordnung.
Dazu wird wie im Ingenieursbereich üblich ersetzt durch:
Figure imgf000010_0004
Figure imgf000010_0003
Dieser Schritt ist abhängig von der Abtastrate Δt, wodurch diese als Δt Teil des künstlichen neuronalen Netzes wird.
Im Ergebnis werden die nachstehenden aufgeführten diskreten rekurrenten Gleichungen mit einem Sample k als Eingabe und einem Zeitschriften zwischen den Sampeln von Δt:
Figure imgf000010_0002
Wobei alle K, T > 0 seien.
Für die Modellierung von Multi-Input-Multi-Output Systemen werden die Faktoren K und T als Matrizen formuliert und stellen die trainierbaren Gewichte in der Schicht dar.
Die Werte des Modells können wie bei künstlichen neuronalen Netzen üblich mittels bspw. des Gradientenabstiegsverfahrens (z. B. über einen Adam- Optimierer oder Stochastic Gradient Descent) erlernt werden. Auch das Training über mehrere Batches zugleich ist denkbar. Figur 2 zeigt eine schematische Darstellung eines künstlichen neuronalen Netzes bzw. eines Teiles eines künstlichen neuronalen Netzes, in dem Schichten für ein künstliches neuronales Netz gemäß der vorliegenden Erfindung zu Anwendung kommen.
Konkret zeigt Figur 2 dabei die Aneinanderreihung von zwei Schichten für ein künstliches neuronales Netz gemäß der vorliegenden Erfindung.
Die Darstellung verdeutlicht, dass sich die Schicht für ein künstliches neuronales Netz gemäß der vorliegenden Erfindung auf einfache Art und Weise aneinanderreihen lassen. Dabei werden die jeweiligen Ausgaben der parallelen Abbildungen als Eingaben für eine weitere Schicht behandelt. Es wird dadurch deutlich, dass dadurch die Dimensionen entsprechend auffächern.
Je nach Anwendungsfall sind daher geeignete Maßnahmen zu treffen, um der Auffächerung der Dimensionen entgegenzuwirken. Bspw. können dafür die bekannten Fully Connected (FC) Schichten eingesetzt werden.
Ferner können nichtlineare Aktivierungsfunktionen in der Architektur eines entsprechenden künstlichen neuronalen Netzes anwendet werden. Dadurch kann eine Architektur erreicht werden, die von den Hammerstein-Wiener Modellen zur Modellierung von statischen Nicht-Linearitäten in Daten bekannt ist.
Ist mit verrauschten Eingangsdaten zu rechnen, bspw. aufgrund von Rauschbehafteten Sensordaten, so können zusätzlichen Convolutional Schichten eingesetzt werden.
Figur 3 zeigt eine schematische Darstellung eines künstlichen neuronalen Netzes bzw. eines Teiles eines künstlichen neuronalen Netzes umfassend eine Kaskade von Schichten für ein künstliches neuronales Netz gemäß der vorliegenden Erfindung.
Die Ausgabe der Kaskade von Schichten für ein künstliches neuronales Netz gemäß der vorliegenden Erfindung wird dabei in ein Fully Connected künstliches neuronales Netz überführt. Figur 4 zeigt eine schematische Darstellung eines künstlichen neuronalen Netzes bzw. eines Teiles eines künstlichen neuronalen Netzes umfassend eine Kaskade von Schichten für ein künstliches neuronales Netz gemäß der vorliegenden Erfindung.
Die Ausgabe der Kaskade von Schichten für ein künstliches neuronales Netz gemäß der vorliegenden Erfindung wird dabei in ein Fully Connected künstliches neuronales Netz überführt.
Die Darstellung zeigt dabei ein resultierendes künstliches neuronales Netz nach dem Training. Zu diesem Zeitpunkt liegen die Gewichte der Aktivierungsfunktionen. Anhand der Auswertung der Gewichte bzw. deren Verteilung lassen sich Informationen über das modellierte dynamische System ableiten, anhand deren das resultierende künstliche neuronale Netz interpretiert werden kann.
Die Interpretierbarkeit rührt daher, dass die Schichten für ein künstliches neuronales Netz gemäß der vorliegenden Erfindung das zeitabhängige Systemverhalten des modellierten Systems repräsentieren, während der Fully Connected Teil des resultierenden künstlichen neuronalen Netzes den relevanten Einfluss auf die Dynamik des Models repräsentiert.
Umso höher das entsprechende Gewicht der Fully Connect Schicht bzw. des Fully Connected Teils des resultierenden künstlichen neuronalen Netzes ausfällt, umso höher ist der signifikante Einfluss der entsprechenden Abbildung für die Modellierung des dynamischen Systems.
Aufgrund der Tatsache, dass die Gewichte der Fully Connect Schicht bzw. des Fully Connected Teils des resultierenden künstlichen neuronalen Netzes global und in zeitunabhängiger Weise zu interpretieren sind, können die jeweiligen Kantengewichte als globale Bedeutung des entsprechenden Pfads des Teils des resultierenden künstlichen neuronalen Netzes interpretiert werden. In dem bspw. künstlichen neuronalen Netz dargestellt in Figur 4 haben die P-, I- und PT1-Glieder mit 0,5, 1,5 und 0,8 einen signifikanten höheren Einfluss auf das modellierte System als die D- und I-Glieder mit lediglich 0,1, und 0,2. Daraus kann abgleitet werden, dass das modellierte System vorwiegend die Eigenschaften von P-, I- und PT1-Gliedern aufweist.

Claims

Ansprüche
1. System des maschinellen Lernens, insbesondere ein Recurrent Neural Networks, zum Bestimmen einer Übertragungsfunktion eines technischen Systems, umfassend mindestens eine künstliche neuronale Schicht, dadurch gekennzeichnet, dass eine der mindestens einen künstlichen neuronalen Schicht parallel mindestens zwei Differenzengleichungen abbildet.
2. System nach Anspruch 1, wobei eine der mindestens zwei Differenzengleichungen ein P-Glied und/oder ein I -Glied und/oder ein D-Glied und/oder ein PT1-Glied und/oder ein PD-Glied repräsentiert.
3. System nach Anspruch 1 oder 2, wobei das System mindestens eine Schicht eines künstlichen neuronalen Netzes zum Zusammenführen der Ausgaben der mindestens einen andere künstliche neuronalen Schicht, beispielsweise eine Fully Connected Schicht und/oder eine Recurrent Neural Network Schicht oder eine Convolutional Neural Network Schicht, aufweist.
4. Verfahren zum Bestimmen einer Übertragungsfunktion eines technischen Systems in Abhängigkeit von einer ersten Reihe an Eingangsdaten und einer zweiten Reihe an Ausgangsdaten, mittels eines Systems des maschinellen Lernens nach einem der Ansprüche 1 bis 3, insbesondere durch Training des Systems des maschinellen Lernens in Abhängigkeit von der ersten Reihe an Eingangsdaten und/oder der zweiten Reihe an Ausgangsdaten.
5. Verwendung eines Systems des maschinellen Lernens nach einem der Ansprüche 1 bis 3 zur Zustandsüberwachung des technischen Systems.
6. Verwendung eines Systems des maschinellen Lernens nach einem der Ansprüche 1 bis 3 als digitaler Regler.
7. Computerprogramm, welches eingerichtet ist, alle Schritte eines Verfahrens nach Anspruch 4 auszuführen.
8. Maschinenlesbares Speichermedium, auf dem ein Computerprogramm nach
Anspruch 6 gespeichert ist.
9. Vorrichtung, welche eingerichtet ist, alle Schritte eines Verfahrens nach Anspruch 4 auszuführen.
PCT/EP2021/076202 2020-09-23 2021-09-23 Bestimmung einer übertragungsfunktion eines technischen systems WO2022063898A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020211931.7A DE102020211931A1 (de) 2020-09-23 2020-09-23 Bestimmung einer Übertragungsfunktion eines technischen Systems
DE102020211931.7 2020-09-23

Publications (1)

Publication Number Publication Date
WO2022063898A1 true WO2022063898A1 (de) 2022-03-31

Family

ID=78008154

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/076202 WO2022063898A1 (de) 2020-09-23 2021-09-23 Bestimmung einer übertragungsfunktion eines technischen systems

Country Status (2)

Country Link
DE (1) DE102020211931A1 (de)
WO (1) WO2022063898A1 (de)

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHENG YI ET AL: "Closed Loop Nonlinear Process Identification Using Internally Recurrent Nets", NEURAL NETWORKS, vol. 10, no. 3, 1 January 1997 (1997-01-01), pages 573 - 586, XP085030256, ISSN: 0893-6080, DOI: 10.1016/S0893-6080(96)00097-4 *
JIA DELI ET AL: "Decoupling control based on PID neural network for plasma cutting system", CONTROL CONFERENCE, 2008. CCC 2008. 27TH CHINESE, IEEE, PISCATAWAY, NJ, USA, 16 July 2008 (2008-07-16), pages 659 - 662, XP031311029, ISBN: 978-7-900719-70-6 *
MENG LEI ET AL: "Design of an improved PID neural network controller based on particle swarm optimazation", 2015 CHINESE AUTOMATION CONGRESS (CAC), IEEE, 27 November 2015 (2015-11-27), pages 151 - 154, XP032850379, DOI: 10.1109/CAC.2015.7382486 *

Also Published As

Publication number Publication date
DE102020211931A1 (de) 2022-03-24

Similar Documents

Publication Publication Date Title
DE102004026979B4 (de) Vielfacheingabe- /Vielfachausgabe-Steuer-/Regelblöcke mit nichtlinearen Vorhersagefähigkeiten
DE10048360B4 (de) Integrierte, fortschrittliche Steuerblöcke in Prozeßsteuersystemen
EP2425308B1 (de) Einrichtung und verfahren zur residuenauswertung eines residuums zur erkennung von systemfehlern im systemverhalten eines systems eines flugzeugs
DE102007001026A1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102011012710A1 (de) Schnelle Identifikation und Erzeugung von Prozessmodellen
DE4406723A1 (de) Verfahren zur Überwachung des Betriebszustands einer Maschine oder Anlage
EP1327959B1 (de) Neuronales Netz zur Modellierung eines physikalischen Systems sowie Verfahren zur Bildung eines solchen neuronalen Netzes
DE1523535C3 (de) Selbstanpassender Regelkreis
DE10355022B4 (de) Verfahren zur Überwachung eines technischen Systems
WO2022063898A1 (de) Bestimmung einer übertragungsfunktion eines technischen systems
DE69919527T2 (de) Verfahren und Vorrichtung zur Identifizierung eines physikalischen Systems
DE102019203631A1 (de) Verfahren und Vorrichtung zum Modellieren eines Leistungshalbleitermodules
DE3225811A1 (de) Selbsteinstellendes simulations- und regelungssystem
DE102007001186B4 (de) Verfahren und Vorrichtung zur Online-Kompensation von Nicht-linearitäten im Übertragungsverhalten von Stellgliedern
DE102019120493A1 (de) Verfahren zur Bereitstellung einer Messfunktion für eine Temperaturmessvorrichtung sowie Verwendung einer Messfunktion
DE4319926A1 (de) Verfahren zur Regelung eines kontinuierlichen Prozesses mit einer Optimier- und einer Regelphase
DE19727795C1 (de) Verfahren und Anordnung zur neuronalen Modellierung einer Prozeßgröße und Steuerung des Prozesses mit dieser Größe
WO2020193243A1 (de) Verfahren zum virtuellen testen einer anlagensteuerung sowie simulationsvorrichtung
DE102021212524A1 (de) Verfahren zum Betreiben eines Sensors
WO2024125959A1 (de) Erzeugung von synthetischen trainingsdaten für neuronales netz
EP3699699A1 (de) Verfahren zum bereitstellen eines modells für zumindest eine maschine, trainingssystem, verfahren zum simulieren eines betriebs einer maschine sowie simulationssystem
DE102016113310A1 (de) Verfahren zur Bewertung von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten
EP4300219A1 (de) Verfahren zur ermittlung einer reglerkonfiguration für ein antriebssystem, computerprogramm, computerlesbares medium, vorrichtung und antriebssystem
DE102021116388A1 (de) Verfahren zum Optimieren eines Reglers und Regelsystem mit einem derart optimierten Regler
DE19527521C1 (de) Lernverfahren für ein neuronales Netz

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21783201

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21783201

Country of ref document: EP

Kind code of ref document: A1