DE19531692C2 - Verfahren zur Beobachtung nicht meßbarer Größen nichtlinearer dynamischer Systeme - Google Patents

Verfahren zur Beobachtung nicht meßbarer Größen nichtlinearer dynamischer Systeme

Info

Publication number
DE19531692C2
DE19531692C2 DE1995131692 DE19531692A DE19531692C2 DE 19531692 C2 DE19531692 C2 DE 19531692C2 DE 1995131692 DE1995131692 DE 1995131692 DE 19531692 A DE19531692 A DE 19531692A DE 19531692 C2 DE19531692 C2 DE 19531692C2
Authority
DE
Germany
Prior art keywords
error
parameter
nonlinear
linear
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE1995131692
Other languages
English (en)
Other versions
DE19531692A1 (de
Inventor
Clemens Schaeffner
Dierk Schroeder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE1995131692 priority Critical patent/DE19531692C2/de
Publication of DE19531692A1 publication Critical patent/DE19531692A1/de
Application granted granted Critical
Publication of DE19531692C2 publication Critical patent/DE19531692C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65HHANDLING THIN OR FILAMENTARY MATERIAL, e.g. SHEETS, WEBS, CABLES
    • B65H23/00Registering, tensioning, smoothing or guiding webs
    • B65H23/04Registering, tensioning, smoothing or guiding webs longitudinally
    • B65H23/18Registering, tensioning, smoothing or guiding webs longitudinally by controlling or regulating the web-advancing mechanism, e.g. mechanism acting on the running web
    • B65H23/182Registering, tensioning, smoothing or guiding webs longitudinally by controlling or regulating the web-advancing mechanism, e.g. mechanism acting on the running web in unwinding mechanisms or in connection with unwinding operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65HHANDLING THIN OR FILAMENTARY MATERIAL, e.g. SHEETS, WEBS, CABLES
    • B65H2511/00Dimensions; Position; Numbers; Identification; Occurrences
    • B65H2511/10Size; Dimensions
    • B65H2511/16Irregularities, e.g. protuberances
    • B65H2511/166Irregularities, e.g. protuberances relative to diameter, eccentricity or circularity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65HHANDLING THIN OR FILAMENTARY MATERIAL, e.g. SHEETS, WEBS, CABLES
    • B65H2557/00Means for control not provided for in groups B65H2551/00 - B65H2555/00
    • B65H2557/20Calculating means; Controlling methods
    • B65H2557/22Fuzzy logic

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Description

Die Erfindung betrifft ein Verfahren zur Beobachtung nicht meßbarer Größen nichtlinearer dynamischer Systeme nach dem Oberbegriff des Anspruchs 1.
Ein solches Verfahren wird z. B. in der Literaturstelle K. Narendra and A. Annaswamy, "Stable Adaptive Systems", Kapitel 7, Prentice-Hall, Inc., Englewood Cliffs, NJ 07632, 1989, beschrieben.
Bei einer großen Zahl von Regelungsaufgaben besteht die Problemstellung, daß unbekannte statische nichtlineare Funktionen in der betrachteten Regelstrecke enthalten sind; Beispiele sind Reibungskennlinien, Unrundheiten bei Achswicklern oder der volumetrische Wirkungsgrad bei Ottomotoren.
Eine häufig eingesetzte Methode zur Behandlung derartiger nichtlinearer Strecken besteht darin, einen linearen Regler permanent an das um den gerade aktuellen Arbeitspunkt linearisierte Prozeßmodell der Regelstrecke zu adaptieren. Dies ist gleichbedeutend mit der wiederholten Parameterschätzung der Pro­ zeßparameter eines linearen Modells und der kontinuierlichen, rekursiven Aktualisierung dieser Parameter, siehe M. Papageorgiou, "Optimierung: Statische, dynamische, stochastische Verfahren für die Anwendung", Abschnitt 5.2, Oldenbourg Verlag, München Wien 1991. Der Hauptnachteil dieser Methodik liegt in der zwingend notwendigen Linearisierung der Regelstrecke. Immer dann, wenn nichtlineare Eigenschaften das Verhalten der Strecke wesentlich charakterisieren, ist eine sinnvolle Linearisierung aber nicht mehr möglich.
Eine alternative Möglichkeit ist der Einsatz von linearen, dynamischen Störgrößenbeobachtern, wie bei­ spielsweise beschrieben in R. Nihei, "Observer Control System", EP 0 483 367 A1, oder in "Entwurf von Zustands- und Störgrößenbeobachtern und ihre Anwendung bei Bewegungsvorgängen", Siemens Forsch.- u. Entwickl.-Ber. Bd. 11 (1982) Nr. 5, Springer 1982. In beiden Schriften wird von einem Störgrößenmodell der Form = 0 für jede unbekannte Störgröße ausgegangen. Dieses Störgrößenmodell ist linear und hat da­ mit den Vorteil, zusammen mit einer linearen Strecke, die durch eine nichtlineare Störgröße gestört sein darf, für einen klassischen Luenberger-Beobachterentwurf geeignet zu sein. Stabilitäts- und Konvergenzaussagen sind für Luenberger-Beobachter bekannt. Der Hauptnachteil von Entwürfen mit Störgrößenmodellen der Form = 0 besteht darin, daß die Störgrößen nur dann korrekt geschätzt werden, wenn sie konstant sind. Bei zeitvarianten Störgrößen entsteht ein Schleppfehler, der umso geringer ausfällt, je schneller die Beobach­ terdynamik ist. Die Schnelligkeit eines Beobachters wird begrenzt durch den unvermeidlichen Rauschanteil in den Meßsignalen; je schneller ein Luenberger-Beobachter eingestellt wird, desto ähnlicher wird sein Ver­ halten einem Differenzierer. Zusammenfassend läßt sich feststellen, daß für Störgrößen, die eine ähnliche oder sogar schnellere Dynamik als die Strecke aufweisen, der erwähnte Schleppfehler groß wird und ein Störgrößenmodell der Form = 0 nicht mehr ausreichend ist.
Eine Verbesserung ist prinzipiell mit nichtlinearen Modellen erzielbar, die mit Methoden der nichtlinea­ ren Regelungstheorie adaptiert werden, siehe Narendra et. al., Seiten 107 ff oder Isermann, "Identifikation dynamischer Systeme 2". In beiden Schriften werden Stabilitätsanalysen mittels Ljapunov- oder Popov- Ansätzen für adaptive Systeme mit nichtlinearen Modellen angegeben. Man beachte allerdings, daß sowohl Ljapunov-Stabilität als auch Popov-Hyperstabilität lediglich die Beschränktheit aller Systemsignale und als Konsequenz Fehlerkonvergenz garantieren, nicht jedoch Parameterkonvergenz. Parameterkonvergenz ist dann und nur dann gegeben, wenn das gesamte System ausreichend angeregt wird (persistent excitation). In den beiden Schriften geht dies stets mit der Forderung nach spektral reichhaltigen Systemsignalen ein­ her, die während der Adaption gefahren werden müssen. Spektral reichhaltige Systemsignale sind allerdings bei industriellen Anlagen in der Praxis häufig nicht fahrbar, beispielsweise aus technologischen oder wirt­ schaftlichen Gründen. Deshalb ist diesen Methoden eine breitere industrielle Anwendung bislang versagt geblieben.
In einer Vielzahl von Veröffentlichungen werden die Identifikation nichtlinearer Systeme mit neurona­ len Netzen zwar vorgeschlagen, jedoch werden keine Stabilitäts- oder Konvergenzaussagen getroffen (wie z. B. in D. Specht, "A General Regression Neural Network", IEEE Transactions on Neural Networks, Seiten 568-576, Vol. 2, No. 6, November 1991, in L. Jin, P. Nikiforuk und M. Gupta, "Fast Neural Learning and Control of Discrete-Time Nonlinear Systems", IEEE Transactions on Systems, Man and Cybernetics, Seiten 478-488, Vol. 25, No. 3, March 1995, in T. Yamada und T. Yabuta, "Dynamic System Identification Using Neural Networks", IEEE Transactions on Systems, Man and Cybernetics, Seiten 204-211, Vol. 23, No. 1, January/February 1993, oder in E. Linzenkirchner, "Anordnung zur Modellierung eines nichtlinearen Prozesses", DE 43 23 439 A1, 1995). Für online-adaptive industrielle Anwendungen sind Stabilitäts- und Konvergenzaussagen indes unerläßlich.
Ausführlich ist das typische Problem der Parameterkonvergenz in T. Yamada et. al. beschrieben: Die Netzwerkgewichte konvergieren nicht gegen die Werte der zugrundeliegenden Strecke, die im Simulations­ beispiel Abschnitt V. A. des Aufsatzes bekannt sind. Die Autoren stellen fest, daß der Lernvorgang in einem lokalen Minimum steckengeblieben ist.
Entscheidend für die Funktionsfähigkeit der Erfindung ist die im Abschnitt "Darstellung der Erfindung" genauer erläuterte lokale Parameterwirkung des in der Erfindung eingesetzten neuronalen Netztyps; diese lokale Parameterwirkung liegt bei keinem der in Isermann, "Identifikation dynamischer Systeme 2", erwähn­ ten nichtlinearen Modelle (Volterrareihe, Hammerstein-Modelle, Wiener-Modelle, Lachmann-Modell) vor.
Aufgabe der vorliegenden Erfindung ist es, ein solches Verfahren derart weiterzubilden, daß die unbekannte nichtlineare Strecke mittels eines neuronalen Netzes identifiziert wird. Damit wird ein Beobachter realisiert und der unerwünschte Einfluß von nichtlinearen Kenn­ linien weitgehend eliminiert. Diese Aufgabe löst die Erfindung durch die im Kennzeichen des Anspruchs 1 angegebenen Merkmale. Weitere Ausgestaltungen werden in den Merkmalen der Unteransprüche abgehandelt.
Um die Erfindung an einem typischen Beispiel zu beschreiben, wird eine seit langem bekannte Aufga­ benstellung gewählt, nämlich die Kompensation der aus den Unrundheiten bei Achswicklern resultierenden Bahnkraftschwankungen. Dadurch lassen sich die Ergebnisse des bisherigen Vorgehens und des erfindungs­ gemäßen Vorgehens, das insgesamt als "lokale Linearisierung" bezeichnet wird, besonders deutlich darstellen.
Betrachtet wird eine Anordnung gemäß Abb. 1. Der Abwickler und die erste Klemmstelle werden z. B. durch elektrischen Asynchronmaschinen angetrieben. Die Stoffbahn, die beispielsweise aus Papier bestehen kann, soll unter möglichst genauer Einhaltung einer vorgegebenen Bahnkraft zwischen Wickler und der ersten Klemmstelle abgewickelt werden. Das Hauptproblem bei der Bahnkraftregelung besteht in den unerwünschten Bahnkraftschwankungen, die aus der in der Praxis nie zu vermeidenden Unrundheit des Abwicklers resultieren.
Obwohl es theoretisch möglich wäre, den Radius über den Umfang exakt und in Echtzeit zu messen, wird darauf in der Praxis wegen des unverhältnismäßig hohen Aufwandes verzichtet. Es steht lediglich der über den Umfang konstante, mittlere Radius zur Verfügung, da dieser elementar z. B. aus dem stationären Drehzahlverhältnis zwischen Abwickler und der ersten Klemmstelle ermittelbar ist. Derzeit werden adaptive Zustandsregler eingesetzt, die diesen mittleren Radius zur Adaption benutzen. Darüberhinaus wird der Zu­ standsregler auf möglichst gute Robustheit gegenüber den Störungen, die aus der unbekannten Unrundheit resultieren, ausgelegt. Der Zustandsregler kann allerdings prinzipiell erst dann auf eine Störung reagieren, wenn sie sich auf mindestens einen Zustand ausgewirkt hat. Dieser Zeitverzug ist unbefriedigend, weil er die Güte der Bedämpfung der aus den Unrundheiten resultierenden Bahnkraftschwankungen beschränkt. Die mit einem derartigen adaptiven Zustandsregler erzielbaren Ergebnisse sind beispielsweise in der Dis­ sertation Höger, "Ein Beitrag zur Systemdynamik von Wickelantrieben unter Berücksichtigung elastischer Kopplungen", Abschnitt 5.3.2.2, dokumentiert.
Um ein Verbesserung der Störgrößenkompensation zu ermöglichen, wurde das in Anspruch 1 angegebene Verfahren und die Einrichtung entwickelt, mittels dessen ein nichtlineares Störmodell der Unrundheit on-line erlernt wird. Das gewünschte Ergebnis einer optimalen Störgrößenkompensation - das beispielhaft vorge­ gebene Ziel der Erfindung - kann nur darin erzielt werden, wenn die erfindungsgemäßen Entwurfskriterien beachtet werden, die im folgenden näher beschrieben werden.
Darstellung der Erfindung Verfahren
Es wird ein nichtlinearer Beobachter entworfen, der neuronale Netze als universelle Funktionenapproxima­ toren benutzt, um nichtlineare statische Funktionen zu implementieren, deren Verlauf unbekannt ist. Durch Anwendung dieses als "lokale Linearisierung" bezeichneten Verfahrens gelingt es, statische Nichtlinearitäten in der betrachteten Regelstrecke mit definierten Stabilitäts- und Konvergenzeigenschaften zu erlernen und zu kompensieren.
In der Literatur sind zahlreiche verschiedene Typen neuronaler Netze bekannt, die sich durch ihr Ap­ proximationsverhalten unterscheiden. Für die Funktionsfähigkeit der Erfindung ist es entscheidend, daß das sog. Allgemeine Neuronale Regressionsnetzwerk (General Regression Neural Network (GRNN)) in der von D. Specht in "A General Regression Neural Network", IEEE Transactions on Neural Networks, Seiten 568-576, Vol. 2, No. 6, November 1991, dargestellten Form verwendet wird, weil es ein aus regelungstechni­ scher Sicht günstiges Approximationsverhalten, insbesondere bezüglich Stetigkeit und Monotonieverhalten, aufweist.
Ein GRNN dient im Rahmen der Erfindung als Approximator für eine unbekannte, statische, nichtlineare Funktion y = f(x) und ist in der folgenden Form darstellbar:
Approximationsgrößen sind mit einem ^ gekennzeichnet. Der Vektor ist q-dimensional, d. h. ∈ IRq, und besteht aus den lernbaren Parametern; der Vektor w(x) ∈ IRq ist der Regressionsvektor, der aus normierten Parzen-Fensterfunktionen gebildet wird (vgl. Specht). Die Komponenten wµ(x) von w(x) werden auch als Basisfunktionen bezeichnet.
Die unbekannte Funktion f läßt sich in ähnlicher Weise darstellen:
ϑ sei "optimal" im Sinne eines minimalen δ. d(x) wird in der Literatur als der sog. inherent approxima­ tion error bezeichnet und ist allgemein als der Fehler zwischen der optimalen Parametereinstellung eines Approximators und der zu approximierenden Funktion definiert. Man beachte, daß sowohl der optimale Parametervektor ϑ als auch d(x) und δ unbekannt sind.
Die Entwurfsaufgabe bei einer konkreten Anwendung (vgl. untenstehenden Abschnitt 2.2) besteht darin, ein skalares Fehlersignal e so zu erzeugen, daß es der folgenden Fehlergleichung genügt:
Mit (1) und (2) sowie durch Einführen des wie folgt definierten Parameterfehlervektors ϕ
erhält man aus (3) die Fehlergleichung
e = H(s) . {ϕT . w(x) - d(x)} (5)
Für den Fall exakter Approximation mit δ = 0 bzw. d(x) = 0 entspricht diese Fehlergleichung genau der Fehlergleichung eines in der Literatur bekannten Fehlermodells (z. B. Fehlermodell Nr. 3 in K. Narendra and A. Annaswamy, "Stable Adaptive Systems", Prentice-Hall, Inc., Englewood Cliffs, NJ 07632, 1989) und es kann das dazugehörige Adaptionsgesetz angewendet werden:
Da die Basisfunktionen wµ(x) beschränkt sind, konvergiert e gegen Null.
Für δ < 0 mit d(x) ≈ 0 konvergiert e nicht mehr genau gegen Null, sondern gegen ein schmales Toleranzband um Null. In diesem Sinne ist also für das System bestehend aus der Fehlergleichung (5) und dem Adaptionsgesetz (6) Fehlerkonvergenz e → 0 gegeben.
Das Lernziel ϕ = 0 wird jedoch dann und nur dann erreicht, wenn das Signal w(x) ausreichend anregend ist. Bei bislang realisierten Anwendungen von Fehlermodellen (siehe z. B. die Beispiele im Kapitel 8.2 in J. Slotine und W. Li, "Applied Nonlinear Control", Prentice-Hall, Inc., Englewood Cliffs, NJ 07632, 1991) führt diese Bedingung auf die Forderung nach spektral reichhaltigen Systemsignalen. Diese Forderung ist in der Praxis häufig nicht zu erfüllen (aus diesem Grund sind Fehlermodelle bislang kaum eingesetzt worden).
Durch die erfindungsgemäße Kombination des GRNN mit dem Fehlermodell (5)/(6) zerfällt die bislang schwierig zu erfüllende Forderung nach ausreichender Anregung in eine einfache, in der Praxis leicht zu erfüllende Bedingung, um Parameterkonvergenz ϕ0 zu erzielen: Das relevante Eingangsintervall für x des GRNN muß lediglich einige wenige Male (in der Anwendung im Abschnitt 2.2 etwa 4-5 Mal) durchlaufen werden. Dynamische Anforderungen existieren nicht. Damit kann die Lernstruktur zur Lösung einer Vielzahl praktischer Problemstellungen eingesetzt werden.
Zur Begründung dieser Aussage betrachte man zunächst das Approximationsverhalten des GRNN ge­ nauer. Das Lernen erfolgt durch Verstellen der Komponenten µ des Parametervektors . Jeder Parameter µ besitzt je nach Breite der Parzen-Fensterfunktionen einen mehr oder weniger breiten, aber vor allem lokalen Einflußbereich (Lokalität der Parameter, lokale Parameterwirkung). Exemplarisch ist dieser Sach­ verhalt für ein GRNN mit drei Stützwerten (x) = 1w1(x) + 2w2(x) + 3w3(x) in Abb. 2 dargestellt. Infolge der Variation von 2 verändert sich die GRNN-Approximationsfunktion nur in einer Umgebung des korrespondierenden Zentrums ζ2.
Beim GRNN weisen die lokalen Einflußbereiche von Basisfunktionen benachbarter Zentren einen Über­ lappungsbereich auf, der ebenfalls von der Breite der Parzen-Fensterfunktionen abhängt. Gehen wir für die Erläuterung des Lernvorganges idealisierend von stückweise konstanten, unstetigen Basisfunktionen wµ(x) aus, die keinen Überlappungsbereich aufweisen:
Die Zentren seien äquidistant im Abstand 2σ plaziert. In Analogie zur in Abb. 2 dargestellten GRNN- Approximation ergibt sich mit den Basisfunktionen (7) und mit (x) = 1 . w1(x) + 2 . w2(x) + 3 . w3(x) die unstetige Approximationsfunktion gemäß Abb. 3. Aus (7) resultiert, daß stets nur genau eine Komponente von w(x) von Null verschieden ist. Es können demzufolge nur endlich viele, nämlich q verschiedene Vektoren w(x) auftreten, die alle orthogonal zueinander sind.
Es folgt aus (6) für ein Zeitintervall, in dem die ν-te Komponente von w(x) von Null verschieden sei:
Bei Vernachlässigung des inhärenten Approximationsfehlers (d. h. d(x) = 0) ergibt sich aus (5):
e = H(s). {ϕν . wν(x)} (9)
Durch Einsetzen von (9) in (8) und unter Berücksichtigung von (7) erhält man
ν = -η . [H(s) . {ϕν . wν(x)}] . wν(x) = -η . H(s) . ϕν (10)
Für den einfachsten möglichen Fall, nämlich für H(s) = 1, geht der Parameterfehler ϕν ausgehend von einem beliebigen Anfangszustand exponentiell mit der Zeitkonstante 1/η gegen Null (PT1-Verhalten). Der Konvergenzvorgang endet, sobald sich im Laufe der Zeit x soweit geändert hat, daß eine andere, von wν(x) verschiedene Basisfunktion aktiviert wird; entsprechendes gilt dann für diese andere Komponente des Para­ meterfehlervektors ϕ. Der Parameterfehler ϕν wird nicht weiter verändert, bis eventuell zu einem späteren Zeitpunkt wν(x) wieder aktiviert wird. Dann wird der Konvergenzvorgang ausgehend von dem eingefrore­ nen ϕν-Wert fortgesetzt. Entscheidend ist, daß durch die Lokalität der Stützwerte eine Entkopplung der Parameterfehlerdynamik in (10) entsteht: ϕν hängt nur von ϕν ab, nicht jedoch von allen anderen ϕµ mit µ ≠ ν.
Das verwendete Fehlermodell läßt eine Übertragungsfunktion H(s) ≠ 1 zu, sofern H(s) strictly po­ sitive real (SPR) ist. Eine SPR Übertragungsfunktion H(s) weist für s = jω stets einen Phasenwinkel auf, der betragsmäßig kleiner als π/2 ist, d. h. -π/2 < arc{H(jω)} < π/2. Zur Stabilitätsbetrachtung wird die Gleichung (10) in eine Regelkreisdarstellung gemäß Abb. 4 umgeformt und es ergibt sich mit der Übertragungsfunktion F0(jω) des aufgeschnittenen Regelkreises:
Der Integrator 1/jω trägt zur Phase arc{-F0(jω)} den Winkel -π/2 bei; insgesamt erhält man demnach
-π< arc{-F0(jω)} < 0 (12)
und wir folgern, daß (10) für SPR Übertragungsfunktionen H(s) stets stabil ist, da ein Phasendurchtritt, d. h. arc{-F0(jω)} = -π für 0 ≦ ω < ∞, nicht erreicht wird.
Somit konvergiert ϕν in (10) für jede SPR Übertragungsfunktion H(s) gegen Null. Die Übertragungs­ funktion H(s) beeinflußt zwar die Parameterfehlerdynamik, jedoch nicht deren Stabilität. Von der veränder­ ten Parameterfehlerdynamik abgesehen verläuft der Konvergenzprozeß des Parameterfehlervektors völlig analog dem oben geschilderten Fall für H(s) = 1.
Damit nun alle Komponenten des Parameterfehlervektors ϕ gegen Null konvergieren, müssen innerhalb eines unter Umständen großen, aber endlichen Zeitraums T0 alle Komponenten von w(x) für ein Zeitin­ tervall einen von Null verschiedenen Wert angenommen haben. Diese Forderung ist äquivalent mit der ausreichenden Anregung des Vektors w(x).
Im Gegensatz zur idealisierenden Annahme stückweise konstanter, unstetiger Basisfunktionen gemäß (7) liegen jedoch beim GRNN aufgrund der Parzen-Fensterfunktionen Überlappungen vor, d. h. die Entkopp­ lung der Parameterfehlerdynamik ist nicht mehr perfekt und es gibt Beeinflussungen durch Parameterfehler anderer Zentren. Die Fensterfunktionen sind so zu justieren, daß diese Überlappungen gering sind (im Sinne von Abb. 2). Dann ist das Lernverhalten des GRNNs aufgrund der ausgeprägten Lokalität der Parameter sehr ähnlich zum oben geschilderten Idealfall ohne Überlappungen.
Anwendung des Verfahrens auf das Erlernen der Unrundheit bei Achswick­ lern
Ein Ausführungsbeispiel wird im folgenden anhand von Abbildungen erläutert.
Es zeigen:
Abb. 1 Abwickler und erste Klemmstelle
Abb. 2 Lokalität der Stützwerte beim GRNN; geringer Überlappungsbereich zwi­ schen den Basisfunktionen benachbarter Zentren
Abb. 3 Lokalität der Stützwerte bei stückweise konstanten, unstetigen Basisfunk­ tionen; kein Überlappungsbereich zwischen den Basisfunktionen benach­ barter Zentren
Abb. 4 Regelkreisdarstellung der Parameterfehlerdynamik
Abb. 5 Berechnung von ϕ' für periodisches GRNN
Abb. 6 GRNN-Implementierung für periodische Funktionen
Abb. 7 Neuronale Lernstruktur zum Erlernen von Unrundheiten bei Achswicklern
Abb. 8 Lernergebnis nach 49 Sekunden (entspricht 49 Umdrehungen). Schätzung des Beobachters (t) und realer Verlauf der Unrundheit Δr(t); zusätzlich eingetragen: Bahnkraft f12(t).
Abb. 9 Zeitverlauf der Bahnkraft f12(t) ohne neuronale Störgrößenaufschaltung.
Abb. 10 Zeitverlauf der Bahnkraft f12(t) mit Störgrößenaufschaltung auf der Grundlage der Schätzgrößen und 01 aus dem neuronalen Beobachter.
Die beschriebene Lernstruktur kann zum Erlernen der Unrundheit bei Achswicklern eingesetzt werden. Den folgenden Betrachtungen liegt der Signalflußplan der Regelstrecke, der sich in Abb. 7 außerhalb des grau unterlegten Bereichs befindet, zugrunde. Die Regelstrecke besteht (vgl. Abb. 1) aus dem Abwickler und der darauffolgenden Klemmstelle, die die Funktion des Leitantriebes wahrnimmt. Die diesem Signalflußplan zugrundeliegenden Gleichungen sind aus der Literatur bekannt, siehe beispielsweise Kapitel 2 der bereits erwähnten Dissertation Höger.
In Abb. 7 bedeuten:
s Laplace-Operator
m1 Antriebsmoment Abwickler
m2 Antriebsmoment Leitantrieb
mr Reibmoment
n1 Drehzahl des Abwicklers
Tm1 zeitvariante Schwungmasse des Abwicklers
s Laplace-Operator
ϕ Drehwinkel des Abwicklers
r0 mittlerer Radius
r(ϕ) Radius an der Stelle, an der die Bahn den Wickel verläßt
Δr(ϕ) Unrundheit
ε01 im Abwickler gespeicherte Bahndehnung
Tb Bahnzeitkonstante
ε12 Bahndehnung
εn Nenndehnung, Proportionalitätsfaktor für Hooksches Federgesetz
f12 Bahnkraft zwischen Abwickler und Leitantrieb
f23 Bahnkraft zwischen Leitantrieb und nachfolgender Klemmstelle
cv3 Proportionalitätsfaktor, der aus Systemkonstanten berechenbar ist
v1 Bahngeschwindigkeit zwischen Abwickler und Leitantrieb
v2 Bahngeschwindigkeit zwischen Leitantrieb und nachfolgender Klemmstelle
Alle Größen sind normiert.
Die Funktion des Leitantriebes besteht darin, die Bahngeschwindigkeit für das gesamte System vorzuge­ ben. Die Regelung des Leitantriebes ist darauf ausgerichtet, die Bahngeschwindigkeit v2 an der Klemmstelle des Leitantriebes möglichst steif einzuprägen. Als Störgrößen wirken die Bahnkräfte f12 und f23.
Der Abwickler ist bahnkraftgeregelt mit der Regelgröße f12. Der Radius r des Abwicklers, der an der Stelle, an der die Bahn den Wickel verläßt, betrachtet wird, ist in zweifacher Weise vom aktuellen Drehwinkel ϕ = ∫n1(t)dt abhängig:
  • - Erstens nimmt der Wickelradius ab, da mit jeder Umdrehung eine Bahnlage abgewickelt wird. Die Radiusänderung ist, betrachtet über den gesamten Abwickelvorgang, relativ groß. Dies wird durch die winkelabhängige Funktion r0(ϕ) modelliert, die den aktuellen, um den Wickelumfang gemittelten Radius repräsentiert.
  • - Zweitens variiert der Wickelradius innerhalb einer Umdrehung, weil der Wickel in der Praxis nie ideal rund ist (z. B. infolge von Verformungen bei Lagerung oder Transport). Diese Radiusänderung wird durch die winkelabhängige, mittelwertfreie Funktion Δr(ϕ) modelliert, die als die sog. Unrundheit bezeichnet wird. Form und Größe der Unrundheit können sehr unterschiedlich sein und variieren mit jedem Wickel. Allgemein gilt lediglich, daß sich durch das Abwickeln von einer Bahnlage die Unrundheit nur geringfügig ändert, d. h. daß die Funktion Δr(ϕ) in guter Näherung 2π-periodisch ist.
Es gilt demnach die Beziehung:
Die Winkelabhängigkeit des Radius r = r(ϕ) hat erhebliche Konsequenzen. Zunächst ist die Schwungmasse Tm1 nicht mehr konstant, sondern eine Funktion von r0. Die aus dem Abwickler auslaufende Bahngeschwin­ digkeit v1 hängt nun nichtlinear von der Wickeldrehzahl n1 ab; gleiches gilt für die Momentenrückwirkung von f12 auf den Wickelantrieb, siehe die Multiplikationsstellen mit dem Eingangssignal r(ϕ) in Abb. 7.
Der mittlere Radius r0 ist - wie bereits oben erwähnt wurde - aus gemessenen Größen rekonstruierbar. Da sich r0 nur langsam ändert, ist eine r0-Berechnung in schlechter dynamischer Qualität ausreichend.
Die als Eingangssignal im Signalflußplan Abb. 7 eingezeichnete Dehnung ε01 beschreibt die im Wickel gespeicherte Dehnung. In Analogie zur Unrundheit Δr(ϕ) kann man für ε01 eine Winkelabhängigkeit ε01 = ε01(ϕ) annehmen, die in erster Näherung ebenfalls 2π-periodisch ist.
Wie in der Dissertation Höger erläutert, wirkt sich die Unrundheit Δr(ϕ) negativ in Form von er­ heblichen Schwingungen um den jeweiligen Sollwert auf die Bahnkräfte des Gesamtsystems aus. Zu Ver­ gleichszwecken ist die Störgrößenbedämpfung mit konventioneller adaptiver Zustandsregelung, die auf der Grundlage von r0 adaptiert wird, für einen Fall mit relativ ausgeprägter Unrundheit in Abb. 9 dargestellt. Die Unrundheit führt zu erheblichen Bahnkraftschwankungen. Deshalb ist der Entwurf eines neuronalen Beobachters motiviert, der die Funktionen Δr(ϕ) und ε01(ϕ) erlernen soll. Zum Zwecke der Fehlersignaler­ zeugung stehen hier zwei Meßsignale zur Verfügung: Zum einen die Wickeldrehzahl n1 und zum anderen Bahnkraft f12.
In der hier diskutierten Anwendung sind die zu approximierenden Funktionen Δr(ϕ) und ε01(ϕ) 2π- periodisch. Um die 2π-Periodizität zu erreichen und gleichzeitig eine effiziente GRNN-Implementierung für periodische Funktionen zu realisieren, wird der Definitionsbereich für das GRNN von vornherein auf das Intervall von 0 bis 2π beschränkt. Das so beschränkte GRNN
sei eine Funktion der neuen unabhängigen Variablen ϕ' mit 0 ≦ ϕ' < 2π. Ist das GRNN an einer Stelle ϕ ≧ 2π bzw. ϕ < 0 auszuwerten, so werden von ϕ Vielfache von 2π subtrahiert bzw. addiert, bis sich ein ϕ' mit 0 ≦ ϕ' < 2π ergibt:
ϕ' = ϕ'(ϕ) = ϕ - k . 2π mit der ganzen Zahl k so, daß 0 ≦ ϕ' < 2π gilt (15)
Der durch (15) beschriebene Zusammenhang ϕ → ϕ' ist grafisch in Abb. 5 dargestellt; ferner ist in dieser Abbildung auch der korrespondierende Signalflußplanblock definiert. Darüberhinaus werden die insgesamt q Stützwerte des GRNNs ringförmig im Sinne von Abb. 6 angeordnet, so daß der q-te Stützwert ein Nachbar des ersten Stützwertes wird. Durch die Operation (15) und die ringförmige Anordnung der Stützwerte wird die GRNN-Approximationsfunktion in Abhängigkeit von ϕ stetig differenzierbar 2π-periodisch fortgesetzt.
Zunächst wird ein neuronaler Beobachter entworfen, der aufgrund eines durch die Drehzahlmessung erzeugten Fehlersignals er lernt. r bezeichne den Schätzwert für das unbekannte Reibmoment mr; λ sei ein wählbarer Designparameter. Da Δr = Δr(ϕ) 2π-periodisch ist, gilt Δr(ϕ) = Δr(ϕ'), vgl. (15). Entsprechend (2) setzt man für Δr:
Analog für die ebenfalls 2π-periodische Funktion ε01 = ε01(ϕ):
ϑ r und ϑε sind die unbekannten, optimalen Parametervektoren; dr(ϕ') und dε(ϕ') sind die korrespondieren­ den inherent approximation errors.
Die entsprechenden GRNN-Approximationsfunktionen lauten
und
Würde man zur Fehlersignalerzeugung die gemessene Drehzahl n1 unmittelbar verwenden, so würde sich keine SPR-Übertragungsfunktion für H(s) im Fehlermodell (5)/(6) ergeben. Deshalb wird das Fehlersignal auf der Grundlage von n'1 gebildet, einem durch PDT1-Filterung aus n1 erhältlichen Signal.
Aus Abb. 7 entnimmt man:
Mit
und
folgt:
Das Reibmoment mr kann in guter Näherung als eine sich gegenüber Δr sehr langsam veränderliche Größe betrachtet werden. Es wird deshalb als vom Drehwinkel ϕ unabhängig mit dem einfachen linearen Störgrößenmodell r = 0 modelliert.
Wir setzen in (23) für Δr den Ausdruck (16) bzw. für Δ(18) ein und erhalten mit der Definition des skalaren Parameterfehlers für das Reibmoment ϕm = r - mr sowie dem Parameterfehlervektor für die Unrundheit ϕ r = r - ϑ r:
Die Struktur dieser Gleichung entspricht der Fehlergleichung (5) mit der SPR-Übertragungsfunktion H(s) = λ/{(s + λ) . Tm1}, und die Anwendung der Lernregel (6) liefert:
Damit tritt Fehlerkonvergenz ein. Für die Parameterkonvergenz liegt jedoch nun nicht die im Abschnitt 2.1 diskutierte Situation vor, da nun nicht nur ein GRNN, sondern ein GRNN (r T . w(ϕ')) und gleichzeitig ein Skalar r) trainiert werden. Infolgedessen ist die Parameterfehlerdynamik nicht entkoppelt und die Forderung nach ausreichender Anregung ist ist nur mit spektral reichhaltigen Systemsignalen erfüllbar. Damit verbunden ist eine erhebliche Zunahme der Lernzeiten.
Um diese Nachteile zu vermeiden, wird eine dynamische Separation der beiden zu lernenden Größen vorgenommen. Dazu wird die Tatsache ausgenutzt, daß Δr(ϕ) bzw. Δr(ϕ') mittelwertfrei sind. Die Ap­ proximationsfunktion des GRNN Δ(ϕ') = r T . w(ϕ') ist genau dann ebenfalls mittelwertfrei, falls die Komponenten , µ = 1, ..., q, des Parametervektors r mittelwertfrei sind:
Um die Bedingung (27) zu erzwingen, wird nach jedem Lernschritt der zeitdiskret realisierten Lernregel (26) für jeden Stützwert die folgenden Zuweisung durchgeführt:
Dadurch wird die Approximationsfunktion des GRNN Δ(ϕ') =r . w(ϕ') stets mittelwertfrei gehalten, d. h. ihr Gleichanteil ist Null.
Betrachten wir die Fehlergleichung (24) nur für die Gleichanteile aller Signale. Für diesen Fall ist in (24) für das PT1-Glied die stationäre Verstärkung anzusetzen (d. h. s → 0); der Term mit ϕ r = r - ϑ r verschwindet aufgrund von (27). Es ergibt sich für den Gleichanteil er des Fehlersignals er:
Diese Fehlergleichung für den Mittelwert des Fehlersignals entspricht nun der Fehlergleichung (5), und die gemäß dem Adaptionsgesetz (6) korrespondierende Lernregel lautet:
Die Lernregel (30) führt zur Fehlerkonvergenz er → 0 und damit wegen (29) auch zu Parameterkonvergenz r → mr.
Als Approximation von er kann das ohnehin benötigte Fehlersignal er gemäß (23) verwendet werden, da r ansatzbedingt - weil ϕ-unabhängig - keinen Wechselanteil aufnehmen kann. Damit wird die Lernregel (30) zu
Die Lernregel (31) bewirkt inhärent einen Glättungseffekt, der umso ausgeprägter ist, je kleiner die Lern­ schrittweite ηm gewählt wird.
Gehen wir für die weitere Überlegung von einem Zustand aus, für den die soeben beschriebene Para­ meterkonvergenz für r bereits eingetreten ist, d. h. also gilt: ϕm = r - mr = 0. In diesem Fall wird die Fehlergleichung (24) zu (dr(ϕ') = 0):
Die Beziehung (32) entspricht nun exakt der Fehlergleichung (5), und wir wenden die Lernregel (6) an:
Hier gilt nun die im Abschnitt 2.1 beschriebene Parameterkonvergenzanalyse und die gewünschte Entkopp­ lung der Parameterfehlerdynamik tritt ein. Damit werden zur Erfüllung der Forderung nach ausreichender Anregung für die Parameterkonvergenz ϕ r0 keine komplexen Systemsignale benötigt.
Nun wird ein neuronaler Beobachter entworfen, der aufgrund eines durch die Bahnkraftmessung er­ zeugten Fehlersignals eε lernt. Gemäß Abb. 7 und bei Linearisierung um einen festen Arbeitspunkt des Ausdrucks für die Bahnkraft f12 gilt:
Mit der Definition für den Parameterfehlervektor ϕ ε = ε - ϑ ε,(16) und (17) erhält man:
Der Lernvorgang für die Unrundheit sei bereits abgeschlossen, d. h. ϕ r = 0. Dann folgt aus (35) bei Ver­ nachlässigung der inherent approximation error dε und dr:
Diese Gleichung entspricht der Fehlergleichung (5), und die Lernregel (6) ist anwendbar:
Hier gilt nun wieder die im Abschnitt 2.1 diskutierte Parameterkonvergenzanalyse mit entkoppelter Pa­ rameterfehlerdynamik und der einfachen Erfüllung der Forderung nach ausreichender Anregung für die Parameterkonvergenz.
Damit sind also die unbekannten Größen Reibung mr, Unrundheit Δr und im Wickel gespeicherte Dehnung ε12 mittels dem im Abschnitt 2.1 beschriebenen Verfahren erlernbar und man wird in die Lage versetzt, die durch den neuronalen Beobachter geschätzen Störgrößen r, Δ und 12 für eine Störgrößen­ kompensation in der bekannten Feedforward-Struktur zu nutzen.
Bei sonstigen technischen Prozessen und somit auch beim Wickler ändert sich typischerweise die Form der Nichtlinearitäten. Beim Wickler ändert sich etwa die Form der Unrundheit. Die erläuterte Struktur mit neuronalem Netz und dem im Abschnitt 2.1 erläuterten Verfahren wird fortlaufend den Lernprozeß weiterführen (da eine Fehlersignalrückführung vorliegt) und damit die Art der Nichtlinearität kontinuierlich weiteridentifiziert. Dadurch liegt ein permanent aktuelles Kompensationssignal für die Störgrößenaufschal­ tung vor.
Erzielbare Vorteile
Durch die Anwendung der für diese Aufgabenstellung erforderlichen Lernregeln (25), (26), (28) und (33) wird das im Abschnitt 2.1 erläuterte Verfahren für das Erlernen der Unrundheit bei Achswicklern implementiert. In Abb. 8 ist das durch eine numerische Simulation ermittelte Lernergebnis für die Unrundheit abgebildet. Die Transiente Δr zeigt die tatsächliche Unrundheit, die Kurve Δ die erlernte Approximation. Man erkennt, daß der neuronale Beobachter die Unrundheit sehr gut approximiert. Werden nun die im neuronalen Beobachter erzeugten Schätzwerte für r, Δ und 12 in der bekannten Feedforward-Struktur zur Störgrößenkompen­ sation verwendet, dann ergibt sich ein Kraftverlauf gemäß Abb. 10. Innerhalb weniger Umdrehungen hat der neuronale Beobachter die Schätzgrößen soweit gelernt, so daß die Feedforward-Kompensation zu einer erheblichen Reduktion der Bahnkraftschwankungen führt. Der dadurch erzielbare Vorteil wird durch den Vergleich der Abb. 9 (ohne Feedforward-Kompensation) mit Abb. 10 (mit Feedforward-Kompensation) deutlich.
Geringere Bahnkraftschwankungen ermöglichen höhere Produktionsgeschwindigkeiten sowie die Ver­ wendung empfindlicherer Materialien (z. B. dünneres Papier). Dadurch kann die Anlage effizienter genutzt werden und wirtschaftlicher arbeiten.
Für die Beurteilung der Patentfähigkeit in Betracht gezogene Druckschriften:
K. Narendra and A. Annaswamy Stable Adaptive Systems. Kapitel 3 und 7, Prentice-Hall, Inc., Englewood Cliffs, NJ 07632, 1989.
M. Papageorgiou Optimierung: Statische, dynamische, stochastische Verfahren für die Anwendung. Abschnitt 5.2, Oldenbourg Verlag, München Wien 1991.
W. Höger Ein Beitrag zur Systemdynamik von Wickelantrieben unter Berücksichtigung elastischer Kopplungen. Abschnitt 5.3.2., Dissertation am Lehrstuhl für Elektrische Antriebstechnik, Technische Universität München, 1986.
D. Specht A General Regression Neural Network. IEEE Transactions on Neural Networks, Seiten 568-576, Vol. 2, No. 6, November 1991.
J. Slotine und W. Li Applied Nonlinear Control. Kapitel 8.2, Prentice-Hall, Inc., Englewood Cliffs, NJ 07632, 1991
R. Nihei Observer Control System. EP 0 483 367 A1, 1991.
R. Isermann Identifikation dynamischer Systeme 2. 2. Auflage, Berlin u. a. Springer 1992, Seiten 41, 156-159, 224-230, 323, 325 und 326.
E. Schnieder und H. Kothe Entwurf von Zustands- und Störgrößenbeobachtern und ihre Anwendung bei Bewegungsvorgängen. Siemens Forsch. -u. Entwickl.-Ber. Bd. 11 (1982) Nr. 5, Seiten 251-257.
L. Jin, P. Nikiforuk und M. Gupta Fast Neural Learning and Control of Discrete-Time Nonlinear Systems. IEEE Transactions on Systems, Man and Cybernetics, Seiten 478-488, Vol. 25, No. 3, March 1995.
E. Linzenkirchner Anordnung zur Modellierung eines nichtlinearen Prozesses. DE 43 23 439 A1, 1995.
T. Yamada und T. Yabuta Dynamic System Identification Using Neural Networks. IEEE Transactions on Systems, Man and Cybernetics, Seiten 204-211, Vol. 23, No. 1, January/February 1993.

Claims (12)

1. Verfahren zur Beobachtung nicht meßbarer Größen nichtlinearer dynamischer Systeme, deren linearer Teil nach Ordnung, Struktur und Parameter bekannt ist und deren nichtlinearer Teil aus unbekannten nichtlinearen statischen oder zeitvarianten Kennlinien besteht, dadurch gekennzeich­ net, daß ein Beobachter aus einer Kombination eines linearen Strecken-Teilmodells und allgemeinen neuronalen Regressionsnetzwerken aufgebaut ist, daß zum kontinuierlichen Training der allgemeinen neuronalen Regressionsnetzwerke ein als Fehlermodell bekann­ ter Gleichungssatz verwendet wird und daß dabei Stabilität und Parameterkonvergenz garantiert ist.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Stabilität des Lernvorganges durch einen Ljapunov-Stabilitätsbeweis garantiert ist.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die allgemeinen neuronalen Regressions­ netzwerke auf der Grundlage eines Fehlersignals, das durch Vergleich zwischen dem Ausgangssignal der realen Strecke und dem Ausgangssignal des Beobachters erzeugt wird, die unbekannten nichtlinearen statischen Kennlinien erlernen.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die für Parameterkonvergenz erforderliche ausreichende Anregung des Systems ohne dynamische Anforderungen an die Systemsignale erfüllt wird.
5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die erforderliche Struktur des Fehlermo­ dells für eine betrachtete Größe erst dann erreicht wird, wenn eine andere unbekannte Größe korrekt erlernt worden ist.
6. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß Fehlersignale spektral aufgeteilt werden.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die erforderliche Struktur des Feh­ lermodells für eine betrachtete Größe erreicht wird, wenn spektral aufgeteilte Fehler­ signale verwendet werden.
8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die erforderliche Struktur des Fehlermodells für eine betrachtete Größe erreicht wird, wenn eine andere unbekannte Größe korrekt erlernt worden ist und wenn spektral aufgeteilte Fehlersignale verwendet werden.
9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Lerngeschwindigkeit des neuronalen Regressionsnetzwerkes so eingestellt werden kann, daß auch zeitvariante nichtlineare Funktio­ nen identifiziert werden können.
10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das kontinuierliche Training online parallel zum Prozeß erfolgt, ohne mit einem Kompensationssignal in den realen Prozeß einzugreifen.
11. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die in den allgemeinen neuronalen Re­ gressionsnetzwerken erlernten Informationen verwendet werden, um ein Kompensationssignal für einen Regelkreis zu erzeugen, das zur zeitweiligen oder permanenten Störgrößenkompensation verwendet wird.
12. Verfahren nach Ansprüchen 1, 3 und 11, dadurch gekennzeichnet, daß die Funktion des neuronalen Regressionsnetzwerkes mittels Fuzzy Logik realisiert wird.
DE1995131692 1995-08-29 1995-08-29 Verfahren zur Beobachtung nicht meßbarer Größen nichtlinearer dynamischer Systeme Expired - Fee Related DE19531692C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1995131692 DE19531692C2 (de) 1995-08-29 1995-08-29 Verfahren zur Beobachtung nicht meßbarer Größen nichtlinearer dynamischer Systeme

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1995131692 DE19531692C2 (de) 1995-08-29 1995-08-29 Verfahren zur Beobachtung nicht meßbarer Größen nichtlinearer dynamischer Systeme

Publications (2)

Publication Number Publication Date
DE19531692A1 DE19531692A1 (de) 1996-04-11
DE19531692C2 true DE19531692C2 (de) 2000-01-13

Family

ID=7770631

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1995131692 Expired - Fee Related DE19531692C2 (de) 1995-08-29 1995-08-29 Verfahren zur Beobachtung nicht meßbarer Größen nichtlinearer dynamischer Systeme

Country Status (1)

Country Link
DE (1) DE19531692C2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19942144A1 (de) * 1999-09-03 2001-06-07 Schroeder Dierk Verfahren zur adaptiven Schwingungsdämpfung mittels neuronaler Netze
DE102005022448A1 (de) * 2005-05-14 2006-11-16 Saurer Gmbh & Co. Kg Fadenverlegeantrieb, insbesondere für eine Arbeitsstelle einer Textilmaschine
CN105182746A (zh) * 2014-08-19 2015-12-23 上海交通大学 球罐系统的多模型自适应控制方法及系统

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19547496C2 (de) * 1995-12-19 2003-04-17 Dierk Schroeder Verfahren zur Regelung von Verbrennungsmotoren
DE19634923C2 (de) * 1996-08-29 1999-08-19 Bruce Boye Linearisierung nichtlinearer technischer Prozesse mit Hilfe eines Abweichungsbeobachter
DE19814407B4 (de) * 1997-05-09 2007-04-19 Siemens Ag Verfahren und Anordnung zur neuronalen Modellierung einer Papierwickelvorrichtung
DE19735581A1 (de) * 1997-08-16 1999-02-18 Schlafhorst & Co W Spultrommelantrieb einer Kreuzspulen herstellenden Textilmaschine
DE19754878A1 (de) 1997-12-10 1999-06-24 Siemens Ag Verfahren und Anordnung zur Vorhersage und Regelung einer Papierwickelkenngröße bei einer Papierwickelvorrichtung
CA2328191A1 (en) 1998-03-31 1999-10-07 Siemens Aktiengesellschaft Method and arrangement for neural modeling of a paper winding device
FI110425B (fi) * 2000-04-12 2003-01-31 Metso Paper Inc Menetelmä kiinnirullaimen toimintavarmuuden parantamiseksi
DE10101511B4 (de) * 2001-01-12 2006-08-03 Cbb Software Gmbh Modellgestützte Linearisierung
DE10309670A1 (de) * 2003-03-06 2004-09-16 Man Roland Druckmaschinen Ag Regelvorrichtung
DE10355122A1 (de) * 2003-11-24 2005-06-23 Man Roland Druckmaschinen Ag Vorrichtung und Regelverfahren zur Kompensation von Regelabweichungen bei geregelten Antriebssystemen von Transport- und Bearbeitungsmaschinen, insbesondere Druckmaschinen
DE102005044339B4 (de) * 2005-09-16 2016-01-14 Siemens Aktiengesellschaft Verfahren zum Betrieb einer Wicklermaschine
DE102009026987A1 (de) * 2009-06-17 2011-08-04 manroland AG, 63075 Rollendruckmaschine und Verfahren zum Betreiben dieser
WO2012001211A1 (en) * 2010-06-29 2012-01-05 Metso Paper, Inc. A method and a system for determining eccentricity
DE102013000680A1 (de) * 2012-12-27 2014-07-03 Robert Bosch Gmbh Bahnzugkraftregelung unter Verwendung eines mittels Beobachters bestimmten Istwerts
CN109188914B (zh) * 2018-10-26 2021-04-27 黑龙江大学 一种n阶混合非线性系统的协同控制方法及控制系统
CN112327616B (zh) * 2020-10-19 2022-09-16 江苏大学 一种基于事件触发的网络控制系统控制器设计方法
CN113985901B (zh) * 2021-09-14 2023-06-27 中国人民解放军海军工程大学 基于扰动估计的高超声速飞行器预设性能控制方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0483367A1 (de) * 1990-05-15 1992-05-06 Fanuc Ltd. Steuerungssystem mit beobachter
DE4323439A1 (de) * 1993-07-13 1995-01-19 Siemens Ag Anordnung zur Modellierung eines nichtlinearen Prozesses

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0483367A1 (de) * 1990-05-15 1992-05-06 Fanuc Ltd. Steuerungssystem mit beobachter
DE4323439A1 (de) * 1993-07-13 1995-01-19 Siemens Ag Anordnung zur Modellierung eines nichtlinearen Prozesses

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DE-Buch: R. Isermann, Identifikation dynamischer Systeme 2, 2. Aufl., Berlin u.a.: Springer Verlag 1992, S. 41, 156-159, 224-230, 323, 325 u. 326 *
DE-Z.: Siemens Forsch.- u. Entwickl.-Berichte Bd. 11 (1982), Nr. 5, S. 251-257 *
US-Z.: IEEE Transactions on Neural Networks, Vol. 2, No. 6, Nov. 91, S. 568-576 *
US-Z.: IEEE Transactions on systems, man, and cybernetics, Vol. 23, No. 1, Jan./Feb. 1993, S. 204-211 *
US-Z.: IEEE Transactions on systems, man, and cybernetics, Vol. 25, No. 3, March 95, S. 478-488 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19942144A1 (de) * 1999-09-03 2001-06-07 Schroeder Dierk Verfahren zur adaptiven Schwingungsdämpfung mittels neuronaler Netze
DE102005022448A1 (de) * 2005-05-14 2006-11-16 Saurer Gmbh & Co. Kg Fadenverlegeantrieb, insbesondere für eine Arbeitsstelle einer Textilmaschine
CN105182746A (zh) * 2014-08-19 2015-12-23 上海交通大学 球罐系统的多模型自适应控制方法及系统
CN105182746B (zh) * 2014-08-19 2018-03-23 上海交通大学 球罐系统的多模型自适应控制方法及系统

Also Published As

Publication number Publication date
DE19531692A1 (de) 1996-04-11

Similar Documents

Publication Publication Date Title
DE19531692C2 (de) Verfahren zur Beobachtung nicht meßbarer Größen nichtlinearer dynamischer Systeme
DE102004019352B4 (de) Zustandsbasierter adaptiver Feedback-/Feedforward-PID-Regler (PID-Steuerungseinheit)
DE19747125C2 (de) Verfahren zur Einstellung von Reglerparametern eines Zustandsreglers
EP0258333B1 (de) Adaptive regeleinrichtung hoher genauigkeit und geringen stellenenergieverbrauchs
DE4131765A1 (de) Regelparameter-verbesserungsverfahren fuer industrielle anlagen
EP0520233B1 (de) Einrichtung zur Identifikation einer Übertragungsstrecke
DE19505506C2 (de) Verfahren zum Einsatz eines Beobachtermodells zur Drehmomentenschätzung und -vorhersage für eine Asynchronmaschine
EP1119799A1 (de) Regeleinrichtung zur regelung einer strecke mit mehreren verkoppelten regelgrössen
EP0752630B1 (de) Regeleinrichtung und Verfahren zur Selbsteinstellung dieses Reglers
DE3905261A1 (de) Verfahren und einrichtung zur stabilisation eines elektrischen versorgungsnetzes
EP2933502B1 (de) Digitalhydraulisches Antriebssystem
DE3721504A1 (de) Regelsystem
WO2017140455A1 (de) Drehzahlabhängige kompensation von lagefehlern
DE1523535A1 (de) Regelverfahren fuer einen Regelkreis
DE19832967C1 (de) Verfahren zur rechnergestützten Ermittlung einer Ausgangsgröße, Verfahren zum rechnergestützten Training eines neuronalen Netzes, Anordnung zur rechnergestützten Ermittlung einer Ausgangsgröße und Anordnung zum rechnergestützten Training eines neuronalen Netzes sowie deren jeweilige Verwendung
WO2019068376A1 (de) Planheitsregelung mit optimierer
DE102016203123A1 (de) Vorrichtung und Verfahren zur Regelung eines Wechselrichters
EP3542229A1 (de) Einrichtung und verfahren zur bestimmung der parameter einer regeleinrichtung
DE102007001186B4 (de) Verfahren und Vorrichtung zur Online-Kompensation von Nicht-linearitäten im Übertragungsverhalten von Stellgliedern
WO2021069565A1 (de) Reibungskompensation für einen greifer eines robotermanipulators
DE4333146C2 (de) Verfahren zur Regelung der Geschwindigkeit eines Motors
WO2021249616A1 (de) Verfahren zum konfigurieren von komponenten in einem system mit hilfe von multi-agent reinforcement learning, computerlesbares speichermedium und system
DE4319926A1 (de) Verfahren zur Regelung eines kontinuierlichen Prozesses mit einer Optimier- und einer Regelphase
EP2517348B1 (de) Verfahren zur regelung eines zeitvarianten systems
DE102008001311A1 (de) Verfahren und Vorrichtung zum Betrieb eines Reglers, insbesondere zur Regelung einer Brennkraftmaschine

Legal Events

Date Code Title Description
OAV Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1
OP8 Request for examination as to paragraph 44 patent law
8122 Nonbinding interest in granting licences declared
D2 Grant after examination
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20130301