DE69518208T2 - Verfahren und Vorrichtung zur Erzeugung einer Mehrgrössen-/nichtlinearen Steuerung - Google Patents

Verfahren und Vorrichtung zur Erzeugung einer Mehrgrössen-/nichtlinearen Steuerung

Info

Publication number
DE69518208T2
DE69518208T2 DE69518208T DE69518208T DE69518208T2 DE 69518208 T2 DE69518208 T2 DE 69518208T2 DE 69518208 T DE69518208 T DE 69518208T DE 69518208 T DE69518208 T DE 69518208T DE 69518208 T2 DE69518208 T2 DE 69518208T2
Authority
DE
Germany
Prior art keywords
variables
time
predicted
variable
controlled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69518208T
Other languages
English (en)
Other versions
DE69518208D1 (de
Inventor
Paul C. Badavas
Peter D. Hansen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Schneider Electric Systems USA Inc
Original Assignee
Foxboro Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foxboro Co filed Critical Foxboro Co
Publication of DE69518208D1 publication Critical patent/DE69518208D1/de
Application granted granted Critical
Publication of DE69518208T2 publication Critical patent/DE69518208T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0205Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric not using a model or a simulator of the controlled system
    • G05B13/026Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric not using a model or a simulator of the controlled system using a predictor

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Description

  • Die Erfindung betrifft industrielle Prozeßsteuerungen und genauer gesagt ein Verfahren und eine Vorrichtung zum Steuern von nichtlinearen dynamischen industriellen Prozessen mit mehreren Variablen.[0001]
  • Bei der industriellen Automation war man immer bestrebt, die optimale Art und Weise zum Steuern industrieller Prozesse zu erreichen, um Qualitäts- und Produktionsanforderungen zu erfüllen. Die meisten modernen industriellen Prozesse sind jedoch komplex und benötigen zahlreiche Steuervariablen mit wechselwirkenden Dynamiken, die Zeitverzögerungen und Verschiebungen sowie Nichtlinearitäten aufweisen. Um solche komplexen industriellen Prozesse zu handhaben, haben sich diverse Prozeßsteuerungstechniken entwickelt.[0002]
  • Die meisten gegenwärtigen Prozeßsteuerungstechniken bestimmen den optimalen Betrieb eines Prozesses durch Überwachen eines oder mehrerer der Merkmale des Prozesses im Laufe der Zeit, um die Operationsparameter des Prozesses anzupassen. Um die optimalen Operationsparameter zu berechnen, insbesondere im Lichte von Veränderungen des Arbeitspunktes, der Systemdynamik und von Störungen können diese Techniken auf einem Modell des Anlagenprozesses aufbauen, um das zukünftige Verhalten des Systems vorauszusagen. Bei manchen fortgeschrittenen Techniken ist dieses Modell oder ein Teil davon in eine Controllerstruktur einbezogen. Die Genauigkeit dieser Techniken beruht auf einem genauen dynamischen Modell des Prozesses. Ein solches Modell ist nicht notwendigerweise verfügbar, da manche Prozesse Unsicherheiten aufweisen, die nicht genau oder einfach modelliert werden können.[0003]
  • In jüngerer Zeit sind neuronale Netze zu einem attraktiven Mittel zum Modellieren von komplexen Prozessen geworden. Dies liegt daran, daß ein neuronales Netz die inhärente Fähigkeit hat, eine nichtlineare Funktion mit mehreren Variablen zu approximieren. Das neuronale Netz ist auch deswegen vorteilhaft, weil es kein vollständiges oder genaues Verständnis des Prozesses erfordert. Stattdessen kann es eine Darstellung des Prozesses durch seine Fähigkeit, zu üben und an Beispielen zu lernen, aufbauen. Ein neuronales Netz hat außerdem die Fähigkeit, verzögerte Variable zu handhaben und so dynamische Systeme darzustellen.[0004]
  • Die Anwendung von neuronalen Netzen auf dem Gebiet der Prozeßsteuerung ist eine relativ junge Entwicklung. Dennoch sind diverse Steuerungssysteme mit neuronalen Netzen entwickelt worden. Ein solcher Typ ist ein Steuerungssystem, das neuronale Netze im Rahmen der etablierten modellorientierten voraussagenden Steuerung einsetzt. Typischerweise verwenden diese Typen von Steuerungssystemen einen Controller, der ein Modell des Prozesses anwendet, um die manipulierte Variable zu bestimmen, die den Prozeß auf den Zielwert bringen wird. Prozeßrückkopplung wird durch ein Prozeß-Modell- Fehlanpassungssignal geliefert, das auf den Arbeitspunkt angewendet wird und so unmodellierte Störungen kompensiert. Dieses Fehlanpassungssignal ist die Differenz zwischen der Prozeßausgabe und einer von einem neuronalen Netz des Prozesses erzeugten modellierten Prozeßausgabe.[0005]
  • Der Controller besteht aus einem neuronalen Netzmodell und einem Optimierer. Das neuronale Netzmodell wird verwendet, um die Wirkung einer möglichen Trajektorie einer manipulierten Variable auf die Prozeßausgaben im Laufe einer zukünftigen Zeittrajektorie vorauszusagen, wobei gegenwärtige und kurz zurückliegende Prozeß-Eingabe- und Ausgabewerte berücksichtigt werden. Der Optimierer verwendet diese Information, um Werte der manipulierten Variablen so zu wählen, daß die Prozeßausgaben dem Arbeitpunkt optimal folgen und eine gegebene Menge von Randbedingungen erfüllen.[0006]
  • Dieser Typ von Prozeßsteuerungssystem unterliegt einigen Beschränkungen. Die vorrangige Beschränkung ist, daß er ungemessene Laststörungen bei einem verzögerungsdominierten Prozeß nicht effektiv handhabt. Obwohl die Verwendung einer Modell-Fehler-Rückkopplung dem System die Möglichkeit gibt, einen Totzeit-Prozeß gut zu handhaben, stabilisiert das Verfahren einen nicht-selbstregulierenden oder einen instabilen Prozeß mit offenem Regelkreis nicht, sofern nicht zusätzliche Rückkopplung bereitgestellt wird. Es gibt keine proportionale oder abgeleitete Rückkopplung, nur eine quasi-integrale Rückkopplungswirkung wird durch das Prozeß-Modell-Fehlanpassungssignal geschaffen. Außerdem wird die Controller-Ausgabetrajektorie-Optimierung in jedem Steuerungsintervall wiederholt, um die nächste Änderung der manipulierten Variable zu bestimmen. Diese Optimierung kann erhebliche Rechenzeit erfordern, so daß der Zeitabstand zwischen Aktualisierungen der Controllerausgabe unerwünscht groß wird. Dieser Zeitabstand trägt weitere Totzeit zu der Prozeßtotzeit bei und erhöht so den in Reaktion auf eine ungemessene Laständerung bestmöglich erreichbaren Steuerungsfehler.[0007]
  • Mit der Erfindung soll ein robustes und effizientes Prozeßsteuerungssystem geschaffen werden, das die obigen Einschränkungen berücksichtigt. Genauer gesagt, ein optimales nichtlineares Steuerungssystem mit mehreren Variablen, das robust ist, das nicht-selbstregulierende Prozesse genauso wie reine Totzeit-Prozesse erfaßt, das keine online- Optimierung erfordert, das kompensiert, um Störungen durch gemessene Lasten zu vermeiden und das ungemessenen Störungen mit hoher Rückkopplungsverstärkung entgegenwirkt.[0008]
  • Die Erfindung ist in Ansprüchen 1 und 8 dargelegt. Besonders bevorzugte Merkmale sind in den abhängigen Ansprüchen dargelegt.[0009]
  • Diese Offenbarung stellt ein Verfahren und eine Vorrichtung zum Trainieren und Optimieren eines neuronalen Netzwerkes zur Verwendung in einem Prozeßsteuerungssystem vor. Das neuronale Netz kann als ein Controller eingesetzt werden, der eine manipulierte Variable zur direkten Steuerung des Prozesses erzeugt, wie in der ersten und zweiten Ausgestaltung. Es kann auch als Teil einer Controllerstruktur oder zum Experimentieren am Prozeß eingesetzt werden, wie bei der dritten und vierten Ausgestaltung.[0010]
  • Training und Optimierung des neuronalen Netzes der ersten Ausgestaltung wird offline und unter Verwendung eines zweiten neuronalen Netzes durchgeführt. Das erste neuronale Netz ist ein Voraussagefilter für zukünftige Werte der gesteuerten Variablen als Funktion von gegenwärtigen Eingaben, gesteuerten Variablen und deren Änderungsgeschwindigkeit. Dieses neuronale Netz wird dann benutzt, um die optimalen Voraussagezeiten und die entsprechenden Voraussagen für jeden Satz der Eingabe- Trainingsdaten des neuronalen Netzes zu finden. Das Training kann mit einem üblichen Verfahren wie etwa der Rückausbreitung von Voraussagefehlern durchgeführt werden, um die Parameter des neuronalen Netzes anzupassen. Dieser Trainings- und Optimierungsprozeß wird offline durchgeführt, um so den Optimierungsüberhang aus der Controllerleistung zu beseitigen. Bei der ersten Ausgestaltung wird ein zweites neuronales Netz trainiert, um gegenwärtige Werte der manipulierten Variablen als Funktion der anderen Eingaben des ersten neuronalen Netzes und der vorausgesagten gesteuerten Variablen, vorverschoben um die optimale Voraussagezeit, auszugeben. Dieses Netzwerk wird auch trainiert, um die optimalen Voraussagezeiten aus dem gleichen Satz von Eingaben auszugeben.[0011]
  • Dieses neuronale Netz kann dann als nichtlinearer Controller für mehrere Variablen, wie in EP-A-0 710 901 beschrieben, eingesetzt werden. Bei dieser Verwendung liefert das neuronale Netz eine stabile Leistung im geschlossenen Regelkreis mit prompter, minimal überschießender Antwort auf eine Ziel- oder Arbeitspunktänderung, schneller nichtoszillatorischer Unterdrückung von gemessenen Laststörungen und vorwegnehmender Unterdrückung von gemessenen Laststörungen. Die Offenkreis-Pole des Prozesses mit der niedrigsten Frequenz dürfen instabil sein, weil sie durch durch diesen Controller gelieferte nichtlineare proportionale und Ableitungs-Rückkopplung mit mehreren Variablen stabilisiert werden.[0012]
  • Bei der zweiten Ausgestaltung wird das neuronale Netz in ähnlicher Weise wie bei der ersten Ausgestaltung trainiert, allerdings an Inferenz-Messungen der Prozeßausgaben anstelle der gesteuerten Variableneingaben. Dies ergibt ein Netz, das, wenn es als Controller verwendet wird, in der Lage ist, den Prozeß mit einer höheren Geschwindigkeit zu steuern, als der, mit der die gesteuerte Variable abgetastet wird.[0013]
  • Training und Optimierung des bei der dritten Steuerungsausgestaltung verwendeten neuronalen Netzes werden offline und in ähnlicher Weise wie beim Netzwerk nach der ersten Steuerungsausgestaltung durchgeführt. Ein erstes neuronales Netzmodell wird als Voraussagefilter für zukünftige Werte der gesteuerten Variablen trainiert.[0014]
  • Dieses neuronale Netz wird dann verwendet, um die optimalen Voraussagezeiten zu finden. Ein zweites neuronales Netz wird trainiert, um die optimalen Voraussagezeiten und die vorausgesagten Werte der gesteuerten Variablen, vorverschoben um die optimalen Voraussagezeiten, auszugeben.
  • [0015] Bei der vierten Ausgestaltung wird das neuronale Netz an Inferenz-Messungen der Prozeßausgaben anstelle von gesteuerten Variableneingaben in ähnlicher Weise wie die dritte Ausgestaltung trainiert. Dies ergibt ein Netz, das wenn es als Teil eines Controllers verwendet wird, den Controller in die Lage versetzt, auf Prozeßänderungen in kürzeren Zeitabständen zu reagieren als der Rate, mit der die gesteuerte Variable abgetastet wird.
  • [0016] Das in der dritten und vierten Ausgestaltung erzeugte neuronale Netz kann verwendet werden, um die Auswirkungen einer hypothetischen Folge von Randbedingungen unterliegenden manipulierten Variablen und Laständerungen auf die Trajektorien zukünftiger gesteuerter Variablen zu untersuchen. Alternativ kann es als Teil eines Prozeßcontrollers wie in EP-A-0 710 902 beschrieben eingebaut sein.
  • [0017] Die oben genannten sowie andere Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden, detaillierteren Beschreibung von bevorzugten Ausgestaltungen der Erfindung, wie in den beigefügten Zeichnungen dargestellt, in denen gleiche Bezugszeichen in allen unterschiedlichen Ansichten auf gleiche Elemente verweisen. Die Zeichnungen sind schematische Darstellungen von Steuerungselementen, wobei der Schwerpunkt auf der Veranschaulichung der Prinzipien der Erfindung liegt.
  • [0018] Fig. 1 ist ein Flußdiagramm, das die Folge von Schritten veranschaulicht, die bei der ersten und zweiten Ausgestaltung verwendet werden, um ein neuronales Netz zur Verwendung in einem Prozeßsteuerungssystem zu trainieren.
  • [0019] Fig. 2 zeigt die Operation des Aufbauens der historischen Datenbank gemäß der bevorzugten Ausführungsform der Erfindung.
  • [0020] Fig. 3 zeigt die Operation des Trainierens eines ersten neuronalen Netzes als Voraussagemodell.
  • [0021] Fig. 4 zeigt die Operation des Anwendens des ersten neuronalen Netzes, um gesteuerte Variablen an zukünftigen Zeitschritten zu erzeugen.
  • [0022] Fig. 5 zeigt die Operation des Berechnens der Empfindlichkeit der vorausgesagten gesteuerten Variablen auf die manipulierten Variableneingaben.
  • [0023] Fig. 6 zeigt die Operation des Berechnens der optimalen Voraussagezeiten gemäß der ersten Bestimmungs- Ausgestaltung.
  • [0024] Fig. 7 zeigt die beim Berechnen der optimalen Voraussagezeiten gemäß der ersten Bestimmungs-Ausgestaltung verwendeten Schritte.
  • [0025] Fig. 8 ist ein Graph, der die in Fig. 6, 7, 10 und 11 gezeigte Maximierungsoperation veranschaulicht.
  • [0026] Fig. 9 ist ein Graph, der die in Fig. 6, 7, 10 und 11 gezeigte Minimierungsoperation veranschaulicht.
  • [0027] Fig. 10 zeigt die Operation des Bestimmens der optimalen Voraussagezeiten gemäß der zweiten Bestimmungs- Ausgestaltung.
  • [0028] Fig. 11 zeigt die beim Bestimmen der optimalen Voraussagezeiten gemäß der zweiten Bestimmungs- Ausgestaltung verwendeten Schritte.
  • [0029] Fig. 12 zeigt die Interpolationsoperation, die in der bevorzugten Ausführungsform verwendet wird.
  • [0030] Fig. 13 zeigt die beim Bestimmen der um die optimalen Voraussagezeiten vorverschobenen vorausgesagten gesteuerten Variablen verwendeten Schritte.
  • [0031] Fig. 14 zeigt die Operation des Trainierens eines zweiten neuronalen Netzes, wie in der ersten und zweiten Ausgestaltung verwendet, zum Ausgeben der manipulierten Variablen und der optimalen Voraussagezeiten für bestimmte Eingaben.
  • [0032] Fig. 15 ist ein Flußdiagramm, das die Folge von Schritten veranschaulicht, die in der dritten und vierten Ausgestaltung verwendet werden, um ein neuronales Netz zur Verwendung in einem Prozeßsteuerungssystem zu trainieren.
  • [0033] Fig. 16 zeigt die Operation des Trainierens eines zweiten neuronalen Netzes, wie in der dritten und vierten Ausgestaltung verwendet, zum Ausgeben der vorausgesagten gesteuerten Variablen, vorverschoben um die optimalen Voraussagezeiten, und der optimalen Voraussagezeiten für bestimmte Eingaben.
  • [0034] Fig. 17 zeigt die Verwendung des in der ersten Ausgestaltung entwickelten neuronalen Netzes.
  • [0035] Fig. 18 zeigt die Verwendung des in der zweiten Ausgestaltung entwickelten neuronalen Netzes.
  • [0036] Fig. 19 zeigt die Verwendung des in der dritten Ausgestaltung entwickelten neuronalen Netzes.
  • [0037] Fig. 20 zeigt die Verwendung des in der vierten Ausgestaltung entwickelten neuronalen Netzes.
  • [0038] Bevor die Details beschrieben werden, wird eine kurze Übersicht über die in der Erfindung verwendeten Signale gegeben.
  • t ist eine ganze Zahl, die einen bestimmten Zeitschritt des Prozesses darstellt.
  • k ist ein ganzzahliger Wert, der eine willkürliche positive Zahl von Zeitschritten darstellt.
  • u(t), manipulierte Variable - ein Vektor von Signalen, der eine Größe oder Bedingung darstellt, die im Zeitschritt t variiert wird, um den Wert der gesteuerten Variablen zu ändern.
  • y(t), gesteuerte Variable - ein Vektor von Prozeßausgabesignalen, der die gemessene Prozeßausgabe an der Zeitstufe t darstellt. Für die Zwecke dieser Anmeldung werden die Ausdrücke gesteuerte Variable und Prozeßausgabe synonym verwendet.
  • y'(t), Ableitung der gesteuerten Variable - ein Vektor von Signalen, der die Änderungsgeschwindigkeit der gemessenen Prozeßausgabe im Zeitschritt t bezogen auf die Zeit darstellt.
  • w(t), Inferenzvariable - ein Vektor von Prozeßausgabesignalen, der den Vektor von gesteuerten Prozeßausgaben am Zeitschritt t inferentiell darstellt.
  • w'(t) Ableitung der Inferenzvariable - Vektor von Signalen, der die Änderungsgeschwindigkeit zum Zeitschritt t darstellt.
  • yp(t+k) vorausgesagte gesteuerte Variable - ein Vektor von Modellausgabesignalen, der die gemessene Prozeßausgabe oder gesteuerte Variable zum Zeitschritt t+k voraussagt.
  • (t)+ (t)) vorausgesagte gesteuerte Variable, vorverschoben um die optimale Voraussagezeit - ein Vektor von Ausgabesignalen, der die gemessene Prozeßausgabe oder gesteuerte Variable am Zeitschritt t vorverschoben um die optimale Voraussagezeit (t) in Abhängigkeit von Eingaben und Eingabe-Ableitungen am Zeitschritt t voraussagt.
  • v(t), gemessene Lastvariable - ein Vektor von Signalen, der eine bekannte Störung einer gemessenen Größe darstellt, die am Zeitschritt t auftritt.
  • v'(t), Ableitung der gemessenen Lastvariable - ein Vektor von Signalen, der die zeitliche Änderungsgeschwindigkeit des gemessenen Lastsignals zum Zeitschritt t darstellt.
  • (t) optimale Voraussagezeit - ein Vektor von reellen Zahlen, die die relative Zeit darstellen, wo die entsprechende gesteuerte Variable yi(t)+ i(t)) am empfindlichsten auf eine Änderung ihrer gepaarten manipulierten Variablen ist. Für die Zwecke dieser Anmeldung werden die Ausdrücke Verzögerungszeit, Totzeit und optimale Voraussagezeit synonym verwendet.
  • [0039] Für die Zwecke dieser Anmeldung bezeichnen diese Schreibweisen, wenn sie in Text und Diagrammen verwendet werden, einen Vektor von Signalen. Zum Beispiel stellt u(t) einen Vektor von manipulierten Variablensignalen u1(t) u~(t) und yp(t+k) einen Vektor von vorausgesagten gesteuerten Variablensignalen yp1 (t+k1)... yWt+kq) bis ypn (t+k1)... ypn (t+kq) dar.
  • [0040] Für die Zwecke dieser Anmeldung ist der zukünftige Zeithorizont ein zukünftiger Zeitschritt bezogen auf die Zeit t, der innerhalb der Zeitspanne der Trainingsdaten liegen kann.
  • ÜBERSICHT
  • [0041] Die Erfindung wird nachfolgend mit Bezug auf vier Ausgestaltungen beschrieben, die unterschiedliche neuronale Netzwerke erzeugen. Bei allen Ausgestaltungen wird das Netzwerk unter Verwendung von historischen Daten trainiert, um die optimalen Voraussagezeiten für jede der gesteuerten Variablen zu berechnen. Bei der ersten und zweiten Ausgestaltung wird das Netzwerk ferner trainiert, um die geeigneten manipulierten Variablen zu identifizieren, und bei der dritten und vierten Ausgestaltung wird es trainiert, um die geeigneten gesteuerten Variablen zu identifizieren. Das mit der ersten und zweiten Ausgestaltung erzeugte Netz kann als Controller verwendet werden, und das mit der dritten und vierten Ausgestaltung erzeugte Netz kann für Experimente am Prozeß oder als Teil eines Controllers verwendet werden.
  • ERSTE AUSGESTALTUNG
  • [0042] Bei der ersten Ausgestaltung wird ein neuronales Netz trainiert, um für jede gesteuerte Variable auf jeder Zeitstufe t in dem Prozeß die optimale Voraussagezeit und die manipulierte Variable zu erzeugen, die verwendet werden, um den Prozeß schnell und stabil auf den gewünschten Arbeitspunkt zu bringen. Wenn dieses Netz als Controller verwendet wird, wird aus der optimalen Voraussagezeit die effektive Antwortzeit der gesteuerten Variable auf den Arbeitspunkt. Diese Voraussagezeit stellt eine zukünftige Zeit dar, wo die stärkste Veränderung in der gesteuerten Variablen als Ergebnis einer kleinen Veränderung erfolgt, die an ihrer gepaarten manipulierten Variablen vorgenommen wird. Bei einem Controller stellt die optimale Voraussagezeit die Situation dar, wo die kleinste Änderung der manipulierten Variable benötigt wird, um die zukünftige gesteuerte Variable auf ihren Zielwert oder Arbeitspunkt zu bringen. Wenn eine andere Zeit verwendet würde, wäre die Veränderung der manipulierten Variablen größer, was zu einer Überkorrektur und damit zu einem oszillatorischen und möglicherweise instabilen Verhalten führen würde.
  • [0043] Diese Vorbereitung ist dargestellt in Fig. 1, und sie umfaßt sieben Stufen, die von mehreren Computerverarbeitungseinheiten durchgeführt werden. In der ersten Stufe wird eine Datenbank erzeugt, die historische Daten für die gemessenen Lastvariablen, gepaarte gesteuerte und manipulierte Variablen, Ableitungen der gemessenen Lastvariablen und Ableitungen der gesteuerten Variablen enthält. Optionsweise können auch die Inferenzvariablen und ihre Ableitungen enthalten sein. Stufe 12 verwendet die Daten aus der historischen Datenbank, um ein erstes neuronales Netz darauf zu trainieren, die Funktion zu berechnen, die die um zukünftige Zeitstufen kj für k = 1 bis q vorverschobenen gesteuerten Variablen ergibt. Dieses neuronale Netz wird dann in Stufe 14 eingesetzt, um jeweils um jede dieser zukünftigen Stufen vorverschobene vorausgesagte gesteuerte Variablen yPi(t+kj) für 1 = 1 bis n, j = 1 bis q zu berechnen. Es wird dann in Stufe 16 von Neuem eingesetzt, wobei eine kleine Änderung in der eingegebenen manipulierten Variable einen zweiten Satz von gesteuerten Variablen ergibt, die diese Änderung [yp + δy2](t+k) widerspiegeln. Die Ausgaben aus beiden Anwendungen des ersten neuronalen Netzes werden dann in Stufe 18 verwendet, um die optimale Voraussagezeit durch Interpolation für jedes Paar von manipulierten und gesteuerten Variablen zu bestimmen. Die entsprechende gesteuerte Variable bei der optimalen Voraussagezeit wird durch Interpolation in Stufe 20 berechnet. Ein zweites neuronales Netz wird in Stufe 22 unter Verwendung der historischen und interpolierten Daten trainiert, um die Funktion zu erzeugen, die die geeigneten manipulierten Variablen und die optimalen Voraussagezeiten berechnet.
  • STUFE 1
  • [0044] Der erste Schritt der Vorbereitung besteht aus dem Aufbauen einer historischen Datenbank, die die zeitlichen Geschichten (Verläufe) der Eingaben und Ausgaben des Prozesses enthält. Diese zeitlichen Geschichten können über eine gegebene Zeitspanne t&sub0;t< t&sub1; gesammelt und in einer historischen Datenbank gespeichert werden. Die Länge der Zeitspanne kann zwischen einem Tag, einer Woche, einem Monat oder einer beliebigen vom Benutzer vorgegebenen Zeitspanne variieren. Die historischen Daten können zuvor gesammelt worden sein und in gespeicherten Dateien vorhanden sein. Sie können auch während des Betriebes des Prozesses durch Abtastmessungen an Eingabe- und Ausgabesignalen des Prozesses mit einer geeigneten Abtastrate gesammelt werden. Die Ableitungen der historischen Daten mit Bezug auf die Zeit können aus den abgetasteten Daten berechnet oder direkt gemessen werden. Die Verwendung von Ableitungen beseitigt auch die Notwendigkeit für zusätzliche verzögerte Eingaben, was ein einfaches Modell des Prozesses ergibt, wo alle Eingaben und ihre zeitlichen Ableitungen konkurrent sind (alle auf der gleichen Zeitstufe t liegen) und deshalb unabhängig sind. Zusätzlich müssen die Daten mit der gleichen Stromab- Steuerstruktur gesammelt werden, wie wenn das Netz als ein Controller verwendet wird, weil die manipulierte Variable direkt die stromabwärtigen Controller treibt, die den Prozeß modulieren.
  • [0045] Fig. 2 verdeutlicht einen Aspekt des Aufbaues der historischen Datenbank durch Sammeln der zeitlichen Geschichten des Prozesses über eine gegebene Zeitspanne. Das Trainingssystem 10 besteht aus den stromab liegenden Controllern und dem Prozeß 38, Sensoreinheiten 44a, 44c und 44d, A/D-Wandlereinheiten 46a, 46c und 46d, differentiellen Verarbeitungseinheiten 48a, 48c und 48d, einer zentralen Verarbeitungseinheit (CPU) 40 und einem Datenbankspeicher 42.
  • [0046] Die Sensoreinheiten dienen zum Messen der Prozeßeingaben und -ausgaben über die Zeitspanne und liefern ein dafür repräsentatives elektrisches Signal, das an die A/D-Wandlereinheiten weitergegeben wird. Diese Sensoreinheiten können Druck-, Durchfluß-, Temperatur- oder beliebige andere Typen von Sensoreinheiten sein, die geeignet sind, einen mechanischen, elektrischen oder chemischen Zustand des zu überwachenden Prozesses zu erfassen. Die Sensoreinheit 44a überwacht die gemessenen Lastvariablen v(t) 26, und die Sensoreinheit 44d überwacht die gesteuerten Variablen y(t) 30. Bei der zweiten und vierten Ausgestaltung wird die Sensoreinheit 44c verwendet, um damit auch die Inferenzvariablen w(t) 34 zu überwachen. Die Sensoreinheit 44c und die A/D-Wandlereinheit 46 sind in Fig. 2 nur der Anschaulichkeit halber gezeigt und implizieren nicht, daß sie vorhanden sein müssen, damit diese Ausgestaltung funktioniert.
  • [0047] Manche dieser Sensoreinheiten erzeugen ein analoges Signal, das für die jeweils gemessene Größe repräsentativ ist. Sie sind ebenfalls an A/D-Wandlereinheiten gekoppelt, die die analogen Signale in ihre digitalen Äquivalente umsetzen. Die A/D-Wandlereinheiten 46a, 46c und 46d können von dem herkömmlicherweise zum Umformen von analogen elektrischen Datensignalen in digitale elektrische Datensignale verwendeten Typ sein, der auf dem Gebiet der digitalen Signalverarbeitung gut bekannt ist. Die Ausgabe der A/D-Wandlereinheiten ist ein für die jeweils gemessene Größe repräsentatives digitales Signal. Zum Beispiel erzeugt die A/D-Einheit 46a die digitale Form der gemessenen Lastvariablen v(t) 26, die Einheit 46c erzeugt die digitale Form der Inferenzvariablen w(t) 34, und die Einheit 46d erzeugt die digitale Form der gesteuerten Variablen y(t) 30. Die manipulierten Variablen 24 werden in digitaler Form erzeugt und benötigen deshalb keinen A/D- Wandler. Diese digitalen Signale 24, 36, 34 und 30 werden dann zur CPU 40 übertragen.
  • [0048] Die A/D-Wandlereinheit 46a ist an die differentielle Verarbeitungseinheit 48a gekoppelt, die Einheit 46c ist an die differentielle Verarbeitungseinheit 48c gekoppelt und die Einheit 46d ist an die differentielle Verarbeitungseinheit 48d gekoppelt. Jede dieser differentiellen Verarbeitungseinheiten erzeugt ein differentielles Signal, das für die Änderungsgeschwindigkeit mit Bezug auf die Zeit des von der entsprechenden Sensoreinheit gemessenen Signals repräsentativ ist. Zum Beispiel erzeugt die differentielle Verarbeitungseinheit 48a die Ableitung der gemessenen Lastvariable v'(t) 28, die differentielle Einheit 48c erzeugt die Ableitung der Inferenzvariablen w'(t) 36, und die differentielle Einheit 48d erzeugt die Ableitung der gesteuerten Variablen y' (t) 32. Jedes dieser Signale 28, 32 und 36 wird dann an die CPU 40 übertragen. Alternativ sollte es für den Durchschnittsfachmann auf dem Gebiet der Elektrotechnik offensichtlich sein, daß die Funktion der differentiellen Verarbeitungseinheiten auch als von der CPU 40 ausgeführtes Programm-Modul implementiert werden kann. So können die Signale 30, 34 und 26 an die CPU 40 übertragen werden, wo die Ableitungen der jeweiligen Signale berechnet werden können.
  • [0049] Die CPU 40 empfängt Signale 24, 26, 28, 30, 32 und 34 und speichert diese elektrischen Datensignale, indexiert gemäß der Zeitstufe t. Die manipulierten und gesteuerten Variablen sind gepaart und können entsprechend "Bristol's Realtuve Gain Array", wie in F. G. Shinskey, Process Control Systems, 3. Auflage, McGraw-Hill Book Comp., New York 1988 beschrieben, gepaart werden. Die Erfindung ist jedoch nicht auf dieses Paarungsschema beschränkt, andere können verwendet werden, so lange die Auswahl der Paare so festgelegt ist, daß die nicht gepaarten manipulierten Variablen einen geringeren Effekt auf die gepaarten gesteuerten Variablen haben. Diese Paarung wird verwendet, um die Prozeßausgabe auszuwählen, die ungesteuert bleibt, wenn eine stromabwärtige Begrenzung einer manipulierten Variablen erfaßt wird.
  • [0050] Am Ende dieser Stufe enthält die historische Datenbank somit einen Vektor von n gesteuerten Variablen 30 (y1(t), ..., yn(t)); optionsweise einen Vektor von n Inferenzvariablen (w1(t), ..., wn(t)) und einen Vektor von n Ableitungen der Inferenzvariablen 36 (w'1(t), ..., w'n(t-)); einen Vektor von n manipulierten Variablen 24 (u1(t), ..., un(t)); einen Vektor von n Ableitungen der gesteuerten Variablen 32 (y1' (t), ..., yn' (t)); einen Vektor von m gemessenen Lastvariablen 26 (v1' (t), vm(t)) und einen Vektor von m Ableistungen der gemessenen Lastvariablen 28 (v1' (t), ..., vm' (t)) für alle Zeitstufen über eine gegebene Zeitspanne t&sub0;t< t1.
  • STUFE 2
  • [0051] Fig. 3 zeigt die zweiten Stufe der Vorbereitungsphase, wo das neuronale Netz trainiert wird, um als Voraussagemodell zu dienen, das die Funktion yp(p+k) erzeugt, die die vorausgesagten gesteuerten Variablen vorverschoben um mehrere zukünftige Zeitstufen basierend auf den historischen Daten berechnet. Das erste neuronale Netz kann nach einem beliebigen der üblichen Trainingsverfahren für neuronale Netze trainiert werden. Fig. 3 zeigt das Training des ersten neuronalen Netzes mit dem wohlbekannten Rückausbreitungsschema.
  • [0052] Typischerweise besteht ein Rückausbreitungsnetz aus in Schichten angeordneten Knoten und gibt Daten über gewichtete Verbindungen weiter. Eine Eingabeschicht empfängt Eingabevektoren wie etwa gemessene Datenwerte, die zum Trainieren des Netzes verwendet werden. Die mittlere Schicht und die Ausgabeschicht verarbeiten beide aktiv die Eingabedaten und erzeugen in der Ausgabeschicht die Ergebnisse des Netzes. Das Netz lernt durch Verändern der Werte der Gewichte oder Koeffizienten. Ein Knoten in der versteckten und der Ausgabeschicht multipliziert typischerweise jede Eingabe mit ihrem Koeffizienten, summiert die Produkte, und dann gibt ein Knoten der versteckten Schicht die Summe über eine nichtlineare Transferfunktion weiter, um ein Ergebnis zu erzeugen.
  • [0053] Während des Trainings leitet das Netz jeden Eingabewert durch die versteckte Schicht zur Ausgabeschicht, um einen Ausgabeknoten zu erzeugen, der eine vorausgesagte Ausgabe enthält. Dann vergleicht es den tatsächlichen Wert mit dem vorausgesagten Wert. Die Differenz, die den Fehler der Ausgabeschicht darstellt, wird ans Netz zurückgegeben, wo jeder versteckte Knoten die gewichtete Summe der rückausgebreiteten Fehler berechnet, um seinen Beitrag zu den bekannten Ausgabefehlern herauszufinden. Nachdem jeder versteckte bzw. Ausgabeknoten seinen Fehlerwert gefunden hat, paßt es seinen Koeffizienten an, um den Fehler zu reduzieren.
  • [0054] Bezogen auf Fig. 3 wird das erste neuronale Netz 50 mit einem Vektor von Daten auf jeder Zeitstufe im Prozeß trainiert, um vorausgesagte gesteuerte Variablen an mehreren zukünftigen Zeitstufen zu erzeugen. Die t Werte können so gewählt werden, daß es wenigstens zwei Abtastwerte für jede Periode mit der höchsten signifikanten Frequenz im Prozeß geben kann. Die zukünftigen Zeitstufen werden hierbei als k bezeichnet und können mehrere positive ganzzahlige Werte sein, die die Zeitstufen darstellen, die die wichtigen Dynamiken des Prozesses einfangen. Zum Beispiel kann es fünf k-Werte bestehend aus den Zeitstufen 1, 2, 4, 8, 16 geben, die einen Zeithorizont logarithmisch überspannen.
  • [0055] Die tatsächliche gesteuerte Variable y(t+k) 64 wird unter den in der historischen Datenbank 42 gespeicherten gesteuerten Variablen ausgewählt und mit den vorausgesagten gesteuerten Variablen an jeder der ausgewählten Zeitstufen k, yp1 (t+k1),.., yp1 (t+kq) bis ypn (t+k&sub1;)...,ypn(t+kq) verglichen, um das neuronale Netz zu trainieren.
  • [0056] Das erste neuronale Netz 50 besteht aus einer Eingabeschicht, wenigstens einer versteckten Schicht und einer Ausgabeschicht (alle nicht gezeigt). Das erste neuronale Netz ist bei diesem Aspekt der Erfindung als ein spezialisierter Prozessor verkörpert, es kann aber auch ein auf einem Allzweckcomputer laufendes Programm-Modul sein. Die folgenden Eingaben von der historischen Datenbank 42 können in die Eingabeschicht eingegeben werden: ein Vektor aus n manipulierten Variablen 24 (u&sub1;(t), ..., un(t)); ein Vektor von n gesteuerten Variablen 30 (y&sub1;(t), ..., yn,(t)); ein Vektor von n Ableitungen der gesteuerten Variablen 32 (y&sub1;' (t), ..., yn' (t)); ein Vektor von m gemessenen Lastvariablen 26 v&sub1;(t), ..., vm(t)); und ein Vektor von m Ableitungen der gemessenen Lastvariablen 28 (v&sub1;' (t), ..., Vm'(t)). (Inferenzvariablen 34 und ihre Ableitungen 36 sind in Fig. 2 nur der Deutlichkeit halber gezeigt und implizieren nicht, daß sie vorhanden sein müssen, damit diese Ausgestaltung funktioniert). Damit das erste neuronale Netz Eingaben gesteuerter Variablen 30 empfängt, ist ein Schalter 31 geschlossen. Entsprechend ist für die Ableitung der gesteuerten Variable 32 Schalter 32 geschlossen, damit diese Eingaben an das erste neuronale Netz übertragen werden. Aus diesen Eingaben berechnet das neuronale Netz eine Funktion, die die vorausgesagte gesteuerte Variable yp(t+k) 58 berechnet, die mit dem tatsächlichen Wert y(t+k) 64 verglichen wird. Die Differenz oder der Fehler zwischen diesen zwei Werten wird in einer Summationsschaltung 54 bestimmt und an den Prozessor 56 übertragen, wo die Koeffizienten oder Gewichtungen 57 angepaßt werden, um den Fehler zu reduzieren. Diese Koeffizienten 57 werden dann an das erste neuronale Netz übertragen. Dieser Prozeß wird wiederholt, bis die Fehler zwischen den berechneten vorausgesagten gesteuerten Variablen 60 und den tatsächlichen Werten 64 minimiert sind.
  • [0057] Das neuronale Netz oder das Voraussagemodell können daher mathematisch wie folgt ausgedrückt werden:
  • yP(t+k) = f {u(t), y(t), y' (t), v(t), v' (t)}. (1)
  • Dementsprechend kann das erste neuronale Netz mit konkurrierenden Eingaben in der Zeitstufe t und der Prozeßausgabe in der Zeitstufe t+k trainiert werden, um die Funktion zu erzeugen, die die vorausgesagten gesteuerten Variablen an einer zukünftigen Zeitstufe t+k berechnet.
  • STUFE 3
  • [0058] Die dritte Stufe der Vorbereitungsphase, die in Fig. 4 gezeigt ist, wendet das erste neuronale Netz an, um einen Vektor von vorausgesagten gesteuerten Variablen 60 zu erzeugen, der um jeden der k Werte für jede Zeitstufe t in dem Prozeß vorverschoben ist. Zum Beispiel kann an der Zeitstufe t, wenn es n manipulierte und gesteuerte Variablen und m gemessene Lastvariablen gibt, das erste neuronale Netz 50 mit einem Vektor von n manipulierten Variablen u(t) 24, einem Vektor von n gesteuerten Variablen y(t) 30, übertragen durch Schließen des Schalters 31, und deren Ableitungen y'(t), übertragen durch Schließen des Schalters 33, einem Vektor von m gemessenen Lastvariablen v(t) 26 und ihren Ableitungen v'(t) 28 betrieben werden. Das erste neuronale Netz liefert n x q vorausgesagte gesteuerte Variablen yp1 (t+k&sub1;).., yp&sub1; (t+kq) bis ypn(t+k&sub1;)... Ypn(t+kq) für jede der n gesteuerten Variablen und für jeden der q Werte von k. Die vorausgesagten gesteuerten Variablen 60 können ferner genutzt werden, um die optimalen Voraussagezeiten zu bestimmen und die vorausgesagten gesteuerten Variablen, vorverschoben um die optimale Voraussagezeit, zu bestimmen.
  • STUFE 4
  • [0059] Die vierte Stufe der Vorbereitungsphase ist in Fig. 5 abgebildet, wo der Prozessor 16 verwendet wird, und die Empfindlichkeit der gesteuerten Variablen auf eine an ihrer gepaarten manipulierten Variablen vorgenommene Änderung zu bestimmen. Zum Beispiel kann in das erste neuronale Netz eine Änderung der Eingabe der 1-ten manipulierten Variablen &delta;u1 76 eingegeben werden, was zu einer entsprechenden Änderung der i-ten vorausgesagten gesteuerten Variablen ypi + &delta;ypi 82 führt. Die Funktion dieses Empfindlichkeitsprozessors kann mathematisch für das i-te u,y-Paar wie folgt ausgedrückt werden:
  • [YPi+&delta;yPi](t+k) = f{ui (t) +&delta;li, yj (t), y(t), y'(t),v(t),v'(t)}, (2)
  • wobei j nicht gleich i ist.
  • [0060] Bezogen auf Fig. 5 kann der Prozessor für jede Zeitstufe t n-mal eingesetzt werden, einmal für jede der n manipulierten Variablen. Der Zähler 66 wird auf 1 initialisiert und iterativ mit der Verarbeitung jeder manipulierten Variablen inkrementiert. Der Zähler 66 erzeugt ein Signal 69, welches die gegenwärtig verarbeitete bestimmte manipulierte Variable angibt. Eine Wählvorrichtung 70 empfängt einen Vektor von manipulierten Variablen u(t) 24 und erzeugt zwei Ausgabesignale ui(t), welches die dem Signal 69 entsprechende manipulierte Variable ist; und uf(t) für j &ne; i oder die verbleibenden manipulierten Variablen. Dem ersten neuronalen Netz kann dann die manipulierte Variable ui(t), verändert um einen Wert &delta;u1 76, zugeführt werden, was (ui+&delta;ui) (t) 78 ergibt, wobei die verbleibenden n-1 manipulierten Variablen uj(t) 74 unverändert bleiben. Der Wert &delta;ui kann ein willkürlicher Wert sein, der eine an ui vorgenommene kleine Veränderung angibt, die so klein wie 1% oder 2% der manipulierten Variablen ui sein kann. Das neuronale Netz fängt auch die folgenden zusätzlichen Eingaben von der historischen Datenbank: einen Vektor von n Ableitungen der gesteuerten Variablen 32 (yi' (t)..., yn' (t)), übertragen durch Schließen des Schalters 31, einen Vektor von n gesteuerten Variablen 30 (y&sub1;(t)..., yn(t)), übertragen durch Schließen des Schalters 31; einen Vektor von m gemessenen Lastvariablen 26 (v&sub1;(t)... vm(t)) und einen Vektor von m Ableitungen der gemessenen Lastvariablen 28 (v1'(t)... vm' (t)). Diese Eingaben werden an das erste neuronale Netz 50 angelegt und ergeben die vorausgesagten gesteuerten Variablen 82. Die i-ten vorausgesagten gesteuerten Variablen 82b werden im Speicher der CPU 86 gespeichert. Die anderen vorausgesagten gesteuerten Variablen 82a für j &ne; i werden für die Bestimmung der i-ten optimalen Voraussagezeit nicht gebraucht und können daher verworfen werden. Der Prozeß geht für die verbleibenden manipulierten Variablen weiter, wenn ein Schalter 84 geschlossen wird, wodurch dem Signal 68 ermöglicht wird, den Zähler 66 zu inkrementieren. Nach vollständiger Verarbeitung aller manipulierten Variablen, wenn der Zählerindex größer als n ist, wird ein Signal 71 an die CPU 86 übertragen, das einen Schalter 84 öffnet, um dadurch alle i-ten gespeicherten gesteuerten Variablen 90 [yp1+&delta;yp&sub1;] (t+k&sub1;)... [ypn+&delta;ypn](t+kq) bis [yp"+&delta;yp] (t+k&sub1;)... [ypn+&delta;ypn](t+kq) zu erzeugen. Die gespeicherten gesteuerten Variablen 90 werden hier als empfindlichkeitsgesteuerte Variablen bezeichnet. Diese empfindlichkeitsgesteuerten Variablen werden dann weiterverwendet, um die optimalen Voraussagezeiten zu bestimmen.
  • STUFE 5
  • [0061] Bezogen auf Fig. 1 berechnet in der fünften Stufe der Prozessor 18 die optimale Voraussagezeit i(t) für jedes ui, yi-Paar. Die i-te optimale Voraussagezeit ist der k-Wert, wo die größte positive oder kleinste negative Änderung der vorausgesagten gesteuerten Variablen &delta;ypi(t+k) mit Bezug auf k für die gegebene Änderung &delta;i an ihrer gepaarten manipulierten Variablen auftritt. Diese Bestimmung wird vom Prozessor 18 in einer Reihe von Stufen vorgenommen, die mit der Änderung der vorausgesagten gesteuerten Variablen an jedem der k Werte &delta;ypi(t+k) beginnt und progressiv nach der optimalen Änderung (größter positiver oder kleinster negativer Wert) &delta;yp(t+ k(t)) sucht, woraus das optimale k interpoliert wird. Das optimale k, i(t), ist eine (nicht ganzzahlige) positive Zahl.
  • [0062] Die Bestimmung der optimalen Voraussagezeit kann nach einem von zwei Verfahren erfolgen. Bei der ersten Ausgestaltung, die das bevorzugte Verfahren ist, wird die größte Differenz in den vorausgesagten gesteuerten Variablen als ein Ergebnis der an ihren gepaarten manipulierten Variablen vorgenommenen Veränderungen als Grundlage für die Bestimmung der optimalen Voraussagezeit benutzt. Diese größte Differenz kann entweder der größte positive oder der kleinste negative Wert sein. Bei der zweiten Ausgestaltung wird die größte Veränderungsgeschwindigkeit der vorausgesagten gesteuerten Variablen als Ergebnis der an ihrer gepaarten manipulierten Variablen vorgenommenen Veränderung als Grundlage für die Bestimmung der optimalen Voraussagezeit benutzt.
  • [0063] In Bezug auf Fig. 6 kann bei der ersten Ausgestaltung die Bestimmung der optimalen Voraussagezeit durch den Prozessor 18 auf folgende Weise erfolgen. An einer Summationsschaltung 94 wird die Differenz der vorausgesagten gesteuerten Variablen &delta;ypi als Ergebnis der Veränderung an ihrer gepaarten manipulierten Variablen &delta;ui berechnet. Dies ist einfach die Differenz zwischen der vorausgesagten gesteuerten Variablen 60 und der empfindlichkeitsgesteuerten Variablen 90. Diese Differenz 114 kann mathematisch ausgedrückt werden als:
  • &ypi(t + ki) = [ypi + &delta;ypi] (t + kj) - ypi(t + kj) (3)
  • für j = 1 bis q, i = 1 bis n und wird hier als die Veränderungsvariable oder die Veränderung der vorausgesagten gesteuerten Variablen bezeichnet.
  • [0064] Als nächstes werden die drei größten aufeinanderfolgenden positiven oder kleinsten negativen Werte 104, 106 und 108 der Veränderungsvariablen 114 ausgewählt. Diese Werte werden benutzt, um die maximale positive (Maximum-Fall) und minimale negative (Minimum- Fall) Veränderung der vorausgesagten gesteuerten Variablen &delta;ypi(t)+ (t)) 110 zu berechnen. Zuletzt wird der Wert des entsprechenden i(t) bestimmt. Diese Funktionen sind in Fig. 7, 8 und 9 graphisch dargestellt. Das Maximalfall- Szenario ist dasjenige, wo die Veränderung der vorausgesagten gesteuerten Variablen die drei größten positiven aufeinanderfolgenden Werte liefert, und das Minimallfall-Szenario liefert die drei kleinsten negativen aufeinanderfolgenden Werte. Fig. 8 zeigt das Maximalfall- Szenario, und Figur zeigt das Minimalfall-Szenario. Diese Berechnungen können wie folgt für den Fall bestimmt werden, wo die k-Werte Potenzen von 2 sind.
  • [0065] Bezogen auf Fig. 6 empfängt die CPU 96 die Veränderungsvariablen 114 und berechnet die optimalen Voraussagezeiten (t) 112 unter Verwendung des zugeordneten Speichers 103 zum Speichern von in ihrer Rechnung benutzten Zwischenwerten und der optimalen Voraussagezeiten. Fig. 7 zeigt die Schritte, die die CPU 96 unternimmt, um die optimalen Voraussagezeiten zu bestimmen. Bezogen auf Fig. 7, 8 und 9 wählt die CPU 96 in Schritt 116 die drei größten positiven oder kleinsten negativen Werte 104, 106, 108 aus den Veränderungsvariablen 114, die hier als &delta;ypi(t+ka-1), &delta;ypi (t+ka) bzw. &delta;ypi (t+ka+1) bezeichnet werden, wobei N = log&sub2; k und k = 1, 2,4,8,16, ..., N = 0, 1, 2, 3, 4, ...
  • [0066] In Stufe 118 wird die maximale positive oder minimale negative Änderung der vorausgesagten gesteuerten Variablen &delta;ypi (t+k^(t)) bestimmt. Dies kann berechnet werden durch Anpassen einer Parabel (122 in Fig. 8 für den Maximalfall oder 138 in Fig. 9 für den Minimalfall) unter Verwendung der drei Werte in Stufe t und Bestimmen des Maximal- oder Minimalwertes der Parabel. Diese Berechnung kann mathematisch wie folgt ausgedrückt werden:
  • &delta;ypi (t + (t)) = &delta;ypi (t + ka) + [&delta;ypi(t + ka+1) - &delta;ypi (t + ka-1)] ( -Na)/2 + [&delta;ypi(t + ka+1) - &delta;ypi(t + ka) + &delta;ypi(t + ka-1)]( -Na)²/&sub2; (4)
  • [0067] Der Maximalwert oder Minimalwert auf dieser Parabel liegt bei 142, wobei
  • = Na + [&delta;ypi(t + ka+1) - &delta;ypi(t + ka-1)]/ [2(2&delta;ypi(t + ka)-&delta;ypi (t + ka+1) - &delta;ypi(t + ka-1)] (5)
  • [0068] Als nächstes wird in Schritt 120 die optimale Voraussagezeit als der Punkt bestimmt, wo N 142 auftritt, 1(t) = 2 . Wenn i(t) kleiner als 1 berechnet wird, wird i(t) = 1 gesetzt. Dies bedeutet, daß die Steuerleistung verbessert werden könnte, indem das Abtastintervall der gesteuerten Variable verkürzt würde. Die Ausgabe von Stufe 120 ist ein Vektor von n optimalen Voraussagezeiten (t) 112, die im Speicher 103 gespeichert und verwendet werden, um das zweite neuronale Netz zu trainieren.
  • [0069] Alternativ kann die Berechnung der optimalen Voraussagezeiten wie bei der in Fig. 10 und 11 gezeigten zweiten Bestimmungsausgestaltung erfolgen. Dieses Verfahren ist ähnlich dem bei der ersten Bestimmungsausgestaltung beschriebenen Verfahren mit der Ausnahme einer zusätzlichen Stufe, Stufe 146, die die Änderungsgeschwindigkeit aus der Änderung der vorausgesagten gesteuerten Variablen bestimmt.
  • [0070] Bezogen auf Fig. 10 und 11 kann die Bestimmung der optimalen Voraussagezeiten vom Prozessor 96 vorgenommen, der den Speicher 103 zum Speichern der Zwischenwerte 104, 106, 108, 110 und 144 und der optimalen Voraussagezeiten (t) 112 verwendet. Der Prozessor 96 geht in folgender Weise vor. In Stufe 146 wird die Änderungsgeschwindigkeit der Veränderungsvariablen 114 für alle k-Werte bestimmt. Diese Veränderungsgeschwindigkeit kann bestimmt werden durch Berechnen der Differenz zwischen zwei Werten von &delta;ypi mit aufeinanderfolgenden k-Werten.
  • Diese Veränderungsgeschwindigkeit wird bezeichnet als &Delta;&delta;yp(t+kb) und kann mathematisch ausgedrückt werden als:
  • &Delta;&delta;ypi(t+kb) = &delta;ypi(t + ka+1) - &delta;ypi (t + ka) = (ypi + &delta;ypi)(t + ka+1) = ypi(t + ka+1) - (ypi + &delta;ypi)(t + ka) + ypi (t + ka)(6)
  • wobei ka und ka+1 zwei aufeinanderfolgende k-Werte sind und kb das arithmetische oder geometrische Mittel von ka und ka+i ist.
  • Die Ausgabe der Stufe 146 ist ein Vektor 144 von n(q-1) Veränderungsgeschwindigkeiten, bezeichnet als &delta;yPi(t+k1) &Delta;&delta;ypi(t+kq) bis &Delta;&delta;yP~ (t+k1)... &Delta;&delta;ypn(t+kq).
  • [0071] Die Stufen 116, 118 und 120 sind ähnlich wie bei der ersten Ausgestaltung. Stufe 116 wählt die drei besten, kleinsten negativen oder größten positiven, Werte &Delta;&delta;ypi (t+kb-1) 104, &Delta;&delta;ypi (t+kb) 106, &Delta;&delta;yPi (t+kb+1) 108; Stufe 118 bestimmt den einzigen besten Wert durch parabolische Interpolation, was &Delta;&delta;yP (t+k (t)) 110 ergibt, und dann bestimmt Stufe 120 das entsprechende (t) 112. Die Ausgabe vom Prozessor 96 ist in beiden Ausgestaltungen ein Vektor von optimalen Voraussagezeiten 112, (t), der im Speicher 103 gespeichert und zum Trainieren eines zweiten neuronalen Netzes verwendet wird.
  • STUFE 6
  • [0072] Bezogen auf Fig. 12 und 13 benutzt die sechste Stufe den Prozessor 96, um den entsprechenden Wert der vorausgesagten gesteuerten Variable zur optimalen Voraussagezeit i (t+ 1(t)) zu bestimmen, der im Speicher 147 gespeichert wird. Der Prozessor 96 empfängt als Eingaben vorausgesagte gesteuerte Variablen yp(t+k) 60, die drei besten k- Werte t+kai 126, t+ka 128 und t+ka+i 132 und verfährt in der folgenden Weise. Zuerst werden die gesteuerten Variablen an den drei besten k-Werten t+kai, t+ka, t+ka+1 aus dem Satz von vorausgesagten gesteuerten Variablen 60 ausgewählt, der vom ersten neuronalen Netz erzeugt wird. Diese Auswahl erfolgt in Stufe 148, und die ausgewählten gesteuerten Variablen werden mit 134 ypi(t+ka-1), 136 ypi (t+ka) und 140 ypi (t+ka+i) bezeichnet. Dann werden in Stufe 150 die entsprechenden vorausgesagten gesteuerten Variablen an den optimalen Voraussagezeiten berechnet. Bezogen auf den Graphen 124 in Fig. 8 und den Graphen 140 in Fig. 9 werden die optimalen vorausgesagten gesteuerten Variablen berechnet durch Auftragen einer Parabel unter Verwendung der drei vorausgesagten gesteuerten Variablen 134, 136, 140 und Interpolieren des ypi-Wertes, der dem optimalen -Wert bei = log&sub2; entspricht. Der entsprechende Wert von Ypi ist i (t+ i(t)) 138, wobei
  • (t + (t)) = ypi (t + ka) + 5[ypi(t + ka+1) - (ypi(t + ka-1) + (ypi(t + ka+1) - 2ypi(t + ka) + ypi (t + ka- 1))( -(t + ka))]( -(t + ka)). (7)
  • [0073] Bezogen auf Fig. 12 und 13 sind die Ausgaben des Prozessors an Stufe 150 die vorausgesagten gesteuerten Variablen, vorverschoben um die optimalen Voraussagezeiten 138 1(t+ (t))... n(t+ n(t)). Diese Ausgabe kann verwendet werden, um das zweite neuronale Netz zu trainieren.
  • STUFE 7
  • [0074] Die abschließende Stufe ist das Trainieren eines zweiten neuronalen Netzes, das als Prozeßcontroller dienen kann. Bezogen auf Fig. 14 trainiert der Prozessor 22 das zweite neuronale Netz, um die Funktion zu erzeugen, die die optimalen Voraussagezeiten und die geeigneten manipulierten Variablen liefert, die verwendet werden können, um den Prozeß zu steuern. Fig. 14 zeigt das Verfahren zum Trainieren des neuronalen Netzes durch Rückausbreitung, das ähnlich der Art und Weise ist, auf die das erste neuronale Netz in Fig. 3 trainiert wurde. Die Eingaben, die zum Trainieren dieses Netzes verwendet werden können, sind die folgenden: ein Vektor von n gesteuerten Variablen 30 (y&sub1;(t) yn(t)), ausgewählt durch Schließen des Schalters 31; ein Vektor von n Ableitungen der gesteuerten Variablen 32 (y&sub1;' (t)... yn'(t)), ausgewählt durch den Schalter 33; ein Vektor von m gemessenen Lastvariablen 26 (v&sub1;(t).., vm(t)); ein Vektor von m Ableitungen der gemessenen Lastvariablen 28 (v&sub1;'(t)... vm'(t)); und ein Vektor von n optimalen vorausgesagten gesteuerten Variablen 138 ( 1(t+ (t))... n(t+ n(t))), die sich im Speicher 147 befinden. (Inferenzvariablen 34 und ihre Ableitungen 36 sind in Fig. 14 nur zur Verdeutlichung gezeigt und implizieren nicht, daß diese vorhanden sein müssen, damit die Ausgestaltung funktioniert). Aus diesen Eingaben berechnet das neuronale Netz 152 eine berechnete manipulierte Variable uP(t) 154 und eine berechnete optimale Voraussagezeit p(t) 156. Die berechnete manipulierte Variable up(t) 154 wird mit der tatsächlichen manipulierten Variablen u(t) 24 verglichen, und die Differenz 162 zwischen den zwei Werten wird durch die Summationsschaltung 158 bestimmt. Entsprechend wird die berechnete optimale Voraussagezeit p(t) 156 mit der tatsächlichen optimalen Voraussagezeit (t) 112 verglichen, und die Differenz 164 zwischen den zwei Werten wird durch die Summationsschaltung 160 bestimmt. Beide Differenzen 162 und 164 werden an den Prozessor 56 übertragen, wo die Koeffizienten 57 angepaßt werden, um den Fehler zu reduzieren. Die Koeffizienten 57 werden dann an das zweite neuronale Netz übertragen. Dieser Prozeß wird wiederholt, bis die optimalen Voraussagezeiten und manipulierten Variablen den tatsächlichen Werten gleichen.
  • [0075] Nach Vollendung dieser Vorbereitungsphase kann das resultierende Netz, wie in Fig. 17 gezeigt, als Controller eingesetzt werden.
  • ZWEITE AUSGESTALTUNG
  • [0076] Die zweite Ausgestaltung ergibt ein neuronales Netz, das mit Inferenzmessungen anstelle der gesteuerten Variablen trainiert wird. Inferenzmessungen stellen eine gefolgerte Näherung der gesteuerten Variablen mit einer höheren Abtastrate dar. Die Verwendung dieser Messungen ergibt ein Netzwerk, das, wenn es als Controller verwendet wird, in der Lage ist, mit einer höheren Geschwindigkeit zu steuern als der Abtastrate, mit der die gesteuerte Variable gemessen wird.
  • [0077] Das Verfahren zum Trainieren des mit der zweiten Ausgestaltung erzeugten neuronalen Netzes ist identisch mit dem in der ersten Ausgestaltung verwendeten Verfahren, mit der Ausnahme, daß die gesteuerten Variablen und ihre Ableitungen durch die Inferenzmessungen w(t) und ihre Ableitungen w'(t) ersetzt werden. Die CPU 40, die die historische Datenbank 42 erzeugt, wie in Fig. 2 gezeigt, verwendet Eingaben 34 und 36 anstelle von Eingaben 30 und 32. Der Prozessor 12, der das erste neuronale Netz trainiert, wie in Fig. 3 gezeigt, verwendet die Inferenzmessungen w(t) 34 und ihre Ableitungen w'(t) 36, wie durch Schalter 35 bzw. 37 ausgewählt, wodurch die gesteuerten Variablen 30 und 32 ersetzt werden, um vorausgesagte gesteuerte Variablen 60 zu erzeugen. In Fig. 5 erfolgt die Empfindlichkeit der gesteuerten Variablen auf eine an ihren gepaarten manipulierten Variablen vorgenommene Veränderung durch Verwendung des ersten neuronalen Netzes mit Inferenzmessungen w(t) 34 und ihren Ableitungen w'(t) 36 über Schalter 35 und 37, wodurch die gesteuerten Variablen y(t) 30 und ihre Ableitungen y'(t) 32 ersetzt werden. Die optimale Voraussagezeit und die vorausgesagte gesteuerte Variable, vorverschoben um die optimale Voraussagezeit, werden wie bei der ersten Ausgestaltung berechnet. Das zweite neuronale Netz wird wie in Fig. 14 mit den Inferenzmessungen w(t) 34 und ihren Ableitungen w'(t) 36 über die Schalter 35 und 37 trainiert, wodurch die gesteuerten Variablen 30 und ihre Ableitungen 32 ersetzt werden. Das resultierende Netzwerk kann wie in Fig. 18 gezeigt als Controller verwendet werden.
  • DRITTE AUSGESTALTUNG
  • [0078] Eine dritte Ausgestaltung wird verwendet, um ein anderes zweites neuronales Netz zu trainieren, das die optimalen Voraussagezeiten und die vorausgesagten gesteuerten Variablen, vorverschoben um die optimalen Voraussagezeiten, liefert. Dieses neuronale Netz kann für Prozeßexperimente oder als Teil einer Controllerstruktur, wie in der mitanhängigen Anmeldung "A method and apparatus for controlling multivariable nonlinear processes" beschrieben.
  • [0079] Die dritte Ausgestaltung ist der ersten Ausgestaltung darin ähnlich, daß sie einige der gleichen Schritte umfaßt. Bezogen auf Fig. 15 erzeugt diese Ausgestaltung die historische Datenbank wie in Fig. 2, trainiert das erste neuronale Netz wie in Fig. 3, berechnet die vorausgesagten gesteuerten Variablen wie in Fig. 4, berechnet die Empfindlichkeit der vorausgesagten gesteuerten Variablen wie in Fig. 5, berechnet die optimalen Voraussagezeiten für jedes u,y-Paar wie in Stufe 18 und berechnet die vorausgesagte gesteuerte Variable, vorverschoben um die optimale Voraussagezeit, wie in Stufe 20. Dann trainiert sie ein anderes zweites neuronales Netz, um die Funktion zu erzeugen, die die optimalen Voraussagezeiten und die vorausgesagten gesteuerten Variablen, vorverschoben um die optimalen Voraussagezeiten, berechnet.
  • [0080] Fig. 16 zeigt das Training des zweiten neuronalen Netzes durch Rückausbreitung, das ähnlich der Art und Weise ist, in der das zweite neuronale Netz in Fig. 14 trainiert wurde. Die Eingaben, die verwendet werden können, um das Netzwerk zu trainieren, sind die folgenden: ein Vektor von n Ableitungen von gesteuerten Variablen 32 y1'(t)... yn(t), ausgewählt durch Schließen des Schalters 33; ein Vektor von n manipulierten Variablen u&sub1;(t)... un(t) 24; ein Vektor von n gesteuerten Variablen 30 y&sub1; (t)... ym (t), ausgewählt durch Schließen des Schalters 31; ein Vektor von m gemessenen Lastvariablen 26 v&sub1;(t)... vm(t); und ein Vektor von m Ableitungen von gemessenen Lastvariablen 28 v&sub1;'(t)... vm'(t). Aus diesen Eingaben berechnet das neuronale Netz 166 berechnete vorausgesagte gesteuerte Variablen, vorverschoben um die optimale Voraussagezeit p(t+ (t)) und eine berechnete optimale Voraussagezeit p(t) 170. Die berechneten vorausgesagten gesteuerten Variablen, vorverschoben um die optimale Voraussagezeit, p(t+ (t)) 168 werden mit den tatsächlichen Werten (t)+ (t)) 138 verglichen, und die Differenz 172 zwischen den zwei Werten wird von der Summationsschaltung 158 bestimmt. In ähnlicher Weise wird die berechnete optimale Voraussagezeit p(t) 170 mit der tatsächlichen optimalen Voraussagezeit (t) 112 verglichen, und die Differenz 174 zwischen den zwei Werten wird von der Summationsschaltung 160 bestimmt. Beide Differenzen 172 und 174 werden an den Prozessor 56 übertragen, wo Koeffizienten 57 angepaßt werden, um den Fehler zu reduzieren. Die Koeffizienten 57 werden dann an das zweite neuronale Netz übertragen. Dieser Prozeß wird wiederholt, bis die berechneten vorausgesagten gesteuerten Variablen, vorverschoben um die optimalen Voraussagezeiten, und die optimalen Voraussagezeiten den tatsächlichen Werten gleichen.
  • [0081] Nach Beendigung dieses Schrittes kann das resultierende Netz, wie in Fig. 19 gezeigt, für Prozeßexperimente oder als Teil eines Controllers verwendet werden.
  • VIERTE AUSGESTALTUNG
  • [0082] Die vierte Ausgestaltung erzeugt ein neuronales Netz, das mit Inferenzmessungen anstelle der gesteuerten Variablen trainiert wird. Inferenzmessungen stellen eine gefolgerte Näherung der gesteuerten Variablen dar, die mit einer schnelleren Abtastrate verfügbar sind. Die Verwendung dieser Messungen ergibt ein Netzwerk, das, wenn es als Controller verwendet wird, in der Lage ist, mit einer höheren Geschwindigkeit zu steuern als der Abtastrate, mit der die gesteuerte Variable gemessen wird.
  • [0083] Das Verfahren zum Trainieren des bei der vierten Ausgestaltung erzeugten neuronalen Netzes ist identisch mit dem in der dritten Ausgestaltung verwendeten Verfahren, mit der Ausnahme, daß die gesteuerten Variablen und ihre Ableitungen durch die Inferenzmessungen w(t) und ihre Ableitungen w'(t) ersetzt werden. Die CPU 40, die die historische Datenbank 42 erzeugt, ist in Fig. 2 gezeigt und verwendet Eingaben 34 und 36 anstelle von Eingaben 30 und 32. Der Prozessor 12, der das erste neuronale Netz trainiert, wie in Fig. 3 gezeigt, verwendet die Inferenzmessungen w(t) 34 und ihre Ableitungen w'(t) 36, wie durch Schalter 35 bzw. 37 ausgewählt, wodurch die gesteuerten Variablen 30 und ihre Ableitungen 32 ersetzt werden, um vorausgesagte gesteuerte Variablen 60 zu erzeugen. In Fig. 5 erfolgt die Empfindlichkeit der gesteuerten Variablen gegen eine an ihren gepaarten manipulierten Variablen vorgenommene Änderung durch Verwendung des ersten neuronalen Netzes mit Inferenzmessungen w(t) 34 und ihren Ableitungen w'(t) 36 über die Schalter 35 und 37, wodurch die gesteuerten Variablen y(t) 30 und ihre Ableitungen y'(t) 32 ersetzt werden. Die optimale Voraussagezeit und die vorausgesagte gesteuerte Variable, vorverschoben um die optimale Voraussagezeit, werden wie in der dritten Ausgestaltung berechnet. Das zweite neuronale Netz wird wie in Fig. 16 mit den Inferenzmessungen w(t) 34 und ihren Ableitungen w'(t) 36 über die Schalter 35 und 37 trainiert, wodurch die gesteuerten Variablen 30 und ihre Ableitungen 33 ersetzt werden. Das resultierende Netz kann wie in Fig. 20 gezeigt als Teil eines Controllers oder für Prozeßexperimente genutzt werden.
  • ZUSAMMENFASSUNG
  • [0084] Diese Offenbarung stellt ein Verfahren und eine Vorrichtung vor zum Trainieren und Optimieren eines neuronalen Netzes, um die optimale Voraussagezeit eines Prozesses als Grundlage für die Berechnung einer manipulierten Variable für die Steuerung des Prozesses zu berechnen, wie in der ersten Ausgestaltung. In der zweiten Ausgestaltung sind auch ein Verfahren und eine Vorrichtung zum Trainieren und Optimieren eines neuronalen Netzes zum Bestimmen der optimalen Voraussagezeit eines Prozesses als Grundlage für die Berechnung der vorausgesagten gesteuerten Variable, vorverschoben um die optimale Voraussagezeit, für die indirekte Steuerung eines Prozesses oder für die Durchführung von Prozeßexperimenten offenbart.
  • [0085] Diese Ausgestaltungen sind flexibel und erlauben Abwandlungen der bevorzugten Ausgestaltungen, um diversen Arten von Prozessen zu entsprechen. Zum Beispiel kann bei manchen Prozessen der Ableitungsvorgang nicht garantiert sein. In solchen Fällen können die Ableitungen der gesteuerten Variablen und der gemessenen Lastvariablen fortgelassen sein. Dies mag für einen totzeitdominierten Prozeß oder einen Prozeß mit starkem Meßrauschen wünschenswert sein.
  • [0086] Außerdem muß das Netzwerk nicht notwendigerweise mit allen Prozeßeingaben wie oben beschrieben trainiert werden. Eine Teilmenge der oben erwähnten kann verwendet werden, und es können auch zusätzliche Eingaben hinzugenommen werden. Zum Beispiel werden die gemessenen Lastvariablen möglicherweise nicht für solche Prozesse benötigt, die keinen größeren Laststörungen ausgesetzt sind.
  • [0087] Außerdem ist zu beachten, daß bei allen oben erwähnten Ausgestaltungen die Funktion des neuronalen Netzes durch andere Datenverarbeitungsstrukturen ausgeführt werden können. Beispiele solcher Strukturen sind ein nichtlinearer Funktionsgenerator oder Charakterisator, ein Fuzzy-Logik-Prozessor, Nachschlagetabellen, logische Inferenzmaschinen oder ein Prozessor, der eine Menge von Gleichungen verwendet, die die geeigneten Werte für die erzeugten Signale liefern, sind aber nicht hierauf beschränkt.
  • [0088] Das Verfahren zum Bestimmen der optimalen Voraussagezeit als derjenigen, die die größte Empfindlichkeit der vorausgesagten gesteuerten Variablen als Ergebnis der an ihrer gepaarten manipulierten Variablen vorgenommenen kleinen Veränderung liefert, ist nicht auf das beschriebene parabolische Interpolationsverfahren beschränkt. Auch andere mathematische Techniken können verwendet werden.
  • [0089] Des weiteren kann das resultierende neuronale Netz als Programm zur Ausführung auf einem Computersystem, als Hardware in Form elektronischer Schaltungen oder als ein teilweise als Programm und teilweise durch Schaltungen implementiertes hybrides System implementiert werden.
  • [0090] Das Training und die Optimierung des neuronalen Netzes in dieser Art und Weise ist aus mehreren Gründen nützlich. Wichtig ist die Auswahl der zum Trainieren des Netzes verwendeten Eingaben. Zuerst wird das Netz mit konkurrierenden Eingabedaten trainiert, um die gesteuerten Variablen mit variabler Zeitverzögerung vorauszusagen. Die Verwendung der zeitlichen Ableitungen als Eingaben und von variablen Voraussagezeiten für die gesteuerten Variablen fügt die Dynamik des Prozesses in das Netz ein und beseitigt die Notwendigkeit von zusätzlichen verzögerten Eingaben. Die Verwendung der konkurrierenden Inferenzmessungen anstelle von Eingaben gesteuerter Variablen gibt dem neuronalen Netz den zusätzlichen Vorteil, daß es in der Lage ist, mit einer höheren Geschwindigkeit als der Abtastrate der gesteuerten Variablen zu steuern. Diese Verbesserungen ergeben ein Netz, das bei Verwendung als Controller eine schnelle Antwortzeit hat. Außerdem gibt die Verwendung der gemessenen Lastvariablen als Eingaben dem Netz die Fähigkeit, bei Anwendung als Controller diese Störungen zu kompensieren.
  • [0091] Drittens wird das Modell mit konkurrierenden und infolgedessen unabhängigen Eingaben für die proportionalen und die Ableitungsterme, d. h. den gesteuerten Variablen oder ihren Inferenz-Substituten und den gemessenen Lastvariablen, trainiert. Dies versetzt das Netz in die Lage, bei Verwendung als Controller schnell und gut sowohl auf Änderungen des Arbeitspunktes wie auf gemessene oder ungemessene Laststörungen zu reagieren. Weil der Controller auf der Voraussagezeit basiert, die die geringste Controllereinwirkung erfordert, ist die Antwort im geschlossenen Regelkreis überschwingerfrei und nicht oszillatorisch.
  • [0092] Zusätzlich zu diesen Verbesserungen gibt es Verbesserungen, die die Leistungsfähigkeit und Anwendbarkeit des Netzes betreffen. Erstens minimiert die Beseitigung des Optimierungsschrittes aus der Operationsphase den Überhang, wenn das Netzwerk benutzt wird.
  • [0093] Zweitens ergibt das Training des Netzes als selbstregressives Modell mit veränderlichem Mittelwert (Autoregressive Moving Average Model, ARMA) ein Netz, das robust bei der Handhabung diverser Typen von Prozessen ist. Proportionale und Ableitungsrückkopplung macht das Netz sowohl bei der Handhabung von verzögerungsdominierten Prozessen wie auch von totzeitdominierten Prozessen effektiv.
  • [0094] Die bevorzugten Ausgestaltungen der Erfindung sind oben detailliert beschrieben worden, allerdings soll betont werden, daß dies nur zur Darstellung der Erfindung erfolgt, um es Fachleuten zu ermöglichen, die Erfindung an diverse unterschiedliche Anwendungen anzupassen, die Abwandlungen der oben beschriebenen Vorrichtung erfordern.

Claims (25)

1. Vorrichtung zur Steuerung eines Prozeßeingaben und
- ausgaben beinhaltenden Prozesses mit wenigstens einer gesteuerten Variable, wobei das Verfahren auf wenigstens eine manipulierte Variable zur Steuerung des Prozesses an einer Ansprechpunktstufe anspricht, wobei die Vorrichtung beinhaltet:
a) eine Eingabeeinrichtung (38) zum Empfang von Eingangsvariablen, die eine Menge oder Bedingung repräsentieren und eine kausale Verbindung zum Wert der Prozeßausgaben haben;
b) Ausgabeeinrichtungen (50) zur Erzeugung von Ausgangsvariablen, die Signale repräsentieren, die zur Steuerung des Prozesses angepaßt sind; und
c) Verarbeitungseinrichtungen (16) zur Bestimmung einer optimalen Voraussagezeit und eines vorausberechneten Prozeßausgangs, wobei die Verarbeitungseinrichtungen (16) einen Speicher zur Speicherung wenigstens eines Koeffizienten aufweisen,
dadurch gekennzeichnet, dass die Verarbeitungseinrichtungen (16) zur Bestimmung der optimalen Voraussagezeit als Funktion der Eingangsvariablen des wenigstens einen Koeffizienten ausgebildet sind, wobei die optimale Voraussagezeit die Zeit ist, bei der die Größe der Veränderung der manipulierten Variablen, die erforderliche ist, die gesteuerte Variable zur Ansprechpunktstufe zu bewegen, minimal ist und wobei der vorausberechnete Prozeßausgang ein solcher ist, wie er durch die optimale Voraussagezeit vorgegeben ist, wobei die Verarbeitungseinrichtungen (16) beinhalten
a) einen Datenbankspeicher mit einem Speicherbereich für Trainingsmuster, die historische Werte der Prozeßeingaben und -ausgaben beinhalten, und/oder einem Speicherbereich für einen Satz zukünftiger Zeitstufensignale, die einen zukünftigen Zeithorizont definieren;
b) ein Voraussagemodell, das mit dem im Datenbankspeicher gespeicherten Trainingsmuster gebildet ist, um Prozeßausgaben über den zukünftigen Zeithorizont in vorauszusagen,
c) ein Empfindlichkeitsprozessorelement, das mit dem Voraussagemodell verbunden ist, um die Wirkung der Prozeßausgaben als Ergebnis von Veränderungen der historischen Werte der Prozeßeingaben zu bestimmen, wobei der Empfindlichkeitsprozessor vorausgesagte Prozeßausgaben erzeugt, und/oder um ein Voraussagezeitsignal zu berechnen, dass für die Zeit, bei der die im wesentlichen größte Wirkung in den vorausgesagten Prozeßausgaben auftritt, und/oder zur Berechnung der vorausgesagten Prozeßausgabe, wie sie durch die Voraussagezeit gegeben ist.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Eingangsvariablen wenigstens einen einen Zielwert des Prozesses beinhaltenden Ansprechpunkt für jede einer Reihe von Zeitstufen des Prozesses, wenigstens eine gesteuerte Variable für jede Zeitstufe des Prozesses und wenigstens eine manipulierte Variable für jede Zeitstufe des Verfahrens beinhalten.
3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Eingangsvariablen wenigstens einen einen Zielwert des Verfahrens repräsentierenden Ansprechpunkt für jede einer Serie von Zeitstufen des Verfahrens, wenigstens eine manipulierte Variable für jede Zeitstufe des Verfahrens und wenigstens eine Folgerungsvariable für jede Zeitstufe des Prozesses beinhalten, wobei die wenigstens eine Folgerungsvariable eine Näherungsangabe der Verfahrensausgabe repräsentiert.
4. Vorrichtung nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass die Eingangsvariablen weiterhin wenigstens eine zeitliche Ableitung einer Folgerungsvariablen oder der gesteuerten Variablen oder einer gemessenen Belastungsstörung oder einer zeitlichen Ableitung der gemessenen Belastungsstörung für jede Zeitstufe des Prozesses beinhalten.
5. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Ausgangsvariablen umfassen:
wenigstens eine optimale Voraussagezeit oder wenigstens eine manipulierte Variable zur Verwendung bei der Steuerung des Prozesses, wobei die manipulierte Variable eine Veränderung des Prozesses repräsentiert, die erforderliche ist, um den Prozeßausgang so zu bilden, wie er durch die optimale Voraussagezeit vorgegeben ist.
6. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Ausgangsvariablen wenigstens eine optimale Voraussagezeit oder wenigstens einen vorausgesagten Prozeßausgang zur Verwendung bei der Bestimmung der korrespondierenden manipulierten Variablen zur Steuerung des Prozesses beinhalten.
7. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Voraussagezeit eine Vielzahl von im wesentlichen optimalen Voraussagezeiten für jede einer Reihe von Zeitstufen des Prozesses beinhaltet, dass die manipulierte Variable eine Vielzahl von manipulierten Variablen für jede der Zeitstufen des Verfahrens beinhaltet und das das System einen Zähler zur sequenziellen Kontrolle wenigstens einer der Verfahrenselemente beinhaltet.
8. Verfahren zur Steuerung eines Prozesses, wobei der Prozeß Prozeßeingaben und -ausgaben hat und die Prozeßausgaben wenigstens eine gesteuerte Variable beinhalten und von einer manipulierten Variablen zur Veränderung der gesteuerten Variablen abhängen, gekennzeichnet durch die folgenden Schritte:
a) Erzeugung eines Voraussagemodells des Prozesses zur Berechnung vorausgesagter Prozeßausgaben über einen zukünftigen Zeithorizont, wobei das Modell als Funktion historischer Prozeßdaten erzeugt wird,
b) Anwendung des Voraussagemodells zur Berechnung einer Veränderung der vorausgesagten Prozeßausgabe, die als Ergebnis einer Veränderung der historischen Daten auftritt,
c) Bestimmung eines optimalen Voraussagezeitsignals, das für die Zeit repräsentativ ist, bei der die Größe der Veränderung der manipulierten Variablen die erforderlich ist, um die gesteuerte Variable zu einer gewünschten Ansprechpunktstufe zu bewegen, ein Minimum ist, und
d) Anwendung der vorausgesagten Prozeßausgabe, wie sie durch die optimale Voraussagezeit bestimmt und die historischen Prozeßdaten bestimmt ist, um eine entsprechende manipulierte Variable zur Verwendung der Steuerung des Prozesses zu erzeugen.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Schritt der Erzeugung eines Voraussagemodells weiterhin den Schritt der Erzeugung eines autoregressiv veränderlichen Durchschnittsmodells des Verfahrens durch Sammlung von Werten der Prozeßeingaben, der Prozeßausgaben, der Prozeßausgaben über einen zukünftigen Zeithorizont beinhaltet, wobei das autoregressiv veränderliche Durchschnittsmodell vorausgesagte Prozeßausgaben über den zukünftigen Zeithorizont erzeugt.
10. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Schritt der Bestimmung einer optimalen Voraussagezeit einen Schritt der Bestimmung der größten Veränderungsrate der Prozeßausgaben als Ergebnis von Veränderungen der historischen Prozeßdaten beinhaltet, wobei die größte Veränderungsrate die optimale Veränderung repräsentiert.
11. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Schritt der Bestimmung der optimalen Voraussagezeit weiter einen Schritt zur Bestimmung der größten Veränderung der Prozeßausgaben als Ergebnis der Veränderungen der historischen Prozeßdaten beinhaltet, wobei die größte Veränderung die im wesentlichen optimale Veränderung repräsentiert.
12. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß der Schritt der Erzeugung eines Modells einen Schritt zur Erzeugung des folgenden beinhaltet:
- historische Prozeßdaten, die die Daten einer Gruppe von konkurrierenden Eingaben zu mehreren Zeitstufen des Prozesses für manipulierte Variablen repräsentieren,
- die Prozeßausgaben,
- zeitliche Ableitungen der Prozeßausgaben,
- gemessene Belastungsvariablen oder
- zeitliche Ableitungen der gemessenen Belastungsvariablen.
13. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Prozeßausgaben repräsentativ sind für jede einer Gruppe von gesteuerten Variablen, die einen gemessenen Prozeßausgang repräsentieren oder für jede einer Gruppe von Folgerungsvariablen, die näherungsweise Angaben der gemessenen Prozeßausgaben repräsentieren.
14. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die korrespondierende Variable die manipulierte Variable zur Veränderung des Prozesses als Funktion der gemessenen Prozeßausgabe oder der vorausgesagten Prozeßausgabe repräsentiert, die durch die optimale Voraussagezeit zur Verwendung bei der Bestimmung eines Wertes der Variablen vorgegeben ist, die den Prozeß in einer im wesentlichen bevorzugten Weise beeinflußt.
15. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Schritt der Erzeugung eines Voraussagemodells die folgenden Einzelschritt beinhaltet:
a) Sammlung einer Vielzahl von historischen Werten der manipulierten Variablen und der historischen Variablen der Prozeßausgaben, die durch Operationen des Prozesses erzeugt und über eine Zeitspanne gesammelt wurden,
b) Bildung von Paaren der manipulierten Variablen mit den Prozeßausgaben auf der Basis der historischen Werte in Übereinstimmung mit Optimierungskriterien,
c) Gewinnung von Trainingsdaten die durch Operation des Prozesses erzeugt und über eine Zeitspanne gesammelt wurden,
d) Berechnung einer Mehrzahl von zukünftigen Zeitschritten, die den zukünftigen Zeithorizont repräsentieren.
e) Sammlung eines Satzes kontrolliert gesteuerter Variablen, wie sie durch den zukünftigen Zeithorizont vorgegeben sind, und
f) Erzeugung eines Voraussagemodell aufgrund der Trainingseingangsdaten, der Paare manipulierter Variablen und Prozeßausgaben auf der Basis historischer Werte, der Vielzahl der zukünftigen Zeitstufen und der gesteuerten Variablen, wie sie durch den zukünftigen Zeithorizont vorgegeben sind, um vorausgesagte gesteuerte Variable, wie sie durch den zukünftigen Zeithorizont vorgegeben sind, zu berechnen,
und dass der Schritt der Bestimmung der optimalen Voraussagezeit wahlweise die folgenden Einzelschritte beinhaltet:
g) Auswahl eines Teilsatzes der Veränderungsvariablen, der im wesentlichen die größten Werteveränderungen repräsentiert,
h) Identifizieren und Speichern der zukünftigen Zeitschritte der Veränderungsvariablen des durch den Auswahlschritt erzeugten Teilsatzes,
i) Bestimmung der im wesentlichen größten ) Veränderung aufgrund des Veränderungsbereiches des Teilsatzes der Veränderungsvariablen und
j) Extrapullation der zukünftigen Zeiten, bei denen die größte Veränderung auftritt, wobei die zukünftigen Zeiten die optimalen Voraussagezeiten sind,
und dass weiterhin der Schritt der Erzeugung eines Voraussagemodells wahlweise den folgenden Schritt beinhaltet:
l) Trainieren eines nichtlinearen Funktionsgenerators mit den vorausgesagten gesteuerten Variablen, wie sie durch die optimalen Voraussagezeiten und die historischen Prozeßdaten vorgegeben sind, um entsprechende Variablen, insbesondere manipulierte Variablen zur Verwendung bei der Steuerung des Prozesses zu berechnen.
16. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die korrespondierenden Variablen die vorausgesagten Prozeßausgänge sind, wie sie durch die optimale Voraussagezeit vorgegeben sind, die bei Bestimmung der Werte der manipulierten Variablen, die den Prozeß beeinflussen, verwendet wurden.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass ein adaptierbares Prozessorelement die optimalen Voraussagezeiten generiert.
18. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass die Prozeßausgaben für einen gemessenen Prozeßausgang repräsentierte gesteuerte Variablen oder näherungsweise Angaben der gesteuerten Variablen repräsentierende Folgerungsvariablen beinhalten.
19. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass der Schritt der Gewinnung der Trainingsdaten weiterhin einen Schritt der Sammlung von zeitlichen Ableitungen der historischen Werte der Prozeßausgänge zur Verwendung in der Erzeugung des Voraussagemodells beinhaltet.
20. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass der Schritt der Gewinnung der Trainingsdaten weiterhin den Schritt der Sammlung einer Vielzahl historischer Daten gemessener Belastungsvariablen beinhaltet, die durch Operationen des Prozesses über eine Zeitspanne erzeugt wurden, wobei die historischen Daten der gemessene Belastungsstörungen repräsentieren und dass der Schritt der Erzeugung eines Voraussagemodells weiterhin die Verwendung der zusätzlichen Eingaben der historischen Daten der gemessenen Belastungsvariablen beinhaltet.
21. Verfahren nach Anspruch 20, dadurch gekennzeichnet, dass der Schritt der Sammlung einer Vielzahl historischer Werte weiterhin den Schritt der Sammlung von zeitlichen Ableitungen der historischen Werte der gemessenen Belastungsvariablen zur Verwendung bei der Erzeugung des Voraussagemodells beinhaltet und dass der Schritt der Erzeugung eines Voraussagemodells die zusätzlichen Eingaben der Ableitungen der historischen Werte der gemessenen Belastungsvariablen nutzt.
22. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Schritt der Anwendungen des Voraussagemodells weiterhin die folgenden Einzelschritte beinhaltet:
a) Verwendung des Voraussagemodells zur Erzeugung eines ersten Satzes von vorausgesagten gesteuerten Variablen, wie sie gegenüber dem zukünftigen Projektionshorizont vorgegeben sind,
b) Anwendung des Voraussagemodells mit den Veränderungen, die auf die historischen Werte der manipulierten Variablen angewendet wurden zur Erzeugung eines zweiten Satzes vorausgesagter gesteuerter Variablen, wie sie über den zukünftigen Voraussagehorizont gegeben sind und
c) bilden Differenz zwischen dem ersten Satz der vorausgesagten gesteuerten Werte und im zweiten Satz der vorausgesagten gesteuerten Werte und hierdurch Schaffung von Veränderungsvariablen, die die Differenz repräsentieren.
23. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Schritt der Anwendung des Voraussagemodells weiter folgende Schritte beinhaltet:
a) Verwendung des Voraussagemodells zur Erzeugung eines ersten Satzes von vorausgesagten gesteuerten Variablen, wie sie gegenüber dem zukünftigen Projektionshorizont vorgegeben sind,
b) Anwendung des Voraussagemodells mit den Veränderungen, die auf die historischen Werte der manipulierten Variablen angewendet wurden, zur Erzeugung eines zweiten Satzes vorausgesagter gesteuerter Variablen, wie sie über den zukünftigen Voraussagehorizont gegeben sind,
c) bilden Differenz zwischen dem ersten Satz der vorausgesagten gesteuerten Werte und im zweiten Satz der vorausgesagten gesteuerten Werte und hierdurch Schaffung von Veränderungsvariablen, die die Differenz repräsentieren, und
d) Bestimmung der Veränderungsrate der Differenzvariablen, wobei die Bestimmung die Berechnung der Differenz zwischen zwei Differenzvariablen beinhaltet, die aufeinanderfolgende zukünftige Zeitstufen haben und wobei die ergebenden Veränderungsraten die Veränderungsvariablen sind.
24. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der Schritt der Anwendung des Voraussagemodells weiterhin die folgenden Schritte beinhaltet:
a) Auswahl eines historischen Wertes der manipulierten Variablen, der im folgenden als ausgewählte manipulierte Variable bezeichnet wird,
b) Veränderung der ausgewählten manipulierten Variablen um einen geringen Betrag,
c) Auswahl eines Satzes historischer Werte der manipulierten Variablen, die nicht die ausgewählte manipulierte Variable beinhalten,
Anwendung des Voraussagemodells mit der ausgewählten manipulierten Variablen, des Satzes der historischen Werte der manipulierten Variablen, der historischen Werte der Prozeßausgaben und der Trainingseingabedaten, wobei diese Anwendung vorausgesagte gesteuerte Variablen über den zukünftigen Projektionshorizont hin erzeugt.
e) Auswahl gepaarter vorausgesagter gesteuerter Variablen, die den ausgewählten manipulierten Variablen entsprechen aus den vorausgesagten gesteuerten Variablen,
f) Speicherung der gepaarten vorausgesagten gesteuerten Variablen,
g) Wiederholung der Schritte a) bis f) für andere historische Werte der manipulierten Variablen, und
h) Ausgabe der gespeicherten vorausgesagten gesteuerten Variablen, wobei die gespeicherten vorausgesagten gesteuerten Variablen die veränderten vorausgesagten gesteuerten Variablen sind.
25. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass das adaptierbare Prozessorelement oder der nichtlineare Funktionsgenerator aus einem neuronalen Netzwerk, einem Futzy-Logik-Prozessor, einer Nachschlagetabelle oder einer Folgerungs-Logikmaschine ausgewählt ist.
DE69518208T 1994-11-01 1995-11-01 Verfahren und Vorrichtung zur Erzeugung einer Mehrgrössen-/nichtlinearen Steuerung Expired - Lifetime DE69518208T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/333,095 US5704011A (en) 1994-11-01 1994-11-01 Method and apparatus for providing multivariable nonlinear control

Publications (2)

Publication Number Publication Date
DE69518208D1 DE69518208D1 (de) 2000-09-07
DE69518208T2 true DE69518208T2 (de) 2001-04-26

Family

ID=23301245

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69518208T Expired - Lifetime DE69518208T2 (de) 1994-11-01 1995-11-01 Verfahren und Vorrichtung zur Erzeugung einer Mehrgrössen-/nichtlinearen Steuerung

Country Status (3)

Country Link
US (1) US5704011A (de)
EP (1) EP0712060B1 (de)
DE (1) DE69518208T2 (de)

Families Citing this family (164)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243696B1 (en) * 1992-11-24 2001-06-05 Pavilion Technologies, Inc. Automated method for building a model
US6314414B1 (en) 1998-10-06 2001-11-06 Pavilion Technologies, Inc. Method for training and/or testing a neural network with missing and/or incomplete data
US6879971B1 (en) * 1995-12-22 2005-04-12 Pavilion Technologies, Inc. Automated method for building a model
US7949495B2 (en) 1996-03-28 2011-05-24 Rosemount, Inc. Process variable transmitter with diagnostics
US6539267B1 (en) 1996-03-28 2003-03-25 Rosemount Inc. Device in a process system for determining statistical parameter
US8290721B2 (en) 1996-03-28 2012-10-16 Rosemount Inc. Flow measurement diagnostics
US6654697B1 (en) 1996-03-28 2003-11-25 Rosemount Inc. Flow measurement with diagnostics
US6017143A (en) 1996-03-28 2000-01-25 Rosemount Inc. Device in a process system for detecting events
US7058617B1 (en) * 1996-05-06 2006-06-06 Pavilion Technologies, Inc. Method and apparatus for training a system model with gain constraints
US6278899B1 (en) * 1996-05-06 2001-08-21 Pavilion Technologies, Inc. Method for on-line optimization of a plant
EP0825506B1 (de) 1996-08-20 2013-03-06 Invensys Systems, Inc. Verfahren und Gerät zur Fernprozesssteuerung
US6519546B1 (en) 1996-11-07 2003-02-11 Rosemount Inc. Auto correcting temperature transmitter with resistance based sensor
US5956663A (en) * 1996-11-07 1999-09-21 Rosemount, Inc. Signal processing technique which separates signal components in a sensor for sensor diagnostics
US6601005B1 (en) 1996-11-07 2003-07-29 Rosemount Inc. Process device diagnostics using process variable sensor signal
US6434504B1 (en) 1996-11-07 2002-08-13 Rosemount Inc. Resistance based process control device diagnostics
US6754601B1 (en) 1996-11-07 2004-06-22 Rosemount Inc. Diagnostics for resistive elements of process devices
US6449574B1 (en) 1996-11-07 2002-09-10 Micro Motion, Inc. Resistance based process control device diagnostics
GB9624298D0 (en) * 1996-11-22 1997-01-08 Univ Strathclyde Improved neural network
CN1138193C (zh) * 1996-12-31 2004-02-11 罗斯蒙德公司 在处理系统用于确认来自现场装置的控制信号的装置
US5914884A (en) * 1997-01-02 1999-06-22 General Electric Company Method for evaluating moldability characteristics of a plastic resin in an injection molding process
DE19718262A1 (de) * 1997-04-30 1998-11-05 Schenck Panel Production Syste Verfahren und System zur Generierung eines Prozeßmodells eines technischen Problems
US6055483A (en) * 1997-05-05 2000-04-25 Honeywell, Inc. Systems and methods using bridge models to globally optimize a process facility
CA2306767C (en) 1997-10-13 2007-05-01 Rosemount Inc. Communication technique for field devices in industrial processes
US6185470B1 (en) * 1997-11-07 2001-02-06 Mcdonnell Douglas Corporation Neural network predictive control method and system
US5980080A (en) * 1997-12-22 1999-11-09 Elsag International N.V. Windup and noise protection of digital controllers in a layered control
US6220517B1 (en) * 1998-04-22 2001-04-24 Denso Corporation Air-conditioning device
US6615149B1 (en) 1998-12-10 2003-09-02 Rosemount Inc. Spectral diagnostics in a magnetic flow meter
US6611775B1 (en) 1998-12-10 2003-08-26 Rosemount Inc. Electrode leakage diagnostics in a magnetic flow meter
US8044793B2 (en) 2001-03-01 2011-10-25 Fisher-Rosemount Systems, Inc. Integrated device alerts in a process control system
US6298454B1 (en) 1999-02-22 2001-10-02 Fisher-Rosemount Systems, Inc. Diagnostics in a process control system
US6633782B1 (en) 1999-02-22 2003-10-14 Fisher-Rosemount Systems, Inc. Diagnostic expert in a process control system
US6975219B2 (en) 2001-03-01 2005-12-13 Fisher-Rosemount Systems, Inc. Enhanced hart device alerts in a process control system
US6496741B1 (en) * 1999-03-25 2002-12-17 Gregory J. Whiffen Static/dynamic control for optimizing a useful objective
AU5025600A (en) 1999-05-17 2000-12-05 Foxboro Company, The Process control configuration system with parameterized objects
US7089530B1 (en) 1999-05-17 2006-08-08 Invensys Systems, Inc. Process control configuration system with connection validation and configuration
US6788980B1 (en) 1999-06-11 2004-09-07 Invensys Systems, Inc. Methods and apparatus for control using control devices that provide a virtual machine environment and that communicate via an IP network
US6356191B1 (en) 1999-06-17 2002-03-12 Rosemount Inc. Error compensation for a process fluid temperature transmitter
JP4824234B2 (ja) 1999-07-01 2011-11-30 ローズマウント インコーポレイテッド 2線式温度送信機およびプロセス温度測定方法
FR2795830B1 (fr) * 1999-07-01 2001-08-31 Lorraine Laminage Procede de pilotage d'un processus dynamique complexe
US6505517B1 (en) 1999-07-23 2003-01-14 Rosemount Inc. High accuracy signal processing for magnetic flowmeter
WO2001009690A1 (en) * 1999-07-29 2001-02-08 The Foxboro Company Methods and apparatus for object-based process control
US6507774B1 (en) * 1999-08-24 2003-01-14 The University Of Chicago Intelligent emissions controller for substance injection in the post-primary combustion zone of fossil-fired boilers
US6701274B1 (en) 1999-08-27 2004-03-02 Rosemount Inc. Prediction of error magnitude in a pressure transmitter
US6155283A (en) * 1999-09-10 2000-12-05 The Foxboro Company Intelligent valve positioner tuning
US6556145B1 (en) 1999-09-24 2003-04-29 Rosemount Inc. Two-wire fluid temperature transmitter with thermocouple diagnostics
US6678585B1 (en) * 1999-09-28 2004-01-13 Pavilion Technologies, Inc. Method and apparatus for maximizing power usage in a power plant
US6445963B1 (en) 1999-10-04 2002-09-03 Fisher Rosemount Systems, Inc. Integrated advanced control blocks in process control systems
US6510353B1 (en) 1999-11-04 2003-01-21 Fisher-Rosemount Systems, Inc. Determining tuning parameters for a process controller from a robustness map
US7096093B1 (en) 2000-02-14 2006-08-22 Invensys Systems, Inc. Intelligent valve flow linearization
CA2402280C (en) * 2000-03-10 2008-12-02 Cyrano Sciences, Inc. Control for an industrial process using one or more multidimensional variables
US6721609B1 (en) 2000-06-14 2004-04-13 Fisher-Rosemount Systems, Inc. Integrated optimal model predictive control in a process control system
WO2002003152A2 (en) * 2000-06-29 2002-01-10 Aspen Technology, Inc. Computer method and apparatus for constraining a non-linear approximator of an empirical process
DE10036971A1 (de) * 2000-07-28 2002-02-28 Siemens Ag Verfahren zur Ferndiagnose eines technologischen Prozesses
US6735484B1 (en) 2000-09-20 2004-05-11 Fargo Electronics, Inc. Printer with a process diagnostics system for detecting events
US6629089B1 (en) * 2000-09-29 2003-09-30 Cirrus Logic, Inc. Artificial neural network voice coil motor controller
US7720727B2 (en) 2001-03-01 2010-05-18 Fisher-Rosemount Systems, Inc. Economic calculations in process control system
CN100524130C (zh) 2001-03-01 2009-08-05 费舍-柔斯芒特系统股份有限公司 自动工作命令/部件命令生成和跟踪
US6954713B2 (en) * 2001-03-01 2005-10-11 Fisher-Rosemount Systems, Inc. Cavitation detection in a process plant
US8073967B2 (en) 2002-04-15 2011-12-06 Fisher-Rosemount Systems, Inc. Web services-based communications for use with process control systems
US6795798B2 (en) 2001-03-01 2004-09-21 Fisher-Rosemount Systems, Inc. Remote analysis of process control plant data
US7389204B2 (en) 2001-03-01 2008-06-17 Fisher-Rosemount Systems, Inc. Data presentation system for abnormal situation prevention in a process plant
US6970003B2 (en) * 2001-03-05 2005-11-29 Rosemount Inc. Electronics board life prediction of microprocessor-based transmitters
US6629059B2 (en) 2001-05-14 2003-09-30 Fisher-Rosemount Systems, Inc. Hand held diagnostic and communication device with automatic bus detection
ATE377209T1 (de) * 2001-05-25 2007-11-15 Parametric Optimization Soluti Verbesserte prozesssteuerung
GB0113627D0 (en) * 2001-06-05 2001-07-25 Univ Stirling Controller and method of controlling an apparatus
US7162534B2 (en) 2001-07-10 2007-01-09 Fisher-Rosemount Systems, Inc. Transactional data communications for process control systems
US20030028267A1 (en) * 2001-08-06 2003-02-06 Hales Michael L. Method and system for controlling setpoints of manipulated variables for process optimization under constraint of process-limiting variables
US6772036B2 (en) 2001-08-30 2004-08-03 Fisher-Rosemount Systems, Inc. Control system using process model
US6901300B2 (en) 2002-02-07 2005-05-31 Fisher-Rosemount Systems, Inc.. Adaptation of advanced process control blocks in response to variable process delay
US6832134B2 (en) * 2002-11-12 2004-12-14 Honeywell International Inc. Coordination in multilayer process control and optimization schemes
US7600234B2 (en) 2002-12-10 2009-10-06 Fisher-Rosemount Systems, Inc. Method for launching applications
US7493310B2 (en) 2002-12-30 2009-02-17 Fisher-Rosemount Systems, Inc. Data visualization within an integrated asset data system for a process plant
US8935298B2 (en) 2002-12-30 2015-01-13 Fisher-Rosemount Systems, Inc. Integrated navigational tree importation and generation in a process plant
US7152072B2 (en) 2003-01-08 2006-12-19 Fisher-Rosemount Systems Inc. Methods and apparatus for importing device data into a database system used in a process plant
US7953842B2 (en) 2003-02-19 2011-05-31 Fisher-Rosemount Systems, Inc. Open network-based data acquisition, aggregation and optimization for use with process control systems
US7103427B2 (en) 2003-02-28 2006-09-05 Fisher-Rosemont Systems, Inc. Delivery of process plant notifications
US6915235B2 (en) 2003-03-13 2005-07-05 Csi Technology, Inc. Generation of data indicative of machine operational condition
US7634384B2 (en) 2003-03-18 2009-12-15 Fisher-Rosemount Systems, Inc. Asset optimization reporting in a process plant
US6736089B1 (en) 2003-06-05 2004-05-18 Neuco, Inc. Method and system for sootblowing optimization
US7194320B2 (en) * 2003-06-05 2007-03-20 Neuco, Inc. Method for implementing indirect controller
US7299415B2 (en) 2003-06-16 2007-11-20 Fisher-Rosemount Systems, Inc. Method and apparatus for providing help information in multiple formats
US8214271B2 (en) * 2004-02-04 2012-07-03 Neuco, Inc. System and method for assigning credit to process inputs
US7030747B2 (en) 2004-02-26 2006-04-18 Fisher-Rosemount Systems, Inc. Method and system for integrated alarms in a process control system
US7761923B2 (en) 2004-03-01 2010-07-20 Invensys Systems, Inc. Process control methods and apparatus for intrusion detection, protection and network hardening
US7079984B2 (en) 2004-03-03 2006-07-18 Fisher-Rosemount Systems, Inc. Abnormal situation prevention in a process plant
US7676287B2 (en) 2004-03-03 2010-03-09 Fisher-Rosemount Systems, Inc. Configuration system and method for abnormal situation prevention in a process plant
US7515977B2 (en) 2004-03-30 2009-04-07 Fisher-Rosemount Systems, Inc. Integrated configuration system for use in a process plant
US7536274B2 (en) 2004-05-28 2009-05-19 Fisher-Rosemount Systems, Inc. System and method for detecting an abnormal situation associated with a heater
CA2567139A1 (en) 2004-06-12 2005-12-29 Fisher-Rosemount Systems, Inc. System and method for detecting an abnormal situation associated with a process gain of a control loop
US7500437B2 (en) * 2004-08-27 2009-03-10 Neuco, Inc. Method and system for SCR optimization
WO2006026479A2 (en) * 2004-08-27 2006-03-09 Neuco, Inc. Method and system for sncr optimization
US7181654B2 (en) 2004-09-17 2007-02-20 Fisher-Rosemount Systems, Inc. System and method for detecting an abnormal situation associated with a reactor
US7333861B2 (en) * 2004-10-25 2008-02-19 Neuco, Inc. Method and system for calculating marginal cost curves using plant control models
US7467614B2 (en) 2004-12-29 2008-12-23 Honeywell International Inc. Pedal position and/or pedal change rate for use in control of an engine
US8005647B2 (en) 2005-04-08 2011-08-23 Rosemount, Inc. Method and apparatus for monitoring and performing corrective measures in a process plant using monitoring data with corrective measures data
US9201420B2 (en) 2005-04-08 2015-12-01 Rosemount, Inc. Method and apparatus for performing a function in a process plant using monitoring data with criticality evaluation data
US8112565B2 (en) 2005-06-08 2012-02-07 Fisher-Rosemount Systems, Inc. Multi-protocol field device interface with automatic bus detection
US7389773B2 (en) 2005-08-18 2008-06-24 Honeywell International Inc. Emissions sensors for fuel control in engines
US20070068225A1 (en) 2005-09-29 2007-03-29 Brown Gregory C Leak detector for process valve
US7451004B2 (en) 2005-09-30 2008-11-11 Fisher-Rosemount Systems, Inc. On-line adaptive model predictive control in a process control system
US7725573B2 (en) * 2005-11-29 2010-05-25 Intel Corporation Methods and apparatus for supporting agile run-time network systems via identification and execution of most efficient application code in view of changing network traffic conditions
US7860857B2 (en) 2006-03-30 2010-12-28 Invensys Systems, Inc. Digital data processing apparatus and methods for improving plant performance
US7840287B2 (en) * 2006-04-13 2010-11-23 Fisher-Rosemount Systems, Inc. Robust process model identification in model based control techniques
US8145358B2 (en) 2006-07-25 2012-03-27 Fisher-Rosemount Systems, Inc. Method and system for detecting abnormal operation of a level regulatory control loop
US7657399B2 (en) 2006-07-25 2010-02-02 Fisher-Rosemount Systems, Inc. Methods and systems for detecting deviation of a process variable from expected values
US8606544B2 (en) 2006-07-25 2013-12-10 Fisher-Rosemount Systems, Inc. Methods and systems for detecting deviation of a process variable from expected values
US7912676B2 (en) 2006-07-25 2011-03-22 Fisher-Rosemount Systems, Inc. Method and system for detecting abnormal operation in a process plant
US7856280B2 (en) * 2006-08-02 2010-12-21 Emerson Process Management Power & Water Solutions, Inc. Process control and optimization technique using immunological concepts
US7953501B2 (en) 2006-09-25 2011-05-31 Fisher-Rosemount Systems, Inc. Industrial process control loop monitor
US8788070B2 (en) 2006-09-26 2014-07-22 Rosemount Inc. Automatic field device service adviser
EP2392982B1 (de) 2006-09-28 2015-03-25 Fisher-Rosemount Systems, Inc. Verhinderung anomaler Situationen in einem Wärmetauscher
US7750642B2 (en) 2006-09-29 2010-07-06 Rosemount Inc. Magnetic flowmeter with verification
US7917240B2 (en) 2006-09-29 2011-03-29 Fisher-Rosemount Systems, Inc. Univariate method for monitoring and analysis of multivariate data
US8032340B2 (en) 2007-01-04 2011-10-04 Fisher-Rosemount Systems, Inc. Method and system for modeling a process variable in a process plant
US8032341B2 (en) 2007-01-04 2011-10-04 Fisher-Rosemount Systems, Inc. Modeling a process using a composite model comprising a plurality of regression models
US7827006B2 (en) 2007-01-31 2010-11-02 Fisher-Rosemount Systems, Inc. Heat exchanger fouling detection
US10410145B2 (en) 2007-05-15 2019-09-10 Fisher-Rosemount Systems, Inc. Automatic maintenance estimation in a plant environment
US8032235B2 (en) * 2007-06-28 2011-10-04 Rockwell Automation Technologies, Inc. Model predictive control system and method for reduction of steady state error
US8898036B2 (en) 2007-08-06 2014-11-25 Rosemount Inc. Process variable transmitter with acceleration sensor
US8301676B2 (en) 2007-08-23 2012-10-30 Fisher-Rosemount Systems, Inc. Field device with capability of calculating digital filter coefficients
US7702401B2 (en) 2007-09-05 2010-04-20 Fisher-Rosemount Systems, Inc. System for preserving and displaying process control data associated with an abnormal situation
US9323247B2 (en) 2007-09-14 2016-04-26 Fisher-Rosemount Systems, Inc. Personalized plant asset data representation and search system
US8340824B2 (en) 2007-10-05 2012-12-25 Neuco, Inc. Sootblowing optimization for improved boiler performance
US8055479B2 (en) 2007-10-10 2011-11-08 Fisher-Rosemount Systems, Inc. Simplified algorithm for abnormal situation prevention in load following applications including plugged line diagnostics in a dynamic process
US8078291B2 (en) * 2008-04-04 2011-12-13 Honeywell International Inc. Methods and systems for the design and implementation of optimal multivariable model predictive controllers for fast-sampling constrained dynamic systems
US8073555B2 (en) * 2008-05-06 2011-12-06 United Technologies Corporation Basepoint estimator
US7949416B2 (en) * 2008-05-06 2011-05-24 United Technologies Corporation Multivariable control system
EP2304536A4 (de) 2008-06-20 2012-08-15 Invensys Sys Inc Systeme und verfahren zur immersiven interaktion mit tatsächlichen und/oder simulierten einrichtungen zur prozess-, umwelt- und industriesteuerung
US8046089B2 (en) * 2008-06-20 2011-10-25 Honeywell International Inc. Apparatus and method for model predictive control (MPC) of a nonlinear process
US8078292B2 (en) * 2008-07-08 2011-12-13 United Technologies Corporation Basepoint estimator
US8060290B2 (en) 2008-07-17 2011-11-15 Honeywell International Inc. Configurable automotive controller
US7921734B2 (en) 2009-05-12 2011-04-12 Rosemount Inc. System to detect poor process ground connections
US8463964B2 (en) 2009-05-29 2013-06-11 Invensys Systems, Inc. Methods and apparatus for control configuration with enhanced change-tracking
US8127060B2 (en) 2009-05-29 2012-02-28 Invensys Systems, Inc Methods and apparatus for control configuration with control objects that are fieldbus protocol-aware
US8620461B2 (en) 2009-09-24 2013-12-31 Honeywell International, Inc. Method and system for updating tuning parameters of a controller
JP4888618B2 (ja) * 2010-04-19 2012-02-29 日本電気株式会社 処理手順管理装置、処理手順管理方法、処理手順管理システム、および処理手順管理プログラム
US8504175B2 (en) 2010-06-02 2013-08-06 Honeywell International Inc. Using model predictive control to optimize variable trajectories and system control
US8670945B2 (en) 2010-09-30 2014-03-11 Honeywell International Inc. Apparatus and method for product movement planning to support safety monitoring in inventory management systems
US9207670B2 (en) 2011-03-21 2015-12-08 Rosemount Inc. Degrading sensor detection implemented within a transmitter
US9927788B2 (en) 2011-05-19 2018-03-27 Fisher-Rosemount Systems, Inc. Software lockout coordination between a process control system and an asset management system
US9677493B2 (en) 2011-09-19 2017-06-13 Honeywell Spol, S.R.O. Coordinated engine and emissions control system
US9650934B2 (en) 2011-11-04 2017-05-16 Honeywell spol.s.r.o. Engine and aftertreatment optimization system
US20130111905A1 (en) 2011-11-04 2013-05-09 Honeywell Spol. S.R.O. Integrated optimization and control of an engine and aftertreatment system
US9529348B2 (en) 2012-01-24 2016-12-27 Emerson Process Management Power & Water Solutions, Inc. Method and apparatus for deploying industrial plant simulators using cloud computing technologies
CN103513618B (zh) * 2012-06-18 2016-01-27 新奥科技发展有限公司 工业过程的控制方法和设备
US9052240B2 (en) 2012-06-29 2015-06-09 Rosemount Inc. Industrial process temperature transmitter with sensor stress diagnostics
US9207129B2 (en) 2012-09-27 2015-12-08 Rosemount Inc. Process variable transmitter with EMF detection and correction
US9602122B2 (en) 2012-09-28 2017-03-21 Rosemount Inc. Process variable measurement noise diagnostic
EP3051367B1 (de) 2015-01-28 2020-11-25 Honeywell spol s.r.o. Ansatz und system zur handhabung von einschränkungen für gemessene störungen mit unsicherer vorschau
EP3056706A1 (de) 2015-02-16 2016-08-17 Honeywell International Inc. Ansatz zur nachbehandlungssystemmodellierung und modellidentifizierung
EP3091212A1 (de) 2015-05-06 2016-11-09 Honeywell International Inc. Identifikationsansatz für verbrennungsmotor-mittelwertmodelle
EP3734375B1 (de) 2015-07-31 2023-04-05 Garrett Transportation I Inc. Quadratischer programmlöser für mpc mit variabler anordnung
US10272779B2 (en) 2015-08-05 2019-04-30 Garrett Transportation I Inc. System and approach for dynamic vehicle speed optimization
JP6788349B2 (ja) * 2016-01-14 2020-11-25 三菱重工業株式会社 プラント評価装置及びプラント評価方法
US10415492B2 (en) 2016-01-29 2019-09-17 Garrett Transportation I Inc. Engine system with inferential sensor
CN105652666B (zh) * 2016-03-09 2018-09-11 中南大学 基于bp神经网络的大型模锻压机上横梁速度预测控制方法
US10036338B2 (en) 2016-04-26 2018-07-31 Honeywell International Inc. Condition-based powertrain control system
US10124750B2 (en) 2016-04-26 2018-11-13 Honeywell International Inc. Vehicle security module system
WO2018029393A1 (en) * 2016-08-08 2018-02-15 Triplewin Oy A method, system, computer program product and computer data-base for controlling an industrial process or machine
EP3548729B1 (de) 2016-11-29 2023-02-22 Garrett Transportation I Inc. Inferenzflusssensor
DE102017205713A1 (de) * 2017-04-04 2018-10-04 Siemens Aktiengesellschaft Verfahren und Steuereinrichtung zum Steuern eines technischen Systems
US11057213B2 (en) 2017-10-13 2021-07-06 Garrett Transportation I, Inc. Authentication system for electronic control unit on a bus
JP6536978B1 (ja) * 2018-03-15 2019-07-03 オムロン株式会社 学習装置、学習方法、及びそのプログラム
US11480934B2 (en) 2019-01-24 2022-10-25 Uptake Technologies, Inc. Computer system and method for creating an event prediction model

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4907167A (en) * 1987-09-30 1990-03-06 E. I. Du Pont De Nemours And Company Process control system with action logging
US5119468A (en) * 1989-02-28 1992-06-02 E. I. Du Pont De Nemours And Company Apparatus and method for controlling a process using a trained parallel distributed processing network
US5111531A (en) * 1990-01-08 1992-05-05 Automation Technology, Inc. Process control using neural network
US5394322A (en) * 1990-07-16 1995-02-28 The Foxboro Company Self-tuning controller that extracts process model characteristics
US5197114A (en) * 1990-08-03 1993-03-23 E. I. Du Pont De Nemours & Co., Inc. Computer neural network regulatory process control system and method
US5121467A (en) * 1990-08-03 1992-06-09 E.I. Du Pont De Nemours & Co., Inc. Neural network/expert system process control system and method
US5282261A (en) * 1990-08-03 1994-01-25 E. I. Du Pont De Nemours And Co., Inc. Neural network process measurement and control
US5212765A (en) * 1990-08-03 1993-05-18 E. I. Du Pont De Nemours & Co., Inc. On-line training neural network system for process control
US5175678A (en) * 1990-08-15 1992-12-29 Elsag International B.V. Method and procedure for neural control of dynamic processes
US5471381A (en) * 1990-09-20 1995-11-28 National Semiconductor Corporation Intelligent servomechanism controller
US5241620A (en) * 1991-01-03 1993-08-31 Promised Land Technologies, Inc. Embedding neural networks into spreadsheet applications
US5251131A (en) * 1991-07-31 1993-10-05 Thinking Machines Corporation Classification of data records by comparison of records to a training database using probability weights
JPH07502354A (ja) * 1991-12-18 1995-03-09 ハネウエル・インコーポレーテッド 閉ループ神経ネットワーク自動同調器
US5396415A (en) * 1992-01-31 1995-03-07 Honeywell Inc. Neruo-pid controller
GB2266602B (en) * 1992-04-16 1995-09-27 Inventio Ag Artificially intelligent traffic modelling and prediction system
US5479573A (en) * 1992-11-24 1995-12-26 Pavilion Technologies, Inc. Predictive network with learned preprocessing parameters
US5521813A (en) * 1993-01-15 1996-05-28 Strategic Weather Services System and method for the advanced prediction of weather impact on managerial planning applications
CA2118885C (en) * 1993-04-29 2005-05-24 Conrad K. Teran Process control system
US5486998A (en) * 1993-06-14 1996-01-23 Amax Coal West, Inc. Process stabilizing process controller
US5539638A (en) * 1993-08-05 1996-07-23 Pavilion Technologies, Inc. Virtual emissions monitor for automobile
US5461699A (en) * 1993-10-25 1995-10-24 International Business Machines Corporation Forecasting using a neural network and a statistical forecast

Also Published As

Publication number Publication date
DE69518208D1 (de) 2000-09-07
US5704011A (en) 1997-12-30
EP0712060A1 (de) 1996-05-15
EP0712060B1 (de) 2000-08-02

Similar Documents

Publication Publication Date Title
DE69518208T2 (de) Verfahren und Vorrichtung zur Erzeugung einer Mehrgrössen-/nichtlinearen Steuerung
DE69511991T2 (de) Verfahren und Vorrichtung zur Steuerung von Mehrgrössen-/nichtlinearen Systemen
DE10197407B4 (de) Adaptiver rückgekoppelter/vorwärtsgekoppelter PID-Controller
DE69518965T2 (de) Mehrgrössen-/nichtlineare Prozesssteuerung
DE69315423T2 (de) Neuro-Pid Regler
DE102006045429B4 (de) Adaptive, Modellprädiktive Online-Steuerung in einem Prozesssteuerungssystem
DE69823049T2 (de) Modellfreie adaptive prozesssteuerung
DE69123026T2 (de) Einstellgerät mit Selbstüberwachung für einen Regler mit Rückkopplung
DE69717987T2 (de) Methode und vorrichtung zur simulation von dynamischen und stationären prädiktions-, regelungs- und otpimierungsverfahren
DE69225605T2 (de) Auf einem neuronalen netzwerk basierende automatische einstellvorrichtung für einen geschlossenen regelkreis
DE69515323T2 (de) Modellgestützte prädiktive regelungsvorrichtung und -verfahren
DE2735012C2 (de)
DE69309475T2 (de) Strukturierter optimalratenregler mit mehereren ein- und ausgangen
DE3750203T2 (de) Adaptives Prozessregelungssystem.
DE102004026979B4 (de) Vielfacheingabe- /Vielfachausgabe-Steuer-/Regelblöcke mit nichtlinearen Vorhersagefähigkeiten
DE69130840T2 (de) Neuronales Netzwerk zum Verarbeiten einer Vielzahl von Informationen und Lernverfahren
DE60102242T2 (de) Rechnerverfahren und gerät zur beschränkung einer nicht-linearen gleichungsnäherung eines empirischen prozesses
DE69431822T2 (de) Vorrichtung und Verfahren für eine modellbasierende Prozesssteuerung
DE602004007069T2 (de) Modellgestütze prädiktive Regelung
DE69420734T2 (de) Mehrbereichs-fuzzy-logik regelungssystem mit hilfsvariablen
DE69219167T2 (de) Steuerungsverfahren für Spannung oder Blindleistung sowie Steuereinrichtung dafür
DE102007017039A1 (de) Robuste Prozessmodellidentifikation bei modellbasierten Steuerungstechniken
DE112005001789T5 (de) Servosteuervorrichtung
DE10341573A1 (de) Integrierte modellbasierte prädikative Steuerung und Optimierung innerhalb eines Prozesssteuerungssystems
DE10304902A1 (de) Anpassung von erweiterten Prozeßsteuerblöcken in Abhängigkeit von veränderlichen Prozeßverzögerungen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: INVENSYS SYSTEMS, INC., FOXBORO, MASS., US