DE10127790A1 - Adaptives Vorhersagemodell in einem Prozeßsteuerungssystem - Google Patents

Adaptives Vorhersagemodell in einem Prozeßsteuerungssystem

Info

Publication number
DE10127790A1
DE10127790A1 DE10127790A DE10127790A DE10127790A1 DE 10127790 A1 DE10127790 A1 DE 10127790A1 DE 10127790 A DE10127790 A DE 10127790A DE 10127790 A DE10127790 A DE 10127790A DE 10127790 A1 DE10127790 A1 DE 10127790A1
Authority
DE
Germany
Prior art keywords
prediction model
process parameter
value
output
adaptive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10127790A
Other languages
English (en)
Other versions
DE10127790B4 (de
Inventor
Sai Ganesamoorthi
Terrence L Blevins
Vasiliki Tzovla
Wilhelm K Wojsznis
Ashish Mehta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fisher Rosemount Systems Inc
Original Assignee
Fisher Rosemount Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=24363000&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE10127790(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Fisher Rosemount Systems Inc filed Critical Fisher Rosemount Systems Inc
Publication of DE10127790A1 publication Critical patent/DE10127790A1/de
Application granted granted Critical
Publication of DE10127790B4 publication Critical patent/DE10127790B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/048Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators using a predictor

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Abstract

Ein adaptives Vorhersagemodell weist auf: ein Standard-Vorhersagemodell wie etwa ein Neuronennetz oder ein natürliches Modell, das so aufgebaut ist, daß es einen Ausgang erzeugt, der einen Prozeßparameter vorhersagt, und ein Kombinationsnetz, das den Ausgang des Vorhersagemodells mit einem oder mehreren Meßwerten des Prozeßparameters kombiniert, um während des Ablaufs des Prozesses einen eingestellten vorhergesagten Prozeßparameter zu bilden. Das adaptive Vorhersagemodell vermindert oder korrigiert nichtlineare sowie lineare Fehler in der Vorhersage einer Prozeßvariablen, ohne daß das Vorhersagemodell selbst neu zu bilden ist, und erfordert gleichzeitig nur geringfügige Zunahmen der Verarbeitungsleistung und -zeit.

Description

Die vorliegende Erfindung betrifft allgemein die Anwendung von Vorhersagemodellen in Prozeßsteuerungssystemen und spe­ ziell die adaptive Einstellung des Ausgangs eines Vorhersa­ gemodells unter Nutzung von Messungen von Prozeßparametern.
In vielen Bereichen der Prozeßsteuerungsindustrie ist es üblich, daß ein kritischer Parameter wie etwa die Zusammen­ setzung eines Flüssigkeits- oder Gasstroms schwer zu messen ist oder nur unter Anwendung von Offline-Verfahren gemessen werden kann. Häufig werden solche Parameter durch eine Off­ line-Laboranalyse oder durch die Anwendung eines Online- Analysators gewonnen, der entweder nur schwer auf kontinu­ ierlicher Basis gehalten werden kann oder unzuverlässig ist. Wenn aus irgendeinem Grund wie etwa zur Durchführung der Prozeßsteuerung eine Schätzung des kritischen Parame­ ters benötigt wird, wird bisher irgendeines einer Reihe von mathematischen Verfahren angewandt, um ein Prozeßmodell zu erstellen, das den schwer meßbaren Prozeßparameter auf der Basis von Prozeßeingängen oder Parametern vorhersagt, die während des laufenden Prozesses leicht zu messen oder zu gewinnen sind.
Insbesondere ist es allgemein bekannt, eines oder mehrere- Vorhersagemodelle wie etwa ein nichtparametrisches Mo­ dell (z. B. Neuronennetz-Modelle), ein natürliches Modell (z. B. Modelle des ersten Prinzips) bzw. first principle mo­ dels oder ein parametrisches Modell (durch Regressionstech­ niken erhalten) in Prozeßsteuerungssystemen anzuwenden, um Prozeßparameter zu schätzen. Ein Gebrauch eines Vorhersage­ modells ist als ein virtueller Sensor, der dazu dienen kann, den Ausgang eines fiktiven Sensors an irgendeiner Stelle innerhalb eines Prozeßsteuerungssystems zu schätzen oder vorherzusagen. Wie oben angedeutet, wird ein virtuel­ ler Sensor typischerweise dann verwendet, wenn es schwierig oder unmöglich ist, einen echten Sensor an dem gewünschten Prozeßort anzuordnen. Ein virtueller Sensor kann auch dazu verwendet werden, Prozeßparameter vorherzusagen, für die keine realen Sensoren vorhanden sind, beispielsweise zur Messung von Parametern wie Geruch oder Geschmack, die eine Beurteilung seitens einer Bedienungsperson zu ihrer Bestim­ mung erfordern. Eine weitere Anwendung eines Vorhersagemo­ dells ist als Kreuzanalysator, um den ordnungsgemäßen Be­ trieb eines Sensors innerhalb eines Prozesses zu überprü­ fen. Wenn beispielsweise der Kreuzanalysator und der Sensor hinreichend verschiedene Messungen erzeugen, kann dies ein Anzeichen dafür sein, daß der Sensor auf irgendeine Weise nicht ordnungsgemäß arbeitet.
Es ist bekannt, daß Neuronennetz-Vorhersagemodelle aus Men­ gen von Lerndaten aufgebaut werden, wobei jede Lerndaten­ menge einen Wert für jeden einer Reihe von Prozeßeingän­ gen/-ausgängen (die Eingänge für das Modell sind) hat und ein Wert des Prozeßparameters vorhergesagt oder geschätzt wird. Nach Entwicklung aus den Lerndaten wird das Neuronen­ netz-Modell dann innerhalb der Umgebung des Prozeßsteue­ rungssystems eingesetzt, um den Prozeßparameter vorherzusa­ gen, selbst wenn ein realer Sensor während des laufenden Prozesses keine oder nur begrenzte Messungen des Parameters vornimmt. Natürliche Modelle oder Modelle nach dem ersten Prinzip verwenden typischerweise eine oder mehrere mathema­ tische Gleichungen, um das Verhalten der vorherzusagenden Phänomene im Modell darzustellen.
Vorhersagemodelle, die zur Vorhersage des Werts einer Pro­ zeßsteuergröße verwendet werden, unterliegen verschiedenen Fehlerarten wie etwa systematischen Fehlern, Driftfehlern, nichtlinearen Fehlern usw. Systematische Fehler sind sol­ che, bei denen der Ausgang des Modells in bezug auf den Wert des tatsächlichen vorherzusagenden Prozeßparameters eine systematische Abweichung hat. Systematische Abweichun­ gen können mathematisch in Form von y = x + B dargestellt werden, wobei y der vorhergesagte oder im Modell darge­ stellte Prozeßparameterwert ist, x der tatsächliche Prozeß­ parameterwert ist und B die systematische Abweichung ist. Driftfehler sind Fehler, die linear oder zu dem Wert des im Modell dargestellten Prozeßparameters proportional sind, und können in Form von y = Ax dargestellt werden, wobei A der Driftfehler-Multiplikator ist. Nichtlineare Fehler sind solche, die in bezug auf den tatsächlichen Prozeßparameter nichtlinear sind, und können mathematisch in Form von y = f(x) dargestellt werden, was bedeutet, daß der Vorhersage­ wert y eine nichtlineare Funktion des tatsächlichen Werts x ist. Nichtlineare Fehler treten aus vielen Gründen auf, re­ sultieren jedoch häufig daraus, daß das Vorhersagemodell unbeabsichtigt so erstellt ist, daß es irgendeine nichtli­ neare Fehlerkomponente aufweist. Beispielsweise enthält ein natürliches Modell vielleicht keine Effekte höherer Ordnung (zweiter, dritter usw. Ordnung) der im Modell darzustellen­ den Phänomene, ein Neuronennetz kann aus einer unvollstän­ digen oder unzureichenden Menge von Lerndaten erstellt sein usw., was dazu führt, daß der Ausgang des Modells eine nichtlineare Fehlerkomponente hat. Abgesehen von Unzuläng­ lichkeiten in dem Modell können diese Fehler auch durch Än­ derungen der Prozeßeinrichtungen oder durch nicht gemessene Prozeßeingänge wie etwa die Zusammensetzung des Einsatzma­ terials, die sich direkt auf den Prozeßausgang auswirken, hervorgerufen sein. Da nicht gemessene Prozeßeingänge und Änderungen des Prozeßablaufs innerhalb der Prozeßsteue­ rungsindustrie üblich sind, hat die Anwendung von Neuronen­ netzen, Modellen nach dem ersten Prinzip oder anderen all­ gemein verfügbaren Vorhersagemodellen nur begrenzten indu­ striellen Erfolg bei der Bereitstellung einer zuverlässigen Vorhersage von kritischen Prozeßausgängen.
In der Vergangenheit bestand die einzige Möglichkeit, einer Korrektur von linearen oder nichtlinearen Fehlern, die durch eine Nichtübereinstimmung zwischen dem entwickelten Modell und dem eigentlichen Prozeß hervorgerufen waren, in einer Überarbeitung des Modells unter Verwendung anderer oder genauerer Gleichungen, Anwendung einer anderen oder vollständigeren Lerndatenmenge usw. Der Vorgang des Neuer­ stellens oder Überarbeitens eines Vorhersagemodells ist zeitraubend, verlangt gewöhnlich einen Experten, kann enor­ me Mengen an Verarbeitungsenergie und -zeit erfordern und typischerweise nicht während des Echtzeit-Prozeßbetriebs durchgeführt werden. Ferner gibt es keine Garantie, daß die Vorhersage des neu entwickelten Vorhersagemodells fehler­ frei ist. Anstatt einer adaptiven Korrektur des Ausgangs eines Vorhersagemodells, die beispielsweise in einem Pro­ zeßsteuerungssystem angewandt wird, wird die Vorhersagefä­ higkeit eines Vorhersagemodells bisher periodisch über­ prüft, indem tatsächliche Messungen des vorhergesagten Pro­ zeßparameters verwendet und diese Messungen mit dem Ausgang des Vorhersagemodells verglichen werden. Einer oder mehrere solche Vergleichsvorgänge wurden typischerweise verwendet, um festzustellen, ob die Modellvorhersage Fehler aufwies.
Die Vergleichsschritte wurden jedoch nicht dazu genutzt, das Modell anzupassen. Statt dessen wurden diese Vergleiche dazu genutzt festzustellen, ob das Modell einen Ausgang er­ zeugt, der tolerierbar ist, und wenn das nicht der Fall war, das Modell unter Anwendung herkömmlicher Modelletstel­ lungstechniken neu zu bilden.
Die vorliegende Erfindung richtet sich auf die adaptive Mo­ difikation oder Einstellung des Ausgangs eines typischen Vorhersagemodells wie etwa eines Neuronennetz-Modells oder eines natürlichen Modells unter Nutzung von tatsächlichen Prozeßmessungen; um dadurch nichtlineare sowie lineare Feh­ ler zu verringern oder zu korrigieren, ohne daß das Vorher­ sagemodell selber neu gebildet werden muß. Ein solches ad­ aptives Vorhersagemodell kann innerhalb eines Prozesses auf kontinuierlicher Basis während des Betriebs eines Prozeß­ steuerungssystems mit im Vergleich zu Standard-Vorhersage­ modellen nur kleineren Zunahmen bei der Verarbeitung leicht implementiert werden. Allgemein gesagt verwendet das adap­ tive Vorhersagemodell gemessene Prozeßeingänge in Verbin­ dung mit Messungen von Prozeßparametern, die beispielsweise von einer Laborprobe oder einem Analysator gewonnen sind, auf einer kontinuierlichen, einer periodischen oder sogar einer unregelmäßigen oder nichtperiodischen Basis, um den Ausgang eines Standard-Vorhersagemodells anzupassen. Bei Anwendung dieses Rückführungsmechanismus kann der vorherge­ sagte Wert des Prozeßparameters automatisch angepaßt wer­ den, um nichtgemessene Störungen und Änderungen im Prozeß­ ablauf auszugleichen.
Gemäß einem Aspekt der vorliegenden Erfindung weist ein adaptives Vorhersagemodell zur Verwendung bei der Schätzung eines Prozeßparameters folgendes auf: ein Vorhersagemodell, das so konfiguriert ist, daß es einen oder mehrere Modell­ eingänge empfängt und einen Vorhersagewert des Prozeßpara­ meters auf der Basis des einen oder der mehreren Modellein­ gänge erzeugt, und einen Meßeingang, der zum Empfang einer Messung des Prozeßparameters ausgebildet ist. Das adaptive Vorhersagemodell weist ferner ein Kombinationsnetz auf, das mit dem Meßeingang gekoppelt ist, um die Prozeßparameter­ messung zu empfangen, und mit dem Vorhersagemodell gekop­ pelt ist, um den Vorhersagewert des Prozeßparameters zu empfangen. Das Kombinationsnetz kombiniert die Prozeßpara­ metermessung mit dem Vorhersagewert des Prozeßparameters, um einen eingestellten Vorhersagewert des Prozeßparameters zu erzeugen.
Das Kombinationsnetz kann einen Korrekturblock, der einen Korrekturfaktor bestimmt, und ein Summierglied aufweisen, das den Korrekturfaktor mit dem Vorhersagewert des Prozeß­ parameters addiert und den eingestellten Vorhersagewert des Prozeßparameters erzeugt. Der Korrekturfaktor kann von ei­ nem Korrekturblock erzeugt werden, der eine Verzögerungs­ einheit aufweist, die mit dem Vorhersagemodell gekoppelt ist, um den Vorhersagewert des Prozeßparameters beispiels­ weise um eine Proben- bzw. Stichprobenverzögerung zu verzö­ gern, um ihn mit der aktuellen Prozeßparametermessung zeit­ lich koinzident zu machen. Das Ergebnis des Vergleichs kann verarbeitet und gefiltert werden, um den Korrekturfaktor zu erzeugen, der mit dem aktuellen Ausgang des Vorhersagemo­ dells addiert wird, um einen eingestellten Wert für den ak­ tuellen Zeitpunkt zu erzeugen. Derselbe Korrekturfaktor kann beibehalten und mit anschließenden Ausgängen des Vor­ hersagemodells äddiert werden, bis eine neue Prozeßparame­ termessung verfügbar ist.
Bei einer anderen Ausführungsform weist das Kombinations­ netz folgendes auf: eine Verzögerungseinheit, die so gekop­ pelt ist, daß sie den Vorhersagewert des Prozeßparameters verzögert, eine Multiplikationseinheit, die den verzögerten Vorhersagewert des Prozeßparameters und die Prozeßparame­ termessung mit regressiven Fehlerquadrat-Koeffizienten mul­ tipliziert, und ein Summierglied, das den multiplizierten Vorhersagewert des Prozeßparameters und die multiplizierte Prozeßparametermessung addiert, um den eingestellten Vor­ hersagewert des Prozeßparameters zu erzeugen.
Gemäß einem anderen Aspekt der vorliegenden Erfindung weist ein Verfahren zum Einstellen eines Ausgangs eines Vorhersa­ gemodells, das einen Schätzwert eines Prozeßparameters wäh­ rend des Ablaufs eines Prozesses auf der Basis einer dem Vorhersagemodell zugeführten Serie von Eingängen erzeugt, die folgenden Schritte auf: Messen des Prozeßparameters während des Betriebs des Prozesses, um eine Prozeßparame­ termessung zu erzeugen, Erzeugen eines Korrekturfaktors un­ ter Nutzung der Messung des Prozeßparameters und Kombinie­ ren des Korrekturfaktors mit dem Ausgang des Vorhersagemo­ dells, um einen eingestellten Vorhersagemodell-Ausgang zu erzeugen, der den Prozeßparameter während des Ablaufs des Prozesses schätzt.
Fig. 1 ist ein Blockbild eines adaptiven Vorhersagemo­ dells, das mit einem Prozeß gekoppelt ist;
Fig. 2 ist ein detailliertes Blockbild eines adaptiven Vorhersagemodells, das eine erste Ausführungsform eines Kombinationsnetzes hat und mit einem Prozeß gekoppelt ist;
Fig. 3 ist ein detailliertes Blockbild eines adaptiven Vorhersagemodells, das eine zweite Ausführungs­ form eines Kombinationsnetzes hat und mit einem Prozeß gekoppelt ist;
Fig. 4 ist ein detailliertes Blockbild eines adaptiven Vorhersagemodells, das eine dritte Ausführungs­ form eines Kombinationsnetzes hat und mit einem Prozeß gekoppelt ist; und
Fig. 5 ist ein Blockbild eines Prozeßsteuerungsnetzes, in dem. eines oder mehrere der adaptiven Vorhersa­ gemodelle der Fig. 1 bis 3 vorgesehen sind.
Gemäß Fig. 1 ist ein adaptives Vorhersagemodell 10 mit ei­ nem Prozeß 12 gekoppelt, der jede gewünschte Art von Prozeß sein kann, was beispielsweise einen kontinuierlichen Prozeß oder einen diskontinuierlichen Prozeß einschließt. Das adaptive Vorhersagemodell 10 weist ein typisches oder be­ kanntes Vorhersagemodell 14 auf, dessen Ausgang y mit einem Kombinationsnetz 16 gekoppelt ist. Das Vorhersagemodell 14 kann beispielsweise ein nichtparametrisches Modell (wie et­ wa ein Neuronennetz-Modell), ein natürliches Modell (wie etwa ein Modell des ersten Prinzips), ein parametrisches Modell (wie es etwa unter Anwendung von Regressionsverfah­ ren erhalten wird) oder jede andere gewünschte Art von Vor­ hersagemodell sein. Das Vorhersagemodell 14 hat Eingänge, die kommunikativ mit geeigneten Eingängen und/oder Ausgän­ gen des Prozesses 12 verbunden sind, wie das gewöhnlich bei Vorhersagemodellen der Fall ist. Selbstverständlich kann das Vorhersagemodell 14 auf jede gewünschte oder bekannte Weise ausgebildet sein und kann als Eingänge jeden der Ein­ gänge zum Prozeß 12, jeden der gemessenen Parameter oder Prozeßparameter, die von dem Prozeß 12 erzeugt werden, oder alle anderen Eingänge nutzen, wie es unter den jeweiligen Umständen erwünscht oder erforderlich ist. Der Ausgang y des Vorhersagemodells 14 kann den Wert irgendeines ge­ wünschten Signals, einer Größe, eines Parameters oder eines anderen Phänomens (hier als Prozeßparameter x bezeichnet) innerhalb des Prozesses 12 oder auf diesen bezogen vorher­ sagen oder schätzen. Beispielsweise kann das Vorhersagemo­ dell 14 also ein virtueller Sensor, ein Kreuzanalysator usw. sein. Wie jedoch oben erörtert wurde, muß der Ausgang y typischerweise in bezug auf nichtlineare Fehler, systema­ tische Fehler, Driftfehler oder eine Kombination derselben in bezug auf den tatsächlichen Prozeßparameter x korrigiert werden.
Messungen des Parameters x, die innerhalb des Prozesses 12 erhalten werden können, indem beispielsweise periodische oder nichtperiodische Messungen genutzt werden, wie sie et­ wa von Netzanalysatoren, Laboranalysatoren, Sensoren oder Einfangprobenanalysatoren oder auf jede andere gewünschte Weise erhalten werden, werden einem Meßeingang des Kombina­ tionsnetzes 16 innerhalb des adaptiven Vorhersägemodells 10 zugeführt. Falls gewünscht, können den Prozeßparameter x messende Analysatoren oder Sensoren periodisch an den Pro­ zeß 12 angeschaltet werden, so daß geeignete Proben des Pa­ rameters x erhalten werden, und die Meßwerte des Parameters x können dann dem adaptiven Vorhersagemodell 10 zugeführt werden. Selbstverständlich können die Meßwerte des Parame­ ters x zu jedem Zeitpunkt wie etwa auf einer kontinuierli­ chen oder periodischen Basis gewonnen und dem adaptiven Vorhersagemodell 10 zugeführt werden. Ebenso können die Meßwerte für den Parameter x zu einem oder mehreren Zeit­ punkten während des Ablaufs des Prozesses 12 gebildet wer­ den, brauchen aber nicht unbedingt auf einer kontinuierli­ chen Basis oder auch einer regelmäßigen periodischen Basis gebildet zu werden. Je mehr Messungen des Parameters x je­ doch durchgeführt werden, um so besser funktioniert das adaptive Vorhersagemodell 10. Ferner kann der Meßeingang des Kombinationsnetzes 16 die Meßwerte des Prozeßparameters x empfangen und speichern.
Im Betrieb vergleicht das Kombinationsnetz 16 oder kombi­ niert auf andere Weise den Ausgang y mit dem Meßwert (den Meßwerten) des Prozeßparameters x zum Erzeugen eines einge­ stellten Vorhersagewerts yadj, der ein eingestellter oder korrigierter Wert des Vorhersagesignals y ist. Tatsächlich stellt das Kombinationsnetz 16 den Ausgang y auf der Basis von begrenzten tatsächlichen Messungen des Parameters x, die während des Betriebs des Prozesses 12 durchgeführt wer­ den, adaptiv ein, um das Signal yadj zu erzeugen. Der Aus­ gang yadj des adaptiven Vorhersagemodells 10 kann auf die gleiche Weise genutzt werden, wie der Ausgang y des typi­ schen oder Standard-Vorhersagemodells 14 bisher genutzt wurde. Daher kann das adaptive Vorhersagemodell 10 anstelle des Vorhersagemodells 14 bei den meisten Anwendungen be­ nutzt werden, und zwar insbesondere bei den Anwendungen, bei denen es möglich ist, Messungen des tatsächlichen Pro­ zeßparameters x zu irgendeinem Zeitpunkt während des Ab­ laufs des Prozesses 12 durchzuführen.
Allgemein gesprochen kann das Kombinationsnetz 16 den Aus­ gang y des Modells 14 um "Delay"-Einheiten verzögern (z. B. speichern) und dann den verzögerten oder gespeicherten Wert y mit einem zeitlich koinzidenten Meßwert des Parameters x zu vergleichen, um ein Fehlersignal e zu erzeugen. Das Feh­ lersignal e kann dann geglättet oder gefiltert und mit dem Wert y auf irgendeine Weise kombiniert werden, um den ein­ gestellten Wert yadj zu bilden. Auf diese Weise kann der Ausgang des Standard-Vorhersagemodells 14 während des Pro­ zeßablaufs mit nur geringem Verarbeitungsaufwand einge­ stellt werden, um eine genauere Vorhersage zu erzeugen, die geringere Nichtlinearitäts-, systematische und Driftfehler hat, ohne daß das Prozeßmodell 14 neu gebildet werden muß. Ferner kann das Kombinationsnetz 16 während des Ablaufs des Prozesses 12 kontinuierlich wirksam sein, auch wenn der tatsächliche Wert des Prozeßparameters x nur periodisch oder zu verschiedenen regelmäßig festgelegten oder unregel­ mäßigen Zeiten gemessen wird, um so den Ausgang y des Mo­ dells 14 während des Ablaufs des Prozesses 12 kontinuier­ lich einzustellen.
Fig. 2 zeigt ein Blockbild eines adaptiven Vorhersagemo­ dells 10, wobei die Einzelheiten eines möglichen Kombinati­ onsnetzes 16a mehr im Detail gezeigt sind. In Fig. 2 ist das Vorhersagemodell 14 als ein Mitkopplungs-Neuronen­ netzmodell gezeigt, dessen Eingänge mit Prozeßeingängen ge­ koppelt sind, was für Mitkopplungs-Neuronennetz-Vorhersage­ modelle typisch ist. Ebenso versteht es sich in Fig. 2, daß der Prozeßparameter x zu verschiedenen Zeitpunkten von ei­ nem Netzanalysator oder irgendeinem anderen Erfassungssen­ sor oder -prozeß gemessen werden kann und daß die Werte des Parameters x einem Meßeingang des adaptiven Vorhersagemo­ dells 10 auf eine gewünschte Weise wie etwa automatisch oder über Bedienereingabe zugeführt und nach Bedarf gespei­ chert werden. Ferner wird dem adaptiven Vorhersagemodell 10 eine Meldung über den Zeitpunkt, zu dem die Messung durch­ geführt wurde, oder auch die Probenverzögerung (als Delay- Variable bezeichnet) zugeführt.
Im allgemeinen umfaßt das Kombinationsnetz 16a einen Kor­ rekturblock, der einen Korrekturfaktor bestimmt, und eine Kombinationseinheit, die den Korrekturfaktor mit dem Aus­ gang y (oder irgendeiner skalierten und/oder verzögerten Version desselben) kombiniert, um den eingestellten Ausgang yadj zu bilden. Bei der Ausführungsform von Fig. 2 wird der Ausgang y des Vorhersagemodells 14 einer Verzögerungsein­ heit 20 zugeführt, die dieses Signal um eine Verzögerung verzögert, die entsprechend der Verzögerungsvariablen vor­ gegeben ist, die beispielsweise vom Bediener auf der Basis des Zeitpunkts, zu dem die Messung des Prozeßparameters x erfolgt ist, bestimmt wird oder von der Verzögerungseinheit 20 automatisch bestimmt werden kann. Typischerweise wird der Wert der Verzögerungsvariablen mit der Probenahme- oder Meßverzögerung zwischen dem Ausgang y des Modells 14 und dem Zeitpunkt, zu dem die Messung der Prozeßvariablen x entsprechend dieser Probe dem adaptiven Vorhersagemodell 10 zugeführt wird, vorgegeben. Um genau zu sein, ist daher der Ausgang des Modells 14 y(t), während der Ausgang der Verzö­ gerungseinheit 20 y(t-Delay) ist. Es versteht sich, daß die Verzögerungseinheit 20 jede gewünschte Art von Verzöge­ rungseinheit sein kann, beispielsweise eine Verzögerungs­ leitung oder ein Speicher, der Digitalwerte des Ausgangs y für verschiedene Zeitpunkte speichert.
Der Ausgang y(t) der Verzögerungseinheit 20 wird einem ne­ gativen (invertierenden) Eingang eines Summierglieds 22 zu­ geführt, wo er von dem gemessenen Prozeßparameter x(t) sub­ trahiert wird. Das Summierglied 22 erzeugt ein Fehlersignal e(t), das ein Korrekturfaktor ist, der die Differenz zwi­ schen dem tatsächlichen Wert des Prozeßparameters x zum Zeitpunkt t und dem Vorhersagewert dieses Parameters, der von dem Modell 14 für den Zeitpunkt t erzeugt wurde, ist. In diesem Fall kann also das Ausgangssignal des Summier­ glieds 22 als e(t) = x(t)-y(t-Delay) geschrieben werden.
Danach wird das Fehlersignal e(t) einem Grenzwertdetektor 24 mit einer oberen und einer unteren Grenze zugeführt, die verhindern, daß der Fehler abnormal große oder kleine Werte annimmt. Solche Situationen können auftreten, wenn der Pro­ zeßmeßwert x fehlerverdächtig ist oder wenn der Vorhersage­ wert y des Modells fehlerverdächtig ist. Der Prozeßmeßwert könnte fehlerverdächtig sein, wenn der zur Bestimmung des Werts benutzte Sensor fehlerhaft ist oder ein menschlicher Fehler bei der Bestimmung des Prozeßmeßwerts x vorliegt. Eine fehlerverdächtige Vorhersage durch das Modell könnte ebenfalls resultieren, wenn die Eingänge zu dem Modell 14 (zum Zeitpunkt t), die in dem Ausgang y(t) resultierten, außerhalb der Grenzen waren, die zum Erstellen des Vorher­ sagemodells benutzt wurden. Unzulänglichkeiten in dem Mo­ dell, die durch ungenaue Methoden bei der Erstellung des Modells verursacht sind, sind eine weitere Fehlerquelle und können auch dann auftreten, wenn die Eingänge innerhalb der bei der Modellerstellung angewandten Grenzen sind. Unter diesen Umständen wird der Anwender bevorzugt mit einem Mer­ ker oder einem Fehlersignal gewarnt, daß die Fehlergrenzen verletzt wurden, was eine fehlerverdächtige Einstellung für die Modellvorhersage bedeutet. Im Fall einer fehlerverdäch­ tigen Einstellung oder eines Fehlers beseitigt der Grenz­ wertdetektor 24 das Fehlersignal e(t), um zu verhindern, daß dieses Fehlersignal genutzt wird, um den Ausgang y des Modells 14 adaptiv einzustellen. Selbstverständlich muß der Grenzwertdetektor 24 den Fehler speichern oder verfolgen, indem beispielsweise die Grenzwerte des gemessenen Prozeß­ parameters x genutzt werden. Dieser Vorgang kann ohne wei­ teres unter Verwendung eines geeigneten Speichers oder ei­ ner geeigneten Nachschlagetabelle durchgeführt werden. Fer­ ner kann der Anwender oder Bediener in der Lage sein, die Grenzwerte innerhalb des Grenzwertdetektors 24 vorzugeben, um dadurch die Auswirkung einer fehlerhaften Messung des Prozeßparameters x auf den eingestellten Vorhersagewert yadj zu steuern oder zu begrenzen.
Wenn die Eingänge zu dem Modell 14 zum Zeitpunkt t inner­ halb des Bereichs waren, leitet der Grenzwertdetektor 24 den Wert des Fehlersignals e(t) zu einem Filter 26 weiter, das beispielsweise ein Glättungsfilter oder anderer Tiefpaß sein kann, um die Übergänge in dem Fehlersignal e(t) zu glätten und dadurch eine gleichmäßigere Einstellung des Ausgangs des Modells 14 zu bilden. Tatsächlich gleicht das Filter 26 die Auswirkung von Rauschen und HF-Übergängen in dem Prozeßparameter x aus. Bevorzugt wird der Fehlerfaktor e(t) stark gefiltert, beispielsweise auf das Zweifache des Ansprechhorizonts bei einer Änderung eines Prozeßeingangs. Die von dem Filter 26 gebotene Adaptationsrate kann jedoch so geändert werden, daß sie unterschiedliche Fehlerumgebun­ gen widerspiegelt, und wird typischerweise auf der Basis der Art von Prozeß, in dem die Korrektur vorgenommen wird, oder der Basis des Prozeßparameters, der vorhergesagt wird, vorgegeben. Selbstverständlich kann das adaptive Vorhersa­ gemodell 10 so aufgebaut sein, daß es einem Anwender mög­ lich ist, die Filterkoeffizienten auszuwählen, um die Rate einzustellen, mit der der Vorhergesagte Ausgang y auf der Basis von Meßwerten des Prozeßparameters x eingestellt wird.
Wie Fig. 2 zeigt, erzeugt das Filter 26 einen endgültigen Korrekturfaktor Correct(t) und liefert das Correct(t)- Signal an ein Summierglied 28 (das Kombinationsglied), das wiederum den Korrekturfaktor Correct(t) mit dem Ausgang y(t) des Modells 14 addiert, um den eingestellten Ausgang yadj zu bilden. In diesem Fall implementiert das adaptive Vorhersagemodell 10 die nachstehenden Gleichungen.
e (t) = x (t) - y (t-Delay)
Correct(t) = a1.Correct(t-Delay) + a2.e(t)
yadj(t+k) = y(t+k) + Correct(t) mit 0 < k < Delay
darin ist:
Correct(t) = der Korrekturfaktor für den Zeitpunkt t;
y(t) = der von dem Modell 14 zum Zeitpunkt t gebildete Vorhersagewert;
x(t) = der tatsächliche Wert des Prozeßparameters x zum Zeitpunkt t gemäß Bestimmung durch einen Analysator, Laboranalyse oder andere Messungen;
yadj = der eingestellte Vorhersagewert des Prozeßparameters x;
a1 und a2 = Koeffizienten eines Filters (z. B. des Filters 26); und
k = die Ausführungsrate des Vorhersagemodells.
Es versteht sich, daß der Korrekturfaktor für den Zeitpunkt t, z. B. Correct(t), tatsächlich mit dem Wert von y, der zum Zeitpunkt t-Delay erhalten wurde, errechnet wird, um die Probenverzögerung zu berücksichtigen, die bei der Abga­ be des tatsächlich gemessenen Werts des Parameters x.an den Meßeingang des adaptiven Vorhersagemodells 10 inhärent ist. In denjenigen Fällen, in denen die Meßwerte des Parameters x nur periodisch oder in nichtperiodischen Intervallen ge­ liefert werden, bleibt ferner das Fehlersignal e(t) gleich, bis ein neuer Wert von x an das Vorhersagemodell 10 gelie­ fert wird. Durch die Wirkung des Filters 26 wird jedoch der Korrekturfaktor Correct(t) an einen Konstantwert angenä­ hert, bis ein neuer Wert von x an das adaptive Vorhersage­ modell 10 geliefert wird. Der Korrekturfaktor Correct(t) kann jedoch dem Ausgang y auch zu Zeitpunkten, zu denen keine Messung des Prozeßparameters x vorgenommen wird, kon­ tinuierlich hinzuaddiert werden. Selbstverständlich können das Filter 26 und der Grenzwertdetektor 24 irgendwelche be­ kannten digitalen oder analogen Komponenten sein.
Fig. 3 zeigt ein weiteres Kombinationsnetz 16b zum Gebrauch mit dem adaptiven Vorhersagemodell 10. Es ist ersichtlich, daß das Kombinationsnetz 16b von Fig. 3 das gleiche wie das Kombinationsnetz 16a von Fig. 2 ist und die gleichen Ele­ mente wie dieses aufweist mit der Ausnahme, daß die Verzö­ gerungseinheit 20 den eingestellten Ausgang yadj des Sum­ mierglieds 28 anstelle des Ausgangs y des Modells 14 emp­ fängt. Somit wird der Fehler e(t) aus dem korrigierten oder eingestellten Vorhersagewert des Modells 10 anstatt aus dem nichtkorrigierten Vorhersagewert bestimmt. Das Fehlersignal e(t), der endgültige Korrekturfaktor Correct(t) und der eingestellte Ausgang yadj für den Prozeß von Fig. 3 können wie folgt geschrieben werden:
e(t) = x(t) - yadj(t-Delay)
Correct(t) = a1.Correct(t-Delay) + a2.e(t)
yadj (t+k) = y(t+k) + Correct (t) mit 0 < k < Delay
Aus dieser Erörterung ist verständlich, daß entweder der Ausgang y des Modells 14 oder der eingestellte Ausgang yaaj des adaptiven Vorhersagemodells 10 als Rückführung zur Bil­ dung des Korrekturfaktors Correct(t) genutzt werden kann.
Es ist ferner zu beachten, daß die obigen Darstellungen des Korrekturblocks oder Kombinationsnetzes bloße Verallgemei­ nerungen einer Vielzahl von Formen sind, die zum gleichen Zweck verwendet werden können. Beispielsweise können diese Blöcke zu Filtern höherer Ordnung erweitert werden, um eine bessere Störsignaldämpfung zu erreichen, und zwar besonders im Fall einer Stichprobenmessung, oder sie können jede an­ dere lineare oder nichtlineare Technik nutzen, um die Kor­ rektur des Ausgangs des Vorhersagemodells 14 zu implemen­ tieren. Außerdem können die Filterkoeffizienten festgelegt werden, wenn die Fehlerquellen und die Umgebung der Stich­ probenahme bekannt sind, oder sie können, falls gewünscht, unter Anwendung bekannter Regressionstechniken anpaßbar sein.
Ferner können Fehlerminimierungstechniken wie etwa rekursi­ ve Fehlerquadrate (RLS), Newton-Raphson, Gradienten- Abstiegsmethode usw. in dem Kombinationsnetz 16 angewandt werden und sind sehr wirkungsvoll, wenn eine signifikante Erregung oder eine rasche Änderung der Prozeßbedingungen vorliegt. Fig. 4 zeigt ein Kombinationsnetz 16c, das eine RLS-Technik anwendet, um den eingestellten Ausgang yadj zu bilden, der wie folgt errechnet oder bestimmt werden kann:
yadj(t+k) = a1.y(t-2.Delay+k) + a2.y(t-Delay+k) + a3.x(t-Delay) mit 0 ≦ k ≦ Delay
wobei a1, a2 und a3 RLS-Koeffizienten sind.
Falls gewünscht, kann mehr als ein zeitlich verzögerter Term für den tatsächlichen Ausgang (den Parameter x) und die Netzausgänge (das Signal y) verwendet werden, um die Ausführung eines Algorithmus zu verbessern. Es versteht sich, daß das Kombinationsnetz 16c von Fig. 4 einen RLS- Algorithmus verwendet, um die Ausführung zu verbessern. Insbesondere wird der Ausgang y des Modells 14 Verzöge­ rungseinheiten 30 und 32 (oder irgendeiner anderen Anzahl von Verzögerungseinheiten) zugeführt, die diese Werte bei­ spielsweise um die Probenmeßverzögerung verzögern. Die Ver­ zögerungseinheit 30 verzögert jedoch in diesem Fall das y- Signal um eine Verzögerungszeiteinheit mehr als die Verzö­ gerungseinheit 32. Die Ausgänge der Verzögerungseinheiten 30 und 32 werden Multipliziergliedern 34 und 36 zugeführt, während der tatsächliche gemessene Prozeßparameter x für die Zeitdauer t einem Multiplizierglied 38 zugeführt wird. Die Multiplizierglieder 34, 36 und 38 multiplizieren ihre Eingänge mit den RLS-Koeffizienten a1, a2 bzw. a3 gemäß der Bestimmung durch einen RLS-Koeffizienten-Bestimmungs­ algorithmus 40, der Standard-RLS-Techniken nutzt, um die Koeffizienten a1, a2 und a3 zu errechnen. Der RLS- Algorithmus 40 bestimmt jedesmal, wenn dem Kombinationsnetz 16c ein neuer Meßwert des Prozeßparameters x zugeführt wird, einen neuen Koeffizientensatz.
Die Ausgangssignale der Multiplizierglieder 34, 36 und 38 werden Grenzwertdetektoren 42, 44 und 46 zugeführt, die ähnlich den Grenzwertdetektoren 24 der Fig. 2 und 3 wirken. Der Grenzwertdetektor 42 bestimmt also, ob der Vorhersage­ wert zum Zeitpunkt t-Delay innerhalb akzeptabler Grenzen war, während der Grenzwertdetektor 44 die gleiche Funktion wie der Grenzwertdetektor 42 für den Vorhersagewert zum Zeitpunkt t-2.Delay ausführt. Wenn der Vorhersagewert y zum Zeitpunkt t-Delay oder zum Zeitpunkt t-2.Delay aus einem oder mehreren der oben angegeben Gründe fehlerverdächtig ist, sind die Fehlergrenzwerte verletzt, was zur Erzeugung eines Merkers bzw. einer Flag oder eines Fehlersignals führt.
Die Ausgangssignale der Filter 42, 44 und 46 werden dann einem Summierglied 48 zugeführt, das diese Signale addiert, um den eingestellten Vorhersagewert yadj zu bilden. In dem System von Fig. 4 ist ersichtlich, daß auch hier der Aus­ gang des Modells 14 auf irgendeine Weise mit dem tatsäch­ lich gemessenen Prozeßparameter x kombiniert wird (wenn auch möglicherweise mit verschiedenen Verzögerungszeiten), um einen eingestellten Ausgang yadj zu bilden. Der einge­ stellte Ausgang yadj wird durch eine direkte Kombination von vorhergehenden Werten der Modellvorhersage y und des Pro­ zeßmeßwerts x bestimmt. Der eingestellte Vorhersagewert yadj kann auch anstelle der Modellvorhersage y genutzt werden. Als Ergebnis kann die Wahl der Konfiguration so geändert werden, daß sie an den betreffenden Prozeß angepaßt ist. Selbstverständlich könnten ähnliche Techniken für andere Arten von Filtern und Fehlerkorrekturschemata angewandt werden, und es versteht sich, daß das Kombinationsnetz 16 nicht auf die hier gezeigten Ausführungsformen beschränkt ist. Es versteht sich ferner, daß einige oder sämtliche der in den Fig. 1 bis 4 gezeigten Elemente separate Hardware-, Software(programm)- oder Firmware-Elemente sein können, die auf jede gewünschte Weise entwickelt oder aufgebaut sind, wobei die Verbindungen dazwischen die Kommunikation von Si­ gnalen oder Werten zwischen diesen Hardware-, Software- oder Firmware-Elementen darstellen. Ferner bilden bei dem Beispiel von Fig. 4 die Verzögerungseinheiten 30 und 32, die Multiplizierglieder 34 und 36, die Grenzwertdetektoren 42 und 44 und das Summierglied einen Kombinierer, während die Multipliziereinheit 38 und der Grenzwertdetektor 46 ei­ nen Korrekturblock bilden, der einen Korrekturfaktor er­ zeugt.
Zur Prüfung der Operation der hier gezeigten adaptiven Vor­ hersagemodelle unter verschiedenen Szenarien wurde eine Reihe von Echtzeit-Prozeßmodellen mit und ohne die Verwen­ dung der Kombinationsnetze 16a, 16b und 16c ausgeführt. Bei dieser Simulation wurden Neuronennetze für jeden Prozeß zu­ erst gebildet durch Sammeln von Echtzeit-Prozeßgrößen und Aufbauen und Schulen eines Netzes unter Nutzung von han­ delsüblicher Software zum Erstellen von Neuronennetzen, die zum Gebrauch für die Prozeßsteuerung anwendbar ist. Die Auswahl von Eingängen und ihren entsprechenden Verzögerun­ gen erfolgte so, daß die Auswahl den Lernfehler minimieren würde. Das Netz wurde dann geschult, bis die maximale An­ zahl von Zeitabschnitten (Epochen) erreicht war. Eine echte Testsituation wurde simuliert durch Aufteilen der aus dem Prozeß gesammelten Datenmenge in gesonderte Lern- und Vali­ dierungsmuster. Während der Überprüfung wurden die gleichen Eingangsdaten-Ausreißergrenzwerte angewandt, so daß alle Validierungsmuster in die Grenzen des Schulungsbereichs fielen. Für Fälle, in denen die Ausführung des Netzes an der Validierungsmenge zu keinen zufriedenstellenden Ergeb­ nissen führte, wurde das Netzdesign modifiziert und neuge­ schult, wie das normalerweise bei der Entwicklung von Pro­ zeßmodellen der Fall ist. Dieser Schulungsprozeß wurde re­ kursiv durchgeführt und endete mit einem Neuronennetz- Modell, dessen Prüffehler minimal war.
Die oben beschriebenen Kombinationsnetze 16a, 16b und 16c wurden dann in jedem Netz angewandt. Ein einfaches MATLAB- Programm wurde verwendet, um die verschiedenen Kombinierer- Konfigurationen zu prüfen. Die Ergebnisse sind in der nach­ stehenden Tabelle aufgeführt.
In dieser Tabelle ist Aevap ein Maissirup-Verdampfungs­ prozeß, Batch ist ein diskontinuierlicher Prozeß, tw11 ist ein CO2/NH3-Gaswaschturm in einem Caprolactam-Prozeß, Grind2a und Grinder sind Kupfererz-Mahlprozesse, und quno ist ein Stoffauflauf-pH-Prozeß für eine Papiermaschine. In den meisten Testfällen ist zu sehen, daß der Standardfeh­ ler- bzw. RMS-Fehler des korrigierten Ausgangs bei jedem der Kombinationsnetze niedriger als derjenige des Ausgangs des Neuronennetz-Modells ohne Korrektur war. In den meisten Fällen ergaben sich bedeutende Fehlerabnahmen. Es versteht sich daher, daß verschiedene Netze, Blöcke oder Techniken zur Bildung des eingestellten Ausgangs des adaptiven Pro­ zeßmodells 10 in einem einzigen Prozeß verwendet werden könnten auf der Basis der Art von Prozeß und früherer Be­ stimmungen oder Erfahrungen in bezug darauf, welche Art von Filtertechniken oder Kombinationstechniken für diesen Pro­ zeß am besten funktioniert.
Fig. 5 zeigt ein Prozeßsteuerungsnetz 60, in dem ein adap­ tives Vorhersagemodell 10 verwendet werden könnte. Das Pro­ zeßsteuerungsnetz 60, das beispielsweise ein DeltaV- Prozeßsteuerungssystem von Fisher-Rosemount Systems, Inc., Austin, Texas, sein kann, umfaßt eine oder mehrere Steuer­ einheiten 62, einen Hauptrechner oder eine Bediener- Workstation 64, einen Datenspeicher oder eine Datenbiblio­ thek 66 und/oder andere Rechnereinrichtungen wie etwa wei­ tere Workstations, Datenbanken, Konfigurationsstationen usw., die mit einer Sammelschiene 70 verbunden sind, die beispielsweise eine Ethernet-Sammelschiene sein kann. Wie bekannt ist, umfassen die Steuereinrichtung(en) 62 und Workstations 64 Prozessoren, die in den Speichern dieser Einrichtungen gespeicherte Software implementieren. Die Steuereinheit 62 kann beispielsweise eine Steuereinheit ei­ nes verteilten Steuersystems oder jede andere Art von Steu­ ereinheit sein, die beispielsweise in einem unabhängigen Computer oder einem Netzcomputer implementiert ist. Die Haupteinrichtung 64 kann ebenfalls beispielsweise ein PC oder eine andere Einrichtung sein, die einem Anwender oder einem Bediener einen Dialog mit dem Prozeßsteuerungssystem 60 auf eine bekannte Weise ermöglicht. Der Datenspeicher 66 kann jede Art von bekanntem Speicher oder Speichereinrich­ tung sein, was eine digitale Plattenspeichereinrichtung (die beispielsweise CDs, digitale Bildplatten, Laserplatten usw. verwendet), eine RAM-Speichereinrichtung, eine Magnet­ plattenspeichereinrichtung usw. sein kann, jedoch nicht auf diese beschränkt ist. Zahlreiche Feldeinrichtungen 75 bis 82 sind mit der Steuereinheit 62 über jede gewünschte Art von Ein-Ausgabe- bzw. E-A-Einrichtungen 86 und 88 verbun­ den. Die Einrichtungen 75 bis 78 sind einzeln mit der E-A- Einrichtung 86 verbunden und können beispielsweise HART- Standardeinrichtungen von 4 bis 20 mA oder jede andere Art von intelligenten oder nichtintelligenten Feldeinrichtungen sein. Ebenso sind die Einrichtungen 79 bis 82 hier mit ei­ ner Sammelschiene 90 verbunden, die jede gewünschte Art von Sammelschiene, beispielsweise eine Fieldbus-Leitung, sein kann. In diesem Fall können die Einrichtungen 79 bis 82 das Kommunikationsprotokoll der Foundation Fieldbus benutzen. Selbstverständlich kann jede Feldeinrichtung 75 bis 82 jede Art von Feldeinrichtung sein, die in dem Prozeßsteuerungs­ netz 60 verwendet wird, was beispielsweise Sensoren, Steu­ erventile, Positionierer, Gebläse, Videokameras, Mikrophone usw. einschließt. Selbstverständlich können andere Einrich­ tung auf jede gewünschte Weise mit dem System 60 verbunden sein.
Wie Fig. 5 zeigt, implementiert die Steuereinheit 62 ein Prozeßsteuerungsschema 100 oder eine -routine, in der eine Reihe von verschiedenen Schleifen oder Segmenten vorhanden ist. Im allgemeinen steuert jede Steuerschleife eine oder mehrere der Feldeinrichtungen, um einen Teil eines Prozes­ ses zu steuern. Wie der Block 100 in Fig. 5 zeigt, kann die Steuereinheit 62 von etwas Gebrauch machen, was allgemein als Funktionsblöcke bezeichnet wird, um die Steuerung zu implementieren. Es ist bekannt, daß Funktionsblöcke (die im wesentlichen Objekte in einer objektorientierten Program­ mierumgebung sind) durch Kommunikationsleitungen miteinan­ der verbunden sein können und wirksam sind, um miteinander zu kommunizieren und dadurch die Steuerung zu implementie­ ren. Die Steuereinheit 62 könnte jedoch jede andere ge­ wünschte Art von Steuerungstechnik wie beispielsweise Lei­ terlogik, Sequenzfunktionsabläufe usw. anwenden.
Die Steuereinheit 62 von Fig. 5 implementiert hier zwei Schleifen 102 und 104. Die Schleife 102 hat zwei Analogein­ gangs- bzw. AI-Funktionsblöcke, die wirksam sind, um Signa­ le von Einrichtungen zu empfangen, einen PID-Steuerblock (Proportional-Integral-Differentialsteuerblock), der eine PID-Steuerung auf der Basis von ihm zugeführten Eingängen durchführt, und einen Analogausgangs- bzw. AO-Funktions­ block, der Signale abgibt oder auf andere Weise mit einer Einrichtung (wie etwa einem Ventil) kommuniziert, um da­ durch diese Einrichtung zu steuern. Der AO-Block liefert ferner eine Rückführung an den PID-Block. Ebenso umfaßt die Schleife 104 einen AI-Funktionsblock, der mit einem PID- Funktionsblock gekoppelt ist, der mit einem AO-Funktions­ block verbunden ist, um eine zweite Steuerschleife inner­ halb des Prozesses zu implementieren.
Wie ebenfalls in Fig. 5 gezeigt ist, hat ein virtueller Sensorfunktionsblock 110, der unter Anwendung eines der adaptiven Vorhersagemodelle der Fig. 1 bis 4 aufgebaut sein kann, Eingänge, die mit den AI- und AO-Blöcken der Schleife 104 und mit dem AI-Funktionsblock der Schleife 102 in Ver­ bindung sind. Der virtuelle Sensorfunktionsblock 110 nutzt diese Signale als Eingänge zur Bildung eines Vorhersage­ werts eines Prozeßparameters, der jeder gewünschte Prozeß­ parameter sein kann. Selbstverständlich ist die Wahl der jeweiligen Eingänge zu dem virtuellen Sensor 110 von dem vorherzusagenden Parameter abhängig, und dieser Auswahlvor­ gang ist dem Fachmann bekannt. Der virtuelle Sensorfunk­ tionsblock 110 empfängt ferner periodische oder nichtpe­ riodische Meßwerte des vorherzusagenden Prozeßparameters über eine Prozeßparametermeß- bzw. PPM-Verbindung. Diese Verbindung kann mit einem Eingangsblock wie etwa einem AI- Block verbunden sein, der Eingänge von einem Sensor oder einer anderen Einrichtung empfängt, die den vorherzusagen­ den Prozeßparameter mißt. Alternativ kann diese Verbindung mit einem manuellen Eingangsfunktionsblock wie etwa dem MI- Block 115 verbunden sein, der sich in der Haupteinrichtung 64 befinden kann, um manuell eingegebene Meßwerte des Pro­ zeßparameters zu empfangen. Falls gewünscht, kann die PPM- Verbindung auch eine Schätzung der Probenahmeverzögerung oder des Zeitpunkts, zu dem die Messung erfolgte, bereit­ stellen, die von dem virtuellen Sensorfunktionsblock 110 zur Bestimmung der Probenahmeverzögerung (Delay) genutzt werden kann. Selbstverständlich kann der Meßwert der Pro­ zeßgröße dem virtuellen Sensorfunktionsblock 110 von dem Bediener über die Haupteinrichtung oder Workstations 64 auf jede andere Weise zugeführt werden, nachdem diese Messung (und der entsprechende Zeitpunkt, zu dem die Messung durch­ geführt wurde) beispielsweise von einer Laboranalyse oder einer anderen Analysatoreinheit zugeführt werden. Bei­ spielsweise kann ein Analysator oder anderer Sensor, der die Messung des Prozeßparameters bestimmt, mit dem Prozeß­ steuerungssystem 60 verbunden sein und seinen Ausgang an den virtuellen Sensorfunktionsblock 110 unter Nutzung jeder gewünschten Kommunikationsart innerhalb des Prozeßsteue­ rungssystems 60 senden. Bei dem vorliegenden Beispiel kann ein den Prozeßparameter messender Sensor mit der Sammel­ schiene 70, mit einer der Ein-Ausgabe-Einrichtungen 86 oder 88 oder mit der Sammelschiene 90 verbunden sein, um mit dem virtuellen Sensorfunktionsblock 110 zu kommunizieren. Falls gewünscht, kann eine Einrichtung wie etwa ein Netzanalysa­ tor vorübergehend mit dem Prozeßsteuerungssystems 60 ver­ bunden sein, um eine oder mehrere gemessene Proben des Pa­ rameters x (und seiner zugehörigen Meßzeitpunkte oder zeit­ lichen Verzögerungen) zu dem virtuellen Sensorfunktions­ block 110 herunterzuladen.
Ferner kann der eingestellte vorhergesagte Ausgang des vir­ tuellen Sensorfunktionsblocks 110 innerhalb der Steuerein­ heit 62 oder einer anderen Steuereinheit zur Durchführung der Prozeßsteuerung genutzt werden, kann der Ausgang der Bediener-Workstation 64 zugeführt werden, um angezeigt oder anderweitig vom Bediener oder von Software innerhalb dieser Workstation genutzt werden, oder es kann der Ausgang jeder anderen Einrichtung im Netz 60 zugeführt und von dieser ge­ nutzt werden. Ebenso kann das adaptive Vorhersagemodell 10 an jeder anderen gewünschten Stelle innerhalb des Prozeß­ steuerungssystems 60 angeordnet sein, etwa in den Worksta­ tions oder in einer oder mehreren der Einrichtungen (z. B. der Einrichtung 62). In sämtlichen Fällen muß das adaptive Vorhersagemodell 10 kommunikativ so gekoppelt sein, daß es die ausgewählten Eingänge für das Modell sowie die Stich­ proben des vorherzusagenden Prozeßparameters empfängt. Es wird außerdem bevorzugt sicherzustellen, daß der Zeitpunkt oder die zeitliche Verzögerung, die zu der Gewinnung und Abgabe des gemessenen Prozeßparameters an das adaptive Vor­ hersagemodell 110 oder 10 gehören, dem Modell 110, 10 auto­ matisch zugeführt werden.
Ein adaptives Vorhersagemodell wurde hier als Funktions­ block innerhalb eines Prozeßsteuerungssystems und insbeson­ dere als DeltaV- oder Fieldbus-Funktionsblock beschrieben (die gleichartig beschaffen sind), es versteht sich jedoch, daß ein solches adaptives Vorhersagemodell als jede Art von Programm oder Einrichtung aufgebaut sein kann und daß die verschiedenen Elemente des beschriebenen adaptiven Vorher­ sagemodells der Fig. 1 bis 5 in Hardware, Firmware oder Software erzeugt oder implementiert sein könnten, die auf jeder Art von Rechnerspeicher, Platte oder anderen Spei­ chereinrichtung gespeichert sein können. Wenn es in Soft­ ware implementiert ist, könnte das adaptive Vorhersagemo­ dell unter Anwendung jeder gewünschten Programmiersprache implementiert sein, es kann in einer Mehrzweck-Standard-CPU oder auf speziell konstruierter Hardware oder Firmware wie beispielsweise ASICs implementiert sein, wenn das gewünscht wird. Wenn es in Software implementiert ist, kann die Soft­ ware in jedem computerlesbaren Speicher wie etwa auf einer Magnetplatte, Laserplatte, Bildplatte oder einem anderen Speichermedium, in einem RAM oder ROM eines Computers oder Prozessors usw. gespeichert sein. Ebenso kann diese Soft­ ware einem Anwender oder einem Prozeßsteuerungssystem mit­ tels jeder bekannten oder gewünschten Versandmethode wie z. B. auf einer computerlesbaren Platte oder einer anderen transportfähigen Computerspeichereinrichtung übermittelt oder über einen Nachrichtenkanal wie etwa eine Telefonlei­ tung, das Internet usw. (was als gleich oder austauschbar mit der Lieferung der Software mittels eines transportfähi­ gen Speichermediums angesehen wird) zugestellt werden. Ferner wurde zwar das adaptive Vorhersagemodell hier zur Anwendung in einer Prozeßsteuerungsumgebung oder einem sol­ chen Netz beschrieben; es versteht sich jedoch, daß ein ad­ aptives Vorhersagemodell entsprechend der vorliegenden Of­ fenbarung zur Anwendung auf irgendwelchen anderen Arbeits­ gebieten (die hier der Einfachheit halber als Prozesse be­ zeichnet werden), die Vorhersagemodelle verwenden, wie etwa einem natürlichen Modell (z. B. einem Modell des ersten Prinzips) oder einem parametrischen Modell (das beispiels­ weise durch Regressionsverfahren erhalten ist), aufgebaut werden könnte, um Schätzwerte von Parametern zu bilden. Die Erfindung wurde also unter Bezugnahme auf bestimmte Ausführungsbeispiele beschrieben, die nur beispielhaft sein sollen und keine Einschränkung der Erfindung bedeuten; für den Fachmann ist ersichtlich, daß Änderungen, Hinzufügungen oder Weglassungen an den gezeigten Ausführungsformen vorge­ nommen werden können, ohne vom Umfang der Erfindung abzu­ weichen.

Claims (40)

1. Adaptives Vorhersagemodell zur Anwendung bei der Schätzung eines Prozeßparameters, dadurch gekennzeichnet, daß das adaptive Vorhersagemodell folgendes aufweist:
ein Vorhersagemodell, das so konfiguriert ist, daß es einen oder mehrere Modelleingänge empfängt und einen Vorhersage­ wert des Prozeßparameters auf der Basis des einen oder der mehreren Modelleingänge erzeugt; einen Meßeingang, der so konfiguriert ist, daß er einen Meßwert des Prozeßparameters empfängt; und ein Kombinationsnetz, das mit dem Meßeingang gekoppelt ist, um den Prozeßparameter-Meßwert zu empfangen, und mit dem Vorhersagemodell gekoppelt ist, um den Vorher­ sagewert des Prozeßparameters zu empfangen, wobei das Kom­ binationsnetz so ausgebildet ist, daß es den Prozeßparame­ ter-Meßwert mit dem Vorhersagewert des Prozeßparameters kombiniert und einen eingestellten Vorhersagewert des Pro­ zeßparameters bildet.
2. Adaptives Vorhersagemodell nach Anspruch 1, dadurch gekennzeichnet, daß das Kombinationsnetz folgendes auf­ weist:
einen Korrekturblock, der einen Korrekturfaktor be­ stimmt, und
ein Summierglied, das den Korrekturfaktor mit dem Vor­ hersagewert des Prozeßparameters addiert, um den einge­ stellten Vorhersagewert des Prozeßparameters zu bilden.
3. Adaptives Vorhersagemodell nach Anspruch 2, dadurch gekennzeichnet, daß der Korrekturblock folgendes aufweist:
eine Verzögerungseinheit, die mit dem Vorhersagemodell gekoppelt ist, um den Vorhersagewert des Prozeßparameters zu verzögern, und
ein weiteres Summierglied, das den verzögerten Vorher­ sagewert des Prozeßparameters mit dem Prozeßparameter- Meßwert kombiniert.
4. Adaptives Vorhersagemodell nach Anspruch 3, dadurch gekennzeichnet, daß der Korrekturblock ein Glättungsfilter aufweist, das zwischen das weitere Summierglied und das Summierglied gekoppelt ist.
5. Adaptives Vorhersagemodell nach Anspruch 4, dadurch gekennzeichnet, daß das Glättungsfilter ein Tiefpaßfilter ist.
6. Adaptives Vorhersagemodell nach Anspruch 2, dadurch gekennzeichnet, daß das Kombinationsnetz einen Grenzwertde­ tektor aufweist.
7. Adaptives Vorhersagemodell nach Anspruch 6, dadurch gekennzeichnet, daß der Grenzwertdetektor Grenzwerte auf­ weist, die von einem Anwender konfigurierbar sind.
8. Adaptives Vorhersagemodell nach Anspruch 2, dadurch gekennzeichnet, daß der. Korrekturblock folgendes aufweist:
eine Verzögerungseinheit, die mit einem Ausgang des Summierglieds gekoppelt ist, um den eingestellten Vorhersa­ gewert des Prozeßparameters zu empfangen und zu verzögern, und
ein weiteres Summierglied, das den verzögerten einge­ stellten Vorhersagewert des Prozeßparameters mit dem gemes­ senen Prozeßparameter kombiniert.
9. Adaptives Vorhersagemodell nach Anspruch 8, dadurch gekennzeichnet, daß der Korrekturblock ein Glättungsfilter aufweist, das zwischen das weitere Summierglied und das Summierglied gekoppelt ist.
10. Adaptives Vorhersagemodell nach Anspruch 1, dadurch gekennzeichnet, daß der Meßeingang ferner so ausgebildet ist, daß er einen zeitlichen Meßwert empfängt, der die zu dem Prozeßparameter-Meßwert gehörige Probenverzögerung be­ zeichnet.
11. Adaptives Vorhersagemodell nach Anspruch 1, dadurch gekennzeichnet, daß das Kombinationsnetz ein regressives Fehlerquadratfilter aufweist.
12. Adaptives Vorhersagemodell nach Anspruch 1, dadurch gekennzeichnet, daß das Kombinationsnetz folgendes aufweist:
eine Verzögerungseinheit, die so gekoppelt ist, daß sie den Vorhersagewert des Prozeßparameters verzögert,
eine Multipliziereinheit, die den verzögerten Vorher­ sagewert des Prozeßparameters und den Prozeßparameter- Meßwert mit regressiven Fehlerquadrat-Koeffizienten multi­ pliziert, und
ein Summierglied, das den multiplizierten verzögerten Vorhersagewert des Prozeßparameters und den multiplizierten Prozeßparameter-Meßwert addiert, um den eingestellten Vor­ hersagewert des Prozeßparameters zu bilden.
13. Adaptives Vorhersagemodell nach Anspruch 1, dadurch gekennzeichnet, daß das Kombinationsnetz folgendes auf­ weist:
eine Vielzahl von Verzögerungseinheiten, die so gekop­ pelt sind, daß sie den Vorhersagewert des Prozeßparameters um unterschiedliche Verzögerungsdauern verzögern,
eine Multipliziereinheit, die jeden der verschiedenen verzögerten Vorhersagewerte des Prozeßparameters mit unter­ schiedlichen regressiven Fehlerquadrat-Koeffizienten multi­ pliziert und den Prozeßparameter-Meßwert mit einem weiteren regressiven Fehlerquadrat-Koeffizienten multipliziert, und
ein Summierglied, das die multiplizierten verzögerten Vorhersagewerte des Prozeßparameters und den multiplizier­ ten Prozeßparameter-Meßwert addiert, um den eingestellten Vorhersagewert des Prozeßparameters zu bilden.
14. Adaptives Vorhersagemodell nach Anspruch 1, dadurch gekennzeichnet, daß das Vorhersagemodell ein Neuronennetz- Modell ist.
15. Adaptives Vorhersagemodell nach Anspruch 1, dadurch gekennzeichnet, daß das Vorhersagemodell ein natürliches Modell ist.
16. Adaptives Vorhersagemodell nach Anspruch 1, dadurch gekennzeichnet, daß das Vorhersagemodell ein rekursives Fehlerquadrat-Modell ist.
17. Adaptives Vorhersagemodell nach Anspruch 1, dadürch gekennzeichnet, daß das Vorhersagemodell ein parametrisches Modell ist.
18. Adaptives Vorhersagemodell nach Anspruch 1, dadurch gekennzeichnet, daß das Vorhersagemodell ein nichtparame­ trisches Modell ist.
19. Verfahren zum Einstellen eines Ausgangs eines Vorher­ sagemodells, das einen Schätzwert eines Prozeßparameters während des Ablaufs eines Prozesses auf der Basis einer Se­ rie von dem Vorhersagemodell zugeführten Eingängen erzeugt, gekennzeichnet durch die folgenden Schritte:
Gewinnen einer Messung des Prozeßparameters während des Ablaufs des Prozesses zur Bildung eines Prozeßparame­ ter-Meßwerts;
Erzeugen eines Korrekturfaktors unter Nutzung des Meß­ werts des Prozeßparameters; und
Kombinieren des Korrekturfaktors mit dem Ausgang des Vorhersagemodells zum Erzeugen eines eingestellten Vorher­ sagemodell-Ausgangs, der den Prozeßparameter während des Ablaufs des Prozesses schätzt.
20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, daß der Schritt des Erzeugens eines Korrekturfaktors die folgenden Schritte aufweist:
Verzögern des Ausgangs des Vorhersagemodells, und Bestimmen der Differenz zwischen dem verzögerten Aus­ gang des Vorhersagemodells und dem Prozeßparameter-Meßwert.
21. Verfahren nach Anspruch 20, dadurch gekennzeichnet, daß der Schritt des Erzeugens des Korrekturfaktors den wei­ teren Schritt aufweist:
Filtern der Differenz zwischen dem verzögerten Ausgang des Vorhersagemodells und dem Prozeßparameter-Meßwert.
22. Verfahren nach Anspruch 20, dadurch gekennzeichnet, daß der Kombinationsschritt den Schritt aufweist:
Addieren des Korrekturfaktors mit dem Ausgang des Vor­ hersagemodells.
23. Verfahren nach Anspruch 19, dadurch gekennzeichnet, daß der Schritt des Erzeugens des Korrekturfaktors die fol­ genden Schritte aufweist:
Verzögern des eingestellten Vorhersagemodell-Ausgangs, und
Bestimmen der Differenz zwischen dem verzögerten ein­ gestellten Vorhersagemodell-Ausgang und dem Prozeßparame­ ter-Meßwert.
24. Verfahren nach Anspruch 23, dadurch gekennzeichnet, daß der Schritt des Erzeugens des Korrekturfaktors ferner den Schritt aufweist:
Filtern der Differenz zwischen dem verzögerten einge­ stellten Vorhersagemodell-Ausgang und dem Prozeßparameter- Meßwert.
25. Verfahren nach Anspruch 24, dadurch gekennzeichnet, daß der Kombinationsschritt den Schritt aufweist:
Addieren des Korrekturfaktors zu dem Ausgang des Vor­ hersagemodells.
26. Verfahren nach Anspruch 19, ferner gekennzeichnet durch den Schritt des Erzeugens einer Menge von regressiven Fehlerquadrat-Koeffizienten, wobei der Schritt des Erzeu­ gens des Korrekturfaktors den Schritt aufweist:
Multiplizieren des Prozeßparameter-Meßwerts mit einem der regressiven Fehlerquadrat-Koeffizienten, und wobei der Kombinationsschritt die folgenden Schritte aufweist:
Verzögern des Ausgangs des Vorhersagemodells,
Multiplizieren des verzögerten Ausgangs des Vorhersa­ gemodells mit einem der regressiven Fehlerquadrat- Koeffizienten, und
Addieren des multiplizierten verzögerten Ausgangs des Vorhersagemodells mit dem multiplizierten Prozeßparameter- Meßwert, um den eingestellten Vorhersagemodell-Ausgang zu bilden.
27. Adaptives Vorhersagemodell, das folgendes umfaßt:
einen Speicher;
ein Vorhersagemodell, das in dem Speicher gespeichert und so ausgebildet ist, daß es in einem Prozessor implemen­ tierbar ist, um einen Vorhersagewert eines Prozeßparameters als einen Ausgang zu erzeugen;
eine Eingangseinheit, die in dem Speicher gespeichert und so ausgebildet ist, daß sie in einem Prozessor imple­ mentierbar ist, um aus der Messung des Prozeßparameters ei­ nen Korrekturfaktor zu erzeugen;
eine Rechenroutine, die in dem Speicher gespeichert und so ausgebildet ist, daß sie aus der Messung des Prozeß­ parameters einen Korrekturfaktor erzeugt; und
eine Kombinationsroutine, die in dem Speicher gespei­ chert und so ausgebildet ist, daß sie in einem Prozessor implementierbar ist, um den Korrekturfaktor mit dem Vorher­ sagewert des Prozeßparameters zu kombinieren und einen ein­ gestellten Vorhersagewert des Prozeßparameters zu bilden.
28. Adaptives Vorhersagemodell nach Anspruch 27, dadurch gekennzeichnet, daß die Rechenroutine folgendes aufweist:
eine Verzögerungseinheit, die den Ausgang des Vorher­ sagemodells verzögert, und
eine Differenzroutine, die die Differenz zwischen dem Verzögerten Ausgang des Vorhersagemodells und dem Prozeßpa­ rameter-Meßwert bestimmt.
29. Adaptives Vorhersagemodell nach Anspruch 28, dadurch gekennzeichnet, daß die Rechenroutine ferner ein Glättungs­ filter aufweist, das die Differenz zwischen dem verzögerten Ausgang des Vorhersagemodells und dem Prozeßparameter-Meßwert filtert.
30. Adaptives Vorhersagemodell nach Anspruch 29, dadurch gekennzeichnet, daß die Kombinationsroutine den Korrektur­ faktor zu dem Vorhersagewert des Prozeßparameters addiert, der von dem Vorhersagemodell abgegeben wird.
31. Adaptives Vorhersagemodell nach Anspruch 27, dadurch gekennzeichnet, daß die Rechenroutine folgendes aufweist:
eine Verzögerungseinheit, die den eingestellten Vor­ hersagewert des Prozeßparameters Verzögert, und
eine Differenzroutine, die die Differenz zwischen dem verzögerten eingestellten Vorhersagewert des Prozeßparame­ ters und dem Prozeßparameter-Meßwert bestimmt.
32. Adaptives Vorhersagemodell nach Anspruch 31, dadurch gekennzeichnet, daß die Rechenroutine ein Glättungsfilter aufweist, das die Differenz zwischen dem verzögerten einge­ stellten Vorhersagewert des Prozeßparameters und dem Pro­ zeßparameter-Meßwert filtert.
33. Adaptives Vorhersagemodell nach Anspruch 32, dadurch gekennzeichnet, daß die Kombinationsroutine den Korrektur­ faktor zu dem Vorhersagewert des Prozeßparameters addiert, der von dem Vorhersagemodell abgegeben wird.
34. Adaptives Vorhersagemodell nach Anspruch 27, ferner gekennzeichnet durch eine regressive Fehlerquadrat-Routine, die in dem Speicher gespeichert und ausgebildet ist, um in einem Prozessor ausgeführt zu werden und einen ersten und einen zweiten regressiven Fehlerquadrat-Koeffizienten zu erzeugen, wobei die Rechenroutine eine Multipliziereinheit aufweist, die den Prozeßparameter-Meßwert mit dem ersten regressiven Fehlerquadrat-Koeffizienten multipliziert, und wobei die Kombinationsroutine folgendes aufweist:
eine Verzögerungseinheit, die den Vorhersagewert des von dem Vorhersagemodell abgegebenen Prozeßparameters ver­ zögert,
einen Multiplizierer, der den verzögerten Vorhersage­ wert des Prozeßparameters mit dem zweiten Fehlerquadrat- Koeffizienten multipliziert, und
ein Summierglied, das den multiplizierten verzögerten Vorhersagewert des Prozeßparameters mit dem multiplizierten Prozeßparameter-Meßwert addiert zur Bildung des eingestell­ ten Vorhersagewerts des Prozeßparameters.
35. Adaptives Vorhersagemodell nach Anspruch 27, dadurch gekennzeichnet, daß das Vorhersagemodell, die Rechenroutine und die Kombinationsroutine einen Funktionsblock bilden.
36. Adaptives Vorhersagemodell nach Anspruch 35, dadurch gekennzeichnet, daß der Funktionsblock ein Fieldbus- Protokoll-Funktionsblock ist.
37. Adaptives Vorhersagemodell nach Anspruch 35, dadurch gekennzeichnet, daß die Eingangseinheit ein manueller Ein­ gangsfunktionsblock ist.
38. Adaptives Vorhersagemodell nach Anspruch 35, ferner gekennzeichnet durch einen manuellen Eingangsfunktions­ block, der mit der Eingangseinheit gekoppelt und so ausge­ bildet ist, daß er den Prozeßparameter-Meßwert an die Ein­ gangseinheit überträgt.
39. Adaptives Vorhersagemodell nach Anspruch 35, ferner gekennzeichnet durch einen weiteren Eingangsfunktionsblock, der mit der Eingangseinheit gekoppelt und so ausgebildet ist, daß er den Prozeßparameter-Meßwert zu der Eingangsein­ heit überträgt.
40. Adaptives Vorhersagemodell nach Anspruch 39, dadurch gekennzeichnet, daß der weitere Eingangsfunktionsblock so ausgebildet ist, daß er eine Anzeige der zu dem Prozeßpara­ meter-Meßwert gehörenden Abtastdauer zu der Eingangseinheit überträgt.
DE10127790A 2000-06-08 2001-06-07 Adaptives Vorhersagemodell in einem Prozeßsteuerungssystem Expired - Fee Related DE10127790B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US590630 1990-09-28
US09/590,630 US6760716B1 (en) 2000-06-08 2000-06-08 Adaptive predictive model in a process control system

Publications (2)

Publication Number Publication Date
DE10127790A1 true DE10127790A1 (de) 2002-01-24
DE10127790B4 DE10127790B4 (de) 2013-03-14

Family

ID=24363000

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10127790A Expired - Fee Related DE10127790B4 (de) 2000-06-08 2001-06-07 Adaptives Vorhersagemodell in einem Prozeßsteuerungssystem

Country Status (4)

Country Link
US (1) US6760716B1 (de)
JP (2) JP4993820B2 (de)
DE (1) DE10127790B4 (de)
GB (1) GB2363211B (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT503846B1 (de) * 2006-07-03 2008-07-15 Hofkirchner Hubertus Mag Verahren und system zur automatisierten ermittlung von optimierten prognosen
US11460781B2 (en) 2017-10-06 2022-10-04 Canon Kabushiki Kaisha Control device for generating a control deviation via machine learning

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI245685B (en) * 2002-10-03 2005-12-21 Hu Hou Fei Simple clamping device of ratchet wrench
US7103426B2 (en) * 2003-01-28 2006-09-05 Rosemount Analytical Inc. Anticipatory high frequency noise compensation in a distributed process control system
US7003438B1 (en) * 2003-01-29 2006-02-21 Kernco, Inc. Apparatus for correcting for the effects of laser noise
US7242989B2 (en) 2003-05-30 2007-07-10 Fisher-Rosemount Systems, Inc. Apparatus and method for batch property estimation
US7136779B2 (en) * 2004-05-28 2006-11-14 Daimlerchrysler Ag Method for simplified real-time diagnoses using adaptive modeling
US7328197B2 (en) * 2004-09-23 2008-02-05 International Business Machines Corporation Identifying a state of a data storage drive using an artificial neural network generated model
US7392161B2 (en) * 2004-09-24 2008-06-24 International Business Machines Corporation Identifying a state of a system using an artificial neural network generated model
US7173539B2 (en) * 2004-09-30 2007-02-06 Florida Power And Light Company Condition assessment system and method
JP2006347701A (ja) * 2005-06-16 2006-12-28 Komori Corp シート状物押え装置
US7613665B2 (en) * 2005-06-24 2009-11-03 Halliburton Energy Services, Inc. Ensembles of neural networks with different input sets
US7877154B2 (en) * 2005-09-30 2011-01-25 Fisher-Rosemount Systems, Inc. Method and system for controlling a batch process
EP1994456A4 (de) * 2006-03-16 2010-05-19 Applied Materials Inc Verfahren und vorrichtung zur drucksteuerung in herstellungssystemen für elektronische geräte
US7840287B2 (en) * 2006-04-13 2010-11-23 Fisher-Rosemount Systems, Inc. Robust process model identification in model based control techniques
US7949417B2 (en) * 2006-09-22 2011-05-24 Exxonmobil Research And Engineering Company Model predictive controller solution analysis process
US20080082295A1 (en) * 2006-09-28 2008-04-03 Fisher-Rosemount Systems, Inc. Abnormal situation prevention in a coker heater
WO2008112921A1 (en) * 2007-03-14 2008-09-18 Halliburton Energy Services, Inc. Neural-network based surrogate model construction methods and applications thereof
US7787969B2 (en) * 2007-06-15 2010-08-31 Caterpillar Inc Virtual sensor system and method
US8866626B2 (en) 2008-01-31 2014-10-21 Basler Electric Company System and method for detecting generator incipient failures
US8275488B2 (en) * 2008-01-31 2012-09-25 Basler Electric Co. Digital excitation control system utilizing swarm intelligence and an associated method of use
US20090195224A1 (en) * 2008-01-31 2009-08-06 Basler Electric Company Digital Excitation Control System Utilizing Self-Tuning PID Gains and an Associated Method of Use
US20100089067A1 (en) * 2008-10-10 2010-04-15 General Electric Company Adaptive performance model and methods for system maintenance
EP2413205B1 (de) * 2009-03-27 2014-04-09 Honda Motor Co., Ltd. Steuerung für eine anlage
JP5790066B2 (ja) * 2011-03-29 2015-10-07 Jfeスチール株式会社 プロセス制御の操作量プリセット方法
JP5852328B2 (ja) 2011-05-27 2016-02-03 デルタ工業株式会社 シートスライドロック装置
US8793004B2 (en) 2011-06-15 2014-07-29 Caterpillar Inc. Virtual sensor system and method for generating output parameters
CN103019267B (zh) * 2012-12-10 2016-06-22 华东交通大学 高速列车anfis建模与运行速度预测控制方法
US9507344B2 (en) * 2013-05-10 2016-11-29 Honeywell International Inc. Index generation and embedded fusion for controller performance monitoring
US10162317B2 (en) * 2013-06-27 2018-12-25 The Boeing Company Real-time feedback control for performing tooling operations in assembly processes
US9528914B2 (en) * 2013-09-27 2016-12-27 Rosemount, Inc. Non-intrusive sensor system
CN103771582B (zh) * 2013-12-06 2015-08-12 浙江浙大中控信息技术有限公司 污水处理的曝气控制方法
US10346752B2 (en) * 2014-04-17 2019-07-09 International Business Machines Corporation Correcting existing predictive model outputs with social media features over multiple time scales
US9574511B2 (en) 2014-07-24 2017-02-21 Basler Electric Company System and method for a load anticipation feature and its tuning method for a generating set
JP6632538B2 (ja) * 2014-10-10 2020-01-22 国立研究開発法人科学技術振興機構 予測値整形システム、制御システム、予測値整形方法、制御方法、及び予測値整形プログラム
US10180680B2 (en) * 2015-03-30 2019-01-15 Uop Llc Tuning system and method for improving operation of a chemical plant with a furnace
US9864823B2 (en) 2015-03-30 2018-01-09 Uop Llc Cleansing system for a feed composition based on environmental factors
US10095200B2 (en) 2015-03-30 2018-10-09 Uop Llc System and method for improving performance of a chemical plant with a furnace
US11216718B2 (en) 2015-10-27 2022-01-04 Yardi Systems, Inc. Energy management system
US10268965B2 (en) 2015-10-27 2019-04-23 Yardi Systems, Inc. Dictionary enhancement technique for business name categorization
US10274983B2 (en) 2015-10-27 2019-04-30 Yardi Systems, Inc. Extended business name categorization apparatus and method
US10275841B2 (en) 2015-10-27 2019-04-30 Yardi Systems, Inc. Apparatus and method for efficient business name categorization
KR20170078387A (ko) * 2015-12-29 2017-07-07 삼성전자주식회사 센서 관리 장치 및 방법
US11044260B2 (en) * 2016-04-01 2021-06-22 The Regents Of The University Of Michigan Fingerprinting electronic control units for vehicle intrusion detection
CN106019940B (zh) * 2016-06-21 2019-02-12 重庆科技学院 基于ukf神经网络的转炉炼钢工艺成本控制方法及系统
US10222787B2 (en) 2016-09-16 2019-03-05 Uop Llc Interactive petrochemical plant diagnostic system and method for chemical process model analysis
AT519777B1 (de) * 2017-03-22 2019-12-15 Ait Austrian Inst Tech Gmbh Verfahren zur Erkennung des normalen Betriebszustands eines Arbeitsprozesses
US10754359B2 (en) 2017-03-27 2020-08-25 Uop Llc Operating slide valves in petrochemical plants or refineries
US10678272B2 (en) 2017-03-27 2020-06-09 Uop Llc Early prediction and detection of slide valve sticking in petrochemical plants or refineries
US10962302B2 (en) 2017-03-28 2021-03-30 Uop Llc Heat exchangers in a petrochemical plant or refinery
US11130111B2 (en) 2017-03-28 2021-09-28 Uop Llc Air-cooled heat exchangers
US10752845B2 (en) 2017-03-28 2020-08-25 Uop Llc Using molecular weight and invariant mapping to determine performance of rotating equipment in a petrochemical plant or refinery
US10794401B2 (en) 2017-03-28 2020-10-06 Uop Llc Reactor loop fouling monitor for rotating equipment in a petrochemical plant or refinery
US10844290B2 (en) 2017-03-28 2020-11-24 Uop Llc Rotating equipment in a petrochemical plant or refinery
US10752844B2 (en) 2017-03-28 2020-08-25 Uop Llc Rotating equipment in a petrochemical plant or refinery
US10663238B2 (en) 2017-03-28 2020-05-26 Uop Llc Detecting and correcting maldistribution in heat exchangers in a petrochemical plant or refinery
US11037376B2 (en) 2017-03-28 2021-06-15 Uop Llc Sensor location for rotating equipment in a petrochemical plant or refinery
US11396002B2 (en) 2017-03-28 2022-07-26 Uop Llc Detecting and correcting problems in liquid lifting in heat exchangers
US10670027B2 (en) 2017-03-28 2020-06-02 Uop Llc Determining quality of gas for rotating equipment in a petrochemical plant or refinery
US10816947B2 (en) 2017-03-28 2020-10-27 Uop Llc Early surge detection of rotating equipment in a petrochemical plant or refinery
US10670353B2 (en) 2017-03-28 2020-06-02 Uop Llc Detecting and correcting cross-leakage in heat exchangers in a petrochemical plant or refinery
US10794644B2 (en) 2017-03-28 2020-10-06 Uop Llc Detecting and correcting thermal stresses in heat exchangers in a petrochemical plant or refinery
US10695711B2 (en) 2017-04-28 2020-06-30 Uop Llc Remote monitoring of adsorber process units
US10913905B2 (en) 2017-06-19 2021-02-09 Uop Llc Catalyst cycle length prediction using eigen analysis
US11365886B2 (en) 2017-06-19 2022-06-21 Uop Llc Remote monitoring of fired heaters
US10739798B2 (en) 2017-06-20 2020-08-11 Uop Llc Incipient temperature excursion mitigation and control
US11130692B2 (en) 2017-06-28 2021-09-28 Uop Llc Process and apparatus for dosing nutrients to a bioreactor
US10994240B2 (en) 2017-09-18 2021-05-04 Uop Llc Remote monitoring of pressure swing adsorption units
US11194317B2 (en) 2017-10-02 2021-12-07 Uop Llc Remote monitoring of chloride treaters using a process simulator based chloride distribution estimate
US11676061B2 (en) 2017-10-05 2023-06-13 Honeywell International Inc. Harnessing machine learning and data analytics for a real time predictive model for a FCC pre-treatment unit
WO2019069649A1 (ja) * 2017-10-06 2019-04-11 キヤノン株式会社 制御装置、リソグラフィ装置、測定装置、加工装置、平坦化装置及び物品製造方法
US11105787B2 (en) 2017-10-20 2021-08-31 Honeywell International Inc. System and method to optimize crude oil distillation or other processing by inline analysis of crude oil properties
US10794609B2 (en) * 2018-02-05 2020-10-06 Mitsubishi Electric Research Laboratories, Inc. Methods and systems for personalized heating, ventilation, and air conditioning
US10901403B2 (en) 2018-02-20 2021-01-26 Uop Llc Developing linear process models using reactor kinetic equations
US10734098B2 (en) 2018-03-30 2020-08-04 Uop Llc Catalytic dehydrogenation catalyst health index
US11301504B2 (en) * 2018-09-28 2022-04-12 International Business Machines Corporation Post hoc bias compensation
US10953377B2 (en) 2018-12-10 2021-03-23 Uop Llc Delta temperature control of catalytic dehydrogenation process reactors
EP3871100A4 (de) * 2019-02-11 2021-12-01 Bitmovin, Inc. Vorhersageadaptionslogik auf datenblockbasis
JP7241597B2 (ja) * 2019-04-23 2023-03-17 東京エレクトロン株式会社 制御方法、計測方法、制御装置及び熱処理装置
EP3751361A1 (de) * 2019-06-13 2020-12-16 ABB Schweiz AG System zur aktionsanzeigebestimmung
JP2022059871A (ja) * 2020-10-02 2022-04-14 キヤノン株式会社 フィードバック制御装置、リソグラフィ装置、測定装置、加工装置、平坦化装置、物品の製造方法、コンピュータプログラム、およびフィードバック制御方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4054780A (en) 1976-11-01 1977-10-18 Phillips Petroleum Company Gain-adaptive process control
US4733733A (en) 1986-02-11 1988-03-29 Nl Industries, Inc. Method of controlling the direction of a drill bit in a borehole
JPH0414105A (ja) * 1990-05-08 1992-01-20 Toshiba Corp プロセス制御装置
JPH06110861A (ja) * 1992-09-30 1994-04-22 Hitachi Ltd 適応的制御システム
JPH08505967A (ja) * 1992-11-24 1996-06-25 パヴィリオン・テクノロジーズ・インコーポレイテッド 欠落および/または不完全なデータを有するニューラルネットワークを作動するための方法および装置
US5539638A (en) * 1993-08-05 1996-07-23 Pavilion Technologies, Inc. Virtual emissions monitor for automobile
DE4338608B4 (de) * 1993-11-11 2005-10-06 Siemens Ag Verfahren und Vorrichtung zur Führung eines Prozesses in einem geregelten System
JP3234109B2 (ja) * 1994-09-08 2001-12-04 株式会社東芝 プロセス制御装置
US5659667A (en) * 1995-01-17 1997-08-19 The Regents Of The University Of California Office Of Technology Transfer Adaptive model predictive process control using neural networks
US5680409A (en) * 1995-08-11 1997-10-21 Fisher-Rosemount Systems, Inc. Method and apparatus for detecting and identifying faulty sensors in a process
US5877954A (en) * 1996-05-03 1999-03-02 Aspen Technology, Inc. Hybrid linear-neural network process control
US5727128A (en) * 1996-05-08 1998-03-10 Fisher-Rosemount Systems, Inc. System and method for automatically determining a set of variables for use in creating a process model
JP3641918B2 (ja) * 1997-10-09 2005-04-27 富士電機システムズ株式会社 電力需要量予測値補正方法
JPH11351049A (ja) * 1998-06-10 1999-12-21 Matsushita Electric Ind Co Ltd パラメータ推定制御装置
US6484133B1 (en) * 2000-03-31 2002-11-19 The University Of Chicago Sensor response rate accelerator

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT503846B1 (de) * 2006-07-03 2008-07-15 Hofkirchner Hubertus Mag Verahren und system zur automatisierten ermittlung von optimierten prognosen
US11460781B2 (en) 2017-10-06 2022-10-04 Canon Kabushiki Kaisha Control device for generating a control deviation via machine learning

Also Published As

Publication number Publication date
US6760716B1 (en) 2004-07-06
DE10127790B4 (de) 2013-03-14
GB2363211A (en) 2001-12-12
JP4993820B2 (ja) 2012-08-08
GB0113932D0 (en) 2001-08-01
JP2002049409A (ja) 2002-02-15
JP5297489B2 (ja) 2013-09-25
JP2011118947A (ja) 2011-06-16
GB2363211B (en) 2004-12-22

Similar Documents

Publication Publication Date Title
DE10127790A1 (de) Adaptives Vorhersagemodell in einem Prozeßsteuerungssystem
DE10304902B4 (de) Anpassung von erweiterten Prozeßsteuerblöcken in Abhängigkeit von veränderlichen Prozeßverzögerungen
DE102004026979B4 (de) Vielfacheingabe- /Vielfachausgabe-Steuer-/Regelblöcke mit nichtlinearen Vorhersagefähigkeiten
DE102007017039B4 (de) Robuste Prozessmodellidentifikation bei modellbasierten Steuerungstechniken
DE102004058238B4 (de) Adaptive, multivariable Prozesssteuerung, die Modellschaltung und Attribut-Interpolation nutzt
DE10021698B4 (de) Auf einem einzelnen Computer realisierte integrierende Funktionalität für ein verteiltes Prozessregelsystem
DE102006045429B4 (de) Adaptive, Modellprädiktive Online-Steuerung in einem Prozesssteuerungssystem
DE10048360B4 (de) Integrierte, fortschrittliche Steuerblöcke in Prozeßsteuersystemen
DE10049513B4 (de) Verfahren und System zum Ermitteln von Abstimmparametern für eine Prozesssteuereinrichtung aus einer Robustheitskarte
DE10127788B4 (de) Integrierte Optimalmodell-Vorhersagesteuerung in einem Prozeßsteuerungssystem
DE3721186C2 (de)
DE102014109033A1 (de) Nicht intrusive datenanalyse in einem prozesssteuerungssystem
DE19531967C2 (de) Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems
DE3512276A1 (de) Mustererkennender, selbstanpassender regler
DE4338615A1 (de) Verfahren und Vorrichtung zur Führung eines Prozesses in einem geregelten System
DE102008038347A1 (de) Verfahren zur Analyse der Leistungscharakteristik einer Gasturbine und System zur Analyse der Leistungscharakteristik einer Gasturbine
DE102020118259A1 (de) Echtzeitsteuerung unter verwendung der gerichteten vorhersage-simulation innerhalb eines steuerungssystems einer prozessanlage
DE102011012710A1 (de) Schnelle Identifikation und Erzeugung von Prozessmodellen
DE102013100434A1 (de) Kompensieren von Sollwertänderungen in einer nicht-periodisch aktualisierten Steuereinrichtung
DE4338607A1 (de) Verfahren und Vorrichtung zur Führung eines Prozesses in einem geregelten System
DE112018000468T5 (de) Verfahren zum Entwerfen eines Filters eines Verzögerungskompensators, Regelungsverfahren unter Verwendung desselben und Motorsteuervorrichtung
EP2082294B1 (de) Verfahren und vorrichtung zur identifikation einer verzögerungsbehafteten regelstrecke, regeleinrichtung und computerprogrammprodukt
DE102004025876B4 (de) Vorrichtung und Verfahren zur Stapeleigenschaftsschätzung
DE102016119421A1 (de) Geschwindigkeitsbasierte Regelung in einem nichtperiodisch aktualisierten Controller
EP3542229A1 (de) Einrichtung und verfahren zur bestimmung der parameter einer regeleinrichtung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G05B 1700 20060101

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20130615

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee