DE19817600A1 - Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen - Google Patents

Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen

Info

Publication number
DE19817600A1
DE19817600A1 DE19817600A DE19817600A DE19817600A1 DE 19817600 A1 DE19817600 A1 DE 19817600A1 DE 19817600 A DE19817600 A DE 19817600A DE 19817600 A DE19817600 A DE 19817600A DE 19817600 A1 DE19817600 A1 DE 19817600A1
Authority
DE
Germany
Prior art keywords
data
cases
compression
matrix
case
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19817600A
Other languages
English (en)
Inventor
Herbert Furumoto
Juergen Hollatz
Thomas Runkler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19817600A priority Critical patent/DE19817600A1/de
Priority to EP99107829A priority patent/EP0952501B1/de
Priority to AT99107829T priority patent/ATE255238T1/de
Priority to DE59907831T priority patent/DE59907831D1/de
Publication of DE19817600A1 publication Critical patent/DE19817600A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/0285Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks and fuzzy logic

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Zur datengetriebenen Prozeßführung werden Prozeßgrößen erfaßt, als Daten bereitgestellt und daraus geeignete Arbeitspunkte abgeleitet. Gemäß der Erfindung wird bei der Datenbereitstellung eine Datenkompression durch Zusammenfassung von Daten durchgeführt. Die Datenkompression, die nach unterschiedlichen, an sich bekannten mathematischen Methoden erfolgen kann, dient im Rahmen der Prozeßoptimierung zur Festlegung der Arbeitspunkte.

Description

Die Erfindung bezieht sich auf ein Verfahren zur datengetrie­ benen Prozeßführung und Prozeßoptimierung von technischen Vorgängen, wobei Prozeßdaten erfaßt und daraus geeignete (optimale) Arbeitspunkte für die Prozeßführung abgeleitet werden.
Komplexe Produktionsprozesse werden durch eine Vielzahl von Prozeßgrößen beschrieben. Bekannte Datenerfassungssysteme, wie z. B. MIMS (Millwide Information Management System), werden immer leistungsfähiger und sammeln Gbytes von Daten. Diese Datenflut muß eingedämmt werden, indem die Prozeßdaten intel­ ligent und technologisch sinnvoll komprimiert werden. Unter­ schiedliche Kompressionsmethoden werden im einzelnen in der Monographie von J. C. Bezdek "Pattern Recognition with Fuzzy Objective Function Algorithms" (Plenum Press New York & London (1961)), insbesondere Kap. S11 beschrieben. Weitere Veröffentlichungen zum Stand der Technik, auf die jeweils direkt verwiesen wird, sind am Schluß der Beschreibung als Literaturliste aufgeführt.
Aufgabe der Erfindung ist es demgegenüber, ein Verfahren der eingangs genannten Art vorzuschlagen, mit dem eine geeignete Auswahl der Arbeitspunkte gewährleistet wird.
Die Aufgabe ist erfindungsgemäß dadurch gelöst, daß bei der Datenbereitstellung eine Datenkompression durchgeführt wird. Mit einer solchen Datenkompression wird vorteilhafterweise die Bestimmung der Arbeitspunkte vereinfacht.
Im Rahmen der Erfindung können nunmehr sichere und stabile Arbeitspunkte als Ergebnis der Kompression entstehen. Rauschen, Zufälligkeiten und Meßfehler werden beseitigt. Diese Arbeitspunkte können betriebswirtschaftlich bewertet werden und unter vorgegebenen Randbedingungen kann der beste Arbeitspunkt ausgewählt werden. Die Modellierung mit den komprimierten Arbeitspunkten liefert geeignete Modelle. Außerdem gestattet die Kompression ein Speichern der Daten­ information von längeren Prozeßlaufzeiten, so daß eine zu­ verlässige Modellierung möglich wird.
Zur Realisierung der Erfindung werden folgende, für sich gesehen bekannte Ansätze zur Datenkompression unterschieden:
  • A) Fall- und Dimensionskompression: Ein Datensatz läßt sich als eine Matrix schreiben, dessen Zeilen jeweils den Daten eines Falles entsprechen. Jede Meßgröße entspricht daher einer Spalte in der Datenmatrix. Zur Kompression der Daten läßt sich einerseits die Höhe der Matrix, also die Anzahl der Fälle, reduzieren, andererseits aber auch die Breite der Matrix, also die Anzahl der verwendeten Meßgrößen. Im ersten Fall spricht man von einer Fallkompression, im zweiten Fall von einer Dimensionskompression.
  • B) Offline-, Batch- und Online-Methoden: Die Offline-Kompres­ sion erhält als Eingangsgrößen einen gesamten Satz von Daten und berechnet daraus einen komprimierten Datensatz. Bei den Batchmethoden wird über einen gewissen Zeitraum der Strom der Fälle gesammelt und in einen Datensatz ge­ speichert. Dieser Datensatz wird anschließend mit Offline- Methoden komprimiert. Reine Online-Methoden erhalten jeweils einen einzelnen Fall und geben daraufhin keinen oder einen Fall aus.
  • C) Kompression als Vorverarbeitung und zur Modellierung: Wenn zu viele Fälle aufgenommen wurden, um eine effiziente Modellbildung durchführen zu können, ist es sinnvoll, vor der Modellierung die Anzahl der Fälle durch eine Kompres­ sion zu reduzieren (Vorverarbeitung). Andererseits werden bei einer hohen Kompressionsrate besonders typische Fälle bestimmt, die ihrerseits bereits als Modell interpretiert werden können (case based learning). Methodisch unter­ scheiden sich die beiden Ansätze kaum.
  • D) Reale und künstliche Fälle: Die vom Komprimierungsverfah­ ren erzeugten Fälle können real sein, also tatsächliche Fälle, die im Originaldatensatz vorkommen, oder künstlich, also z. B. Mittelwerte aus mehreren sehr ähnlichen Fällen. Reale Fälle haben den Vorteil, daß sie erprobte Anlagen­ zustände enthalten. Bei "gutmütigen" Prozessen ist jedoch auch eine Interpolation von Anlagenzuständen gefahrlos möglich.
Weitere Einzelheiten und Vorteile der Erfindung ergeben sich aus der nachfolgenden Figurenbeschreibung von einzelnen Bei­ spielen anhand der Zeichnung in Verbindung mit den Patent­ ansprüchen. Es zeigen
Fig. 1 eine tabellarische Darstellung zur Verdeutlichung der unterschiedlichen Kompressionsmethoden,
Fig. 2 eine Darstellung von Ergebnissen, die mit der FCM- Methode erzielt wurden,
Fig. 3 eine Darstellung eines sogenannten RBF-Netzes und
Fig. 4 die damit erzielten Ergebnisse,
Fig. 5 eine Verdeutlichung der Methode der Entscheidungs­ bäume und
Fig. 6 Histogramme der damit erzielten Regressionsflächen,
Fig. 7 Darstellung eines Selbstorganisierenden Kohonen- Netzes, sowie
Fig. 8 die Verwendung der sogenannten regulären Cluster im Ausgangsraum.
Fig. 1 kann die Leistungsfähigkeit der verschiedenen im Rahmen vorliegender Untersuchungen betrachteter Methoden in Tabellendarstellung verdeutlichen: Aufgetragen sind in den Spalten entsprechend den einleitend erläuterten Unterteilun­ gen die Fall- und Dimensionskompression (A), Online-, Batch- und Offline-Methoden (B), die Vorverarbeitung und Modellie­ rungsmethoden (C) und die realen und künstlichen Fälle (D). Die 8 Zeilen der Tabelle beinhalten jeweils die nachfolgend im einzelnen erläuterten Methoden gemäß den Punkten 1 bis 8. Die sinnvollen Kombinationsmöglichkeiten sind angekreuzt.
Zur Datenkompression werden folgende Methoden untersucht:
1. Fuzzy c-means (FCM)
Fuzzy c-means [Bezdek] ist ein bewährtes und effizientes Clusterverfahren, das aus einem Datensatz X = {x1, . . ., xn} eine vorher festgelegte Anzahl c von Clusterzentren vi und die Zugehörigkeiten uik der Daten zu diesen Zentren bestimmt. Dazu wird die gewichtete Summe der quadratischen Abstände zwischen Daten und Clusterzentren minimiert. Die Kostenfunktion lautet also
wobei Dik den Abstand zwischen Datum xk und vi bezeichnet. Zur Minimierung von J eignet sich ein alternierendes Opti­ mierungsverfahren. Es werden abwechselnd Clusterzentren
und Zugehörigkeiten
berechnet, bis die Änderungen aller Clusterzentren kleiner als ein Grenzwert sind. Die Unschärfe der Cluster läßt sich vom Benutzer durch den Exponenten m einstellen. Fuzzy c- means kann verwendet werden, um aus einem Satz von Fällen eine bestimmte Anzahl typischer Fälle und darüber hinaus für jeden gemessenen Fall die entsprechenden Zugehörigkeiten zu bestimmen.
Fig. 2 zeigt einen durch Punkte dargestellten Datensatz und die mit der vorstehend beschriebenen Methode gefundenen Clusterzentren, die durch Kreuze dargestellt sind. Es ergibt sich eine gute Übereinstimmung.
Die Methode der Fuzzy c-means kann dadurch weiterentwickelt werden, daß aus den Datensätzen bestimmte Blöcke herausge­ griffen werden. Ausgehend von einer alternierenden Clusterschätzung wird in jedem Iterationsschritt nur eine Teilmenge des gesamten Datensatzes betrachtet. Damit wird die Datenkompression erheblich beschleunigt und man spricht von sog. "Fast Fuzzy c-means" (FFCM).
2. Radiale Basisfunktionen (RBF)
Datenkompression kann anhand von neuronalen Netzen mit radia­ len Basisfunktionen realisiert werden, indem die Zentren der Basisfunktionen als komprimierte Daten betrachtet werden. Bei Netzen mit radialen Basisfunktionen handelt es sich um zwei­ schichtige Netze mit einer Eingabeschicht, einer verdeckten und einer Ausgabeschicht.
Letzteres wird anhand Fig. 3 verdeutlicht: Die abstrahierte Darstellung zeigt die Eingänge 31, 31', . . ., die verdeckte Schicht mit den einzelnen Basisfunktionen 32, 32' . . . Die Ausgänge sind mit 33, 33', . . . bezeichnet.
Ein Eingabedatum produziert in einem Knoten der versteckten Schicht nur dann einen signifikant von 0 verschiedenen Aus­ gabewert, wenn es in eine bestimmte Region des Eingaberaums trifft. Obwohl in der Praxis verschiedene Basisfunktionen verwendet werden, wird als Basis meistens eine Gaußsche Funktion der folgenden Form genutzt:
wobei bj(x) die Ausgabe des j-ten Knotens in der versteckten Schicht ist, κj ein positiver, reeller Gewichtungswert der Basisfunktion, x das L-dimensionale Eingabemuster und cj der Gewichtsvektor des j-ten Knotens in der versteckten Schicht bzw. das Zentrum der Gaußschen Funktion ist. σj 2 ist der Normalisierungsparameter des j-ten Knotens bzw. die Weite der Basisfunktion und N ist der Anzahl der Knoten in der versteckten Schicht.
Die Ausgabe lautet als Netzausgabe für einen Knoten y:
Dies ist ein sehr allgemeines Konzept, da man völlig frei ist, die Form der Basisfunktionen bi(x) zu spezifizieren. Die Parameter werden über ein Gradientenabstiegsverfahren berechnet (siehe [Moody], [Hollatz]). Die Zentren der Basis­ funktionen sind die komprimierten Daten. Die Anzahl der komprimierten Daten wird durch die Anzahl der Basisfunktion festgelegt.
3. Wahrscheinlichkeitstheoretische Algorithmen
Datenkompression kann aber auch über die Bestimmung von Wahr­ scheinlichkeitsdichten vorgenommen werden. Dabei wird die gemeinsame Dichte durch Kombination von einfachen Verteilun­ gen, wie z. B. der Gaußverteilung, berechnet. Die Gaußschen Verteilungen kennzeichnen Cluster, in denen mehrere Daten zusammengefaßt sind. Die Mittelwerte der Gaußverteilungen sind dann wieder die Werte für die komprimierten Daten. Die Wahrscheinlichkeit für ein bestimmtes Datum z ist
wobei θ = [θ1, . . ., θm] den Parametervektor, wie z. B. Mittelwert (komprimiertes Datum) und Streuung, bezeichnet. sj bezeichnet die j-te Dichte und P(sj) die a priori-Wahrscheinlichkeit. Das anzustrebende Ziel ist nun den unbekannten Parametervek­ tor θ aufgrund der durch die gemeinsame Dichte generierten Muster zu schätzen. Angenommen es sei eine Menge H = {z1, . . ., zn} von n ungekennzeichneten Mustern gegeben, die von einer gemeinsamen Dichte unabhängig generiert worden sind. Der Parametervektor θ ist zwar fest, aber unbekannt. Die Wahrscheinlichkeit der beobachteten Muster ist definiert anhand ihrer gemeinsamen Dichte
Die Maximum-Likelihood-Schätzung θ' ist der Wert für θ, der L maximiert. Mit dem EM-Algorithmus (Expectation Maximimi­ zation) kann eine solche Schätzung angegeben werden. Dabei werden Gaußsche Dichten zugrundegelegt, deren Parameter mit dem EM-Algorithmus zu bestimmen sind. Statt des EM-Algorith­ mus kann auch ein Gradientenabstiegsverfahren benutzt werden. Diese Verfahren sind in [Duda, Hart] und [Hollatz] beschrie­ ben.
4. Äquidistante Grids
Wenn der Wertebereich jeder Meßgröße auf ein festes Intervall begrenzt wird, kann jeder Fall aus dem Datensatz als ein Punkt in einem Hyperwürfel dargestellt werden. Dieser Hyper­ würfel läßt sich mit einem regelmäßigen Hypergitter in klei­ nere Hyperquader aufteilen. Jeder Hyperquader, in den minde­ stens ein Fall hineinfällt, repräsentiert dann einen typi­ schen Fall.
In Fig. 4 sind die mit dieser Methode erhaltenen Ergebnisse dargestellt und in der graphischen Darstellung jeweils mit einem Kreuz markiert. Ersichtlich ist, daß je ein Punkt die­ ser Hyperquader als Arbeitspunkt interpretiert werden kann.
5. Machine-Learning (Entscheidungsbäume)
Auch mit datengenerierten Entscheidungsbäumen können Daten geclustert und damit komprimiert werden. Die Idee eines binären Entscheidungsbaumes liegt im gezielten Abfragen nach Parametergrößen an jedem Knoten des Baumes, so daß Bereiche im Eingaberaum ermittelt werden können, die einerseits so groß sind, um die Problemstruktur ausreichend zu repräsen­ tieren, und andererseits eine genügend große Verallgemei­ nerungsfähigkeit garantieren. Dieser Bereich und sein zuge­ höriger Ausgabewert ist durch einen Terminalknoten und die Parameterbegrenzung auf dem zugehörigen Pfad von der Wurzel definiert.
Der Entscheidungsbaum wird generiert durch:
  • - eine Menge ℘ von binären Fragen der Form {Ist x ∈ A?}, mit A ⊃ ℵ, (ℵ ist der Eingaberaum; die Fragen, bzw. Tei­ lungen, sind in den Abbildungen als Split bezeichnet), die Güte des Aufteilungkriteriums ϕ(s, t), die für jede Auftei­ lung s und jeden Knoten t berechnet werden kann,
  • - eine Regel, um den Teilungsprozeß zu beenden, und
  • - eine Regel, um jedem Knoten einer Klasse zu zuordnen.
Ein Beispiel eines Entscheidungsbaumes und die entsprechende Regressionsfläche als Histogramm (verändert aus Breiman et al.) ist in den Fig. 5 und 6 wiedergegeben. Im Enschei­ dungsbaum gemäß Fig. 5 sind Entscheidungsknoten t1, t2, t3 und t7 vorhanden, wobei die jeweiligen Ergebnisse mit t4 bis t6 sowie t8 und t9 angegeben sind. Diese Ergebnisse bilden in der dreidimensionalen Darstellung gemäß Fig. 6 die Regres­ sionsflächen.
Der Eingaberaum ℵ ist durch eine Reihe von binären Teilungen in Terminalknoten eingeteilt. In jedem Terminalknoten t ist die vorausgesagte Antwort ein konstanter Wert y(t). Da der Prädiktor d(x) über jeden Terminalknoten einen konstanten Wert hat, kann der Baum auch als ein geschätztes Histogramm der Regressionsoberfläche angesehen werden. Ist Γ die Lern­ menge, so benötigt man zur Bestimmung des Baumprädiktors, wie oben schon erwähnt, erstens, ein Verfahren, um eine Teilung an jedem mittleren Knoten auszuwählen, zweitens, eine Regel, um auszuwählen, wann ein Knoten Terminalknoten wird, und drittens, eine Regel, um jedem Terminalknoten t einen Wert y(t) zuzuweisen. Der Regressionsbaum wird durch iteratives Spalten der Knoten aufgebaut, wobei jedesmal die Abnahme von R(T) maximiert wird. Unterschreitet R(t) einen festgelegten Schwellwert, oder hat die Baumtiefe einen Maximalwert er­ reicht, so wird der Knoten nicht mehr geteilt, sondern als Terminalknoten ausgezeichnet. Die Terminalknoten repräsen­ tieren jeweils eine Klasse von Daten. Der Mittelwert der Daten die in diese Klasse fallen, sind mit den komprimierten Daten gleichzusetzen. Die Anzahl der komprimierten Daten entspricht der Anzahl von Terminalknoten. Der Algorithmus zur Generierung von Entscheidungsbäumen ist in [Breiman] be­ schrieben.
6. Kohonen-Algorithmen (z. B. Neural Gas)
Selbstorganisierende topologieerhaltende häufig zur Cluster­ analyse eingesetzt und können dadurch auch zur Datenkompres­ sion benutzt werden. Kohonen's Algorithmus arbeitet mit einem Vektorquantisierungsverfahren, indem die Gewichte zwischen den Eingangsdaten und M Ausgabeknoten, d. h. Cluster, angepaßt werden. Die Ausgabeknoten sind in einer zweidimensionalen Schicht angeordneten und untereinander verbunden.
Letzteres wird anhand Fig. 7 verdeutlicht: x0 bis xn-1 bil­ den die Eingabedaten für ein selbstorganisierendes Kohonen- Netzwerk, das in der Ausgabeschicht 60 die einzelnen Ausgabe­ einheiten aufweist.
Ohne eine gewünschte Ausgabe mit einzubeziehen, werden die Eingabedaten beim Training sequentiell abgearbeitet. Nachdem genügend viele Iterationsschritte vollzogen wurden, geben die Gewichte der Karte den Eingaberaum derart wieder, daß sie Clusterzentren darstellen und damit auch die Werte der kom­ primierten Daten. Die Gewichte werden so im Netz positio­ niert, daß physisch ähnliche Eingabewerte in räumlich benach­ barte Knoten abgebildet werden. Die Anzahl der komprimierten Daten entspricht der Anzahl der Ausgabeneuronen. Der detail­ lierte Algorithmus ist u. a. in [Kohonen] angegeben.
7. FCM-Modifikation für Cluster mit gleicher Elementzahl
Eine wünschenswerte Eigenschaft der Kompression ist, daß zu jedem typischen Fall gleich viel Originalfälle gehören. Die Klassendichte soll also der Punktedichte entsprechen. Fuzzy c-means und andere Clusterverfahren bestimmen Cluster, die in etwa die gleiche Größe besitzen, nicht aber die gleiche Anzahl von Punkten. Dies ist jedoch möglich durch eine Modifikation des Clusterverfahrens.
8. reguläre Fuzzy c-means im Ausgangsraum
Eine andere wünschenswerte Eigenschaft der Kompression ist, daß die Anzahl typischer Fälle dort besonders hoch ist, wo sich ein bestimmter betrachteter Ausgangswert stark ändert, d. h. wo die Eingangs-Ausgangs-Empfindlichkeit besonders hoch ist. Diese Eigenschaft kann leicht durch eine Modifikation des in [Runkler, Palm] entwickelten regulären Clusterings erreicht werden. Bei dieser Modifikation werden die Zuge­ hörigkeitsfunktionen des Ausgangs a priori festgelegt, und zwar beispielsweise in Form von Dreiecken, deren Grundseite dem doppelten Meßfehler entspricht. Für jeden Punkt werden die Zugehörigkeiten zu den Ausgangsclustern berechnet und die typischen Fälle wie beim Fuzzy c-means durch Center-of- Gravity Defuzzifizierung [Runkler] mit
bestimmt.
Letzteres wird durch Fig. 8 verdeutlicht: Auf der Abszisse sind in der kombinierten Darstellung die Eingänge bzw. die Zugehörigkeit aufgetragen, auf der Ordinate die Ausgänge bzw. die Zugehörigkeit. Bei den regulären Clustern im Ausgangsraum entspricht die Klassendichte der Empfindlichkeit.
Bei der Beschreibung der unterschiedlichen Kompressions­ methoden wurde auf Literaturveröffentlichungen als Teil der Offenbarung verwiesen, die nachfolgend als Liste zusammen­ gestellt sind:
Literaturliste
Bezdek, J., Pattern Recognition with Fuzzy Objective Function Algorithms. Plenum Press, New York (1981).
Breiman, L., et al., Classification and Regression trees. Wadsworth and Brooks (1981).
Duda, R. O., Hart, P. E., Pattern Classification and Scene Analysis. John Wiley and Sons, New York (1973).
Hollatz, J., Integration von regelbasiertem Wissen in neuronale Netze. Dissertation, TU München (1993).
Kohonen, T., Self-Organizing Maps. Springer-Verlag, Heidelberg (1995).
Moody, J., Darken, C., Fast Learning in Networks of Locally-Tuned Processing Units. Neural Computation, Vol. 1 (1989) 281-294.
Runkler, T., Palm, R., Identification of Nonlinear Systems Using Regular Fuzzy c-Elliptotype Clustering. IEEE Inter­ national Conference an Fuzzy Systems, New Orleans (1996) 1026-1030.
Runkler, T., Selection of Appropriate Defuzzification Methods Using Application Specific Properties. IEEE Transactions on Fuzzy Systems 5 : 1 (1997) 72-79.4

Claims (17)

1. Verfahren zur datengetriebenen Prozeßführung und Prozeß­ optimierung von technischen Vorgängen, wobei Prozeßgrößen er­ faßt, als Daten bereitgestellt und daraus geeignete Arbeits­ punkte für die Prozeßführung abgeleitet werden, da­ durch gekennzeichnet, daß bei der Datenbereitstellung eine Datenkompression durch Zusammen­ fassen von Daten durchgeführt wird.
2. Verfahren nach Anspruch 1, dadurch gekenn­ zeichnet, daß die Datenkompression zur Bestimmung der Arbeitspunkte dient.
3. Verfahren nach Anspruch 1, dadurch gekenn­ zeichnet, daß eine Fall- und/oder Dimensionskom­ pression durchgeführt wird, bei der ein einzelner Datensatz als Matrix geschrieben wird mit den Daten eines Falls als Matrixzeilen und der Meßgröße als Matrixspalte, und daß bei der so erhaltenden Matrix die Höhe, also die Anzahl der Fälle, und/oder die Breite, also die Anzahl der verwendeten Meßgrößen, reduziert werden.
4. Verfahren nach Anspruch 1, dadurch gekenn­ zeichnet, daß eine sogenannte Offline-Kompression durchgeführt wird, bei der als Eingangsgrößen ein gesamter Satz von Daten erhalten wird und daraus ein komprimierter Datensatz bestimmt wird.
5. Verfahren nach Anspruch 1, dadurch gekenn­ zeichnet, daß eine Batch-Methode durchgeführt wird, bei dem über einen vorgegebenen Zeitraum die Fälle gesammelt und in einem Datensatz gespeichert werden, der anschließend mit Offline-Methoden komprimiert wird.
6. Verfahren nach Anspruch 1, dadurch gekenn­ zeichnet, daß eine Online-Methode durchgeführt wird, bei der jeder einzelne Fall geprüft und entweder keiner oder ein Fall ausgegeben wird.
7. Verfahren nach Anspruch 6, dadurch gekenn­ zeichnet, daß bei einer hohen Kompressionsrate typische Fälle bestimmt werden, die als Modell interpretiert werden.
8. Verfahren nach Anspruch 1, dadurch gekenn­ zeichnet, daß neben realen Fällen auch künstliche Fälle, beispielsweise als Mittelwerte aus mehreren ähnlichen Fällen, generiert werden.
9. Verfahren nach einem der vorhergehenden Ansprüche, da­ durch gekennzeichnet, daß zur Daten­ kompression die Methode der "Fuzzy-c-means" (FCM) angewandt wird.
10. Verfahren nach Anspruch 9, dadurch ge­ kennzeichnet, daß schnelle "Fuzzy-c-means" (FFCM) eingesetzt werden.
11. Verfahren nach einem der Ansprüche 1 bis 8, da­ durch gekennzeichnet, daß die Methode der radialen Basisfunktionen (RBF) angewandt wird.
12. Verfahren nach einem der Ansprüche 1 bis 8, da­ durch gekennzeichnet, daß wahrschein­ lichkeitstheoretische Algorithmen eingesetzt werden.
13. Verfahren nach einem der Ansprüche 1 bis 8, da­ durch gekennzeichnet, daß sogenannte "äquidistante Grids" eingesetzt werden.
14. Verfahren nach einem der Ansprüche 1 bis 8, da­ durch gekennzeichnet, daß sogenanntes "Machine-Learning" eingesetzt wird, wobei Entscheidungsbäume verwendet werden.
15. Verfahren nach einem der Ansprüche 1 bis 8, da­ durch gekennzeichnet, daß Kohonen- Algorithmen eingesetzt werden.
16. Verfahren nach einem der Ansprüche 1 bis 8, da­ durch gekennzeichnet, daß eine FCM- Modifikation für Cluster mit gleicher Elementzahl realisiert wird.
17. Verfahren nach einem der Ansprüche 1 bis 8, da­ durch gekennzeichnet, daß reguläre "Fuzzy-c-means" im Ausgangsraum verwendet werden.
DE19817600A 1998-04-20 1998-04-20 Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen Ceased DE19817600A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE19817600A DE19817600A1 (de) 1998-04-20 1998-04-20 Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen
EP99107829A EP0952501B1 (de) 1998-04-20 1999-04-20 Verfahren zur datengetriebenen Prozessführung und Prozessoptimierung von technischen Vorgängen
AT99107829T ATE255238T1 (de) 1998-04-20 1999-04-20 Verfahren zur datengetriebenen prozessführung und prozessoptimierung von technischen vorgängen
DE59907831T DE59907831D1 (de) 1998-04-20 1999-04-20 Verfahren zur datengetriebenen Prozessführung und Prozessoptimierung von technischen Vorgängen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19817600A DE19817600A1 (de) 1998-04-20 1998-04-20 Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen

Publications (1)

Publication Number Publication Date
DE19817600A1 true DE19817600A1 (de) 1999-10-28

Family

ID=7865196

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19817600A Ceased DE19817600A1 (de) 1998-04-20 1998-04-20 Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen

Country Status (1)

Country Link
DE (1) DE19817600A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10126251A1 (de) * 2001-05-29 2003-01-23 Buehler Ag Online-Prozessüberwachung und Online-Prozessmodelierung
WO2007128530A2 (de) * 2006-05-05 2007-11-15 Giesecke & Devrient Gmbh Verfahren und vorrichtung zum personalisieren von karten

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4305409A1 (de) * 1993-02-22 1994-08-25 Ibh Bernhard Hilpert Ingenieur Verfahren zur numerischen Bahnsteuerung
WO1997033261A1 (en) * 1996-03-06 1997-09-12 Schlumberger Industries, Inc. System for utility meter communications using a single rf frequency

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4305409A1 (de) * 1993-02-22 1994-08-25 Ibh Bernhard Hilpert Ingenieur Verfahren zur numerischen Bahnsteuerung
WO1997033261A1 (en) * 1996-03-06 1997-09-12 Schlumberger Industries, Inc. System for utility meter communications using a single rf frequency

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HOLLATZ, J., Integration von regelbasiertem Wissen in neuronale Netze. Dissertation, TU Mün- chen (1993) *
KOHOHNEN, T., Self-Organizing Maps. Springer- Verlag, Heidelberg (1995) *
MOODY, J., DARKEN, C., Fast Learning in Networks of Locally-Tuned Processing Units. Neural Com- putation, Vol.1 (1989) 281-294 *
RUNKLER, T., PALM, R., Identification of Non- linear Systems Using Regular Fuzzy c-Elliptotype Clustering. IEEE International Conference on Fuzzy Systems, New Orleans (1996) 1026-1030 *
RUNKLER, T., Selectionn of Appropriate Defuzzi- fication Methods Using Application Specific Properties. IEEE Transactions on Fuzzy Systems 5:1 (1997) 72-79.4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10126251A1 (de) * 2001-05-29 2003-01-23 Buehler Ag Online-Prozessüberwachung und Online-Prozessmodelierung
WO2007128530A2 (de) * 2006-05-05 2007-11-15 Giesecke & Devrient Gmbh Verfahren und vorrichtung zum personalisieren von karten
WO2007128530A3 (de) * 2006-05-05 2008-03-20 Giesecke & Devrient Gmbh Verfahren und vorrichtung zum personalisieren von karten

Similar Documents

Publication Publication Date Title
Amit et al. Learning in neural networks with material synapses
DE69838181T2 (de) Visualisierung und selbstorganisation multidimensionaler daten durch ausgeglichene orthogonale abbildung
DE60208223T2 (de) Anordnung und verfahren zur gesichtserkennung unter verwendung von teilen des gelernten modells
DE102005046747B3 (de) Verfahren zum rechnergestützten Lernen eines neuronalen Netzes und neuronales Netz
DE10296704T5 (de) Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten
WO2010086325A1 (de) Verfahren und sensornetz zur merkmalsauswahl für eine ereigniserkennung
AT412678B (de) Verfahren zur rechnergestützten erstellung von prognosen für operative systeme sowie system zur erstellung von prognosen für operative systeme
EP0875808A2 (de) Verfahren und System zur Generierung eines Prozessmodells eines technischen Prozesses
DE102020121098A1 (de) Batteriemanagementsystem zum Klassifizieren eines Batteriemoduls
EP0901658A1 (de) Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner
DE4409169C2 (de) Verfahren und Anordnung zur Fuzzy-Regelung
DE4121453C2 (de) Näherungsschlußfolgerungsvorrichtung
DE19817600A1 (de) Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen
EP0952501B1 (de) Verfahren zur datengetriebenen Prozessführung und Prozessoptimierung von technischen Vorgängen
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
DE202022104771U1 (de) Ein evolutionäres Neuro-Fuzzy-System unter Verwendung von evolutionärem Fuzzy-Clustering und syndizierten neuronalen Netzen
WO1997036248A1 (de) Verfahren zur ermittlung von zur entfernung geeigneten gewichten eines neuronalen netzes mit hilfe eines rechners
WO1996006400A1 (de) Verfahren zur festlegung des gültigkeitsbereichs für ein künstliches neuronales netzwerk
DE4439505A1 (de) Verfahren zum Entwurf eines Fuzzy-Reglers
DE19951078C2 (de) Verfahren zur Musterklassifizierung
DE60309191T2 (de) System zum fuzzy-assoziativen beschreiben von multimedia-gegenständen
DE102020209254A1 (de) Vorrichtung zur rechnergestützten Klassifikation von Sensordaten unter Verwendung einer trainierten neuronalen Netzstruktur
EP0681234B1 (de) Verfahren zur Fuzzy-Inferenz in einem Fuzzy-Regelkreis
Sinčák et al. Membership function-ARTMAP neural networks
WO2022069275A1 (de) Vorrichtung und computerimplementiertes verfahren für eine netzwerkarchitektursuche

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection