DE19817600A1 - Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen - Google Patents
Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen VorgängenInfo
- Publication number
- DE19817600A1 DE19817600A1 DE19817600A DE19817600A DE19817600A1 DE 19817600 A1 DE19817600 A1 DE 19817600A1 DE 19817600 A DE19817600 A DE 19817600A DE 19817600 A DE19817600 A DE 19817600A DE 19817600 A1 DE19817600 A1 DE 19817600A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- cases
- compression
- matrix
- case
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/0285—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks and fuzzy logic
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Zur datengetriebenen Prozeßführung werden Prozeßgrößen erfaßt, als Daten bereitgestellt und daraus geeignete Arbeitspunkte abgeleitet. Gemäß der Erfindung wird bei der Datenbereitstellung eine Datenkompression durch Zusammenfassung von Daten durchgeführt. Die Datenkompression, die nach unterschiedlichen, an sich bekannten mathematischen Methoden erfolgen kann, dient im Rahmen der Prozeßoptimierung zur Festlegung der Arbeitspunkte.
Description
Die Erfindung bezieht sich auf ein Verfahren zur datengetrie
benen Prozeßführung und Prozeßoptimierung von technischen
Vorgängen, wobei Prozeßdaten erfaßt und daraus geeignete
(optimale) Arbeitspunkte für die Prozeßführung abgeleitet
werden.
Komplexe Produktionsprozesse werden durch eine Vielzahl von
Prozeßgrößen beschrieben. Bekannte Datenerfassungssysteme,
wie z. B. MIMS (Millwide Information Management System), werden
immer leistungsfähiger und sammeln Gbytes von Daten. Diese
Datenflut muß eingedämmt werden, indem die Prozeßdaten intel
ligent und technologisch sinnvoll komprimiert werden. Unter
schiedliche Kompressionsmethoden werden im einzelnen in der
Monographie von J. C. Bezdek "Pattern Recognition with Fuzzy
Objective Function Algorithms" (Plenum Press New York &
London (1961)), insbesondere Kap. S11 beschrieben. Weitere
Veröffentlichungen zum Stand der Technik, auf die jeweils
direkt verwiesen wird, sind am Schluß der Beschreibung als
Literaturliste aufgeführt.
Aufgabe der Erfindung ist es demgegenüber, ein Verfahren der
eingangs genannten Art vorzuschlagen, mit dem eine geeignete
Auswahl der Arbeitspunkte gewährleistet wird.
Die Aufgabe ist erfindungsgemäß dadurch gelöst, daß bei der
Datenbereitstellung eine Datenkompression durchgeführt wird.
Mit einer solchen Datenkompression wird vorteilhafterweise
die Bestimmung der Arbeitspunkte vereinfacht.
Im Rahmen der Erfindung können nunmehr sichere und stabile
Arbeitspunkte als Ergebnis der Kompression entstehen.
Rauschen, Zufälligkeiten und Meßfehler werden beseitigt.
Diese Arbeitspunkte können betriebswirtschaftlich bewertet
werden und unter vorgegebenen Randbedingungen kann der beste
Arbeitspunkt ausgewählt werden. Die Modellierung mit den
komprimierten Arbeitspunkten liefert geeignete Modelle.
Außerdem gestattet die Kompression ein Speichern der Daten
information von längeren Prozeßlaufzeiten, so daß eine zu
verlässige Modellierung möglich wird.
Zur Realisierung der Erfindung werden folgende, für sich
gesehen bekannte Ansätze zur Datenkompression unterschieden:
- A) Fall- und Dimensionskompression: Ein Datensatz läßt sich als eine Matrix schreiben, dessen Zeilen jeweils den Daten eines Falles entsprechen. Jede Meßgröße entspricht daher einer Spalte in der Datenmatrix. Zur Kompression der Daten läßt sich einerseits die Höhe der Matrix, also die Anzahl der Fälle, reduzieren, andererseits aber auch die Breite der Matrix, also die Anzahl der verwendeten Meßgrößen. Im ersten Fall spricht man von einer Fallkompression, im zweiten Fall von einer Dimensionskompression.
- B) Offline-, Batch- und Online-Methoden: Die Offline-Kompres sion erhält als Eingangsgrößen einen gesamten Satz von Daten und berechnet daraus einen komprimierten Datensatz. Bei den Batchmethoden wird über einen gewissen Zeitraum der Strom der Fälle gesammelt und in einen Datensatz ge speichert. Dieser Datensatz wird anschließend mit Offline- Methoden komprimiert. Reine Online-Methoden erhalten jeweils einen einzelnen Fall und geben daraufhin keinen oder einen Fall aus.
- C) Kompression als Vorverarbeitung und zur Modellierung: Wenn zu viele Fälle aufgenommen wurden, um eine effiziente Modellbildung durchführen zu können, ist es sinnvoll, vor der Modellierung die Anzahl der Fälle durch eine Kompres sion zu reduzieren (Vorverarbeitung). Andererseits werden bei einer hohen Kompressionsrate besonders typische Fälle bestimmt, die ihrerseits bereits als Modell interpretiert werden können (case based learning). Methodisch unter scheiden sich die beiden Ansätze kaum.
- D) Reale und künstliche Fälle: Die vom Komprimierungsverfah ren erzeugten Fälle können real sein, also tatsächliche Fälle, die im Originaldatensatz vorkommen, oder künstlich, also z. B. Mittelwerte aus mehreren sehr ähnlichen Fällen. Reale Fälle haben den Vorteil, daß sie erprobte Anlagen zustände enthalten. Bei "gutmütigen" Prozessen ist jedoch auch eine Interpolation von Anlagenzuständen gefahrlos möglich.
Weitere Einzelheiten und Vorteile der Erfindung ergeben sich
aus der nachfolgenden Figurenbeschreibung von einzelnen Bei
spielen anhand der Zeichnung in Verbindung mit den Patent
ansprüchen. Es zeigen
Fig. 1 eine tabellarische Darstellung zur Verdeutlichung der
unterschiedlichen Kompressionsmethoden,
Fig. 2 eine Darstellung von Ergebnissen, die mit der FCM-
Methode erzielt wurden,
Fig. 3 eine Darstellung eines sogenannten RBF-Netzes und
Fig. 4 die damit erzielten Ergebnisse,
Fig. 5 eine Verdeutlichung der Methode der Entscheidungs
bäume und
Fig. 6 Histogramme der damit erzielten Regressionsflächen,
Fig. 7 Darstellung eines Selbstorganisierenden Kohonen-
Netzes, sowie
Fig. 8 die Verwendung der sogenannten regulären Cluster im
Ausgangsraum.
Fig. 1 kann die Leistungsfähigkeit der verschiedenen im
Rahmen vorliegender Untersuchungen betrachteter Methoden in
Tabellendarstellung verdeutlichen: Aufgetragen sind in den
Spalten entsprechend den einleitend erläuterten Unterteilun
gen die Fall- und Dimensionskompression (A), Online-, Batch-
und Offline-Methoden (B), die Vorverarbeitung und Modellie
rungsmethoden (C) und die realen und künstlichen Fälle (D).
Die 8 Zeilen der Tabelle beinhalten jeweils die nachfolgend
im einzelnen erläuterten Methoden gemäß den Punkten 1 bis 8.
Die sinnvollen Kombinationsmöglichkeiten sind angekreuzt.
Zur Datenkompression werden folgende Methoden untersucht:
Fuzzy c-means [Bezdek] ist ein bewährtes und effizientes
Clusterverfahren, das aus einem Datensatz X = {x1, . . ., xn} eine
vorher festgelegte Anzahl c von Clusterzentren vi und die
Zugehörigkeiten uik der Daten zu diesen Zentren bestimmt.
Dazu wird die gewichtete Summe der quadratischen Abstände
zwischen Daten und Clusterzentren minimiert. Die
Kostenfunktion lautet also
wobei Dik den Abstand zwischen Datum xk und vi bezeichnet.
Zur Minimierung von J eignet sich ein alternierendes Opti
mierungsverfahren. Es werden abwechselnd Clusterzentren
und Zugehörigkeiten
berechnet, bis die Änderungen aller Clusterzentren kleiner
als ein Grenzwert sind. Die Unschärfe der Cluster läßt sich
vom Benutzer durch den Exponenten m einstellen. Fuzzy c-
means kann verwendet werden, um aus einem Satz von Fällen
eine bestimmte Anzahl typischer Fälle und darüber hinaus für
jeden gemessenen Fall die entsprechenden Zugehörigkeiten zu
bestimmen.
Fig. 2 zeigt einen durch Punkte dargestellten Datensatz und
die mit der vorstehend beschriebenen Methode gefundenen
Clusterzentren, die durch Kreuze dargestellt sind. Es ergibt
sich eine gute Übereinstimmung.
Die Methode der Fuzzy c-means kann dadurch weiterentwickelt
werden, daß aus den Datensätzen bestimmte Blöcke herausge
griffen werden. Ausgehend von einer alternierenden
Clusterschätzung wird in jedem Iterationsschritt nur eine
Teilmenge des gesamten Datensatzes betrachtet. Damit wird die
Datenkompression erheblich beschleunigt und man spricht von
sog. "Fast Fuzzy c-means" (FFCM).
Datenkompression kann anhand von neuronalen Netzen mit radia
len Basisfunktionen realisiert werden, indem die Zentren der
Basisfunktionen als komprimierte Daten betrachtet werden. Bei
Netzen mit radialen Basisfunktionen handelt es sich um zwei
schichtige Netze mit einer Eingabeschicht, einer verdeckten
und einer Ausgabeschicht.
Letzteres wird anhand Fig. 3 verdeutlicht: Die abstrahierte
Darstellung zeigt die Eingänge 31, 31', . . ., die verdeckte
Schicht mit den einzelnen Basisfunktionen 32, 32' . . . Die
Ausgänge sind mit 33, 33', . . . bezeichnet.
Ein Eingabedatum produziert in einem Knoten der versteckten
Schicht nur dann einen signifikant von 0 verschiedenen Aus
gabewert, wenn es in eine bestimmte Region des Eingaberaums
trifft. Obwohl in der Praxis verschiedene Basisfunktionen
verwendet werden, wird als Basis meistens eine Gaußsche
Funktion der folgenden Form genutzt:
wobei bj(x) die Ausgabe des j-ten Knotens in der versteckten
Schicht ist, κj ein positiver, reeller Gewichtungswert der
Basisfunktion, x das L-dimensionale Eingabemuster und cj der
Gewichtsvektor des j-ten Knotens in der versteckten Schicht
bzw. das Zentrum der Gaußschen Funktion ist. σj 2 ist der
Normalisierungsparameter des j-ten Knotens bzw. die Weite
der Basisfunktion und N ist der Anzahl der Knoten in der
versteckten Schicht.
Die Ausgabe lautet als Netzausgabe für einen Knoten y:
Dies ist ein sehr allgemeines Konzept, da man völlig frei
ist, die Form der Basisfunktionen bi(x) zu spezifizieren.
Die Parameter werden über ein Gradientenabstiegsverfahren
berechnet (siehe [Moody], [Hollatz]). Die Zentren der Basis
funktionen sind die komprimierten Daten. Die Anzahl der
komprimierten Daten wird durch die Anzahl der Basisfunktion
festgelegt.
Datenkompression kann aber auch über die Bestimmung von Wahr
scheinlichkeitsdichten vorgenommen werden. Dabei wird die
gemeinsame Dichte durch Kombination von einfachen Verteilun
gen, wie z. B. der Gaußverteilung, berechnet. Die Gaußschen
Verteilungen kennzeichnen Cluster, in denen mehrere Daten
zusammengefaßt sind. Die Mittelwerte der Gaußverteilungen
sind dann wieder die Werte für die komprimierten Daten. Die
Wahrscheinlichkeit für ein bestimmtes Datum z ist
wobei θ = [θ1, . . ., θm] den Parametervektor, wie z. B. Mittelwert
(komprimiertes Datum) und Streuung, bezeichnet. sj bezeichnet
die j-te Dichte und P(sj) die a priori-Wahrscheinlichkeit.
Das anzustrebende Ziel ist nun den unbekannten Parametervek
tor θ aufgrund der durch die gemeinsame Dichte generierten
Muster zu schätzen. Angenommen es sei eine Menge H = {z1, . . ., zn}
von n ungekennzeichneten Mustern gegeben, die von einer
gemeinsamen Dichte unabhängig generiert worden sind. Der
Parametervektor θ ist zwar fest, aber unbekannt. Die
Wahrscheinlichkeit der beobachteten Muster ist definiert
anhand ihrer gemeinsamen Dichte
Die Maximum-Likelihood-Schätzung θ' ist der Wert für θ, der
L maximiert. Mit dem EM-Algorithmus (Expectation Maximimi
zation) kann eine solche Schätzung angegeben werden. Dabei
werden Gaußsche Dichten zugrundegelegt, deren Parameter mit
dem EM-Algorithmus zu bestimmen sind. Statt des EM-Algorith
mus kann auch ein Gradientenabstiegsverfahren benutzt werden.
Diese Verfahren sind in [Duda, Hart] und [Hollatz] beschrie
ben.
Wenn der Wertebereich jeder Meßgröße auf ein festes Intervall
begrenzt wird, kann jeder Fall aus dem Datensatz als ein
Punkt in einem Hyperwürfel dargestellt werden. Dieser Hyper
würfel läßt sich mit einem regelmäßigen Hypergitter in klei
nere Hyperquader aufteilen. Jeder Hyperquader, in den minde
stens ein Fall hineinfällt, repräsentiert dann einen typi
schen Fall.
In Fig. 4 sind die mit dieser Methode erhaltenen Ergebnisse
dargestellt und in der graphischen Darstellung jeweils mit
einem Kreuz markiert. Ersichtlich ist, daß je ein Punkt die
ser Hyperquader als Arbeitspunkt interpretiert werden kann.
Auch mit datengenerierten Entscheidungsbäumen können Daten
geclustert und damit komprimiert werden. Die Idee eines
binären Entscheidungsbaumes liegt im gezielten Abfragen nach
Parametergrößen an jedem Knoten des Baumes, so daß Bereiche
im Eingaberaum ermittelt werden können, die einerseits so
groß sind, um die Problemstruktur ausreichend zu repräsen
tieren, und andererseits eine genügend große Verallgemei
nerungsfähigkeit garantieren. Dieser Bereich und sein zuge
höriger Ausgabewert ist durch einen Terminalknoten und die
Parameterbegrenzung auf dem zugehörigen Pfad von der Wurzel
definiert.
Der Entscheidungsbaum wird generiert durch:
- - eine Menge ℘ von binären Fragen der Form {Ist x ∈ A?}, mit A ⊃ ℵ, (ℵ ist der Eingaberaum; die Fragen, bzw. Tei lungen, sind in den Abbildungen als Split bezeichnet), die Güte des Aufteilungkriteriums ϕ(s, t), die für jede Auftei lung s und jeden Knoten t berechnet werden kann,
- - eine Regel, um den Teilungsprozeß zu beenden, und
- - eine Regel, um jedem Knoten einer Klasse zu zuordnen.
Ein Beispiel eines Entscheidungsbaumes und die entsprechende
Regressionsfläche als Histogramm (verändert aus Breiman et
al.) ist in den Fig. 5 und 6 wiedergegeben. Im Enschei
dungsbaum gemäß Fig. 5 sind Entscheidungsknoten t1, t2, t3
und t7 vorhanden, wobei die jeweiligen Ergebnisse mit t4 bis
t6 sowie t8 und t9 angegeben sind. Diese Ergebnisse bilden in
der dreidimensionalen Darstellung gemäß Fig. 6 die Regres
sionsflächen.
Der Eingaberaum ℵ ist durch eine Reihe von binären Teilungen
in Terminalknoten eingeteilt. In jedem Terminalknoten t ist
die vorausgesagte Antwort ein konstanter Wert y(t). Da der
Prädiktor d(x) über jeden Terminalknoten einen konstanten
Wert hat, kann der Baum auch als ein geschätztes Histogramm
der Regressionsoberfläche angesehen werden. Ist Γ die Lern
menge, so benötigt man zur Bestimmung des Baumprädiktors, wie
oben schon erwähnt, erstens, ein Verfahren, um eine Teilung
an jedem mittleren Knoten auszuwählen, zweitens, eine Regel,
um auszuwählen, wann ein Knoten Terminalknoten wird, und
drittens, eine Regel, um jedem Terminalknoten t einen Wert
y(t) zuzuweisen. Der Regressionsbaum wird durch iteratives
Spalten der Knoten aufgebaut, wobei jedesmal die Abnahme von
R(T) maximiert wird. Unterschreitet R(t) einen festgelegten
Schwellwert, oder hat die Baumtiefe einen Maximalwert er
reicht, so wird der Knoten nicht mehr geteilt, sondern als
Terminalknoten ausgezeichnet. Die Terminalknoten repräsen
tieren jeweils eine Klasse von Daten. Der Mittelwert der
Daten die in diese Klasse fallen, sind mit den komprimierten
Daten gleichzusetzen. Die Anzahl der komprimierten Daten
entspricht der Anzahl von Terminalknoten. Der Algorithmus zur
Generierung von Entscheidungsbäumen ist in [Breiman] be
schrieben.
Selbstorganisierende topologieerhaltende häufig zur Cluster
analyse eingesetzt und können dadurch auch zur Datenkompres
sion benutzt werden. Kohonen's Algorithmus arbeitet mit einem
Vektorquantisierungsverfahren, indem die Gewichte zwischen
den Eingangsdaten und M Ausgabeknoten, d. h. Cluster, angepaßt
werden. Die Ausgabeknoten sind in einer zweidimensionalen
Schicht angeordneten und untereinander verbunden.
Letzteres wird anhand Fig. 7 verdeutlicht: x0 bis xn-1 bil
den die Eingabedaten für ein selbstorganisierendes Kohonen-
Netzwerk, das in der Ausgabeschicht 60 die einzelnen Ausgabe
einheiten aufweist.
Ohne eine gewünschte Ausgabe mit einzubeziehen, werden die
Eingabedaten beim Training sequentiell abgearbeitet. Nachdem
genügend viele Iterationsschritte vollzogen wurden, geben die
Gewichte der Karte den Eingaberaum derart wieder, daß sie
Clusterzentren darstellen und damit auch die Werte der kom
primierten Daten. Die Gewichte werden so im Netz positio
niert, daß physisch ähnliche Eingabewerte in räumlich benach
barte Knoten abgebildet werden. Die Anzahl der komprimierten
Daten entspricht der Anzahl der Ausgabeneuronen. Der detail
lierte Algorithmus ist u. a. in [Kohonen] angegeben.
Eine wünschenswerte Eigenschaft der Kompression ist, daß zu
jedem typischen Fall gleich viel Originalfälle gehören. Die
Klassendichte soll also der Punktedichte entsprechen. Fuzzy
c-means und andere Clusterverfahren bestimmen Cluster, die in
etwa die gleiche Größe besitzen, nicht aber die gleiche
Anzahl von Punkten. Dies ist jedoch möglich durch eine
Modifikation des Clusterverfahrens.
Eine andere wünschenswerte Eigenschaft der Kompression ist,
daß die Anzahl typischer Fälle dort besonders hoch ist, wo
sich ein bestimmter betrachteter Ausgangswert stark ändert,
d. h. wo die Eingangs-Ausgangs-Empfindlichkeit besonders hoch
ist. Diese Eigenschaft kann leicht durch eine Modifikation
des in [Runkler, Palm] entwickelten regulären Clusterings
erreicht werden. Bei dieser Modifikation werden die Zuge
hörigkeitsfunktionen des Ausgangs a priori festgelegt, und
zwar beispielsweise in Form von Dreiecken, deren Grundseite
dem doppelten Meßfehler entspricht. Für jeden Punkt werden
die Zugehörigkeiten zu den Ausgangsclustern berechnet und die
typischen Fälle wie beim Fuzzy c-means durch Center-of-
Gravity Defuzzifizierung [Runkler] mit
bestimmt.
Letzteres wird durch Fig. 8 verdeutlicht: Auf der Abszisse
sind in der kombinierten Darstellung die Eingänge bzw. die
Zugehörigkeit aufgetragen, auf der Ordinate die Ausgänge bzw.
die Zugehörigkeit. Bei den regulären Clustern im Ausgangsraum
entspricht die Klassendichte der Empfindlichkeit.
Bei der Beschreibung der unterschiedlichen Kompressions
methoden wurde auf Literaturveröffentlichungen als Teil der
Offenbarung verwiesen, die nachfolgend als Liste zusammen
gestellt sind:
Bezdek, J., Pattern Recognition with Fuzzy Objective
Function Algorithms. Plenum Press, New York (1981).
Breiman, L., et al., Classification and Regression trees. Wadsworth and Brooks (1981).
Duda, R. O., Hart, P. E., Pattern Classification and Scene Analysis. John Wiley and Sons, New York (1973).
Hollatz, J., Integration von regelbasiertem Wissen in neuronale Netze. Dissertation, TU München (1993).
Kohonen, T., Self-Organizing Maps. Springer-Verlag, Heidelberg (1995).
Moody, J., Darken, C., Fast Learning in Networks of Locally-Tuned Processing Units. Neural Computation, Vol. 1 (1989) 281-294.
Runkler, T., Palm, R., Identification of Nonlinear Systems Using Regular Fuzzy c-Elliptotype Clustering. IEEE Inter national Conference an Fuzzy Systems, New Orleans (1996) 1026-1030.
Runkler, T., Selection of Appropriate Defuzzification Methods Using Application Specific Properties. IEEE Transactions on Fuzzy Systems 5 : 1 (1997) 72-79.4
Breiman, L., et al., Classification and Regression trees. Wadsworth and Brooks (1981).
Duda, R. O., Hart, P. E., Pattern Classification and Scene Analysis. John Wiley and Sons, New York (1973).
Hollatz, J., Integration von regelbasiertem Wissen in neuronale Netze. Dissertation, TU München (1993).
Kohonen, T., Self-Organizing Maps. Springer-Verlag, Heidelberg (1995).
Moody, J., Darken, C., Fast Learning in Networks of Locally-Tuned Processing Units. Neural Computation, Vol. 1 (1989) 281-294.
Runkler, T., Palm, R., Identification of Nonlinear Systems Using Regular Fuzzy c-Elliptotype Clustering. IEEE Inter national Conference an Fuzzy Systems, New Orleans (1996) 1026-1030.
Runkler, T., Selection of Appropriate Defuzzification Methods Using Application Specific Properties. IEEE Transactions on Fuzzy Systems 5 : 1 (1997) 72-79.4
Claims (17)
1. Verfahren zur datengetriebenen Prozeßführung und Prozeß
optimierung von technischen Vorgängen, wobei Prozeßgrößen er
faßt, als Daten bereitgestellt und daraus geeignete Arbeits
punkte für die Prozeßführung abgeleitet werden, da
durch gekennzeichnet, daß bei der
Datenbereitstellung eine Datenkompression durch Zusammen
fassen von Daten durchgeführt wird.
2. Verfahren nach Anspruch 1, dadurch gekenn
zeichnet, daß die Datenkompression zur Bestimmung
der Arbeitspunkte dient.
3. Verfahren nach Anspruch 1, dadurch gekenn
zeichnet, daß eine Fall- und/oder Dimensionskom
pression durchgeführt wird, bei der ein einzelner Datensatz
als Matrix geschrieben wird mit den Daten eines Falls als
Matrixzeilen und der Meßgröße als Matrixspalte, und daß bei
der so erhaltenden Matrix die Höhe, also die Anzahl der
Fälle, und/oder die Breite, also die Anzahl der verwendeten
Meßgrößen, reduziert werden.
4. Verfahren nach Anspruch 1, dadurch gekenn
zeichnet, daß eine sogenannte Offline-Kompression
durchgeführt wird, bei der als Eingangsgrößen ein gesamter
Satz von Daten erhalten wird und daraus ein komprimierter
Datensatz bestimmt wird.
5. Verfahren nach Anspruch 1, dadurch gekenn
zeichnet, daß eine Batch-Methode durchgeführt wird,
bei dem über einen vorgegebenen Zeitraum die Fälle gesammelt
und in einem Datensatz gespeichert werden, der anschließend
mit Offline-Methoden komprimiert wird.
6. Verfahren nach Anspruch 1, dadurch gekenn
zeichnet, daß eine Online-Methode durchgeführt
wird, bei der jeder einzelne Fall geprüft und entweder keiner
oder ein Fall ausgegeben wird.
7. Verfahren nach Anspruch 6, dadurch gekenn
zeichnet, daß bei einer hohen Kompressionsrate
typische Fälle bestimmt werden, die als Modell interpretiert
werden.
8. Verfahren nach Anspruch 1, dadurch gekenn
zeichnet, daß neben realen Fällen auch künstliche
Fälle, beispielsweise als Mittelwerte aus mehreren ähnlichen
Fällen, generiert werden.
9. Verfahren nach einem der vorhergehenden Ansprüche, da
durch gekennzeichnet, daß zur Daten
kompression die Methode der "Fuzzy-c-means" (FCM) angewandt
wird.
10. Verfahren nach Anspruch 9, dadurch ge
kennzeichnet, daß schnelle "Fuzzy-c-means"
(FFCM) eingesetzt werden.
11. Verfahren nach einem der Ansprüche 1 bis 8, da
durch gekennzeichnet, daß die Methode
der radialen Basisfunktionen (RBF) angewandt wird.
12. Verfahren nach einem der Ansprüche 1 bis 8, da
durch gekennzeichnet, daß wahrschein
lichkeitstheoretische Algorithmen eingesetzt werden.
13. Verfahren nach einem der Ansprüche 1 bis 8, da
durch gekennzeichnet, daß sogenannte
"äquidistante Grids" eingesetzt werden.
14. Verfahren nach einem der Ansprüche 1 bis 8, da
durch gekennzeichnet, daß sogenanntes
"Machine-Learning" eingesetzt wird, wobei Entscheidungsbäume
verwendet werden.
15. Verfahren nach einem der Ansprüche 1 bis 8, da
durch gekennzeichnet, daß Kohonen-
Algorithmen eingesetzt werden.
16. Verfahren nach einem der Ansprüche 1 bis 8, da
durch gekennzeichnet, daß eine FCM-
Modifikation für Cluster mit gleicher Elementzahl realisiert
wird.
17. Verfahren nach einem der Ansprüche 1 bis 8, da
durch gekennzeichnet, daß reguläre
"Fuzzy-c-means" im Ausgangsraum verwendet werden.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19817600A DE19817600A1 (de) | 1998-04-20 | 1998-04-20 | Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen |
EP99107829A EP0952501B1 (de) | 1998-04-20 | 1999-04-20 | Verfahren zur datengetriebenen Prozessführung und Prozessoptimierung von technischen Vorgängen |
AT99107829T ATE255238T1 (de) | 1998-04-20 | 1999-04-20 | Verfahren zur datengetriebenen prozessführung und prozessoptimierung von technischen vorgängen |
DE59907831T DE59907831D1 (de) | 1998-04-20 | 1999-04-20 | Verfahren zur datengetriebenen Prozessführung und Prozessoptimierung von technischen Vorgängen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19817600A DE19817600A1 (de) | 1998-04-20 | 1998-04-20 | Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19817600A1 true DE19817600A1 (de) | 1999-10-28 |
Family
ID=7865196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19817600A Ceased DE19817600A1 (de) | 1998-04-20 | 1998-04-20 | Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19817600A1 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10126251A1 (de) * | 2001-05-29 | 2003-01-23 | Buehler Ag | Online-Prozessüberwachung und Online-Prozessmodelierung |
WO2007128530A2 (de) * | 2006-05-05 | 2007-11-15 | Giesecke & Devrient Gmbh | Verfahren und vorrichtung zum personalisieren von karten |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4305409A1 (de) * | 1993-02-22 | 1994-08-25 | Ibh Bernhard Hilpert Ingenieur | Verfahren zur numerischen Bahnsteuerung |
WO1997033261A1 (en) * | 1996-03-06 | 1997-09-12 | Schlumberger Industries, Inc. | System for utility meter communications using a single rf frequency |
-
1998
- 1998-04-20 DE DE19817600A patent/DE19817600A1/de not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4305409A1 (de) * | 1993-02-22 | 1994-08-25 | Ibh Bernhard Hilpert Ingenieur | Verfahren zur numerischen Bahnsteuerung |
WO1997033261A1 (en) * | 1996-03-06 | 1997-09-12 | Schlumberger Industries, Inc. | System for utility meter communications using a single rf frequency |
Non-Patent Citations (5)
Title |
---|
HOLLATZ, J., Integration von regelbasiertem Wissen in neuronale Netze. Dissertation, TU Mün- chen (1993) * |
KOHOHNEN, T., Self-Organizing Maps. Springer- Verlag, Heidelberg (1995) * |
MOODY, J., DARKEN, C., Fast Learning in Networks of Locally-Tuned Processing Units. Neural Com- putation, Vol.1 (1989) 281-294 * |
RUNKLER, T., PALM, R., Identification of Non- linear Systems Using Regular Fuzzy c-Elliptotype Clustering. IEEE International Conference on Fuzzy Systems, New Orleans (1996) 1026-1030 * |
RUNKLER, T., Selectionn of Appropriate Defuzzi- fication Methods Using Application Specific Properties. IEEE Transactions on Fuzzy Systems 5:1 (1997) 72-79.4 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10126251A1 (de) * | 2001-05-29 | 2003-01-23 | Buehler Ag | Online-Prozessüberwachung und Online-Prozessmodelierung |
WO2007128530A2 (de) * | 2006-05-05 | 2007-11-15 | Giesecke & Devrient Gmbh | Verfahren und vorrichtung zum personalisieren von karten |
WO2007128530A3 (de) * | 2006-05-05 | 2008-03-20 | Giesecke & Devrient Gmbh | Verfahren und vorrichtung zum personalisieren von karten |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Amit et al. | Learning in neural networks with material synapses | |
DE69838181T2 (de) | Visualisierung und selbstorganisation multidimensionaler daten durch ausgeglichene orthogonale abbildung | |
DE60208223T2 (de) | Anordnung und verfahren zur gesichtserkennung unter verwendung von teilen des gelernten modells | |
DE102005046747B3 (de) | Verfahren zum rechnergestützten Lernen eines neuronalen Netzes und neuronales Netz | |
DE10296704T5 (de) | Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten | |
WO2010086325A1 (de) | Verfahren und sensornetz zur merkmalsauswahl für eine ereigniserkennung | |
AT412678B (de) | Verfahren zur rechnergestützten erstellung von prognosen für operative systeme sowie system zur erstellung von prognosen für operative systeme | |
EP0875808A2 (de) | Verfahren und System zur Generierung eines Prozessmodells eines technischen Prozesses | |
DE102020121098A1 (de) | Batteriemanagementsystem zum Klassifizieren eines Batteriemoduls | |
EP0901658A1 (de) | Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner | |
DE4409169C2 (de) | Verfahren und Anordnung zur Fuzzy-Regelung | |
DE4121453C2 (de) | Näherungsschlußfolgerungsvorrichtung | |
DE19817600A1 (de) | Verfahren zur datengetriebenen Prozeßführung und Preozeßoptimierung von technischen Vorgängen | |
EP0952501B1 (de) | Verfahren zur datengetriebenen Prozessführung und Prozessoptimierung von technischen Vorgängen | |
DE19703964C1 (de) | Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz | |
DE202022104771U1 (de) | Ein evolutionäres Neuro-Fuzzy-System unter Verwendung von evolutionärem Fuzzy-Clustering und syndizierten neuronalen Netzen | |
WO1997036248A1 (de) | Verfahren zur ermittlung von zur entfernung geeigneten gewichten eines neuronalen netzes mit hilfe eines rechners | |
WO1996006400A1 (de) | Verfahren zur festlegung des gültigkeitsbereichs für ein künstliches neuronales netzwerk | |
DE4439505A1 (de) | Verfahren zum Entwurf eines Fuzzy-Reglers | |
DE19951078C2 (de) | Verfahren zur Musterklassifizierung | |
DE60309191T2 (de) | System zum fuzzy-assoziativen beschreiben von multimedia-gegenständen | |
DE102020209254A1 (de) | Vorrichtung zur rechnergestützten Klassifikation von Sensordaten unter Verwendung einer trainierten neuronalen Netzstruktur | |
EP0681234B1 (de) | Verfahren zur Fuzzy-Inferenz in einem Fuzzy-Regelkreis | |
Sinčák et al. | Membership function-ARTMAP neural networks | |
WO2022069275A1 (de) | Vorrichtung und computerimplementiertes verfahren für eine netzwerkarchitektursuche |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |