DE19742902A1 - Verfahren zur Planung und Durchführung von Versuchen - Google Patents
Verfahren zur Planung und Durchführung von VersuchenInfo
- Publication number
- DE19742902A1 DE19742902A1 DE1997142902 DE19742902A DE19742902A1 DE 19742902 A1 DE19742902 A1 DE 19742902A1 DE 1997142902 DE1997142902 DE 1997142902 DE 19742902 A DE19742902 A DE 19742902A DE 19742902 A1 DE19742902 A1 DE 19742902A1
- Authority
- DE
- Germany
- Prior art keywords
- som
- test
- target
- experiments
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B01—PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
- B01J—CHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
- B01J19/00—Chemical, physical or physico-chemical processes in general; Their relevant apparatus
- B01J19/0006—Controlling or regulating processes
Landscapes
- Chemical & Material Sciences (AREA)
- Organic Chemistry (AREA)
- Chemical Kinetics & Catalysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
Die Erfindung bezieht sich auf ein Verfahren zur Planung und Durchführung von
Versuchen im Vorfeld oder während einer Produktion von technischen oder chemi
schen Produkten. Ein technisches Produkt kann beispielsweise ein Teil einer Kraft
werksanlage sein.
Das Verfahren ist geeignet zur Planung und Durchführung von Versuchen im Fahr
zeug- und Maschinenbau, im Anlagenbau, in der Feinwerktechnik und zur Anwen
dung bei Entwicklungsprozessen für chemische Produkte oder Werkstoffe.
Es ist allgemein bekannt, im Vorfeld einer Produktion Versuche durchzuführen, um
eine Aussage über die zu erwartenden Produkteigenschaften und die zugrundelie
genden Einflußgrößen zu bekommen. Das Ziel einer Produktion ist es, Produkte mit
bestimmten Eigenschaften herzustellen, deshalb ist der Zusammenhang f zwischen
den Einflußgrößen oder Parametern vpi und den Produkteigenschaften vzj von be
sonderem Interesse.
vzj = f (vpi) (1)
Um den Zusammenhang f am realen Produkt zu ermitteln, verwendet man u. a. sta
tistische Versuchsplanungsmethoden (SVP). Innerhalb dieser Methoden gibt es
Verfahren der Varianz- und Diskriminanzanalyse, der Korrelationsanalyse, z. B. par
tielle und multiple Korrelationsanalysen und Regressionsverfahren, z. B. lineare und
nichtlineare multiple Regressionsverfahren. Aufgabe all dieser Verfahren ist es, Be
ziehungen zwischen den Einflußfaktoren und den Zielgrößen zu bestimmen.
Im Falle der Regressionsverfahren ist bekannt, eine Abhängigkeit zwischen einer
Zielgröße vz und N Einflußgrößen vpi z. B. nach folgender Gleichung zu bestimmen:
vz = b0 + b1 * vp1 + b2 * vp2 + . . . + bN * vpN
+ b12 * vp1 * vp2 + b13 * vp1 * vp3 + . . . + bN-1,N * vpN-1 * vpN
+ b11 * vp1 2 + b22 * vp2 2 + . . . + bNN * vpN 2 + e (2)
mit bij sind die Regressionskoeffizienten beschrieben, e ist die Versuchsvarianz.
Durch Schätzung der Regressionskoeffizienten läßt sich ein linearer Zusammen
hang (Gleichung 2, Zeile 1), wechselseitiger Zusammenhang (Gleichung 2, Zeile 2)
und quadratischer Zusammenhang (Gleichung 2, Zeile 3) zwischen den Einflußgrö
ßen und der Zielgröße ermitteln, siehe H. Petersen, "Einsatz statistischer Methoden
bei der Qualitätssicherung in der chemischen Industrie", ecomed-Verlag, 1993 Sei
ten 64 bis 72.
Im Falle der Varianz- oder Diskriminanzanalyse wird eine Funktion angenommen,
z. B.
vz = b0 + b1 * vp1 + b2 * vp2 + . . . + bN * vpN (3)
und die Parameter b0,. . ., bN werden geschätzt. Der Unterschied zu den Regressions
verfahren besteht darin, daß entweder die Zielgröße vz oder die Einflußgrößen vp
nur nominal skaliert sein müssen, siehe K. Backhaus et. al Multivariante Analyse
methoden", 8. Auflage, Springer Verlag, 1996, Seiten 56 bis 165.
Ein Nachteil der Anwendung dieser Verfahren zur Versuchsplanung ist, daß bei
nichtlinearen Zusammenhängen der Größen keine allgemeinen Aussagen darüber
getroffen werden können, welche Prozeßgrößen welchen Einfluß auf den Versuch
haben. Denn ein beliebiger, nichtlinearer Zusammenhang und eine Wechselwirkung
aller Einflußgrößen untereinander kann mit Gleichung (2) und (3) im allgemeinen
nicht berechnet werden, da Gleichungen immer Grundannahmen über den Zusam
menhang benötigen. Basierend auf diesen Grundannahmen werden die Koeffizien
ten in den Gleichungen geschätzt.
Mit herkömmlichen SVP-Methoden ist es damit nicht immer möglich, die quantitati
ven Einflüsse der Einflußgrößen auf eine oder mehrere Zielgrößen anzugeben, d. h.
es ist nicht möglich, z. B. besonders sensitive Einflußgrößen zu ermitteln.
Eine andere Möglichkeit, sogenannte Sensitive Analysen (SA) durchzuführen be
steht darin, mit Ausnahme der betrachteten Versuchsparameter alle anderen Para
meter festzuhalten und den Einfluß dieser veränderbaren Größen auf die Zielgröße
zu bestimmen. Im einfachsten Fall kann immer nur eine Einflußgröße zur gleichen
Zeit verändert werden. Es wird ermittelt, welcher Veränderung die Zielgröße unter
liegt, wenn die Einflußgröße eine vordefinierte Veränderung durchläuft. Das läßt
sich z. B. durch eine partielle Ableitung der Ausgangsgröße nach der jeweiligen Ein
gangsgröße realisieren. Damit sind allerdings praktische Einschränkungen verbun
den, da nicht immer mathematische Gleichungen für den Zusammenhang vorliegen,
also kein mathematisches Modell existiert.
Aber selbst für den Fall, daß das Modell in einer anderen auswertbaren Form, z. B.
als neuronales feed-forward-Modell, vorliegen würde, bleibt der Nachteil bestehen,
daß immer einige Eingangsparameter festgehalten werden müssen und nur eine
Eingangsgröße verändert werden darf, um die dadurch hervorgerufene Änderung
der Zielgröße zu analysieren. Für linearisierbare Zusammenhänge zwischen den
Einflußgrößen und der Zielgröße ist das obengenannte Verfahren erfolgreich an
wendbar, da man dann davon ausgeht, daß sich die Ergebnisse linear überlagern
lassen. Für stark nicht-lineare Zusammenhänge ist es allerdings problematisch, da
die gegenseitigen Einflüsse der Versuchsparameter nicht herausgefunden und die
erhaltenen Ergebnisse in der Regel nicht verallgemeinert werden können. Das Pro
blem ist, daß man die fixen Eingangsparameter auf einen vordefinierten Arbeitspunkt
einstellen muß. Welcher Arbeitspunkt aber gerade der Richtige ist, ist oftmals unbe
kannt.
Ein weiterer Nachteil ist, daß alle oben genannten Ansätze auf der Grundannahme
nach Gleichung (1) aufgebaut sind, d. h. eine Anzahl von N Einflußgrößen beeinflus
sen eine Anzahl von L Zielgrößen. Dabei wird stets angenommen, daß die Zielgrö
ßen, d. h. die Produkteigenschaften, voneinander unabhängig sind. Versuche, bei
denen sich die Produkteigenschaften auch untereinander beeinflussen können, bei
denen eine Zielgröße somit gleichzeitig auch Einflußgröße sein kann, sind mit oben
genannten Ansätzen prinzipiell nicht erfaßbar, da Gleichung (1) nicht rückgekoppelt
ist. Die Suche nach einer Funktion f in Gleichung (1) erfaßt damit per Definition nur
vorwärtsgerichtete Zusammenhänge.
Ein weiterer Nachteil bisheriger Verfahren der Versuchsplanung ist, daß es i.a. nicht
möglich ist, genau diejenigen Kombinationen von Versuchsparametern vorzugeben,
die den meisten Informationsgewinn für das weitere Experiment bringen.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren anzugeben, das eine
gleichzeitige und zusammenhängende Bewertung und Anzeige aller relevanter Ver
suchsparameter und Zielgrößen eines konstruktiven, technischen oder chemischen
Prozesses ermöglicht und dabei für jeden beliebigen Wert der - durch den Versuch
zu untersuchenden - Zielgrößen eine quantitative Aussage über die zugrundelie
genden Einflüsse der Versuchsparameter macht und weiterhin diejenigen Parame
terkombinationen vorgibt, die für weitere Versuche den größten Informationsgewinn
erbringen.
Diese Aufgabe wird gelöst durch ein im Anspruch 1 angegebenes Verfahren zur
Planung und Durchführung von Versuchen im Vorfeld oder während einer Produkti
on von technischen oder chemischen Produkten. Dabei werden alle für einen Ver
such relevanten Größen zusammengefaßt und durch eine neuronale Analyse auf
der Grundlage selbstorganisierender Karten (Self-Organizing-Map, sogenannte
SOM) in Beziehung zueinander ausgewertet, indem eine topologieerhaltende, nicht
lineare Projektion von Daten der relevanten Versuchsparameter auf eine mehrdi
mensionale, höhen- oder farbkodierte, neuronale Karte (SOM) realisiert wird. Auf
dieser SOM wird der aktuell parametrisierte Versuch farblich aufgetragen und im
Kontext anderer möglicher oder schon durchgeführter Versuche verglichen. Dadurch
kann mittels dieser SOM bestimmt werden, welche Versuchsparameter welchen Ein
fluß auf eine oder mehrere Zielgrößen haben, unter Berücksichtigung der nichtlinea
ren Wechselbeziehungen der Einflußgrößen untereinander.
Ein weiterer Lösungsweg wird durch ein im Anspruch 13 angegebenes Verfahren zur
Planung und Durchführung eines technischen oder chemischen Versuches angege
ben, bei dem die zugrundeliegenden Zusammenhänge aller für einen Versuch rele
vanten Größen durch eine neuronale Modellierung auf der Grundlage Radialer-
Basis-Funktionen (RBF) in Beziehung zueinander gebracht werden, indem eine
Security-RBF-Netzwerk verwendet wird, das zusätzlich zum Modellwert die Sicher
heit der Aussage angibt, indem die Aktivierungsantwort der Hidden-Neuronen aus
gewertet wird.
Vorteilhafte Ausgestaltungen sind in weiteren Ansprüchen angegeben. Durch den
ganzheitlichen Ansatz werden nicht nur die Werte einzelner Versuchsparameter,
sondern auch gerade ihre gegenseitigen Einflüsse untereinander berücksichtigt.
Für die weitere Beschreibung des Verfahrens werden folgende Definitionen festge
legt.
Ein Experiment ist ein Vorgang mit dem Ziel, neue Erkenntnisse über Zusammen
hänge zwischen Einfluß- und Zielgrößen zu ermitteln. Eine Produktion ist ein Vor
gang mit dem Ziel, Produkte mit bestimmten Eigenschaften zu erzeugen, unter Be
rücksichtigung der zugrundeliegenden Einflußparameter. Ein Versuch ist ein Expe
riment im Vorfeld der Produktion oder ein Vorgang während der Serienproduktion
mit dem Ziel der Überprüfung und gegebenenfalls weiteren Verbesserung der Pro
dukteigenschaften.
Unter einem Versuch v wird somit jede Operation verstanden, die darauf abzielt,
neue Erkenntnisse über eine oder L Zielgrößen vz zu gewinnen oder die Produktei
genschaften im Rahmen der Produktion zu verbessern. Ein Versuch wird dabei
durch N verschiedene Parameter vp beeinflußt, die im Vorfeld des Versuches ein
gestellt werden und von denen angenommen wird, daß sie einen Einfluß auf die
Zielgrößen haben. Ein Versuch v wird demnach durch folgenden Vektor vec von
Versuchgrößen vp und vz beschrieben:
vec = (vp1, vp2, . . ., vpi, . . ., vpN, vz1, vz2, . . ., vzj, . . ., vzL) (4)
wobei vpi die i-te Einflußgröße oder auch der i-te Versuchsparameter des Versuches
und vzj die j-te Zielgröße des Versuches ist. Als Versuchgrößen werden damit alle
Einflußparameter und Zielgrößen eines Versuches definiert. Die Anzahl
n = N + L gibt die Gesamtanzahl der zugrundeliegenden Größen für einen Versuch
an. Dabei sollte L stets deutlich kleiner als N sein (L«N) im einfachsten Fall ist
L=1. Durch eine Vielzahl von Versuchen vi entsteht somit eine Matrix mit Werten der
Versuchsreihe, wobei z. B. in den Spalten die Versuchsgrößen und in den Zeilen die
Werte eines jeweiligen Versuches stehen.
In der Systemtheorie wird als Zustandsraum V eines Prozesses der n-dimensionale
Vektorraum bezeichnet, in dem die Prozeßdaten übereinander aufgetragen werden
können. Zum Beispiel entspricht ein Datenbeispiel zu einem Zeitpunkt t0 einer Zeile
in o.g. Matrix und damit einem Punkt in diesem Zustandsraum. Nachstehend wird
unter einem Eingangsraum oder Versuchsraum V genau dieser Zustandsraum ver
standen. Der Ausgangsraum ist der 2-dimensionale Raum, der auf der SOM-Karte
abgebildet wird. Jeder Versuch v wird somit in V als Punkt dargestellt, eine Ver
suchsreihe stellt im allgemeinen eine Punktwolke in V dar. Aufbauend auf einer vor
handen Versuchsreihe und damit auf einer oben genannten Punktwolke wird das
SOM-Verfahren angewendet. Alle weiteren Beschreibungen beziehen sich auf Ver
suche in diesem Sinne.
Fehlertoleranz im Zusammenhang mit dieser Beschreibung bedeutet, daß für einen
Versuchsparameter x ein unterer xu bzw. oberer Grenzwert xo festgelegt werden
kann, wobei gilt xu<=x<=xo. Tx = xo-xu ist die Toleranz von x. Änderungen in diesem
Bereich sind zugelassen, da sie nur eine zugelassene Auswirkung auf eine Zielgrö
ße y haben, d. h. Änderungen von x in den Grenzen xu und xo werden zu einer er
laubten Änderung der Zielgröße im Bereich yu<=y<=yo führen, mit Ty = yo-yu. Sind
yo, yu gegeben, so lassen sich xu und xo bestimmen und es gilt Tx = ftol(Ty), in der Re
gel ist ftol nichtlinear.
In der neuronalen Theorie versteht man unter einer selbstorganisierenden Karte
(SOM) ein "selbstorganisierendes neuronales Netz", bei dem alle Neuronen neben
einander angeordnet sind. Das selbstorganisierende neuronale Netz ist ein einge
führter Begriff für eine spezielle Klasse von neuronalen Netzen, die sich anhand von
Eingangssignalen selbst strukturieren, vgl. A. Zell "Simulation Neuronaler Netze",
Addison-Wesley Verlag, 1994, Seite 179 bis 187. Im Unterschied zu herkömmlichen
neuronalen Netzen, spielt die räumliche Lage der einzelnen Neuronen und ihre
Nachbarschaftsbeziehungen bei den SOM eine wichtige Rolle. Die Begriffe SOM
und Karte werden gleichrangig verwendet.
Mit Hilfe der SOMs lassen sich sog. topologieerhaltende Abbildungen realisieren.
Topologieerhaltend heißt im Zusammenhang mit dieser Beschreibung, daß die
Punkte (Datenpunkte), die im Eingangsraum nahe beieinander liegen, auch im Aus
gangsraum, also auf der Karte, nahe beieinander liegen werden. Damit stellt die
Karte im Prinzip ein topologieerhaltendes, 2-dimensionales Fenster in den n-
dimensionalen Zustandsraum des Versuches dar. Das Verfahren wird dann ange
wendet, wenn schon einige Versuche durchgeführt wurden, es dient der weiteren
Planung und Durchführung von Versuchsreihen.
Beim erfindungsgemäßen Verfahren werden nach einer entsprechenden Datenvor
verarbeitung der Versuchsgrößen einem selbstorganisierenden Netz in einer Lern
phase die Werte der relevanten n Versuchsgrößen angeboten. Die Anzahl der vor
liegenden und schon durchgeführten Versuche und damit die Anzahl der vorliegen
den Datenbeispiele, sollte eine Mindestanzahl (MA) nicht unterschreiten. Diese An
zahl ist:
MA = 30 * n (5)
wobei n die Anzahl der Größen des Versuches beschreibt. Das Verfahren arbeitet
auch mit weniger Versuchsbeispielen, allerdings werden dadurch die Verfahrenser
gebnisse verschlechtert. Die Größe n liegt zwischen 2 und mehreren hundert. Die
Lernphase erfolgt in zwei Schritten: Zuerst entfaltet sich die Karte im Zustandsraum
der Versuche, danach werden die bisherigen Versuche durch Anwendung eines
mathematischen Verfahrens visualisiert. Bevor das Lernverfahren angewendet wird,
werden die Versuchsgrößen vorverarbeitet. Zuerst werden die einzelnen Versuchs
größen auf einen vorgegebenen Wert skaliert und danach z. B. noch verrauscht. Das
Verrauschen erlaubt das Vervielfältigen und weitere Verarbeiten von typisierten Ex
perimenten, da dadurch einzelne Versuche, die auch einem systematischen und
statistischen Fehler unterliegen, verallgemeinert werden. Der Rauschanteil darf da
bei allerdings nicht so groß sein, daß er bestehende Datenverteilungen qualitativ
verändert.
Die Entfaltung der selbstorganisierenden Karte im Zustandsraum der Versuche wird
durch einen selbstorganisierenden Algorithmus basierend auf dem "neuronalen Al
gorithmus nach T. Kohonen" realisiert. Der selbstorganisierende neuronale Algo
rithmus wurde von Kohonen im Jahr 1982 eingeführt; vgl. T. Kohonen,
"Self-organized formation of topologically correct feature maps" in Biological Cyber
netics, 43, 59 bis 69,1982. Dabei wird jedem Neuron auf der SOM ein n-
dimensionaler Gewichtsvektor zugeordnet, der durch Anwendung des Verfahrens
iterativ adaptiert wird. Ein Neuron M hat demnach einen Gewichtsvektor wM mit n
Elementen:
wM=(w1 M, w2 M, w3 M, . . ., wi M, . . ., wn M) (6).
Die Größen w1, w2, . . ., wn werden als Komponenten des Gewichtsvektors w bezeich
net. Der Vektor w muß dieselbe Dimensionalität n wie der Vektor vec in Gleichung
(4) haben, da in w Informationen aus dem Zustandsraum V kodiert wurden, d. h. In
formationen von den N Parametern und den L Zielgrößen.
Der oben genannte neuronale Algorithmus kann sich auf jedem n-dimensionalen
Gebilde (z. B. Kurve, Fläche oder Körper) selbstorganisieren, allerdings läßt sich nur
durch eine Modifikation des Verfahrens eine anwendbare und reproduzierbare Ana
lyse der Versuchsdaten realisieren. Und zwar werden zwei ausgewählte gegenüber
liegende Eckneuronen auf der SOM auf das Minimum bzw. das Maximum der Da
tenwolke in V gezogen und dort mathematisch fixiert, indem die Gewichtsvektoren
dieser Eckneuronen mit dem skalierten Vektoren vec für die Minima und Maxima
der Datenwolke gleichgesetzt werden. Das Minimum der Datenwolke ist am näch
sten am Koordinatenursprung in V, das Maximum am weitesten von diesem entfernt.
Die Visualisierung der physikalischen Versuchszustände geschieht nach der UMa
trix-Methode oder einem dynamischen Visualisierungsverfahren.
Bei der UMatrix-Methode werden die Abstände der Gewichtsvektoren eines jeden
Neurons zu seinen Nachbarn berechnet und entsprechend graphisch aufbereitet,
z. B. farbkodiert dargestellt. Zusammenhängende Gebiete haben eine kleine Diffe
renz, da ihre Neuronen im Zustandsraum nahe beieinander plaziert wurden, diese
werden z. B. als helle Flächen dargestellt. Zwischen diesen einzelnen Clustern gibt
es Grenzen, die durch eine hohe Differenz der jeweiligen Gewichtsvektoren gekenn
zeichnet sind, diese werden z. B. als dunkle Flächen visualisiert. Damit läßt sich eine
gute Visualisierung der Clustergrenzen und damit der gegebenen Versuchszustände
erreichen, siehe auch G. Whittington, G. Spracklen: The Application of Neural Net
work Model to Sensor Data Fusion in Proc. of Applications of ANN Conference, Or
lando, USA, 1990.
Bei dem dynamischen Verfahren werden der entfalteten Karte die Eingangsvektoren
in zufälliger Reihenfolge nochmals angeboten und das aktuelle Gewinnerneuron
nach einem "Winner-takes-all" Algorithmus ermittelt. Dieser Algorithmus besagt, daß
das Neuron, dessen Gewichtsvektor dem Eingangsvektor am nächsten ist, gewinnt.
Die Aussage "am nächsten" wird durch Berechnung eines vorher bestimmten Ab
standsmaßes, z. B. dem euklidischen Abstand, ermittelt.
Der "Winner-takes-all" Algorithmus ist somit ein Verfahren, bei dem immer nur das
Neuron aktiv ist, das eine gewisse Bedingung am besten erfüllt, alle anderen Neuro
nen des Netzes oder der Karte sind inaktiv (1-aus-k Auswahl wobei k gleich der An
zahl der Neuronen auf der Karte ist). Diese besondere Bedingung ist hier ein mini
males Abstandsmaß zwischen dem aktuellen Eingangsvektor und dem Gewichtsvek
tor der einzelnen Neuronen, siehe S. Hafner, "Neuronale Netze in der Automatisie
rungstechnik", Oldenbourg Verlag, 1994, insbesondere Seiten 17 bis 25.
Für das jeweilige Gewinnerneuron wird ein interner Zähler, die Gewinnerrate, um
den Zahlenwert eins erhöht. Am Ende dieses dynamischen Prozesses werden die
Gewinnerraten der einzelnen Neuronen in Farbwerte umkodiert und visualisiert, da
bei bedeutet ein hoher Zahlenwert z. B. eine helle Farbe. Das Neuron mit der höch
sten Gewinnerrate wird z. B. weiß dargestellt. Neuronen mit entsprechend kleinen
Raten werden z. B. dunkler visualisiert. Neuronen, die gar nicht gewonnen haben,
erhalten z. B. eine schwarze Farbe auf der SOM. Durch diesen Algorithmus entste
hen auf der SOM helle Flächen oder Cluster, die durchgeführte Versuche repräsen
tieren. Eine Erweiterung des "Winner-takes-all" Algorithmus wird durch Anwendung
eines "Winner-takes-most" Algorithmus erreicht. Bei diesem Algorithmus wird nicht
nur für den Gewinner, sondern auch für den j-ten, d. h. zweitnächsten, drittnächsten,
viertnächsten,. . . Gewinner ein interner Zähler hochgezählt, eine Möglichkeit ist z. B.
gewinnzählerM = 1/j + gewinnzählerM (7)
wobei j = 1. . .jMAX und M gleich Neuron M auf der Karte und j die Position des Neurons
in einer Liste der jeweiligen SOM-Antworten auf einem angelegten Eingangsvektor
vp ist. Im "Winner-takes-all" Algorithmus würde nur für das tatsächliche Gewinner
neuron (jmax=1) der Zähler um eins erhöht werden. Im "Winner-takes-most" Algorith
mus kann der jeweilige maximale Wert für jmax vorgegeben werden. Durch diese
Maßnahme läßt sich die räumliche Ausdehnung der Cluster auf der Karte steuern.
Als Ergebnis der o.g. Verfahren ist eine strukturierte SOM-Karte entstanden, bei der
es eine Zuordnung zwischen den Versuchen v und den Neuronen k auf der Karte
gibt. Ein Neuron kann dabei genau einem durchgeführten Versuch entsprechen, ei
ne Klasse von Versuchen repräsentieren oder auch einen Versuch abbilden, der
noch nicht durchgeführt wurde.
Damit erfolgt die Anwendungsphase der Karte in zwei Richtungen:
A1. Erstens können neu durchgeführte Versuche durch die SOM verarbeitet werden.
Durch Anwendung eines "Winner-takes-all" Algorithmus und anschließende Visuali
sierung des Gewinners, z. B. als schwarzen Kreis auf der SOM, wird der jeweilige
Versuch im Kontext der anderen Versuche eingeordnet und klassifiziert.
A2. Zweitens kann in umgekehrter Weise, d. h. ausgehend von der Karte neues Wis
sen über die Experimente ermittelt werden:
A2.1. Da durch die Anwendung der o.g. Visualisierungsverfahren verschiedene
Cluster auf der SOM entstanden sind, die zeigen, wo die Stützstellen der SOM-Ap
proximation liegen, kann man genausogut die Bereiche identifizieren, die sehr weit
von Stützstellen entfernt sind. Im Beispiel wären die Stützstellen die hellen Flächen
auf der Karte. Stützstellen liegen im Zustandsraum der Versuche genau dort, wo die
entsprechenden Versuche schon durchgeführt wurden.
Im genannten Beispiel stellen dunkle Cluster auf der SOM somit Gebiete dar, bei
denen noch keine Experimente im Versuchsraum durchgeführt wurden, d. h. hier gibt
es keine Stützstellen. Sie sind damit diejenigen Versuche, die den meisten Informa
tionsgewinn bringen würden, da sie Parameterkombinationen entsprechen, für die
bisher noch keine Experimente durchgeführt wurden.
A2.2. Ausgehend von einem ausgewählten Neuron und damit von einem ausgewähl
ten Wert einer Zielgröße kann ermittelt werden, welche Versuchsparameter mit wel
chen Beitrag zu dem jeweiligen Ergebnis des Versuches geführt haben, d. h. mit der
SOM kann eine Sensitive Analyse (SA) der Versuchsparameter durchgeführt wer
den.
Im Unterschied zu herkömmlichen Verfahren der SA, läßt sich für jeden gewünsch
ten Wert der Zielgröße eine Einflußanalyse aller zugrundeliegenden Parameter
durchführen. Diese Analyse erfolgt dadurch, daß für jeden ausgewählten Versuch
die nächst ähnlichen Versuche ermittelt und für diese Versuche die Parameterunter
schiede berechnet werden. Da die SOM eine topologieerhaltende Abbildung zwi
schen dem Parameterraum der Versuche und der Darstellung auf der SOM reali
siert, werden ähnliche Versuche im allgemeinen auch auf der SOM durch nebenein
ander liegende Neuronen repräsentiert. Damit muß für einen ausgewählten Versuch
nur noch der Radius für die Festlegung der Nachbarneuronen und damit der nächst
ähnlichen Versuche festgelegt werden. Wird der Radius sehr groß gewählt, betrifft
er z. B. die gesamte SOM, gilt die SA für alle Versuche.
Eine Analyse der einzelnen Parameterverteilungen auf der Karte erlaubt das Erken
nen von neuartigen Versuchszusammenhängen, da man z. B. Bereiche identifizieren
kann, bei denen sich die Parameter stark ändern ohne große Änderungen der Ziel
größe oder umgekehrt. Eine Rücktransformation der abstrakten Darstellung der
Karte auf die einzelnen Versuchsparameter erlaubt das Ermitteln von Ursachen für
die Versuchsergebnisse.
A2.3. Eine weitere Beschreibung des Verfahrens erfolgt nachstehend anhand von in
den Zeichnungsfiguren dargestellten Ausführungsbeispielen. Für die weitere Be
schreibung des Verfahrens wird die Anzahl L der Zielgrößen beispielhaft auf 1 fest
gelegt, das Verfahren bleibt dabei für L <= 1 anwendbar. Sind die Zielgrößen, z. B.
die Produkteigenschaften, mit Sicherheit unabhängig voneinander, was der Normal
fall ist, kann für jede einzelne Zielgröße und die dazugehörigen Einflußparameter
eine separate SOM angelernt werden. Werden gegenseitige Beeinflussungen nicht
ausgeschlossen, können auch mehrere Zielgrößen auf einer SOM trainiert werden,
wobei stets gelten muß, daß L«N ist.
Es zeigen:
Fig. 1 ein Strukturbild, das die wesentlichen Komponenten eines Systems
zur Durchführung des Verfahrens zeigt,
Fig. 2 eine mögliche Gewichtsverteilung einer neuronale Karte in einem
Versuchsraum mit nur 2 Größen,
Fig. 3 eine neuronale Karte mit visualisierten Versuchsclustern (weiße Flä
chen auf der Karte) und potentiellen Versuchen mit maximalem In
formationsgewinn (schwarze Flächen),
Fig. 4 eine neuronale höhenkodierte Komponenten-Karte (Gebirge) für
Zielgröße (hier z. B. Drehmoment) des Versuches,
Fig. 5 eine neuronale farbkodierte Komponenten-Karte für eine Zielgröße
(hier z. B. Drehmoment) des Versuches,
Fig. 6 eine höhenkodierte, neuronale Komponenten-Karte für eine Einfluß
größe des Versuches,
Fig. 7 eine höhenkodierte, neuronale Komponenten-Karte für eine andere
Einflußgröße des Versuches,
Fig. 8 einen Prinzipschaltung zur Kombination der SOM mit feed-forward-
Netzen zum Verifizieren der Ergebnisse, und
Fig. 9 ein Security-RBF-Netz zur Versuchsplanung.
Die Beschreibung des Verfahrens ist im folgenden in verschiedenen Verfahrens
schritte gegliedert und durch o.g. Abbildungen beispielhaft erläutert.
Fig. 1 zeigt beispielhaft die Struktur eines Systems zur Durchführung des Verfah
rens zur Prozeßanalyse und Diagnose mit neuronaler Karte.
V1.1. Aufnahme und Aufbereitung der Daten. Ein Datenerfassungs- und aufberei
tungssystem erfaßt und speichert die durchgeführten Versuche, d. h. die Parameter
kombination mit den jeweiligen Versuchsergebnissen.
V1.2. Ein nachfolgendes Datenanalysesystem unterzieht die ausgewählten und rele
vanten Daten einer Korrelationsanalyse, um die unabhängigen, versuchsbeschrei
benden Parameter zu bestimmen. Danach werden die relevanten Parameter bzw.
Zielgrößen skaliert und gegebenenfalls verrauscht. Das Verrauschen ist optional,
um erstens von durchgeführten Einzelversuchen abstrahieren zu können, zweitens
den Einfluß von Meßfehlern zu verringern und drittens die Anzahl der Versuchsbei
spiele zu erhöhen.
V1.3. Auswertung und Analyse auf Grundlage eines Neuro-Systems.
V2.1. Entfaltung des selbstorganisierenden, neuronalen Netzes im Zustandsraum
des Versuches, basierend auf einen selbstorganisierenden neuronalen Algorithmus.
Fig. 2 zeigt beispielhaft die Gewichtsverteilung von i SOM-Neuronen (i=1. . .30) in
einem 2-dimensionalen Zustandsraum. Die Position der Gewichtsvektoren der Neu
ronen ist durch einen grauen Kreis markiert, die Nachbarschaftsbeziehungen - der zu
den jeweiligen Gewichten gehörenden SOM-Neuronen - wird durch eine Linie dar
gestellt. Neuronen, die durch eine Linie verbunden sind, liegen auf der SOM-Karte
nebeneinander. Die weißen Kreise markieren Stellen, an denen Datenvektoren vor
handen sind. Man sieht, daß der größte Teil der SOM-Neuronen dort plaziert wurde;
allerdings gibt es auch Neuronen, die zwischen den Datenvektoren liegen; diese
interpolieren zwischen diesen Datenbeispielen.
V2.2. Visualisierung des entfalteten Netzes als Karte durch Anwendung einer dy
namischen Visualisierung, basierend auf den jeweiligen Gewinnerraten der Neuro
nen oder durch eine statische Visualisierungsmethode nach dem Prinzip der UMa
trix-Methode.
Fig. 3 zeigt - hier in Schwarz/Weiß Darstellung - beispielhaft die strukturierte und
farbkodierte, neuronale Karte für verschiedene Experimente für die Herstellung einer
Maschinenkonstruktion. Die hellen zusammenhängenden Flächen sind die Ver
suchscluster. Die Figur stellt die Projektion und Visualisierung von mehren Versu
chen auf einer neuronalen Karte mit 20*30 Neuronen dar. In Fig. 3 gibt die x-Achse
die Anzahl der Neuronen in x-Richtung, die y-Achse die Anzahl der Neuronen in y-
Richtung an.
Die hellen Flächen, die sog. Versuchscluster, repräsentieren die durchgeführten
Versuche, d. h. die Stützstellen zum Entwurf eines Maschinenteils mit einem ge
wünschtem Drehmoment. Die dunklen Gebiete auf der Karte, z. B. NEW1 und
NEW2, bilden die Hülle zwischen diesen durchgeführten Versuchen, da sie Neuro
nen darstellen, die im Zustandsraum zwischen den Versuchsdaten angeordnet sind.
Mit K1 wird eine Klasse von Versuchen dargestellt, d. h. Versuche die miteinander
ähnlich sind und in die gleiche Versuchsklasse gehören. Die beiden Versuche V1
und V2 stellen zwei konkrete Versuche in der Klasse K1 dar.
Das Neuron R repräsentiert einen Versuch, der noch nicht durchgeführt wurde, er
liegt in den dunklen Bereichen der Karte.
Der Versuch M stellt einen anderen Versuch dar und die Neuronen M+1, M+2, M+3
und M+4 repräsentieren die zu M ähnlichsten Versuche, da sie in der unmittelbaren
Nachbarschaft von M liegen. Im weiteren wird keine Unterscheidung zwischen einem
Versuch und dem ihn repräsentierenden Neuron gemacht. M bezeichnet damit den
Versuch M der genau zum Neuron M gehört.
Obwohl in diesem Beispiel jeder Versuch durch 14 unabhängige Parameter (z. B.
Bohrungsdurchmesser, Lagerlänge, Lagertemperatur) und 1 Zielgröße bestimmt
wird und damit 15-dimensional ist, kann durch das Verfahren eine Projektion auf nur
zwei Dimensionen, die SOM-Karte, durchgeführt werden. Damit wird eine erheblich
bessere Übersichtlichkeit zur Klassifizierung der Versuche erreicht als bei der
gleichzeitigen Betrachtung aller 15 Versuchsgrößen. Die Anzahl der gleichzeitig
ausgewerteten Parameter ist nicht auf 15 beschränkt, sie kann wesentlich höher
sein.
Anbindung der Karte an den Prozeß oder Eingabe von Versuchsgrößen und Darstel
lung des Versuches auf der strukturierten Karte.
Für die Klassifikation durchgeführter Versuche bekommt die Karte einen n-
dimensionalen Vektor angeboten, d. h. Versuchsparameter plus Versuchsergebnisse,
der dann auf der Karte eingeordnet wird. Damit läßt sich erkennen, wie ähnlich zwei
bereits durchgeführte Versuche zueinander sind und zu welcher Klasse von Versu
chen der jeweilige Versuch gehört. Ähnliche Versuche werden auch auf der Karte
räumlich nahe beieinander abgebildet, so sind z. B. die Versuche V1 und V2 sehr
ähnlich zueinander, sie gehören zur Klasse K1. Es ist zu beachten, daß man den 15
verschiedenen Versuchsgrößen nicht ansieht, welche Änderungen zu welchen Er
gebnissen führen werden. Dadurch könnten beim Versuch z. B. Parameterkombina
tionen betrachtet werden, die im Versuchsresultat ähnlich sind. Nach der Einord
nung auf der Karte erkennt man den Zusammenhang und kann gezielt nach ande
ren Versuchseinstellungen suchen, die den gewünschten Eigenschaften der Ziel
größe näherkommen.
In dieser Anwendungsphase wird der aktuelle Versuch durch einen neuronalen
"Winner-takes-all" Algorithmus ausgewertet und auf der vorher strukturierten und
farbkodierten Karte aufgetragen. Die räumliche Lage des den Versuch repräsentie
renden Neurons auf der SOM liefert demnach wichtige Informationen über den je
weiligen Versuch, z. B. seine Klassenzugehörigkeit.
Wie in A2.1. erläutert, entstehen durch Anwendung eines statischen oder dynami
schen Visualisierungsverfahrens Bereiche auf der SOM, die schon durchgeführten
Versuchen zugeordnet werden können. Im erläuterten Beispiel sind das die hellen
Flächen, z. B. K1 in Fig. 3. Alle Bereiche zwischen diesen hellen Flächen, z. B.
NEW1, NEW2, R und M in Fig. 3, repräsentieren Versuche, die noch nicht durchge
führt wurden. Damit entsprechen sie Experimenten, die den größten Informations
gewinn versprechen.
Durch Anwahl eines beliebigen Neurons, z. B. Neuron M, auf den dunklen Flächen
der SOM, werden die jeweiligen Gewichtsvektoren wM = (w1 M, . . ., wN M, . . ., wn M) ausge
geben und in die realen Werte der Versuchsparameter umgerechnet. Dadurch las
sen sich genau die Parameterkonfigurationen vp1, vp2, . . ., vpN ermitteln, für die
neue Versuche den größten Informationsgewinn bringen. Diese Parameterkombina
tion können durch ein nachgeschaltetes Verfahren auf Plausibilität untersucht und
wenn gefordert, an den Versuchsprozeß on-line oder off-line ausgegeben werden.
Anbindung der Karte an den Prozeß oder Eingabe neuer Versuchsparameter und
Darstellung eines virtuellen Versuches auf der strukturierten Karte.
Der Versuch heißt dann virtuell, wenn er nicht mehr in der Realität durchgeführt
werden muß. Es reicht aus, die vorgesehenen Parameterkombinationen der Karte
anzubieten. Ausgehend von diesem Parametersatz wird der Versuch am Rechner
simuliert, die zu einem Parametersatz gehörenden Zielgrößen können durch die
Karte berechnet werden. Diese Aufgabe wird durch eine Komponentenkarte gelöst.
Wie oben beschrieben hat ein Neuron M einen Gewichtsvektor wM mit n Elementen,
mit wM = (w1 M, w2 M, w3 M, . . ., wi M, . . ., wn M). Eine Komponentenkarte entsteht dadurch, daß
man die Werte wi k aller Neuronen k der Karte über der SOM visualisiert. Da den i-ten
Gewichtswerten jedes Neurons eindeutig der Wert der zugrundeliegenden Ver
suchsparameter zugeordnet werden kann, erhält man durch diese Darstellung eine
Verteilung des jeweiligen Versuchsparameters i über den gesamten virtuellen Zu
standsraum aller Versuche. Bei der Umrechnung vom Gewichtswert in den realen
Parameterwert muß die Skalierung gegebenenfalls beachtet werden. Die Visualisie
rung aller erhaltenen Parameterwerte über der SOM erfolgt entweder höhen- oder
farbkodiert. Durch eine entsprechende Skala kann der Wert der Zielgröße für den
simulierten Versuch abgelesen werden.
Fig. 4 zeigt eine höhenkodierte Komponentenkarte für das dort betrachtete Beispiel.
Den Höhenwerten der z-Achse entsprechen reale Werte der ausgewählten Zielgrö
ße. Im Beispiel ist die Zielgröße "Drehmoment" dargestellt. Ein virtueller Versuch
wird in Fig. 4 durch das V repräsentiert. Dabei wurden der Karte konkrete Werte für
die 14 Einflußparameter angeboten und die Karte hat nach einem Winner-takes-all-
Algorithmus das zu diesem Versuch am besten passende Neuron V ermittelt. Da
durch kann der beim virtuellen Versuch erreichbare Drehmomentenwert an der z-
Achse ausgelesen werden, im Beispiel ist er ca. 500. Die x- und y-Achse stellen den
Definitionsbereich der Versuche dar. Es ist zu beachten, daß dieser Definitionsbe
reich nicht - wie gewöhnlich - aus physikalischen Werten zweier Versuchsparameter,
sondern gleichzeitig aus allen 14 Parametern besteht, die in den Gewichtsvektoren
der x * y=k Neuronen abgebildet sind. Diese 14 Einflußparameter sind zusammen mit
der Zielgröße durch die Gewichtsvektoren der Neuronen topologieerhaltend auf die
Karte abgebildet. Es ist dabei allerdings zu beachten, daß die SOM keine Unter
scheidung zwischen Einfluß- und Zielgrößen macht; diese Unterscheidung wird erst
durch die Anwendung und Auswertung bestimmt.
Die beschriebene Simulation ist aber nur möglich, wenn L « N ist, d. h. wenn die
Anzahl N der Versuchsparameter wesentlich größer, z. B. eine Größenordnung grö
ßer, als die Anzahl der zu simulierenden Zielgrößen L ist. Das liegt daran, daß der
Karte im allgemeinen ein n-dimensionaler Vektor angeboten werden muß. Soll mit
der SOM eine Versuchssimulation durchgeführt werden, will man aber gerade die
Werte einer Zielgrößen vzj bestimmen, d. h. es soll vp1, . ., vpN auf vzj abgebildet
werden:
vzj = f (vp1, . . ., vpN (8).
Die Karte erhält damit nur die N Eingangsparameter vp1, . . ., vpN, die L Werte der
Zielgröße werden z. B. auf NULL gesetzt, da man sie für neue Versuche noch nicht
kennt. Erst nach der Einordnung auf der SOM können die dazugehörigen Werte der
Zielgröße angeben werden.
Die grundlegende Idee ist, ausgehend von einer gewünschten Zielgröße bzw. von
einem gewünschten konkreten Wert der Zielgrößen, die zugrundeliegenden Werte
der Einflußgrößen zu bestimmen, nach Art eines inversen Modells (vpi)=f-1(vzj). vzj
wird ausgewählt und vp1 wird berechnet. Diese Funktion f-1 wurde während des
Lernvorgangs durch die SOM gelernt.
Ausgehend von dieser Basisidee kann nun auch für vorgegebene Änderungen Δvzj
auf zulässige Änderungen Δvpi geschlossen werden, nach Δvpi = f-1(Δvzj).
V6.1. Wie oben erläutert, entspricht ein Neuron auf der SOM einem durchgeführten
oder potentiellen Versuch. Zur weiteren Erläuterung der SA wird nochmals Fig. 3
herangezogen. Der Unterschied zwischen zwei beliebigen Neuronen M und R auf
der Karte läßt sich ermitteln, indem man die Gewichtsvektoren wM und wR dieser
beiden Neuronen gegeneinander vergleicht. Da beide Neuronen zwei verschiedene
Versuchen vM und vR repräsentieren, erhält man im Ergebnis einer Differenzanalyse
diejenigen Differenzen für alle Versuchsparameter, die gerade zu der Unterschei
dung dieser beiden Versuche vM und vR führen. Die folgende Gleichung gibt ein Bei
spiel für die Berechnung:
vari M,R = abs (wi M - wi R) * scal_vec (9).
Die Differenz vari M,R für jeden Versuchsparameter i (i=1. . . N) ergibt sich als absoluter
Betrag abs der Differenz der entsprechenden Komponenten wi im Zustand M und R
multipliziert mit dem Skalierungsfaktor scal_vec für jeden Parameter i. Ausgehend
von dieser Differenz kann der prozentuale Unterschied prozdiffi für jeden Ver
suchsparameter i beider Versuche vM und vR ermittelt werden:
prozdiffi M,R = vari M,R/(Meßbereich von i) * 100% (10).
Damit lassen sich die Einflüsse der einzelnen Versuchsparameter i berechnen und
in einer Einflußliste darstellen. Die folgende Liste zeigt ein Beispiel:
Aus einer solchen Liste können folgende Erkenntnisse gezogen werden: Die zwei
ausgewählten Versuche vM und vR unterscheiden sich zuerst einmal in den Ergeb
nissen des zugrundeliegenden Versuches, d. h. in den Werten ihrer Zielgröße. Für
vM könnte der Wert z. B. 400 sein für vR 600. Bezogen auf den Meßbereich von 1000
ergibt sich damit eine prozentuale Abweichung im Drehmoment von 20% für die Ver
suche vM und vR. Nach Gleichung (10) wird die zugrundeliegende prozentuale Än
derung der Versuchsparameter berechnet und in die Tabelle eingetragen. So liest
man im Beispiel ab, daß eine Änderung des Parameters vpii von 15% zu der berech
neten Änderung der Zielgröße von 20% geführt hat und damit dieser Parameter re
lativ unempfindlich für das Drehmoment ist, während andererseits z. B. eine gering
fügige Änderung von vpiii (im Beispiel 1,3%) zu hohen Drehmomentänderungen führt.
Mit der Tabelle läßt sich damit die Frage beantworten, welche gleichzeitigen Ände
rungen der Versuchsparameter zu welchen Änderungen der Zielgröße geführt und
welche Versuchsparameter in dem ausgewählten Vergleich den größten bzw. den
kleinsten Einfluß (Sensitivität) auf die Zielgröße haben. Der Vorteil dieses Ansatzes
ist, daß die gegenseitigen Wechselbeziehungen der Einflußparameter untereinander
mit berücksichtigt sind und daß die Analysen praxisgerecht für jeden gewünschten
Wert der Zielgröße durchgeführt werden können.
Wählt man für einen gegebenen Zustand M nicht einen beliebigen anderen Zustand
R, sondern die benachbarten Zustände von M, dann bekommt man eine SA um den
gewählten Arbeitspunkt M der Versuchsreihe. Für einen Beispielradius von 1 wurden
die unmittelbaren Nachbarn von M in Fig. 3 als M+1, M+2, M+3, M+4 dargestellt.
Dieses Verfahren realisiert damit eine Sensitivitätsanalyse aller Versuchsparameter
auf die Zielgröße vzj für den ausgewählten Arbeitspunkt M der Versuchsreihe. Durch
Einstellung der Größe dieser Nachbarschaft kann die Sensitivitätsanalyse sehr eng
um einen ausgewählten Arbeitspunkt der Versuchsreihe oder auch über einen gro
ßen Bereich, bis hin über alle Versuche durchgeführt werden. Letzteres gibt Auskunft
darüber, welchen Einfluß die Versuchsparameter im gesamten Versuchsraum im
Mittel auf eine Zielgröße haben.
Da diese Einflußanalyse für jeden beliebigen Arbeitspunkt der Versuchsreihe, d. h.
für jeden gewünschten Zielwert einer Zielgröße neu berechnet werden kann, stellt
der beschriebene Ansatz eine Erweiterung gegenwärtiger Verfahren zur SA dar. Ein
Vorteil des neuen Verfahrens ist, daß man eine zielorientierte Analyse durchführen
kann, da der gewünschte Wert der Zielgröße sich festlegen läßt und ausgehend
von diesem Zielwert sich die dazugehörigen realen Werte der Versuchsparameter
und die Sensitivität dieser Versuchsparameter bestimmen lassen. Herkömmliche
Verfahren arbeiten eher "what-if" orientiert, d. h. sie verändern die Eingangsgrößen
und untersuchen, wie sich die Zielgröße ändert; hier wird es genau entgegengesetzt
realisiert.
V6.2. Eine weitere Möglichkeit der zielorientierten SA liegt in der höhenkodierten
Komponentendarstellung einzelner Versuchsparameter oder der Zielgröße selbst.
Der Vorteil dieses Ansatzes ist, daß man intuitiv erkennt, in welchen Versuchsberei
chen sich ein Versuchsparameter oder die Zielgröße viel oder wenig ändert. Die
Fig. 4 verdeutlicht das für die Zielgröße Drehmoment. Fig. 4 zeigt, daß es für die
Zielgröße Bereiche gibt, bei denen sich die Zielgröße nicht ändert, sog. Plateaus
PL1 und PL2.
Diese Plateaus sind besonders dann interessant, wenn robuste Versuchsbeispiele
gesucht werden, Versuche also, bei denen etwaige Änderungen in den Einflußgrö
ßen nicht zu gravierenden Änderungen der Zielgröße führen. Bei kleinen Änderun
gen in den Einflußgrößen würde die Zielgröße auf der SOM innerhalb des Plateaus
wandern, ihr numerischer Wert ändert sich damit nur sehr wenig.
Gerade für den Entwurf von fehlertoleranten Versuchsdurchführungen, d. h. auch für
die fehlertolerante Produktionen von technischen oder chemischen Produkten, sind
diese Plateaus eine völlig neuartige Möglichkeit der Parameterauswahl. Sie ist ins
besondere generell anwendbar, nichtlinear und auch intuitiv verstehbar. Damit eröff
net sich neue Möglichkeiten der Qualitätssicherung.
Andererseits gibt es auch Gipfel G in der Zielgröße, d. h. befindet man sich mit der
Zielgröße gerade auf so einem Gipfel, dann können schon kleinste Änderungen in
den Einflußgrößen zu gravierenden Änderungen der Zielgröße führen. Damit kann
das Verfahren zur Stabilitätsanalyse von technischen und chemischen Prozessen
mit dem Ziel angewendet werden, die Prozesse robust zu gestalten.
Will man sich z. B. auf einen konkreten Wert der Zielgröße festlegen, dann sind
eventuell mehrere Gebiete auf der Karte für diese gewünschten Werte zulässig. Der
konkrete Zielwert ZW von z. B. 700 wird in Fig. 4 durch zwei mögliche Positionen ZW
auf der Karte dargestellt, aber nur die rechte Position markiert einen relativen stabi
len Bereich, da dieser ZW auf einem Plateau liegt, d. h. die Zielgröße Drehmoment
reagiert hier nicht so empfindlich auf - evtl. unvermeidbare - Änderungen in den Ein
flußgrößen. Ausgehend von einem gewünschten Zielgrößenwert, im Beispiel der
rechte ZW, wird durch das Verfahren die dazugehörige Werte-Kombination der Ein
flußgrößen berechnet und ausgegeben.
Fig. 5 zeigt - hier in Schwarz/Weiß - eine farbkodierte Darstellung der Zielgröße
Drehmoment. Mittels einer Farbskala lassen sich damit auch die Zielgrößenwerte
ablesen, z. B. entspricht das weiße Kreuz an der Neuronenposition (7, 18) dem Gipfel
G in Fig. 4.
Fig. 6 zeigt die Verteilung einer Einflußgröße für den Versuch, im Beispiel ist das
der Versuchsparameter Lagerlänge. Man sieht, daß es auch hier wieder Plateaus
gibt, in denen sich der Wert wenig bzw. viel ändert. Da die Karte den gesamten
möglichen Versuchsraum darstellt, lassen sich somit einzelne Versuche identifizie
ren, für die diese Einflußgröße konstant bleibt. Änderungen der Zielgröße Drehmo
ment, siehe Fig. 4, resultieren in diesen Bereichen nicht aus Änderungen des Ver
suchsparameters Lagerlänge.
Auch die umgekehrte Analyse läßt sich durchführen, denn andererseits ändert sich
die Zielgröße Drehmoment z. B. sehr wenig in PL2 (Fig. 4), obwohl es in dem dazu
gehörigen Bereich EG (Fig. 6) große Änderungen in der Einflußgröße Lagerlänge
gibt. Das heißt, die Lagerlänge hat in diesem Arbeitspunkt keinen großen Einfluß auf
die Zielgröße Drehmoment.
Fig. 7 zeigt die Verteilung einer weiteren Einflußgröße für den Versuch. Durch Aus
wertung der Fig. 4, 6 und 7 lassen sich die einzelnen nichtlinearen Einflüsse auf
die Zielgröße analysieren. Der Anwender erhält damit einen Einblick in die nichtli
nearen Zusammenhänge zwischen Versuchsparametern und Zielgrößen. Und für
jede beliebige Stelle auf dem Gebirge, lassen sich alle zugrundeliegenden Werte
der Einflußgrößen bestimmen.
Durch die Komponentendarstellung mehrerer Einflußgrößen lassen sich auch Korre
lationen der Einflußgrößen untereinander entdecken; sind die Gebirge zweier Ein
flußgrößen z. B. sehr ähnlich, deutet das auf eine hohe Korrelationen hin. Man be
kommt damit einen guten Einblick in die Abhängigkeit bzw. Unabhängigkeit der aus
gewählten Versuchsparameter voneinander.
Zur Verifizierung der Analyseergebnisse wird ein neuronales feed-forward-Netz
(siehe unten) verwendet, welches den gleichen Versuchsprozeß wie die SOM mo
delliert hat. Im Unterschied zur SOM werden bei den neuronalen feed-forward-
Netzen die Ein- und Ausgänge getrennt behandelt. Alle Versuchsparameter, d. h. alle
Einflußgrößen für den Versuch, werden an die Netzeingänge gelegt. Alle Zielgrößen
werden mit den Netzausgängen verbunden. Durch Anwendung verschiedener neu
ronaler Lernverfahren erlernt das Netz eine Approximation zwischen seinen Ein- und
Ausgängen. Dadurch kann man den gesamten Versuch modellieren.
Ein feed-forward-Netz ist ein eingeführter Begriff für eine Klasse von Netzen, deren
Neuronen geschichtet angeordnet sind und bei denen es keine Rückführungen zwi
schen Neuronen einer höheren zu Neuronen einer niedereren Schicht gibt; siehe A.
Zell, "Simulation Neuronaler Netze", Addison Wesley Verlag, 1. Auflage, 1994, Sei
ten 76 bis 78. Diese Netze sind geeignet, statische und dynamische Modelle zwi
schen gewählten Meßgrößen aufzubauen. Ausgehend von einem neuronalen Mo
dell, das zwischen den Versuchsparametern vp1, vp2, . . . vpN und der Zielgröße vzj
aufgebaut wurde, kann dieses Modell zum Verifizieren der Analyseergebnisse ver
wendet werden.
Als neuronales feed-forward-Netzmodell wird ein Security-RBF-Modell aufgebaut.
Ein Security-Netz ist ein Netz, das zusätzlich zu seinem Modellausgangswert angibt,
wie sicher dieser Modellausgangswert ist. Diese Sicherheit kann z. B. durch einen
Zahlenwert von 0. . .100% ausgegeben werden: 0% bedeutet dabei keine Sicherheit,
100% bedeutet, daß das Netz-Ergebnis ganz sicher ist.
Bei Verwendung geeigneter, lokal approximierender Netze, z. B. RBF-Netze (siehe
A. Zell, Seite 225 bis 239), ist es möglich, solche Security-Netze aufzubauen. RBF-
Netze sind 3-schichtige Netzwerke, deren verdeckte Hidden-Schicht aus Neuronen
besteht, die eine gaußförmige Aktivierungsfunktion haben. Ihre maximale Aus
gangsaktivität ist auf einen kleinen Eingangsbereich beschränkt. Diese Neuronen
sind damit nur lokal für einen kleinen n-dimensionalen, hyperkugligen Eingangsbe
reich sensitiv. Liegt der Eingangsvektor in diesem Bereich, hat das jeweilige Hidden-
Neuron seine maximale Ausgangsaktivität, die anderen Hidden-Neuronen haben
eine entsprechend geringere Aktivität (siehe A. Zell). Die Hidden-Neuronen bilden
damit die Stützstellen für die Approximation.
Durch Berechnung eines Abstandsmaßes zwischen angelegtem Eingangsvektor und
dem Hidden-Neuron mit maximaler Aktivität erhält man ein Maß dafür, ob das Netz
gegenwärtig in einem Bereich angewendet wird, in dem es nicht trainiert wurde. Ist
dieses Abstandsmaßes groß, heißt das, daß der Eingangsvektor sehr weit von den
Stützstellen des RBF-Netzes entfernt ist. Damit ist das Ergebnis des Netzes relativ
unsicher, denn neuronale Netze interpolieren zwischen den gelernten Stützstellen.
Diese Interpolation ist i.a. um so unsicherer, je weiter der Wert von den nächsten
Stützstellen entfernt ist. Befindet sich der aktuelle Ausgangswert im Extrapolations
raum, ist das Ergebnis noch unsicherer.
Ein Beispiel für die Berechnung des Security-Wertes ist:
security_value [%] = activityWINNER[%]-MSELearn[%] (11)
security_value gibt den Sicherheitswert der Netzantwort in Prozent an, activityWINNER
ist die Aktivitätsantwort des Gewinnerneurons auf einen Eingangswert multipliziert
mit 100% und MSELearn ist der mittlere Lernfehler des Netzes, aufgenommen während
des Trainings. Damit kann der Securitywert nicht größer als die Genauigkeit wäh
rend des Lernvorganges sein. Der Aktivitätswert ist ein Maß für den Abstand des
Eingangsvektor zu der nächstgelegenen Stützstelle. Dadurch entsteht ein Security-
RBF-Netz, daß für jede Simulation nicht nur das Simulationsergebnis, sondern auch
die Sicherheit des Ergebnisses berechnet und ausgibt.
Fig. 8 verdeutlicht das Prinzip. Dabei muß das feed-forward-Netzmodell mit den
gleichen Versuchsbeispielen wie die SOM trainiert werden.
V7.1. Die im Verfahrensschritt V5 "Versuchssimulation" zugrundegelegten Ver
suchsparameterwerte p1, . . ., pN für den Wert einer Zielgröße vzj werden dem Securi
ty-RBF-Netz angeboten und die dazugehörigen Werte vzj,TEST ermittelt. Stimmt
vzj,TEST mit vzj annähernd überein (DIFF<OK), sind die Ergebnisse der SOM verifi
ziert (yes), da die beiden grundlegend-verschiedenen Neuromodelle gleiche Modell
ergebnisse berechnet haben. Ansonsten wird der Verfahrensschritt 5 iterativ wie
derholt (no). Es geben p1res bis pNres die verifizierten Parameterkombinationen an.
V7.2. Bei Verwendung des Security-RBF-Netz können auch die Ergebnisse des
Verfahrensschrittes V4 "Bestimmung potentieller Versuche" verifiziert werden.
Hat man im Verfahrensschritt V4. eine Parameterkombination p1. . .pN für einen Ver
such mit hohem Informationsgewinn ermittelt, wird diese Kombination auf das feed-
forward-Modell gegeben. Daraufhin berechnet das feed-forward-Modell irgendeinen
Ausgangswert. Entscheidend ist aber, daß der Security-Wert klein ist, denn das be
deutet, daß die mit der SOM ermittelte Parameterkombination sehr weit von gelern
ten Beispieldaten entfernt liegt. Das wiederum heißt, daß die Parameterkombination
einem Versuch mit hohem Informationsgewinn entspricht.
V7.3. Unter Verwendung des oben beschriebenen feed-forward-Modells lassen sich
die Ergebnisse der Sensitiven Analyse mittels SOM, siehe Verfahrensschritt V6.1.
und V6.2., verifizieren. Das feed-forward-Modell wird auf den von der SOM vorgege
benen Arbeitspunkt eingestellt, d. h. die ermittelten Werte für die Versuchsparameter
p1. . .pN werden an das feed-forward-Modell angelegt. Danach werden die Eingänge
am Modell in einer vorgegebenen Varianz verändert und das Verhalten des Ausgan
ges analysiert. Die mittels der SOM-Analyse ermittelten Varianzen der Netzeingänge
bzw. Versuchsparameter müssen bei dieser Analyse die entsprechenden Varianzen
am Netzausgang bzw. an der Zielgröße bewirken.
V8. Die in V7.1., V7.2. und V7.3. beschriebenen Verfahren können auch eigenstän
dig zur Planung und Durchführung von Versuchen verwendet werden, da mit diesen
eine what-if-Modellierung, Versuchsauswahl und Sensitive Analyse durchgeführt
werden kann, wenn auch in wesentlich einfacherer und eingeschränkterer Form als
mit der SOM, da die SVP mit RBF-Netzen nicht zielorientiert angewendet werden
kann.
Fig. 9 verdeutlicht das Prinzip. Für die SVP wird ein Security-RBF-Modell zwischen
Versuchsparametern und Zielgrößen aufgebaut, an die Netzeingänge werden die
Versuchsparameter angelegt, an die Netzausgänge die Zielgrößen.
V8.1. Bei der what-if-Modellierung und der Sensitiven Analyse wird eine Parameter
kombination p1. . .pN am Netzeingang ausgewählt und danach die Änderung der Ziel
größen bei Änderung eines ausgewählten Parameters untersucht. Diese Untersu
chung kann auf bestimmte Security-Werte eingestellt und beschränkt werden, denn
es wird im allgemeinen nicht sinnvoll sein, oben genannte Analysen in Arbeitsberei
chen durchzuführen, für die ein niedriger Security-Wert security_valvuezj berechnet
wurde.
Mit o.g. Verfahren kann z. B. folgende Frage der SVP beantwortet werden: Um wie
viel Prozent ändert sich die Ausgangsgröße, wenn sich die ausgewählte Einflußgrö
ße um x % verändert hat?
V8.2. Suche nach Versuchen mit hohem Informationsgewinn.
Auch in diesem Fall wird ein Security-RBF-Modell aufgebaut. Für jede beliebige
Kombination der Versuchsparameter am Eingang des Netzes kann der dazugehöri
ge Ausgangswert der Zielgrößen berechnet werden. Entscheidend ist aber, daß der
Security-Wert für die Simulation klein ist, denn das bedeutet, daß die eingestellte
Parameterkombination sehr weit von gelernten Beispieldaten entfernt liegt. Das wie
derum heißt, daß die Parameterkombination einen Versuch mit hohem Informations
gewinn entspricht.
Durch die Kombination des zielorientierten Ansatzes der SOM mit den Verifikati
onsmöglichkeiten eines feed-forward-Modells lassen sich die gegenwärtigen Metho
den der Planung und Durchführung von Versuchen grundlegend erweitern, da die
hier beschriebenen Verfahren nichtlinear und grundsätzlich anwendbar sind. Sie
ermöglichen eine zielorientierte Analyse der Einflüsse von Versuchsparametern für
jeden beliebigen Zielgrößenwert des Versuches.
Ein weiterer Vorteil des Verfahrens gegenüber anderen Technologien, wie Exper
tensystemen und Fuzzy-Technologien für die Versuchsplanung, liegt in dem gerin
gen Engineering-Aufwand. Da das Lernen und Strukturieren der Karten vollständig
durch das Verfahren erbracht wird, entfällt aufwendiges Engineering und Eingeben
von Wissen über den Versuch. Diese Form des Engineering ist integraler Bestand
teil des Verfahrens selbst.
Claims (17)
1. Verfahren zur Planung und Durchführung von Versuchen im Vorfeld oder
während einer Produktion von technischen oder chemischen Produkten, bei dem
alle für einen Versuch relevanten Größen zusammengefaßt und durch eine neurona
le Analyse auf der Grundlage selbstorganisierender Karten, sogenannter SOM, in
Beziehung zueinander ausgewertet werden indem eine topologieerhaltende, nichtli
neare Projektion von Daten der relevanten Versuchs- oder Produktionsparameter
auf eine mehrdimensionale SOM realisiert wird, und ausgehend von der SOM die
nichtlinearen Zusammenhänge zwischen Ziel- und Einflußgrößen analysiert werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Versuche
für die Verbesserung und Optimierung von Produkten des Maschinenbaus, des
Fahrzeugbaus, des Anlagenbaus, der Feinwerktechnik, der Chemischen Industrie
und für Gentechnische Produkte und Werkstoffe verwendet werden sowie für die
Optimierung von Prozessen zur Herstellung von Produkten in der Energie- und
Kraftwerkstechnik.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Versuche
während der laufenden technischen oder chemischen Produktion zur Qualitätsüber
wachung durchgeführt werden.
4. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekenn
zeichnet, daß zur Beurteilung eines Versuches dieser durch die SOM simuliert und
mit auf der SOM zuvor erfaßten und dargestellten Versuchsergebnissen verglichen
wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß das zu erwar
tende Versuchsergebnis einer festgelegten Zielgröße eines ausgewählten Versu
ches durch die SOM berechnet und höhenkodiert, farbkodiert oder numerisch aus
gegeben wird.
6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß ausgehend
von einer strukturierten SOM neue Versuche mit maximalem Informationsgewinn
identifiziert werden, indem diese potentiellen Versuche auf der SOM farblich kodiert
dargestellt werden und ausgehend von diesen Bereichen die dazugehörigen Ver
suchsparameter ermitteln werden.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß ausgehend
von einer strukturierten SOM eine zielorientierte Sensitive Analyse durchgeführt
wird, indem für jeden ausgewählten Wert einer Zielgröße auf der SOM die konkreten
Werte oder die Einflüsse der zugrundeliegenden Versuchsparameter berechnet
werden.
8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß ausgehend
von einer strukturierten SOM eine zielorientierte Sensitive Analyse durchgeführt
wird, indem die Verteilung der Einfluß- und der Zielgrößen auf der SOM höhenko
diert dargestellt wird und Bereiche identifiziert werden, in denen sich die Einfluß- und
die Zielgröße nur im vorgegebenen Maße ändern.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß das Verfahren
zur Stabilitätsanalyse eines Prozesses verwendet wird indem für die Zielgröße Be
reiche, sogenannte Plateaus, auf der SOM identifiziert werden, die sich nur wenig
verändern.
10. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß das Verfah
ren zum robusten und fehlertoleranten Entwurf eines Prozesses verwendet wird, in
dem für die Zielgröße oder für die Einflußgrößen Plateaus auf der SOM identifiziert
werden, die sich nur wenig verändern.
11. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß das Verfah
ren zur Festlegung von zulässigen Toleranzen für Konstruktionsparameter verwen
det wird.
12. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekenn
zeichnet, daß seine Durchführung in nachstehenden Schritten erfolgt:
- a) Aufnahme und Auswahl der Versuchsparameter und Aufbereitung der Daten,
- b) Entfaltung des selbstorganisierenden, neuronalen Netzes im Zustandsraum der Anlage, basierend auf den Algorithmus von T. Kohonen, wobei die Werte der relevanten Versuchsparameter verwendet werden,
- c) Darstellung des entfalteten Netzes als neuronale Karte,
- d) Projektion des hochdimensionalen Versuchsfeldes auf die neuronale Karte, basierend auf der UMatrix-Methode oder mittels sogenannter win ner-takes-all und/oder winner-takes-most Algorithmen, mit anschließender Visualisierung der aufsummierten Gewinnerraten der einzelnen Neuronen auf der Karte,
- e) gegebenenfalls Anwendung der Karte zur Simulation von Versuchen,
- f) gegebenenfalls Identifizierung von Versuchen mit maximalem Informations gewinn durch Anwahl der z. B. farblich visualisierten Versuchsflächen
- g) gegebenenfalls zielorientierte Sensitive Analyse durch Auswahl von beson ders sensitiven Bereichen, sog. Gipfel oder von nicht-sensitiven Bereichen, sog. Plateaus auf einer SOM, bei der die ausgewählte Versuchsgröße hö henkodiert dargestellt ist.
13. Verfahren zur Planung und Durchführung von Versuchen oder Produk
tionen in einer technischen oder chemischen Anlage, bei dem die zugrundeliegen
den Zusammenhänge aller für einen Versuch relevanten Größen durch eine neuro
nale Modellierung auf Grundlage Radialer-Basis-Funktionen in Beziehung zueinan
der gebracht werden, indem ein Security-RBF-Netzwerk verwendet wird, das zusätz
lich zum Modellwert die Sicherheit der Aussage angibt, indem die Aktivierungsant
wort der Hidden-Neuronen ausgewertet wird.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, daß das Securi
ty-RBF-Modell als what-if-Modell für die Versuche verwendet wird, indem die Aus
wirkungen von neu identifizierten Parameterkombinationen auf eine Zielgröße am
Security-Modell simuliert wird.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß das what-if-
Modell zur Sensitiven Analyse des Versuches verwendet wird.
16. Verfahren nach Anspruch 13, dadurch gekennzeichnet, daß das Securi
ty-RBF-Modell zur Bestimmung von Versuchen mit maximalem Informationsgewinn
verwendet wird, indem Versuchskombinationen gesucht werden, deren RBF-
Modellierung einen Security-Wert ergibt, der erkennen läßt, daß eine neue Ver
suchskombination identifiziert wurde.
17. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet,
daß die Ergebnisse, die mittels der SOM erhalten wurden, durch ein nachgeschalte
tes Security-RBF-Modell verifiziert werden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1997142902 DE19742902A1 (de) | 1997-09-29 | 1997-09-29 | Verfahren zur Planung und Durchführung von Versuchen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1997142902 DE19742902A1 (de) | 1997-09-29 | 1997-09-29 | Verfahren zur Planung und Durchführung von Versuchen |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19742902A1 true DE19742902A1 (de) | 1999-04-15 |
Family
ID=7843956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE1997142902 Ceased DE19742902A1 (de) | 1997-09-29 | 1997-09-29 | Verfahren zur Planung und Durchführung von Versuchen |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19742902A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10209146A1 (de) * | 2002-03-01 | 2003-09-18 | Bayer Ag | Verfahren und System zur automatischen Planung von Experimenten |
WO2004029738A1 (de) * | 2002-09-30 | 2004-04-08 | Gerhard Kranner | Verfahren zur rechnergestützten erstellung von prognosen für operative systeme sowie system zur erstellung von prognosen für operative systeme |
DE102007001025A1 (de) * | 2007-01-02 | 2008-07-03 | Siemens Ag | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4029774A1 (de) * | 1989-09-20 | 1992-11-19 | Ibm | Mehrdimensionale bildanalyse |
EP0653714A2 (de) * | 1993-11-12 | 1995-05-17 | Motorola, Inc. | Neuronales Netzwerk, Neuron und Verfahren für Herstellungsprozessparameterschätzung |
DE19518804A1 (de) * | 1994-05-27 | 1995-12-21 | Fraunhofer Ges Forschung | Verfahren zur Überwachung eines Produktionsprozesses |
DE19505506A1 (de) * | 1995-02-10 | 1996-08-22 | Daimler Benz Ag | Verfahren zum Einsatz eines Beobachtermodells zur Drehmomentenschätzung und -vorhersage für eine Asynchronmaschine |
DE29700028U1 (de) * | 1997-01-02 | 1997-03-20 | Siemens Ag | Selbstdiagnostizierendes Gerät mit Fuzzy-Neuro-Logik-Diagnoseeinrichtung |
-
1997
- 1997-09-29 DE DE1997142902 patent/DE19742902A1/de not_active Ceased
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4029774A1 (de) * | 1989-09-20 | 1992-11-19 | Ibm | Mehrdimensionale bildanalyse |
EP0653714A2 (de) * | 1993-11-12 | 1995-05-17 | Motorola, Inc. | Neuronales Netzwerk, Neuron und Verfahren für Herstellungsprozessparameterschätzung |
DE19518804A1 (de) * | 1994-05-27 | 1995-12-21 | Fraunhofer Ges Forschung | Verfahren zur Überwachung eines Produktionsprozesses |
DE19505506A1 (de) * | 1995-02-10 | 1996-08-22 | Daimler Benz Ag | Verfahren zum Einsatz eines Beobachtermodells zur Drehmomentenschätzung und -vorhersage für eine Asynchronmaschine |
DE29700028U1 (de) * | 1997-01-02 | 1997-03-20 | Siemens Ag | Selbstdiagnostizierendes Gerät mit Fuzzy-Neuro-Logik-Diagnoseeinrichtung |
Non-Patent Citations (7)
Title |
---|
BRAUSE,Rüdiger: Neuronale Netze, B.G. Teubner Stuttgart 1995, S.152-165 * |
HALICI,Ugur, ONGUN,Güçlü: Fingerprint Classi- fication Through Self-Organizing Feature Maps Modified to Treat Uncertainties. In: Proceedings Of The IEEE, Vol.84, No.10. Oct. 1996, S.1497- * |
KOHONEN,Teuvo, et.al.: Engineering Applications of the Self-Organizing Map. In: Proceedings Of The IEEE, Vol.84, No.10. Oct. 1996, S.1358-1382 * |
LATTASCH,Martin, u.a.: Einsatz von Neuronalen Netzen zur Technischen Diagnose. In: atp - Automatisierungstechnische Praxis 39, 1997, 8, S.53-60 * |
Prozeßmodelle auf Basis Neuronaler Netze. In: atp 4/97, S.66 * |
SPUR,Günter, KRAUSE,Frank-Lothar: CAD-Technik, Carl Hanser Verlag, München, Wien, 1984, S.282- S.285 * |
WENZEL,Lothar: Optimalstrategie. In: mc extra, 10/95, S.30-33 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10209146A1 (de) * | 2002-03-01 | 2003-09-18 | Bayer Ag | Verfahren und System zur automatischen Planung von Experimenten |
WO2004029738A1 (de) * | 2002-09-30 | 2004-04-08 | Gerhard Kranner | Verfahren zur rechnergestützten erstellung von prognosen für operative systeme sowie system zur erstellung von prognosen für operative systeme |
US7480535B2 (en) | 2002-09-30 | 2009-01-20 | Gerhard Kranner | Method for the computer-supported generation of prognoses for operative systems and a system for the generation of prognoses for operative systems |
DE102007001025A1 (de) * | 2007-01-02 | 2008-07-03 | Siemens Ag | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems |
DE102007001025B4 (de) * | 2007-01-02 | 2008-11-20 | Siemens Ag | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems |
US8554707B2 (en) | 2007-01-02 | 2013-10-08 | Siemens Aktiengesellschaft | Method for the computer-assisted control and/or regulation of a technical system where the dynamic behavior of the technical system is modeled using a recurrent neural network |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102007001025B4 (de) | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems | |
DE69838181T2 (de) | Visualisierung und selbstorganisation multidimensionaler daten durch ausgeglichene orthogonale abbildung | |
EP1530779B1 (de) | Verfahren, datenverarbeitungseinrichtung und computerprogrammprodukt zur datenverarbeitung | |
EP2112568B1 (de) | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems | |
DE19531967A1 (de) | Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems | |
WO2008080863A1 (de) | Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems | |
EP0845720B1 (de) | Verfahren zur Analyse und Darstellung von transienten Prozessvorgängen | |
DE19734947B4 (de) | Verfahren zur Steuerung von Prozeßvorgängen | |
AT412678B (de) | Verfahren zur rechnergestützten erstellung von prognosen für operative systeme sowie system zur erstellung von prognosen für operative systeme | |
EP1021793A2 (de) | Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente | |
DE102019214984A1 (de) | Inertialsensor und computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors | |
DE19742902A1 (de) | Verfahren zur Planung und Durchführung von Versuchen | |
EP0829809B1 (de) | Verfahren zur Prozessvisualisierung | |
DE19703964C1 (de) | Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz | |
DE19530647C1 (de) | Verfahren zur Aufbereitung einer Eingangsgröße für ein neuronales Netz | |
DE19742906A1 (de) | Verfahren zum Optimieren von Produkten und Produktionsprozessen | |
WO1998007100A1 (de) | Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz | |
DE19731943A1 (de) | Stabilisierungsentwicklungsverfahren und Aufzeichnungsträger, auf dem ein Stabilisierungsentwicklungsprogramm aufgezeichnet ist | |
WO1996006400A1 (de) | Verfahren zur festlegung des gültigkeitsbereichs für ein künstliches neuronales netzwerk | |
EP1145190B1 (de) | Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente | |
EP1071999B1 (de) | Verfahren und anordnung zur rechnergestützten ermittlung einer abbildungsvorschrift | |
DE19835137A1 (de) | Vorrichtung zum Bestimmen der Konzentration einer Meßflüssigkeit | |
EP0952501B1 (de) | Verfahren zur datengetriebenen Prozessführung und Prozessoptimierung von technischen Vorgängen | |
DE10013509C1 (de) | Verfahren zur datenbasierten Konstruktion eines Moduls mit den Daten entsprechendem Übertragungsverhalten und Modul hierfür | |
EP1588229A2 (de) | Verfahren zur ermittlung des zulässigen arbeitsbereichs eines neuronalen netzes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |