DE19742902A1 - Verfahren zur Planung und Durchführung von Versuchen - Google Patents

Verfahren zur Planung und Durchführung von Versuchen

Info

Publication number
DE19742902A1
DE19742902A1 DE1997142902 DE19742902A DE19742902A1 DE 19742902 A1 DE19742902 A1 DE 19742902A1 DE 1997142902 DE1997142902 DE 1997142902 DE 19742902 A DE19742902 A DE 19742902A DE 19742902 A1 DE19742902 A1 DE 19742902A1
Authority
DE
Germany
Prior art keywords
som
test
target
experiments
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE1997142902
Other languages
English (en)
Inventor
Viktor Prof Dr Ing Otte
Ralf Dipl Ing Otte
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Patent GmbH
Original Assignee
ABB Patent GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Patent GmbH filed Critical ABB Patent GmbH
Priority to DE1997142902 priority Critical patent/DE19742902A1/de
Publication of DE19742902A1 publication Critical patent/DE19742902A1/de
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J19/00Chemical, physical or physico-chemical processes in general; Their relevant apparatus
    • B01J19/0006Controlling or regulating processes

Landscapes

  • Chemical & Material Sciences (AREA)
  • Organic Chemistry (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

Die Erfindung bezieht sich auf ein Verfahren zur Planung und Durchführung von Versuchen im Vorfeld oder während einer Produktion von technischen oder chemi­ schen Produkten. Ein technisches Produkt kann beispielsweise ein Teil einer Kraft­ werksanlage sein.
Das Verfahren ist geeignet zur Planung und Durchführung von Versuchen im Fahr­ zeug- und Maschinenbau, im Anlagenbau, in der Feinwerktechnik und zur Anwen­ dung bei Entwicklungsprozessen für chemische Produkte oder Werkstoffe.
Es ist allgemein bekannt, im Vorfeld einer Produktion Versuche durchzuführen, um eine Aussage über die zu erwartenden Produkteigenschaften und die zugrundelie­ genden Einflußgrößen zu bekommen. Das Ziel einer Produktion ist es, Produkte mit bestimmten Eigenschaften herzustellen, deshalb ist der Zusammenhang f zwischen den Einflußgrößen oder Parametern vpi und den Produkteigenschaften vzj von be­ sonderem Interesse.
vzj = f (vpi) (1)
Um den Zusammenhang f am realen Produkt zu ermitteln, verwendet man u. a. sta­ tistische Versuchsplanungsmethoden (SVP). Innerhalb dieser Methoden gibt es Verfahren der Varianz- und Diskriminanzanalyse, der Korrelationsanalyse, z. B. par­ tielle und multiple Korrelationsanalysen und Regressionsverfahren, z. B. lineare und nichtlineare multiple Regressionsverfahren. Aufgabe all dieser Verfahren ist es, Be­ ziehungen zwischen den Einflußfaktoren und den Zielgrößen zu bestimmen.
Im Falle der Regressionsverfahren ist bekannt, eine Abhängigkeit zwischen einer Zielgröße vz und N Einflußgrößen vpi z. B. nach folgender Gleichung zu bestimmen:
vz = b0 + b1 * vp1 + b2 * vp2 + . . . + bN * vpN + b12 * vp1 * vp2 + b13 * vp1 * vp3 + . . . + bN-1,N * vpN-1 * vpN + b11 * vp1 2 + b22 * vp2 2 + . . . + bNN * vpN 2 + e (2)
mit bij sind die Regressionskoeffizienten beschrieben, e ist die Versuchsvarianz. Durch Schätzung der Regressionskoeffizienten läßt sich ein linearer Zusammen­ hang (Gleichung 2, Zeile 1), wechselseitiger Zusammenhang (Gleichung 2, Zeile 2) und quadratischer Zusammenhang (Gleichung 2, Zeile 3) zwischen den Einflußgrö­ ßen und der Zielgröße ermitteln, siehe H. Petersen, "Einsatz statistischer Methoden bei der Qualitätssicherung in der chemischen Industrie", ecomed-Verlag, 1993 Sei­ ten 64 bis 72.
Im Falle der Varianz- oder Diskriminanzanalyse wird eine Funktion angenommen, z. B.
vz = b0 + b1 * vp1 + b2 * vp2 + . . . + bN * vpN (3)
und die Parameter b0,. . ., bN werden geschätzt. Der Unterschied zu den Regressions­ verfahren besteht darin, daß entweder die Zielgröße vz oder die Einflußgrößen vp nur nominal skaliert sein müssen, siehe K. Backhaus et. al Multivariante Analyse­ methoden", 8. Auflage, Springer Verlag, 1996, Seiten 56 bis 165.
Ein Nachteil der Anwendung dieser Verfahren zur Versuchsplanung ist, daß bei nichtlinearen Zusammenhängen der Größen keine allgemeinen Aussagen darüber getroffen werden können, welche Prozeßgrößen welchen Einfluß auf den Versuch haben. Denn ein beliebiger, nichtlinearer Zusammenhang und eine Wechselwirkung aller Einflußgrößen untereinander kann mit Gleichung (2) und (3) im allgemeinen nicht berechnet werden, da Gleichungen immer Grundannahmen über den Zusam­ menhang benötigen. Basierend auf diesen Grundannahmen werden die Koeffizien­ ten in den Gleichungen geschätzt.
Mit herkömmlichen SVP-Methoden ist es damit nicht immer möglich, die quantitati­ ven Einflüsse der Einflußgrößen auf eine oder mehrere Zielgrößen anzugeben, d. h. es ist nicht möglich, z. B. besonders sensitive Einflußgrößen zu ermitteln.
Eine andere Möglichkeit, sogenannte Sensitive Analysen (SA) durchzuführen be­ steht darin, mit Ausnahme der betrachteten Versuchsparameter alle anderen Para­ meter festzuhalten und den Einfluß dieser veränderbaren Größen auf die Zielgröße zu bestimmen. Im einfachsten Fall kann immer nur eine Einflußgröße zur gleichen Zeit verändert werden. Es wird ermittelt, welcher Veränderung die Zielgröße unter­ liegt, wenn die Einflußgröße eine vordefinierte Veränderung durchläuft. Das läßt sich z. B. durch eine partielle Ableitung der Ausgangsgröße nach der jeweiligen Ein­ gangsgröße realisieren. Damit sind allerdings praktische Einschränkungen verbun­ den, da nicht immer mathematische Gleichungen für den Zusammenhang vorliegen, also kein mathematisches Modell existiert.
Aber selbst für den Fall, daß das Modell in einer anderen auswertbaren Form, z. B. als neuronales feed-forward-Modell, vorliegen würde, bleibt der Nachteil bestehen, daß immer einige Eingangsparameter festgehalten werden müssen und nur eine Eingangsgröße verändert werden darf, um die dadurch hervorgerufene Änderung der Zielgröße zu analysieren. Für linearisierbare Zusammenhänge zwischen den Einflußgrößen und der Zielgröße ist das obengenannte Verfahren erfolgreich an­ wendbar, da man dann davon ausgeht, daß sich die Ergebnisse linear überlagern lassen. Für stark nicht-lineare Zusammenhänge ist es allerdings problematisch, da die gegenseitigen Einflüsse der Versuchsparameter nicht herausgefunden und die erhaltenen Ergebnisse in der Regel nicht verallgemeinert werden können. Das Pro­ blem ist, daß man die fixen Eingangsparameter auf einen vordefinierten Arbeitspunkt einstellen muß. Welcher Arbeitspunkt aber gerade der Richtige ist, ist oftmals unbe­ kannt.
Ein weiterer Nachteil ist, daß alle oben genannten Ansätze auf der Grundannahme nach Gleichung (1) aufgebaut sind, d. h. eine Anzahl von N Einflußgrößen beeinflus­ sen eine Anzahl von L Zielgrößen. Dabei wird stets angenommen, daß die Zielgrö­ ßen, d. h. die Produkteigenschaften, voneinander unabhängig sind. Versuche, bei denen sich die Produkteigenschaften auch untereinander beeinflussen können, bei denen eine Zielgröße somit gleichzeitig auch Einflußgröße sein kann, sind mit oben genannten Ansätzen prinzipiell nicht erfaßbar, da Gleichung (1) nicht rückgekoppelt ist. Die Suche nach einer Funktion f in Gleichung (1) erfaßt damit per Definition nur vorwärtsgerichtete Zusammenhänge.
Ein weiterer Nachteil bisheriger Verfahren der Versuchsplanung ist, daß es i.a. nicht möglich ist, genau diejenigen Kombinationen von Versuchsparametern vorzugeben, die den meisten Informationsgewinn für das weitere Experiment bringen.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren anzugeben, das eine gleichzeitige und zusammenhängende Bewertung und Anzeige aller relevanter Ver­ suchsparameter und Zielgrößen eines konstruktiven, technischen oder chemischen Prozesses ermöglicht und dabei für jeden beliebigen Wert der - durch den Versuch zu untersuchenden - Zielgrößen eine quantitative Aussage über die zugrundelie­ genden Einflüsse der Versuchsparameter macht und weiterhin diejenigen Parame­ terkombinationen vorgibt, die für weitere Versuche den größten Informationsgewinn erbringen.
Diese Aufgabe wird gelöst durch ein im Anspruch 1 angegebenes Verfahren zur Planung und Durchführung von Versuchen im Vorfeld oder während einer Produkti­ on von technischen oder chemischen Produkten. Dabei werden alle für einen Ver­ such relevanten Größen zusammengefaßt und durch eine neuronale Analyse auf der Grundlage selbstorganisierender Karten (Self-Organizing-Map, sogenannte SOM) in Beziehung zueinander ausgewertet, indem eine topologieerhaltende, nicht­ lineare Projektion von Daten der relevanten Versuchsparameter auf eine mehrdi­ mensionale, höhen- oder farbkodierte, neuronale Karte (SOM) realisiert wird. Auf dieser SOM wird der aktuell parametrisierte Versuch farblich aufgetragen und im Kontext anderer möglicher oder schon durchgeführter Versuche verglichen. Dadurch kann mittels dieser SOM bestimmt werden, welche Versuchsparameter welchen Ein­ fluß auf eine oder mehrere Zielgrößen haben, unter Berücksichtigung der nichtlinea­ ren Wechselbeziehungen der Einflußgrößen untereinander.
Ein weiterer Lösungsweg wird durch ein im Anspruch 13 angegebenes Verfahren zur Planung und Durchführung eines technischen oder chemischen Versuches angege­ ben, bei dem die zugrundeliegenden Zusammenhänge aller für einen Versuch rele­ vanten Größen durch eine neuronale Modellierung auf der Grundlage Radialer- Basis-Funktionen (RBF) in Beziehung zueinander gebracht werden, indem eine Security-RBF-Netzwerk verwendet wird, das zusätzlich zum Modellwert die Sicher­ heit der Aussage angibt, indem die Aktivierungsantwort der Hidden-Neuronen aus­ gewertet wird.
Vorteilhafte Ausgestaltungen sind in weiteren Ansprüchen angegeben. Durch den ganzheitlichen Ansatz werden nicht nur die Werte einzelner Versuchsparameter, sondern auch gerade ihre gegenseitigen Einflüsse untereinander berücksichtigt.
Für die weitere Beschreibung des Verfahrens werden folgende Definitionen festge­ legt.
Ein Experiment ist ein Vorgang mit dem Ziel, neue Erkenntnisse über Zusammen­ hänge zwischen Einfluß- und Zielgrößen zu ermitteln. Eine Produktion ist ein Vor­ gang mit dem Ziel, Produkte mit bestimmten Eigenschaften zu erzeugen, unter Be­ rücksichtigung der zugrundeliegenden Einflußparameter. Ein Versuch ist ein Expe­ riment im Vorfeld der Produktion oder ein Vorgang während der Serienproduktion mit dem Ziel der Überprüfung und gegebenenfalls weiteren Verbesserung der Pro­ dukteigenschaften.
Unter einem Versuch v wird somit jede Operation verstanden, die darauf abzielt, neue Erkenntnisse über eine oder L Zielgrößen vz zu gewinnen oder die Produktei­ genschaften im Rahmen der Produktion zu verbessern. Ein Versuch wird dabei durch N verschiedene Parameter vp beeinflußt, die im Vorfeld des Versuches ein­ gestellt werden und von denen angenommen wird, daß sie einen Einfluß auf die Zielgrößen haben. Ein Versuch v wird demnach durch folgenden Vektor vec von Versuchgrößen vp und vz beschrieben:
vec = (vp1, vp2, . . ., vpi, . . ., vpN, vz1, vz2, . . ., vzj, . . ., vzL) (4)
wobei vpi die i-te Einflußgröße oder auch der i-te Versuchsparameter des Versuches und vzj die j-te Zielgröße des Versuches ist. Als Versuchgrößen werden damit alle Einflußparameter und Zielgrößen eines Versuches definiert. Die Anzahl n = N + L gibt die Gesamtanzahl der zugrundeliegenden Größen für einen Versuch an. Dabei sollte L stets deutlich kleiner als N sein (L«N) im einfachsten Fall ist L=1. Durch eine Vielzahl von Versuchen vi entsteht somit eine Matrix mit Werten der Versuchsreihe, wobei z. B. in den Spalten die Versuchsgrößen und in den Zeilen die Werte eines jeweiligen Versuches stehen.
In der Systemtheorie wird als Zustandsraum V eines Prozesses der n-dimensionale Vektorraum bezeichnet, in dem die Prozeßdaten übereinander aufgetragen werden können. Zum Beispiel entspricht ein Datenbeispiel zu einem Zeitpunkt t0 einer Zeile in o.g. Matrix und damit einem Punkt in diesem Zustandsraum. Nachstehend wird unter einem Eingangsraum oder Versuchsraum V genau dieser Zustandsraum ver­ standen. Der Ausgangsraum ist der 2-dimensionale Raum, der auf der SOM-Karte abgebildet wird. Jeder Versuch v wird somit in V als Punkt dargestellt, eine Ver­ suchsreihe stellt im allgemeinen eine Punktwolke in V dar. Aufbauend auf einer vor­ handen Versuchsreihe und damit auf einer oben genannten Punktwolke wird das SOM-Verfahren angewendet. Alle weiteren Beschreibungen beziehen sich auf Ver­ suche in diesem Sinne.
Fehlertoleranz im Zusammenhang mit dieser Beschreibung bedeutet, daß für einen Versuchsparameter x ein unterer xu bzw. oberer Grenzwert xo festgelegt werden kann, wobei gilt xu<=x<=xo. Tx = xo-xu ist die Toleranz von x. Änderungen in diesem Bereich sind zugelassen, da sie nur eine zugelassene Auswirkung auf eine Zielgrö­ ße y haben, d. h. Änderungen von x in den Grenzen xu und xo werden zu einer er­ laubten Änderung der Zielgröße im Bereich yu<=y<=yo führen, mit Ty = yo-yu. Sind yo, yu gegeben, so lassen sich xu und xo bestimmen und es gilt Tx = ftol(Ty), in der Re­ gel ist ftol nichtlinear.
In der neuronalen Theorie versteht man unter einer selbstorganisierenden Karte (SOM) ein "selbstorganisierendes neuronales Netz", bei dem alle Neuronen neben­ einander angeordnet sind. Das selbstorganisierende neuronale Netz ist ein einge­ führter Begriff für eine spezielle Klasse von neuronalen Netzen, die sich anhand von Eingangssignalen selbst strukturieren, vgl. A. Zell "Simulation Neuronaler Netze", Addison-Wesley Verlag, 1994, Seite 179 bis 187. Im Unterschied zu herkömmlichen neuronalen Netzen, spielt die räumliche Lage der einzelnen Neuronen und ihre Nachbarschaftsbeziehungen bei den SOM eine wichtige Rolle. Die Begriffe SOM und Karte werden gleichrangig verwendet.
Mit Hilfe der SOMs lassen sich sog. topologieerhaltende Abbildungen realisieren. Topologieerhaltend heißt im Zusammenhang mit dieser Beschreibung, daß die Punkte (Datenpunkte), die im Eingangsraum nahe beieinander liegen, auch im Aus­ gangsraum, also auf der Karte, nahe beieinander liegen werden. Damit stellt die Karte im Prinzip ein topologieerhaltendes, 2-dimensionales Fenster in den n- dimensionalen Zustandsraum des Versuches dar. Das Verfahren wird dann ange­ wendet, wenn schon einige Versuche durchgeführt wurden, es dient der weiteren Planung und Durchführung von Versuchsreihen.
Beim erfindungsgemäßen Verfahren werden nach einer entsprechenden Datenvor­ verarbeitung der Versuchsgrößen einem selbstorganisierenden Netz in einer Lern­ phase die Werte der relevanten n Versuchsgrößen angeboten. Die Anzahl der vor­ liegenden und schon durchgeführten Versuche und damit die Anzahl der vorliegen­ den Datenbeispiele, sollte eine Mindestanzahl (MA) nicht unterschreiten. Diese An­ zahl ist:
MA = 30 * n (5)
wobei n die Anzahl der Größen des Versuches beschreibt. Das Verfahren arbeitet auch mit weniger Versuchsbeispielen, allerdings werden dadurch die Verfahrenser­ gebnisse verschlechtert. Die Größe n liegt zwischen 2 und mehreren hundert. Die Lernphase erfolgt in zwei Schritten: Zuerst entfaltet sich die Karte im Zustandsraum der Versuche, danach werden die bisherigen Versuche durch Anwendung eines mathematischen Verfahrens visualisiert. Bevor das Lernverfahren angewendet wird, werden die Versuchsgrößen vorverarbeitet. Zuerst werden die einzelnen Versuchs­ größen auf einen vorgegebenen Wert skaliert und danach z. B. noch verrauscht. Das Verrauschen erlaubt das Vervielfältigen und weitere Verarbeiten von typisierten Ex­ perimenten, da dadurch einzelne Versuche, die auch einem systematischen und statistischen Fehler unterliegen, verallgemeinert werden. Der Rauschanteil darf da­ bei allerdings nicht so groß sein, daß er bestehende Datenverteilungen qualitativ verändert.
Die Entfaltung der selbstorganisierenden Karte im Zustandsraum der Versuche wird durch einen selbstorganisierenden Algorithmus basierend auf dem "neuronalen Al­ gorithmus nach T. Kohonen" realisiert. Der selbstorganisierende neuronale Algo­ rithmus wurde von Kohonen im Jahr 1982 eingeführt; vgl. T. Kohonen, "Self-organized formation of topologically correct feature maps" in Biological Cyber­ netics, 43, 59 bis 69,1982. Dabei wird jedem Neuron auf der SOM ein n- dimensionaler Gewichtsvektor zugeordnet, der durch Anwendung des Verfahrens iterativ adaptiert wird. Ein Neuron M hat demnach einen Gewichtsvektor wM mit n Elementen:
wM=(w1 M, w2 M, w3 M, . . ., wi M, . . ., wn M) (6).
Die Größen w1, w2, . . ., wn werden als Komponenten des Gewichtsvektors w bezeich­ net. Der Vektor w muß dieselbe Dimensionalität n wie der Vektor vec in Gleichung (4) haben, da in w Informationen aus dem Zustandsraum V kodiert wurden, d. h. In­ formationen von den N Parametern und den L Zielgrößen.
Der oben genannte neuronale Algorithmus kann sich auf jedem n-dimensionalen Gebilde (z. B. Kurve, Fläche oder Körper) selbstorganisieren, allerdings läßt sich nur durch eine Modifikation des Verfahrens eine anwendbare und reproduzierbare Ana­ lyse der Versuchsdaten realisieren. Und zwar werden zwei ausgewählte gegenüber­ liegende Eckneuronen auf der SOM auf das Minimum bzw. das Maximum der Da­ tenwolke in V gezogen und dort mathematisch fixiert, indem die Gewichtsvektoren dieser Eckneuronen mit dem skalierten Vektoren vec für die Minima und Maxima der Datenwolke gleichgesetzt werden. Das Minimum der Datenwolke ist am näch­ sten am Koordinatenursprung in V, das Maximum am weitesten von diesem entfernt.
Die Visualisierung der physikalischen Versuchszustände geschieht nach der UMa­ trix-Methode oder einem dynamischen Visualisierungsverfahren.
Bei der UMatrix-Methode werden die Abstände der Gewichtsvektoren eines jeden Neurons zu seinen Nachbarn berechnet und entsprechend graphisch aufbereitet, z. B. farbkodiert dargestellt. Zusammenhängende Gebiete haben eine kleine Diffe­ renz, da ihre Neuronen im Zustandsraum nahe beieinander plaziert wurden, diese werden z. B. als helle Flächen dargestellt. Zwischen diesen einzelnen Clustern gibt es Grenzen, die durch eine hohe Differenz der jeweiligen Gewichtsvektoren gekenn­ zeichnet sind, diese werden z. B. als dunkle Flächen visualisiert. Damit läßt sich eine gute Visualisierung der Clustergrenzen und damit der gegebenen Versuchszustände erreichen, siehe auch G. Whittington, G. Spracklen: The Application of Neural Net­ work Model to Sensor Data Fusion in Proc. of Applications of ANN Conference, Or­ lando, USA, 1990.
Bei dem dynamischen Verfahren werden der entfalteten Karte die Eingangsvektoren in zufälliger Reihenfolge nochmals angeboten und das aktuelle Gewinnerneuron nach einem "Winner-takes-all" Algorithmus ermittelt. Dieser Algorithmus besagt, daß das Neuron, dessen Gewichtsvektor dem Eingangsvektor am nächsten ist, gewinnt. Die Aussage "am nächsten" wird durch Berechnung eines vorher bestimmten Ab­ standsmaßes, z. B. dem euklidischen Abstand, ermittelt.
Der "Winner-takes-all" Algorithmus ist somit ein Verfahren, bei dem immer nur das Neuron aktiv ist, das eine gewisse Bedingung am besten erfüllt, alle anderen Neuro­ nen des Netzes oder der Karte sind inaktiv (1-aus-k Auswahl wobei k gleich der An­ zahl der Neuronen auf der Karte ist). Diese besondere Bedingung ist hier ein mini­ males Abstandsmaß zwischen dem aktuellen Eingangsvektor und dem Gewichtsvek­ tor der einzelnen Neuronen, siehe S. Hafner, "Neuronale Netze in der Automatisie­ rungstechnik", Oldenbourg Verlag, 1994, insbesondere Seiten 17 bis 25.
Für das jeweilige Gewinnerneuron wird ein interner Zähler, die Gewinnerrate, um den Zahlenwert eins erhöht. Am Ende dieses dynamischen Prozesses werden die Gewinnerraten der einzelnen Neuronen in Farbwerte umkodiert und visualisiert, da­ bei bedeutet ein hoher Zahlenwert z. B. eine helle Farbe. Das Neuron mit der höch­ sten Gewinnerrate wird z. B. weiß dargestellt. Neuronen mit entsprechend kleinen Raten werden z. B. dunkler visualisiert. Neuronen, die gar nicht gewonnen haben, erhalten z. B. eine schwarze Farbe auf der SOM. Durch diesen Algorithmus entste­ hen auf der SOM helle Flächen oder Cluster, die durchgeführte Versuche repräsen­ tieren. Eine Erweiterung des "Winner-takes-all" Algorithmus wird durch Anwendung eines "Winner-takes-most" Algorithmus erreicht. Bei diesem Algorithmus wird nicht nur für den Gewinner, sondern auch für den j-ten, d. h. zweitnächsten, drittnächsten, viertnächsten,. . . Gewinner ein interner Zähler hochgezählt, eine Möglichkeit ist z. B.
gewinnzählerM = 1/j + gewinnzählerM (7)
wobei j = 1. . .jMAX und M gleich Neuron M auf der Karte und j die Position des Neurons in einer Liste der jeweiligen SOM-Antworten auf einem angelegten Eingangsvektor vp ist. Im "Winner-takes-all" Algorithmus würde nur für das tatsächliche Gewinner­ neuron (jmax=1) der Zähler um eins erhöht werden. Im "Winner-takes-most" Algorith­ mus kann der jeweilige maximale Wert für jmax vorgegeben werden. Durch diese Maßnahme läßt sich die räumliche Ausdehnung der Cluster auf der Karte steuern.
Als Ergebnis der o.g. Verfahren ist eine strukturierte SOM-Karte entstanden, bei der es eine Zuordnung zwischen den Versuchen v und den Neuronen k auf der Karte gibt. Ein Neuron kann dabei genau einem durchgeführten Versuch entsprechen, ei­ ne Klasse von Versuchen repräsentieren oder auch einen Versuch abbilden, der noch nicht durchgeführt wurde.
Damit erfolgt die Anwendungsphase der Karte in zwei Richtungen:
A1. Erstens können neu durchgeführte Versuche durch die SOM verarbeitet werden. Durch Anwendung eines "Winner-takes-all" Algorithmus und anschließende Visuali­ sierung des Gewinners, z. B. als schwarzen Kreis auf der SOM, wird der jeweilige Versuch im Kontext der anderen Versuche eingeordnet und klassifiziert.
A2. Zweitens kann in umgekehrter Weise, d. h. ausgehend von der Karte neues Wis­ sen über die Experimente ermittelt werden:
A2.1. Da durch die Anwendung der o.g. Visualisierungsverfahren verschiedene Cluster auf der SOM entstanden sind, die zeigen, wo die Stützstellen der SOM-Ap­ proximation liegen, kann man genausogut die Bereiche identifizieren, die sehr weit von Stützstellen entfernt sind. Im Beispiel wären die Stützstellen die hellen Flächen auf der Karte. Stützstellen liegen im Zustandsraum der Versuche genau dort, wo die entsprechenden Versuche schon durchgeführt wurden.
Im genannten Beispiel stellen dunkle Cluster auf der SOM somit Gebiete dar, bei denen noch keine Experimente im Versuchsraum durchgeführt wurden, d. h. hier gibt es keine Stützstellen. Sie sind damit diejenigen Versuche, die den meisten Informa­ tionsgewinn bringen würden, da sie Parameterkombinationen entsprechen, für die bisher noch keine Experimente durchgeführt wurden.
A2.2. Ausgehend von einem ausgewählten Neuron und damit von einem ausgewähl­ ten Wert einer Zielgröße kann ermittelt werden, welche Versuchsparameter mit wel­ chen Beitrag zu dem jeweiligen Ergebnis des Versuches geführt haben, d. h. mit der SOM kann eine Sensitive Analyse (SA) der Versuchsparameter durchgeführt wer­ den.
Im Unterschied zu herkömmlichen Verfahren der SA, läßt sich für jeden gewünsch­ ten Wert der Zielgröße eine Einflußanalyse aller zugrundeliegenden Parameter durchführen. Diese Analyse erfolgt dadurch, daß für jeden ausgewählten Versuch die nächst ähnlichen Versuche ermittelt und für diese Versuche die Parameterunter­ schiede berechnet werden. Da die SOM eine topologieerhaltende Abbildung zwi­ schen dem Parameterraum der Versuche und der Darstellung auf der SOM reali­ siert, werden ähnliche Versuche im allgemeinen auch auf der SOM durch nebenein­ ander liegende Neuronen repräsentiert. Damit muß für einen ausgewählten Versuch nur noch der Radius für die Festlegung der Nachbarneuronen und damit der nächst ähnlichen Versuche festgelegt werden. Wird der Radius sehr groß gewählt, betrifft er z. B. die gesamte SOM, gilt die SA für alle Versuche.
Eine Analyse der einzelnen Parameterverteilungen auf der Karte erlaubt das Erken­ nen von neuartigen Versuchszusammenhängen, da man z. B. Bereiche identifizieren kann, bei denen sich die Parameter stark ändern ohne große Änderungen der Ziel­ größe oder umgekehrt. Eine Rücktransformation der abstrakten Darstellung der Karte auf die einzelnen Versuchsparameter erlaubt das Ermitteln von Ursachen für die Versuchsergebnisse.
A2.3. Eine weitere Beschreibung des Verfahrens erfolgt nachstehend anhand von in den Zeichnungsfiguren dargestellten Ausführungsbeispielen. Für die weitere Be­ schreibung des Verfahrens wird die Anzahl L der Zielgrößen beispielhaft auf 1 fest­ gelegt, das Verfahren bleibt dabei für L <= 1 anwendbar. Sind die Zielgrößen, z. B. die Produkteigenschaften, mit Sicherheit unabhängig voneinander, was der Normal­ fall ist, kann für jede einzelne Zielgröße und die dazugehörigen Einflußparameter eine separate SOM angelernt werden. Werden gegenseitige Beeinflussungen nicht ausgeschlossen, können auch mehrere Zielgrößen auf einer SOM trainiert werden, wobei stets gelten muß, daß L«N ist.
Es zeigen:
Fig. 1 ein Strukturbild, das die wesentlichen Komponenten eines Systems zur Durchführung des Verfahrens zeigt,
Fig. 2 eine mögliche Gewichtsverteilung einer neuronale Karte in einem Versuchsraum mit nur 2 Größen,
Fig. 3 eine neuronale Karte mit visualisierten Versuchsclustern (weiße Flä­ chen auf der Karte) und potentiellen Versuchen mit maximalem In­ formationsgewinn (schwarze Flächen),
Fig. 4 eine neuronale höhenkodierte Komponenten-Karte (Gebirge) für Zielgröße (hier z. B. Drehmoment) des Versuches,
Fig. 5 eine neuronale farbkodierte Komponenten-Karte für eine Zielgröße (hier z. B. Drehmoment) des Versuches,
Fig. 6 eine höhenkodierte, neuronale Komponenten-Karte für eine Einfluß­ größe des Versuches,
Fig. 7 eine höhenkodierte, neuronale Komponenten-Karte für eine andere Einflußgröße des Versuches,
Fig. 8 einen Prinzipschaltung zur Kombination der SOM mit feed-forward- Netzen zum Verifizieren der Ergebnisse, und
Fig. 9 ein Security-RBF-Netz zur Versuchsplanung.
Die Beschreibung des Verfahrens ist im folgenden in verschiedenen Verfahrens­ schritte gegliedert und durch o.g. Abbildungen beispielhaft erläutert.
Fig. 1 zeigt beispielhaft die Struktur eines Systems zur Durchführung des Verfah­ rens zur Prozeßanalyse und Diagnose mit neuronaler Karte.
Verfahrensschritt 1 Aufnahme und Auswahl der Prozeßgrößen
V1.1. Aufnahme und Aufbereitung der Daten. Ein Datenerfassungs- und aufberei­ tungssystem erfaßt und speichert die durchgeführten Versuche, d. h. die Parameter­ kombination mit den jeweiligen Versuchsergebnissen.
V1.2. Ein nachfolgendes Datenanalysesystem unterzieht die ausgewählten und rele­ vanten Daten einer Korrelationsanalyse, um die unabhängigen, versuchsbeschrei­ benden Parameter zu bestimmen. Danach werden die relevanten Parameter bzw. Zielgrößen skaliert und gegebenenfalls verrauscht. Das Verrauschen ist optional, um erstens von durchgeführten Einzelversuchen abstrahieren zu können, zweitens den Einfluß von Meßfehlern zu verringern und drittens die Anzahl der Versuchsbei­ spiele zu erhöhen.
V1.3. Auswertung und Analyse auf Grundlage eines Neuro-Systems.
Verfahrensschritt 2 Lernphase der Karte
V2.1. Entfaltung des selbstorganisierenden, neuronalen Netzes im Zustandsraum des Versuches, basierend auf einen selbstorganisierenden neuronalen Algorithmus.
Fig. 2 zeigt beispielhaft die Gewichtsverteilung von i SOM-Neuronen (i=1. . .30) in einem 2-dimensionalen Zustandsraum. Die Position der Gewichtsvektoren der Neu­ ronen ist durch einen grauen Kreis markiert, die Nachbarschaftsbeziehungen - der zu den jeweiligen Gewichten gehörenden SOM-Neuronen - wird durch eine Linie dar­ gestellt. Neuronen, die durch eine Linie verbunden sind, liegen auf der SOM-Karte nebeneinander. Die weißen Kreise markieren Stellen, an denen Datenvektoren vor­ handen sind. Man sieht, daß der größte Teil der SOM-Neuronen dort plaziert wurde; allerdings gibt es auch Neuronen, die zwischen den Datenvektoren liegen; diese interpolieren zwischen diesen Datenbeispielen.
V2.2. Visualisierung des entfalteten Netzes als Karte durch Anwendung einer dy­ namischen Visualisierung, basierend auf den jeweiligen Gewinnerraten der Neuro­ nen oder durch eine statische Visualisierungsmethode nach dem Prinzip der UMa­ trix-Methode.
Fig. 3 zeigt - hier in Schwarz/Weiß Darstellung - beispielhaft die strukturierte und farbkodierte, neuronale Karte für verschiedene Experimente für die Herstellung einer Maschinenkonstruktion. Die hellen zusammenhängenden Flächen sind die Ver­ suchscluster. Die Figur stellt die Projektion und Visualisierung von mehren Versu­ chen auf einer neuronalen Karte mit 20*30 Neuronen dar. In Fig. 3 gibt die x-Achse die Anzahl der Neuronen in x-Richtung, die y-Achse die Anzahl der Neuronen in y- Richtung an.
Die hellen Flächen, die sog. Versuchscluster, repräsentieren die durchgeführten Versuche, d. h. die Stützstellen zum Entwurf eines Maschinenteils mit einem ge­ wünschtem Drehmoment. Die dunklen Gebiete auf der Karte, z. B. NEW1 und NEW2, bilden die Hülle zwischen diesen durchgeführten Versuchen, da sie Neuro­ nen darstellen, die im Zustandsraum zwischen den Versuchsdaten angeordnet sind. Mit K1 wird eine Klasse von Versuchen dargestellt, d. h. Versuche die miteinander ähnlich sind und in die gleiche Versuchsklasse gehören. Die beiden Versuche V1 und V2 stellen zwei konkrete Versuche in der Klasse K1 dar.
Das Neuron R repräsentiert einen Versuch, der noch nicht durchgeführt wurde, er liegt in den dunklen Bereichen der Karte.
Der Versuch M stellt einen anderen Versuch dar und die Neuronen M+1, M+2, M+3 und M+4 repräsentieren die zu M ähnlichsten Versuche, da sie in der unmittelbaren Nachbarschaft von M liegen. Im weiteren wird keine Unterscheidung zwischen einem Versuch und dem ihn repräsentierenden Neuron gemacht. M bezeichnet damit den Versuch M der genau zum Neuron M gehört.
Obwohl in diesem Beispiel jeder Versuch durch 14 unabhängige Parameter (z. B. Bohrungsdurchmesser, Lagerlänge, Lagertemperatur) und 1 Zielgröße bestimmt wird und damit 15-dimensional ist, kann durch das Verfahren eine Projektion auf nur zwei Dimensionen, die SOM-Karte, durchgeführt werden. Damit wird eine erheblich bessere Übersichtlichkeit zur Klassifizierung der Versuche erreicht als bei der gleichzeitigen Betrachtung aller 15 Versuchsgrößen. Die Anzahl der gleichzeitig ausgewerteten Parameter ist nicht auf 15 beschränkt, sie kann wesentlich höher sein.
Verfahrensschritt 3 Anwendung - Versuchsklassifikation mit der Karte
Anbindung der Karte an den Prozeß oder Eingabe von Versuchsgrößen und Darstel­ lung des Versuches auf der strukturierten Karte.
Für die Klassifikation durchgeführter Versuche bekommt die Karte einen n- dimensionalen Vektor angeboten, d. h. Versuchsparameter plus Versuchsergebnisse, der dann auf der Karte eingeordnet wird. Damit läßt sich erkennen, wie ähnlich zwei bereits durchgeführte Versuche zueinander sind und zu welcher Klasse von Versu­ chen der jeweilige Versuch gehört. Ähnliche Versuche werden auch auf der Karte räumlich nahe beieinander abgebildet, so sind z. B. die Versuche V1 und V2 sehr ähnlich zueinander, sie gehören zur Klasse K1. Es ist zu beachten, daß man den 15 verschiedenen Versuchsgrößen nicht ansieht, welche Änderungen zu welchen Er­ gebnissen führen werden. Dadurch könnten beim Versuch z. B. Parameterkombina­ tionen betrachtet werden, die im Versuchsresultat ähnlich sind. Nach der Einord­ nung auf der Karte erkennt man den Zusammenhang und kann gezielt nach ande­ ren Versuchseinstellungen suchen, die den gewünschten Eigenschaften der Ziel­ größe näherkommen.
In dieser Anwendungsphase wird der aktuelle Versuch durch einen neuronalen "Winner-takes-all" Algorithmus ausgewertet und auf der vorher strukturierten und farbkodierten Karte aufgetragen. Die räumliche Lage des den Versuch repräsentie­ renden Neurons auf der SOM liefert demnach wichtige Informationen über den je­ weiligen Versuch, z. B. seine Klassenzugehörigkeit.
Verfahrensschritt 4 Anwendung - Bestimmung potentieller Versuche
Wie in A2.1. erläutert, entstehen durch Anwendung eines statischen oder dynami­ schen Visualisierungsverfahrens Bereiche auf der SOM, die schon durchgeführten Versuchen zugeordnet werden können. Im erläuterten Beispiel sind das die hellen Flächen, z. B. K1 in Fig. 3. Alle Bereiche zwischen diesen hellen Flächen, z. B. NEW1, NEW2, R und M in Fig. 3, repräsentieren Versuche, die noch nicht durchge­ führt wurden. Damit entsprechen sie Experimenten, die den größten Informations­ gewinn versprechen.
Durch Anwahl eines beliebigen Neurons, z. B. Neuron M, auf den dunklen Flächen der SOM, werden die jeweiligen Gewichtsvektoren wM = (w1 M, . . ., wN M, . . ., wn M) ausge­ geben und in die realen Werte der Versuchsparameter umgerechnet. Dadurch las­ sen sich genau die Parameterkonfigurationen vp1, vp2, . . ., vpN ermitteln, für die neue Versuche den größten Informationsgewinn bringen. Diese Parameterkombina­ tion können durch ein nachgeschaltetes Verfahren auf Plausibilität untersucht und wenn gefordert, an den Versuchsprozeß on-line oder off-line ausgegeben werden.
Verfahrensschritt 5 Anwendung - Versuchssimulation mit der Karte
Anbindung der Karte an den Prozeß oder Eingabe neuer Versuchsparameter und Darstellung eines virtuellen Versuches auf der strukturierten Karte.
Der Versuch heißt dann virtuell, wenn er nicht mehr in der Realität durchgeführt werden muß. Es reicht aus, die vorgesehenen Parameterkombinationen der Karte anzubieten. Ausgehend von diesem Parametersatz wird der Versuch am Rechner simuliert, die zu einem Parametersatz gehörenden Zielgrößen können durch die Karte berechnet werden. Diese Aufgabe wird durch eine Komponentenkarte gelöst.
Wie oben beschrieben hat ein Neuron M einen Gewichtsvektor wM mit n Elementen, mit wM = (w1 M, w2 M, w3 M, . . ., wi M, . . ., wn M). Eine Komponentenkarte entsteht dadurch, daß man die Werte wi k aller Neuronen k der Karte über der SOM visualisiert. Da den i-ten Gewichtswerten jedes Neurons eindeutig der Wert der zugrundeliegenden Ver­ suchsparameter zugeordnet werden kann, erhält man durch diese Darstellung eine Verteilung des jeweiligen Versuchsparameters i über den gesamten virtuellen Zu­ standsraum aller Versuche. Bei der Umrechnung vom Gewichtswert in den realen Parameterwert muß die Skalierung gegebenenfalls beachtet werden. Die Visualisie­ rung aller erhaltenen Parameterwerte über der SOM erfolgt entweder höhen- oder farbkodiert. Durch eine entsprechende Skala kann der Wert der Zielgröße für den simulierten Versuch abgelesen werden.
Fig. 4 zeigt eine höhenkodierte Komponentenkarte für das dort betrachtete Beispiel. Den Höhenwerten der z-Achse entsprechen reale Werte der ausgewählten Zielgrö­ ße. Im Beispiel ist die Zielgröße "Drehmoment" dargestellt. Ein virtueller Versuch wird in Fig. 4 durch das V repräsentiert. Dabei wurden der Karte konkrete Werte für die 14 Einflußparameter angeboten und die Karte hat nach einem Winner-takes-all- Algorithmus das zu diesem Versuch am besten passende Neuron V ermittelt. Da­ durch kann der beim virtuellen Versuch erreichbare Drehmomentenwert an der z- Achse ausgelesen werden, im Beispiel ist er ca. 500. Die x- und y-Achse stellen den Definitionsbereich der Versuche dar. Es ist zu beachten, daß dieser Definitionsbe­ reich nicht - wie gewöhnlich - aus physikalischen Werten zweier Versuchsparameter, sondern gleichzeitig aus allen 14 Parametern besteht, die in den Gewichtsvektoren der x * y=k Neuronen abgebildet sind. Diese 14 Einflußparameter sind zusammen mit der Zielgröße durch die Gewichtsvektoren der Neuronen topologieerhaltend auf die Karte abgebildet. Es ist dabei allerdings zu beachten, daß die SOM keine Unter­ scheidung zwischen Einfluß- und Zielgrößen macht; diese Unterscheidung wird erst durch die Anwendung und Auswertung bestimmt.
Die beschriebene Simulation ist aber nur möglich, wenn L « N ist, d. h. wenn die Anzahl N der Versuchsparameter wesentlich größer, z. B. eine Größenordnung grö­ ßer, als die Anzahl der zu simulierenden Zielgrößen L ist. Das liegt daran, daß der Karte im allgemeinen ein n-dimensionaler Vektor angeboten werden muß. Soll mit der SOM eine Versuchssimulation durchgeführt werden, will man aber gerade die Werte einer Zielgrößen vzj bestimmen, d. h. es soll vp1, . ., vpN auf vzj abgebildet werden:
vzj = f (vp1, . . ., vpN (8).
Die Karte erhält damit nur die N Eingangsparameter vp1, . . ., vpN, die L Werte der Zielgröße werden z. B. auf NULL gesetzt, da man sie für neue Versuche noch nicht kennt. Erst nach der Einordnung auf der SOM können die dazugehörigen Werte der Zielgröße angeben werden.
Verfahrensschritt 6 Anwendung sensitive Analyse SA der Versuche
Die grundlegende Idee ist, ausgehend von einer gewünschten Zielgröße bzw. von einem gewünschten konkreten Wert der Zielgrößen, die zugrundeliegenden Werte der Einflußgrößen zu bestimmen, nach Art eines inversen Modells (vpi)=f-1(vzj). vzj wird ausgewählt und vp1 wird berechnet. Diese Funktion f-1 wurde während des Lernvorgangs durch die SOM gelernt.
Ausgehend von dieser Basisidee kann nun auch für vorgegebene Änderungen Δvzj auf zulässige Änderungen Δvpi geschlossen werden, nach Δvpi = f-1(Δvzj).
V6.1. Wie oben erläutert, entspricht ein Neuron auf der SOM einem durchgeführten oder potentiellen Versuch. Zur weiteren Erläuterung der SA wird nochmals Fig. 3 herangezogen. Der Unterschied zwischen zwei beliebigen Neuronen M und R auf der Karte läßt sich ermitteln, indem man die Gewichtsvektoren wM und wR dieser beiden Neuronen gegeneinander vergleicht. Da beide Neuronen zwei verschiedene Versuchen vM und vR repräsentieren, erhält man im Ergebnis einer Differenzanalyse diejenigen Differenzen für alle Versuchsparameter, die gerade zu der Unterschei­ dung dieser beiden Versuche vM und vR führen. Die folgende Gleichung gibt ein Bei­ spiel für die Berechnung:
vari M,R = abs (wi M - wi R) * scal_vec (9).
Die Differenz vari M,R für jeden Versuchsparameter i (i=1. . . N) ergibt sich als absoluter Betrag abs der Differenz der entsprechenden Komponenten wi im Zustand M und R multipliziert mit dem Skalierungsfaktor scal_vec für jeden Parameter i. Ausgehend von dieser Differenz kann der prozentuale Unterschied prozdiffi für jeden Ver­ suchsparameter i beider Versuche vM und vR ermittelt werden:
prozdiffi M,R = vari M,R/(Meßbereich von i) * 100% (10).
Damit lassen sich die Einflüsse der einzelnen Versuchsparameter i berechnen und in einer Einflußliste darstellen. Die folgende Liste zeigt ein Beispiel:
Änderung der Zielgröße Drehmoment: 20%
Aus einer solchen Liste können folgende Erkenntnisse gezogen werden: Die zwei ausgewählten Versuche vM und vR unterscheiden sich zuerst einmal in den Ergeb­ nissen des zugrundeliegenden Versuches, d. h. in den Werten ihrer Zielgröße. Für vM könnte der Wert z. B. 400 sein für vR 600. Bezogen auf den Meßbereich von 1000 ergibt sich damit eine prozentuale Abweichung im Drehmoment von 20% für die Ver­ suche vM und vR. Nach Gleichung (10) wird die zugrundeliegende prozentuale Än­ derung der Versuchsparameter berechnet und in die Tabelle eingetragen. So liest man im Beispiel ab, daß eine Änderung des Parameters vpii von 15% zu der berech­ neten Änderung der Zielgröße von 20% geführt hat und damit dieser Parameter re­ lativ unempfindlich für das Drehmoment ist, während andererseits z. B. eine gering­ fügige Änderung von vpiii (im Beispiel 1,3%) zu hohen Drehmomentänderungen führt. Mit der Tabelle läßt sich damit die Frage beantworten, welche gleichzeitigen Ände­ rungen der Versuchsparameter zu welchen Änderungen der Zielgröße geführt und welche Versuchsparameter in dem ausgewählten Vergleich den größten bzw. den kleinsten Einfluß (Sensitivität) auf die Zielgröße haben. Der Vorteil dieses Ansatzes ist, daß die gegenseitigen Wechselbeziehungen der Einflußparameter untereinander mit berücksichtigt sind und daß die Analysen praxisgerecht für jeden gewünschten Wert der Zielgröße durchgeführt werden können.
Wählt man für einen gegebenen Zustand M nicht einen beliebigen anderen Zustand R, sondern die benachbarten Zustände von M, dann bekommt man eine SA um den gewählten Arbeitspunkt M der Versuchsreihe. Für einen Beispielradius von 1 wurden die unmittelbaren Nachbarn von M in Fig. 3 als M+1, M+2, M+3, M+4 dargestellt.
Dieses Verfahren realisiert damit eine Sensitivitätsanalyse aller Versuchsparameter auf die Zielgröße vzj für den ausgewählten Arbeitspunkt M der Versuchsreihe. Durch Einstellung der Größe dieser Nachbarschaft kann die Sensitivitätsanalyse sehr eng um einen ausgewählten Arbeitspunkt der Versuchsreihe oder auch über einen gro­ ßen Bereich, bis hin über alle Versuche durchgeführt werden. Letzteres gibt Auskunft darüber, welchen Einfluß die Versuchsparameter im gesamten Versuchsraum im Mittel auf eine Zielgröße haben.
Da diese Einflußanalyse für jeden beliebigen Arbeitspunkt der Versuchsreihe, d. h. für jeden gewünschten Zielwert einer Zielgröße neu berechnet werden kann, stellt der beschriebene Ansatz eine Erweiterung gegenwärtiger Verfahren zur SA dar. Ein Vorteil des neuen Verfahrens ist, daß man eine zielorientierte Analyse durchführen kann, da der gewünschte Wert der Zielgröße sich festlegen läßt und ausgehend von diesem Zielwert sich die dazugehörigen realen Werte der Versuchsparameter und die Sensitivität dieser Versuchsparameter bestimmen lassen. Herkömmliche Verfahren arbeiten eher "what-if" orientiert, d. h. sie verändern die Eingangsgrößen und untersuchen, wie sich die Zielgröße ändert; hier wird es genau entgegengesetzt realisiert.
V6.2. Eine weitere Möglichkeit der zielorientierten SA liegt in der höhenkodierten Komponentendarstellung einzelner Versuchsparameter oder der Zielgröße selbst. Der Vorteil dieses Ansatzes ist, daß man intuitiv erkennt, in welchen Versuchsberei­ chen sich ein Versuchsparameter oder die Zielgröße viel oder wenig ändert. Die Fig. 4 verdeutlicht das für die Zielgröße Drehmoment. Fig. 4 zeigt, daß es für die Zielgröße Bereiche gibt, bei denen sich die Zielgröße nicht ändert, sog. Plateaus PL1 und PL2.
Diese Plateaus sind besonders dann interessant, wenn robuste Versuchsbeispiele gesucht werden, Versuche also, bei denen etwaige Änderungen in den Einflußgrö­ ßen nicht zu gravierenden Änderungen der Zielgröße führen. Bei kleinen Änderun­ gen in den Einflußgrößen würde die Zielgröße auf der SOM innerhalb des Plateaus wandern, ihr numerischer Wert ändert sich damit nur sehr wenig.
Gerade für den Entwurf von fehlertoleranten Versuchsdurchführungen, d. h. auch für die fehlertolerante Produktionen von technischen oder chemischen Produkten, sind diese Plateaus eine völlig neuartige Möglichkeit der Parameterauswahl. Sie ist ins­ besondere generell anwendbar, nichtlinear und auch intuitiv verstehbar. Damit eröff­ net sich neue Möglichkeiten der Qualitätssicherung.
Andererseits gibt es auch Gipfel G in der Zielgröße, d. h. befindet man sich mit der Zielgröße gerade auf so einem Gipfel, dann können schon kleinste Änderungen in den Einflußgrößen zu gravierenden Änderungen der Zielgröße führen. Damit kann das Verfahren zur Stabilitätsanalyse von technischen und chemischen Prozessen mit dem Ziel angewendet werden, die Prozesse robust zu gestalten.
Will man sich z. B. auf einen konkreten Wert der Zielgröße festlegen, dann sind eventuell mehrere Gebiete auf der Karte für diese gewünschten Werte zulässig. Der konkrete Zielwert ZW von z. B. 700 wird in Fig. 4 durch zwei mögliche Positionen ZW auf der Karte dargestellt, aber nur die rechte Position markiert einen relativen stabi­ len Bereich, da dieser ZW auf einem Plateau liegt, d. h. die Zielgröße Drehmoment reagiert hier nicht so empfindlich auf - evtl. unvermeidbare - Änderungen in den Ein­ flußgrößen. Ausgehend von einem gewünschten Zielgrößenwert, im Beispiel der rechte ZW, wird durch das Verfahren die dazugehörige Werte-Kombination der Ein­ flußgrößen berechnet und ausgegeben.
Fig. 5 zeigt - hier in Schwarz/Weiß - eine farbkodierte Darstellung der Zielgröße Drehmoment. Mittels einer Farbskala lassen sich damit auch die Zielgrößenwerte ablesen, z. B. entspricht das weiße Kreuz an der Neuronenposition (7, 18) dem Gipfel G in Fig. 4.
Fig. 6 zeigt die Verteilung einer Einflußgröße für den Versuch, im Beispiel ist das der Versuchsparameter Lagerlänge. Man sieht, daß es auch hier wieder Plateaus gibt, in denen sich der Wert wenig bzw. viel ändert. Da die Karte den gesamten möglichen Versuchsraum darstellt, lassen sich somit einzelne Versuche identifizie­ ren, für die diese Einflußgröße konstant bleibt. Änderungen der Zielgröße Drehmo­ ment, siehe Fig. 4, resultieren in diesen Bereichen nicht aus Änderungen des Ver­ suchsparameters Lagerlänge.
Auch die umgekehrte Analyse läßt sich durchführen, denn andererseits ändert sich die Zielgröße Drehmoment z. B. sehr wenig in PL2 (Fig. 4), obwohl es in dem dazu­ gehörigen Bereich EG (Fig. 6) große Änderungen in der Einflußgröße Lagerlänge gibt. Das heißt, die Lagerlänge hat in diesem Arbeitspunkt keinen großen Einfluß auf die Zielgröße Drehmoment.
Fig. 7 zeigt die Verteilung einer weiteren Einflußgröße für den Versuch. Durch Aus­ wertung der Fig. 4, 6 und 7 lassen sich die einzelnen nichtlinearen Einflüsse auf die Zielgröße analysieren. Der Anwender erhält damit einen Einblick in die nichtli­ nearen Zusammenhänge zwischen Versuchsparametern und Zielgrößen. Und für jede beliebige Stelle auf dem Gebirge, lassen sich alle zugrundeliegenden Werte der Einflußgrößen bestimmen.
Durch die Komponentendarstellung mehrerer Einflußgrößen lassen sich auch Korre­ lationen der Einflußgrößen untereinander entdecken; sind die Gebirge zweier Ein­ flußgrößen z. B. sehr ähnlich, deutet das auf eine hohe Korrelationen hin. Man be­ kommt damit einen guten Einblick in die Abhängigkeit bzw. Unabhängigkeit der aus­ gewählten Versuchsparameter voneinander.
Verfahrensschritt 7 Anwendung - Verifizierung der Analyseergebnisse
Zur Verifizierung der Analyseergebnisse wird ein neuronales feed-forward-Netz (siehe unten) verwendet, welches den gleichen Versuchsprozeß wie die SOM mo­ delliert hat. Im Unterschied zur SOM werden bei den neuronalen feed-forward- Netzen die Ein- und Ausgänge getrennt behandelt. Alle Versuchsparameter, d. h. alle Einflußgrößen für den Versuch, werden an die Netzeingänge gelegt. Alle Zielgrößen werden mit den Netzausgängen verbunden. Durch Anwendung verschiedener neu­ ronaler Lernverfahren erlernt das Netz eine Approximation zwischen seinen Ein- und Ausgängen. Dadurch kann man den gesamten Versuch modellieren.
Ein feed-forward-Netz ist ein eingeführter Begriff für eine Klasse von Netzen, deren Neuronen geschichtet angeordnet sind und bei denen es keine Rückführungen zwi­ schen Neuronen einer höheren zu Neuronen einer niedereren Schicht gibt; siehe A. Zell, "Simulation Neuronaler Netze", Addison Wesley Verlag, 1. Auflage, 1994, Sei­ ten 76 bis 78. Diese Netze sind geeignet, statische und dynamische Modelle zwi­ schen gewählten Meßgrößen aufzubauen. Ausgehend von einem neuronalen Mo­ dell, das zwischen den Versuchsparametern vp1, vp2, . . . vpN und der Zielgröße vzj aufgebaut wurde, kann dieses Modell zum Verifizieren der Analyseergebnisse ver­ wendet werden.
Als neuronales feed-forward-Netzmodell wird ein Security-RBF-Modell aufgebaut. Ein Security-Netz ist ein Netz, das zusätzlich zu seinem Modellausgangswert angibt, wie sicher dieser Modellausgangswert ist. Diese Sicherheit kann z. B. durch einen Zahlenwert von 0. . .100% ausgegeben werden: 0% bedeutet dabei keine Sicherheit, 100% bedeutet, daß das Netz-Ergebnis ganz sicher ist.
Bei Verwendung geeigneter, lokal approximierender Netze, z. B. RBF-Netze (siehe A. Zell, Seite 225 bis 239), ist es möglich, solche Security-Netze aufzubauen. RBF- Netze sind 3-schichtige Netzwerke, deren verdeckte Hidden-Schicht aus Neuronen besteht, die eine gaußförmige Aktivierungsfunktion haben. Ihre maximale Aus­ gangsaktivität ist auf einen kleinen Eingangsbereich beschränkt. Diese Neuronen sind damit nur lokal für einen kleinen n-dimensionalen, hyperkugligen Eingangsbe­ reich sensitiv. Liegt der Eingangsvektor in diesem Bereich, hat das jeweilige Hidden- Neuron seine maximale Ausgangsaktivität, die anderen Hidden-Neuronen haben eine entsprechend geringere Aktivität (siehe A. Zell). Die Hidden-Neuronen bilden damit die Stützstellen für die Approximation.
Durch Berechnung eines Abstandsmaßes zwischen angelegtem Eingangsvektor und dem Hidden-Neuron mit maximaler Aktivität erhält man ein Maß dafür, ob das Netz gegenwärtig in einem Bereich angewendet wird, in dem es nicht trainiert wurde. Ist dieses Abstandsmaßes groß, heißt das, daß der Eingangsvektor sehr weit von den Stützstellen des RBF-Netzes entfernt ist. Damit ist das Ergebnis des Netzes relativ unsicher, denn neuronale Netze interpolieren zwischen den gelernten Stützstellen. Diese Interpolation ist i.a. um so unsicherer, je weiter der Wert von den nächsten Stützstellen entfernt ist. Befindet sich der aktuelle Ausgangswert im Extrapolations­ raum, ist das Ergebnis noch unsicherer.
Ein Beispiel für die Berechnung des Security-Wertes ist:
security_value [%] = activityWINNER[%]-MSELearn[%] (11)
security_value gibt den Sicherheitswert der Netzantwort in Prozent an, activityWINNER ist die Aktivitätsantwort des Gewinnerneurons auf einen Eingangswert multipliziert mit 100% und MSELearn ist der mittlere Lernfehler des Netzes, aufgenommen während des Trainings. Damit kann der Securitywert nicht größer als die Genauigkeit wäh­ rend des Lernvorganges sein. Der Aktivitätswert ist ein Maß für den Abstand des Eingangsvektor zu der nächstgelegenen Stützstelle. Dadurch entsteht ein Security- RBF-Netz, daß für jede Simulation nicht nur das Simulationsergebnis, sondern auch die Sicherheit des Ergebnisses berechnet und ausgibt.
Fig. 8 verdeutlicht das Prinzip. Dabei muß das feed-forward-Netzmodell mit den gleichen Versuchsbeispielen wie die SOM trainiert werden.
V7.1. Die im Verfahrensschritt V5 "Versuchssimulation" zugrundegelegten Ver­ suchsparameterwerte p1, . . ., pN für den Wert einer Zielgröße vzj werden dem Securi­ ty-RBF-Netz angeboten und die dazugehörigen Werte vzj,TEST ermittelt. Stimmt vzj,TEST mit vzj annähernd überein (DIFF<OK), sind die Ergebnisse der SOM verifi­ ziert (yes), da die beiden grundlegend-verschiedenen Neuromodelle gleiche Modell­ ergebnisse berechnet haben. Ansonsten wird der Verfahrensschritt 5 iterativ wie­ derholt (no). Es geben p1res bis pNres die verifizierten Parameterkombinationen an.
V7.2. Bei Verwendung des Security-RBF-Netz können auch die Ergebnisse des Verfahrensschrittes V4 "Bestimmung potentieller Versuche" verifiziert werden.
Hat man im Verfahrensschritt V4. eine Parameterkombination p1. . .pN für einen Ver­ such mit hohem Informationsgewinn ermittelt, wird diese Kombination auf das feed- forward-Modell gegeben. Daraufhin berechnet das feed-forward-Modell irgendeinen Ausgangswert. Entscheidend ist aber, daß der Security-Wert klein ist, denn das be­ deutet, daß die mit der SOM ermittelte Parameterkombination sehr weit von gelern­ ten Beispieldaten entfernt liegt. Das wiederum heißt, daß die Parameterkombination einem Versuch mit hohem Informationsgewinn entspricht.
V7.3. Unter Verwendung des oben beschriebenen feed-forward-Modells lassen sich die Ergebnisse der Sensitiven Analyse mittels SOM, siehe Verfahrensschritt V6.1. und V6.2., verifizieren. Das feed-forward-Modell wird auf den von der SOM vorgege­ benen Arbeitspunkt eingestellt, d. h. die ermittelten Werte für die Versuchsparameter p1. . .pN werden an das feed-forward-Modell angelegt. Danach werden die Eingänge am Modell in einer vorgegebenen Varianz verändert und das Verhalten des Ausgan­ ges analysiert. Die mittels der SOM-Analyse ermittelten Varianzen der Netzeingänge bzw. Versuchsparameter müssen bei dieser Analyse die entsprechenden Varianzen am Netzausgang bzw. an der Zielgröße bewirken.
Verfahrensschritt 8 Anwendung Security-RBF-Netz - SVP mit RBF-Netzen
V8. Die in V7.1., V7.2. und V7.3. beschriebenen Verfahren können auch eigenstän­ dig zur Planung und Durchführung von Versuchen verwendet werden, da mit diesen eine what-if-Modellierung, Versuchsauswahl und Sensitive Analyse durchgeführt werden kann, wenn auch in wesentlich einfacherer und eingeschränkterer Form als mit der SOM, da die SVP mit RBF-Netzen nicht zielorientiert angewendet werden kann.
Fig. 9 verdeutlicht das Prinzip. Für die SVP wird ein Security-RBF-Modell zwischen Versuchsparametern und Zielgrößen aufgebaut, an die Netzeingänge werden die Versuchsparameter angelegt, an die Netzausgänge die Zielgrößen.
V8.1. Bei der what-if-Modellierung und der Sensitiven Analyse wird eine Parameter­ kombination p1. . .pN am Netzeingang ausgewählt und danach die Änderung der Ziel­ größen bei Änderung eines ausgewählten Parameters untersucht. Diese Untersu­ chung kann auf bestimmte Security-Werte eingestellt und beschränkt werden, denn es wird im allgemeinen nicht sinnvoll sein, oben genannte Analysen in Arbeitsberei­ chen durchzuführen, für die ein niedriger Security-Wert security_valvuezj berechnet wurde.
Mit o.g. Verfahren kann z. B. folgende Frage der SVP beantwortet werden: Um wie­ viel Prozent ändert sich die Ausgangsgröße, wenn sich die ausgewählte Einflußgrö­ ße um x % verändert hat?
V8.2. Suche nach Versuchen mit hohem Informationsgewinn.
Auch in diesem Fall wird ein Security-RBF-Modell aufgebaut. Für jede beliebige Kombination der Versuchsparameter am Eingang des Netzes kann der dazugehöri­ ge Ausgangswert der Zielgrößen berechnet werden. Entscheidend ist aber, daß der Security-Wert für die Simulation klein ist, denn das bedeutet, daß die eingestellte Parameterkombination sehr weit von gelernten Beispieldaten entfernt liegt. Das wie­ derum heißt, daß die Parameterkombination einen Versuch mit hohem Informations­ gewinn entspricht.
Durch die Kombination des zielorientierten Ansatzes der SOM mit den Verifikati­ onsmöglichkeiten eines feed-forward-Modells lassen sich die gegenwärtigen Metho­ den der Planung und Durchführung von Versuchen grundlegend erweitern, da die hier beschriebenen Verfahren nichtlinear und grundsätzlich anwendbar sind. Sie ermöglichen eine zielorientierte Analyse der Einflüsse von Versuchsparametern für jeden beliebigen Zielgrößenwert des Versuches.
Ein weiterer Vorteil des Verfahrens gegenüber anderen Technologien, wie Exper­ tensystemen und Fuzzy-Technologien für die Versuchsplanung, liegt in dem gerin­ gen Engineering-Aufwand. Da das Lernen und Strukturieren der Karten vollständig durch das Verfahren erbracht wird, entfällt aufwendiges Engineering und Eingeben von Wissen über den Versuch. Diese Form des Engineering ist integraler Bestand­ teil des Verfahrens selbst.

Claims (17)

1. Verfahren zur Planung und Durchführung von Versuchen im Vorfeld oder während einer Produktion von technischen oder chemischen Produkten, bei dem alle für einen Versuch relevanten Größen zusammengefaßt und durch eine neurona­ le Analyse auf der Grundlage selbstorganisierender Karten, sogenannter SOM, in Beziehung zueinander ausgewertet werden indem eine topologieerhaltende, nichtli­ neare Projektion von Daten der relevanten Versuchs- oder Produktionsparameter auf eine mehrdimensionale SOM realisiert wird, und ausgehend von der SOM die nichtlinearen Zusammenhänge zwischen Ziel- und Einflußgrößen analysiert werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Versuche für die Verbesserung und Optimierung von Produkten des Maschinenbaus, des Fahrzeugbaus, des Anlagenbaus, der Feinwerktechnik, der Chemischen Industrie und für Gentechnische Produkte und Werkstoffe verwendet werden sowie für die Optimierung von Prozessen zur Herstellung von Produkten in der Energie- und Kraftwerkstechnik.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Versuche während der laufenden technischen oder chemischen Produktion zur Qualitätsüber­ wachung durchgeführt werden.
4. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekenn­ zeichnet, daß zur Beurteilung eines Versuches dieser durch die SOM simuliert und mit auf der SOM zuvor erfaßten und dargestellten Versuchsergebnissen verglichen wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß das zu erwar­ tende Versuchsergebnis einer festgelegten Zielgröße eines ausgewählten Versu­ ches durch die SOM berechnet und höhenkodiert, farbkodiert oder numerisch aus­ gegeben wird.
6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß ausgehend von einer strukturierten SOM neue Versuche mit maximalem Informationsgewinn identifiziert werden, indem diese potentiellen Versuche auf der SOM farblich kodiert dargestellt werden und ausgehend von diesen Bereichen die dazugehörigen Ver­ suchsparameter ermitteln werden.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß ausgehend von einer strukturierten SOM eine zielorientierte Sensitive Analyse durchgeführt wird, indem für jeden ausgewählten Wert einer Zielgröße auf der SOM die konkreten Werte oder die Einflüsse der zugrundeliegenden Versuchsparameter berechnet werden.
8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß ausgehend von einer strukturierten SOM eine zielorientierte Sensitive Analyse durchgeführt wird, indem die Verteilung der Einfluß- und der Zielgrößen auf der SOM höhenko­ diert dargestellt wird und Bereiche identifiziert werden, in denen sich die Einfluß- und die Zielgröße nur im vorgegebenen Maße ändern.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß das Verfahren zur Stabilitätsanalyse eines Prozesses verwendet wird indem für die Zielgröße Be­ reiche, sogenannte Plateaus, auf der SOM identifiziert werden, die sich nur wenig verändern.
10. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß das Verfah­ ren zum robusten und fehlertoleranten Entwurf eines Prozesses verwendet wird, in­ dem für die Zielgröße oder für die Einflußgrößen Plateaus auf der SOM identifiziert werden, die sich nur wenig verändern.
11. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß das Verfah­ ren zur Festlegung von zulässigen Toleranzen für Konstruktionsparameter verwen­ det wird.
12. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekenn­ zeichnet, daß seine Durchführung in nachstehenden Schritten erfolgt:
  • a) Aufnahme und Auswahl der Versuchsparameter und Aufbereitung der Daten,
  • b) Entfaltung des selbstorganisierenden, neuronalen Netzes im Zustandsraum der Anlage, basierend auf den Algorithmus von T. Kohonen, wobei die Werte der relevanten Versuchsparameter verwendet werden,
  • c) Darstellung des entfalteten Netzes als neuronale Karte,
  • d) Projektion des hochdimensionalen Versuchsfeldes auf die neuronale Karte, basierend auf der UMatrix-Methode oder mittels sogenannter win­ ner-takes-all und/oder winner-takes-most Algorithmen, mit anschließender Visualisierung der aufsummierten Gewinnerraten der einzelnen Neuronen auf der Karte,
  • e) gegebenenfalls Anwendung der Karte zur Simulation von Versuchen,
  • f) gegebenenfalls Identifizierung von Versuchen mit maximalem Informations­ gewinn durch Anwahl der z. B. farblich visualisierten Versuchsflächen
  • g) gegebenenfalls zielorientierte Sensitive Analyse durch Auswahl von beson­ ders sensitiven Bereichen, sog. Gipfel oder von nicht-sensitiven Bereichen, sog. Plateaus auf einer SOM, bei der die ausgewählte Versuchsgröße hö­ henkodiert dargestellt ist.
13. Verfahren zur Planung und Durchführung von Versuchen oder Produk­ tionen in einer technischen oder chemischen Anlage, bei dem die zugrundeliegen­ den Zusammenhänge aller für einen Versuch relevanten Größen durch eine neuro­ nale Modellierung auf Grundlage Radialer-Basis-Funktionen in Beziehung zueinan­ der gebracht werden, indem ein Security-RBF-Netzwerk verwendet wird, das zusätz­ lich zum Modellwert die Sicherheit der Aussage angibt, indem die Aktivierungsant­ wort der Hidden-Neuronen ausgewertet wird.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, daß das Securi­ ty-RBF-Modell als what-if-Modell für die Versuche verwendet wird, indem die Aus­ wirkungen von neu identifizierten Parameterkombinationen auf eine Zielgröße am Security-Modell simuliert wird.
15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß das what-if- Modell zur Sensitiven Analyse des Versuches verwendet wird.
16. Verfahren nach Anspruch 13, dadurch gekennzeichnet, daß das Securi­ ty-RBF-Modell zur Bestimmung von Versuchen mit maximalem Informationsgewinn verwendet wird, indem Versuchskombinationen gesucht werden, deren RBF- Modellierung einen Security-Wert ergibt, der erkennen läßt, daß eine neue Ver­ suchskombination identifiziert wurde.
17. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, daß die Ergebnisse, die mittels der SOM erhalten wurden, durch ein nachgeschalte­ tes Security-RBF-Modell verifiziert werden.
DE1997142902 1997-09-29 1997-09-29 Verfahren zur Planung und Durchführung von Versuchen Ceased DE19742902A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1997142902 DE19742902A1 (de) 1997-09-29 1997-09-29 Verfahren zur Planung und Durchführung von Versuchen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1997142902 DE19742902A1 (de) 1997-09-29 1997-09-29 Verfahren zur Planung und Durchführung von Versuchen

Publications (1)

Publication Number Publication Date
DE19742902A1 true DE19742902A1 (de) 1999-04-15

Family

ID=7843956

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1997142902 Ceased DE19742902A1 (de) 1997-09-29 1997-09-29 Verfahren zur Planung und Durchführung von Versuchen

Country Status (1)

Country Link
DE (1) DE19742902A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10209146A1 (de) * 2002-03-01 2003-09-18 Bayer Ag Verfahren und System zur automatischen Planung von Experimenten
WO2004029738A1 (de) * 2002-09-30 2004-04-08 Gerhard Kranner Verfahren zur rechnergestützten erstellung von prognosen für operative systeme sowie system zur erstellung von prognosen für operative systeme
DE102007001025A1 (de) * 2007-01-02 2008-07-03 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4029774A1 (de) * 1989-09-20 1992-11-19 Ibm Mehrdimensionale bildanalyse
EP0653714A2 (de) * 1993-11-12 1995-05-17 Motorola, Inc. Neuronales Netzwerk, Neuron und Verfahren für Herstellungsprozessparameterschätzung
DE19518804A1 (de) * 1994-05-27 1995-12-21 Fraunhofer Ges Forschung Verfahren zur Überwachung eines Produktionsprozesses
DE19505506A1 (de) * 1995-02-10 1996-08-22 Daimler Benz Ag Verfahren zum Einsatz eines Beobachtermodells zur Drehmomentenschätzung und -vorhersage für eine Asynchronmaschine
DE29700028U1 (de) * 1997-01-02 1997-03-20 Siemens Ag Selbstdiagnostizierendes Gerät mit Fuzzy-Neuro-Logik-Diagnoseeinrichtung

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4029774A1 (de) * 1989-09-20 1992-11-19 Ibm Mehrdimensionale bildanalyse
EP0653714A2 (de) * 1993-11-12 1995-05-17 Motorola, Inc. Neuronales Netzwerk, Neuron und Verfahren für Herstellungsprozessparameterschätzung
DE19518804A1 (de) * 1994-05-27 1995-12-21 Fraunhofer Ges Forschung Verfahren zur Überwachung eines Produktionsprozesses
DE19505506A1 (de) * 1995-02-10 1996-08-22 Daimler Benz Ag Verfahren zum Einsatz eines Beobachtermodells zur Drehmomentenschätzung und -vorhersage für eine Asynchronmaschine
DE29700028U1 (de) * 1997-01-02 1997-03-20 Siemens Ag Selbstdiagnostizierendes Gerät mit Fuzzy-Neuro-Logik-Diagnoseeinrichtung

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
BRAUSE,Rüdiger: Neuronale Netze, B.G. Teubner Stuttgart 1995, S.152-165 *
HALICI,Ugur, ONGUN,Güçlü: Fingerprint Classi- fication Through Self-Organizing Feature Maps Modified to Treat Uncertainties. In: Proceedings Of The IEEE, Vol.84, No.10. Oct. 1996, S.1497- *
KOHONEN,Teuvo, et.al.: Engineering Applications of the Self-Organizing Map. In: Proceedings Of The IEEE, Vol.84, No.10. Oct. 1996, S.1358-1382 *
LATTASCH,Martin, u.a.: Einsatz von Neuronalen Netzen zur Technischen Diagnose. In: atp - Automatisierungstechnische Praxis 39, 1997, 8, S.53-60 *
Prozeßmodelle auf Basis Neuronaler Netze. In: atp 4/97, S.66 *
SPUR,Günter, KRAUSE,Frank-Lothar: CAD-Technik, Carl Hanser Verlag, München, Wien, 1984, S.282- S.285 *
WENZEL,Lothar: Optimalstrategie. In: mc extra, 10/95, S.30-33 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10209146A1 (de) * 2002-03-01 2003-09-18 Bayer Ag Verfahren und System zur automatischen Planung von Experimenten
WO2004029738A1 (de) * 2002-09-30 2004-04-08 Gerhard Kranner Verfahren zur rechnergestützten erstellung von prognosen für operative systeme sowie system zur erstellung von prognosen für operative systeme
US7480535B2 (en) 2002-09-30 2009-01-20 Gerhard Kranner Method for the computer-supported generation of prognoses for operative systems and a system for the generation of prognoses for operative systems
DE102007001025A1 (de) * 2007-01-02 2008-07-03 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102007001025B4 (de) * 2007-01-02 2008-11-20 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
US8554707B2 (en) 2007-01-02 2013-10-08 Siemens Aktiengesellschaft Method for the computer-assisted control and/or regulation of a technical system where the dynamic behavior of the technical system is modeled using a recurrent neural network

Similar Documents

Publication Publication Date Title
DE102007001025B4 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE69838181T2 (de) Visualisierung und selbstorganisation multidimensionaler daten durch ausgeglichene orthogonale abbildung
EP1530779B1 (de) Verfahren, datenverarbeitungseinrichtung und computerprogrammprodukt zur datenverarbeitung
EP2112568B1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE19531967A1 (de) Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems
WO2008080863A1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
EP0845720B1 (de) Verfahren zur Analyse und Darstellung von transienten Prozessvorgängen
DE19734947B4 (de) Verfahren zur Steuerung von Prozeßvorgängen
AT412678B (de) Verfahren zur rechnergestützten erstellung von prognosen für operative systeme sowie system zur erstellung von prognosen für operative systeme
EP1021793A2 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE102019214984A1 (de) Inertialsensor und computerimplementiertes Verfahren zur Selbstkalibrierung eines Inertialsensors
DE19742902A1 (de) Verfahren zur Planung und Durchführung von Versuchen
EP0829809B1 (de) Verfahren zur Prozessvisualisierung
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
DE19530647C1 (de) Verfahren zur Aufbereitung einer Eingangsgröße für ein neuronales Netz
DE19742906A1 (de) Verfahren zum Optimieren von Produkten und Produktionsprozessen
WO1998007100A1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
DE19731943A1 (de) Stabilisierungsentwicklungsverfahren und Aufzeichnungsträger, auf dem ein Stabilisierungsentwicklungsprogramm aufgezeichnet ist
WO1996006400A1 (de) Verfahren zur festlegung des gültigkeitsbereichs für ein künstliches neuronales netzwerk
EP1145190B1 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
EP1071999B1 (de) Verfahren und anordnung zur rechnergestützten ermittlung einer abbildungsvorschrift
DE19835137A1 (de) Vorrichtung zum Bestimmen der Konzentration einer Meßflüssigkeit
EP0952501B1 (de) Verfahren zur datengetriebenen Prozessführung und Prozessoptimierung von technischen Vorgängen
DE10013509C1 (de) Verfahren zur datenbasierten Konstruktion eines Moduls mit den Daten entsprechendem Übertragungsverhalten und Modul hierfür
EP1588229A2 (de) Verfahren zur ermittlung des zulässigen arbeitsbereichs eines neuronalen netzes

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection