DE19742906A1 - Optimizing products and their production processes by neural analysis - Google Patents

Optimizing products and their production processes by neural analysis

Info

Publication number
DE19742906A1
DE19742906A1 DE1997142906 DE19742906A DE19742906A1 DE 19742906 A1 DE19742906 A1 DE 19742906A1 DE 1997142906 DE1997142906 DE 1997142906 DE 19742906 A DE19742906 A DE 19742906A DE 19742906 A1 DE19742906 A1 DE 19742906A1
Authority
DE
Germany
Prior art keywords
som
target
values
optimization
neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE1997142906
Other languages
German (de)
Inventor
Viktor Prof Dr Ing Otte
Ralf Dipl Ing Otte
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Patent GmbH
Original Assignee
ABB Patent GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Patent GmbH filed Critical ABB Patent GmbH
Priority to DE1997142906 priority Critical patent/DE19742906A1/en
Publication of DE19742906A1 publication Critical patent/DE19742906A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J19/00Chemical, physical or physico-chemical processes in general; Their relevant apparatus
    • B01J19/0006Controlling or regulating processes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32015Optimize, process management, optimize production line
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33045Selforganizing network

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Chemical & Material Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Organic Chemistry (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Product and/or process optimization is carried out by neural analysis based on self-organizing maps (SOMs). A process for optimization problem solving in research, development and construction and for optimization of technical or chemical products and their production processes comprises collecting and processing all the values relevant to the optimization by a neural analysis based on self-organizing maps (SOMs), in which a topology producing, non-linear projection of data of the relevant parameter and the associated target values is performed on a multi-dimensional SOM. The target value is optimized by displaying as a SOM component map in either height coded or color coded form and, after selecting values for the target value, the underlying parameter combinations are calculated and output.

Description

Die Erfindung bezieht sich auf ein Verfahren zur Lösung von Optimierungsaufgaben in Forschung, Entwicklung und Konstruktion und zum Optimieren von technischen oder chemischen Produkten und von Prozessen zur Herstellung dieser Produkte.The invention relates to a method for solving optimization tasks in research, development and construction and to optimize technical or chemical products and processes for making these products.

Das Verfahren ist geeignet zum Optimieren von Konstruktionsprozessen im Maschi­ nen und Fahrzeugbau, in der Feinwerktechnik bzw. bei Entwicklungsprozessen für gentechnische Produkte und zur Optimierung von Anlagen oder Anlagenteilen eines Kraftwerks.The method is suitable for optimizing construction processes in the machine and vehicle construction, in precision engineering or in development processes for genetic engineering products and to optimize plants or parts of plants Power plant.

Es ist allgemein bekannt, für Optimierungsprobleme numerische Methoden der Pa­ rameteroptimierung anzuwenden. Dabei geht man von einem Satz N unabhängiger Variablen p1, p2, . . ., pN aus, die in einem sogenannten Parametervektor p zusammen­ gefaßt werden:
It is generally known to use numerical methods of parameter optimization for optimization problems. One starts from a set N of independent variables p 1 , p 2 ,. . ., p N out, which are combined in a so-called parameter vector p:

p= (p1, p2, . . ., pN) (1)p = (p 1 , p 2 ,..., p N ) (1)

Die Qualität eines jeden solchen Parametervektors wird durch eine Gütefunktion Q beschrieben. Q(p) sagt damit aus, wie gut der gewählte Parametervektor p das Op­ timierungsproblem löst. Im allgemeinen wird Q so definiert, daß das Optimierungs­ problem um so besser gelöst wird, je größer oder kleiner Q ist. Geht man davon aus, daß ein minimales Q das Optimum darstellt, wird also
The quality of each such parameter vector is described by a quality function Q. Q (p) thus indicates how well the selected parameter vector p solves the optimization problem. In general, Q is defined so that the larger or smaller Q is, the better the optimization problem is solved. If one assumes that a minimal Q represents the optimum, then

Q(p) → Minimum (2)
Q (p) → minimum (2)

gesucht. Für diese Aufgabe sind mehrere Lösungsmethoden bekannt, die man grob in deterministische und in Zufallsverfahren aufteilen kann. Zahlreiche deterministi­ sche Verfahren, z. B. Gradientenverfahren und Newton-Verfahren, haben den praxis­ relevanten Nachteil, daß für deren Lösung partielle Ableitungen der Gütefunktion zur Verfügung stehen müssen. Andere deterministische Verfahren, z. B. direkte Suchver­ fahren, bleiben oftmals in den lokalen Extrema ihrer Umgebung stecken und finden nicht das gewünschte globale Optimum, siehe J. Kahlert, "Fuzzy Control für Inge­ nieure", Vieweg Verlag, 1995, Seiten 155 bis 170. Eine Stärke der klassischen Op­ timierungsverfahren besteht - wenn sie anwendbar sind - darin, daß sie das Opti­ mum finden können, ohne über alle Bereiche Informationen besitzen zu müssen. Dagegen fehlt ihnen die Universalität in der Anwendbarkeit, da mathematische Mo­ delle vorausgesetzt werden.searched. For this task several solution methods are known, which are rough can be divided into deterministic and random processes. Numerous determinists cal procedures, e.g. B. Gradient method and Newton method have the practice relevant disadvantage that partial derivatives of the quality function for Must be available. Other deterministic methods, e.g. B. direct search ver drive, often get stuck in the local extremes of their surroundings and find them not the desired global optimum, see J. Kahlert, "Fuzzy Control for Inge nieure ", Vieweg Verlag, 1995, pages 155 to 170. A strength of the classical op The timing procedure - if applicable - is that it opti mum can find without having to have information about all areas. In contrast, they lack universality in applicability, since mathematical Mo delle are assumed.

Weiterhin ist bekannt, daß es gerade in Forschung, Entwicklung und Konstruktion zu Optimierungsaufgaben kommt, die nicht durch die Spezifikation eines einzigen Gü­ tekriteriums gelöst werden können, sondern die aus gleichzeitig zu optimierenden Zielfunktionen bestehen, die oftmals entgegengesetzte Anforderungen an den Pro­ zeß stellen. Damit entsteht eine sogenannte vektorielle Gütefunktion und der Ziel­ konflikt wird durch Methoden der Polyoptimierung formal behandelt, in deren Er­ gebnis die beste Kompromißlösung gesucht wird. Damit verschärfen sich die oben­ genannten Probleme der existierenden Optimierungsverfahren nochmals, so daß diese in vielen praktischen Anwendungsfällen nicht eingesetzt werden können.It is also known that there is research, development and construction Optimization tasks do not come through the specification of a single Gü tekriteriums can be solved, but the one to be optimized at the same time Objective functions exist, which often have opposite requirements for the pro ask. This creates a so-called vectorial quality function and the goal Conflict is dealt with formally by methods of polyoptimization, in their Er the best compromise solution is sought. This exacerbates the above mentioned problems of the existing optimization methods again, so that these cannot be used in many practical applications.

Es ist weiterhin bekannt, daß zufallsgesteuerte Optimierungsverfahren, z. B. Monte- Carlo-Verfahren oder Evolutionsstrategien, obengenannte Nachteile überwinden können; deshalb sind diese in zahlreiche praktische Anwendungen integriert wor­ den. Sie gehen davon aus, daß die skalare oder vektorielle Gütefunktion in dem Pa­ rameterraum P ein mehrdimensionales Gebirge darstellt, dessen Minima respektive Maxima gefunden werden sollen, siehe E. Schöneburg et. al "Genetische Algorith­ men und Evolutionsstrategien", Addison Wesley Verlag, 1994, Seiten 102 bis 107 und die Seiten 141 bis 215.It is also known that randomly controlled optimization methods, e.g. B. Monte Carlo process or evolution strategies, overcome the disadvantages mentioned above can; therefore they are integrated into numerous practical applications the. They assume that the scalar or vectorial quality function in the Pa Parameter space P represents a multidimensional mountain range, the minima of which, respectively  Maxima are to be found, see E. Schöneburg et. al "Genetic Algorithm men and evolution strategies ", Addison Wesley Verlag, 1994, pages 102 to 107 and pages 141 to 215.

Ein Nachteil dieser zufallsgesteuerten Optimierungsverfahren ist, daß man weiter­ hin keine oder nur wenige Information über den Aufbau und die Topologie der Güte­ funktionen Q im Zustandsraum P des Optimierungsproblems hat. In der Systemtheorie wird als Zustandsraum P eines Prozesses der n-dimensionale Vektor­ raum bezeichnet, in dem die zu untersuchenden Daten übereinander aufgetragen werden können. Zum Beispiel entspricht ein Datenbeispiel p einem Punkt in diesem Zustandsraum. Nachstehend wird unter einem Eingangsraum oder Zustandsraum P genau dieser Zustandsraum verstanden.A disadvantage of this randomized optimization process is that you can continue no or little information about the structure and topology of quality has functions Q in state space P of the optimization problem. In the System theory is called the state space P of a process of the n-dimensional vector space in which the data to be examined is plotted on top of each other can be. For example, a data sample p corresponds to a point in it State space. In the following, an entrance space or state space P exactly this state space understood.

Weiterhin weiß man nicht, ob das gefundene Optimum lokal oder global ist. Ein weiterer Nachteil liegt in der richtigen Parametrisierung des Optimierungsverfahrens selbst, da z. B. die anfänglich einfachen Konzepte der Evolutionsstrategien oder Ge­ netischen Algorithmen durch adaptive Schrittweitensteuerung, verschiedene Crossing-Over-Strategien oder Selektionsvarianten für die Anwendung im techni­ schen oder chemischen Prozeß oftmals zu komplex geworden sind (siehe E. Schö­ neberg et al.).Furthermore, it is not known whether the optimum found is local or global. A Another disadvantage is the correct parameterization of the optimization process even because z. B. the initially simple concepts of evolution strategies or Ge netic algorithms through adaptive step size control, various Crossing-over strategies or selection variants for use in techni chemical process have often become too complex (see E. Schö neberg et al.).

Der Erfindung liegt die Aufgabe zugrunde, ein auf Daten basiertes, universelles Op­ timierungsverfahren anzugeben, das eine gleichzeitige und zusammenhängende Bewertung und Visualisierung aller relevanten Optimierungsparameter und Zielgrö­ ßen eines technischen oder chemischen Produktes und des Prozesses zur Herstel­ lung dieses Produktes ermöglicht und die Gütefunktionen der Optimierung grafisch anschaulich darstellen kann.The invention has for its object to provide a data-based, universal Op timing method to specify a simultaneous and coherent Evaluation and visualization of all relevant optimization parameters and target size a technical or chemical product and the manufacturing process this product and the quality functions of the optimization graphically can represent vividly.

Diese Aufgabe wird gelöst durch ein im Anspruch 1 angegebenes Verfahren zur Op­ timierung von technischen oder chemischen Produkten und zur Optimierung von Prozessen in Forschung, Entwicklung, Konstruktion und Produktion dieser Produkte. Dabei werden alle für einen Prozeß relevanten Parameter zusammengefaßt und durch eine neuronale Analyse auf der Grundlage selbstorganisierender Karten (Self- Organizing-Map, sogenannte SOM) in Beziehung zueinander ausgewertet, indem eine topologieerhaltende, nichtlineare Projektion von Daten, d. h. von allen Parame­ tern und Zielgrößen, des relevanten Prozesses auf eine mehrdimensionale, höhen- oder farbkodierte, neuronale Karte (SOM) realisiert wird. Da auf dieser strukturierten SOM die Zielgrößen in Form von sogenannten Komponentenkarten höhen- oder farbkodiert aufgetragen werden können, erhält man Informationen über die Zielgrö­ ßenverteilung im gesamten Parameterraum P. Damit können die gesuchten Werte der Zielgröße, d. h. die Minima, Maxima oder auch bestimmte Bereiche, selektiert und die dazugehörigen Parameterkombinationen ermittelt werden.This object is achieved by a method for op timing of technical or chemical products and optimization of Processes in research, development, design and production of these products. All parameters relevant to a process are summarized and through a neural analysis based on self-organizing cards (self- Organizing map, so-called SOM) evaluated in relation to each other by  a topology-preserving, non-linear projection of data, i. H. of all params ters and targets, of the relevant process to a multi-dimensional, high or color-coded, neural card (SOM) is realized. Because on this structured SOM the target values in the form of so-called component cards color-coded, information about the target size is obtained External distribution in the entire parameter space P. This enables the searched values the target size, d. H. the minima, maxima or certain areas and the associated parameter combinations are determined.

Die einzige Voraussetzung für das Verfahren ist das Vorhandensein von Beispielda­ ten für das Optimierungsproblem. Das Verfahren stellt damit eine Erweiterung be­ stehender Optimierungsmethoden dar.The only requirement for the procedure is the existence of sample da for the optimization problem. The process thus expands standing optimization methods.

Die Gütefunktion für die Optimierung kann eine Zielgröße selbst sein oder aus einer oder mehreren Zielgrößen berechnet werden. Ausgehend von der grafischen Dar­ stellung des im allgemeinen hochdimensionalen Gütegebirges erhält man Informa­ tionen über die Topologie der Gütefunktionen und es können die globalen Minima und Maxima aus dem Gebirge einfach ausgelesen und die dazugehörigen Parame­ terkombinationen ausgegeben werden. Weiterführend sollen einzelne skalare Ziel­ größenfunktionen, d. h. einzelne Zielgrößengebirge, miteinander überlagert werden können, so daß eine grafisch orientierte Polyoptimierung durchgeführt werden kann.The quality function for the optimization can be a target variable itself or from one or several target values can be calculated. Starting from the graphical dar Position of the generally high-dimensional quality mountains you get informa ions about the topology of the quality functions and the global minima and Maxima simply read from the mountains and the associated parameters combinations are output. Continuing to aim individual scalar size functions, d. H. individual mountain ranges, overlaid with each other can, so that a graphically oriented polyoptimization can be carried out.

Vorteilhafte Ausgestaltungen des Verfahrens sind in weiteren Ansprüchen angege­ ben. Durch den ganzheitlichen Ansatz werden nicht nur die Werte einzelner Parame­ ter, sondern auch gerade ihre gegenseitigen und nichtlinearen Einflüsse unterein­ ander berücksichtigt.Advantageous refinements of the method are set out in further claims ben. The holistic approach does not only change the values of individual parameters ter, but also their mutual and non-linear influences other considered.

In der weiteren Beschreibung wird unter einem Prozeß jede Operation verstanden, die das Ziel hat etwas herzustellen, zu verbessern oder zu optimieren. Ein Prozeß kann damit ein technischer oder chemischer Prozeß selbst, aber auch ein Vorgang in Forschung, Entwicklung und Konstruktion zur Herstellung eines Produktes bzw. zur Optimierung von Produkteigenschaften sein. Prozeßgrößen sind die den Prozeß beschreibenden und für die Optimierungsaufgabe relevanten Größen, z. B. Kon­ struktionsparameter, Produkteigenschaften oder physikalische Meßwerte. In the further description, a process is understood to mean any operation which has the goal of producing, improving or optimizing something. A process can be a technical or chemical process itself, but also a process in research, development and construction for the manufacture of a product or to optimize product properties. Process variables are the process Descriptive variables relevant for the optimization task, e.g. B. Kon structural parameters, product properties or physical measurements.  

Ein Prozeß im oben genannten Sinne wird durch folgenden Vektor pvec von Pro­ zeßgrößen beschrieben:
A process in the above sense is described by the following vector pvec of process variables:

pvec = (p1, p2, . . ., pi, . . ., pN, z1, z2, . . ., zj, . . . zL) (3)
pvec = (p 1 , p 2 ,..., p i ,..., p N , z 1 , z 2 ,..., z j ,... z L ) (3)

wobei pi die i-te Einflußgröße oder auch der i-te Prozeßparameter und zj die j-te Zielgröße des Prozesses ist, d. h. die Prozeßgrößen bestehen aus Parametern und Zielgrößen. Die Anzahl n = N + L gibt die Gesamtanzahl der zugrundeliegenden Größen für den Prozeß an. N ist die Anzahl der Einflußgrößen, L ist die Anzahl der Zielgrößen; n ist damit die Anzahl aller relevanten Produkt- oder Prozeßgrößen. Als Datenvektor wird eine konkrete Ausprägung von pvecti verstanden, die zu einem Zeitpunkt ti erfaßt wurde. Aufbauend auf vorhandenen Datenvektoren aus diesem Prozeß wird das SOM-Verfahren angewendet.where p i is the i-th influencing variable or also the i-th process parameter and z j is the j-th target variable of the process, ie the process variables consist of parameters and target variables. The number n = N + L indicates the total number of the underlying variables for the process. N is the number of influencing variables, L is the number of target variables; n is the number of all relevant product or process variables. A specific expression of pvec ti is understood as a data vector, which was recorded at a time t i . The SOM method is applied based on existing data vectors from this process.

In der Systemtheorie wird als Zustandsraum R eines Prozesses der n-dimensionale Vektorraum bezeichnet, in dem die Prozeßdaten einander zugeordnet aufgetragen werden können. Ist R so gestaltet, daß jeder Größe eine Achse in R zugeordnet wird, entsteht für jedes Datenbeispiel pvecti ein Punkt in R. Ein solches Koordina­ tensystem R wird als Zustandsraum des Prozesses bezeichnet und jeder Prozeßzu­ stand pvecti zum Zeitpunkt ti als Punkt in R markiert. Nachstehend wird unter einem Eingangsraum genau dieser Zustandsraum verstanden. Der Ausgangsraum ist der 2-dimensionale Raum, der auf der SOM-Karte abgebildet wird. Jedem Vektor pvecti entspricht somit ein Punkt in R, eine Reihe von Vektoren stellt eine Punktwolke in R dar. Aufbauend auf zahlreichen Daten für das Optimierungsproblem und damit auf einer oben genannten Punktwolke wird das SOM-Verfahren angewendet.In system theory, the state space R of a process is the n-dimensional vector space in which the process data can be plotted in association with one another. If R is designed so that an axis in R is assigned to each variable, a point in R is created for each data example pvec ti. Such a coordinate system R is referred to as the state space of the process and each process state pvec ti at point in time t i as R marked. In the following, an entrance space is understood to mean exactly this state space. The output space is the 2-dimensional space that is shown on the SOM map. Each vector pvec ti thus corresponds to a point in R, a series of vectors represents a point cloud in R. Based on numerous data for the optimization problem and thus on a point cloud mentioned above, the SOM method is used.

In der neuronalen Theorie versteht man unter einer selbstorganisierenden Karte (SOM) ein "selbstorganisierendes neuronales Netz", bei dem alle Neuronen neben­ einander angeordnet sind. Das selbstorganisierende neuronale Netz ist ein einge­ führter Begriff für eine spezielle Klasse von neuronalen Netzen, die sich anhand von Eingangssignalen selbst strukturieren, vgl. A. Zell "Simulation Neuronaler Netze", Addison-Wesley Verlag, 1994, Seite 179 bis 187. Im Unterschied zu herkömmlichen neuronalen Netzen spielt die räumliche Lage der einzelnen Neuronen und ihre Nachbarschaftsbeziehungen bei den SOM eine wichtige Rolle. Die Begriffe SOM und Karte werden im weiteren gleichrangig verwendet.In neural theory, a self-organizing card is understood (SOM) a "self-organizing neural network", in which all neurons next to are arranged one another. The self-organizing neural network is one The term used for a special class of neural networks that can be identified using Structure input signals yourself, cf. A. Zell "Simulation of Neural Networks", Addison-Wesley Verlag, 1994, pages 179 to 187. In contrast to conventional ones neural networks plays the spatial position of the individual neurons and their  Neighborhood relationships play an important role at SOM. The terms SOM and card will be used equally in the following.

Mit Hilfe der SOMs lassen sich sogenannte topologieerhaltende Abbildungen reali­ sieren. Topologieerhaltend heißt in diesem Zusammenhang, daß die Punkte (Datenpunkte), die im Eingangsraum nahe beieinander liegen, auch im Ausgangs­ raum, also auf der Karte, nahe beieinander liegen werden. Damit stellt die Karte im Prinzip ein topologieerhaltendes, 2-dimensionales Fenster in den n-dimensionalen Zustandsraum des Prozesses dar.With the help of SOMs, so-called topology-preserving images can be reali sieren. In this context, preserving topology means that the points (Data points) that are close together in the entrance area, also in the exit area space, i.e. on the map, will be close to each other. With that, the card in the Principle of a topology-preserving, 2-dimensional window in the n-dimensional State space of the process.

Beim erfindungsgemäßen Verfahren werden nach einer entsprechenden Datenvor­ verarbeitung der Prozeßgrößen einem selbstorganisierenden Netz in einer Lernpha­ se die Werte der für die Optimierungsaufgabe relevanten n Größen angeboten. Die Anzahl der vorliegenden Datenbeispiele sollte eine Mindestanzahl (MA) nicht unter­ schreiten. Diese Anzahl ist:
In the method according to the invention, after a corresponding data preprocessing of the process variables, the values of the n variables relevant to the optimization task are offered to a self-organizing network in a learning phase. The number of available data examples should not be less than a minimum number (MA). This number is:

MA = 30.n (4)MA = 30.n (4)

Das Verfahren arbeitet auch mit weniger Datenbeispielen, allerdings werden da­ durch die Ergebnisse verschlechtert. Der Wert von n kann zwischen 2 und mehreren hundert liegen. Unter Prozeß- oder Meßgröße werden beides, die Einflußparameter mit der Anzahl N und die Zielgrößen des Prozesses mit der Anzahl L verstanden. Die Anzahl der Zielgrößen sollte allerdings deutlich kleiner als die Anzahl der Ein­ flußgrößen sein:
The method also works with fewer data examples, but the results worsen it. The value of n can range from 2 to several hundred. Process or measured variables are understood to mean both the influencing parameters with the number N and the target variables of the process with the number L. However, the number of target variables should be significantly smaller than the number of influencing variables:

L « N. (5)L «N. (5)

Die Lernphase erfolgt in zwei Schritten: Zuerst entfaltet sich die Karte im Zustands­ raum des Prozesses, danach werden die Datenbeispiele durch die Anwendung ei­ nes mathematischen Verfahrens visualisiert.The learning phase takes place in two steps: First, the card unfolds as it is space of the process, then the data examples are applied by the application visualized by a mathematical process.

Bevor das Lernverfahren angewendet wird, werden die Prozeßgrößen vorverarbei­ tet. Zuerst werden die einzelnen Größen auf einen vorgegebenen Wert skaliert und danach z. B. noch verrauscht. Das Verrauschen erlaubt das Vervielfältigen und wei­ tere Verarbeiten von typisierten Optimierungsbeispielen, da dadurch einzelne Bei­ spieldaten, die stets einem systematischen und statistischen Fehler unterliegen, verallgemeinert werden. Der Rauschanteil darf dabei allerdings nicht so groß sein, daß er bestehende Datenverteilungen qualitativ verändert.The process variables are preprocessed before the learning process is applied tet. First, the individual sizes are scaled to a specified value and then z. B. still noisy. Noise allows duplication and white Further processing of typified optimization examples, since this means individual examples  game data that is always subject to a systematic and statistical error, be generalized. However, the noise component must not be so large that it qualitatively changes existing data distributions.

Die Entfaltung der selbstorganisierenden Karte im Zustandsraum des Prozesses wird durch Algorithmen, basierend auf einem neuronalen Algorithmus nach T. Koho­ nen realisiert. Der "selbstorganisierende neuronale SOM-Algorithmus" wurde von Kohonen im Jahr 1982 eingeführt; vgl. T. Kohonen, "Self-organized formation of to­ pologically correct feature maps" in Biological Cybernetics, 43, 59 bis 69, 1982. Da­ bei wird jedem Neuron M auf der SOM ein n-dimensionaler Gewichtsvektor zugeord­ net, der durch Anwendung des Verfahrens iterativ adaptiert wird. Jedes Neuron M hat demnach einen Gewichtsvektor wM mit n Elementen:
The development of the self-organizing map in the state space of the process is realized by algorithms based on a neural algorithm according to T. Koho nen. The "self-organizing neural SOM algorithm" was introduced by Kohonen in 1982; see. T. Kohonen, "Self-organized formation of to pologically correct feature maps" in Biological Cybernetics, 43, 59 to 69, 1982. Since with each Neuron M on the SOM an n-dimensional weight vector is assigned, which by applying the method is iteratively adapted. Each neuron M therefore has a weight vector w M with n elements:

wM = (w1 M, w2 M, w3 M, . . ., wi M, . . ., wn M). (6)w M = (w 1 M , w 2 M , w 3 M ,..., w i M ,..., w n M ). (6)

Die Anzahl der Elemente oder Komponenten von w entspricht damit der Anzahl der zu untersuchenden Größen n, mit n = N+L in Gleichung (3). Die Anzahl der Neuronen einer SOM wird mit k bezeichnet. Ein entfaltetes SOM-Netz wird i.a. als rechteckige Karte mit x.y = k Neuronen dargestellt, x bezeichnet die Anzahl der Neuronen in x-Richtung, y die Anzahl in y-Richtung. M ist ein ausgewähltes Neuron auf der SOM, mit M = 1 . . . k.The number of elements or components of w thus corresponds to the number of Quantities to be examined n, with n = N + L in equation (3). The number of neurons a SOM is denoted by k. An unfolded SOM network is generally as a rectangular Map shown with x.y = k neurons, x denotes the number of neurons in x direction, y the number in the y direction. M is a selected neuron on the SOM, with M = 1. . . k.

Durch den Algorithmus werden die Gewichtsvektoren w aller Neuronen k im Zu­ standraum R verteilt. Die SOM kann sich auf jedem n-dimensionalen Gebilde (z. B. Kurve, Fläche oder Körper) selbstorganisieren, allerdings läßt sich nur durch eine erfindungsgemäße Modifikation des Verfahrens eine anwendbare und reproduzier­ bare Analyse der Prozeßdaten realisieren. Und zwar werden zwei ausgewählte ge­ genüberliegende Eckneuronen auf der rechteckigen SOM-Karte M1 und M2 auf das Minimum bzw. das Maximum aller Prozeßgrößen in P festgelegt und dort mathema­ tisch fixiert, indem die Gewichtsvektoren dieser Eckneuronen wM1 und wM2 mit den Vektoren für die skalierten Minima und Maxima der Prozeßgrößen gleichgesetzt werden. Minimum heißt damit am nächsten am Koordinatenursprung in R, Maximum am weitesten von diesem entfernt. Dadurch wird sich die Karte reproduzierbar entfal­ ten, da ein Drehen der Karte in R verhindert werden kann. The algorithm distributes the weight vectors w of all neurons k in the stand space R. The SOM can self-organize on any n-dimensional structure (e.g. curve, surface or body), but an applicable and reproducible analysis of the process data can only be achieved by modifying the method according to the invention. Namely, two selected ge opposite corner neurons on the rectangular SOM map M 1 and M 2 to the minimum and the maximum of all process variables in P and fixed mathematically there by the weight vectors of these corner neurons w M1 and w M2 with the vectors for the scaled minima and maxima of the process variables. Minimum means closest to the coordinate origin in R, maximum furthest from it. As a result, the card will unfold reproducibly, since the card can be prevented from rotating in R.

Die Visualisierung der Situation im Zustandsraum R geschieht nach der Umatrix- Methode oder einem dynamischen Visualisierungsverfahren.The situation in state space R is visualized according to the umatrix Method or a dynamic visualization process.

Bei der Umatrix-Methode werden die Differenzen der Gewichtsvektoren eines jeden Neurons zu seinen Nachbarn berechnet und entsprechend graphisch aufbereitet, z. B. farbkodiert dargestellt. Zusammenhängende Gebiete (z. B. helle Flächen) haben eine kleine Differenz, da ihre Neuronen im Zustandsraum nahe beieinander plaziert wurden, zwischen diesen einzelnen Clustern gibt es Grenzen, die durch eine hohe Differenz der jeweiligen Gewichtsvektoren gekennzeichnet sind, diese werden z. B. als dunkle Flächen visualisiert. Damit läßt sich eine gute Visualisierung aller Clu­ stergrenzen und damit der realen Prozeßzustände erreichen, siehe auch G. Whit­ tington, C. Spracklen: The Application of Neural Network Mode to Sensor Data Fu­ sion in Proc. of Applications of ANN Conference, Orlando, USA, 1990.In the umatrix method, the differences in the weight vectors of each Neurons to its neighbors calculated and graphically prepared accordingly, e.g. B. color-coded. Have contiguous areas (e.g. bright areas) a small difference because their neurons are placed close together in the state space there are boundaries between these individual clusters, which are marked by a high Difference of the respective weight vectors are marked, z. B. visualized as dark areas. This allows a good visualization of all clu limits and thus reach the real process states, see also G. Whit tington, C. Spracklen: The Application of Neural Network Mode to Sensor Data Fu sion in proc. of Applications of ANN Conference, Orlando, USA, 1990.

Bei den dynamischen Verfahren werden der entfalteten Karte die Eingangsvektoren in zufälliger Reihenfolge nochmals angeboten und das aktuelle Gewinnerneuron nach einem "Winner-takes-all" Algorithmus ermittelt. Dieser Algorithmus besagt, daß das Neuron dessen Gewichtsvektor dem Eingangsvektor am nächsten ist gewinnt. Die Aussage "am nächsten" wird durch Berechnung eines vorher bestimmten Ab­ standsmaßes, z. B. dem euklidischen Abstand, berechnet. Der "Winner-takes-all" Algorithmus ist ein Verfahren, bei dem immer das Neuron ausgewählt wird, das eine gewisse Bedingung am besten erfüllt, alle anderen Neuronen des Netzes oder der Karte sind inaktiv bzw. nicht ausgewählt (1-aus-k Auswahl mit k ist gleich Anzahl Neuronen auf der Karte). Diese besondere Bedingung ist hier ein minimales Ab­ standsmaß zwischen dem aktuellen Eingangsvektor und dem Gewichtsvektor der einzelnen Neuronen, siehe S. Hafner, "Neuronale Netze in der Automatisierungs­ technik", Oldenbourg Verlag, 1994, insbesondere Seiten 17 bis 25.With the dynamic methods, the unfolded card becomes the input vectors offered again in random order and the current winning neuron determined according to a "winner-takes-all" algorithm. This algorithm states that the neuron whose weight vector is closest to the input vector wins. The statement "closest" is obtained by calculating a predetermined Ab level, e.g. B. the Euclidean distance. The "winner takes all" Algorithm is a procedure in which the neuron is always selected, the one certain condition best met, all other neurons of the network or the Cards are inactive or not selected (1-out-k selection with k equals number Neurons on the map). This particular condition is a minimal down here between the current input vector and the weight vector of the individual neurons, see S. Hafner, "Neural networks in automation technik ", Oldenbourg Verlag, 1994, in particular pages 17 to 25.

Für das jeweilige Gewinnerneuron wird ein interner Zähler, die Gewinnerrate, um den Zahlenwert eins erhöht. Am Ende dieser dynamischen Visualisierung werden die Gewinnerraten der einzelnen Neuronen in Farb- oder Helligkeitswerte umkodiert, dabei bedeutet ein hoher Zahlenwert z. B. eine helle Farbe. Das Neuron mit der höchsten Gewinnerrate wird weiß dargestellt. Neuronen mit entsprechend kleinen Raten werden z. B. dunkler visualisiert. Neuronen, die gar nicht gewonnen haben, erhalten eine schwarze Farbe auf der SOM. Durch diesen Algorithmus entstehen auf der SOM helle Flächen, die die Stützstellen der SOM repräsentieren, da die Ge­ wichtsvektoren dieser Neuronen sehr dicht an den zu lernenden Datenbeispielen liegen. Zwischen diesen Stützstellen muß die Karte interpolieren. Damit kann dieses Visualisierungsverfahren benutzt werden, um eine Security-SOM aufzubauen. Werte für die Zielgröße und die dazugehörigen Parameter auf den hellen Flächen haben eine hohe Sicherheit (Security-Wert nahe 100%), Werte auf den dazwischenliegen­ den dunklen Flächen eine geringerer Sicherheit (Security-Wert wesentlich kleiner als 100%), da die Karte dort interpoliert hat. Eine mögliche Berechnung für den Security-Wert SW ist:
For the respective winning neuron, an internal counter, the winning rate, is increased by one. At the end of this dynamic visualization, the winning rates of the individual neurons are recoded into color or brightness values. B. a light color. The neuron with the highest winning rate is shown in white. Neurons with correspondingly low rates are e.g. B. visualized darker. Neurons that have not won at all get a black color on the SOM. This algorithm creates bright areas on the SOM, which represent the SOM's support points, since the weight vectors of these neurons are very close to the data examples to be learned. The map must interpolate between these points. This visualization process can thus be used to set up a security SOM. Values for the target size and the associated parameters on the light areas have a high level of security (security value close to 100%), values on the dark areas in between have a lower level of security (security value significantly less than 100%) because the card is there interpolated. A possible calculation for the security value SW is:

SW = akt. Gewinnerrate des Neurons/max. Gewinnerrate.100% (7)SW = act. Winning rate of the neuron / max. Winner rate. 100% (7)

SW gibt somit in Prozent an, wie sicher die von der Karte ermittelten Resultate sind. Die max. Gewinnerrate ist die größte Gewinnerrate die ein Neuron auf der Karte im Vergleich mit allen anderen Neuronen hat.SW therefore indicates in percent how secure the results obtained from the card are. The max. Winner Rate is the largest win rate that a neuron on the card in the Comparison with all other neurons.

Als Ergebnis der obengenannten Verfahren entsteht eine strukturierte SOM-Karte, bei der es eine Zuordnung zwischen den Parametern p und den Zielgrößen z gibt. Ein SOM-Neuron M, d. h. sein Gewichtsvektor wM, entspricht dabei genau einem Punkt in R, d. h. einer oder mehrerer Zielgrößen und den zugrundeliegenden Ein­ flußparametern. Die Positionierung der Gewichtsvektoren w in R für alle Neuronen k der Karte wurde durch das selbstorganisierende Lernverfahren realisiert. Dabei gibt es Neuronen, die die in den Beispieldaten enthaltenen Zuordnungen zwischen Ein­ fluß- und Zielgrößen repräsentieren, andere Neuronen geben unbekannte, nichtli­ near-interpolierte Zusammenhänge an.The result of the above-mentioned methods is a structured SOM map in which there is an association between the parameters p and the target variables z. A SOM neuron M, ie its weight vector w M , corresponds exactly to one point in R, ie one or more target variables and the underlying flow parameters. The positioning of the weight vectors w in R for all neurons k on the map was realized by the self-organizing learning process. There are neurons that represent the assignments between an inflow and target variables contained in the sample data, other neurons indicate unknown, non-linearly interpolated relationships.

In der Anwendungsphase der Karte werden die interessierenden Werte der Zielgrö­ ßen oder Zielgrößenkombinationen ausgesucht und die dazugehörigen Parameter­ kombinationen ermittelt, indem die zu den Zielgrößenwerten gehörenden Neuronen auf der SOM selektiert werden. Diese Aus- und Anwahl kann grafisch erfolgen, da die Zielgrößen über der SOM farblich oder als Gebirge aufgetragen werden können. In the application phase of the card, the values of interest of the target size are or target size combinations and the associated parameters combinations determined by the neurons belonging to the target size values selected on the SOM. This selection and selection can be done graphically, because the target values can be applied in color or as mountains over the SOM.  

Eine weitere Beschreibung des Verfahrens erfolgt nachstehend anhand der in den Zeichnungsfiguren dargestellten Ausführungsbeispiele.A further description of the method is given below using the in the Exemplary embodiments shown in the drawings.

Es zeigen:Show it:

Fig. 1 ein Strukturbild, das die wesentlichen Komponenten eines Systems zur Durchführung des Verfahrens zeigt, Fig. 1 is a structural diagram showing the essential components of a system for carrying out the method,

Fig. 2 eine mögliche Gewichtsverteilung einer neuronale Karte in einem Prozeß mit nur einem Einflußparameter und einer Zielgröße (n=2), Fig. 2 shows a possible weight distribution of a neural map in a process with only one influence parameter and a target size (n = 2)

Fig. 3 eine neuronale farbkodierte Security-Karte zur Modellierung, mit dargestellten Stützstellen (weiße Flächen auf der Karte), Fig. 3 is a color-coded neural Security card for modeling, with the illustrated support points (white areas on the map),

Fig. 4 eine neuronale höhenkodierte Komponenten-Karte für eine Zielgrö­ ße des Prozesses mit eingetragenem Pfad für gewünschte Werte der Zielgröße, Fig. 4 is a neural height encoded component map for a Zielgrö SSE registered with the process path for desired values of the target variable,

Fig. 5 zwei neuronale höhenkodierte Komponenten-Karte für zwei Zielgrö­ ßen A und B des Prozesses und eine daraus abgeleitete Gütefunkti­ on C als grafische, gleichgewichtete Überlagerung der zwei Zielgrö­ ßen A und B zur grafischen Polyoptimierung, Fig. 5, two neural height encoded component map for two Zielgrö SEN A and B of the process and a derived therefrom Gütefunkti on C as a graphic, equally weighted superposition of the two Zielgrö SEN A and B for the graphical Polyoptimierung,

Fig. 6 eine Prinzipschaltung zur Kombination der SOM mit feed-forward- Netzen zum Verifizieren der Ergebnisse. Fig. 6 shows a schematic circuit for combining the SOM with feed-forward networks for verifying the results.

Die Beschreibung des Verfahrens ist im folgenden in verschiedenen Verfahrens­ schritte gegliedert und durch obengenannten Abbildungen beispielhaft erläutert.The description of the method is below in different methods structured steps and exemplified by the above illustrations.

Fig. 1 zeigt beispielhaft die Struktur eines Systems zur Durchführung des Verfah­ rens zur Prozeßanalyse und Diagnose mit neuronaler Karte. Fig. 1 shows an example of the structure of a system for performing the procedure for process analysis and diagnosis with a neural card.

Verfahrensschritt 1Process step 1 Aufnahme und Auswahl der ProzeßgrößenRecording and selection of process variables

V1.1. Aufnahme und Aufbereitung der Daten. Ein Datenerfassungs- und -aufbereitungssystem erfaßt und speichert die zur Optimierung notwendigen Prozeß­ größen.V1.1. Recording and processing of the data. A data acquisition and processing system records and stores the process necessary for optimization sizes.

V1.2. Ein nachfolgendes Datenanalysesystem unterzieht die ausgewählten und rele­ vanten Daten einer Korrelationsanalyse, um die unabhängigen Parameter zu be­ stimmen. Danach werden die relevanten Größen skaliert und gegebenenfalls ver­ rauscht.V1.2. A subsequent data analysis system subjects the selected and rele Data from a correlation analysis to determine the independent parameters  voices. Then the relevant sizes are scaled and ver if necessary rustles.

V1.3. Auswertung und Analyse auf Grundlage eines Neuro-Systems.V1.3. Evaluation and analysis based on a neuro system.

Verfahrensschritt 2Process step 2 Lernphase der KarteCard learning phase

V2.1. Entfaltung des selbstorganisierenden, neuronalen Netzes im Zustandsraum des Prozesses, basierend auf modifiziertem Algorithmus nach T. Kohonen.V2.1. Development of the self-organizing, neural network in the state space of the process, based on a modified algorithm according to T. Kohonen.

Fig. 2 zeigt beispielhaft die Gewichtsverteilung von SOM-Neuronen in einem 2-dimensionalen Zustandsraum des Prozesses mit einem Einflußparameter (x-Achse, w(i, 1) = w1 i) und einer Zielgröße (y-Achse, (w(i, 2) = w2 i). Die laufende Nummer i (mit i = 1 . . . k) gibt das ausgewählte Neuronen i des SOM-Netzes und damit den ausge­ wählten 2-dimensionalen Gewichtsvektoren wi an. Die Position der Gewichtsvekto­ ren w der Neuronen ist durch einen grauen Kreis markiert, die Nachbarschaftsbezie­ hungen - der zu den jeweiligen Gewichten gehörenden SOM-Neuronen - wird durch eine Linie dargestellt. Neuronen, die durch eine Linie verbunden sind, liegen auf der SOM-Karte nebeneinander. Die weißen Kreise markieren Stellen, an denen Daten­ vektoren vorhanden sind. Man sieht, daß der größte Teil der SOM-Neuronen dort plaziert wurde, allerdings gibt es auch Neuronen, die zwischen den Datenvektoren liegen; diese interpolieren zwischen diesen Datenbeispielen. Fig. 2 shows an example of the weight distribution of SOM neurons in a 2-dimensional state space of the process with an influence parameter (x-axis, w (i, 1) = w 1 i) and a target value (y-axis (w (i , 2) = w 2 i ). The serial number i (with i = 1... K) indicates the selected neurons i of the SOM network and thus the selected 2-dimensional weight vectors w i . The position of the weight vectors w of the neurons is marked by a gray circle, the neighborhood relationships - the SOM neurons belonging to the respective weights - are represented by a line, neurons connected by a line lie side by side on the SOM map, the white circles mark places where data vectors are available You can see that the majority of the SOM neurons have been placed there, but there are also neurons that lie between the data vectors, which interpolate between these data examples.

V2.2. Visualisierung des entfalteten Netzes als Karte durch Anwendung einer dy­ namischen Visualisierungsmethode, basierend auf den jeweiligen Gewinnerraten der Neuronen oder durch eine statische Visualisierungsmethode nach dem Prinzip der UMatrix-Methode.V2.2. Visualization of the unfolded network as a map using a dy Named visualization method, based on the respective winning rates of the Neurons or by a static visualization method based on the principle of UMatrix method.

Fig. 3 zeigt - hier in Schwarz/Weiß Darstellung - beispielhaft die strukturierte und farbkodierte, neuronale Security-Karte für den Herstellungsprozeß eines Maschi­ nenteiles. Es stellt die Projektion und Visualisierung von 30 Prozeßgrößen auf einer neuronalen Karte mit 20.30 Neuronen dar. In Fig. 3 gibt die x-Achse die Anzahl der Neuronen in x-Richtung, die y-Achse die Anzahl der Neuronen in y-Richtung an. Die Prozeßgrößen bestehen in diesem Beispiel aus den Zielgrößen Drehmoment und Lagertemperatur und 28 Einflußparametern. Fig. 3 shows - here in black and white representation - an example of the structured and color-coded, neural security card for the manufacturing process of a machine part. It represents the projection and visualization of 30 process variables on a neural map with 20.30 neurons. In FIG. 3, the x-axis indicates the number of neurons in the x-direction, the y-axis the number of neurons in the y-direction. In this example, the process variables consist of the target variables torque and bearing temperature and 28 influencing parameters.

Die hellen Flächen sind die ermittelten Stützstellen; Werte der Zielgröße Drehmo­ ment, die an diesen Steilen berechnet werden, sind sehr sicher. Die dunklen Gebie­ te auf der Karte bilden die Hülle zwischen diesen Stützstellen, da sie Neuronen darstellen, die im Zustandsraum zwischen den gelernten Daten angeordnet sind.The light areas are the determined support points; Torque target values ment calculated on these slopes are very safe. The dark areas te on the map form the envelope between these support points, since they are neurons represent, which are arranged in the state space between the learned data.

Obwohl in diesem Beispiel jeder Prozeßvektor durch 28 unabhängige Parameter (z. B. Bohrungsdurchmesser, Lagerlänge, Materialrauhigkeit) und 2 Zielgrößen (Drehmoment und Lagertemperatur) bestimmt wird und damit 30-dimensional ist, kann durch das Verfahren eine topologieerhaltende Projektion auf nur zwei Dimen­ sionen, die SOM-Karte, durchgeführt werden. Die Anzahl der gleichzeitig ausgewer­ teten Größen ist nicht auf 30 beschränkt, sie kann wesentlich höher sein. Entschei­ dend ist die topologieerhaltende Projektion. Im obengenannten Beispiel stellt jede Zielgröße ein Gebirge auf dem 28-dimensionalen Parameterraum dar und obwohl dieses Gebirge existiert, ist es mit herkömmlichen Methoden nicht zugänglich. Die Anzahl der Neuronen hängt a-priori nicht von der Anzahl der Prozeßgrößen ab. Die Neuronenanzahl sollte so groß wie möglich gewählt werden, sie wird in der Regel nur durch die Rechenleistung des zugrunde liegenden Neuro-Systems beschränkt.Although in this example each process vector has 28 independent parameters (e.g. bore diameter, bearing length, material roughness) and 2 target sizes (Torque and bearing temperature) is determined and is therefore 30-dimensional, can achieve a topology-preserving projection on only two dimensions sions, the SOM card. The number of selected at the same time sizes is not limited to 30, it can be much larger. Decide The topology preserving projection is the end. In the example above, each represents Target size represents a mountain on the 28-dimensional parameter space and although this mountain exists, it is not accessible by conventional methods. The The number of neurons does not depend a priori on the number of process variables. The The number of neurons should be chosen as large as possible, as a rule only limited by the computing power of the underlying neuro system.

Durch die SOM-Karte gelingt es, die grundlegenden topologischen Zusammenhänge der Gütefunktionen in dem hochdimensionalen Zustandsraum beizubehalten und auf 2 bzw. 3 Dimensionen zu projizieren und zu visualisieren. Damit bekommt ein Beob­ achter einen Einblick in die Struktur des hochdimensionalen Gebirges der Gütefunk­ tion oder - wie im Beispiel - einer Zielgröße.The SOM map manages the basic topological relationships to maintain the quality functions in the high-dimensional state space and on Project and visualize 2 or 3 dimensions. With this an ob eighth an insight into the structure of the high-dimensional mountains of the quality radio tion or - as in the example - a target.

Wie eingeführt, hat jedes Neuron M auf der Karte einen Gewichtsvektor wM mit n Elementen, mit wM = (w1 M, w2 M, w3 M, . . ., wi M, . . ., wn M). Mit wi wird die i-te Komponente eines Gewichtsvektors bezeichnet. Eine Komponentenkarte entsteht dadurch, daß man die Werte wi k aller Neuronen k der Karte über der SOM visualisiert. Da den Gewichtswerten jedes Neurons eindeutig der Wert der zugrundeliegenden Prozeß­ größen zugeordnet werden kann, erhält man durch diese Darstellung eine Verteilung der jeweiligen Zielgröße j über den gesamten Zustandsraum des Prozesses. Bei der Umrechnung von dem Gewichtswert in den realen Zielgrößenwert muß gegebenen­ falls die Skalierung beachtet werden. Die Visualisierung der so erhaltenen Werte über der SOM erfolgt im Falle des Gebirges höhenkodiert. Genausogut ist es mög­ lich, den Zielgrößenwert in einen Farbwert umzurechnen und auf der SOM aufzutra­ gen. Durch eine entsprechende Skala kann damit der Wert der Zielgröße abgelesen werden.As introduced, each neuron M on the map has a weight vector w M with n elements, with w M = (w 1 M , w 2 M , w 3 M ,..., W i M ,..., W n M ). W i denotes the i-th component of a weight vector. A component map is created by visualizing the values w i k of all neurons k on the map above the SOM. Since the weight values of each neuron can be unambiguously assigned the value of the underlying process variables, this representation provides a distribution of the respective target variable j over the entire state space of the process. When converting from the weight value to the real target value, the scaling must be taken into account if necessary. In the case of the mountains, the values obtained in this way are visualized above the SOM in height-coded form. It is just as possible to convert the target value into a color value and plot it on the SOM. The value of the target value can be read off on a corresponding scale.

Fig. 4 zeigt beispielhaft das auf eine SOM projizierte höhenkodierte Gebirge der Zielgröße Drehmoment. Dieses Bild entsteht durch Aufbau einer höhenkodierten Komponentenkarte für die Komponente Drehmoment. Die x- und y-Achse der Karte stellt dabei den Definitionsbereich der Zielgröße, die z-Achse stellt den Wertebe­ reich der Zielgröße dar, d. h. für jedes SOM-Neuron wird der dazugehörige Zielgrö­ ßenwert berechnet und in einem 3-dimensionalen Plot aufgetragen. Es ist zu beach­ ten, daß der Definitionsbereich nicht - wie gewöhnlich - aus physikalischen Werten zweier Einflußparameter, sondern gleichzeitig aus allen 28 Einflußgrößen besteht. Diese 28 Einflußparameter wurden zusammen mit den Zielgrößen topologieerhal­ tend auf die Karte abgebildet. Fig. 4 shows an example of the image projected onto a SOM encoded height mountains of the target torque. This image is created by building a height-coded component card for the torque component. The x- and y-axis of the map represents the definition range of the target size, the z-axis represents the range of values of the target size, ie for each SOM neuron the associated target size value is calculated and plotted in a 3-dimensional plot. It should be noted that the domain does not - as usual - consist of physical values of two influencing parameters, but simultaneously of all 28 influencing variables. These 28 influencing parameters were mapped onto the map together with the target variables preserving the topology.

Verfahrensschritt 3Process step 3 Anwendung - Optimierung einer Zielgröße des ProzessesApplication - optimization of a target size of the process

Da die realen Werte der Zielgröße als Gebirge über der SOM aufgetragen werden können, kann man einfach die gewünschten Werte auf dem Gebirge markieren und die dazugehörigen Parameterkombinationen ausgeben lassen. Dabei lassen sich die Zielwerte z. B. wie Höhenlinien auf dem Gebirge auftragen oder es ist möglich, auf dem Zielgrößengebirge einen Pfad P von zulässigen Werten zu definieren und für diesen Pfad alle dazugehörigen Parameterkombinationen von der SOM berech­ nen zu lassen. Fig. 4 stellt einen solchen Pfad - als dicke schwarze Linie - auf dem Gebirge eines Drehmomentes dar. Der so definierte Zielwert liegt normiert bei 700. Desweiteren ist es möglich, zulässige Bereiche Δz = zMAX-zMIN für die Zielgröße aus­ zuwählen. Dieser Bereich entspricht in den höhenkodierten Darstellungen einer To­ leranzbreite in z-Richtung, dieser Bereich ist damit wie ein zweifacher Schnitt paral­ lel zur x,y-Ebene, einmal in der Höhe zMAX und einmal bei zMIN zu betrachten. Since the real values of the target size can be plotted as mountains on top of the SOM, you can simply mark the desired values on the mountains and have the associated parameter combinations output. The target values can e.g. B. like contour lines on the mountains or it is possible to define a path P of permissible values on the target mountain range and let SOM calculate all associated parameter combinations for this path. Fig. 4 is such a path - as a thick black line -. In mount a torque represents the target value thus defined is normalized at 700. Furthermore, it is possible zuwählen allowable ranges Az = z max -z min for the target size. In the height-coded representations, this area corresponds to a tolerance range in the z direction. This area is thus to be considered as a double cut parallel to the x, y plane, once at the height z MAX and once at z MIN .

Die Grundidee ist, daß ausgehend von einem gewünschten Zielwert auf der SOM die zugrundeliegenden Optimierungsparameter ermittelt werden können.The basic idea is that based on a desired target value on the SOM the underlying optimization parameters can be determined.

Die Rückrechnung von der Zielgröße zu den Parametereinstellungen ist deshalb möglich, weil jedem Wert der Zielgröße im Definitionsbereich ein SOM-Neuron zu­ geordnet werden kann. Z.B. wird für den in Fig. 4 geforderten Wert Z2 das Neuron M auf der Karte angewählt. Durch diese Anwahl des Neurons M werden die jeweiligen Gewichtsvektoren wM ausgegeben und in die realen Werte der Prozeßparameter umgerechnet. Dadurch lassen sich genau die gesuchten Parameterkonfigurationen p1, p2, . . ., pN ermitteln, die eben zu dem gewünschten Zielwert geführt haben. Diese gefundenen Parameterkombinationen können durch ein nachgeschaltetes Verfahren auf Plausibilität untersucht werden und, wenn gefordert, an den Prozeß on-line oder off-line ausgegeben werden.The back calculation from the target variable to the parameter settings is possible because a SOM neuron can be assigned to each value of the target variable in the definition area. For example, for the value Z2 required in FIG. 4, the neuron M is selected on the card. By selecting the neuron M, the respective weight vectors w M are output and converted into the real values of the process parameters. This allows the parameter configurations p 1 , p 2 ,. . ., p N determine which have just led to the desired target value. These parameter combinations found can be checked for plausibility by a subsequent process and, if required, output to the process on-line or off-line.

Dadurch, daß das Gebirge der Zielgröße grafisch visualisiert ist, ist es ohne weite­ res möglich, auch die Minima oder Maxima der Zielgröße auszuwählen; man sieht weiterhin auch für den Fall, daß es mehrere Bereiche mit den gleichen Werten der Zielgröße gibt, die Einbettung dieses Wertes in den Kontext anderer Werte. Damit lassen sich robuste und fehlertolerante Optimierungen ermitteln, denn man wird im Zweifelsfall nicht den Zielwert an einem steilen Hang des Gebirges auswählen, z. B. Z1 in Fig. 4, wenn es noch eine Alternative auf einem Plateau gibt, z. B. Z2 in Fig. 4. Beide Punkte entsprechen einem gleichen numerischen Wert von 800 für die Ziel­ größe, siehe z-Achse, Z2 ist aber wesentlich stabiler. Man findet damit für eine ge­ forderte Zielgröße Parameterkombinationen, die zusätzlich noch relativ robust ge­ genüber kleinen Änderungen in den Parameterwerten sind.Because the mountain range of the target size is graphically visualized, it is possible to select the minima or maxima of the target size without further res; furthermore, in the event that there are several areas with the same values of the target size, this value is embedded in the context of other values. Robust and fault-tolerant optimizations can be determined with this, because in case of doubt one will not select the target value on a steep slope of the mountain, e.g. B. Z1 in Fig. 4, if there is still an alternative on a plateau, e.g. B. Z2 in Fig. 4. Both points correspond to a same numerical value of 800 for the target size, see z-axis, but Z2 is much more stable. You can find parameter combinations for a required target value that are also relatively robust against small changes in the parameter values.

Die eigentliche Optimierung geschieht demnach durch die Auswahl des gewünsch­ ten Zielwertes z auf dem SOM-Gebirge und die anschließende Berechnung der zu­ grundeliegenden Parameterkombinationen p1, . . ., pN durch die SOM-Karte. Die SOM-Karte kann damit wie ein inverses Modell f verwendet werden, mit (p1, . . . pN) = f(zj).The actual optimization is accordingly carried out by selecting the desired target value z on the SOM mountain range and then calculating the parameter combinations p 1 ,. . ., p N through the SOM card. The SOM map can thus be used like an inverse model f, with (p 1 ,... P N ) = f (z j ).

Die Auswahl des gewünschten Zielwertes geschieht weiterhin im Kontext des ge­ samten Zielgrößengebirges. Damit lassen sich für den Fall, daß es mehrere ähnliche Zielwerte gibt, diejenigen auffinden, die im Hinblick auf andere Eigenschaften am günstigsten für die Optimierungsaufgabe sind. Am günstigsten könnte z. B. am robu­ stesten sein, da die Zielgröße auf einem Plateau des Gebirges liegt.The desired target value continues to be selected in the context of the ge entire mountain range. This can be used in the event that there are several similar ones  Target values are there to find those who are most interested in other properties are cheapest for the optimization task. The cheapest could, for. B. on robu be tested because the target size is on a plateau of the mountains.

Auch die Suche nach Minima oder Maxima ist sehr einfach, da man dem Gebirge ohne weiteres ansieht, wo ein Berg MAX oder ein Tal MIN ist. Genau an diesen Stellen hat man ein Minimum oder ein Maximum gefunden und kann sich die dazu­ gehörige Parameterkombination ausgeben lassen. Entscheidend ist, daß die Karte interpolieren kann und damit Zielwerte dargestellt und ausgewählt werden können, die in den Optimierungsbeispielen nicht vorhanden waren. Im Zusammenhang mit der kontextabhängigen Auswahl, lassen sich damit robuste Optimierungen realisie­ ren, die ohne zugrundeliegendes mathematisches Modell durchgeführt werden kön­ nen und die damit universell anwendbar sind.The search for minima or maxima is very easy as you can see the mountains readily looks at where a mountain is MAX or a valley is MIN. Exactly on this You have found a minimum or a maximum and can add them have the appropriate combination of parameters output. The key is that the card can interpolate and thus target values can be displayed and selected, that were not present in the optimization examples. In connection with the context-dependent selection, robust optimizations can be realized that can be carried out without an underlying mathematical model and which are therefore universally applicable.

Benutzt man weiterhin die in Fig. 3 dargestellten Ergebnisse der Security-SOM über die Sicherheit der SOM-Berechnung, kann man auf dem Gebirge auch noch zwi­ schen sicheren und unsicheren Optimierungsergebnissen unterscheiden. Damit kann man eine Aussage darüber erhalten, wie wahrscheinlich der Verlauf des SOM- Gebirges mit der Realität im Zustandsraum P übereinstimmt. Helle Ausprägungen des Gebirges haben eine hohe Sicherheit, dunkle Darstellungen entsprechen unsi­ cheren Gebirgsverläufen.If one continues to use the results of the security SOM shown in FIG. 3 on the security of the SOM calculation, one can also distinguish between safe and unsafe optimization results on the mountains. This can be used to obtain a statement as to how likely the course of the SOM mountains corresponds to the reality in state space P. Light forms of the mountains have a high degree of security, dark representations correspond to unsafe mountain courses.

Die Plateaus der Zielgröße sind besonders dann interessant, wenn robuste Optimie­ rungen gesucht werden, Optimierungen also, bei denen Änderungen in den Einfluß­ parametern nicht zu gravierenden Änderungen der Zielgröße führen. Gerade für die­ se sog. fehlertolerante Optimierung, sind diese Plateaus eine völlig neuartige Mög­ lichkeit der Parameterauswahl. Sie ist generell anwendbar, nichtlinear und auch in­ tuitiv verstehbar, denn ein Zielwert auf einem Plateau bedeutet, daß dieser bei klei­ neren Änderungen von Werten der Einflußgrößen auf dem Plateau wandern wird, daß sich damit sein numerischen Wert nur sehr wenig ändert. Andererseits reagiert ein Zielgrößenwert, z. B. zM, dessen zugehöriges Neuron M auf dem Hang eines Gebirges liegt sehr empfindlich auf Änderungen in den Einflußgrößen p1, . . ., pN. Klei­ ne Änderungen von p1, . . ., pN bewirken auch hier nur, daß Neuronen um das ur­ sprüngliche Gewinnerneuron M ausgewählt werden, die Zielgrößenwerte für diese benachbarten Neuronen können sich aber groß verändern, da ihr Zielgrößenwert auf einem Gebirgshang liegt.The plateaus of the target variable are particularly interesting when robust optimizations are sought, i.e. optimizations in which changes in the influencing parameters do not lead to serious changes in the target variable. Especially for this so-called fault-tolerant optimization, these plateaus are a completely new way of selecting parameters. It is generally applicable, non-linear and also understandable in a intuitive way, because a target value on a plateau means that this will migrate on the plateau when the values of the influencing variables change smaller, so that its numerical value changes very little. On the other hand, a target value value, e.g. B. z M , whose associated neuron M lies on the slope of a mountain range is very sensitive to changes in the influencing variables p 1 . . ., p N. Small changes of p 1 ,. . ., p N also only cause neurons around the original winning neuron M to be selected here, but the target value values for these neighboring neurons can change greatly since their target value value lies on a mountain slope.

Weiterhin ist es möglich, aufbauend auf den Werten einer Zielgröße eine Gütefunk­ tion Q zu berechnen und diese anstatt der Zielgröße selbst darzustellen.It is also possible to build a quality radio based on the values of a target variable tion Q and calculate this instead of the target size itself.

Verfahrensschritt 4Step 4 Anwendung - Polyoptimierung mehrerer ZielgrößenApplication - polyoptimization of multiple targets

Für den Fall, daß mit der Karte mehrere Zielgrößen L trainiert wurden (2 < = L « N), können diese Zielgrößen miteinander ausgewertet werden, indem eine Gütefunktion G eingeführt wird, die aus mehreren Zielgrößen berechnet wird. Da jede Zielgröße als Gebirge über der Karte dargestellt werden kann, erhält man durch Überlagerung dieser Gebirge ein völlig neues Gebirge, mit veränderten Eigenschaften. Minima und Maxima auf diesem neuen Gebirge geben an, daß hier z. B. der Zielgrößenvektor aller Zielgrößen minimal oder maximal ist. Dadurch lassen sich die besten Kompro­ misse für die überlagerten Zielgrößen finden.In the event that several target variables L have been trained with the card (2 <= L «N), these target variables can be evaluated together using a quality function G is introduced, which is calculated from several target values. Because every target size can be shown as mountains above the map, obtained by overlaying this mountain range is a completely new mountain range with different properties. Minima and Maxima on this new mountain range indicate that z. B. the target vector of all targets is minimal or maximal. This allows the best compro find miss for the superimposed target values.

Fig. 5. zeigt ein Beispiel, bei dem die Zielgröße Drehmoment (Teil A, Fig. 5) und Lagertemperatur (Teil B, Fig. 5) überlagert wurden. Das entstandene Gebirge GEB ist in Teil C von Fig. 5 dargestellt. Für diese Überlagerung gibt es mehrere Möglich­ keiten: Zum einen kann eine einfache additive Überlagerung der Zielgrößen reali­ siert werden, indem für jedes Neuron M auf der Karte die L Zielgrößenwerte, die in den Gewichtsvektor w eines Neurons M gespeichert sind, aufaddiert werden:
FIG. 5 shows an example in which the target variable torque (part A, FIG. 5) and bearing temperature (part B, FIG. 5) have been superimposed. The resulting mountain GEB is shown in part C of FIG. 5. There are several possibilities for this overlay: On the one hand, a simple additive overlay of the target variables can be realized by adding up the L target variable values, which are stored in the weight vector w of a neuron M, for each neuron M on the map:

wertG M = wertz1 M + wertz2 M + . . . + wertzj M + . . . + wertzL M (8)
value G M = value z1 M + value z2 M +. . . + worth z M +. . . + worth zL M (8)

mit M = 1 . . . k und wertG M als Wert der neuen - aus dem Vektor berechneten - Güte­ funktion G an der Stelle M der Karte und wertzj M als Ausgangswert der j-ten Zielgrö­ ße an der Stelle M der Karte. In Teil C von Fig. 5 wurde das Ergebnis einer einfa­ chen additiven Überlagerung der zwei Zielgrößen Drehmoment und Lagertemperatur dargestellt. with M = 1. . . k and value G M as the value of the new quality function G calculated from the vector at the point M on the map and value zj M as the starting value of the jth target variable at the point M on the map. In part C of FIG. 5, the result of a simple additive superimposition of the two target variables torque and bearing temperature was shown.

Andererseits ist es auch möglich, bestimmte Zielgrößen mehr als andere zu wichten. Das geschieht dadurch, daß eine gewichtete Überlagerung der Zielgrößen z1, z2, . . ., zL durchgeführt wird.On the other hand, it is also possible to weight certain targets more than others. This is done in that a weighted overlay of the target variables z 1 , z 2 ,. . ., z L is carried out.

wertG M = a1.wertz1 M + a2.wertz2 M + . . . + aL.wertzL M (9)value G M = a 1 .value z1 M + a 2 .value z2 M +. . . + a L. value zL M (9)

Allgemein läßt sich damit jede gewünschte Gütefunktion aus den Zielgrößen be­ rechnen, mit
In general, any desired quality function can be calculated from the target values

G = f (z1, z2, . . ., zL). (10)G = f (z 1 , z 2 , ... , Z L ). (10)

Die Funktion f kann jede beliebige mathematische Funktion sein. Nach Berechnung der neuen Werte wertG an allen Stellen auf der Karte, d. h. für alle Neuronen, und gegebenenfalls nach anschließender Skalierung wird das Ergebnis wieder als Ge­ birge GEB über der Karte aufgetragen. Auf diese Weise läßt sich eine universelle Optimierung gleichzeitig für mehrere Zielgrößen durchführen, denn ausgehend von diesem neuen Gebirge lassen sich für jeden gewünschten Zielwert die zugrundelie­ genden Parameterkombinationen berechnen, nach (p1 . . . pN) = g(f(z1, z2, . . . zL)), mit g entspricht einer inversen Abbildung zwischen den Parametern P und den Zielgrößen Z. Die Funktion g muß im mathematischen Sinne nicht existieren, sie wurde durch das SOM-Verfahren während der Entfaltung ermittelt.The function f can be any mathematical function. After calculating the new values of value G at all points on the map, ie for all neurons, and if necessary after subsequent scaling, the result is again plotted as a mountain GEB on the map. In this way, universal optimization can be carried out simultaneously for several target values, because starting from this new mountain range, the underlying parameter combinations can be calculated for each desired target value, according to (p 1 ... P N ) = g (f (z 1 , z 2 ,... z L )), with g corresponds to an inverse mapping between the parameters P and the target variables Z. The function g does not have to exist in the mathematical sense, it was determined by the SOM method during the unfolding.

Da auch die Gütefunktion G stets als Gebirge GEB dargestellt werden kann, stellt das Verfahren eine Erweiterung gegenwärtiger Methoden der Mehrgrößenoptimie­ rung (Polyoptimum) in Forschung, Entwicklung und Konstruktion und in industriellen und chemischen Prozessen dar. Der Vorteil ist, daß ein Minimum oder Maximum auch der Kompromißlösung, einfach grafisch ermittelt wird und die jeweils dazuge­ hörigen Parameterkombinationen ausgeben werden können. Der Anwender muß nur die Zielgrößen seiner Wahl miteinander verknüpfen und die entstandene Gütefunk­ tion wird als neues Gebirge dargestellt.Since the quality function G can always be represented as mountains GEB, the process is an extension of current methods of multivariable optimization tion (polyoptimum) in research, development and construction and in industrial and chemical processes. The advantage is that a minimum or maximum also the compromise solution, which is simply determined graphically and which adds to it appropriate combinations of parameters can be output. The user only has to link the target variables of his choice and the resulting quality radio tion is represented as a new mountain range.

Verfahrensschritt 5Process step 5 Anwendung - Verifizierung der AnalyseergebnisseApplication - verification of analysis results

Zur Verifizierung der Parameteroptimierung wird ein neuronales feed-forward-Netz verwendet, welches den gleichen Versuchsprozeß wie die SOM modelliert hat. Im Unterschied zur SOM werden bei den neuronalen feed-forward-Netzen die Ein- und Ausgänge getrennt behandelt. Alle Parameter, d. h. alle Einflußgrößen für die Opti­ mierung, werden an die Netzeingänge gelegt. Alle Zielgrößen werden mit den Netzausgängen verbunden. Durch Anwendung verschiedener neuronaler Lernver­ fahren erlernt das Netz eine Approximation zwischen seinen Ein- und Ausgängen. Dadurch kann man den gesamten Prozeß modellieren.A neural feed-forward network is used to verify the parameter optimization used, which modeled the same test process as the SOM. in the  The difference between SOM and the neural feed-forward networks is the input and Outputs treated separately. All parameters, i.e. H. all influencing variables for the opti mation, are connected to the network inputs. All targets are measured with the Network outputs connected. By using different neuronal learning methods the network learns an approximation between its inputs and outputs. This allows you to model the entire process.

Ein feed-forward-Netz ist ein eingeführter Begriff für eine Klasse von Netzen, deren Neuronen geschichtet angeordnet sind und bei denen es keine Rückführungen zwi­ schen Neuronen einer höheren zu Neuronen einer niedereren Schicht gibt; siehe A. Zell, "Simulation Neuronaler Netze", Addison Wesley Verlag, 1. Auflage, 1994, Sei­ ten 76 bis 78. Diese Netze sind geeignet, statische und dynamische Modelle zwi­ schen gewählten Größen aufzubauen. Ausgehend von einem neuronalen Modell, das zwischen den Versuchsparametern p1, p2, . . . pN und der Zielgröße zj aufgebaut - wurde, kann dieses Modell zum Verifizieren der Parameteroptimierung verwendet werden.A feed-forward network is an established term for a class of networks whose neurons are arranged in layers and in which there are no returns between neurons of a higher level to neurons of a lower level; see A. Zell, "Simulation of Neural Networks", Addison Wesley Verlag, 1st edition, 1994, pages 76 to 78. These networks are suitable for establishing static and dynamic models between selected sizes. Starting from a neural model that lies between the test parameters p 1 , p 2 ,. . . p N and the target variable z j - this model can be used to verify the parameter optimization.

Fig. 6 verdeutlicht das Prinzip. Dabei muß das feed-forward-Netzmodell mit den gleichen Versuchsbeispielen wie die SOM trainiert werden. Als neuronales feed­ forward-Netzmodell wird ein Security-RB F-Modell aufgebaut. Ein Security-Netz ist ein Netz, daß zusätzlich zu seinen Modellausgangswert angibt, wie sicher dieser Modellausgangswert ist. Diese Sicherheit kann z. B. durch einen Zahlenwert von 0 . . . 100% ausgegeben werden: 0% bedeutet dabei keine Sicherheit, 100% bedeutet, daß das Netz-Ergebnis ganz sicher ist. Fig. 6 illustrates the principle. The feed-forward network model must be trained using the same experimental examples as the SOM. A security RB F model is set up as a neural feed forward network model. A security network is a network that, in addition to its model output value, specifies how secure this model output value is. This security can e.g. B. by a numerical value of 0. . . 100% are output: 0% means no security, 100% means that the network result is completely secure.

Bei Verwendung geeigneter, lokal approximierender Netze, z. B. RBF-Netze (siehe A. Zell, Seite 225 bis 239), ist es möglich, solche Security-Netze aufzubauen. RBF-Netze sind 3-schichtige Netzwerke, deren verdeckte Hidden-Schicht aus Neuronen besteht, die eine gaußförmige Aktivierungsfunktion haben. Ihre maximale Aus­ gangsaktivität ist auf einen kleinen Eingangsbereich beschränkt. Diese Neuronen sind damit nur lokal für einen kleinen n-dimensionalen, hyperkugligen Eingangsbe­ reich sensitiv. Liegt der Eingangsvektor in diesem Bereich, hat das jeweilige Hidden- Neuron seine maximale Ausgangsaktivität, die anderen Hidden-Neuronen haben eine entsprechend geringere Aktivität (siehe A. Zell). When using suitable, locally approximating networks, e.g. B. RBF networks (see A. Zell, pages 225 to 239), it is possible to set up such security networks. RBF networks are 3-layer networks, whose hidden hidden layer consists of neurons exists that have a Gaussian activation function. Your maximum out gait activity is limited to a small entrance area. These neurons are only local for a small n-dimensional, hyper-spherical entrance richly sensitive. If the input vector lies in this area, the respective hidden Neuron its maximum output activity that other hidden neurons have a correspondingly lower activity (see A. Zell).  

Durch Berechnung eines Abstandsmaßes zwischen angelegtem Eingangsvektor und dem Hidden-Neuron mit maximaler Aktivität, erhält man ein Maß dafür, ob das Netz gegenwärtig in einem Bereich angewendet wird, in dem es nicht trainiert wurde. Ist dieses Abstandsmaßes groß, heißt das, daß der Eingangsvektor sehr weit von den Stützstellen des RBF-Netzes entfernt ist. Damit ist das Ergebnis des Netzes relativ unsicher, denn neuronale Netze interpolieren zwischen den gelernten Stützstellen. Diese Interpolation ist um so unsicherer, je weiter der Wert von den nächsten Stütz­ stellen entfernt ist. Befindet sich der aktuelle Ausgangswert im Extrapolationsraum, ist das Ergebnis noch unsicherer.By calculating a distance measure between the input vector and the hidden neuron with maximum activity, you get a measure of whether the network is currently being used in an area where it has not been trained. Is this distance measure large, it means that the input vector is very far from the Support points of the RBF network is removed. The result of the network is relative uncertain, because neural networks interpolate between the learned support points. This interpolation is the more uncertain the further the value from the next support is removed. If the current starting value is in the extrapolation space, the result is even more uncertain.

Ein Beispiel für die Berechnung des Security Wertes SWRBF ist:
An example for the calculation of the security value SW RBF is:

SWRBF [%] = activityWINNER[%]-MSELearn[%] (11)
SW RBF [%] = activity WINNER [%] - MSE Learn [%] (11)

wobei SWRBF der Sicherheitswert der Netzantwort in Prozent ist, activityWINNER gibt die Aktivitätsantwort des Gewinnerneurons auf einen Eingangswert multipliziert mit 100% an und MSELearn ist der mittlere Lernfehler des Netzes, aufgenommen während des Trainings. Damit kann der Securitywert nicht größer als die Genauigkeit wäh­ rend des Lernvorganges sein. Der Aktivitätswert ist ein Maß für den Abstand des Eingangsvektor zu der am nächsten gelegenen gelernten Stützstelle. Dadurch ent­ steht ein Security-RBF-Netz, das für jede Simulation nicht nur das Simulationser­ gebnis, sondern auch eine Sicherheit des Ergebnisses berechnet und ausgibt.where SW RBF is the security value of the network response in percent, activity WINNER indicates the activity response of the winning neuron to an input value multiplied by 100% and MSE Learn is the average learning error of the network, recorded during the training. This means that the security value cannot be greater than the accuracy during the learning process. The activity value is a measure of the distance of the input vector to the closest learned support point. This creates a security RBF network that not only calculates and outputs a security of the result for each simulation, but also a security of the result.

V5.1. Die für einen ausgewählten Zielgrößenwert zj ermittelten optimalen Testpara­ meter p1topt, . . ., pNtopt in Fig. 6 werden den Security-RBF-Netz angeboten und die da­ zugehörige Zielgröße zj.TEST ermittelt. Stimmt zj,TEST mit zj annähernd überein, ist also die Differenz DIFF = |zj-zj,TEST| kleiner als ein vorgegebener Wert OK, sind die Ergebnisse der SOM verifiziert, da die beiden grundlegend-verschiedenen Neu­ romodelle gleiche Modellergebnisse berechnet haben. Damit hat man die N verifi­ zierten, optimalen Parameter p1opt, . . ., pNopt für den gewünschten Zielwert bestätigt. Im Negativfall muß die Auswahl zj,TEST iterativ neu erfolgen bzw. die SOM- oder das RBF-Modell neu trainiert werden. V5.1. The optimal test parameters p 1topt,. Determined for a selected target value z j . . ., p Ntopt in FIG. 6, the security RBF network is offered and the associated target variable z j.TEST is determined. If z j, TEST approximately matches z j , then the difference is DIFF = | z j -z j, TEST | less than a given value OK, the results of the SOM are verified, since the two fundamentally different new rom models have calculated the same model results. So you have the N verifi ed, optimal parameters p 1opt,. . ., p Nopt confirmed for the desired target value. In the negative case, the selection z j, TEST has to be made iteratively new or the SOM or RBF model has to be retrained.

Das heißt, mit der SOM sucht man ausgehend von dem gewünschten Zielwert zj die dazugehörigen Parameter und mit dem Security-RBF-Netz verifiziert man diese Er­ gebnisse, da die jeweiligen Parameter wieder zu dem auf der SOM ausgewählten Zielwert führen müssen.This means that the SOM is used to search for the associated parameters based on the desired target value z j and these results are verified with the Security RBF network, since the respective parameters must lead to the target value selected on the SOM.

V5.2. Im Falle der Polyoptimierung müssen die mit der SOM ausgesuchten Parame­ terkombinationen für einen Kompromißwert (z. B. Minimum oder Maximum) durch das Security-RBF-Netz annähernd zu den - auf der SOM ausgewählten - einzelnen Wer­ ten jeder Zielgröße führen.V5.2. In the case of poly optimization, the parameters selected with the SOM combinations for a compromise value (e.g. minimum or maximum) by the Security RBF network approximates the individual who selected at the SOM of every target.

Durch die Kombination des zielorientierten Ansatzes der SOM mit den Verifikati­ onsmöglichkeiten eines feed-forward-Modells lassen sich die gegenwärtigen Metho­ den der Optimierung erweitern, da die hier beschriebenen Verfahren nichtlinear und universell, d. h. ohne zugrundeliegendes mathematisches Modell, anwendbar sind. Insbesondere können Optimierungen ermittelt werden, die robust gegenüber Ände­ rungen in den Optimierungsparametern p sind.By combining the goal-oriented approach of the SOM with the verification Possibilities of a feed-forward model can be the current metho expand the optimization, since the methods described here are nonlinear and universal, d. H. without an underlying mathematical model. In particular, optimizations can be determined that are robust against changes are in the optimization parameters p.

Ein weiterer Vorteil des Verfahrens liegt in dem geringen Engineering-Aufwand. Da das Lernen und Strukturieren der Karten vollständig durch das Verfahren erbracht wird, entfällt aufwendiges Engineering oder Parametrisieren von Regeln, Modellen, oder Differentialgleichungen. Das Engineering ist integraler Bestandteil des Verfah­ rens selbst.Another advantage of the process is the low engineering effort. There the learning and structuring of the cards is fully accomplished through the process time-consuming engineering or parameterization of rules, models, or differential equations. Engineering is an integral part of the process rens himself.

Claims (9)

1. Verfahren zur Lösung von Optimierungsaufgaben in Forschung, Entwick­ lung und Konstruktion und zum Optimieren von technischen oder chemischen Pro­ dukten und von Prozessen zur Herstellung dieser Produkte, bei dem alle für die Op­ timierung relevanten Größen zusammengefaßt und durch eine neuronale Analyse auf der Grundlage selbstorganisierender Karten, sogenannter SOM, in Beziehung zueinander ausgewertet werden, indem eine topologieerhaltende, nichtlineare Pro­ jektion von Daten der relevanten Parameter und die dazugehörigen Zielgrößen auf eine mehrdimensionale SOM realisiert wird, wobei zur Optimierung einer Zielgröße diese als SOM-Komponentenkarte entweder höhenkodiert in Form eines Gebirges (GEB) oder farbkodiert visualisiert wird und nach einer Auswahl von Werten der Zielgröße (Z1, Z2) auf der SOM-Komponentenkarte die zugrundeliegenden Parame­ terkombinationen berechnet und ausgegeben werden.1. Procedure for solving optimization tasks in research, development development and design and to optimize technical or chemical pro products and processes for the production of these products, in which all for the Op Relevant variables summarized and by a neural analysis on the basis of self-organizing cards, so-called SOM can be evaluated to each other by using a topology-preserving, non-linear pro injection of data of the relevant parameters and the associated target values a multidimensional SOM is realized, whereby to optimize a target size this as a SOM component card either height-coded in the form of a mountain range (GEB) or color-coded and after a selection of values from the Target size (Z1, Z2) on the SOM component card the underlying parameters combinations can be calculated and output. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß Produkte aus dem Bereich Maschinen -und Fahrzeugbau, des Anlagenbaus, der Feinwerktechnik, der Chemischen und der Gentechnische Industrie sowie Werkstoffe optimiert wer­ den.2. The method according to claim 1, characterized in that products from the area of machine and vehicle construction, plant construction, precision engineering, the chemical and genetic engineering industries as well as materials the. 3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß Produkte des Anlagenbaus Komponenten der Kraftwerkstechnik sind.3. The method according to claim 2, characterized in that products of Plant engineering are components of power plant technology. 4. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekenn­ zeichnet, daß im Fall höhenkodierter Darstellung die gewünschten Werte einer Ziel­ größe durch eine oder mehrere Höhenlinien auf dem Zielgrößengebirge oder durch Festlegung eines Pfades (P), eines Bereiches oder eines Plateaus auf dem Gebirge ausgewählt werden.4. The method according to any one of the preceding claims, characterized records that in the case of height-coded representation the desired values of a target size by one or more contour lines on the target mountain range or by Definition of a path (P), an area or a plateau on the mountain to be chosen. 5. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekenn­ zeichnet, daß das Zielgrößengebirge mit den Sicherheitswerten einer Security-SOM verglichen werden, um die Bereiche auf der SOM zu identifizieren, die die sichersten Werte für die Optimierung repräsentieren.5. The method according to any one of the preceding claims, characterized records that the target mountain range with the security values of a security SOM  be compared to identify the areas on the SOM that are the safest Represent values for optimization. 6. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekenn­ zeichnet, daß mehrere Zielgrößen nach Art einer Polyoptimierung gleichzeitig und zusammenhängend optimiert werden, indem die ausgewählten Zielgrößen durch eine beliebige mathematische Funktion miteinander verknüpft werden und die resul­ tierende Gütefunktion (G) als Gebirge (GEB) über der SOM aufgetragen wird, und ausgehend von dem neuen Gebirge die zugrundeliegenden Parameterwerte ermittelt werden.6. The method according to any one of the preceding claims, characterized records that several target quantities in the manner of a polyoptimization simultaneously and can be coherently optimized by selecting the target values any mathematical function can be linked together and the resul quality function (G) as mountains (GEB) over which SOM is plotted, and the underlying parameter values are determined on the basis of the new mountain range become. 7. Verfahren nach Anspruch 4 oder 6, dadurch gekennzeichnet, daß auf dem überlagerten Gebirge (GEB) Höhenlinien, Pfade, Bereiche oder Plateaus eingetra­ gen werden und die dazugehörigen Parameterkombinationen ermitteln werden.7. The method according to claim 4 or 6, characterized in that on the overlaid mountains (GEB) contour lines, paths, areas or plateaus and the associated parameter combinations will be determined. 8. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekenn­ zeichnet, daß seine Durchführung in nachstehenden Schritten erfolgt:
  • a) Aufnahme und Auswahl der Versuchsparameter und Aufbereitung der Daten,
  • b) Entfaltung des selbstorganisierenden, neuronalen Netzes im Zustandsraum des Prozesses, basierend auf dem SOM-Algorithmus, wobei die Werte der relevanten Versuchsparameter verwendet werden,
  • c) Darstellung des entfalteten Netzes als neuronale Karte,
  • d) gegebenenfalls Projektion des hochdimensionalen Parameterraums auf die neuronale Karte, basierend auf der UMatrix-Methode oder mittels sogenann­ ter winner-takes-all Algorithmen, mit anschließender Visualisierung der auf­ summierten Gewinnerraten der einzelnen Neuronen auf der Karte zum Auf­ bau einer Security-SOM,
  • e) Darstellung der Zielgrößen höhen- oder farbkodiert auf der SOM,
  • f) im Fall höhenkodierter Darstellung:
    Festlegung von Höhenlinien, Pfaden oder Bereichen auf der SOM zur Aus­ wahl der gewünschten Werte der Zielgrößen,
  • g) Berechnung der den gewünschten Zielwerten zugrundeliegenden Parame­ terkombinationen,
  • h) gegebenenfalls gewichtete oder ungewichtete Überlagerung der Gebirge mehrerer Zielgrößen und Festlegung der gewünschten Bereiche auf der neu entstandenen Zielgrößen- oder Gütefunktionsverteilung.
8. The method according to any one of the preceding claims, characterized in that it is carried out in the following steps:
  • a) recording and selection of the test parameters and preparation of the data,
  • b) unfolding the self-organizing, neural network in the state space of the process, based on the SOM algorithm, using the values of the relevant test parameters,
  • c) representation of the unfolded network as a neural map,
  • d) where appropriate, projection of the high-dimensional parameter space onto the neural map, based on the UMatrix method or by means of so-called ter winner-takes-all algorithms, with subsequent visualization of the summed-up winner rates of the individual neurons on the map to build up a security SOM,
  • e) Representation of the target values in height or color coding on the SOM,
  • f) in the case of height-coded representation:
    Definition of contour lines, paths or areas on the SOM to select the desired values of the target values,
  • g) calculation of the parameter combinations on which the desired target values are based,
  • h) if necessary, weighted or unweighted superposition of the mountains of several target variables and determination of the desired areas on the newly created target variable or quality function distribution.
9. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekenn­ zeichnet, daß die Ergebnisse, die mittels der SOM erhalten wurden, durch ein nach­ geschaltetes Security-RBF-Modell verifiziert werden.9. The method according to any one of the preceding claims, characterized notes that the results obtained by the SOM are shown by a switched security RBF model are verified.
DE1997142906 1997-09-29 1997-09-29 Optimizing products and their production processes by neural analysis Ceased DE19742906A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1997142906 DE19742906A1 (en) 1997-09-29 1997-09-29 Optimizing products and their production processes by neural analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1997142906 DE19742906A1 (en) 1997-09-29 1997-09-29 Optimizing products and their production processes by neural analysis

Publications (1)

Publication Number Publication Date
DE19742906A1 true DE19742906A1 (en) 1999-05-06

Family

ID=7843959

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1997142906 Ceased DE19742906A1 (en) 1997-09-29 1997-09-29 Optimizing products and their production processes by neural analysis

Country Status (1)

Country Link
DE (1) DE19742906A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10137790A1 (en) * 2001-08-06 2003-02-20 Wittenstein Ag Computer based method for determining one or more solutions to a multi-parameter system by input of possible values for parameters and relationships between them and evaluation of possible solutions
WO2004021229A1 (en) * 2002-08-23 2004-03-11 Siemens Aktiengesellschaft Method and device for optimizing processes
DE10222699B4 (en) * 2002-05-22 2005-06-16 Bayerische Motoren Werke Ag Computer-aided method and apparatus for optimizing vehicle structures and components
CN103010336A (en) * 2012-12-27 2013-04-03 潍柴动力股份有限公司 Method and device for adjusting parameters of each part of automobile power assembly
EP3495900A1 (en) * 2017-12-11 2019-06-12 Siemens Aktiengesellschaft Optimizing of processes based on self-organizing maps

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3710990A1 (en) * 1986-04-02 1987-10-22 Hitachi Ltd OPERATING SYSTEM AND METHOD FOR STARTING A THERMAL POWER PLANT
DE4029774A1 (en) * 1989-09-20 1992-11-19 Ibm MULTI-DIMENSIONAL IMAGE ANALYSIS
DE4443192A1 (en) * 1994-12-05 1996-06-13 Siemens Ag Method for displaying an n'th variable in a three-dimensional map and associated arrangement
DE19637651A1 (en) * 1996-09-16 1998-03-19 Abb Patent Gmbh Process visualization methods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3710990A1 (en) * 1986-04-02 1987-10-22 Hitachi Ltd OPERATING SYSTEM AND METHOD FOR STARTING A THERMAL POWER PLANT
DE4029774A1 (en) * 1989-09-20 1992-11-19 Ibm MULTI-DIMENSIONAL IMAGE ANALYSIS
DE4443192A1 (en) * 1994-12-05 1996-06-13 Siemens Ag Method for displaying an n'th variable in a three-dimensional map and associated arrangement
DE19637651A1 (en) * 1996-09-16 1998-03-19 Abb Patent Gmbh Process visualization methods

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
GEHLEN,Stefan, u.a.: Einsatz Neuronaler Netze zur Kontrolle komplexer industrieller Prozesse. In: at - Automatisierungstechnik 43, 1995, 2, S.85-91 *
GIEREND,Chr.: Feuerungsregelung durch Fuzzy Control. In: VGB Kraftwerkstechnik 76, 1996, H.6, S.487-497 *
HAMPEL,Rainer, CHAKER,Nasredin: Dampfturbinen- regelung mit Fuzzy-Logik. In: atp - Automatisierungstechnische Praxis 37, 1995, 6, S.32-41 *
Prozeßmodelle auf Basis Neuronaler Netze. In: atp 4/97, S.66 *
ROJAS,PaUl: Theorie der neuronalen Netze, Springer-Verlag, Berlin u.a., 1993, S.339-359 *
SPUR,Günter, KRAUSE,Frank-Lothar: CAD-Technik, Carl Hanser Verlag, München, Wien, 1984, S.282- S.285 *
WENZEL,Lothar: Optimalstrategie. In: mc extra, 10/95, S.30-33 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10137790A1 (en) * 2001-08-06 2003-02-20 Wittenstein Ag Computer based method for determining one or more solutions to a multi-parameter system by input of possible values for parameters and relationships between them and evaluation of possible solutions
DE10222699B4 (en) * 2002-05-22 2005-06-16 Bayerische Motoren Werke Ag Computer-aided method and apparatus for optimizing vehicle structures and components
WO2004021229A1 (en) * 2002-08-23 2004-03-11 Siemens Aktiengesellschaft Method and device for optimizing processes
US8126573B2 (en) 2002-08-23 2012-02-28 Siemens Aktiengesellschaft Method and device for optimizing processes
CN103010336A (en) * 2012-12-27 2013-04-03 潍柴动力股份有限公司 Method and device for adjusting parameters of each part of automobile power assembly
CN103010336B (en) * 2012-12-27 2015-05-13 潍柴动力股份有限公司 Method and device for adjusting parameters of each part of automobile power assembly
EP3495900A1 (en) * 2017-12-11 2019-06-12 Siemens Aktiengesellschaft Optimizing of processes based on self-organizing maps

Similar Documents

Publication Publication Date Title
DE69838181T2 (en) Visualization and self-organization of multi-dimensional data through compensated orthogonal imaging
EP2112568B1 (en) Method for computer-supported control and/or regulation of a technical system
DE102006059172B4 (en) Image processor
EP0845720B1 (en) Method of analyzing and monitoring of transient processes
DE102007001025A1 (en) Method for computer aided control and regulation of technical system, involves carrying out characterization of dynamic behavior of technical systems multiple times by state and action of system
DE10341573A1 (en) Integrated model-based predictive control and optimization within a process control system
DE102007017039A1 (en) Robust process model identification in model-based control techniques
EP1530779A2 (en) Method, data processing device and computer program product for processing data
DE19531967A1 (en) Training method for neural network
DE19606480C2 (en) Method and arrangement for adapting a fuzzy controller
DE19734947B4 (en) Method for controlling process operations
EP1546823B1 (en) Method for the computer-supported generation of prognoses for operative systems and system for the generation of prognoses for operative systems
EP1021793A2 (en) Assembly of interconnected computing elements, method for computer-assisted determination of a dynamics which is the base of a dynamic process, and method for computer-assisted training of an assembly of interconnected elements
EP0750764B1 (en) Process and arrangement for fuzzy control
DE10201018B4 (en) Neural network, optimization method for setting the connection weights of a neural network and analysis methods for monitoring an optimization method
DE19742906A1 (en) Optimizing products and their production processes by neural analysis
EP0829809B1 (en) Method for process-visualization
DE4121453C2 (en) Approximation inference device
DE4240789C2 (en) Procedure for identifying objects
DE4244014A1 (en) Detection and identification of sensor errors e.g. for aircraft controller
DE19742902A1 (en) Planning and performing tests in engineering or chemical process
EP0693200B1 (en) Object sorting process
EP0782729A1 (en) Process and configuration for processing an input quantity of a neural network
DE19835137C2 (en) Device for determining the concentration of a measuring liquid
DE4232752C1 (en) Process for generating a sharp output manipulated variable at the output of a fuzzy control loop

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection