WO1997006493A1 - Process for simulating especially triangular or trapezoidal relevance functions in the transformation of a fuzzy system into a neuronal network - Google Patents

Process for simulating especially triangular or trapezoidal relevance functions in the transformation of a fuzzy system into a neuronal network Download PDF

Info

Publication number
WO1997006493A1
WO1997006493A1 PCT/DE1996/001400 DE9601400W WO9706493A1 WO 1997006493 A1 WO1997006493 A1 WO 1997006493A1 DE 9601400 W DE9601400 W DE 9601400W WO 9706493 A1 WO9706493 A1 WO 9706493A1
Authority
WO
WIPO (PCT)
Prior art keywords
functions
fuzzy
sigmoid
transformation
trapezoidal
Prior art date
Application number
PCT/DE1996/001400
Other languages
German (de)
French (fr)
Inventor
Claudia Müller
Thomas Wolf
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO1997006493A1 publication Critical patent/WO1997006493A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]

Definitions

  • Neuro-fuzzy systems represent a combination of fuzzy systems and neural networks.
  • the disadvantages of fuzzy systems and of neural networks can be compensated for in this way.
  • One possibility for such a combination is to transform a fuzzy system into a neural network in order to make the system "learnable", ie self-optimizing.
  • the complex optimization of the fuzzy system can then be automated by optimization algorithms, which can be executed with the neuro-fuzzy system with the aid of a computer.
  • a fuzzy system consists of the three components “fuzzification”, “set of rules” and “defuzzification”. All three can be mapped with certain types of neurons.
  • the basic structure of a neuro-fuzzy system ie the individual components of a fuzzy system. Systems within a neuro-fuzzy network are shown in FIG. 1.
  • Either "z” -shaped, "s” -shaped, trapezoidal or triangular membership functions are used for the "fuzzification". They are mapped into a neural network using sigmoid or Gaussian functions. In the example in FIG. 1, symbols are shown symbolically as circles Neurons with sigmoid functions S are used. At the edge of the value range, "z" - or "s" -shaped membership functions can be approximate function. Triangular or trapezoidal membership functions can be simulated by superimposing two sigmoid functions. The superposition is realized by adding a positive and a negative counting sigmoid function. In the example in FIG.
  • the sigmoid function 1 rated with (+1) is combined with the sigmoid function 2 rated with (-1) with a sum neuron 3 to form a trapezoidal membership function y. This is explained in more detail below using the example of FIGS. 2 to 4. Easier, but with the limitation of
  • trapezoidal membership functions can also be represented with a Gaussian function.
  • the abscissa of the singletons are expressed as weights W1. ..W9 the connections between the product neurons ⁇ and the output neuron ⁇ are saved.
  • a large number of neural structures are used to represent fuzzy systems.
  • FIG. 1 results for a neuro-fuzzy network.
  • Such structures are known for example from DE 42 09 746 AI. With this structure, the membership functions can be mapped relatively precisely into a neural network. Both “z”, “s”, and trapezoidal as well as triangular functions can be transferred into a neural structure with a minimal error.
  • there is a disadvantage in the additive linking of two sigmoid functions which has already been described above using the example of the sigmoid functions 1, 2 and the sum neuron 3 in FIG. 1.
  • the weight parameters ⁇ and ⁇ for the sigmoid functions are varied in the “fuzzification” component.
  • the weight parameter ⁇ determines the position and the weight parameter ⁇ the shape, ie the slope of the increase or decrease of the respective sigmoid function.
  • the two sigmoid functions 1 and 2 of FIG. 1 can be such shift against each other so that interpretation difficulties arise with the relevant fuzzy set y. If the negatively incoming sigmoid function 2 is pushed in front of the positively counting sigmoid function 1, a so-called “negative” fuzzy set y arises. On the one hand, this can result in the learning process “failing”, namely because the system not "converges”. No set of weighting factors can then be found which guarantees a stable final state of the system and in which the total error of the system is minimal or even converges towards zero. Fuzzy set created a gap in interpretation, which makes it impossible to transform the neuro-fuzzy system back into a fuzzy system.
  • this problem can be avoided by using Gaussian transfer functions to simulate trapezoidal fuzzy sets.
  • this has the other disadvantage that it limits the type of functions that can be represented to symmetrical trapezoids. Different steepnesses of the flanks of membership functions cannot be simulated with Gaussian functions. If crooked trapezoids occurring in a learning process are simulated by Gaussian functions, this causes an increased transformation error.
  • edge fuzzy sets with Gaussian neurons are also shown.
  • a network with uniform membership functions is created again if the functions lying outside the definition area are not taken into account.
  • part of the left of the two Gaussian functions lies outside the definition range. If these functions are shifted in the direction of the arrows shown in FIG. 5 by varying the weighting factors during the learning process, definition gaps can now arise at the area edges, since Gauss neurons only act in a limited area. This is shown in Figure 6.
  • the accuracy of the transformation from the fuzzy system to the neural network decreases from the first to the fourth variant.
  • the neural structure is the easiest to use, but it is subject to the greatest restrictions.
  • the invention is based on the object of specifying a method for emulating, in particular, triangular or trapezoidal membership functions, in which, in particular, the definition gaps which occur in the variants shown above are avoided when transforming a fuzzy system into a neural network.
  • the invention has the first advantage that all degrees of freedom are retained when a fuzzy system is transformed into a neural network. This has the consequence that the mapping of a membership function having the shape of an oblique trapezoid is also possible without restriction. Another advantage is seen in the fact that when using Weight parameters ⁇ and ⁇ from the entire permissible range of values, fuzzy sets y that can always be interpreted occur during a learning process, that is, undefined negative fuzzy sets are avoided. Another advantage of linking sigmoid functions according to the invention is that a stable, converging system always occurs during a learning process. The overall error of the transformation is small or converges to zero. Finally, there is the advantage that the duration of a learning process is at least comparable to the variants described above and, in some cases, significantly shorter, in order to achieve a sufficiently error-minimal state, ie considerably fewer learning steps are required.
  • Fig.l the individual components of a fuzzy system within a neuro-fuzzy network
  • Fig. 2. the superposition of a positive and a negative sigmoid function to an approximately trapezoidal membership function
  • Fig. 3. a shift in the sigmoid functions of FIG. 2 caused by variation of the weight factors, the functions being moved towards one another while reducing the result function
  • Fig. 4. a shift of the sigmoid functions of FIG. 2 caused by further variation of the weight factors, so that a so-called “negative” fuzzy set occurs, Fig. 5. a possibility of simulating edge fuzzy sets with Gaussian neurons,
  • FIG. 5 shows definition gaps at the edges of the area
  • Fig. 7. for example the result of the mapping of a theoretically ideal trapezoidal membership function by means of a multiplicative combination of two sigmoid functions according to the invention
  • Fig. 8. 2 shows a circuit diagram of the neurons involved in the multiplicative method according to the invention
  • Fig. 9 comparable to FIG. 2, the superposition of two sigmoid functions to an approximately trapezoidal membership function using the multiplicative method according to the invention
  • FIG. 12 shows, by way of example, the result of the mapping of a theoretically ideal trapezoidal membership function by multiplicative
  • the associated circuit diagram of the neurons involved is shown in Figure 8.
  • the signals from the two sigmoid neurons 1, 2, which are used according to the invention at this point, are preferably supplied with values of fixed weight values of +1, shifting the two neurons now leads to the fact that the membership function becomes zero. Negative fuzzy sets can no longer occur.
  • the neuron structure according to the invention has the advantage that the problem of negative fuzzy sets no longer exists and the neuron structure nevertheless has the same transformation accuracy.
  • FIGS. 9 to 11 comparable to the previously explained FIGS. 2 to 4, the mutual displacement of two multiplicatively linked sigmoid functions is shown. According to FIG. 9, these emulate an approximately trapezoidal membership function. A shift according to FIG. 10 does not lead to a negative fuzzy set even if the two sigmoid functions overlap extremely according to FIG. The result function y is then zero.
  • the multiplicative method according to the invention converged with suitable learning parameters for all cases occurring in practice.
  • the learning is characterized above all by a uniform convergence.
  • FIG. 12 shows the course of the error of the overall system, ie the decrease in the error as the number of learning steps increases, using the example of the approximation of a polynomial.
  • the approximation of a trapezoid results in a particularly uniform learning process.
  • the multiplicative method has the advantage that no problems occur during learning, but the imaging accuracy is as good as that achieved with the standard neuro-fuzzy structure.
  • Sigmoid neurons which together represent a trapezoidal membership function, can be shifted against one another as desired without any problems of interpretation.
  • the learning time is generally longer than in the multiplicative method according to the invention.
  • learning with unfavorable parameters or difficult approximation problems actually results in a shift in the membership functions, so that negative membership sets arise.
  • the learning algorithm thus continues to calculate, mostly diverges or at least the error of the overall system fluctuates, so that in itself no meaningful interpretation of the learning results is possible.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

In the process of the invention, sigmoid functions (1, 2) are multiplicatively (3, π) linked in the fuzzification component to simulate especially triangular or trapezoidal relevance functions in the transformation of a fuzzy system into a neuronal network. Product neurons (π) are advantageously used for this purpose. The sigmoid functions (1, 2) are preferably each given a set weighting before the multiplicative linking is undertaken, with the weightings advantageously having a value of 1. The invention has the advantage that no undefined negative fuzzy quantities occur and the transformation precision of the neuron structure of the invention is comparable to that of prior art neurofuzzy structures. A further advantage is that learning processes generally take place more rapidly with the multiplicative linking of the invention than in a neuro-fuzzy structure using additively linked sigmoid neurons.

Description

Beschreibungdescription
Verfahren zur Nachbildung von insbesondere dreieck- oder tra¬ pezförmigen Zugehörigkeitsfunktionen bei der Transformation eines Fuzzy-Systems in ein neuronales NetzMethod for emulating, in particular, triangular or trapezoidal membership functions when transforming a fuzzy system into a neural network
Neuro-Fuzzy-Syεteme stellen eine Kombination von Fuzzy-Syste- men und neuronalen Netzen dar. Hiermit können die Nachteile von Fuzzy-Systemen und von neuronalen Netzen kompensiert wer- den. Eine Möglichkeit für eine derartige Kombination besteht darin, ein Fuzzy-System in ein neuronales Netz zu transfor¬ mieren, um das System „lernfähig", d.h. selbstoptimierend, zu machen. Die aufwendige Optimierung des Fuzzy-Systems kann dann automatisiert werden durch Optimierungsalgorithmen, welche mit dem Neuro-Fuzzy-System unter Zuhilfenahme eines Computers ausführbar sind.Neuro-fuzzy systems represent a combination of fuzzy systems and neural networks. The disadvantages of fuzzy systems and of neural networks can be compensated for in this way. One possibility for such a combination is to transform a fuzzy system into a neural network in order to make the system "learnable", ie self-optimizing. The complex optimization of the fuzzy system can then be automated by optimization algorithms, which can be executed with the neuro-fuzzy system with the aid of a computer.
Für die Umsetzung der Komponenten eines Fuzzy-Systems in die Strukturen eines neuronalen Netzes sind verschiedene Verfah- ren bekannt. Ein Fuzzy-System besteht bekanntlich aus den drei Komponenten „Fuzzifizierung", „Regelwerk" und „Defuzzi- fizierung" . Alle drei können mit bestimmten Neuronentypen abgebildet werden. Der prinzipielle Aufbau eines Neuro-Fuzzy- Systems, d.h. die einzelnen Komponenten eines Fuzzy-Systems innerhalb eines Neuro-Fuzzy-Netzes, sind in Figur 1 darge¬ stellt.Various methods are known for converting the components of a fuzzy system into the structures of a neural network. As is well known, a fuzzy system consists of the three components "fuzzification", "set of rules" and "defuzzification". All three can be mapped with certain types of neurons. The basic structure of a neuro-fuzzy system, ie the individual components of a fuzzy system. Systems within a neuro-fuzzy network are shown in FIG. 1.
Zur „Fuzzifizierung" werden entweder „z"-förmige, „s"-för- mige, trapez- oder dreieckförmige Zugehörigkeitsfunktionen verwendet. Deren Abbildung in ein neuronales Netz erfolgt mit Sigmoid- oder Gaußfunktionen. Im Beispiel der Figur 1 sind symbolisch als Kreise dargestellte Neuronen mit Sigmoid-Funk- tionen S verwendet. Am Rand des Wertebereichs lassen sich „z"- bzw. „s"-förmige Zugehörigkeitsfunktionen durch Sigmoid- funktion annähern. Dreieck- oder trapezförmige Zugehörig¬ keitsfunktionen können durch Überlagerung von zwei Sigmoid¬ funktionen nachgebildet werden. Die Überlagerung wird durch die Addition einer positiv und einer negativ zählenden Sig- moidfunktion realisiert. Im Beispiel der Figur 1 wird z.B. die mit (+1) bewertete Sigmoidfunktion 1 mit der mit (-1) bewerteten Sigmoidfunktion 2 mit einem Summenneuron 3 zu einer trapezförmigen Zugehörigkeitsfunktion y zusammengefaßt. Dies wird nachfolgend noch näher am Beispiel der Figuren 2 bis 4 erläutert. Einfacher, aber mit der Einschränkung derEither "z" -shaped, "s" -shaped, trapezoidal or triangular membership functions are used for the "fuzzification". They are mapped into a neural network using sigmoid or Gaussian functions. In the example in FIG. 1, symbols are shown symbolically as circles Neurons with sigmoid functions S are used. At the edge of the value range, "z" - or "s" -shaped membership functions can be approximate function. Triangular or trapezoidal membership functions can be simulated by superimposing two sigmoid functions. The superposition is realized by adding a positive and a negative counting sigmoid function. In the example in FIG. 1, the sigmoid function 1 rated with (+1) is combined with the sigmoid function 2 rated with (-1) with a sum neuron 3 to form a trapezoidal membership function y. This is explained in more detail below using the example of FIGS. 2 to 4. Easier, but with the limitation of
Freiheitsgrade, lassen sich trapezförmige Zugehörigkeitsfunk¬ tionen auch mit einer Gaußfunktion darstellen.Degrees of freedom, trapezoidal membership functions can also be represented with a Gaussian function.
Im Fuzzy-„Regelwerk" werden von der „Fuzzifizierung" bereit- gestellte Wertigkeiten „klein", „mittel" und „groß" miteinan¬ der verknüpft. Dies geschieht in der Regel mit UND-Verknüp- fungen, welche in der Praxis durch einen Minimum-Operator realisiert werden. Dessen direkte Übertragung in ein Neuron eines Neuro-Fuzzy-Netzes bereitet aber Schwierigkeiten beim sogenannten „Lernen", d.h. bei der Auffindung von Fuzzy-Ge- wichtsparametern μ und σ, bei denen ein stabiler Endzustand des Systems bei einem möglichst minimalen Gesamtfehler er¬ reicht wird. Die Ursache hierfür liegt darin, daß der Mini¬ mum-Operator nicht geschlossen differenzierbar ist. Statt des Minimum-Operators wird bei der Abbildung eines Fuzzy-Systems in ein neuronales Netz häufig in der Komponente „Regelwerk" das Produkt eingesetzt. Dieses hat den Vorteil, daß es eine glatte Übertragungsfunktion aufweist und stetig differenzier¬ bar ist. Die Produktfunktion kann direkt in einem Neuron durchgeführt werden und bereitet beim „Lernen" keineIn the fuzzy "set of rules", the values "small", "medium" and "large" provided by the "fuzzification" are linked to one another. This is usually done with AND links, which in practice are provided by a Minimum operator whose direct transmission into a neuron of a neuro-fuzzy network, however, creates difficulties in so-called "learning", ie when fuzzy weight parameters μ and σ are found, in which a stable final state of the system is achieved with an overall error that is as minimal as possible. The reason for this is that the mini mum operator cannot be differentiated in a closed manner. Instead of the minimum operator, when a fuzzy system is mapped into a neural network, the product is often used in the "rule set" component. This has the advantage that it has a smooth transfer function and is continuously differentiable. The product function can be performed directly can be carried out in a neuron and does not prepare one during "learning"
Schwierigkeiten. Auch im Beispiel der Figur 1 sind Produkt¬ neuronen π im „Regelwerk" eingesetzt. Schließlich wird in der Komponente „Defuzzifizierung" des Fuzzy-Systems die Ausgangsgröße y mittels einer Schwerpunkt¬ methode bestimmt. Bei Einsatz der sogenannten Singleton- Methode als Schwerpunktmethode reduziert sich die Berechnung in der Komponente „Defuzzifizierung" auf eine normalisierteTrouble. In the example in FIG. 1, product neurons π are also used in the "set of rules". Finally, the output variable y is determined in the component "defuzzification" of the fuzzy system by means of a focus method. If the so-called singleton method is used as the focus method, the calculation in the component "defuzzification" is reduced to a normalized one
Summe der Signale von den Produktneuronen π des „Regelwerks". Diese normalisierte Summe kann ebenfalls auf ein Neuron über¬ tragen werden, welches im Beispiel der Figur 1 mit ∑n be¬ zeichnet ist. Die Abszissen der Singletons werden als Gewich- te W1...W9 der Verbindungen zwischen den Produktneuronen π und dem Ausgangsneuron ∑ gespeichert.Sum of the signals from the product neurons π of the "set of rules". This normalized sum can also be transferred to a neuron, which is denoted by ∑ n in the example in FIG. 1. The abscissa of the singletons are expressed as weights W1. ..W9 the connections between the product neurons π and the output neuron ∑ are saved.
Es sind eine Vielzahl von neuronalen Strukturen zur Darstel¬ lung von Fuzzy-Systemen gebräuchlich.A large number of neural structures are used to represent fuzzy systems.
Werden gemäß einer ersten Variante für die Fuzzifizierung nur Sigmoid-Funktionen verwendet, so ergibt sich die in Figur 1 dargestellte grundlegende Struktur für ein Neuro-Fuzzy-Netz. Derartige Strukturen sind beispielsweise aus der DE 42 09 746 AI bekannt. Mit dieser Struktur lassen sich die Zugehörigkeitsfunktionen relativ genau in ein neuronales Netz abbilden. Sowohl „z"-, „s",-trapez- als auch dreieckförmige Funktionen können mit einem minimalen Fehler in eine neuro¬ nale Struktur übertragen werden. Doch besteht ein Nachteil bei der additiven Verknüpfung zweier Sigmoidfunktionen, wel¬ che bereits oben am Beispiel der Sigmoidfunktionen 1,2 und dem Summenneuron 3 in Figur 1 beschrieben wurde. Beim soge¬ nannten „Lernvorgang" werden die Gewichtsparameter μ und σ bei den Sigmoidfunktionen in der Komponente „Fuzzifizierung" variiert. Dabei werden durch den Gewichtsparameter μ die Lage und durch den Gewichtsparameter σ die Form, d.h. Steilheit des Anstiegs oder Abfalls der jeweiligen Sigmoidfunktion be¬ stimmt. Bei dieser Variation der Gewichtsparameter können sich die beiden Sigmoidfunktionen 1 und 2 von Figur 1 derart gegeneinander verschieben, daß bei der betreffenden Fuzzy- Menge y Interpretationsschwierigkeiten auftreten. Schiebt sich nämlich die negativ eingehende Sigmoidfunktion 2 vor die positiv zählende Sigmoidfunktion 1, so entsteht eine soge- nannte „negative" Fuzzy-Menge y. Hierdurch kann zum einen der Fall auftreten, daß der Lernprozeß „fehlschlägt", indem näm¬ lich das System nicht „konvergiert". Es kann dann kein Satz an Gewichtsfaktoren gefunden werden, welcher einen stabilen Endzustand des Systems gewährleistet und bei dem der Gesamt- fehler des Systems minimal ist bzw. sogar gegen Null konver¬ giert. Zum anderen ist durch die „negative" Fuzzy-Menge eine Interpretationslücke entstanden, welche eine Rücktransfor¬ mation des Neuro-Fuzzy-Systems in ein Fuzzy-System unmöglich macht.If, according to a first variant, only sigmoid functions are used for the fuzzification, the basic structure shown in FIG. 1 results for a neuro-fuzzy network. Such structures are known for example from DE 42 09 746 AI. With this structure, the membership functions can be mapped relatively precisely into a neural network. Both “z”, “s”, and trapezoidal as well as triangular functions can be transferred into a neural structure with a minimal error. However, there is a disadvantage in the additive linking of two sigmoid functions, which has already been described above using the example of the sigmoid functions 1, 2 and the sum neuron 3 in FIG. 1. In the so-called “learning process”, the weight parameters μ and σ for the sigmoid functions are varied in the “fuzzification” component. The weight parameter μ determines the position and the weight parameter σ the shape, ie the slope of the increase or decrease of the respective sigmoid function. With this variation of the weight parameters, the two sigmoid functions 1 and 2 of FIG. 1 can be such shift against each other so that interpretation difficulties arise with the relevant fuzzy set y. If the negatively incoming sigmoid function 2 is pushed in front of the positively counting sigmoid function 1, a so-called “negative” fuzzy set y arises. On the one hand, this can result in the learning process “failing”, namely because the system not "converges". No set of weighting factors can then be found which guarantees a stable final state of the system and in which the total error of the system is minimal or even converges towards zero. Fuzzy set created a gap in interpretation, which makes it impossible to transform the neuro-fuzzy system back into a fuzzy system.
Mit dieser Variante kann ein Fuzzy-System zwar am genauesten in ein Neuro-Fuzzy-System abgebildet werden. Der Nachteil dieser Struktur ist aber, daß während eines Lernvorgangs ver¬ hindert werden muß, daß sich die beiden Sigmoidfunktionen, wie in Figur 4 gezeigt, zu stark gegeneinander verschieben.With this variant, a fuzzy system can be mapped most precisely into a neuro-fuzzy system. The disadvantage of this structure is, however, that during a learning process it must be prevented that the two sigmoid functions, as shown in FIG. 4, shift too much against each other.
Im Diagramm der Figur 2 sei beispielhaft angenommen, daß die in durchgezogener Linie dargestellte und die linke Flanke des schraffierten Feldes darstellende Kurve der mit +1 bewerteten Sigmoidfunktion 1 und die in gebrochener Linie dargestellte Kurve der mit -1 bewerteten Sigmoidfunktion 2 von Figur 1 entspricht. Die Fläche unter der vom Summenneuron 3 erzeugten und einer Trapezform ähnlichen Zugehδrigkeitsfunktion y ist in Figur 2 schraffiert. Auf Grund der beschriebenen Variation der Gewichtsfaktoren können die Sigmoidfunktionen aufeinander zugeschoben werden, was in Figur 2 durch Pfeile dargestellt ist. Hierdurch verkleinert sich die Zugehörigkeitsfunktion y. Ein derartiger Fall ist in Figur 3 dargestellt, bei der die Funktion y auf Grund der starken Annäherung der beiden Sig- moidfunktionen eine stark verkleinerte, annähernd dreieck- formige Form angenommen hat. Überschneiden sich die Sigmoid¬ funktionen wegen einer weiteren Verschiebung, so tritt eine Undefinierte negative Fuzzy-Menge auf. Ein derartiger Fall ist in Figur 4 dargestellt.In the diagram in FIG. 2, it is assumed, for example, that the curve shown in a solid line and the left flank of the hatched field corresponds to the sigmoid function 1 rated with +1 and the curve shown in broken line corresponds to the sigmoid function 2 rated in FIG. 1 with -1. The area under the membership function y generated by the sum neuron 3 and similar to a trapezoidal shape is hatched in FIG. 2. On the basis of the variation of the weighting factors described, the sigmoid functions can be pushed towards one another, which is represented by arrows in FIG. 2. This reduces the membership function y. Such a case is shown in FIG. 3, in which the function y, due to the close approximation of the two sigmoid functions, is a greatly reduced, approximately triangular has taken formal form. If the sigmoid functions overlap due to a further shift, an undefined negative fuzzy set occurs. Such a case is shown in Figure 4.
Gemäß einer zweiten Variante kann dieses Problem zwar dadurch umgangen werden, daß zur Nachbildung von trapezförmigen Fuzzy-Mengen Gaußübertragungsfunktionen verwendet werden. Dies hat allerdings wiederum der anderen Nachteil, daß da- durch die Art der darstellbaren Funktionen auf symmetrische Trapeze eingeschränkt wird. Unterschiedliche Steilheiten der Flanken von Zugehörigkeitsfunktionen können mit Gaußfunk- tionen nicht nachgebildet werden. Werden also bei einem Lern¬ prozeß auftretende schiefe Trapeze durch Gaußfunktionen nach- gebildet, so wird hierdurch ein erhöhter Transformations- fehler verursacht.According to a second variant, this problem can be avoided by using Gaussian transfer functions to simulate trapezoidal fuzzy sets. However, this has the other disadvantage that it limits the type of functions that can be represented to symmetrical trapezoids. Different steepnesses of the flanks of membership functions cannot be simulated with Gaussian functions. If crooked trapezoids occurring in a learning process are simulated by Gaussian functions, this causes an increased transformation error.
Gemäß einer dritten Variante werden auch Rand-Fuzzy-Mengen mit Gaußneuronen dargestellt. Hierdurch entsteht dann wieder ein Netz mit einheitlichen Zugehörigkeitsfunktionen, wenn die außerhalb des Definitionsbereichs liegenden Funktion unbe¬ rücksichtigt bleiben. Im Beispiel der Figur 5 liegt ein Teil der linken der beiden Gaußfunktionen außerhalb des Defini¬ tionsbereiches. Werden diese Funktionen durch Variation der Gewichtsfaktoren während des Lernprozesses in Richtung der in Figur 5 dargestellten Pfeile verschoben, so können jetzt De¬ finitionslücken an den Bereichsrändern entstehen, da Gaußneu¬ ronen nur in einem begrenzten Bereich wirken. Dies ist in Figur 6 dargestellt.According to a third variant, edge fuzzy sets with Gaussian neurons are also shown. In this way, a network with uniform membership functions is created again if the functions lying outside the definition area are not taken into account. In the example in FIG. 5, part of the left of the two Gaussian functions lies outside the definition range. If these functions are shifted in the direction of the arrows shown in FIG. 5 by varying the weighting factors during the learning process, definition gaps can now arise at the area edges, since Gauss neurons only act in a limited area. This is shown in Figure 6.
Für die Bildung des Regelwerks werden bei der dritten Varian¬ te zwei Gaußneuronen mit einem Produktneuron verknüpft. Wird diese Verknüpfung in einer Gleichung zusammengefaßt und ent¬ sprechend umgeformt, so entsteht eine zu einem Gaußneuron mit zwei Eingängen identische Neuronenstruktur, wenn
Figure imgf000008_0001
ist. „Fuzzifizierung" und „Regelwerk" können also gemäß einer vierten Variante in einem Gaußneuron zusammengefaßt werden. Bei dieser Art von Neuro-Fuzzy-Systemen spricht man auch von RBF-Netzen ( Radial Basis Function - Netzen ) . Dies bewirkt eine wesentliche Vereinfachung der Netzberechnungen und des Lernens. Allerdings treten auch wiederum Einschränkung auf, da mit RBF-Netzen nur noch radialsymmetrische Bereiche erfaßt werden können. Dadurch steigt der Transformationsfehler und die Rücktransformation wird erschwert.
In the third variant, two Gaussian neurons are linked to one product neuron to form the rule set. If this linkage is summarized in an equation and transformed accordingly, one is also formed into a Gaussian neuron two inputs identical neuron structure, if
Figure imgf000008_0001
is. According to a fourth variant, "fuzzification" and "set of rules" can therefore be combined in a Gaussian neuron. This type of neuro-fuzzy system is also referred to as RBF networks (Radial Basis Function - networks). This significantly simplifies network calculations and learning. However, restrictions also occur again, since only radially symmetrical areas can be detected with RBF networks. As a result, the transformation error increases and the reverse transformation is made more difficult.
Von der ersten bis zur vierten Variante nimmt die Genauigkeit der Transformation vom Fuzzy-System zum neuronalen Netz ab. Bei der vierten Version kann die neuronale Struktur zwar am leichtesten gehandhabt werden, doch unterliegt diese den größten Einsehränkungen.The accuracy of the transformation from the fuzzy system to the neural network decreases from the first to the fourth variant. In the fourth version, the neural structure is the easiest to use, but it is subject to the greatest restrictions.
Der Erfindung liegt somit demgegenüber die Aufgabe zugrunde, ein Verfahren zur Nachbildung von insbesondere dreieck- oder trapezförmigen Zugehörigkeitsfunktionen anzugeben, bei dem insbesondere die bei den oben dargestellten Varianten auftre¬ tenden Definitionslücken bei der Transformation eines Fuzzy- Systems in ein neuronales Netz vermieden werden.In contrast, the invention is based on the object of specifying a method for emulating, in particular, triangular or trapezoidal membership functions, in which, in particular, the definition gaps which occur in the variants shown above are avoided when transforming a fuzzy system into a neural network.
Die Aufgabe wird gelöst mit dem Verfahren von Anspruch 1.The object is achieved with the method of claim 1.
Vorteilhafte weitere Ausführungsformen sind in den Unteran¬ sprüchen angegeben.Advantageous further embodiments are specified in the subclaims.
Die Erfindung hat den ersten Vorteil, daß bei der Transfor- mation eines Fuzzy-Systems in ein neuronales Netz alle Frei¬ heitsgrade erhalten bleiben. Dies hat zur Folge, daß auch die Abbildung einer die Form eines schiefen Trapezes aufweisenden Zugehörigkeitsfunktion uneingeschränkt möglich ist. Ein wei¬ terer Vorteil wird darin gesehen, daß beim Einsatz von Ge- wichtsparametern μ und σ aus dem gesamten, zulässigen Werte¬ bereich während eines Lernvorganges stets interpretierbare Fuzzy-Mengen y auftreten, also Undefinierte negative Fuzzy- Mengen vermieden werden. Ein weiterer Vorteil der erfindungs- gemäßen Verknüpfung von Sigmoidfunktionen besteht darin, daß beim einem Lernvorgang stets ein stabiles, konvergierendes System auftritt. Der Gesamtfehler der Transformation ist klein oder konvergiert gegen Null. Schließlich tritt der Vor¬ teil auf, daß die Dauer eines Lernvorganges biε zum Erreichen eines ausreichend fehlerminimalen Zustandes zumindest mit den oben beschriebenen Varianten vergleichbar und in manchen Fällen deutlich kürzer ist, d.h. es werden erheblich weniger Lernschritte benötigt.The invention has the first advantage that all degrees of freedom are retained when a fuzzy system is transformed into a neural network. This has the consequence that the mapping of a membership function having the shape of an oblique trapezoid is also possible without restriction. Another advantage is seen in the fact that when using Weight parameters μ and σ from the entire permissible range of values, fuzzy sets y that can always be interpreted occur during a learning process, that is, undefined negative fuzzy sets are avoided. Another advantage of linking sigmoid functions according to the invention is that a stable, converging system always occurs during a learning process. The overall error of the transformation is small or converges to zero. Finally, there is the advantage that the duration of a learning process is at least comparable to the variants described above and, in some cases, significantly shorter, in order to achieve a sufficiently error-minimal state, ie considerably fewer learning steps are required.
Die Erfindung wird an Hand der nachfolgend kurz angeführten und oben zum Teil bereitε beschriebenen Figuren erläutert. Dabei zeigtThe invention is explained on the basis of the figures briefly listed below and partly already described above. It shows
Fig.l. die einzelnen Komponenten eines Fuzzy-Systems inner- halb eines Neuro-Fuzzy-Netzes,Fig.l. the individual components of a fuzzy system within a neuro-fuzzy network,
Fig.2. die Überlagerung von je einer poεitiv und negativ be¬ werten Sigmoidfunktion zu einer annähernd trapezför¬ migen Zugehörigkeitεfunktion,Fig. 2. the superposition of a positive and a negative sigmoid function to an approximately trapezoidal membership function,
Fig.3. eine durch Variation der Gewichtεfaktoren verursachte Verschiebung der Sigmoidfunktionen von Figur 2, wobei sich die Funktionen unter Verkleinerung der Ergebnis- funktion aufeinander zubewegt wurden,Fig. 3. a shift in the sigmoid functions of FIG. 2 caused by variation of the weight factors, the functions being moved towards one another while reducing the result function,
Fig.4. eine durch weitere Variation der Gewichtεfaktoren verurεachte derartige Verεchiebung der Sigmoidfunk¬ tionen von Figur 2, so daß eine sogenannte „negative" Fuzzy-Menge auftritt, Fig.5. eine Möglichkeit der Nachbildung von Rand-Fuzzy- Mengen mit Gaußneuronen,Fig. 4. a shift of the sigmoid functions of FIG. 2 caused by further variation of the weight factors, so that a so-called “negative” fuzzy set occurs, Fig. 5. a possibility of simulating edge fuzzy sets with Gaussian neurons,
Fig.6. die bei einer durch Variation der Gewichtεfaktoren verurεachten Verεchiebung der Gaußfunktionen vonFig. 6. the shift in the Gaussian functions caused by variation of the weight factors
Figur 5 an den Bereichεrändern entεtehenden Defini- tionεlücken,FIG. 5 shows definition gaps at the edges of the area,
Fig.7. beispielhaft das Ergebnis der Abbildung einer theo- retiεch idealen trapezförmigen Zugehörigkeitεfunktion durch eine erfindungεgemäße multiplikative Verknüp¬ fung zweier Sigmoidfunktionen,Fig. 7. for example the result of the mapping of a theoretically ideal trapezoidal membership function by means of a multiplicative combination of two sigmoid functions according to the invention,
Fig.8. ein Schaltbild der bei der erfindungεgemäßen multi- plikativen Methode beteiligten Neuronen,Fig. 8. 2 shows a circuit diagram of the neurons involved in the multiplicative method according to the invention,
Fig.9. vergleichbar mit Figur 2 die Überlagerung von zwei Sigmoidfunktion zu einer annähernd trapezförmigen Zugehörigkeitεfunktion mit der erfindungsgemäßen multiplikativen Methode,Fig. 9. comparable to FIG. 2, the superposition of two sigmoid functions to an approximately trapezoidal membership function using the multiplicative method according to the invention,
Fig.10. vergleichbar mit Figur 3 eine durch Variation der Ge¬ wichtsfaktoren verursachte Verschiebung der Sigmoid¬ funktionen von Figur 9,Fig. 10. comparable to FIG. 3, a shift in the sigmoid functions of FIG. 9 caused by variation of the weight factors,
Fig.11. vergleichbar mit Figur 4 eine durch weitere Variation der Gewichtεfaktoren verurεachte derartige Verεchie¬ bung der Sigmoidfunktionen von Figur 9, εo daß eine Fuzzy-Menge mit der zulässigen Größe „Null" auftritt,Fig. 11. comparable to FIG. 4, such a shift of the sigmoid functions of FIG. 9 caused by further variation of the weight factors, such that a fuzzy set with the permissible size “zero” occurs,
Fig.12. den Verlauf des Fehlers des Gesamtsystemε, d.h. deε- εen Abnahme mit Zunahme der Anzahl von Lernεchritten, am Beiεpiel der Approximation eines Polynoms mit Hilfe der erfindungsgemäßen multiplikativen Methode. Gemäß der Erfindung werden die linke und die rechte Flanke einer trapez- oder dreieckförmigen Zugehörigkeitεfunktion durch je eine Sigmoidfunktion angenähert und mit einem εoge- nannten „Produktneuron" verknüpft. In Figur 7 ist beispiel- haft das Ergebnis der Abbildung einer theoretisch idealen trapezförmigen Zugehörigkeitsfunktion durch multiplikative Verknüpfung zweier Sigmoidfunktionen dargeεtellt. Figur 8 zeigt daε dazugehörigen Schaltbild der beteiligten Neuronen. Dem an dieεer Stelle erfindungsgemäß eingesetzten Produkt- neuron 3 werden die Signale von beiden Sigmoidneuronen 1,2 bevorzugt jeweilε mit feεten Gewichtεwerten von +1 bewertet zugeführt. Eine Verεchiebung der beiden Neuronen führt nun höchεtenε dazu, daß die Zugehörigkeitεfunktion zu null wird. Negative Fuzzy-Mengen können nicht mehr auftreten.Fig. 12. the course of the error of the overall system, ie its decrease with an increase in the number of learning steps, using the example of approximation of a polynomial using the multiplicative method according to the invention. According to the invention, the left and right flanks of a trapezoidal or triangular membership function are approximated by a sigmoid function and linked to a so-called “product neuron”. FIG. 7 shows, by way of example, the result of the mapping of a theoretically ideal trapezoidal membership function by multiplicative The associated circuit diagram of the neurons involved is shown in Figure 8. The signals from the two sigmoid neurons 1, 2, which are used according to the invention at this point, are preferably supplied with values of fixed weight values of +1, shifting the two neurons now leads to the fact that the membership function becomes zero. Negative fuzzy sets can no longer occur.
Insbesondere im Vergleich zur oben beschriebenen ersten Va¬ riante hat die Neuronenεtruktur gemäß der Erfindung den Vor¬ teil, daß daε Problem negativer Fuzzy-Mengen nicht mehr vor¬ handen ist und die Neuronenstruktur dennoch die gleiche Transformationεgenauigkeit besitzt.In particular, in comparison to the first variant described above, the neuron structure according to the invention has the advantage that the problem of negative fuzzy sets no longer exists and the neuron structure nevertheless has the same transformation accuracy.
So iεt in den Figuren 9 biε 11, vergleichbar mit den bereitε erläuterten Figuren 2 biε 4, die gegenεeitige Verεchiebung von zwei multiplikativ verknüpften Sigmoidfunktionen darge- stellt. Diese bilden gemäß Figur 9 eine annähernd trapezför¬ mige Zugehörigkeitsfunktion nach. Eine Verschiebung gemäß Figur 10 führt auch dann nicht zu einer negativen Fuzzy- Menge, wenn sich gemäß Figur 11 die beiden Sigmoidfunktionen extrem überschneiden. Die Ergebniεfunktion y iεt dann null.Thus, in FIGS. 9 to 11, comparable to the previously explained FIGS. 2 to 4, the mutual displacement of two multiplicatively linked sigmoid functions is shown. According to FIG. 9, these emulate an approximately trapezoidal membership function. A shift according to FIG. 10 does not lead to a negative fuzzy set even if the two sigmoid functions overlap extremely according to FIG. The result function y is then zero.
Die erfindungεgemäße multiplikative Methode konvergierte mit paεεenden Lernparametern für alle in der Praxiε vorkommenden Fälle. Daε Lernen zeichnet εich vor allem durch eine gleich¬ mäßige Konvergenz auε. Bei der Approximation einer linearen Fläche und einer Parabelfläche sinkt der Fehler in den Bei- spielen besonderε εchnell. In Figur 12 iεt der Verlauf deε Fehlerε des Gesamtεyεtems, d.h. die Abnahme des Fehlers mit Zunahme der Anzahl von Lernschritten, am Beispiel der Appro¬ ximation eines Polynoms dargestellt. Bei der Approximation eines Trapezes ergibt sich ein besonders gleichmäßiger Lern¬ ablauf.The multiplicative method according to the invention converged with suitable learning parameters for all cases occurring in practice. The learning is characterized above all by a uniform convergence. When approximating a linear surface and a parabola surface, the error in the play particularly fast. FIG. 12 shows the course of the error of the overall system, ie the decrease in the error as the number of learning steps increases, using the example of the approximation of a polynomial. The approximation of a trapezoid results in a particularly uniform learning process.
Besonderε vorteilhaft iεt eε, daß Lernprozeεse mit der erfin¬ dungsgemäßen multiplikativen Verknüpfung in den meiεten Fäl- len εchneller ablaufen alε bei einer Neuro-Fuzzy-Struktur mit additiv verknüpften Sigmoidneuronen. Die multiplikative Me¬ thode besitzt den Vorteil, daß beim Lernen keine Probleme auftreten, aber eine ebenso gute Abbildungsgenauigkeit wie mit der Standard-Neuro-Fuzzy-Struktur erreicht wird. Sigmoid- neuronen, die zusammen eine trapezförmige Zugehörigkeitsfunk¬ tion repräsentieren, können beliebig gegeneinander verschoben werden, ohne daß sich Interpretationsprobleme ergeben.It is particularly advantageous that learning processes with the multiplicative linkage according to the invention run in most cases faster than with a neuro-fuzzy structure with additively linked sigmoid neurons. The multiplicative method has the advantage that no problems occur during learning, but the imaging accuracy is as good as that achieved with the standard neuro-fuzzy structure. Sigmoid neurons, which together represent a trapezoidal membership function, can be shifted against one another as desired without any problems of interpretation.
Im Gegensatz dazu ist z.B. bei der oben beschriebenen ersten Variante die Lernzeit im allgemeinen länger als bei der er¬ findungsgemäßen multiplikativen Methode. Außerdem kommt es beim Lernen mit ungünstigen Parametern oder von schwierigen Approximationεproblemen tatsächlich zur Verschiebung der Zu¬ gehörigkeitsfunktionen, so daß negative Zugehörigkeitsmengen entstehen. Der Lernalgorithmus rechnet damit zwar weiter, meist divergiert oder zumindest εchwankt der Fehler des Ge- εamtεyεtemε jedoch, εo daß an sich keine aussagekräftige In¬ terpretation der Lernergebnisεe möglich ist. In contrast, e.g. in the first variant described above, the learning time is generally longer than in the multiplicative method according to the invention. In addition, learning with unfavorable parameters or difficult approximation problems actually results in a shift in the membership functions, so that negative membership sets arise. The learning algorithm thus continues to calculate, mostly diverges or at least the error of the overall system fluctuates, so that in itself no meaningful interpretation of the learning results is possible.

Claims

Patentanεprüche Claims
1. Verfahren zur Nachbildung von inεbeεondere dreieck- oder trapezförmigen Zugehörigkeitεfunktionen bei der Tranεforma- tion eines Fuzzy-Systems in ein neuronaleε Netz, wobei in der Fuzzifizierungεkomponente Sigmoidfunktionen (1,2) multipli- kativ (3,π) verknüpft werden.1. A method for emulating particular triangular or trapezoidal membership functions in the transformation of a fuzzy system into a neural network, with sigmoid functions (1,2) being multiplicatively linked (3, π) in the fuzzification component.
2. Verfahren nach Anεpruch 1, wobei zur multiplikativen Ver- knüpfung Produktneuronen (π) eingeεetzt werden.2. Method according to Claim 1, product neurons (π) being used for the multiplicative linking.
3. Verfahren nach Anεpruch 1 oder 2, wobei die Sigmoidfunk¬ tionen (1,2) vor Durchführung der multiplikativen Verknüpfung mit je einem feεten Gewichtswert bewertet werden.3. The method according to claim 1 or 2, wherein the sigmoid functions (1, 2) are each evaluated with a fixed weight value before the multiplicative linkage is carried out.
4 . Verfahren nach Anspruch 3 , wobei die festen Gewichtswerte jeweils eine Größe von 1 aufweisen . 4th The method of claim 3, wherein the fixed weight values are each 1 in size.
PCT/DE1996/001400 1995-08-07 1996-07-26 Process for simulating especially triangular or trapezoidal relevance functions in the transformation of a fuzzy system into a neuronal network WO1997006493A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19528984A DE19528984C1 (en) 1995-08-07 1995-08-07 Trapezium-shaped membership function emulation method
DE19528984.6 1995-08-07

Publications (1)

Publication Number Publication Date
WO1997006493A1 true WO1997006493A1 (en) 1997-02-20

Family

ID=7768890

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE1996/001400 WO1997006493A1 (en) 1995-08-07 1996-07-26 Process for simulating especially triangular or trapezoidal relevance functions in the transformation of a fuzzy system into a neuronal network

Country Status (2)

Country Link
DE (1) DE19528984C1 (en)
WO (1) WO1997006493A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106447031A (en) * 2016-09-27 2017-02-22 西华大学 Fault diagnosis method and apparatus based on interval value fuzzy spiking neural membrane system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19703965C1 (en) * 1997-02-03 1999-05-12 Siemens Ag Process for transforming a fuzzy logic used to simulate a technical process into a neural network
DE19703964C1 (en) * 1997-02-03 1998-10-15 Siemens Ag Process for transforming a fuzzy logic used to simulate a technical process into a neural network

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0460642A2 (en) * 1990-06-06 1991-12-11 Hitachi, Ltd. A method and system for adjusting fuzzy inference parameters
DE4209746A1 (en) * 1992-03-25 1993-09-30 Siemens Ag Optimisation of neural fuzzy control system - having multi-stage learning process in which three level neural network is used together with fuzzy logic rules

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2747104B2 (en) * 1990-10-22 1998-05-06 株式会社東芝 neural network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0460642A2 (en) * 1990-06-06 1991-12-11 Hitachi, Ltd. A method and system for adjusting fuzzy inference parameters
DE4209746A1 (en) * 1992-03-25 1993-09-30 Siemens Ag Optimisation of neural fuzzy control system - having multi-stage learning process in which three level neural network is used together with fuzzy logic rules

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHUEN-TSAI SUN: "DYNAMIC COMPENSATORY PATTERN MATCHING IN A FUZZY RULE-BASED CONTROL SYSTEM*", PROCEEDINGS OF THE AMERICAN CONTROL CONFERENCE, BOSTON, JUNE 26 - 28, 1991, vol. 1, 26 June 1991 (1991-06-26), INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS, pages 502 - 505, XP000270744 *
HASHIYAMA T ET AL: "A FUZZY NEURAL NETWORK FOR IDENTIFYING CHANGES OF DEGREES OF ATTENTION IN A MULTI-ATTRIBUTE DECISION MAKING PROCESS", PROCEEDINGS OF THE INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORK (IJCNN), NAGOYA, OCT. 25 - 29, 1993, vol. 1 OF 3, 25 October 1993 (1993-10-25), INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS, pages 705 - 708, XP000499235 *
SHIN-ICHI HORIKAWA ET AL: "COMPOSITION METHODS OF FUZZY NEURAL NETWORKS", IECON90, 16TH ANNUAL CONFERENCE OF IEEE INDUSTRIAL ELECTRONICS SOCIETY, POWER ELECTRONICS, EMERGING TECHNOLOGIES, PACIFIC GROVE, NOV. 27 - 30, 1990, vol. 2, 27 November 1990 (1990-11-27), INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS, pages 1253 - 1258, XP000216871 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106447031A (en) * 2016-09-27 2017-02-22 西华大学 Fault diagnosis method and apparatus based on interval value fuzzy spiking neural membrane system

Also Published As

Publication number Publication date
DE19528984C1 (en) 1996-09-19

Similar Documents

Publication Publication Date Title
DE69315423T2 (en) Neuro-Pid controller
DE4344283C2 (en) Device for determining controlled system parameters
DE69719058T2 (en) IMPROVED NEURONAL NETWORK
EP3701433B1 (en) Method, device and computer program for developing a deep neural network
DE3606640C2 (en)
DE4444583A1 (en) Selecting physical characteristic from parameter data for digital filter
DE69228517T2 (en) Simulator using a neural network
EP0956530B1 (en) Method for transforming a fuzzy logic used to simulate a technical process into a neural network
EP0836765B1 (en) Sensorless field-orientation control of an induction motor
DE69131566T2 (en) Blurred inference device
DE69024285T2 (en) Servo control arrangement for a system with feedback and application thereof to amplifiers and servomechanisms
WO2000022487A1 (en) Controlling system for regulating a system with several coupled controlled variables
EP1150186A1 (en) Modell based on-line optimization
DE4439225A1 (en) Defuzzification method for fuzzy logic output signals and controller device therefor
EP0750764B1 (en) Process and arrangement for fuzzy control
EP2372480B1 (en) Regulation method and device using a neuronal network
WO1997006493A1 (en) Process for simulating especially triangular or trapezoidal relevance functions in the transformation of a fuzzy system into a neuronal network
EP0669585B1 (en) Iterative Interpolator
DE1125208B (en) Electrical comparison circuit system
EP0548127B1 (en) Neural network and circuit device for the Boolean realization of ADALINE-type neural networks
DE102019203024A1 (en) Padding method for a convolutional neural network
DE2812851A1 (en) AUTOMATIC CONTROL SYSTEM
DE4404974C1 (en) Operating and learning phase neural network realisation method
DE60013183T2 (en) METHOD FOR CONTROLLING AN ACTIVE CONTROL SYSTEM AND SYSTEM FOR CARRYING OUT THIS METHOD
DE69426858T2 (en) Fuzzy controller

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN IL JP KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1996924776

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1996924776

Country of ref document: EP

122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: CA