DE4124501C2 - Neural network with automatic installation of intermediate neurons - Google Patents

Neural network with automatic installation of intermediate neurons

Info

Publication number
DE4124501C2
DE4124501C2 DE4124501A DE4124501A DE4124501C2 DE 4124501 C2 DE4124501 C2 DE 4124501C2 DE 4124501 A DE4124501 A DE 4124501A DE 4124501 A DE4124501 A DE 4124501A DE 4124501 C2 DE4124501 C2 DE 4124501C2
Authority
DE
Germany
Prior art keywords
neural network
class
learning
feature vector
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4124501A
Other languages
German (de)
Other versions
DE4124501A1 (en
Inventor
Dieter Prof Dr Ing Barschdorff
Achim Dipl Ing Bothe
Gerd Dipl Ing Woestenkuehler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE4124501A priority Critical patent/DE4124501C2/en
Priority to DE4209296A priority patent/DE4209296A1/en
Publication of DE4124501A1 publication Critical patent/DE4124501A1/en
Application granted granted Critical
Publication of DE4124501C2 publication Critical patent/DE4124501C2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks

Description

Die Erfindung betrifft ein neuronales Netz, bestehend aus untereinander netzartig schichtweise hintereinandergeschalteten Neuronenschichten, von denen einer Eingangsneuronenschicht über Eingänge Eingangsmuster jeweils als ein n-dimensionaler Merkmalvektor zuzuführen sind und deren Eingangsneuronen jeweils mit Eingängen von Zwischenneuronen einer Zwischenneuronenschicht verbunden sind, in denen jeweils mittels einer parametrisierten Klassenfunktion oder Unterklassenfunktion eine Zugehörigkeit des jeweils vorliegenden Merkmalvektors zu einer dem jeweiligen Zwischenneuron zugeordneten Klasse oder Unterklasse zu ermitteln ist, die von den Zwischenneuronen an Ausgangsneuronen einer Ausgangsneuronenschicht mitgeteilt werden, deren Ausgangsgrößen einen Ausgangsvektor repräsentieren, wobei das neuronale Netz an eine Lernsteuervorrichtung und eine Prüfvorrichtung anschließbar ist und die Ausgangssignale der Ausgangsneuronen der Prüfvorrichtung zugeführt sind, die, wenn bei eingangsseitigem Anliegen eines Lernmerkmalvektors keine Klassenzugehörigkeit vorliegt oder mehrere Klassenzugehörigkeiten vorliegen, dieses der Lernsteuervorrichtung signalisiert, welche abhängig von diesen Prüfvorrichtungsausgangssignalen den Zwischenneuronen jeweils mindestens einen geänderten Parameter mindestens einer der Klassen- oder Unterklassenfunktion zuführt, welche jeweils die Klassenzugehörigkeit beschreibt und durch eine Abstandsfunktion bezüglich eines n-dimensionalen Mittelpunktvektors eines n-dimensional bezüglich seiner Grenzen parametrisierten Raumausschnittes bestimmt ist, wobei eine Grenzparametervariation derart vorgenommen ist, daß alle von einer Vielzahl von jeweils einer der Klassen zugeordneten Lernmerkmalvektoren in einen der Raumausschnitte, der nur dieser einen Klasse zugeordnet ist, verweisen. The invention relates to a neural network consisting of with each other like a network in layers cascaded neuron layers, of which an input neuron layer over inputs input pattern each as an n-dimensional feature vector and their input neurons each have inputs from Intermediate neurons connected to an intermediate neuron layer are, in each of which by means of a parameterized Class function or subclass function one Belonging to the respective feature vector a class assigned to the respective intermediate neuron or Subclass is to be determined by the intermediate neurons communicated to output neurons of an output neuron layer whose output variables are an output vector represent, where the neural network to a Learning control device and a test device can be connected and the output signals of the output neurons are the Test device are supplied, which if at input of a learning feature vector none There is one or more classes Class affiliations exist, this is the Learning control device signals which depending on these tester output signals to the intermediate neurons at least one changed parameter at least one of the class or subclass function, which each describes the class affiliation and by a distance function with respect to an n-dimensional Center point vector of an n-dimensional with respect to its The boundaries of the parameterized area are determined, whereby a limit parameter variation is made such that all of a variety of each one of the classes assigned learning feature vectors into one of the Room sections that are only assigned to this one class, refer.  

Ein derartiges neuronales Netz mit einer Prüf- und Lernsteuervorrichtung ist aus DE 40 42 139 A1 bekannt. Diese Vorrichtung dient der Klassifizierung von Merkmalvektoren, die einer Eingangsneuronenschicht zugeführt werden, deren Signale über parametrisierte Funktionen an den Klassen zugeordneten Ausgangsneuronen zugeführt werden. In einem Lernvorgang werden Merkmalvektoren einer bekannten Klasse dem neuronalen Netz zugeführt und abhängig von den in der Prüfvorrichtung ermittelten Abweichungen der Signale an den Ausgangsneuronen von der bekannten Klasse werden die Parameter durch die Lernsteuervorrichtung in einer Zwischenneuronenschicht geändert, so daß eine möglichst eindeutige Klassifizierung eines Lernmerkmalkollektivs erfolgt. Das gesamte neuronale Netz besteht aus einer festen Anzahl von Neuronen, die problemabhängig ausreichend zu bemessen ist, also i. a. überdimensioniert ist.Such a neural network with a test and Learning control device is known from DE 40 42 139 A1. This Device is used to classify feature vectors, which are fed to an input neuron layer whose Signals via parameterized functions on the classes assigned output neurons are supplied. In one Learning process become feature vectors of a known class fed to the neural network and dependent on those in the Test device determined deviations of the signals on the Output neurons from the known class are the Parameters by the learning controller in one Intermediate layer of neurons changed so that one if possible clear classification of a group of learning characteristics he follows. The entire neural network consists of a fixed one Number of neurons that are sufficient depending on the problem is dimensioned, i. a. is oversized.

Die vorbekannten Neuronen basieren auf Gewichtsfunktionen, deren Gewichte die veränderbaren Parameter sind. Diese gewichtsparametrisierten Linearfunktionen zeigen bei komplexen Problemen ein ungünstiges Abgrenzungsverhalten, wodurch sie einen hohen Aufwand an Neuronen benötigen und in jedem Lernschritt, bei dem ein weiterer Lernmerkmalvektor zugeführt wird, sind sämtliche Ausgangsneuronen betroffen, deren Werte zur Korrektur an sämtlichen gewichteten Eingängen der Zwischenneuronen genutzt werden. Dies führt zu einem hohen Rechenaufwand und zu langen Verarbeitungszeiten sowie einer schlechten Konvergenz des Lernverhaltens.The known neurons are based on weight functions, whose weights are the changeable parameters. This weight-parameterized linear functions show at complex problems an unfavorable demarcation behavior, which means they need a lot of neurons and in each learning step in which a further learning feature vector all output neurons are affected, their values for correction on all weighted Inputs of the intermediate neurons can be used. this leads to a high computing effort and long processing times as well as poor convergence of learning behavior.

Weiterhin ist aus der DE 40 15 791 A1 ein neuronales Netz mit mindestens einer Neuronenzwischenschicht bekannt, deren Neuronen in Lernschritten durch Gewichtseinstellungen zuerst zwischen den Zwischenneuronen und den Ausgangsneuronen und jeweils anschließend zwischen den Zwischenneuronen und den Eingangsneuronen auf jeweils ein eindeutiges Erkennen eines weiteren Lernmerkmalvektors eingestellt werden. Dies erfordert komplexe Ausgangsneuronen mit gewichtsgesteuerten Eingängen und es verkompliziert den Einstellungsprozeß wegen der noch größeren Vielfalt der Einstellmöglichkeiten.Furthermore, DE 40 15 791 A1 is a neural network known with at least one intermediate neuron layer, the Neurons in learning steps through weight settings first between the intermediate neurons and the Output neurons and then between each  Intermediate neurons and the input neurons on each one clear recognition of another learning feature vector can be set. This requires complex output neurons with weight controlled inputs and it complicates the Recruitment process because of the even greater variety of Setting options.

Ein neuronales Netz ist bekanntlich eine Anordnung von mathematischen Funktionsgruppen i.a. mehrerer verschiedener Arten, die in sogenannten gedachten Neuronenschichten angeordnet sind, wobei die Ausgänge der Neuronen der einen Schicht jeweils mit den Eingängen der Neuronen der nachgeordneten Schicht netzartig verknüpft sind. Den Eingängen werden sogenannte Eingangsmuster, die jeweils aus einer Menge von Merkmalgrößen bestehen, parallel zugeführt, und von den Ausgängen der Ausgangsschicht werden den Eingangsmustern zugehörige Ausgangsmuster, die jeweils aus einer Menge von Ausgangsgrößen bestehen, abgegeben. Die mathematischen Verknüpfungsfunktionen der Neuronen werden in einer sogenannten Lernphase schrittweise derart parametrisiert, daß zu einer vorgegebenen Anzahl bekannter Lernmuster bekannte zugehörige Ausgangsmuster entstehen. Die Verknüpfungsfunktionen bestehen gewöhnlich aus einer Bildung von Summen aus den parametrisch gewichteten Mustermerkmalen und aus einer parametrisierten Schwellwertbewertung. Diese Art der neuronalen Netze haben den Nachteil, daß zum Lernen eines Musterkollektivs abhängig von dessen Größe sowie der Unterscheidbarkeit der darin enthaltenen Muster oft eine sehr große Anzahl von Neuronen, die nicht vorherbestimmbar ist, zu einer eindeutigen Klassifizierung der Muster in die Ausgangsmuster erforderlich ist und deshalb ein Überschuß an Neuronen von vornherein anzusetzen ist, wodurch eine erhöhte Arbeitszeit und ein vielschrittiger iterativer Lernprozeß notwendig ist, wenn ein Musterkollektiv neu erlernt werden soll oder neue Muster hinzugelernt werden sollen.As is well known, a neural network is an arrangement of mathematical function groups i.a. several different Species in so-called imaginary neuron layers are arranged, the outputs of the neurons of one Layer each with the inputs of the neurons of the subordinate layer are linked like a network. The Inputs are called input patterns, each consisting of consist of a number of characteristic quantities, supplied in parallel, and from the outputs of the output layer are the Input patterns associated with output patterns, each consisting of a set of output variables exist. The mathematical linking functions of the neurons are in a so-called learning phase step by step parameterized that known to a predetermined number Learning patterns known associated initial patterns arise. The Linking functions usually consist of an education of sums from the parametrically weighted sample characteristics and from a parameterized threshold evaluation. This The type of neural networks have the disadvantage that for learning a sample collective depending on its size and the Differentiation of the patterns contained therein is often a very large number of neurons that cannot be predetermined is to clearly classify the patterns in the Initial pattern is required and therefore an excess Neurons must be placed from the outset, which increases Working time and a multi-step iterative learning process is necessary if a sample collective is to be learned again  should or new patterns should be learned.

Es ist Aufgabe der Erfindung, ein neuronales Netz zu offenbaren, das eine Verringerung der Verarbeitungszeit eines Musters und eine Verringerung von Lernschrittzahlen erbringt und eine eindeutige Abbildung eines jeweils erlernten Musterkollektivs mit einem minimalen Neuronenaufwand aufweist, sowie Verfahren zur Minimierung des neuronalen Netzes und eines Lernmerkmalvektorkollektivs.It is an object of the invention to create a neural network disclose a reduction in processing time of a pattern and a reduction in learning step numbers provides and a clear representation of each learned sample collective with a minimal Has neuron expenditure, as well as methods for minimization of the neural network and a learning feature vector collective.

Diese Aufgabe wird gelöst durch ein neuronales Netz mit den Merkmalen des Patentanspruchs 1 und ein Minimierungs­ verfahren gemäß Patentanspruch 19. Inbesondere ist die Lösung dadurch gegeben, daß die Grenzparametervariation, wenn die Prüfvorrichtung keine Klassenzugehörigkeit signalisiert, jeweils in demjenigen der Ausgangsneuronen erfolgt, das der Klasse des jeweiligen Lernmerkmalvektors zugeordnet ist, und die Grenzparametervariation, wenn die Prüfvorrichtung mehrere Klassenzugehörigkeiten signalisiert, jeweils in allen den Ausgangsneuronen erfolgt, die eine Klassenzugehörigkeit des jeweiligen Lernmerkmalvektors signalisieren, und daß jeweils dann, wenn die Grenzparametervariation eine eindeutige Verweisung auf einen der Raumausschnitte der Klasse des jeweiligen Lernmerkmalvektors nicht erbringt, eine Aufgliederung eines dieser betreffenden Raumausschnitte in Unterraumausschnitte erfolgt, indem mindestens jeweils ein weiteres diesen weiteren Unterraumausschnitt repräsentierendes Zwischenneuron mit durch den Lernmerkmalvektor bestimmten Parametern einer weiteren Unterklassenfunktion installiert und dem Ausgangsneuron dieser Klasse zugeordnet wird, so daß letztlich von einer Gesamtheit von Lernmerkmalvektoren jeder nur auf solche Raum- oder Unterraumausschnitte verweist, die nur einer einzigen zugehörigen Klasse oder Unterklasse zugeordnet sind. This task is solved by using a neural network the features of claim 1 and a minimization Process according to claim 19. In particular given the solution in that the Limit parameter variation if the test device does not Class affiliation signals, in each case in that Output neurons are made that the class of each Learning feature vector is assigned, and the Limit parameter variation when the tester is multiple Class affiliations signaled in all the Output neurons, which belong to a class of the signal each learning feature vector, and that each then when the limit parameter variation is a clear one Reference to one of the room sections of the class of the respective learning feature vector does not provide one Breakdown of one of these relevant sections into Subspace clippings are made by placing at least one each further this further subspace section representative intermediate neuron with by the Learning feature vector certain parameters of another Subclass function installed and the output neuron is assigned to this class, so that ultimately one Set of learning feature vectors each only on such References to room or sub-room sections that only one assigned to only one associated class or subclass are.  

Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.Advantageous embodiments are in the subclaims specified.

Die einzelnen Ausgangssignale des neuronalen Netzes sind also Binärsignale, die jeweils eine Klassenzugehörigkeit anzeigen. Die Abstandsfunktion ist vorteilhaft stetig fallend. Sie kann beispielsweise eine Glockenfunktion, eine Potenzfunktion oder eine Exponentialfunktion sein.The individual output signals of the neural network are thus binary signals, each belonging to a class Show. The distance function is advantageously continuous falling. For example, it can have a bell function Power function or an exponential function.

Als besonders günstig hat sich eine quadratische Abstandsfunktion des Differenzvektors zwischen dem Merkmalvektor und dem Mittelpunktvektor ergeben, der ins Verhältnis zum Quadrat der Länge eines Radiusvektors gesetzt wird, der die Grenze des betreffenden Raumausschnittes angibt, wenn ein unterer Schwellwert des Abstandsfunktionswertes festgelegt ist; somit stellen die Raumausschnitte n-dimensionale Hyperellipsoide dar, die im Sonderfall n-dimensionale Kugeln sind, wenn die Achsen isometrisch sind.A square has proven to be particularly favorable Distance function of the difference vector between the Feature vector and the center point vector, which ins Ratio to the square of the length of a radius vector becomes the boundary of the area in question indicates when a lower threshold of Distance function value is set; thus the Spatial sections represent n-dimensional hyperellipsoids, which in the Special case are n-dimensional balls if the axes are isometric.

Tritt bei dem Einsatz des aufgrund eines Lernvorganges mit einem Kollektiv von Lernmerkmalvektoren ausgebildeten neuronalen Netz zur Klassifizierung unbekannter Merkmalvektoren eine mehrdeutige oder keine Klassenzugehörigkeit auf, was jeweils in einer Nachverarbeitung der Ausgangswerte abgeprüft wird, so wird zweckmäßig der Schwellwert in Inkrementen innerhalb vorgegebener Grenzen nach und nach erhöht bzw. erniedrigt, bis eine eindeutige Klassenzuordnung vorliegt. Der danach ausgegebene Schwellwert zeigt dem Benutzer den Grad der Eindeutigkeit der Zuordnung qualitativ an.Occurs when using the due to a learning process a collective of learning feature vectors neural network for the classification of unknown Feature vectors an ambiguous or none Class membership based on what is in each Postprocessing of the initial values is checked, so expediently the threshold value in increments within specified limits are gradually increased or decreased, until there is a clear class assignment. The one after that Output threshold shows the user the degree of  Uniqueness of the assignment qualitatively.

Eine vorteilhafte neuartige Ausgestaltung des neuronalen Netzes besteht darin, daß die Eingangsneuronen eine Aufbereitung von Eingangssignalen derart vornehmen, daß zeitliche Signalfolgen parallelisiert und dann als ein Eingangsvektor genutzt werden. Hierzu wird z. B. der Verlauf mindestens eines Meßsignales über einen vorgegebenen Zeitraum, der z. B. einer Funktionsperiode oder einem Funktionsabschnitt einer Vorrichtung, der die zu verarbeitenden Meßdaten entnommen worden sind, entspricht, in kurzen zeitlichen Abständen, also im Zeitmultiplex, abgetastet und zwischengespeichert. Das Meßsignal wird vorteilhaft vor oder nach der Abtastung und Speicherung glättend verarbeitet, was durch die Bildung einer Einhüllenden von Wechselgrößensignalen und/oder durch eine Kurzzeitmittelung über mehrere Abtastungen erfolgt. Dadurch ist es möglich, mit relativ wenigen Stützwerten Merkmalvektoren zu bilden, die eine hochwertige Klassifikation erbringen. Die Stützwerte werden vorteilhaft in einer vorgegebenen Anzahl über den Zeitraum der sich ergebenden Dauer des Funktionsabschnittes gleichverteilt gebildet.An advantageous new embodiment of the neural Network is that the input neurons are a Process input signals in such a way that parallel signal sequences and then as one Input vector can be used. For this, z. B. the course at least one measurement signal over a given one Period of time B. a term of office or a Functional section of a device that the processing data have been taken corresponds to in short time intervals, i.e. in time multiplex, scanned and cached. The measurement signal is advantageous before or after sampling and storage processed smoothing what by forming a Envelope of changing size signals and / or by one Short-term averaging takes place over several samples. Thereby it is possible with relatively few base values Feature vectors to form a high quality Provide classification. The base values become advantageous in a predetermined number over the period of time resulting duration of the functional section evenly distributed educated.

Die Meßwertaufbereitung läßt sich i.a., wenn es sich nicht um eine sehr schnelle Echtzeitverarbeitung handelt, mittels eines Programmes vornehmen, wenn die Abtastwerte vorab gespeichert wurden.Measured value processing can generally be done if it is not is a very fast real-time processing, by means of of a program if the samples in advance have been saved.

Bei der Neuerstellung eines neuronalen Netzes wird jeweils nach der Zuführung eines Lernmerkmalvektors einer bereits erlernten Klasse ausgangsseitig von der nachgeschalteten Prüfvorrichtung ermittelt, ob eine richtige und eine eindeutige Klassifizierung desselben vorliegt und, falls dies nicht der Fall ist, wird iterativ eine inkrementale Änderung mindestens eines der Merkmalraumparameter in vorgegebenen Grenzen vorgenommen und, falls dies bei Erreichen der vorgegebenen Grenze noch nicht zu einer eindeutigen richtigen Klassifizierung führt, wird ein weiteres Zwischenneuron eingerichtet, mit Parametern versorgt und mit dem der Klasse des Lernmerkmalvektors zugeordneten Ausgangsneuron verbunden.When creating a neural network, each time after the supply of a learning feature vector one already learned class on the output side of the downstream Test device determines whether a correct and a there is a clear classification and, if  if not, iteratively becomes an incremental Change at least one of the feature space parameters in predetermined limits and, if so at Not reaching the given limit yet leads to a clear correct classification Another intermediate neuron set up, with parameters provided and with that of the class of the learning feature vector associated output neuron connected.

Ist ein abgeschlossenes Lernmerkmalkollektiv erlernt, so kann das neuronale Netz unabhängig von der Lernvorrichtung betrieben werden. Die Struktur des neuronalen Netzes und sein Inhalt sind u. a. durch die Reihenfolge der Zuführung der Lernmerkmalvektoren eines Kollektivs bestimmt, da von ihr abhängig mehr oder weniger Unterklassen entstehen, denen die Zwischenneuronen entsprechen. Es hat sich in praktischen Versuchen gezeigt, daß das neuronale Netz i.a. dadurch zu vereinfachen ist, daß nach dem Erlernen eines vollständigen Kollektivs, das in beliebiger Reihenfolge zugeführt werden kann, ein Unterkollektiv aus den Mittelpunktvektoren der Unterklassen gebildet wird und aus diesen ein neuronales Netz neu erstellt wird, mit dem dann die übrigen Lernmerkmalvektoren nur klassifiziert werden, wonach nur die dabei nicht eindeutig und nicht richtig klassifizierten Lernmerkmalvektoren jeweils in einem folgenden Lernschritt zugeführt werden. Diese beiden Schritte der Klassifizierung und des Nachlernens der nicht eindeutig und nicht richtig klassifizierten Lernmerkmalvektoren führt letztlich, u. U. nach mehrmaliger Iteration der Neuerstellung des neuronalen Netzes mit dem reduzierten und gemäß dem Verfahren um die notwendigen Lernmerkmalvektoren ergänzten Kollektiv, zu einem vereinfachten aber vollständig klassifizierenden neuronalen Netz und einem, z. B. für ein späteres Lernen von Obermengen, verfügbaren verkürzten aber ausreichenden Lernmerkmalvektorkollektiv. If a completed learning characteristic collective has been learned, then so can the neural network regardless of the learning device operate. The structure of the neural network and its content is u. a. by the order of feeding the learning feature vectors of a collective determined because of depending on the more or less subclasses that arise the intermediate neurons correspond. It has turned into practical Experiments have shown that the neural network generally thereby too simplify is that after learning a complete Collective that are fed in any order can, a sub-collective of the midpoint vectors of the Subclasses is formed and from these a neuronal Network is created with which then the rest Learning feature vectors are only classified, according to which only the not clearly and incorrectly classified Learning feature vectors each in a subsequent learning step be fed. These two steps of classification and relearning the ambiguously and incorrectly classified learning feature vectors ultimately leads u. U. after repeated iteration of the re-creation of the neural Network with the reduced and according to the procedure around the necessary learning feature vectors added collective, too a simplified but fully classifying neural network and one, e.g. B. for later learning of supersets, available shortened but sufficient Learning feature vector collective.  

Eine vorteilhafte Anwendung findet das neuartige neuronale Netz in Prüfeinrichtungen, wobei die über eine Funktionsperiode von einem Prüfobjekt gewonnenen Meßsignale dem neuronalen Netz zu einer Güteklassifikation des Prüflings zugeführt werden. Bei der Einrichtung einer solchen Vorrichtung ist es nicht mehr erforderlich, die einzelnen Fehlerarten eines Produktes in ihren Auswirkungen auf die Meßwertverläufe zu analysieren und zu kennen, wie das bei menschlichen Experten oder analytisch arbeitenden bekannten Vorrichtungen der Fall ist; sondern es genügt, die Meßwerte von guten Musterobjekten und den verschiedenen Arten der fehlerbehafteten Musterobjekten über einen charakteristischen Funktionsabschnitt zu erfassen und in einer Lernphase unter Zuordnung zu der Fehlerart, die den Klassenindex bildet, daraus ein neuronales Netz zu generieren. Darüberhinaus lassen sich die vorbeschriebenen vorteilhaften Ausgestaltungen auf das neuronale Netz und das so gewonnene Lernmerkmalvektorkollektiv anwenden. Das Klassifizierungsvermögen des neuronalen Netzes läßt sich auch sehr leicht bei Änderungen des Produktes oder bei Auftreten neuer Fehlerarten ergänzen und erweitern, indem die Meßwerte von dem geänderten oder fehlerhaften Objekt als weiterer Lernmerkmalvektor erfaßt und gespeichert werden.The novel neural is used advantageously Network in test facilities, the over a Function period of measurement signals obtained from a test object the neural network for a quality classification of the DUT are fed. When setting up a such device it is no longer necessary to effects of individual types of defects in a product to analyze the measured value courses and to know how that with human experts or working analytically known devices is the case; but it is enough that Measured values of good sample objects and the different ones Types of defective sample objects via one characteristic functional section to capture and in a learning phase associated with the type of error that the Class index forms a neural network from it to generate. In addition, the previously described advantageous embodiments of the neural network and that apply the learning feature vector collective thus obtained. The Classification ability of the neural network can be also very easy with changes to the product or with Complement and expand the occurrence of new types of errors by the measured values from the changed or defective object as further learning feature vector can be detected and stored.

Eine vorteilhafte Anwendung findet das erfindungsgemäße neuronale Netz in einem Elektromotoren-Güteprüfstand, wodurch es gelingt, mit einem einfachen Computer und nur unter Anwendung der hier dargelegten Mittel und ohne Hinzufügung von speziellem Fachwissen über die Auswirkung einzelner Fehlerarten auf die Meßdaten, eine volle Funktionsfähigkeit der Klassifiziereinrichtung zu erbringen, indem sämtliche bekannten, d. h. denkbaren, Fehlerarten an den Motoren erkannt und angezeigt werden.The invention has an advantageous application neural network in an electric motor quality test bench, which succeeds with a simple computer and only using the means outlined here and without Add special expertise on the impact individual types of errors on the measurement data, a full one To make the classification device functional, by all known, i.e. H. conceivable types of error the motors are recognized and displayed.

Vorteilhafte Ausgestaltungen der Vorrichtung und der Verfahrensschritte sind anhand der Fig. 1 bis 5 dargestellt.Advantageous embodiments of the device and the method steps are shown with reference to FIGS. 1 to 5.

Fig. 1 zeigt ein Schema des neuronalen Netzes mit Lernvorrichtung; Fig. 1 is a diagram showing the neural network with learning device;

Fig. 2 zeigt einen Ausschnitt des neuronalen Netzes für eine Zeitmulitplex-Signalaufbereitung; Fig. 2 shows a section of the neural network for a Zeitmulitplex Signal Processing;

Fig. 3 zeigt ein Schema einer Klassifikatorbildung; Fig. 3 shows a schematic of a Klassifikatorbildung;

Fig. 4 zeigt ein Schema einer Klassifikatorvariation; Figure 4 shows a schematic of a classifier variation;

Fig. 5 zeigt einen Motorenprüfstand mit einem neuronalen Netz. Fig. 5 shows an engine test bench with a neural network.

Fig. 1 zeigt ein Schema eines neuronalen Netzes mit drei Stufen. Die Eingangsschicht (NSE) von Neuronen besteht aus Aufbereitungsschaltungen (NE1x-NE13), die eine Umsetzung von an den Eingängen (EG1, EG2) eingehenden Größen in Merkmale des Merkmalvektors vornehmen. Sämtliche Merkmale der für die Verarbeitungszeit zwischengespeicherten Merkmalvektoren sind allen Zwischenneuronen (NM1x-NM4) der verdeckten Neuronenschicht (NSM) zugeführt, in denen die Klassifizierung nach Klassen bis in die Unterklassen erfolgt. Die binären Ausgangssignale der Zwischenneuronen sind der Ausgangsneuronenschicht (NSA) zugeführt, die jeweils aus Ausgangssignalspeichern mit einer Oder-Schaltung für die Unterklassenzusammenfassung zu einer Klasse bestehen, die die Ausgangsneuronen (NA1x-NA3) bilden. Fig. 1 shows a schematic of a neural network with three stages. The input layer (NSE) of neurons consists of conditioning circuits (NE1 x -NE13), which convert the quantities arriving at the inputs (EG1, EG2) into features of the feature vector. All features of the feature vectors temporarily stored for the processing time are supplied to all intermediate neurons (NM1 x -NM4) of the hidden neuron layer (NSM), in which the classification is made by classes down to the subclasses. The binary output signals of the intermediate neurons are fed to the output neuron layer (NSA), which each consist of output signal memories with an OR circuit for subclassification to form a class which form the output neurons (NA1 x -NA3).

Fig. 2 zeigt einen Ausschnitt in einer besonderen Ausgestaltung der Eingangsneuronenschicht, indem in einer Anzahl der Neuronen (NE1-NE3) das jeweils anliegende Eingangssignal (EG1) mit einer zeitlichen Folge von Takten (T1-T3) eines durch eine gesteuerte Uhr (CL) geschalteten Zeitmultiplexers (TM) im Zwischenspeicher (S1-S3) eingespeichert wird. Von diesen werden die gespeicherten Werte zu einem Zeitpunkt (TX) nach dem Ende der Zeitmultiplexabtastung über Und-Funktionen (U1-U3) an die Zwischenneuronen als die auszuwertenden Merkmale abgegeben. Fig. 2 shows a detail in a particular embodiment, the input neuron layer by in a number of neurons (NE1-NE3) the respectively applied input signal (EG1) with a temporal sequence of clocks (T1-T3) of a by-controlled clock (CL) switched time multiplexer (TM) is stored in the buffer (S1-S3). From these, the stored values are transmitted to the intermediate neurons as the features to be evaluated at a point in time (TX) after the end of the time-division multiplex scanning via AND functions (U1-U3).

Das Eingangssignal (EG1) ist zweckmäßig digital umgesetzt, und die Multiplexerfunktion läßt sich hardwaremäßig oder durch eine Programmsteuerung erfüllen. Die Funktion der Anordnung nach Fig. 2 läßt sich auch in einfacher Weise durch ein Schieberegister erbringen, dem eingangsseitig das digital umgesetzte Signal zugeführt ist und das mit dem Zeittakt als Schiebetakt beaufschlagt ist und dessen Inhalt mit dem Schlußtakt parallel weitergegeben wird. Die Anzahl der Samplingtakte (T1-T3) und die Dauer eines Mulitplexerdurchlaufes ist den jeweiligen Erfordernissen anzupassen, so daß die charakteristischen Verläufe des Eingangssignales mit ausreichender Auflösung erfaßt werden. Vor einer Digitalisierung oder auch nach dieser wird das Eingangssignal vorteilhaft geglättet, wobei der Glättungszeitraum allenfalls einige Abtasttakte lang ist, um die charakteristischen Merkmale zu erhalten und andererseits hochfrequente Störeinflüsse zu beseitigen.The input signal (EG1) is expediently implemented digitally, and the multiplexer function can be fulfilled by hardware or by program control. The function of the arrangement according to FIG. 2 can also be provided in a simple manner by means of a shift register, to which the digitally converted signal is fed on the input side and which is acted upon by the time clock as a shift clock and whose content is passed on in parallel with the final clock. The number of sampling cycles (T1-T3) and the duration of a multiplexer pass must be adapted to the respective requirements, so that the characteristic curves of the input signal are detected with sufficient resolution. Before digitization or after this, the input signal is advantageously smoothed, the smoothing period being at most a few sampling clocks long in order to maintain the characteristic features and, on the other hand, to eliminate high-frequency interference.

Sind die Eingangssignale Wechselgrößen, so hat es sich als vorteilhaft und ausreichend erwiesen, von diesen die Einhüllende zu bilden und nur den so entstehenden wesentlich niederfrequenteren Größenverlauf zur Merkmalbildung auszuwerten. Auch die Einhüllendenbildung kann vor oder nach einer Digitalisierung des Eingangssignales (EG1) erfolgen. Wird eine Einhüllende programmäßig ausgewertet, so läßt sich statt einer Zeitmultiplexabfrage in einem festen Raster auch eine vorgegebene Anzahl von Stützwerten der Einhüllenden über einen charakteristischen Signalabschnitt bilden und als Merkmale speichern, wobei die Grenzen des auszuwertenden Signalabschnittes von dem Eintreten bestimmter Kriterien des Meßsignales, z. B. von einem Nulldurchgang, einem Extremwertdurchlauf oder einem Erreichen von Grenzwerten, abgeleitet werden, also zeitlich nicht vorherzubestimmen sind.If the input signals are alternating variables, then it has turned out to be proven advantageous and sufficient of these Envelope to form and only the resulting low-frequency size curve for feature formation evaluate. Envelope formation can also occur before or after digitization of the input signal (EG1). If an envelope is evaluated according to the program,  instead of a time division multiplex query in a fixed grid a predetermined number of support values for the envelope form over a characteristic signal section and as Store characteristics, the limits of which are to be evaluated Signal section of the entry certain criteria of the measurement signal, e.g. B. from one Zero crossing, an extreme value run or a Reaching limit values to be derived, i.e. in time are not to be predetermined.

Sofern mehrere Eingangssignalfolgen in dem neuronalen Netz ausgewertet werden sollen, können mehrere Anordnungen gemäß Fig. 2 parallel angeordnet sein und auch zeitlich gestaffelt mit jeweils einem kleinen Zeitversatz programmäßig betrieben sein, wobei die Zeitraster der verschiedenen Signalaufbereitungen auch unterschiedlich sein können.If several input signal sequences are to be evaluated in the neural network, several arrangements according to FIG. 2 can be arranged in parallel and can also be operated in a staggered manner, each with a small time offset, the time intervals of the different signal preparations also being able to be different.

Die Funktion der Zwischenneuronen läßt sich anhand der Fig. 3 veranschaulichen, wo in einer Merkmalebene (M1, M2) kreisförmige Schnitte mit einem Raumausschnitt (U1) einer ersten Klasse und mit drei Unterraumausschnitt (U2, U3, U4) einer zweiten Klasse dargestellt sind und die Lage der jeweils gelernten Merkmalvektoren der beiden Klassen durch Dreiecke bzw. Quadrate eingezeichnet sind. Die gestrichelt umschlossenen Bereiche repräsentieren beispielsweise ideale Klassengrenzen, die überschneidungsfrei sind. Denen nähert sich bei einem Lernen weiterer Lernmerkmalvektoren die Unterraumausschnittgrenzziehung an, indem deren Radien verkürzt oder verlängert werden, die Mittelpunkte verlagert werden und erforderlichenfalls neue Unterraumausschnitte gebildet werden.The function of the intermediate neurons can be illustrated with the aid of FIG. 3, where circular sections with a spatial section (U1) of a first class and with three sub-spatial sections (U2, U3, U4) of a second class are shown in a feature level (M1, M2) and the position of the characteristic vectors of the two classes learned in each case are shown by triangles or squares. The areas enclosed in dashed lines represent, for example, ideal class boundaries that are free of overlap. When learning additional learning feature vectors, the subspace cutout boundary drawing approaches them by shortening or lengthening their radii, shifting the center points and, if necessary, forming new subspace cutouts.

Weiterhin zeigt Fig. 4 einen elliptischen Schnitt eines Unterraumausschnitte (U) mit der Merkmalebene (M1, M2), bei dem die Radien (R1, R2), die sich in Richtung der Merkmalachsen erstrecken, den jeweiligen Erfordernissen angepaßt verschieden sind. Auf alle Dimensionen eines Merkmalvektors (M) bezogen, erhält dann der Merkmalraum die Form eines Hyperellipsoids.Furthermore, FIG. 4 shows an elliptical section of a subspace section (U) with the feature plane (M1, M2), in which the radii (R1, R2), which extend in the direction of the feature axes, are differently adapted to the respective requirements. In relation to all dimensions of a feature vector (M), the feature space then takes the form of a hyperellipsoid.

Jeder Unterraumausschnitt ist somit durch die Gesamtheit der Koordinaten (Wi) des Mittelpunktes und die Gesamtheit der Radien (Ri) des Hyperellipsoids bestimmt.Each section of the subspace is thus a total of Coordinates (Wi) of the center and the entirety of the Radii (Ri) of the hyperellipsoid determined.

Die Lage eines Merkmalvektors (M) mit den Merkmalen Mi ergibt sich dann aus einer Abstandsfunktion H, aus der sich dessen Unterklassenzugehörigkeit T durch eine Grenzwertzusatzbedingung mit einem Grenzwert S in folgender Weise ergibt:The location of a feature vector (M) with the features Mi then results from a distance function H, from which whose subclass membership T by a Limit value additional condition with a limit value S in the following Way results in:

Bei dem Erzeugen eines neuronalen Netzes werden auf der Grundlage der Eingangsneuronen in einer Lernsteuervorrichtung (LV) gemäß Fig. 1 von dieser gesteuert Lernmerkmalvektoren (ML) jeweils den Zwischenneuronen zur Klassifizierung zugeführt und die Ausgangssignale der Ausgangsneuronen von einer Prüfschaltung (PS) bewertet, die feststellt, ob eine und nur eine Klasse und ggf. die dem Lernmerkmalvektor (ML) zugehörige Klasse (KL) von dem neuronalen Netz ausgegeben wird. Tritt dabei eine neue Klasse auf, für die noch kein Zwischenneuron besteht, so wird hierfür ein neues installiert, indem zu dem Endpunkt des betrachteten Lernmerkmalvektors (ML) ein Hyperellipsoid durch einen Parametersatz Mi, Ri, S festgelegt und gespeichert wird. Ist die neue Klasse bereits im neuronalen Netz durch mindestens ein Zwischenneuron repräsentiert, erfolgt jedoch keine Klassifizierung oder eine Doppelklassifizierung des eingegebenen Lernmerkmalvektors (ML), so wird von der Lernsteuervorrichtung (LV) iterativ eine sukzessiv erweiternde Parametervariation der Neuronen der betreffenden nicht gefundenen Klassen in jeweils vorgegebenen Grenzen vorgenommen und, falls dies nicht erfolgreich war, eine Neuinstallation eines Zwischenneurons eines Unterraumausschnitts vorgenommen. Liegt andernfalls eine Falschklassifizierung des Lernmerkmalvektors vor, so nimmt die Lernsteuervorrichtung (LV) iterativ eine sukzessive Parametervariation zur Verengung des Hyperellipsoids in vorgegebenen Grenzen vor, und, falls dieses Vorgehen nicht erfolgreich war, wird von der Lernsteuervorrichtung (LV) eine Aufteilung eines betroffenen Neurons in Zwischenneuronen von Unterraumausschnitten vorgenommen, die engere Grenzen, also kürzere Radien und getrennte Mittelpunktkoordinaten aufweisen. Die jeweiligen Grenzvorgaben für die Variationen der Parameter, nämlich der Radien und der Mittelpunktkoordinaten, sind dadurch bestimmt, daß alle bisher gelernten Lernmerkmalvektoren in den beschriebenen Räumen enthalten sein müssen. Das jeweilige Maß des Abstandes eines mehreren oder keiner Klasse zugeordneten Lernmerkmalvektors zu dem Hyperellipsoid ist zweckmäßig zur Bildung des Inkrementes der Parameteränderung genutzt, so daß eine schnelle Konvergenz der Iteration erfolgt.When generating a neural network, on the basis of the input neurons in a learning control device (LV) according to FIG. 1, learning feature vectors (ML) controlled by this are fed to the intermediate neurons for classification and the output signals of the output neurons are evaluated by a test circuit (PS), which determines whether one and only one class and possibly the class (KL) belonging to the learning feature vector (ML) is output by the neural network. If a new class occurs for which there is still no intermediate neuron, a new one is installed by defining and storing a hyperellipsoid for the endpoint of the learning feature vector (ML) under consideration using a parameter set Mi, Ri, S. If the new class is already represented in the neural network by at least one intermediate neuron, but there is no classification or double classification of the entered learning feature vector (ML), the learning control device (LV) iteratively successively extends the parameter variation of the neurons of the relevant classes not found in each case predetermined limits and, if this was not successful, a new installation of an intermediate neuron of a subspace section was carried out. Otherwise, if the learning feature vector is incorrectly classified, the learning control device (LV) iteratively makes a successive parameter variation for narrowing the hyperellipsoid within predetermined limits, and, if this procedure was unsuccessful, the learning control device (LV) divides an affected neuron into Intermediate neurons made of subspace sections that have tighter boundaries, i.e. shorter radii and separate center coordinates. The respective limit specifications for the variations of the parameters, namely the radii and the center coordinates, are determined by the fact that all learning feature vectors learned so far must be contained in the spaces described. The respective measure of the distance of a learning feature vector from a plurality or from no class to the hyperellipsoid is expediently used to form the increment of the parameter change, so that the iteration converges quickly.

Bei einer Zuordnung eines Lernmerkmalvektors zu mehreren Klassen wird zweckmäßig zuerst an den Parametern des Neurons geändert, das die geringste Grenzabweichung des Hyperellipsoids zum Lernmerkmalvektorendpunkt zeigt.When one learning feature vector is assigned to several Classes are first useful on the parameters of the neuron changed, which is the smallest limit deviation of the Hyperellipsoids to learner vector endpoint shows.

Ein Maß der Grenzabweichung GA ergibt sich aus der Abstandsfunktion H und dem Grenzwert S, der beim Lernvorgang gewöhnlich zu 1 gesetzt ist, als:A measure of the limit deviation GA results from the Distance function H and the limit value S, which during the learning process is usually set to 1 as:

GA = H - S, insbes. GA = H - 1.GA = H - S, especially GA = H - 1.

Die gezeigte Vorrichtung ist in gleicher Weise für eine mehrmalige Neuinstallation eines neuronalen Netzes mit einem reduzierten Lernkollektiv geeignet. Dazu ist ein Zwischenspeicher (ZS) vorgesehen, worin die verschiedenen Prüfergebnisse der Prüfvorrichtung (PV) zugeordnet zu den Lernmerkmalvektoren jeweils gespeichert werden, so daß sie demgemäß gesteuert in einer anderen Reihenfolge bei einem erneuten Lernvorgang in ein neu zu erstellendes neuronales Netz eingespeist werden.The device shown is in the same way for one repeated reinstallation of a neural network with one reduced learning collective. This is a Buffer (ZS) provided, in which the various Test results of the test device (PV) assigned to the Learning feature vectors are each stored so that they accordingly controlled in a different order at one new learning process in a new neural to be created Be fed into the grid.

Die Lernmerkmalvektoren können unmittelbar aus Eingangssignalen durch eine Aufbereitung in den Eingangsneuronen gewonnen werden, wobei eine bekannte zugehörige Klassenbezeichnung (Ki) über eine Eingabevorrichtung (E) in die Lernsteuervorrichtung (LV) eingegeben wird, in der zugehörig zu dieser Klassenbezeichnung ein Ausgangsneuron installiert ist oder wird, falls diese bisher unbekannt war. Das Lernmerkmalvektorkollektiv kann jedoch vorteilhaft in einem Vorlauf oder Erstlauf mittels der Eingangsneuronen erstellt und in dem Zwischenspeicher gespeichert werden, wo es zusammen mit den zugehörigen Prüfergebnissen zur späteren Verwendung abgelegt und zu einer späteren Wiederverwendung oder einer Ausgabe auf der Ausgabevorrichtung (AV) bereitsteht.The learning feature vectors can be made immediately Input signals through processing in the Input neurons are obtained, a known one associated class designation (Ki) via a Input device (E) into the learning control device (LV) is entered in the belonging to this Class designation an output neuron is installed or if this was previously unknown. The Learning feature vector collective can, however, be advantageous in one Preliminary or first run created using the input neurons and stored in the cache where it together with the associated test results for later Filed use and for later reuse or an output on the output device (AV) is ready.

Wenn bekannt ist, daß das neuronale Netz mit großer Wahrscheinlichkeit alle bekannten Klassen repräsentiert, so läßt es sich ohne die Lernsteuervorrichtung (LV) verwenden. Um jedoch auch Merkmalvektoren klassifizieren zu können, die nicht innerhalb der Hyperellipsoide liegen oder in Überschneidungsbereichen von Hyperellipsoiden mehrerer Klassen liegen, ist es vorteilhaft vorgesehen, die Prüfvorrichtung (PV) an den Ausgangsneuronen zu belassen und von der Steuervorrichtung die Parameter, vorzugsweise die Schwellwerte (Sj), vorübergehend in den betroffenen Zwischenneuronen innerhalb vorgegebener Grenzen variieren zu lassen, bis sich jeweils eine und zwar eine eindeutige Klassifizierung ergibt. Als ein Maß für das Zutreffen einer Klasse nach einer solchen Variation wird dabei zweckmäßig der zu der Klassifizierung führende Schwellwert (Sj) mit der Klassenangabe auf eine Ausgabevorrichtung (AV) ausgegeben. Die Indizes i sind jeweils für die einzelnen Merkmale eines Merkmalvektors benutzt und die Indizes j sind für die Größen des jeweils laufenden Lern- oder Merkmalvektors und der zugehörigen laufenden Größen verwandt.If it is known that the neural network with large Probability represents all known classes, so it can be used without the learning control device (LV). However, in order to also be able to classify feature vectors, the do not lie within the hyperellipsoids or in Overlap areas of several hyperellipsoids Classes lie, it is advantageously provided that Leave the test device (PV) on the output neurons and  from the control device the parameters, preferably the Thresholds (Sj), temporarily in the affected Intermediate neurons vary within given limits until there is one unique Classification results. As a measure of whether one applies Class after such a variation is appropriate the threshold value (Sj) leading to the classification with the Class specification output on an output device (AV). The indices i are one for the individual characteristics Feature vectors are used and the indices j are for the sizes the current learning or feature vector and the related current sizes related.

Fig. 5 zeigt einen Motorprüfstand für Elektromotoren (EM), der eine Klassifikation von Prüflingen mittels eines neuronalen Netzes (NN) vornimmt, und der auch zum Erzeugen der erforderlichen Lernmerkmalmuster geeignet ist, wenn er mit den jeweils bekannten fehlerhaften Prüflingen betrieben wird. Fig. 5 shows an engine test bench for electric motors (EM) which performs a classification of samples using a neural network (NN), and which is also suitable for generating the required learning feature pattern when it is operated with the respective known faulty devices under test.

An dem Prüfling-Elektromotor (EM) ist hinter einer Einschaltvorrichtung (ES) der Netzspannung (UN) ein Spannungsmesser (VM) und ein Strommesser (CM) angeordnet, deren Meßsignale (UM, IM) den Eingängen (EG1, EG2) des neuronalen Netzes (NN) zugeführt sind. Weiterhin ist an der Welle des Motors (EM) ein Drehzahlmesser (TM) angeordnet, dessen Meßsignal (DM) ebenfalls einem Signaleingang des neuronalen Netzes (NN) zugeführt ist. Daneben ist es einem ersten Vergleicher (VS1) zugeführt, dessen Ausgangssignal bei Erreichen einer ersten vorgegebenen Drehzahl (DV1) durch die das Ende des Hochlaufens bestimmt ist, die Einschaltvorrichtung (ES) trennt. In einem zweiten Vergleicher (VS2) wird die gemessene Drehzahl dann darauf überwacht, wann sie einen zweiten Grenzwert (DV2) unterschreitet, wodurch das Ende der Meßwerterfassung durch eine vorzeitige Abschaltung einer ansonsten eine maximale Erfassungsdauer bestimmenden Zeitsteuervorrichtung (TC) dem neuronalen Netz signalisiert wird. Darüberhinaus ist mindestens ein Schwingungs- und/oder Körperschallmesser (SA) an dem Prüfling angeordnet, dessen Meßsignal (SM) ebenfalls dem neuronalen Netz zugeführt ist.On the test object electric motor (EM) is behind one Switch-on device (ES) of the mains voltage (UN) Voltmeter (VM) and an ammeter (CM) arranged, whose measurement signals (UM, IM) the inputs (EG1, EG2) of neural network (NN) are supplied. Furthermore, the Shaft of the engine (EM) a tachometer (TM) arranged whose measurement signal (DM) also a signal input of neural network (NN) is supplied. Next to it is one first comparator (VS1) supplied, its output signal when a first predetermined speed (DV1) is reached which is the end of the ramp up, which Switch-on device (ES) separates. In a second The measured speed is then compared (VS2) monitors when it has a second limit (DV2)  falls below, whereby the end of the measured value acquisition by an early shutdown of an otherwise a maximum Detection duration determining time control device (TC) the neural network is signaled. Beyond that at least one vibration and / or structure-borne noise meter (SA) arranged on the test object, whose measurement signal (SM) also is fed to the neural network.

Die Aufbereitung der eingehenden Wechselgrößen (IM, UM, SM) erfolgt jeweils mit einer Gleichrichtung (GL), und sämtliche Meßsignale werden einer Filterung (KF) unterworfen. Letztlich erfolgt eine Multiplexerfassung gemäß Fig. 2 und eine Stützwertbestimmung sowie eine Normierung der Stützwerte, die jeweils zu einem Multiplexerdurchlauf gewonnen wurden. Die Erfassungsdauer der Meßsignale ist durch das Einschaltsignal (St′) bestimmt, das von der Einschaltvorrichtung (ES) aus einem Startsignal (St) abgeleitet ist, und durch die Vergleicherausgangssignale von den Drehzahlvergleichern (VS1, VS2) zum anderen bestimmt. Es hat sich gezeigt, daß bei Verwendung handelsüblicher Komponenten die analogen Meßsignale (IM, UM, SM, DM) über einen Meßmultiplexer (MM) an einen Analog-Digital-Umsetzer (ADU) geleitet werden können und mit dem Steuertakt (TT) des Meßmultiplexers (MM) die verschiedenen digitalisierten Meßwerte den verschiedenen Eingängen (EG1, EG2 . . .) des neuronalen Netzes mit Untertakten (TT1, TT2, TT3, TT4) zugeführt werden können.The incoming alternating quantities (IM, UM, SM) are each processed with a rectification (GL), and all measurement signals are subjected to filtering (KF). Finally, a multiplex detection according to FIG. 2 and a base value determination as well as a normalization of the base values are carried out, which were obtained in each case for a multiplexer run. The detection period of the measurement signals is determined by the switch-on signal (St '), which is derived from the switch-on device (ES) from a start signal (St), and by the comparator output signals from the speed comparators (VS1, VS2) to the other. It has been shown that when using commercially available components, the analog measurement signals (IM, UM, SM, DM) can be passed via a measurement multiplexer (MM) to an analog-to-digital converter (ADC) and with the control clock (TT) of the measurement multiplexer (MM) the various digitized measured values can be fed to the various inputs (EG1, EG2...) Of the neural network with underclocking (TT1, TT2, TT3, TT4).

Insbesondere ist der neuartige Motorprüfstand durch folgendes charakterisiert:In particular, the new engine test bench is through characterized the following:

  • - Anregung des Motors durch eine festgelegte Eingangsfunktion (eingeschaltete Gleich- bzw. Wechselspannung); - Excitation of the engine by a fixed Input function (switched on DC or AC voltage);  
  • - Betrieb des Motors im Leerlauf (ohne Belastungseinrichtung wie Drehmomentbremse, Lüfterrad oder Schwungscheiben);- Operation of the engine at idle (without load device like torque brake, fan wheel or flywheels);
  • - Datenerfassung von Strom-, Spannungs-, Drehzahl- und Körperschallsignal über Shunt, Spannungsteiler, optischen Aufnehmer und Körperschallaufnehmer oder Laservibrometer;- Data acquisition of current, voltage, speed and Structure-borne noise signal via shunt, voltage divider, optical Transducers and structure-borne noise transducers or laser vibrometers;
  • - Einschaltdauer bis zur Überschreitung der Betriebsdrehzahl bei intakten Motoren (Enddrehzahl bei Nebenschlußmotoren);- Duty cycle until the operating speed is exceeded for intact motors (final speed for shunt motors);
  • - Meßwertaufnahme auch während des Auslaufvorgangs zur Erfassung der mechanischen Verluste;- Recording of measured values also during the run-out process Recording of mechanical losses;
  • - Einhüllendenbestimmung bei Wechselgrößen (Strom, Körperschall, Spannung);- Envelope determination for alternating variables (current, Structure-borne noise, tension);
  • - Verwendung von Kurzzeitmittelwerten zur Unterdrückung von Störungen;- Use of short-term averages to suppress Disorders;
  • - Direkte Verwendung der gegebenenfalls gemittelten Stützwerte für die Fehlererkennungsklassifizierung;- Direct use of the averaged if applicable Base values for error detection classification;
  • - Einsatz eines neuronalen Netzes zur Fehlererkennungsklassifizierung;- Use of a neural network for Error detection classification;
  • - Lernverfahren zur Wissenspeicherung von Lernmerkmalvektoren von fehlerhaften Objekten.- Learning process for knowledge storage of Learning feature vectors of defective objects.

Darüber hinaus ist es vorgesehen, als Nebenprodukt aus den gewonnenen Meßwerten eine Ermittlung von Motorkennlinien durch eine Bestimmung stationärer Arbeitspunkte des Motors vorzunehmen und solche Arbeitspunkte auszusuchen, die durch Drehzahl, Drehmoment, Strom, Wellenleistung, Wirkungsgrad beschrieben werden. Die Ausgabe dieser gewonnenen Arbeitspunkte ist z. B. graphisch als Funktion des Stromes, des Drehmoments oder der Drehzahl aus der Ausgabevorrichtung (AV) vorgesehen.In addition, it is intended to be a byproduct of the obtained measured values a determination of engine characteristics by determining the engine's stationary operating points to make and to select such working points by Speed, torque, current, shaft power, efficiency to be discribed. The output of these gained working points  is z. B. graphically as a function of the current, the torque or the speed from the output device (AV) intended.

Die Arbeitsweise der Motorprüfvorrichtung geschieht in folgender Weise. Der Rotor des zu untersuchenden Motors wird durch die eingeschaltete Spannung beschleunigt. Durch die drehende Bewegung werden Körperschallschwingungen angeregt. Die Drehzahl und der Strom haben entsprechend des jeweiligen Motorzustandes einen typischen Verlauf. Diese leicht zu messenden Größen werden von dem Analog-Digital-Umsetzer (ADU) in rechnergeeignete Zahlenfolgen umgesetzt. Zur Messung von Wechselsignalen ist die Bestimmung der Einhüllenden der Zeitsignale vorgesehen. Diese Aufbereitung kann sowohl durch eine analoge Signalverarbeitung als auch durch Anwendung digitaler Algorithmen in einem Rechner erfolgen. Zur Datenreduktion und Störsignalunterdrückung werden vorteilhaft Kurzzeitmittelwerte verwendet, die ebenso wie die eventuell verwendete Einhüllendenbestimmung analog oder digital realisierbar ist. Diese Stützwerte charakterisieren den zustandstypischen Zeitverlauf von Stromverlauf und Körperschwingungen des zu untersuchenden Motores. Sie werden direkt als die Eingangsgrößen des Klassifikators verwendet. Insbesondere zur Klassifizierung wird das neuronale Netz eingesetzt, das durch das spezielle Lernverfahren anhand weniger Mustermotoren mit den entsprechenden Produktionsfehlern trainiert wird. Neu zu lernende Muster können aufgrund des Lernverfahrens unmittelbar in den Wissensspeicher (die Wissenbasis) mit dem Lernmerkmalkollektiv aufgenommen werden. Der Lernalgorithmus erweitert unter Umständen die Anzahl der Neuronen in der verdeckten Schicht und der Ausgangsschicht des neuronalen Netzes. Dadurch sind alle bekannten Zustände wiederzuerkennen. Aus den aufgenommenen Stützwerten der Zeitfunktionen werden stationäre Arbeitspunkte des zu untersuchenden Motors ermittelt. Diese sind durch Drehzahl, Drehmoment, Wellenleistung, Wirkungsgrad und Strom beschreibbar. Eine graphische Darstellung der Arbeitspunkte liefert die gewohnten Motorkennlinien als Beleg.The engine tester operates in following way. The rotor of the engine to be examined is accelerated by the switched on voltage. Through the rotating motion, structure-borne noise is excited. The speed and current have according to the respective Engine condition a typical course. This easy too measuring quantities are from the analog-to-digital converter (ADU) converted into numerical sequences suitable for computers. To measure Alternating signals is the determination of the envelope of the Time signals provided. This processing can be done both an analog signal processing as well as by application digital algorithms take place in a computer. For Data reduction and interference signal suppression advantageously used short-term averages, which as well the envelope determination that may be used is analog or is digitally realizable. Characterize these base values the state-typical time curve of current curve and Body vibrations of the engine to be examined. you will be used directly as the input variables of the classifier. The neural network is used especially for classification used by the special learning process fewer sample engines with the corresponding Production errors is trained. New patterns to learn can learn directly in the Knowledge store (the knowledge base) with the Learning feature collectively be included. The learning algorithm may expand the number of neurons in the hidden layer and the output layer of the neural network. This means that all known states can be recognized. Out the recorded base values of the time functions  stationary operating points of the engine to be examined determined. These are by speed, torque, Wave power, efficiency and current can be written. A provides the graphical representation of the operating points familiar engine characteristics as evidence.

In der automatisierten Fertigung werden Elektromotoren in großen Stückzahlen hergestellt. Zur Sicherung der Qualität ist ein möglichst vollständiger Test aller Motoren notwendig. Die bekannten Verfahren benötigen einige Sekunden zur Datenaufnahme und sind entweder in der Aussagesicherheit, was den Fehlertyp betrifft, zu ungenau oder sie erfordern einen hohen rechentechnischen Aufwand.In automated manufacturing, electric motors are used in large quantities manufactured. To ensure quality is a complete test of all engines necessary. The known methods take a few seconds for data acquisition and are either in the Reliability regarding the type of error is too imprecise or they require a high level of computational effort.

Die bekannten nicht modellgestützten Motorprüfvorrichtungen benötigen eine Belastungseinrichtung des Motors (Bremse). Mit Hilfe einer elektronischen Steuerung werden festgelegte Betriebszustände mit einer geregelten Einrichtung angefahren, und die freien Größen werden dann gemessen. Dieses sind unter anderem der Strom, der bei einer vorgegebenen Belastung aufgenommen wird. Anhand der gemessenen Größen erfolgt eine qualitätsbezogene Aussage durch einen Vergleich der Meßgrößen mit bekannten Referenzgrößen.The known non-model-based engine test devices require a load device for the motor (brake). With the help of an electronic control, fixed Operating states started with a controlled device, and the free sizes are then measured. These are among other things, the current at a given Load is absorbed. Based on the measured quantities a quality-related statement is made by comparison of the measured quantities with known reference quantities.

Weiterhin läßt sich der Motor bekanntlich durch ein zu erstellendes mathematisches Modell beschreiben, dessen Modellgrößen mit großem Aufwand geschätzt werden müssen. Hierzu sind Eingangssignale notwendig, die die Beobachtung und damit die Schätzung aller benötigten Kenngrößen ermöglichen. Die Schätzung erfolgt mit Hilfe von Approximationsroutinen. Die Modellparameter stehen in enger Beziehung zu den realen physikalischen Größen und sind damit zur detaillierten Fehlererkennung geeignet. Die Fehler an den Prüflingen werden mit Hilfe von Grenzwertüberschreitungen oder durch einen Vergleich mit bekannten Referenzwerten anhand des Modelles ermittelt.As is well known, the motor can also be closed by a describe the creating mathematical model, its Model sizes have to be estimated with great effort. For this, input signals are necessary, which are the observation and thus the estimation of all required parameters enable. The estimate is made with the help of Approximation routines. The model parameters are closer Relationship to the real physical quantities and are thus suitable for detailed error detection. The mistakes in the DUTs are exceeded with the help of limit violations  or by a comparison with known reference values determined based on the model.

Das neuartige Verfahren verwendet dagegen als Anregungsgröße z. B. die eingeschaltete Betriebsspannung des Motors, wie sie bei jedem Betrieb vorkommt. Aufgrund der Konstruktion des Motors entstehen dadurch typische zeitliche Verläufe des Stromes und Körperschwingungen. Diese Signale werden meßtechnisch erfaßt und durch Stützwerte oder Abtastwerte repräsentiert, mit denen das Analysenetzwerk das zustandstypische Verhalten wiedererkennt und somit den Zustand angibt. Treten unbekannte untypische Zustände auf, so läßt sich das verwendete neuronale Netz nach einem Lernschritt jeweils entsprechend erweitern, so daß ein erneutes Auftreten dieses Zustandes wiedererkannt wird. Gleichzeitig werden als Nebenprodukt aus den Meßgrößen stationäre Motorbetriebszustände ermittelt, die als Motorkennlinien angezeigt werden können.The new method, however, uses as an excitation variable e.g. B. the switched-on operating voltage of the motor as it occurs in every business. Due to the construction of the This results in typical temporal courses of the engine Current and body vibrations. These signals are recorded by measurement and by means of base values or samples represents with which the analysis network the recognizes typical behavior and thus the State indicates. If unknown atypical conditions occur, so the neural network used can be Extend the learning step accordingly so that a recurrence of this condition is recognized. At the same time, as a by-product of the measurands stationary engine operating conditions determined as Motor characteristics can be displayed.

Diese Erfindung ermöglicht wegen der schnellen Datenaufnahme, die nur über den Hochlauf und Auslauf des Motors erfolgt, und wegen des geringen numerischen Aufwandes zur Kennwertermittlung und der Bewertung mit einem neuronalen Netz einen vollständigen Test aller produzierten Motoren.This invention enables because of the fast Data acquisition that is only about the startup and shutdown of the Motors takes place, and because of the low numerical effort for the determination of characteristic values and the evaluation with a neural network produced a complete test of all Engines.

Die Prüfvorrichtung ist unter Anpassung auf eine geeignete Meßwertaufnahme ohne weiteres für andere Objekte einsetzbar.The test device is adapted to a suitable one Measured value recording can easily be used for other objects.

Das neuronale Netz läßt sich auch mit anderen Abstandsfunktionen als der dargestellten realisieren, wobei darauf zu achten ist, daß diese möglichst stetig fallende, eindeutige Funktionen sein sollten. Bevorzugt sind Exponential-, Glockenkurven- oder Potenzfunktionen, bei denen im Mittelpunkt ein endlicher Wert vorhanden ist und in einem bestimmten Abstand davon ein relativ steil abfallender Bereich vorhanden ist.The neural network can also be used with others Realize distance functions as shown, where It is important to ensure that this falling, should be unique functions. Are preferred Exponential, bell curve or power functions, at  which have a finite value at the center and in a relatively steep slope at a certain distance from it Area exists.

Das Verfahren zur wiederholenden Erzeugung klassifizierender Neuronen in einem Netz mit einem jeweils neu sortierten und reduzierten Lernmerkmalkollektiv stellt eine eigenständige Erfindung dar, die entsprechend angepaßt auch für andere klassifizierende Neuronentypen mit anderen Funktionsinhalten anwendbar ist.The process of repetitive classifying generation Neurons in a network with a new and sorted each reduced learning feature collective represents a independent invention, which is adapted accordingly for other classifying neuron types with others Functional content is applicable.

Die Lernschritte für das Lernen einer Stichprobe sind hier in einer Übersicht nochmals im einzelnen angegeben:The learning steps for learning a sample are here specified in an overview again:

- Für den Merkmalvektor einer Klasse wird in der Lernphase ein Streubereich in Form eines Hyperellipsoids im mehrdimensionalen Merkmalraum festgelegt. In einem ersten Schritt dazu werden alle Radien auf einen zu bestimmenden Maximalwert festgelegt. Dadurch sind diese Anfangsradien für alle Richtungen des Vektorraumes gleich groß, man hat eine Hyperkugel im Merkmalraum.- For the feature vector of a class is in the learning phase a scattering area in the form of a hyperellipsoid in the multi-dimensional feature space. In a first Step to do this are all radii on one to be determined Maximum value set. This makes these initial radii for all directions of the vector space are the same size, you have one Hyperball in the feature space.

- Anschließend werden alle folgenden Lernmerkmalvektoren geprüft, ob sie innerhalb dieses so bestimmten Streubereiches liegen und damit richtig zugeordnet werden. Der Streubereich um das erste angelegte Muster kann als Unterraumausschnitt der Musterklasse aufgefaßt werden.- Then all the following learning feature vectors checked whether they were so determined within this Spreading range and are therefore correctly assigned. The spreading area around the first created pattern can be as Subspace section of the sample class can be understood.

- Liegt ein Merkmalvektor dieser Klasse außerhalb dieses ersten Einflußbereiches, so wird ein zweiter Unterraumausschnitt festgelegt und so weiter, bis alle Merkmalvektoren einer Klasse gelernt sind. - If a feature vector of this class lies outside of this first area of influence, so becomes a second Subspace cutout and so on until all Feature vectors of a class are learned.  

- Für alle folgenden Klassen wird in derselben Weise verfahren. Sind die Raumausschnitte der Klassen im Merkmalraum disjunkt verteilt, so sind keine weiteren Maßnahmen erforderlich.- For all subsequent classes, the same way method. Are the room sections of the classes in the Trait space is distributed disjunctly, so there are no more Measures required.

- Obwohl die Raumausschnitte der Klassen im Merkmalraum disjunkt verteilt sein können, kann es trotzdem zu Kollisionen zwischen Einflußbereichen vom Merkmalvektoren unterschiedlicher Klassen kommen. In diesem Fall werden die entsprechenden Radien der betroffenen Unterraumausschnitte so weit reduziert, bis kein Merkmalvektor einer Klasse mehr im Einflußbereich einer falschen Klasse liegt. Dies bedeutet auch, daß Überlappungsbereiche der Raumausschnitte verschiedener Klassen im Merkmalraum existieren können, in diesen liegt jedoch kein Merkmalvektor der Lernstichprobe.- Although the room sections of the classes in Trait space can be distributed disjunctively, it can nevertheless to collisions between areas of influence from the feature vectors different classes come. In this case, the corresponding radii of the affected subspace sections reduced until no more feature vectors of a class is in the sphere of influence of a wrong class. this means also that overlap areas of the room details different classes can exist in the feature space, in however, there is no characteristic vector of the learning sample.

- Zusätzlich ist ein minimaler Radiuswert vorgegeben, der bei einer Radiusverringerung nicht unterschritten werden darf. Im Grenzfall wird der Minimalwert angenommen.- In addition, a minimum radius value is specified, the when the radius is reduced may. In the limit case, the minimum value is assumed.

- Liegt ein Merkmalvektor im Bereich eines falschen Unterraumausschnitts, so wird nur ein Radius des definierten Hyperellipsoids reduziert. Dabei handelt es sich um diejenige Halbachse mit dem kleinsten Winkel zur Verbindungslinie zwischen dem Unterraummittelpunktvektor und dem falsch klassifizierten Merkmalvektor. Hatte das Einflußgebiet noch die durch Initialisierungswerte vorgegebene Hyperkugelform, so ergibt sich daraus jetzt das zuvor allgemein definierte Hyperellipsoid.- If a feature vector is in the wrong area Subspace section, so only a radius of the defined Hyperellipsoids reduced. It refers to the semiaxis with the smallest angle to Connection line between the subspace center vector and the misclassified feature vector. Had this Area of influence still by initialization values predefined hyperspherical shape, this now results from this previously generally defined hyperellipsoid.

- Eine andere Behandlung einer Kollision ist die Reduktion aller Radien um den gleichen Faktor. Dieser wird so berechnet, daß das vorher falsch klassifizierte Muster außerhalb des Einflußbereiches der falschen Musterklasse liegt. In diesem Fall bleibt die initialisierte Hyperkugelform erhalten, auch hierbei wird der vorgegebene Minimalwert, der für alle Richtungen gleich ist, beachtet.- Another treatment for a collision is reduction all radii by the same factor. This will be so calculates that the previously misclassified pattern outside the sphere of influence of the wrong model class lies. In this case, the initialized one remains  Preserve hyperspherical shape, here too the default one Minimum value, which is the same for all directions, is observed.

- Liegt der Merkmalvektor einer Klasse innerhalb des Bereiches einer anderen Klasse, wie es bei überlappenden Clusterbereichen vorkommen kann, und können die Radien der betroffenen Unterraumausschnitte nicht weiter reduziert werden, da der vorgegebene Minimalradius erreicht ist, so muß dieser innerhalb des Raumausschnittes einer anderen Klasse liegende Einflußbereich gesondert gekennzeichnet werden. Dies wird durch Einführung zweier verschiedener Arten von Unterraumausschnitten erreicht. Ein Typ symbolisiert dabei den Normalfall der nicht überlappenden Bereiche von verschiedenen Klassen, der andere kennzeichnet den Fall der Clusterdurchdringung oder -überlappung.- If the feature vector of a class lies within the Area of another class, as is the case with overlapping Cluster areas can occur, and can the radii of the affected subspaces not further reduced because the specified minimum radius has been reached, so this must be within the space of another Class influence area marked separately become. This is done by introducing two different ones Types of subspace clippings achieved. A guy symbolizes the normal case of non-overlapping Areas of different classes that characterize others the case of cluster penetration or overlap.

- Durch die Verringerung der Hyperellipsoid-Radien können Muster, die zuvor der richtigen Klasse zugeordnet wurden, aus den entsprechenden Einflußbereichen herausfallen. Für diese Lernmerkmalvektoren müssen dann eigene Unterraumausschnitte geschaffen werden. Aus diesem Grund werden die vorstehenden Schritte solange wiederholt, bis alle zu klassifizierenden Lernmerkmalvektoren den korrekten Unterraumausschnitten zugeordnet sind und bei einem Lerndurchlauf keine weitere Verringerung von Radien stattfindet.- By reducing the hyperellipsoid radii Patterns that were previously assigned to the correct class fall out of the corresponding spheres of influence. For these learning feature vectors must then have their own Subspaces are created. For this reason the above steps are repeated until all learning feature vectors to be classified are correct Subspaces are assigned and at a Learning cycle no further reduction of radii takes place.

Der Lernvorgang ist damit abgeschlossen. Die Präsentation der Muster kann in einer beliebigen Reihenfolge, also klassenunabhängig stattfinden.The learning process is now complete. The presentation the pattern can be in any order, so take place regardless of class.

Ausgehend von einer bekannten Lernstichprobe, d. h. einem Lernmerkmalkollektiv, und einer neuen, nachzulernenden Teststichprobe, d. h. einem weiteren Lernmerkmalkollektiv, ergibt sich ein für das selbstorganisierende Klassifikationsnetzwerk gültiges Nachlernverfahren folgendermaßen aus den Verfahrensschritten:Based on a known learning sample, i.e. H. one Learning feature collective, and a new one to be re-learned Test sample, d. H. another learning characteristic collective,  there is one for the self-organizing Classification network valid learning process from the process steps as follows:

- Der Klassifikator wird mit der Lernstichprobe trainiert, die Teststichprobe wird anschließend klassifiziert.- The classifier is trained with the learning sample, the test sample is then classified.

- Bei einer fehlerfreien Klassifikation der Teststichprobe ist ein Nachlernen nicht notwendig. Ansonsten werden diejenigen Testmuster, die nicht in den angelegten Unterraumausschnitten liegen und somit nur durch eine Abstandsentscheidung zugeordnet werden können, zur Lernstichprobe hinzugefügt.- If the test sample is classified correctly re-learning is not necessary. Otherwise those test patterns that are not in the created Subspaces are located and therefore only by one Distance decision can be assigned to Learning sample added.

- Das Netz wird in den ungelernten Anfangszustand versetzt und die neue Lernstichprobe gelernt; die Teststichprobe wird dann klassifiziert.- The network is set to the unskilled initial state and learned the new learning sample; the test sample will then classified.

- Existieren Testmuster außerhalb von gelernten Unterraumausschnitten, so werden die betreffenden Muster zur Lernstichprobe hinzugefügt und der vorige Schritt wird wiederholt.- Test patterns exist outside of learned ones Subspaces, the relevant patterns become Learning sample added and the previous step is repeated.

- Alle Muster sind jetzt eindeutig den zugehörigen Unterraumausschnitten zugeordnet. Sind alle Muster richtig klassifiziert, ist das Nachlernen beendet. Treten jedoch Fehlklassifikationen auf, werden die entsprechenden Muster zur aktuellen Lernstichprobe hinzugefügt, und die letzten beiden Schritte werden wiederholt.- All patterns are now clearly the corresponding ones Assigned subspace sections. Are all patterns correct? classified, the re-learning is finished. Kick however Misclassifications, the corresponding patterns added to the current learning sample, and the last ones the two steps are repeated.

Die in der Beschreibung und in den Ansprüchen durchgehend benutzten Begriffe des allgemeinen Fachsprachgebrauchs: Lernmuster, Lernmerkmalvektor, Lernmerkmalkollektiv, Lernvorrichtung und Lernphase, sind so richtig bezeichnet, wenn diese als Teil der selbstlernenden Gesamtvorrichtung gesehen werden.Consistently throughout the description and claims Terms used in general terminology: Learning pattern, learning feature vector, learning feature collective, Learning device and learning phase are correctly labeled,  if this is part of the overall self-learning device be seen.

Bei einer anderen Betrachtungsweise, in der das neuronale Netz getrennt von der Lehrvorrichtung und dem einzuspeisenden Lehrstoff gesehen wird, sind diese vorstehenden Begriffe dementsprechend als Lehrmuster, Lehrmerkmalvektor, Lehrmerkmalkollektiv, Lehrvorrichtung und Lehrmerkmalvektor zu bezeichnen. Ein grundsätzlicher Unterschied in der Gesamtanordnung ist damit nicht gegeben.Another way of looking at the neural Network separate from the teaching device and the is to be seen, these are the above terms accordingly as teaching patterns, Teaching feature vector, teaching feature collective, teaching device and To denote teaching feature vector. A basic one There is no difference in the overall arrangement.

Claims (20)

1. Neuronales Netz bestehend aus untereinander netzartig schichtweise hintereinandergeschalteten Neuronenschichten (NSE, NSM, NSA), von denen einer Eingangsneuronenschicht (NSE) über Eingänge (EG1, EG2) Eingangsmuster jeweils als ein n-dimensionaler Merkmalvektor zuzuführen sind und deren Eingangsneuronen (NE1-NE13) jeweils mit Eingängen von Zwischenneuronen (NM1-NM4) einer Zwischenneuronenschicht (NSM) verbunden sind, in denen jeweils mittels einer parametrisierten Klassenfunktion (T) oder Unterklassenfunktion (T′) eine Zugehörigkeit des jeweils vorliegenden Merkmalvektors zu einer dem jeweiligen Zwischenneuron (NM1-NM4) zugeordneten Klasse oder Unterklasse zu ermitteln ist, die von den Zwischenneuronen (NM1-NM4) an Ausgangsneuronen (NA1-NA3) einer Ausgangsneuronenschicht (NSA) mitgeteilt ist, deren Ausgangsgrößen einen Ausgangsvektor repräsentieren, wobei das neuronale Netz an eine Lernsteuervorrichtung (LV) und eine Prüfvorrichtung (PV) anschließbar ist und die Ausgangssignale der Ausgangsneuronen (NA1-NA3) der Prüfvorrichtung (PV) zugeführt sind, die, wenn bei eingangsseitigem Anliegen eines Lernmerkmalvektors keine Klassenzugehörigkeit vorliegt oder mehrere Klassenzugehörigkeiten vorliegen, dieses der Lernsteuervorrichtung (LV) signalisiert, welche abhängig von diesen Prüfvorrichtungsausgangssignalen den Zwischenneuronen (NM1-NM4) jeweils mindestens einen geänderten Parameter (W, R, S) mindestens einer der Klassen- oder Unterklassenfunktionen (T, T′) zuführt, welche jeweils die Klassenzugehörigkeit beschreibt und durch eine Abstandsfunktion bezüglich eines n-dimensionalen Mittelpunktvektors (W) eines n-dimensional bezüglich seiner Grenzen parametrisierten Raumausschnittes (U1; U2-U4) bestimmt ist, wobei eine Grenzparametervariation derart vorgenommen ist, daß alle von einer Vielzahl von jeweils einer den Klassen zugeordneten Lernmerkmalvektoren in einen der Raumausschnitte (U1; U2-U4), der nur dieser einen Klasse zugeordnet ist, verweisen, dadurch gekennzeichnet, daß die Grenzparametervariation, wenn die Prüfvorrichtung (PV) keine Klassenzugehörigkeit signalisiert, jeweils in demjenigen der Ausgangsneuronen (NA1-NA3) erfolgt, das der Klasse des jeweiligen Lernmerkmalvektors zugeordnet ist, und die Grenzparametervariation, wenn die Prüfvorrichtung (PV) mehrere Klassenzugehörigkeiten signalisiert, jeweils in allen den Ausgangsneuronen (NA1-NA3) erfolgt, die eine Klassenzugehörigkeit des jeweiligen Lernmerkmalvektors signalisieren, und daß jeweils dann, wenn die Grenzparametervariation eine eindeutige Verweisung auf einen der Raumausschnitte (U1; U2-U4) der Klasse des jeweiligen Lernmerkmalvektors nicht erbringt, eine Aufgliederung eines dieser betreffenden Raumausschnitte (U2-U4) in Unterraumausschnitte (U2; U3; U4) erfolgt, indem mindestens jeweils ein weiteres diesen weiteren Unterraumausschnitt (U3) repräsentierendes Zwischenneuron (NM3) mit durch den Lernmerkmalvektor bestimmten Parametern (W′, R′, S′) einer weiteren Unterklassenfunktion (T′) installiert und dem Ausgangsneuron (NA2) dieser Klasse zugeordnet wird, so daß letztlich von einer Gesamtheit von Lernmerkmalvektoren jeder nur auf solche Raum- oder Unterraumausschnitte (U1; U2, U3, U4) verweist, die nur einer einzigen zugehörigen Klasse oder Unterklasse zugeordnet sind.1.Nural network consisting of neural layers (NSE, NSM, NSA) connected in series like a network, of which input patterns are to be fed to an input neuron layer (NSE) via inputs (EG1, EG2) as an n-dimensional feature vector and their input neurons (NE1-NE13 ) are each connected to inputs of intermediate neurons (NM1-NM4) of an intermediate neuron layer (NSM), in each of which, by means of a parameterized class function (T) or subclass function (T ′), the characteristic vector present belongs to one of the respective intermediate neurons (NM1-NM4 ) assigned class or subclass is to be determined, which is communicated by the intermediate neurons (NM1-NM4) to output neurons (NA1-NA3) of an output neuron layer (NSA), the output variables of which represent an output vector, the neural network being sent to a learning control device (LV) and a test device (PV) can be connected and the output Ignals of the output neurons (NA1-NA3) are fed to the test device (PV), which, if there is no class affiliation or several class affiliations when a learning feature vector is present at the input, signals this to the learning control device (LV) which, depending on these test device output signals, signals the intermediate neurons (NM1- NM4) each feeds at least one changed parameter (W, R, S) to at least one of the class or subclass functions (T, T ′), which each describes the class membership and is represented by a distance function with respect to an n-dimensional center point vector (W) of an n- Dimensionally parameterized space section (U1; U2-U4) is determined, with a limit parameter variation being carried out in such a way that all of a plurality of learning feature vectors assigned to each of the classes refer to one of the spatial sections (U1; U2-U4), which is assigned to only this one class, characterized that the limiting parameter variation when the testing device (PV) does not signal any class membership, respectively, takes place in that of the output neuron (NA1-NA3) is associated with the class of the respective learning feature vector, and the boundary parameter variation when the testing device (PV) indicates several class memberships, in each of the output neurons (NA1-NA3), which signal a class affiliation of the respective learning feature vector, and that whenever the boundary parameter variation does not provide a clear reference to one of the spatial sections (U1; U2-U4) of the class of the respective learning feature vector, a breakdown of one of these nden room sections (U2-U4) in sub-room sections (U2; U3; U4) is carried out by installing at least one further intermediate neuron (NM3) representing this further subspace section (U3) with parameters (W ′, R ′, S ′) of a further subclass function (T ′) determined by the learning feature vector and the output neuron (NA2) is assigned to this class, so that ultimately a total of learning feature vectors each only refers to those spatial or sub-spatial sections (U1; U2, U3, U4) that are assigned to only one associated class or subclass. 2. Neuronales Netz nach Anspruch 1, dadurch gekennzeichnet, daß jeweils ein Ausgangsneuron (NA1-NA3) einer der Klassen zugeordnet ist und alle diejenigen Ausgänge der Zwischenneuronen (NM1-NM4), die jeweils dieser Klasse zugeordnet sind, durch eine ODER-Verknüpfung mit diesem Ausgangsneuron (NA1-NA3) verbunden sind.2. Neural network according to claim 1, characterized characterized that an output neuron (NA1-NA3) is assigned to one of the classes and all those Outputs of the intermediate neurons (NM1-NM4), each  are assigned to this class by an OR operation are connected to this output neuron (NA1-NA3). 3. Neuronales Netz nach Anspruch 1, dadurch gekennzeichnet, daß die Abstandsfunktion eine stetig fallende Funktion ist.3. Neural network according to claim 1, characterized characterized in that the distance function is a continuous falling function is. 4. Neuronales Netz nach Anspruch 3, dadurch gekennzeich­ net, daß die Abstandsfunktion eine Glockenfunktion, eine Potenzfunktion oder eine Exponentialfunktion ist.4. Neural network according to claim 3, characterized net that the distance function is a bell function, a Power function or an exponential function. 5. Neuronales Netz nach Anspruch 4, dadurch gekennzeichnet, daß die Klassenfunktion (T) dadurch bestimmt ist, daß die Abstandsfunktion eine Summe der quadrierten Differenzen des Merkmalvektors (M) zum Mittelpunktvektor (W) dividiert durch das Quadrat der Länge eines Radiusvektors (R) ist, der vom Mittelpunktvektor (W) über den Merkmalvektor (M) zur Grenze des Raumausschnittes (U1; U2- U4) verläuft, und durch einen Vergleich des so gebildeten Abstandsfunktionswertes mit einem jeweils festgelegten Schwellwert (S) die Zugehörigkeit des Merkmalvektors (W) zu dem Raumausschnitt (U1; U2-U4) als Klassenzugehörigkeit bestimmt ist.5. Neural network according to claim 4, characterized characterized in that the class function (T) determines is that the distance function is a sum of the squared Differences between the feature vector (M) and the midpoint vector (W) divided by the square of the length of a radius vector (R) is that from the midpoint vector (W) over the Characteristic vector (M) to the boundary of the spatial section (U1; U2- U4), and by comparing the so formed Distance function value with a fixed one Threshold (S) the affiliation of the feature vector (W) too the spatial section (U1; U2-U4) as a class is determined. 6. Neuronales Netz nach Anspruch 4, dadurch gekennzeichnet, daß die Raumausschnitte (U1) und die Unterraumausschnitte (U2, U3, U4) n-dimensionale Hyperellipsoide darstellen.6. Neural network according to claim 4, characterized characterized in that the room sections (U1) and the Subspace sections (U2, U3, U4) n-dimensional Represent hyperellipsoids. 7. Neuronales Netz nach Anspruch 6, dadurch gekennzeichnet, daß die Raumausschnitte (U1) und die Unterraumausschnitte (U2, U3, U4) n-dimensionale Kugeln darstellen. 7. Neural network according to claim 6, characterized characterized in that the room sections (U1) and the Subspace sections (U2, U3, U4) n-dimensional spheres represent.   8. Neuronales Netz nach Anspruch 5, dadurch gekennzeichnet, daß, wenn die Prüfvorrichtung (PV) signalisiert, daß mehrere Klassenzugehörigkeiten oder keine Klassenzugehörigkeit des Merkmalvektors vorliegt, der Schwellwert (S), ausgehend von einem Wert 1, schrittweise veränderbar ist, bis entweder eine und nur eine Klassenzugehörigkeit vorliegt oder durch eine weitere Prüfung in der Prüfvorrichtung (PV) festgestellt ist, daß die mehreren betreffenden Abstandsfunktionswerte gleich sind.8. Neural network according to claim 5, characterized characterized in that when the test device (PV) signals that several class affiliations or none Class affiliation of the feature vector is present, the Threshold (S), starting from a value of 1, step by step is changeable until either one and only one Class affiliation exists or by another Test in the test device (PV) has determined that the several relevant distance function values are the same are. 9. Neuronales Netz nach Anspruch 8, dadurch gekennzeichnet, daß zu einer Klassenzugehörigkeit jeweils der zugehörig gewählte Schwellwert (S) ausgebbar ist.9. Neural network according to claim 8, characterized characterized that belonging to a class the associated selected threshold value (S) can be output. 10. Neuronales Netz nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß mindestens einer der Eingänge (EG1, EG2) jeweils mit einer zeitlichen Signalfolge einer bestimmten Dauer beaufschlagt ist und diese jeweils einer Gruppe von Eingangsneuronen (NE1-NE13) zugeführt ist, denen in jeder Gruppe, jeweils über die Dauer einer Signalfolge verteilt, zeitlich gegeneinander versetzt Zeitmultiplexsteuersignale zugeführt sind, mittels derer ein jeweiliger Signalwert der Signalfolge in dem Eingangsneuron (NE1-NE13) speicherbar ist, der am Ende der Dauer der Signalfolge als ein Merkmal des Merkmalvektors abgebbar ist.10. Neural network according to one of the preceding claims, characterized in that at least one of the inputs (EG1, EG2) each with a time signal sequence of one certain duration and each one Group of input neurons (NE1-NE13) is fed, those in each group, each for the duration of one Signal sequence distributed, staggered in time Time-division multiplex control signals are supplied, by means of which a respective signal value of the signal sequence in the input neuron (NE1-NE13) can be saved at the end of the duration of the Signal sequence can be output as a feature of the feature vector. 11. Neuronales Netz nach Anspruch 10, dadurch gekennzeichnet, daß die Eingangssignale (EG1, EG2) einer Normierung und/oder einer Mittelwertbildung oder einer Einhüllendenbildung unterziehbar sind und die jeweils gespeicherten Merkmale des Merkmalvektors Mittel- oder Stützwerte der so gemittelten und/oder eingehüllten Eingangssignale (EG1, EG2) sind. 11. Neural network according to claim 10, characterized characterized in that the input signals (EG1, EG2) a Normalization and / or averaging or Envelopes are subtractable and each stored features of the feature vector medium or Basic values of the averaged and / or enveloped Input signals (EG1, EG2) are.   12. Neuronales Netz nach Anspruch 11, dadurch gekennzeichnet, daß für die Mittelwertbildung oder Einhüllenbildung Vorrichtungen zur mehrfachen Abtastung und Digitalisierung sowie Speicherung der Eingangssignale (EG1, EG2) während einer Zeitmultiplexsteuersignaldauer und zur entsprechenden anschließenden digitalen Verarbeitung der gespeicherten Werte vorgesehen sind.12. Neural network according to claim 11, characterized characterized in that for averaging or Enveloping devices for multiple scanning and Digitization and storage of the input signals (EG1, EG2) during a time division control signal duration and for corresponding subsequent digital processing of the stored values are provided. 13. Neuronales Netz nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß den Eingänge (EG1, EG2) jeweils ein Strommeßsignal (IM), ein Spannungsmeßsignal (UM), ein Drehzahlmeßsignal (DM) und ein Körperschallmeßsignal (SM) für die Dauer eines Hochlaufens und/oder eines Auslaufens eines Elektromotors (EM) zugeführt sind, von dem diese genannten Meßsignale (IM, UM, SM, DM) abgenommen sind, und daß Vorrichtungen vorgesehen sind, um diese Meßsignale während der Hochlaufdauer im Zeitmultiplex zu erfassen, deren Einhüllende für Wechselgrößen-Meßsignale (IM, UM, SM) zu bilden und Kurzzeitmittelwerte für diese und das Drehzahlmeßsignal (DM) zu bilden und aus den Einhüllenden und Kurzzeitmittelwerten nach dem Hochlaufen Stützwerte zu bestimmen, die jeweils den Merkmalvektor bilden, wobei die Hochlaufdauer durch das Erreichen einer vorgegebenen Enddrehzahl oder Betriebsdrehzahl oder durch den Ablauf einer vorgegebenen Zeitspanne bestimmt ist.13. Neural network according to one of the preceding claims, characterized in that the inputs (EG1, EG2) each a current measurement signal (IM), a voltage measurement signal (UM) Speed measurement signal (DM) and a structure-borne sound measurement signal (SM) for the duration of a run-up and / or a run-down an electric motor (EM) are supplied, from which this mentioned measurement signals (IM, UM, SM, DM) are removed, and that devices are provided to these measurement signals to be recorded in time division during the ramp-up period, their envelopes for alternating variable measurement signals (IM, UM, SM) to form and short-term averages for this and that Speed measurement signal (DM) form and from the envelope and short-term mean values after start-up support values determine which each form the feature vector, the Run-up time by reaching a predetermined one Final speed or operating speed or through the process a predetermined period of time is determined. 14. Neuronales Netz nach Anspruch 13, dadurch gekennzeichnet, daß die Lernmerkmalvektorern jeweils aus den Meßsignalen (IM, UM, SM, DM) von mängelfreien und von einfach oder mehrfach mängelbehafteten Elektromotoren (EM) aller bekannten Mängelarten während einer Hochlaufdauer erzeugt sind und diesen Lernmerkmalvektoren jeweils entsprechende Mängelindizes als die Ausgangsgrößen zugeordnet sind. 14. Neural network according to claim 13, characterized characterized in that the learning feature vectors each from the Measuring signals (IM, UM, SM, DM) from defect-free and from single or multiple defective electric motors (EM) all known types of defects during a ramp-up period are generated and these learning feature vectors each corresponding deficiency indices as the starting values assigned.   15. Neuronales Netz nach einem der Ansprüche 13 oder 14, dadurch gekennzeichnet, daß in der Zuleitung des Elektromotors (EM) eine steuerbare Einschaltvorrichtung (ES) angeordnet ist und von der Zuleitung die Strom- und Spannungsmeßsignale (IM, UM) abgenommen und der Eingangsneuronenschicht (NSE)) zugeführt sind und an der Motorwelle ein Tachometer (TM) angeordnet ist, dessen Drehzahlmeßsignal (DM) der Eingangsneuronenschicht (NSE) zugeführt ist, und daß an dem Motorkörper ein Körperschall- und/oder Schwingungsaufnehmer (SA) angeordnet ist, dessen (deren) Schwingungsmeßsignal(e) (SM) der Eingangsneuronenschicht (NSE) zugeführt ist (sind) und das Drehzahlmeßsignal (DM) einem Vergleicher (VS1) zugeführt ist, durch den bei der Überschreitung eines ersten vorgegebenen Drehzahlvergleichssignales (DV1) die Einschaltvorrichtung (ES) ausschaltbar und danach bei Unterschreitung eines zweiten vorgegebenen Drehzahlvergleichssignales (DV2) ein Signal für das Ende der Meßwerterfassungsdauer an die Neuronen abgebbar ist.15. Neural network according to one of claims 13 or 14, characterized in that in the feed line of Electric motor (EM) a controllable switch-on device (ES) is arranged and from the supply line the current and Voltage measurement signals (IM, UM) removed and the Input neuron layer (NSE)) are fed and at the Motor shaft a tachometer (TM) is arranged, the Speed measurement signal (DM) of the input neuron layer (NSE) is supplied, and that a structure-borne noise on the engine body and / or vibration sensor (SA) is arranged, the (whose) vibration measurement signal (e) (SM) of Input neuron layer (NSE) is (are) and that Speed measurement signal (DM) fed to a comparator (VS1) is by which when a first is exceeded predetermined speed comparison signal (DV1) Switch-on device (ES) can be switched off and then at Falling short of a second predetermined Speed comparison signal (DV2) a signal for the end of the Measured value acquisition time can be given to the neurons. 16. Neuronales Netz nach Anspruch 15, dadurch gekennzeichnet, daß aus mindestens einem der Wechselgrößen-Meßsignale (IM, UM, SM) ein Einhüllendensignal durch eine Signalgleichrichtung (GL) gewinnbar ist, das der Eingangsneuronenschicht (NSE) zuführbar ist.16. Neural network according to claim 15, characterized characterized in that from at least one of the AC variable measurement signals (IM, UM, SM) an envelope signal by a signal rectification (GL) can be obtained that the Input neuron layer (NSE) can be fed. 17. Neuronales Netz nach Anspruch 15 oder 16, dadurch gekennzeichnet, daß mindestens eines der Meßsignale (IM, UM, SM, DM) oder deren Einhüllendensignal über ein Kurzzeitfilter (KF) der Eingangsneuronenschicht (NSE) zugeführt ist.17. Neural network according to claim 15 or 16, characterized characterized in that at least one of the measurement signals (IM, UM, SM, DM) or their envelope signal via one Short-term filter (KF) of the input neuron layer (NSE) is fed. 18. Neuronales Netz nach einem der Ansprüche 15 bis 17, dadurch gekennzeichnet, daß bei einem Mehrphasenelektromotor von sämtlichen Phasenleitern Strom- und/oder Spannungsmeßsignale abgenommen und der Eingangsneuronenschicht (NSE) zugeführt sind.18. Neural network according to one of claims 15 to 17, characterized in that in a multi-phase electric motor of all phase conductors current and / or  Voltage measurement signals removed and the Input neuron layer (NSE) are fed. 19. Verfahren zur Minimierung eines neuronalen Netzes und Lernmerkmalvektorkollektivs nach einem der Ansprüche 1 bis 18, dadurch gekennzeichnet, daß jeweils nach einem Umsetzen eines ersten vollständigen Kollektivs von Lernmerkmalvektoren in diese vollständig und eindeutig klassifizierend parametrisiert und ggf. aufgegliederte Zwischenneuronen (NM1-NM4) die Mittelpunktvektoren der Raum- oder Unterraumausschnitte (U1, U2, U3, U4) als ein neues, reduziertes Lernmerkmalvektorkollektiv in einem neuen Lernvorgang in ein neues neuronales Netz umgesetzt werden, dann die übrigen Lernmerkmalvektoren des ersten Kollektivs in dem neuen neuronalen Netz klassifiziert werden und dabei diejenigen Lernmerkmalvektoren ermittelt werden, die keine eindeutige Klassenzugehörigkeit zeigen, die dann ergänzend dem reduzierten Lernmerkmalvektorkollektiv hinzugefügt werden und mit denen weitere Lernschritte durchgeführt werden, bis diese vollständig und eindeutig klassifizierende parametrisierte und ggf. aufgegliederte Zwischenneuronen (NM1-NM4) erbracht haben.19. Procedure for minimizing a neural network and learning feature vector collective according to one of claims 1 to 18, characterized in that each time after a first complete Collective of learning feature vectors in this complete and parameterized clearly classifying and if necessary broken down intermediate neurons (NM1-NM4) the Center point vectors of the space or subspace sections (U1, U2, U3, U4) as a new, reduced Learning feature vector collective in a new learning process in one new neural network to be implemented, then the rest Learning feature vectors of the first collective in the new one neural network can be classified and those Learning feature vectors are determined that are not unique Show class affiliation, which then complements the reduced learning feature vector collective can be added and with which further learning steps are carried out until this completely and clearly classifying parameterized and if necessary broken down intermediate neurons (NM1-NM4). 20. Verfahren zur Minimierung eines neuronalen Netzes und Lernmerkmalvektorkollektivs nach Anspruch 19, dadurch gekennzeichnet, daß jeweils die Mittelpunktvektoren der Raum- oder Unterraumausschnitte (U1, U2, U3, U4), die mit dem reduzierten und ergänzten Lernmerkmalvektorkollektiv erzeugt wurden, sooft iterativ als jeweils neues reduziertes Lernmerkmalvektorkollektiv zur Parametrisierung von Zwischenneuronen (NM1-NM4) eingesetzt werden, bis damit das erste, vollständige Kollektiv eindeutig klassifizierbar ist.20. Procedure for minimizing a neural network and Learning feature vector collective according to claim 19, characterized characterized in that the respective midpoint vectors of the Room or sub-room sections (U1, U2, U3, U4) with the reduced and supplemented learning feature vector collective were generated, iteratively as often as new reduced ones Learning feature vector collective for the parameterization of Intermediate neurons (NM1-NM4) are used until so the first, complete collective can be clearly classified is.
DE4124501A 1991-07-24 1991-07-24 Neural network with automatic installation of intermediate neurons Expired - Fee Related DE4124501C2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE4124501A DE4124501C2 (en) 1991-07-24 1991-07-24 Neural network with automatic installation of intermediate neurons
DE4209296A DE4209296A1 (en) 1991-07-24 1992-03-21 Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4124501A DE4124501C2 (en) 1991-07-24 1991-07-24 Neural network with automatic installation of intermediate neurons
DE4209296A DE4209296A1 (en) 1991-07-24 1992-03-21 Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions

Publications (2)

Publication Number Publication Date
DE4124501A1 DE4124501A1 (en) 1993-01-28
DE4124501C2 true DE4124501C2 (en) 1994-09-15

Family

ID=25905785

Family Applications (2)

Application Number Title Priority Date Filing Date
DE4124501A Expired - Fee Related DE4124501C2 (en) 1991-07-24 1991-07-24 Neural network with automatic installation of intermediate neurons
DE4209296A Withdrawn DE4209296A1 (en) 1991-07-24 1992-03-21 Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE4209296A Withdrawn DE4209296A1 (en) 1991-07-24 1992-03-21 Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions

Country Status (1)

Country Link
DE (2) DE4124501C2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19509186A1 (en) * 1995-03-14 1996-09-19 Siemens Ag Device for designing a neural network and neural network
DE19634923A1 (en) * 1996-08-29 1998-03-05 Bruce Boye Cecil O Dr Regulating non-linear engineering process e.g. DC machine field weakening or multi-axle robot movement behaviour
DE19720468A1 (en) * 1997-05-15 1998-11-19 Siemens Ag Neural network operating method for X=ray angiography
DE19808197C2 (en) * 1998-02-27 2001-08-09 Mtu Aero Engines Gmbh System and method for diagnosing engine conditions
DE102006000916B3 (en) * 2005-01-07 2007-08-30 General Motors Corp., Detroit Vehicle parameter evaluation method involves sampling parameters at different sample times to generate data samples and including data samples in sample set

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10161224A1 (en) * 2001-12-13 2003-06-26 Deutsche Telekom Ag Telephone pulse to tone signalling conversion unit uses neural network filter
CN107024331B (en) * 2017-03-31 2019-07-12 中车工业研究院有限公司 A kind of neural network is to train motor oscillating online test method
DE102018201710A1 (en) * 2018-02-05 2019-08-08 Robert Bosch Gmbh Method and device for checking a function of a neural network
RU2699396C1 (en) * 2018-11-19 2019-09-05 Общество С Ограниченной Ответственностью "Инвек" Neural network for interpreting natural language sentences
CN109580230A (en) * 2018-12-11 2019-04-05 中国航空工业集团公司西安航空计算技术研究所 A kind of Fault Diagnosis of Engine and device based on BP neural network

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2231760B (en) * 1989-05-18 1994-06-01 Apple Computer Neural network for color selection
US5167006A (en) * 1989-12-29 1992-11-24 Ricoh Company, Ltd. Neuron unit, neural network and signal processing method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19509186A1 (en) * 1995-03-14 1996-09-19 Siemens Ag Device for designing a neural network and neural network
DE19634923A1 (en) * 1996-08-29 1998-03-05 Bruce Boye Cecil O Dr Regulating non-linear engineering process e.g. DC machine field weakening or multi-axle robot movement behaviour
DE19634923C2 (en) * 1996-08-29 1999-08-19 Bruce Boye Linearization of nonlinear technical processes with the help of a deviation observer
DE19720468A1 (en) * 1997-05-15 1998-11-19 Siemens Ag Neural network operating method for X=ray angiography
DE19808197C2 (en) * 1998-02-27 2001-08-09 Mtu Aero Engines Gmbh System and method for diagnosing engine conditions
DE102006000916B3 (en) * 2005-01-07 2007-08-30 General Motors Corp., Detroit Vehicle parameter evaluation method involves sampling parameters at different sample times to generate data samples and including data samples in sample set
DE102006000916B8 (en) * 2005-01-07 2007-12-13 General Motors Corp., Detroit Apparatus and method for evaluating a dynamic system

Also Published As

Publication number Publication date
DE4124501A1 (en) 1993-01-28
DE4209296A1 (en) 1993-09-23

Similar Documents

Publication Publication Date Title
DE102006008482B4 (en) Input vectoring method in neural networks for auto-identification of a partial discharge source
DE69732569T2 (en) SYSTEM FOR DETECTING FAULTS OF ELECTRIC MOTORS
EP2064522B1 (en) Method and device for monitoring the noise from a sensor
DE102016102328A1 (en) System for diagnosing anomalies, diagnostic procedures and device
DE4124501C2 (en) Neural network with automatic installation of intermediate neurons
DE112020006911T5 (en) Data generation device, machine learning system and machining state estimation device
DE102017122315A1 (en) MANAGEMENT SYSTEM, MANAGEMENT DEVICE, METHOD FOR DETECTING A SPINDLE FAILURE USING THE MANAGEMENT DEVICE AND COMPUTER PROGRAM
DE102016007404A1 (en) A servo control device with online control gain enhancement function using a weighting function
DE102019217613A1 (en) METHOD OF DIAGNOSING AN ENGINE CONDITION AND DIAGNOSTIC MODELING METHOD FOR THEREOF
WO2022033794A1 (en) Battery management system for classifying a battery module
EP3081914B1 (en) Monitoring of a machine with a rotating machine component
DE69818380T2 (en) Method for monitoring a planetary gear provided with acceleration sensors in a means of transportation, in particular in a helicopter
DE102006000916B3 (en) Vehicle parameter evaluation method involves sampling parameters at different sample times to generate data samples and including data samples in sample set
DE4406723A1 (en) Method for monitoring the operational state of a machine or installation
DE19636074C2 (en) Learning-capable image processing system for classification
EP3460727A1 (en) Method for examining a functional behaviour of a technical system and evaluation unit
EP4022408A1 (en) Method and device for analyzing a sequential process
DE102019107363B4 (en) Method and system for determining a property of a machine, in particular a machine tool, without measuring the property and method for determining an expected quality condition of a component manufactured with a machine
DE102020213960A1 (en) Abnormality Diagnosing Method and Abnormality Diagnosing Apparatus for Feed Axis Apparatus
EP1043590A1 (en) Method and device for determining the rotational speed of a DC commutator motor
EP3664282A1 (en) Compensation for detent torque of synchronous motors
AT522958B1 (en) Method and system for calibrating a control of a machine
DE102015110460A1 (en) Detection of a mains phase failure in converters with frequency detection in the DC link voltage
DE102014219771A1 (en) Method for determining the energy requirement of a production machine or of a production system consisting of several production machines, as well as a measuring device suitable for carrying out the method
EP4012426B1 (en) Method for correcting a time-dependent measurement signal of an engine transmission unit and method for detecting wear and / or damage of same by means of this correction method

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
AG Has addition no.

Ref country code: DE

Ref document number: 4209296

Format of ref document f/p: P

AG Has addition no.

Ref country code: DE

Ref document number: 4209296

Format of ref document f/p: P

D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee