DE4124501A1 - Neuronal network esp. for testing multiple-phase electric motor - has three neuronal layers for classifying input attribute vectors using class function - Google Patents

Neuronal network esp. for testing multiple-phase electric motor - has three neuronal layers for classifying input attribute vectors using class function

Info

Publication number
DE4124501A1
DE4124501A1 DE4124501A DE4124501A DE4124501A1 DE 4124501 A1 DE4124501 A1 DE 4124501A1 DE 4124501 A DE4124501 A DE 4124501A DE 4124501 A DE4124501 A DE 4124501A DE 4124501 A1 DE4124501 A1 DE 4124501A1
Authority
DE
Germany
Prior art keywords
neural network
class
learning
network according
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE4124501A
Other languages
German (de)
Other versions
DE4124501C2 (en
Inventor
Dieter Prof Dr Ing Barschdorff
Achim Dipl Ing Bothe
Gerd Dipl Ing Woestenkuehler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE4124501A priority Critical patent/DE4124501C2/en
Priority to DE4209296A priority patent/DE4209296A1/en
Publication of DE4124501A1 publication Critical patent/DE4124501A1/en
Application granted granted Critical
Publication of DE4124501C2 publication Critical patent/DE4124501C2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Neurology (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

The neuronal network uses a class function which is the respective distance function of an n-dimensional mid-point vector w.r.t. its boundary-parameterised spacial section. Boundary parameter variation and classification of the spacial sections are performed by refering all the learning attributes vectors assigned to one class, to one of the spacial sections. The spacial section is only classified as long as the boundary parameter variation does not cause a definite reference to only one spacial section. ADVANTAGE - Reduced processing time and learning steps.

Description

Die Erfindung betrifft ein neuronales Netz, bestehend aus untereinander netzartig schichtweise hintereinandergeschalteten Neuronenschichten, von denen einer Eingangsneuronenschicht über Eingänge Eingangsmuster jeweils als ein n-dimensionaler Merkmalvektor zuzuführen sind und deren Eingangsneurone jeweils mit Eingängen von Zwischenneuronen einer Zwischenneuronenschicht verbunden sind, in denen jeweils eine Zugehörigkeit des jeweils vorliegenden Merkmalvektors zu einer dem jeweiligen Zwischenneuron zugeordneten Klasse mittels einer parametrisierten Klassenfunktion ermittelt wird, die von den Zwischenneuronen an Ausgangsneuronen einer Ausgangsneuronenschicht mitgeteilt werden, deren Ausgangsgrößen einen Ausgangsvektor repräsentieren.The invention relates to a neural network consisting of with each other like a network in layers cascaded neuron layers, of which an input neuron layer over inputs input pattern each as an n-dimensional feature vector and their input neurons each have inputs from Intermediate neurons connected to an intermediate neuron layer are in which a membership of each present feature vector to a the respective Intermediate neuron-assigned class using a parameterized class function is determined by the Intermediate neurons to output neurons one Output neuron layer are communicated whose Output variables represent an output vector.

Ein neuronales Netz ist eine Anordnung von mathematischen Funktionsgruppen i.a. mehrerer verschiedener Arten, die in sogenannten gedachten Neuronenschichten angeordnet sind, wobei die Ausgänge der Neuronen der einen Schicht jeweils mit den Eingängen der Neuronen der nachgeordneten Schicht netzartig verknüpft sind. Den Eingängen werden sogenannte Eingangsmuster, die jeweils aus einer Menge von Merkmalgrößen bestehen, parallel zugeführt, und von den Ausgängen der Ausgangsschicht werden den Eingangsmustern zugehörige Ausgangsmuster, die jeweils aus einer Menge von Ausgangsgrößen bestehen, abgegeben. Die mathematischen Verknüpfungsfunktionen der Neuronen werden in einer sogenannten Lernphase schrittweise derart parametrisiert, daß zu einer vorgegebenen Anzahl bekannter Lernmuster bekannte zugehörige Ausgangsmuster entstehen. Die Verknüpfungsfunktionen bestehen gewöhnlich aus einer Bildung von Summen aus den parametrisch gewichteten Mustermerkmalen und aus einer parametrisierten Schwellwertbewertung. Diese Art der neuronalen Netze haben den Nachteil, daß zum Lernen eines Musterkollektivs abhängig von dessen Größe sowie der Unterscheidbarkeit der darin enthaltenen Muster oft eine sehr große Anzahl von Neuronen, die nicht vorherbestimmbar ist, zu einer eindeutigen Klassifizierung der Muster in die Ausgangsmuster erforderlich ist und deshalb ein Überschuß an Neuronen von vornherein anzusetzen ist, wodurch eine erhöhte Arbeitszeit und ein vielschrittiger iterativer Lernprozeß notwendig ist, wenn ein Musterkollektiv neu erlernt werden soll oder neue Muster hinzugelernt werden sollen.A neural network is an arrangement of mathematical ones Function groups i.a. several different types that are in so-called imaginary neuron layers are arranged, the outputs of the neurons of one layer each with the inputs of the neurons of the subordinate layer are linked like a network. The entrances are called Input patterns, each consisting of a set of Feature sizes exist, fed in parallel, and from the Outputs of the output layer become the input patterns associated output patterns, each of a set of Output variables exist, given. The math Linking functions of the neurons are in one so-called learning phase is gradually parameterized in such a way that to a given number of known learning patterns known associated initial patterns arise. The Linking functions usually consist of an education  of sums from the parametrically weighted sample characteristics and from a parameterized threshold evaluation. These The type of neural networks have the disadvantage that for learning a sample collective depending on its size and the The patterns contained therein can often be distinguished very large number of neurons that cannot be predetermined is to clearly classify the patterns in the Initial pattern is required and therefore an excess Neurons must be placed from the outset, which increases Working hours and a multi-step iterative learning process is necessary if a sample collective is to be newly learned should or new patterns should be learned.

Es ist Aufgabe der Erfindung ein neuronales Netz zu offenbaren, das eine Verringerung der Verarbeitungszeit eines Musters und eine Verringerung von Lernschrittzahlen erbringt und eine eindeutige Abbildung eines jeweils erlernten Musterkollektivs mit einem minimalen Neuronenaufwand aufweist, sowie ein vorteilhaftes Betriebsverfahren und eine vorteilhafte Anwendung des neuronalen Netzes zu nennen.It is an object of the invention to provide a neural network disclose a reduction in processing time of a pattern and a reduction in learning step numbers provides and a clear representation of each learned sample collective with a minimal Has neuron expenditure, as well as an advantageous Operating procedures and an advantageous application of the to call the neural network.

Die Lösung besteht darin, daß die Klassenfunktion jeweils eine Abstandsfunktion bezüglich eines n-dimensionalen Mittelpunktvektors eines n-dimensional bezüglich seiner Grenzen parametrisierten Raumausschnittes ist, wobei eine Grenzparametervariation und eine Aufgliederung der Raumausschnitte derart vorgenommen ist, daß alle von einer Vielzahl von jeweils einer der Klassen zugeordneten Lernmerkmalvektoren in einen der Raumausschnitte verweisen und die Aufgliederung eines Raumausschnittes nur vorliegt, soweit die Grenzparametervariation eine eindeutige Verweisung auf nur einen der Raumausschnitte nicht erbringt, wobei der Raumausschnitt soweit in Unterraumausschnitte mit jeweils einer zugehörigen Unterklassenfunktion eines Zwischenneurons aufgegliedert ist, daß von einer vorgegebenen Gesamtheit von Lernmerkmalvektoren jeder auf nur einen der einer bestimmten Klasse zugeordneten Raumausschnitte (U1; U2, U3, U4) verweist.The solution is that the class function is in each case a distance function with respect to an n-dimensional center point vector of an n-dimensionally parameterized spatial section, with a boundary parameter variation and a division of the spatial sections such that all of a large number of one of the classes refer to the assigned learning feature vectors in one of the room sections and the breakdown of a room section only exists if the boundary parameter variation does not provide a clear reference to only one of the room sections, the room section being subdivided into subspace sections with an associated subclass function of an intermediate neuron to the extent that of a given totality of learning feature vectors each refers to only one of the space sections assigned to a specific class (U 1 ; U 2 , U 3 , U 4 ).

Die einzelnen Ausgangssignale des neuronalen Netzes sind also Binärsignale, die jeweils eine Klassenzugehörigkeit anzeigen. Die Abstandsfunktion ist vorteilhaft stetig fallend. Sie kann beispielsweise eine Glockenfunktion, eine Potenzfunktion oder eine Exponentialfunktion sein.The individual output signals of the neural network are thus binary signals, each belonging to a class Show. The distance function is advantageously continuous falling. For example, it can have a bell function Power function or an exponential function.

Als besonders günstig hat sich eine quadratische Abstandsfunktion des Differenzvektors zwischen dem Merkmalvektor und dem Mittelpunktvektor ergeben, der ins Verhältnis zum Quadrat der Länge eines Radiusvektors gesetzt wird, der die Grenze des betreffenden Raumausschnittes angibt, wenn ein unterer Schwellwert des Abstandsfunktionswertes festgelegt ist; somit stellen die Raumausschnitte n-dimensionale Hyperellipsoide dar, die im Sonderfall n-dimensionale Kugeln sind, wenn die Achsen isometrisch sind.A square has proven to be particularly favorable Distance function of the difference vector between the Feature vector and the center point vector, which ins Ratio to the square of the length of a radius vector becomes the boundary of the area in question indicates when a lower threshold of Distance function value is set; thus the Spatial sections represent n-dimensional hyperellipsoids, which in the Special case are n-dimensional balls if the axes are isometric.

Tritt bei dem Einsatz des aufgrund eines Lernvorganges mit einem Kollektiv von Lernmerkmalvektoren ausgebildeten neuronalen Netz zur Klassifizierung unbekannter Merkmalvektoren eine mehrdeutige oder keine Klassenzugehörigkeit auf, was jeweils in einer Nachverarbeitung der Ausgangswerte abgeprüft wird, so wird zweckmäßig der Schwellwert in Inkrementen innerhalb vorgegebener Grenzen nach und nach erhöht bzw. erniedrigt, bis eine eindeutige Klassenzuordnung vorliegt. Der danach ausgegebene Schwellwert zeigt dem Benutzer den Grad der Eindeutigkeit der Zuordnung qualitativ an.Occurs when using the due to a learning process a collective of learning feature vectors neural network for the classification of unknown Feature vectors an ambiguous or none Class affiliation based on what is in each Postprocessing of the initial values is checked, so expediently the threshold value in increments within specified limits are gradually increased or decreased, until there is a clear class assignment. The one after that Output threshold shows the user the degree of  Uniqueness of the assignment qualitatively.

Eine vorteilhafte neuartige Ausgestaltung des neuronalen Netzes besteht darin, daß die Eingangsneuronen eine Aufbereitung von Eingangssignalen derart vornehmen, daß zeitliche Signalfolgen parallelisiert und dann als ein Eingangsvektor genutzt werden. Hierzu wird z. B. der Verlauf mindestens eines Meßsignales über einen vorgegebenen Zeitraum, der z. B. einer Funktionsperiode oder einem Funktionsabschnitt einer Vorrichtung, der die zu verarbeitenden Meßdaten entnommen worden sind, entspricht, in kurzen zeitlichen Abständen, also im Zeitmultiplex, abgetastet und zwischengespeichert. Das Meßsignal wird vorteilhaft vor oder nach der Abtastung und Speicherung glättend verarbeitet, was durch die Bildung einer Einhüllenden von Wechselgrößensignalen und/oder durch eine Kurzzeitmittelung über mehrere Abtastungen erfolgt. Dadurch ist es möglich, mit relativ wenigen Stützwerten Merkmalvektoren zu bilden, die eine hochwertige Klassifikation erbringen. Die Stützwerte werden vorteilhaft in einer vorgegebenen Anzahl über den Zeitraum der sich ergebenden Dauer des Funktionsabschnittes gleichverteilt gebildet.An advantageous new embodiment of the neural Network is that the input neurons are a Process input signals in such a way that parallel signal sequences and then as one Input vector can be used. For this, z. B. the course at least one measurement signal over a given one Period of time B. a term of office or a Functional section of a device that the processing data have been taken corresponds to in short time intervals, i.e. in time multiplex, scanned and cached. The measurement signal is advantageous before or after sampling and storage processed smoothing what by forming a Envelope of changing size signals and / or by one Short-term averaging takes place over several samples. Thereby it is possible with relatively few base values Feature vectors to form a high quality Provide classification. The base values become advantageous in a predetermined number over the period of time resulting duration of the functional section evenly distributed educated.

Die Meßwertaufbereitung läßt sich i.a., wenn es sich nicht um eine sehr schnelle Echtzeitverarbeitung handelt, mittels eines Programmes vornehmen, wenn die Abtastwerte vorab gespeichert wurden.The measured value processing can generally be done if it is not is a very fast real-time processing, by means of of a program if the samples in advance have been saved.

Bei der Neuerstellung eines neuronalen Netzes wird jeweils nach der Zuführung eines Lernmerkmalvektors einer bereits erlernten Klasse ausgangsseitig von der nachgeschalteten Prüfschaltung ermittelt, ob eine richtige und eine eindeutige Klassifizierung desselben vorliegt und, falls dies nicht der Fall ist, wird iterativ eine inkrementale Änderung mindestens eines der Merkmalraumparameter in vorgegebenen Grenzen vorgenommen und, falls dies bei Erreichen der vorgegebenen Grenze noch nicht zu einer eindeutigen richtigen Klassifizierung führt, wird ein weiteres Zwischenneuron eingerichtet, mit Parametern versorgt und mit dem der Klasse des Lernmerkmalvektors zugeordneten Ausgangsneuron verbunden.When a new neural network is created, after the supply of a learning feature vector one already learned class on the output side of the downstream Test circuit determines whether a correct and a there is a clear classification and, if  if not, iteratively becomes an incremental Change at least one of the feature space parameters in predetermined limits and, if this is the case with Not reaching the given limit yet leads to a clear correct classification another intermediate neuron set up, with parameters provided and with that of the class of the learning feature vector associated output neuron connected.

Ist ein abgeschlossenes Lernmerkmalkollektiv erlernt, so kann das neuronale Netz unabhängig von der Lernvorrichtung betrieben werden. Die Struktur des neuronalen Netzes und sein Inhalt sind u. a. durch die Reihenfolge der Zuführung der Lernmerkmalvektoren eines Kollektivs bestimmt, da von ihr abhängig mehr oder weniger Unterklassen entstehen, denen die Zwischenneuronen entsprechen. Es hat sich in praktischen Versuchen gezeigt, daß das neuronale Netz i.a. dadurch zu vereinfachen ist, daß nach dem Erlernen eines vollständigen Kollektivs, das in beliebiger Reihenfolge zugeführt werden kann, ein Unterkollektiv aus den Mittelpunktvektoren der Unterklassen gebildet wird und aus diesen ein neuronales Netz neu erstellt wird, mit dem dann die übrigen Lernmerkmalvektoren nur klassifiziert werden, wonach nur die dabei nicht eindeutig und nicht richtig klassifizierten Lernmerkmalvektoren jeweils in einem folgenden Lernschritt zugeführt werden. Diese beiden Schritte der Klassifizierung und des Nachlernens der nicht eindeutig und nicht richtig klassifizierten Lernmerkmalmuster führt letztlich, u. U. nach mehrmaliger Iteration der Neuerstellung des neuronalen Netzes mit dem reduzierten und gemäß dem Verfahren um die notwendigen Lernmerkmalvektoren ergänzten Kollektiv, zu einem vereinfachten aber vollständig klassifizierenden neuronalen Netzes und einem, z. B. für ein späteres Lernen von Obermengen, verfügbaren verkürzten aber ausreichenden Lernmerkmalkollektiv. If a completed learning characteristic collective has been learned, then so can the neural network regardless of the learning device operate. The structure of the neural network and its content is u. a. by the order of feeding the learning feature vectors of a collective determined because of depending on the more or less subclasses that arise the intermediate neurons correspond. It has turned into practical Experiments have shown that the neural network generally thereby too simplify is that after learning a complete Collective that are fed in any order can, a sub-collective of the midpoint vectors of the Subclasses is formed and from these a neuronal Network is created with which then the rest Learning feature vectors are only classified, according to which only the not clearly and incorrectly classified Learning feature vectors each in a subsequent learning step are fed. These two steps of classification and relearning the ambiguously and incorrectly classified learning feature patterns ultimately leads u. U. after repeated iteration of the re-creation of the neural Network with the reduced and according to the procedure around the necessary learning feature vectors added collective, too a simplified but fully classifying neural network and one, e.g. B. for later learning of supersets, available short but sufficient Learning characteristics collective.  

Eine vorteilhafte Anwendung findet das neuartige neuronale Netz in Prüfeinrichtungen, wobei die über eine Funktionsperiode von einem Prüfobjekt gewonnenen Meßsignale dem neuronalen Netz zu einer Güteklassifikation des Prüflings zugeführt werden. Bei der Einrichtung einer solchen Vorrichtung ist es nicht mehr erforderlich, die einzelne Fehlerarten eines Produktes in ihren Auswirkungen auf die Meßwertverläufe zu analysieren und zu kennen, wie das bei menschlichen Experten oder analytisch arbeitenden bekannten Vorrichtungen der Fall ist; sondern es genügt, die Meßwerte von guten Musterobjekten und den verschiedenen Arten der fehlerbehafteten Musterobjekten über einen charakteristischen Funktionsabschnitt zu erfassen und in einer Lernphase unter Zuordnung zu der Fehlerart, die den Klassenindex bildet, daraus ein neuronales Netz zu generieren. Darüberhinaus lassen sich die vorbeschriebenen vorteilhaften Ausgestaltungen auf das neuronale Netz und das so gewonnene Lernmerkmalkollektiv anwenden. Das Klassifizierungsvermögen des neuronalen Netzes läßt sich auch sehr leicht bei Änderungen des Produktes oder bei Auftreten neuer Fehlerarten ergänzen und erweitern, indem die Meßwerte von dem geänderten oder fehlerhaften Objekt als weiterer Lernmerkmalvektor erfaßt und gespeichert wird.The novel neural is used advantageously Network in test facilities, the over a Function period of measurement signals obtained from a test object the neural network for a quality classification of the DUT are fed. When setting up a such device it is no longer necessary to the effects of individual types of defects in a product to analyze the measured value courses and to know how that with human experts or working analytically known devices is the case; but it is enough that Measured values from good sample objects and the various Types of defective sample objects via one characteristic functional section to capture and in a learning phase associated with the type of error that the Class index forms a neural network from it to generate. In addition, the previously described advantageous embodiments of the neural network and that apply the learning feature collective thus obtained. The Classification ability of the neural network can be also very easy with changes to the product or with Complement and expand the occurrence of new types of errors by the measured values from the changed or defective object as further learning feature vector is detected and stored.

Eine vorteilhafte Anwendung findet das erfindungsgemäße neuronale Netz in einem Elektromotoren-Güteprüfstand, wodurch es gelingt, mit einem einfachen Computer und nur unter Anwendung der hier dargelegten Mittel und ohne Hinzufügung von speziellem Fachwissen über die Auswirkung einzelner Fehlerarten auf die Meßdaten, eine volle Funktionsfähigkeit der Klassifiziereinrichtung zu erbringen, indem sämtliche bekannten, d. h. denkbaren, Fehlerarten an den Motoren erkannt und angezeigt werden. The invention has an advantageous application neural network in an electric motor quality test bench, which succeeds with a simple computer and only using the means outlined here and without Add special expertise on the impact individual types of errors on the measurement data, a full one To make the classification device functional, by all known, i.e. H. conceivable types of error the motors are recognized and displayed.  

Vorteilhafte Ausgestaltungen der Vorrichtung und der Verfahrensschritte sind anhand der Fig. 1 bis 5 dargestellt.Advantageous embodiments of the device and the method steps are shown with reference to FIGS. 1 to 5.

Fig. 1 zeigt ein Schema des neuronalen Netzes mit Lernvorrichtung; Fig. 1 is a diagram showing the neural network with learning device;

Fig. 2 zeigt einen Ausschnitt des neuronalen Netzes für eine Zeitmulitplex-Signalaufbereitung; Fig. 2 shows a section of the neural network for a Zeitmulitplex Signal Processing;

Fig. 3 zeigt ein Schema einer Klassifikatorbildung; Fig. 3 shows a schematic of a Klassifikatorbildung;

Fig. 4 zeigt ein Schema einer Klassifikatorvariation; Fig. 4 shows a schematic of a classifier variation;

Fig. 5 zeigt einen Motorenprüfstand mit einem neuronalen Netz. Fig. 5 shows an engine test stand with a neural network.

Fig. 1 zeigt ein Schema eines neuronalen Netzes mit drei Stufen. Die Eingangsschicht (NSE) von Neuronen besteht aus Aufbereitungsschaltungen (NE1,-NE13), die eine Umsetzung von an den Eingängen (EG1,EG2) eingehenden Größen in Merkmale des Merkmalvektors vornehmen. Sämtliche Merkmale der für die Verarbeitungszeit zwischengespeicherten Merkmalvektoren sind allen Zwischenneuronen (NM1,-NM4) der verdeckten Neuronenschicht (NSM) zugeführt, in denen die Klassifizierung nach Klassen bis in die Unterklassen erfolgt. Die binären Ausgangssignale der Zwischenneuronen sind der Ausgangsneuronenschicht (NSA) zugeführt, die jeweils aus Ausgangssignalspeichern mit einer Oder-Schaltung für die Unterklassenzusammenfassung zu einer Klasse bestehen, die die Ausgangsneuronen (NA1,-NA3) bilden. Fig. 1 shows a schematic of a neural network with three stages. The input layer (NSE) of neurons consists of conditioning circuits (NE 1 , -NE 13 ), which convert the quantities coming in at the inputs (EG 1 , EG 2 ) into features of the feature vector. All features of the feature vectors temporarily stored for the processing time are supplied to all intermediate neurons (NM 1 , -NM 4 ) of the hidden neuron layer (NSM), in which the classification according to classes takes place into the subclasses. The binary output signals of the intermediate neurons are fed to the output neuron layer (NSA), which each consist of output signal memories with an OR circuit for subclassification into a class which form the output neurons (NA 1 , -NA 3 ).

Fig. 2 zeigt einen Ausschnitt in einer besonderen Ausgestaltung der Eingangsneuronenschicht, indem in einer Anzahl der Neuronen (NE1,-NE3) das jeweils anliegende Eingangssignal (EG1) mit einer zeitlichen Folge von Takten (T1,-T3) eines durch eine gesteuerte Uhr (CL) geschalteten Zeitmultiplexers (TM) im Zwischenspeicher (S1,-S3) eingespeichert wird. Von diesen werden die gespeicherten Werte zu einem Zeitpunkt (TX) nach dem Ende der Zeitmultiplexabtastung über Und-Funktionen (U1,-U3) an die Zwischenneuronen als die auszuwertenden Merkmale abgegeben. Fig. 2 shows a detail in a particular embodiment, the input neuron layer by in a number of neurons (NE 1, -NE 3) the respectively applied input signal (EC 1) with a temporal sequence of clocks (T 1, T 3) of a by a controlled clock (CL) switched time multiplexer (TM) in the buffer (S 1, - S 3 ) is stored. From these, the stored values are given to the intermediate neurons as the features to be evaluated at a point in time (TX) after the end of the time-division multiplex scanning via AND functions (U 1, - U 3 ).

Das Eingangssignal (EG1) ist zweckmäßig digital umgesetzt, und die Multiplexerfunktion läßt sich hardwaremäßig oder durch eine Programmsteuerung erfüllen. Die Funktion der Anordnung nach Fig. 2 läßt sich auch in einfacher Weise durch ein Schieberegister erbringen, dem eingangsseitig das digital umgesetzte Signal zugeführt ist und das mit dem Zeittakt als Schiebetakt beaufschlagt ist und dessen Inhalt mit dem Schlußtakt parallel weitergegeben wird. Die Anzahl der Samplingtakte (T1, T3) und die Dauer eines Mulitplexerdurchlaufes ist den jeweiligen Erfordernissen anzupassen, so daß die charakteristischen Verläufe des Eingangssignales mit ausreichender Auflösung erfaßt werden. Vor einer Digitalisierung oder auch nach dieser wird das Eingangssignal vorteilhaft geglättet, wobei der Glättungszeitraum allenfalls einige Abtasttakte lang ist, um die charakteristischen Merkmale zu erhalten und andererseits hochfrequente Störeinflüsse zu beseitigen.The input signal (EG 1 ) is expediently implemented digitally, and the multiplexer function can be fulfilled by hardware or by program control. The function of the arrangement according to FIG. 2 can also be provided in a simple manner by means of a shift register, to which the digitally converted signal is fed on the input side and which is acted upon by the time clock as a shift clock and whose content is passed on in parallel with the final clock. The number of sampling cycles (T 1 , T 3 ) and the duration of a multiplexer pass must be adapted to the respective requirements so that the characteristic curves of the input signal are detected with sufficient resolution. Before digitization or after this, the input signal is advantageously smoothed, the smoothing period being at most a few sampling clocks long in order to maintain the characteristic features and, on the other hand, to eliminate high-frequency interference.

Sind die Eingangssignale Wechselgrößen, so hat es sich als vorteilhaft und ausreichend erwiesen, von diesen die Einhüllende zu bilden und nur den so entstehenden wesentlich niederfrequenteren Größenverlauf zur Merkmalbildung auszuwerten. Auch die Einhüllendenbildung kann vor oder nach einer Digitalisierung des Eingangssingales (EG1) erfolgen. Wird eine Einhüllende programmäßig ausgewertet, so läßt sich statt einer Zeitmultiplexabfrage in einem festen Raster auch eine Bildung einer vorgegebenen Anzahl von Stützwerten der Einhüllenden über einen charakteristischen Signalabschnitt als Merkmale bilden und speichern, wobei die Grenzen des auszuwertenden Signalabschnittes von dem Eintreten bestimmter Kriterien des Meßsignales, z. B. von einem Nulldurchgang, einem Extremwertdurchlauf oder einem Erreichen von Grenzwerten, abgeleitet werden, also zeitlich nicht vorherzubestimmen sind.If the input signals are alternating variables, it has proven to be advantageous and sufficient to form the envelope of these and only to evaluate the resulting significantly lower-frequency variable curve for feature formation. The envelope can also be formed before or after digitizing the input signal (EG 1 ). If an envelope is evaluated program-wise, instead of a time-division multiplex query in a fixed grid, it is also possible to form and store a predetermined number of support values for the envelope over a characteristic signal section, the limits of the signal section to be evaluated depending on the occurrence of certain criteria of the measurement signal, e.g. B. derived from a zero crossing, an extreme value run or reaching limit values, that is, they cannot be predetermined in time.

Sofern mehrere Eingangssignalfolgen in dem neuronalen Netz ausgewertet werden sollen, können mehrere Anordnungen gemäß Fig. 2 parallel angeordnet sein und auch zeitlich gestaffelt mit jeweils einem kleinen Zeitversatz programmäßig betrieben sein, wobei die Zeitraster der verschiedenen Signalaufbereitungen auch unterschiedlich sein können.If several input signal sequences are to be evaluated in the neural network, several arrangements according to FIG. 2 can be arranged in parallel and can also be operated in a staggered manner with a small time offset in each case, the time intervals of the different signal preparations also being able to be different.

Die Funktion der Zwischenneuronen läßt sich anhand der Fig. 3 veranschaulichen, wo in einer Merkmalebene (M1, M2) kreisförmige Schnitte mit einem Klassenraum (U1) einer ersten Klasse und mit drei Unterklassenräumen (U1,-U4) einer zweiten Klasse dargestellt sind und die Lage der jeweils gelernten Merkmalvektoren der beiden Klassen durch Dreiecke bzw. Quadrate eingezeichnet sind. Die gestrichelt umschlossenen Bereiche repräsentieren beispielsweise ideale Klassengrenzen, die überschneidungsfrei sind. Denen nähert sich bei einem Lernen weiterer Lernmerkmalvektoren die Unterklassengrenzziehung an, indem deren Radien verkürzt oder verlängert werden, die Mittelpunkte verlagert werden und erforderlichenfalls neue Unterklassen gebildet werden.The function of the intermediate neurons can be illustrated with the aid of FIG. 3, where in a feature level (M 1 , M 2 ) circular cuts with a class room (U 1 ) of a first class and with three sub-class rooms (U 1, - U 4 ) of a second Class are shown and the location of the learned feature vectors of the two classes are shown by triangles or squares. The areas enclosed in dashed lines represent, for example, ideal class boundaries that are free of overlaps. As further learning feature vectors are learned, subclass boundary drawing approaches them by shortening or lengthening their radii, shifting the center points and, if necessary, forming new subclasses.

Weiterhin zeigt Fig. 4 einen elliptischen Schnitt eines Unterklassenraumes (U) mit der Merkmalebene (M1, M2), bei dem die Radien (R1, R2), die sich in Richtung der Merkmalachsen erstrecken, den jeweiligen Erfordernissen angepaßt verschieden sind. Auf alle Dimensionen eines Merkmalvektors (M) bezogen erhält dann der Merkmalraum die Form eines Hyperellipsoids.Furthermore, FIG. 4 shows an elliptical section of a subclass space (U) with the feature level (M 1 , M 2 ), in which the radii (R 1 , R 2 ), which extend in the direction of the feature axes, are differently adapted to the respective requirements . In relation to all dimensions of a feature vector (M), the feature space then takes the form of a hyperellipsoid.

Jeder Unterklassenraum ist somit durch die Gesamtheit der Koordinaten (Wi) des Mittelpunktes und die Gesamtheit der Radien (Ri) des Hyperboloids bestimmt.Each subclass space is thus the total of Coordinates (Wi) of the center and the entirety of the Radii (Ri) of the hyperboloid determined.

Die Lage eines Merkmalvektors (M) mit den Merkmalen Mi ergibt sich dann aus einer Abstandsfunktion H, aus der sich dessen Unterklassenzugehörigkeit T durch eine Grenzwertzusatzbedingung mit einem Grenzwert S in folgender Weise ergibt:The location of a feature vector (M) with the features Mi then results from a distance function H, from which whose subclass membership T by a Limit value additional condition with a limit value S in the following Way results in:

Bei dem Erzeugen eines neuronalen Netzes werden auf der Grundlage der Eingangsneuronen in einer Lernsteuervorrichtung (LV) gemäß Fig. 1 von dieser gesteuert Lernmerkmalvektoren (ML) jeweils den Zwischenneuronen zur Klassifizierung zugeführt und die Ausgangssignale der Ausgangsneuronen von einer Prüfschaltung (PS) bewertet, die feststellt, ob eine und nur eine Klasse und ggf. die dem Lernmerkmalvektor (ML) zugehörige Klasse (KL) von dem neuronalen Netz ausgegeben wird. Tritt dabei eine neue Klasse auf, für die noch kein Zwischenneuron besteht, so wird hierfür ein neues installiert, indem zu dem Endpunkt des betrachteten Lernmerkmalvektor (ML) ein Hyperellipsoid durch einen Parametersatz Mi, Ri, S festgelegt und gespeichert wird. Ist die neue Klasse bereits im neuronalen Netz durch mindestens ein Zwischenneuron repräsentiert, erfolgt jedoch keine Klassifizierung oder eine Doppelklassifizierung des eingegebenen Lernmerkmalvektors (ML), so wird von der Lernsteuervorrichtung (LV) iterativ eine sukzessiv erweiterende Paramentervariation der Neuronen der betreffenden nicht gefundenen Klassen in jeweils vorgegebenen Grenzen vorgenommen und, falls dies nicht erfolgreich war, eine Neuinstallation eines Unterklassenneurons vorgenommen. Liegt andernfalls eine Falschklassifizierung des Lernmerkmalvektors vor, so nimmt die Lernsteuervorrichtung (LV) iterativ eine sukzessive Parametervariation zur Verengung des Hyperellipsoids in vorgegebenen Grenzen vor und, falls dieses Vorgehen nicht erfolgreich war, wird von der Lernsteuervorrichtung (LV) eine Aufteilung eines betroffenen Neurons in Unterklassenneuronen vorgenommen, die engere Grenzen, also kürzere Radien und getrennte Mittelpunktkoordinaten aufweisen. Die jeweiligen Grenzvorgaben für die Variationen der Parameter, nämlich der Radien und der Mittelpunktkoordinaten, sind dadurch bestimmt, daß alle bisher gelernten Lernmerkmalvektoren in den beschriebenen Räumen enthalten sein müssen. Das jeweilige Maß des Abstandes eines mehreren oder keiner Klasse zugeordneten Lernmerkmalvektors zu dem Hyperellipsoid ist zweckmäßig zur Bildung des Inkrementes der Parameteränderung genutzt, so daß eine schnelle Konvergenz der Iteration erfolgt.When generating a neural network, on the basis of the input neurons in a learning control device (LV) according to FIG. 1, learning feature vectors (ML) controlled by this are fed to the intermediate neurons for classification and the output signals of the output neurons are evaluated by a test circuit (PS), which determines whether one and only one class and possibly the class (KL) belonging to the learning feature vector (ML) is output by the neural network. If a new class occurs for which there is still no intermediate neuron, a new one is installed by defining and storing a hyperellipsoid for the endpoint of the learning feature vector (ML) under consideration using a parameter set Mi, Ri, S. If the new class is already represented in the neural network by at least one intermediate neuron, but there is no classification or a double classification of the entered learning feature vector (ML), the learning control device (LV) iteratively successively expands the parameter variation of the neurons of the relevant classes not found in each case predetermined limits and, if this was unsuccessful, a new subclass neuron was installed. Otherwise, if the learning feature vector is incorrectly classified, the learning control device (LV) iteratively makes a successive parameter variation for narrowing the hyperellipsoid within predetermined limits and, if this procedure has not been successful, the learning control device (LV) divides an affected neuron into subclass neurons made that have narrower boundaries, i.e. shorter radii and separate center coordinates. The respective limit specifications for the variations of the parameters, namely the radii and the center coordinates, are determined by the fact that all learning feature vectors learned so far must be contained in the spaces described. The respective measure of the distance of a learning feature vector from a plurality or from no class to the hyperellipsoid is expediently used to form the increment of the parameter change, so that the iteration rapidly converges.

Bei einer Zuordnung eines Lernmerkmalvektors zu mehreren Klassen wird zweckmäßig zuerst an den Parametern des Neurons geändert, das die geringste Grenzabweichung des Hyperellipsoids zum Lernmerkmalvektorendpunkt zeigt.When one learning feature vector is assigned to several Classes are first useful on the parameters of the neuron changed that the smallest limit deviation of the Hyperellipsoids to learner vector endpoint shows.

Ein Maß der Grenzabweichung GA ergibt sich aus der Abstandsfunktion H und dem Grenzwert S, der beim Lernvorgang gewöhnlich zu 1 gesetzt ist, als:A measure of the limit deviation GA results from the Distance function H and the limit value S, which during the learning process is usually set to 1 as:

GA = H-S, insbes. GA = H-1.GA = H-S, especially GA = H-1.

Die gezeigte Vorrichtung ist in gleicher Weise für eine mehrmalige Neuinstallation eines neuronalen Netzes mit einem reduzierten Lernkollektiv geeignet. Dazu ist ein Zwischenspeicher (ZS) vorgesehen, worin die verschiedenen Prüfergebnisse der Prüfvorrichtung (PV) zugeordnet zu den Lernmerkmalvektoren jeweils gespeichert werden, so daß sie demgemäß gesteuert in einer anderen Reihenfolge bei einem erneuten Lernvorgang in ein neu zu erstellendes neuronales Netz eingespeist werden.The device shown is in the same way for one repeated reinstallation of a neural network with one reduced learning collective. There is a Buffer (ZS) provided, in which the different Test results of the test device (PV) assigned to the Learning feature vectors are each stored so that they accordingly controlled in a different order at one new learning process in a new neural to be created Be fed into the grid.

Die Lernmerkmalvektoren können unmittelbar aus Eingangssignalen durch eine Aufbereitung in den Eingangsneuronen gewonnen werden, wobei eine bekannte zugehörige Klassenbezeichnung (Ki) über eine Eingabevorrichtung (E) in die Lernsteuervorrichtung (LV) eingegeben wird, in der zugehörig zu dieser Klassenbezeichnung ein Ausgangsneuron installiert ist oder wird, falls diese bisher unbekannt war. Das Lernmerkmalvektorkollektiv kann jedoch vorteilhaft in einem Vorlauf oder Erstlauf mittels der Eingangsneuronen erstellt und in dem Zwischenspeicher gespeichert werden, wo es zusammen mit dem zugehörigen Prüfergebnissen zur späteren Verwendung abgelegt und zu einer späteren Wiederverwendung oder einer Ausgabe auf der Ausgabevorrichtung (AV) bereitsteht.The learning feature vectors can be made immediately Input signals by processing in the Input neurons are obtained, a known one associated class designation (Ki) over a Input device (E) into the learning control device (LV) is entered in the belonging to this Class designation an output neuron is installed or if this was previously unknown. The Learning feature vector collective can, however, be advantageous in one Preliminary or first run created using the input neurons and stored in the cache where it together with the associated test results for later Filed use and for later reuse or an output on the output device (AV) is ready.

Wenn bekannt ist, daß das neuronale Netz mit großer Wahrscheinlichkeit alle bekannten Klassen repräsentiert, so läßt es sich ohne die Lernsteuervorrichtung (LV) verwenden. Um jedoch auch Merkmalvektoren klassifizieren zu können, die nicht innerhalb der Hyperellipsoide liegen oder in Überschneidungsbereichen von Hyperellipsoiden mehrerer Klassen liegen, ist es vorteilhaft vorgesehen, die Prüfvorrichtung (PV) an den Ausgangsneuronen zu belassen und von der Steuervorrichtung die Parameter, vorzugsweise die Schwellwerte (Sj) vorübergehend in den betroffenen Zwischenneuronen innerhalb vorgebener Grenzen variieren zu lassen, bis sich jeweils eine und zwar eine eindeutige Klassifizierung ergibt. Als ein Maß für das Zutreffen einer Klasse nach einer solchen Variation wird dabei zweckmäßig der zu der Klassifizierung führende Schwellwert (Sj) mit der Klassenangabe auf eine Ausgabevorrichtung (AV) ausgegeben. Die Indizes i sind jeweils für die einzelnen Merkmale eines Merkmalvektors benutzt und die Indizes j sind für die Größen des jeweils laufenden Lern- oder Merkmalvektors und der zugehörigen laufenden Größen verwandt.If it is known that the neural network with large Probability represents all known classes, so it can be used without the learning control device (LV). However, in order to also be able to classify feature vectors, the do not lie within the hyperellipsoids or in Overlap areas of several hyperellipsoids Classes lie, it is advantageously provided that Leave the test device (PV) on the output neurons and  from the control device the parameters, preferably the Threshold values (Sj) temporarily in the affected Intermediate neurons vary within given limits until there is one unique Classification results. As a measure of whether one applies Class after such a variation is appropriate the threshold value (Sj) leading to the classification with the Class specification output on an output device (AV). The indices i are each for the individual characteristics Feature vectors are used and the indices j are for the sizes of the current learning or feature vector and the related current sizes related.

Fig. 5 zeigt einen Motorprüfstand für Elektromotoren (EM), der eine Klassifikation von Prüflingen mittels eines neuronalen Netzes (NN) vornimmt, und der auch zum Erzeugen der erforderlichen Lernmerkmalmuster geeignet ist, wenn er mit den jeweils bekannten fehlerhaften Prüflingen betrieben wird. Fig. 5 shows an engine test bench for electric motors (EM) which performs a classification of samples using a neural network (NN), and which is also suitable for generating the required learning feature pattern when it is operated with the respective known faulty devices under test.

An dem Prüfling-Elektromotor (EM) ist hinter einer Einschaltvorrichtung (ES) der Netzspannung (UN) ein Spannungsmesser (VM) und ein Strommesser (CM) angeordnet, deren Meßsignale (UM, IM) den Eingängen (EG1, EG2) des neuronalen Netzes (NN) zugeführt sind. Weiterhin ist an der Welle des Motors (EM) ein Drehzahlmesser (TM) angeordnet, dessen Meßsignal (DM) ebenfalls einem Signaleingang des neuronalen Netzes (NN) zugeführt ist. Daneben ist es einem ersten Vergleicher (VS1) zugeführt, dessen Ausgangssignal bei Erreichen einer ersten vorgegebenen Drehzahl (DV1) durch die das Ende des Hochlaufens bestimmt ist, die Einschaltvorrichtung (ES) trennt. In einem zweiten Vergleicher (VS2) wird die gemessene Drehzahl dann darauf überwacht, wann sie einen zweiten Grenzwert (DV2) unterschreitet, wodurch das Ende der Meßwerterfassung durch eine vorzeigtige Abschaltung einer ansonsten eine maximale Erfassungsdauer bestimmenden Zeitsteuervorrichtung (TC) dem neuronalen Netz signalisiert wird. Darüberhinaus ist mindestens ein Schwingungs- und/oder Körperschallmesser (SA) an dem Prüfling angeordnet, dessen Meßsignal (SM) ebenfalls dem neuronalen Netz zugeführt ist.On the test object electric motor (EM) a voltage meter (VM) and a current meter (CM) are arranged behind a switch-on device (ES) of the mains voltage (UN), the measurement signals (UM, IM) of the inputs (EG 1 , EG 2 ) of the neural network (NN) are supplied. Furthermore, a tachometer (TM) is arranged on the shaft of the motor (EM), the measurement signal (DM) of which is also fed to a signal input of the neural network (NN). In addition, it is fed to a first comparator (VS 1 ), the output signal of which, upon reaching a first predetermined speed (DV 1 ), by which the end of the run-up is determined, separates the switch-on device (ES). The measured speed is then monitored in a second comparator (VS 2 ) to determine when it falls below a second limit value (DV 2 ), as a result of which the end of the measured value acquisition is signaled to the neural network by a shutdown of a time control device (TC) which otherwise determines the maximum acquisition duration becomes. In addition, at least one vibration and / or structure-borne noise meter (SA) is arranged on the test object, the measurement signal (SM) of which is also fed to the neural network.

Die Aufbereitung der eingehenden Wechselgrößen (IM, UM, SM) erfolgt jeweils mit einer Gleichrichtung (GL), und sämtliche Meßsignale werden einer Filterung (KF) unterworfen. Letztlich erfolgt eine Multiplexerfassung gemäß Fig. 2 und eine Stützwertbestimmung sowie eine Normierung der Stützwerte, die jeweils zu einem Multiplexerdurchlauf gewonnen wurden. Die Erfassungsdauer der Meßsignale ist durch das Einschaltsignal (St′) bestimmt, das von der Einschaltvorrichtung (ES) aus einem Startsignal (St) abgeleitet ist, und durch die Vergleicherausgangssignale von den Drehzahlvergleichern (VS1, VS2) zum anderen bestimmt. Es hat sich gezeigt, daß bei Verwendung handelsüblicher Komponenten die analogen Meßsignale (IM, UM, SM, DM) über einen Meßmultiplexer (MM) an einen Analog-Digital-Umsetzer (ADU) geleitet werden können und mit dem Steuertakt (TT) des Meßmulitplexers (MM) die verschiedenen digitalisierten Meßwerte den verschiedenen Eingängen (EG1, EG2 . . .) des neuronalen Netzes mit Untertakten (TT1, TT2, TT3, TT4) zugeführt werden können.The incoming alternating quantities (IM, UM, SM) are each processed with a rectification (GL), and all measurement signals are subjected to filtering (KF). Finally, a multiplex detection according to FIG. 2 and a base value determination as well as a normalization of the base values are carried out, which were each obtained for a multiplexer run. The detection period of the measurement signals is determined by the switch-on signal (St '), which is derived from the switch-on device (ES) from a start signal (St), and by the comparator output signals from the speed comparators (VS 1 , VS 2 ) to the other. It has been shown that when using commercially available components, the analog measurement signals (IM, UM, SM, DM) can be passed via a measurement multiplexer (MM) to an analog-to-digital converter (ADC) and with the control clock (TT) of the measurement multiplexer (MM) the various digitized measured values can be fed to the various inputs (EG 1 , EG 2 ...) Of the neural network with underclocking (TT 1 , TT 2 , TT 3 , TT 4 ).

Insbesondere ist der neuartige Motorprüfstand durch folgendes charakterisiert:In particular, the new engine test bench is through characterized the following:

  • - Anregung des Motors durch eine festgelegte Eingangsfunktion (eingeschaltete Gleich- bzw. Wechselspannung); - Excitation of the engine by a fixed Input function (switched on DC or AC voltage);  
  • - Betrieb des Motors im Leerlauf (ohne Belastungseinrichtung wie Drehmomentbremse, Lüfterrad oder Schwungscheiben);- Operation of the engine at idle (without load device like torque brake, fan wheel or flywheels);
  • - Datenerfassung von Strom-, Spannungs-, Drehzahl- und Körperschallsignal über Shunt, Spannungsteiler, optischen Aufnehmer und Körperschallaufnehmer oder Laservibrometer;- Data acquisition of current, voltage, speed and Structure-borne noise signal via shunt, voltage divider, optical Transducers and structure-borne noise transducers or laser vibrometers;
  • - Einschaltdauer bis zur Überschreitung der Betriebsdrehzahl bei intakten Motoren (Enddrehzahl bei Nebenschlußmotoren);- Duty cycle until the operating speed is exceeded for intact motors (final speed for shunt motors);
  • - Meßwertaufnahme auch während des Auslaufvorgangs zur Erfassung der mechanischen Verluste;- Recording of measured values also during the run-out process Recording of mechanical losses;
  • - Einhüllendenbestimmung bei Wechselgrößen (Strom, Körperschall, Spannung);- Envelope determination for alternating variables (current, Structure-borne noise, tension);
  • - Verwendung von Kurzzeitmittelwerten zur Unterdrückung von Störungen;- Using short-term averages to suppress Disorders;
  • - Direkte Verwendung der gegebenenfalls gemittelten Stützwerte für die Fehlererkennungsklassifizierung;- Direct use of the averaged if applicable Base values for error detection classification;
  • - Einsatz eines neuronalen Netzes zur Fehlererkennungsklassifizierung;- Use of a neural network for Error detection classification;
  • - Lernverfahren zur Wissenspeicherung von Lernmerkmalvektoren von fehlerhaften Objekten.- Learning process for knowledge storage of Learning feature vectors of defective objects.

Darüberhinaus ist es vorgesehen, als Nebenprodukt aus den gewonnenen Meßwerten eine Ermittlung von Motorkennlinien durch eine Bestimmung stationärer Arbeitspunkte des Motors vorzunehmen und solche Arbeitspunkte auszusuchen, die durch Drehzahl, Drehmoment, Strom, Wellenleistung, Wirkungsgrad beschrieben werden. Die Ausgabe dieser gewonnen Arbeitspunkte ist z. B. graphisch als Funktion des Stromes, des Drehmoments oder der Drehzahl aus der Ausgabevorrichtung (AV) vorgesehen.In addition, it is provided as a by-product from the obtained measured values a determination of engine characteristics by determining the engine's stationary operating points to carry out and to select those working points which by Speed, torque, current, shaft power, efficiency to be discribed. The output of these gained working points  is z. B. graphically as a function of the current, the torque or the speed from the output device (AV) intended.

Die Arbeitsweise der Motorprüfvorrichtung geschieht in folgender Weise. Der Rotor des zu untersuchenden Motors wird durch die eingeschaltete Spannung beschleunigt. Durch die drehende Bewegung werden Körperschallschwingungen angeregt. Die Drehzahl und der Strom haben entsprechend des jeweiligen Motorzustandes einen typischen Verlauf. Diese leicht zu messenden Größen werden von dem Analog-Digtal-Umsetzer (ADU) in rechnergeeignete Zahlenfolgen umgesetzt. Zur Messung von Wechselsignalen ist die Bestimmung der Einhüllenden der Zeitsignale vorgesehen. Diese Aufbereitung kann sowohl durch eine analoge Signalverarbeitung als auch durch Anwendung digitaler Algorithmen in einem Rechner erfolgen. Zur Datenreduktion und Störsignalunterdrückung werden vorteilhaft Kurzzeitmittelwerte verwendet, die ebenso wie die eventuell verwendete Einhüllendenbestimmung analog oder digital realisierbar ist. Diese Stützwerte charakterisieren den zustandstypischen Zeitverlauf von Stromverlauf und Körperschwingungen des zu untersuchenden Motores. Sie werden direkt als die Eingangsgrößen des Klassifikators verwendet. Insbesondere zur Klassifizierung wird das neuronale Netz eingesetzt, das durch das spezielle Lernverfahren anhand weniger Mustermotoren mit den entsprechenden Produktionsfehlern trainiert wird. Neu zu lernende Muster können aufgrund des Lernverfahrens unmittelbar in den Wissensspeicher (die Wissenbasis) mit dem Lernmerkmalkollektiv aufgenommen werden. Der Lernalgorithmus erweitert unter Umständen die Anzahl der Neuronen in der verdeckten und der Ausgangsschicht des neuronalen Netzes. Dadurch sind alle bekannten Zustände wiederzuerkennen. Aus den aufgenommenen Stützwerten der Zeitfunktionen werden stationäre Arbeitspunkte des zu untersuchenden Motors ermittelt. Diese sind durch Drehzahl, Drehmoment, Wellenleistung, Wirkungsgrad und Strom beschreibbar. Eine graphische Darstellung der Arbeitspunkte liefert die gewohnten Motorkennlinien als Beleg.The engine tester works in following way. The rotor of the engine to be examined is accelerated by the switched on voltage. Through the rotating motion, structure-borne sound vibrations are excited. The speed and current have according to the respective Engine state a typical course. This easy too measuring quantities are from the analog-digital converter (ADU) converted into numerical sequences suitable for computers. To measure Alternating signals is the determination of the envelope of the Time signals provided. This processing can be done by both an analog signal processing as well as by application digital algorithms in a computer. For Data reduction and interference signal suppression advantageously used short-term averages, which as well the envelope determination that may be used is analog or is digitally realizable. Characterize these base values the state-typical time curve of current curve and Body vibrations of the engine to be examined. you will be used directly as the input variables of the classifier. The neural network is used especially for classification used by the special learning process fewer sample engines with the corresponding Production errors is trained. New patterns to learn can learn directly in the Knowledge store (the knowledge base) with the Learning characteristics collectively. The learning algorithm may expand the number of neurons in the covert and the starting layer of the neural network. This means that all known states can be recognized. Out the recorded base values of the time functions  stationary operating points of the engine to be examined determined. These are by speed, torque, Wave power, efficiency and current can be written. A provides the graphical representation of the operating points familiar engine characteristics as evidence.

In der automatisierten Fertigung werden Elektromotoren in großen Stückzahlen hergestellt. Zur Sicherung der Qualität ist ein möglichst vollständiger Test aller Motoren notwendig. Die bekannten Verfahren benötigen einige Sekunden zur Datenaufnahme und sind entweder in der Aussagesicherheit, was den Fehlertyp betrifft, zu ungenau oder sie erfordern einen hohen rechentechnischen Aufwand.In automated manufacturing, electric motors are used in large quantities manufactured. To ensure quality is a complete test of all engines necessary. The known methods take a few seconds for data acquisition and are either in the Reliability regarding the type of error is too imprecise or they require a high level of computational effort.

Die bekannten nicht modellgestützten Motorprüfvorrichtungen benötigen eine Belastungseinrichtung des Motors (Bremse). Mit Hilfe einer elektronischen Steuerung werden festgelegte Betriebszustände mit einer geregelten Einrichtung angefahren und die freien Größen werden dann gemessen. Dieses sind unter anderem der Strom, der bei einer vorgegebenen Belastung aufgenommen wird. Anhand der gemessenen Größen erfolgt eine qualitätsbezogene Aussage durch einen Vergleich der Meßgrößen mit bekannten Referenzgrößen.The known non-model-based engine test devices require a load device for the motor (brake). With the help of an electronic control, fixed Operating states approached with a controlled device and the free sizes are then measured. These are among other things, the current at a given Load is absorbed. Based on the measured sizes a quality-related statement is made by comparison of the measured quantities with known reference quantities.

Weiterhin läßt sich der Motor bekanntlich durch ein zu erstellendes mathematisches Modell beschreiben, dessen Modellgrößen mit großem Aufwand geschätzt werden müssen. Hierzu sind Eingangssignale notwendig, die die Beobachtung und damit die Schätzung aller benötigten Kenngrößen ermöglichen. Die Schätzung erfolgt mit Hilfe von Approximationsroutinen. Die Modellparameter stehen in enger Beziehung zu den realen physikalischen Größen und sind damit zur detailierten Fehlererkennung geeignet. Die Fehler an den Prüflingen werden mit Hilfe von Grenzwertüberschreitungen oder durch einen Vergleich mit bekannten Referenzwerten anhand des Modelles ermittelt.As is well known, the motor can also be closed by a describe the creating mathematical model, its Model sizes have to be estimated with great effort. For this, input signals are necessary, which are the observation and thus the estimation of all required parameters enable. The estimate is made with the help of Approximation routines. The model parameters are closer Relationship to the real physical quantities and are thus suitable for detailed error detection. The mistakes in the DUTs are exceeded with the help of limit values  or by a comparison with known reference values determined based on the model.

Das neuartige Verfahren verwendet dagegen als Anregungsgröße z. B. die eingeschaltete Betriebsspannung des Motors, wie sie bei jedem Betrieb vorkommt. Aufgrund der Konstruktion des Motors entstehen dadurch typische zeitliche Verläufe des Stromes und Körperschwingungen. Diese Signale werden meßtechnisch erfaßt und durch Stützwerte oder Abtastwerte repräsentiert, mit denen das Analysenetzwerk das zustandstypische Verhalten wiedererkennt und somit den Zustand angibt. Treten unbekannte untypische Zustände auf, so läßt sich das verwendete neuronale Netz nach einem Lernschritt jeweils entsprechend erweitern, so daß ein erneutes Auftreten dieses Zustandes wiedererkannt wird. Gleichzeitig werden als Nebenprodukt aus den Meßgrößen stationäre Motorbetriebszustände ermittelt, die als Motorkennlinien angezeigt werden können.The new method, on the other hand, uses as an excitation variable e.g. B. the switched-on operating voltage of the motor as it occurs in every company. Due to the construction of the This results in typical temporal courses of the engine Current and body vibrations. These signals are recorded by measurement and by means of base values or samples represents with which the analysis network the recognizes typical behavior and thus the State indicates. If unknown atypical conditions occur, so the neural network used can be Expand the learning step accordingly so that a recurrence of this condition is recognized. At the same time, as a by-product of the measured quantities stationary engine operating conditions determined as Motor characteristics can be displayed.

Diese Erfindung ermöglicht wegen der schnellen Datenaufnahme, die nur über den Hochlauf und Auslauf des Motors erfolgt, und wegen des geringen numerischen Aufwandes zur Kennwertermittlung und der Bewertung mit einem neuronalen Netz einen vollständigen Test aller produzierten Motoren.This invention enables because of the fast Data acquisition that is only about the ramp-up and ramp-down of the Motors takes place, and because of the low numerical effort for the determination of characteristic values and the evaluation with a neural network produced a complete test of all Engines.

Die Prüfvorrichtung ist unter Anpassung auf eine geeignete Meßwertaufnahme ohne weiteres für andere Objekte einsetzbar.The test device is adapted to a suitable one Measured value recording can easily be used for other objects.

Das neuronale Netz läßt sich auch mit anderen Abstandsfunktionen als der dargestellten realisieren, wobei darauf zu achten ist, daß diese möglichst stetig fallende, eindeutige Funktionen sein sollten. Bevorzugt sind Exponential-, Glockenkurven- oder Potenzfunktionen, bei denen im Mittelpunkt ein endlicher Wert vorhanden ist und in einem bestimmten Abstand davon ein relativ steil abfallender Bereich vorhanden ist.The neural network can also be used with others Realize distance functions as shown, where It is important to ensure that this falling, should be unique functions. Are preferred Exponential, bell curve or power functions, at  which have a finite value at the center and in a relatively steep slope at a certain distance from it Area exists.

Das Verfahren zur wiederholenden Erzeugung klassifizierender Neuronen in einem Netz mit einem jeweils neu sortierten und reduzierten Lernmerkmalkollektiv stellt eine eigenständige Erfindung dar, die entsprechend angepaßt auch für andere klassifizierende Neuronentypen mit anderen Funktionsinhalten anwendbar ist.The process of repetitive classifying generation Neurons in a network, each with a new and sorted reduced learning feature collective represents an independent Invention represents that adapted accordingly for others classifying neuron types with different functional content is applicable.

Die Lernschritte für das Lernen einer Stichprobe sind hier in einer Übersicht nochmals im einzelnen angegeben:The learning steps for learning a sample are here specified in an overview again:

  • - Für den Merkmalvektor einer Klasse wird in der Lernphase ein Streubereich in Form eines Hyperellispsoids im mehrdimensionalen Merkmalraum festgelegt. In einem ersten Schritt dazu werden alle Radien auf einen zu bestimmenden Maximalwert festgelegt. Dadurch sind diese Anfangsradien für alle Richtungen des Vektorraumes gleich groß, man hat eine Hyperkugel im Merkmalraum.- For the feature vector of a class is in the learning phase a scattering area in the form of a hyperellispsoid in the multi-dimensional feature space. In a first Step to do this are all radii on one to be determined Maximum value set. This makes these initial radii for all directions of the vector space are the same size, you have one Hyperball in the feature space.
  • - Anschließend werden alle folgenden Lernvektoren geprüft, ob sie innerhalb dieses so bestimmten Streubereiches liegen und damit richtig zugeordnet werden. Der Streubereich um das erste angelegte Muster kann als Unterklasse der Musterklasse aufgefaßt werden.- Then all the following learning vectors are checked, whether they are within this range and thus be assigned correctly. The scattering area around that first created sample can be a subclass of the sample class be understood.
  • - Liegt ein Merkmalvektor dieser Klasse außerhalb dieses ersten Einflußbereiches, so wird eine zweite Unterklasse festgelegt und so weiter, bis alle Merkmalvektoren einer Klasse gelernt sind. - If a feature vector of this class lies outside of this first sphere of influence, so becomes a second subclass fixed and so on until all feature vectors are one Class are learned.  
  • - Für alle folgenden Klassen wird in derselben Weise verfahren. Sind die Klassengebiete im Merkmalraum disjunkt verteilt, so sind keine weiteren Maßnahmen erforderlich.- For all subsequent classes, the same way method. Are the class areas in the characteristic space disjoint distributed, no further measures are required.
  • - Obwohl die Klassengebiete im Merkmalraum disjunkt verteilt sein können, kann es trotzdem zu Kollisionen zwischen Einflußbereichen vom Merkmalvektoren unterschiedlicher Klassen kommen. In diesem Fall werden die entsprechenden Radien der betroffenen Unterklassen soweit reduziert, bis kein Merkmalvektor einer Klasse mehr im Einflußbereich einer falschen Unterklasse liegt. Dies bedeutet auch, daß Überlappungsbereiche verschiedener Klassen im Merkmalraum existieren können, in diesen liegt jedoch kein Muster der Lernstichprobe.- Although the class areas in the trait space are disjoint can be distributed, it can still lead to collisions between areas of influence from feature vectors different classes come. In this case, the corresponding radii of the subclasses affected so far reduced until no more feature vectors of a class in The wrong subclass has influence. This also means that overlap areas are different Classes can exist in the characteristic space in which lies however no sample of the learning sample.
  • - Zusätzlich ist ein minimaler Radiuswert vorgegeben, der bei einer Radiusverringerung nicht unterschritten werden darf. Im Grenzfall wird der Minimalwert angenommen.- In addition, a minimum radius value is specified, the when the radius is reduced may. In the limit case, the minimum value is assumed.
  • - Liegt ein Merkmalvektor im Bereich einer falschen Unterklasse, so wird nur ein Radius des definierten Hyperelipsoids reduziert. Dabei handelt es sich um diejenige Halbachse mit dem kleinsten Winkel zur Verbindungslinie zwischen dem Unterklassenmittelpunkt und dem falsch klassifizierten Muster. Hatte das Einflußgebiet noch die durch Initialisierungswerte vorgegebene Hyperkugelform, so ergibt sich daraus jetzt das zuvor allgemein definierte Hyperellipsoid.- If a feature vector lies in the wrong area Subclass, so only a radius of the defined Hyperelipsoids reduced. This is the one Semi-axis with the smallest angle to the connecting line between the subclass center and the wrong classified pattern. The area of influence still had that hyperspherical shape given by initialization values, see above the result is the previously generally defined one Hyperellipsoid.
  • - Eine andere Behandlung einer Kollision ist die Reduktion aller Radien um den gleichen Faktor. Dieser wird so berechnet, daß das vorher falsch klassifizierte Muster außerhalb des Einflußbereiches der falschen Musterklasse liegt. In diesem Fall bleibt die initialisierte Hyperkugelform erhalten, auch hierbei wird der vorgegebene Minimalwert, der für alle Richtungen gleich ist, beachtet.- Another treatment for a collision is reduction all radii by the same factor. This will be so calculates that the previously misclassified pattern outside the sphere of influence of the wrong model class lies. In this case the initialized one remains  Obtain a hyperspherical shape, here too the default one Minimum value, which is the same for all directions, is observed.
  • - Liegt der Merkmalvektor einer Klasse innerhalb des Bereiches einer anderen Klasse, wie es bei überlappenden Clusterbereichen vorkommen kann, und können die Radien der betroffenen Unterklassen nicht weiter reduziert werden, da der vorgegebene Minimalradius erreicht ist, so muß dieser innerhalb einer anderen Klasse liegende Einflußbereich gesondert gekennzeichnet werden. Dies wird durch Einführung zweier verschiedener Arten von Unterklassen erreicht. Ein Typ symbolisiert dabei den Normalfall der nicht überlappenden Klassenbereiche, der andere kennzeichnet den Fall der Clusterdurchdringung oder -überlappung.- If the feature vector of a class lies within the Area of a different class, as is the case with overlapping Cluster areas can occur, and can the radii of the affected subclasses cannot be further reduced because the specified minimum radius has been reached, it must area of influence within another class be marked separately. This is through introduction two different types of subclasses. A Type does not symbolize the normal case of overlapping class areas, the other characterizes the Case of cluster penetration or overlap.
  • - Durch die Verringerung der Hyperellipsoid-Radien können Muster, die zuvor der richtigen Klasse zugeordnet wurden, aus den entsprechenden Einflußbereichen herausfallen. Für diese Muster müssen dann eigene Unterklassen geschaffen werden. Aus diesem Grund werden die vorstehenden Schritte solange wiederholt, bis alle zu klassifizierenden Muster den korrekten Unterklassen zugeordnet sind und bei einem Lerndurchlauf keine weitere Verringerung von Radien stattfindet.- By reducing the hyperellipsoid radii Patterns that were previously assigned to the correct class fall out of the corresponding spheres of influence. For these patterns must then create their own subclasses will. Because of this, the steps above repeated until all the patterns to be classified the correct subclasses are assigned to a Learning cycle no further reduction of radii takes place.

Der Lernvorgang ist damit abgeschlossen. Die Präsentation der Muster kann in einer beliebigen Reihenfolge, also klassenunabhängig stattfinden.The learning process is now complete. The presentation the pattern can be in any order, so take place regardless of class.

Ausgehend von einer bekannten Lernstichprobe, d. h. einem Lernmerkmalkollektiv, und einer neuen, nachzulernenden Teststichprobe, d. h. einem weiteren Lernmerkmalkollektiv, ergibt sich ein für das selbstorganisierende Klassifikationsnetzwerk gültiges Nachlernverfahren folgendermaßen aus den Verfahrensschritten:Based on a known learning sample, i.e. H. one Learning feature collective, and a new one to be re-learned Test sample, d. H. another learning characteristic collective, there is one for the self-organizing Classification network valid learning process  from the process steps as follows:

  • - Der Klassifikator wird mit der Lernstichprobe trainiert, die Teststichprobe wird anschließend klassifiziert.- The classifier is trained with the learning sample, the test sample is then classified.
  • - Bei einer fehlerfreien Klassifikation der Teststichprobe ist ein Nachlernen nicht notwendig. Ansonsten werden diejenigen Testmuster, die nicht in den angelegten Unterklassen liegen und somit nur durch eine Abstandsentscheidung zugeordnet werden können, zur Lernstichprobe hinzugefügt.- With an error-free classification of the test sample re-learning is not necessary. Otherwise those test patterns that are not in the created Are subclasses and therefore only by one Distance decision can be assigned to Learning sample added.
  • - Das Netz wird in den ungelernten Anfangszustand versetzt und die neue Lernstichprobe gelernt; die Teststichprobe wird dann klassifiziert.- The network is set to the unskilled initial state and learned the new learning sample; the test sample will then classified.
  • - Existieren Testmuster außerhalb von gelernten Unterklassen, so werden die betreffenden Muster zur Lernstichprobe hinzugefügt und der vorige Schritt wird wiederholt.- Test patterns exist outside of learned ones Subclasses, the relevant patterns become Learning sample added and the previous step is repeated.
  • - Alle Muster sind jetzt eindeutig den zugehörigen Unterklassen zugeordnet. Sind alle Muster richtig klassifiziert, ist das Nachlernen beendet. Treten jedoch Fehlklassifikationen auf, werden die entsprechenden Muster zur aktuellen Lernstichprobe hinzugefügt, und die letzten beiden Schritte werden wiederholt.- All patterns are now clearly the corresponding ones Assigned to subclasses. Are all patterns correct? classified, the re-learning is finished. Kick however Misclassifications, the corresponding patterns added to the current learning sample, and the last ones the two steps are repeated.

Die in der Beschreibung und in den Ansprüchen durchgehend benutzten Begriffe des allgemeinen Fachsprachgebrauchs: Lernmuster, Lernmerkmalvektor, Lernmerkmalkollektiv, Lernvorrichtung und Lernphase, sind so richtig bezeichnet, wenn diese als Teil der selbstlernenden Gesamtvorrichtung gesehen werden. Consistently throughout the description and claims Terms used in general terminology: Learning pattern, learning feature vector, learning feature collective, Learning device and learning phase are correctly labeled, if this is part of the overall self-learning device be seen.  

Bei einer anderen Betrachtungsweise, in der das neuronale Netz getrennt von der Lehrvorrichtung und dem einzuspeisenden Lehrstoff gesehen wird, sind diese vorstehenden Begriffe dementsprechend als Lehrmuster, Lehrmerkmalvektor, Lehrmerkmalkollektiv, Lehrvorrichtung und Lehrmerkmalvektor zu bezeichnen. Ein grundsätzlicher Unterschied in der Gesamtanordnung ist damit nicht gegeben.Another way of looking at the neural Network separate from the teaching device and the is to be seen, these are the above terms accordingly as teaching patterns, Teaching feature vector, teaching feature collective, teaching device and To denote teaching feature vector. A basic one There is no difference in the overall arrangement.

Claims (21)

1. Neuronales Netz bestehend aus untereinander netzartig schichtweise hintereinandergeschalteten Neuronenschichten (NSE, NSM, NSA), von denen einer Eingangsneuronenschicht (NSE) über Eingänge (EG1, EG2) Eingangsmuster jeweils als ein n-dimensionaler Merkmalvektor zuzuführen sind und deren Eingangsneuronen (NE1,- NE13) jeweils mit Eingängen von Zwischenneuronen (NM1,- NM4) einer Zwischenneuronenschicht (NSM) verbunden sind, in denen jeweils eine Zugehörigkeit des jeweils vorliegenden Merkmalvektors zu einer dem jeweiligen Zwischenneuron (NM1,-NM4) zugeordneten Klasse mittels einer parametrisierten Klassenfunktion (T) ermittelt ist, die von den Zwischenneuronen (NM1,-NM4) an Ausgangsneuronen (NA1,-NA3) einer Ausgangsneuronenschicht (NSA) mitgeteilt ist, deren Ausgangsgrößen einen Ausgangsvektor repräsentieren, dadurch gekennzeichnet, daß die Klassenfunktion (T) jeweils eine Abstandsfunktion bezüglich eines n-dimensionalen Mittelpunktvektors (W) eines n-dimensional bezüglich seiner Grenzen parametrisierten Raumausschnittes (U1; U2, U3, U4) ist, wobei eine Grenzparametervariation und eine Aufgliederung der Raumausschnitte (U1; U2, U3, U4) derart vorgenommen ist, daß alle von einer Vielzahl von jeweils einer der Klassen zugeordneten Lernmerkmalvektoren in einen der Raumausschnitte (U1; U2, U3, U4) verweisen und die Aufgliederung eines Raumausschnittes (U2, U3, U4) nur vorliegt, soweit die Grenzparametervariation eine eindeutige Verweisung auf nur einen der Raumausschnitte (U1; U2, U3, U4) nicht erbringt, wobei der Raumausschnitt (U2, U3, U4) soweit in Unterraumausschnitte (U2, U3, U4) mit jeweils einer zugehörigen Unterklassenfunktion (T′) eines Zwischenneurons (NM1,-NM3) aufgegliedert ist, daß von einer vorgegebenen Gesamtheit von Lernmerkmalvektoren jeder auf nur einen der einer bestimmten Klasse zugeordneten Raumausschnitte (U1; U2, U3, U4) verweist.1.Nural network consisting of neuron layers (NSE, NSM, NSA) connected in series like a network, of which an input neuron layer (NSE) via inputs (EG 1 , EG 2 ) input patterns are to be supplied as an n-dimensional feature vector and their input neurons (NE 1 , - NE 13 ) are each connected to inputs of intermediate neurons (NM 1 , - NM 4 ) of an intermediate neuron layer (NSM), in each of which an association of the respective feature vector to one assigned to the respective intermediate neuron (NM 1 , -NM 4 ) Class is determined by means of a parameterized class function (T), which is communicated by the intermediate neurons (NM 1 , -NM 4 ) to output neurons (NA 1 , -NA 3 ) of an output neuron layer (NSA), the output variables of which represent an output vector, characterized in that that the class function (T) each have a distance function with respect to an n-dimensional center vector (W) of an nd dimensionally parameterized spatial section (U 1 ; U 2 , U 3 , U 4 ), a boundary parameter variation and a breakdown of the spatial sections (U 1 ; U 2 , U 3 , U 4 ) being carried out in such a way that all of a plurality of learning feature vectors assigned to one of the classes are combined into one of the spatial sections (U 1 ; U 2 , U 3 , U 4 ) refer and the breakdown of a spatial section (U 2 , U 3 , U 4 ) only exists if the boundary parameter variation provides a clear reference to only one of the spatial sections (U 1 ; U 2 , U 3 , U 4 ) does not provide, whereby the spatial section (U 2 , U 3 , U 4 ) so far into sub-spatial sections (U 2 , U 3 , U 4 ), each with an associated subclass function (T ') of an intermediate neuron (NM 1 , -NM 3 ) is broken down so that from a given set of learning feature vectors each refers to only one of the spatial sections assigned to a specific class (U 1 ; U 2 , U 3 , U 4 ). 2. Neuronales Netz nach Anspruch 1, dadurch gekennzeichnet, daß jeweils ein Ausgangsneuron (NA1,-NA3) einer der Klassen zugeordnet ist und jeweils die Ausgänge der Zwischenneuronen (NM1,-NM3), die jeweils dieser Klasse zugeordnet sind, mit diesem Ausgangsneuron (NA1,-NA3) verbunden und dort in einer Oder-Funktion verknüpft sind.2. Neural network according to claim 1, characterized in that in each case one output neuron (NA 1 , -NA 3 ) is assigned to one of the classes and the outputs of the intermediate neurons (NM 1 , -NM 3 ), which are each assigned to this class, connected to this output neuron (NA 1 , -NA 3 ) and linked there in an OR function. 3. Neuronales Netz nach Anspruch 1, dadurch gekennzeichnet, daß die Abstandsfunktion eine stetig fallende Funktion ist.3. Neural network according to claim 1, characterized characterized in that the distance function is a continuous falling function is. 4. Neuronales Netz nach Anspruch 3, dadurch gekennzeich­ net, daß die Abstandsfunktion eine Glockenfunktion, eine Potenzfunktion oder eine Exponentialfunktion ist.4. Neural network according to claim 3, characterized net that the distance function is a bell function, a Power function or an exponential function. 5. Neuronales Netz nach Anspruch 4, dadurch gekennzeichnet, daß die Klassenfunktion (T) dadurch bestimmt ist, daß die Abstandsfunktion eine Summe der quadrierten Differenzen des Merkmalvektors (M) zum Mittelpunktvektor (W) dividiert durch das Quadrat der Länge eines Radiusvektors (R) ist, der vom Mittelpunktvektor (W) über den Merkmalvektor (M) zur Grenze des Raumausschnittes (U1; U2, U3, U4) verläuft, und durch einen Vergleich des so gebildeten Abstandsfunktionswertes mit einem jeweils festgelegten Schwellwert (S) die Zugehörigkeit des Merkmalvektors (W) zu dem Raumausschnitt (U1; U2, U3, U4) bestimmt ist.5. Neural network according to claim 4, characterized in that the class function (T) is determined in that the distance function is a sum of the squared differences of the feature vector (M) to the center vector (W) divided by the square of the length of a radius vector (R) is, which runs from the center point vector (W) over the feature vector (M) to the boundary of the spatial section (U 1 ; U 2 , U 3 , U 4 ), and by comparing the distance function value thus formed with a respectively defined threshold value (S) Belonging of the feature vector (W) to the spatial section (U 1 ; U 2 , U 3 , U 4 ) is determined. 6. Neuronales Netz nach Anspruch 4, dadurch gekennzeichnet, daß die Raumausschnitte (U1) und die Raumunterausschnitte (U2, U3, U4) n-dimensionale Hyperellipsoide darstellen.6. Neural network according to claim 4, characterized in that the spatial sections (U 1 ) and the spatial sub-sections (U 2 , U 3 , U 4 ) represent n-dimensional hyperellipsoids. 7. Neuronales Netz nach Anspruch 6, dadurch gekennzeichnet, daß die Raumausschnitte (U1) und die Raumunterausschnitte (U2, U3, U4) n-dimensionale Kugeln darstellen.7. Neural network according to claim 6, characterized in that the spatial sections (U 1 ) and the spatial subsections (U 2 , U 3 , U 4 ) represent n-dimensional spheres. 8. Neuronales Netz nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß den Ausgangsneuronen (NA1,-NA3) eine Prüfschaltung (PS) nachgeschaltet ist, die signalisiert, ob für den jeweiligen eingangsseitig zugeführten Merkmalvektor keine Klassenzugehörigkeit, eine und nur eine Klassenzugehörigkeit oder mehrere Klassenzugehörigkeiten vorliegen.8. Neural network according to one of the preceding claims, characterized in that the output neurons (NA 1 , -NA 3 ) is followed by a test circuit (PS) which signals whether there is no class membership, one and only one class membership for the respective feature vector supplied on the input side or there are more than one class. 9. Neuronales Netz nach Anspruch 8, dadurch gekennzeichnet, daß im Fall, daß mehrere Klassenzugehörigkeiten oder keine Klassenzugehörigkeit des Merkmalvektors vorliegt, der Schwellwert (S) ausgehend von einem Wert 1 schrittweise verändert wird, bis entweder eine und nur eine Klassenzugehörigkeit vorliegt oder durch eine weitere Prüfung festgestellt ist, daß die mehreren betreffenden Abstandsfunktionswerte gleich sind.9. Neural network according to claim 8, characterized characterized in that in the event that several Class affiliations or no class affiliation of the Feature vector is present, the threshold (S) starting from a value of 1 is gradually changed until either one and there is only one class or through one further examination is found that the several relevant distance function values are the same. 10. Neuronales Netz nach Anspruch 9, dadurch gekennzeichnet, daß zu einer Klassenzugehörigkeit jeweils der zugehörig gewählte Schwellwert (S) ausgegeben wird.10. Neural network according to claim 9, characterized characterized that belonging to a class the associated selected threshold value (S) is output. 11. Neuronales Netz nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß mindestens einer der Eingänge (EG1, EG2) jeweils mit einer zeitlichen Signalfolge einer bestimmten Dauer beaufschlagt ist und diese jeweils einer Gruppe von Eingangsneuronen (NE1,-NE13) zugeführt ist, denen in jeder Gruppe jeweils über die Dauer einer Signalfolge verteilt, zeitlich gegeneinander versetzt Zeitmultiplexsteuersignale zugeführt sind, mittels derer ein jeweiliger Signalwert der Signalfolge in dem Eingangsneuron (NE1,-NE13) gespeichert wird, der am Ende der Dauer der Signalfolge als ein Merkmal des Merkmalvektors abgegeben wird.11. Neural network according to one of the preceding claims, characterized in that at least one of the inputs (EG 1 , EG 2 ) is acted upon in each case with a temporal signal sequence of a certain duration and this in each case a group of input neurons (NE 1 , -NE 13 ) is supplied, which in each group are distributed over the duration of a signal sequence, time-divisionally multiplexed control signals are supplied, by means of which a respective signal value of the signal sequence is stored in the input neuron (NE 1 , -NE 13 ), which is at the end of the duration of the signal sequence is given as a feature of the feature vector. 12. Neuronales Netz nach Anspruch 11, dadurch gekennzeichnet, daß die Eingangssignale (EG1, EG2) einer Normierung und/oder einer Mittelwertbildung oder einer Einhüllendenbildung unterzogen wird und die jeweils gespeicherten Merkmale des Merkmalvektors Mittel- oder Stützwerte der so gemittelten und/oder eingehüllten Eingangssignale (EG1, EG2) sind.12. Neural network according to claim 11, characterized in that the input signals (EG 1 , EG 2 ) is subjected to a normalization and / or averaging or an envelope formation and the respectively stored features of the feature vector mean or base values of the averaged and / or are enveloped input signals (EG 1 , EG 2 ). 13. Neuronales Netz nach Anspruch 12, dadurch gekennzeichnet, daß die Mittelwertbildung oder Einhüllenbildung jeweils durch eine mehrfache Abtastung und Digitalisierung sowie Speicherung der Eingangssignale (EG1 EG2) während einer Zeitmultiplexsteuersignaldauer und eine entsprechende anschließende digitale Verarbeitung der gespeicherten Werte erfolgt.13. Neural network according to claim 12, characterized in that the averaging or envelope formation in each case by a multiple sampling and digitization and storage of the input signals (EG 1 EG 2 ) during a time-division control signal duration and a corresponding subsequent digital processing of the stored values. 14. Neuronales Netz nach einem der Ansprüche 8 bis 13, dadurch gekennzeichnet, daß die Ausgangssignale der Ausgangsneuronen (NA1,-NA13) der Prüfschaltung (PS), die signalisieren, daß bei eingangsseitigem Anliegen eines der Lehrmerkmalvektoren keine Klassenzugehörigkeit vorliegt oder mehrere Klassenzugehörigkeiten vorliegen, einer Lernsteuervorrichtung (LV) zugeführt sind, die abhängig von den Prüfschaltungsausgangssignalen den Zwischenneuronen (NM1,-NM4) jeweils mindestens einen geänderten Parameter (W, R, S) mindestens einer der Klassenfunktionen (T) zuführt und/oder ein weiteres Zwischenneuron (NM1,-NM4) einrichtet und mit den durch den Lernmerkmalvektor bestimmten Parametern (W, R, S) versorgt und mit den Eingangsneuronen (NE1, NE13) und dem zugehörigen Ausgangsneuron verknüpft.14. Neural network according to one of claims 8 to 13, characterized in that the output signals of the output neurons (NA 1 , -NA 13 ) of the test circuit (PS), which signal that when one of the teaching feature vectors is applied to the input, there is no class membership or several class memberships are present, a learning control device (LV) are supplied which, depending on the test circuit output signals, supplies the intermediate neurons (NM 1 , -NM 4 ) with at least one changed parameter (W, R, S) at least one of the class functions (T) and / or another Intermediate neuron (NM 1 , -NM 4 ) is set up and supplied with the parameters (W, R, S) determined by the learning feature vector and linked to the input neurons (NE 1 , NE 13 ) and the associated output neuron. 15. Neuronales Netz nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß den Eingänge (EG1, EG2) jeweils ein Strommeßsignal (IM), ein Spannungsmeßsignal (UM), ein Drehzahlmeßsignal (DM) und ein Körperschallmeßsignal (SM) für die Dauer eines Hochlaufens und/oder eines Auslaufens eines Elektromotors (EM) zugeführt sind, von dem diese genannten Meßsignale (IM, UM, SM, DM) abgenommen sind, und daß diese Meßsignale während der Hochlaufdauer im Zeitmultiplex erfaßt werden, deren Einhüllende für Wechselgrößen-Meßsignale (IM, UM, SM) gebildet werden und Kurzzeitmittelwerte für diese und das Drehzahlmeßsignal (DM) gebildet werden und aus den Einhüllenden und Kurzzeitmittelwerten nach dem Hochlaufen Stützwerte bestimmt werden, die jeweils den Merkmalvektor bilden, wobei die Hochlaufdauer durch das Erreichen einer vorgegebenen Enddrehzahl oder Betriebsdrehzahl oder durch den Ablauf einer vorgegebenen Zeitspanne bestimmt ist.15. Neural network according to one of the preceding claims, characterized in that the inputs (EG 1 , EG 2 ) each have a current measurement signal (IM), a voltage measurement signal (UM), a speed measurement signal (DM) and a structure-borne sound measurement signal (SM) for the duration a run-up and / or a run-down of an electric motor (EM) are supplied, from which these measurement signals (IM, UM, SM, DM) are taken, and that these measurement signals are recorded during the ramp-up period in time-division multiplexing, the envelope of which for AC variable measurement signals (IM, UM, SM) are formed and short-term mean values for this and the speed measurement signal (DM) are formed and support values are determined from the envelopes and short-term mean values after the start-up, each of which forms the feature vector, the run-up duration being achieved by reaching a predetermined final speed or Operating speed or is determined by the expiry of a predetermined period of time. 16. Neuronales Netz nach Anspruch 15, dadurch gekennzeichnet, daß die Lernmerkmalvektoren jeweils aus den Meßsignalen (IM, UM, SM, DM) von mängelfreien und von einfach oder mehrfach mängelbehafteten Elektromotoren (EM) aller bekannten Mängelarten während einer Hochlaufdauer erzeugt sind und diesen Lernmerkmalvektoren als die Ausgangsgrößen jeweils entsprechende Mängelindizes zugeordnet sind.16. Neural network according to claim 15, characterized characterized in that the learning feature vectors each from the Measuring signals (IM, UM, SM, DM) from defect-free and from single or multiple defective electric motors (EM) all known types of defects during a ramp-up period are generated and these learning feature vectors as the Corresponding deficiency indices in each case assigned. 17. Motorprüfeinrichtung mit einem neuronalen Netz nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, daß in der Zuleitung des Elektromotors (EM) eine steuerbare Einschaltvorrichtung (ES) angeordnet ist und von der Zuleitung die Strom- und Spannungsmeßsignale (IM, UM) abgenommen und dem neuronalen Netz zugeführt sind und an der Motorwelle ein Tachometer (TM) angeordnet ist, dessen Drehzahlmeßsignal (DM) dem neuronalen Netz zugeführt ist, und daß an dem Motorkörper ein Körperschall- und/oder Schwingungsaufnehmer (SA) angeordnet ist, dessen (deren) Schwingungsmeßsignal(e) (SM) dem neuronalen Netz zugeführt ist (sind) und das Drehzahlmeßsignal (DM) einem Vergleicher (VS1) zugeführt ist, der bei der Überschreitung eines ersten vorgegebenen Drehzahlvergleichssignales (DV1) die Einschaltvorrichtung (ES) ausschaltet und danach bei Unterschreitung eines zweiten vorgegebenen Drehzahlvergleichssignales (DV2) dem neuronalen Netz das Ende der Meßwerterfassungsdauer signalisiert.17. Motor test device with a neural network according to one of claims 1 to 16, characterized in that a controllable switch-on device (ES) is arranged in the feed line of the electric motor (EM) and the current and voltage measurement signals (IM, UM) are removed from the feed line and the neural network and a tachometer (TM) is arranged on the motor shaft, the speed measurement signal (DM) is supplied to the neural network, and that a structure-borne noise and / or vibration sensor (SA) is arranged on the motor body, the (their ) oscillation measurement signal (s) (SM) is supplied to the neural network (are) and the Drehzahlmeßsignal (DM) a comparator (VS is supplied 1) 1) off the switch-(ES) when exceeding a first predetermined reference speed signal (DV and thereafter, when a second predetermined speed comparison signal (DV 2 ) is undershot, the neural network ends the measurement value acquisition period si gnalized. 18. Motorprüfeinrichtung nach Anspruch 17, dadurch gekennzeichnet, daß aus mindestens einem der Wechselgrößen- Meßsignale (IM, UM, SM) ein Einhüllendensignal durch eine Signalgleichrichtung (GL) gewonnen wird, das dem neuronalen Netz eingangsseitig zugeführt ist.18. Engine test device according to claim 17, characterized characterized in that from at least one of the alternating variable Measurement signals (IM, UM, SM) an envelope signal by a Signal rectification (GL) is obtained, the neural Network is supplied on the input side. 19. Motorprüfeinrichtung nach Anspruch 17 oder 18, dadurch gekennzeichnet, daß mindestens eines der Meßsignale (IM, UM, SM, DM) oder deren Einhüllendensignal über ein Kurzzeitfilter (KF) dem neuronalen Netz eingangsseitig zugeführt ist.19. Engine test device according to claim 17 or 18, characterized characterized in that at least one of the measurement signals (IM, UM, SM, DM) or their envelope signal via one Short-term filter (KF) on the input side of the neural network is fed. 20. Motorprüfeinrichtung nach einem der Ansprüche 17 bis 19, dadurch gekennzeichnet, daß bei einem Mehrphasenelektromotor von sämtlichen Phasenleitern Strom- und/oder Spannungsmeßsignale abgenommen und dem neuronalen Netz eingangsseitig zugeführt sind. 20. Engine test device according to one of claims 17 to 19, characterized in that at one Multi-phase electric motor from all phase conductors Current and / or voltage measurement signals are removed and the neural Mains are fed on the input side.   21. Verfahren zum Betrieb eines neuronalen Netzes nach einem der Ansprüche 1 bis 20, dadurch gekennzeichnet, daß jeweils nach einem Umsetzen eines ersten vollständigen Kollektivs von Lernmerkmalvektoren in ein neuronales Netz die Mittelpunktvektoren der Unterraumausschnitte (U1, U2, U3, U4) nach einem Löschen des neuronalen Netzes als ein neues, reduziertes Lernmerkmalvektorskollektiv erneut in ein neuronales Netz umgesetzt wird, dann die übrigen Lernmerkmalvektoren des ersten Kollektivs in dem neuen neuronalen Netz klassifiziert werden und dabei diejenigen Lernmerkmalvektoren ermittelt werden, die keine eindeutige Klassenzugehörigkeit zeigen, die dann erweiternd dem reduzierten Lernmerkmalkollektiv hinzugeführt werden und mit denen weitere Lernschritte durchgeführt werden, worauf weitere Iterationen der Umsetzung in ein neuronales Netz mit dem jeweils neuen erweiterten Kollektiv erfolgen, bis das erste, vollständige Kollektiv eindeutig klassifiziert ist, wonach ein weitgehend minimiertes neuronales Netz und ein ausreichendes und weitgehend minimiertes Lernmerkmalkollektiv vorliegt.21. A method for operating a neural network according to one of claims 1 to 20, characterized in that in each case after a first complete collective of learning feature vectors has been converted into a neural network, the midpoint vectors of the subspace sections (U 1 , U 2 , U 3 , U 4 ) after deleting the neural network as a new, reduced learning feature vector collective is converted again into a neural network, then the remaining learning feature vectors of the first collective are classified in the new neural network and thereby those learning feature vectors are determined which do not show a clear class affiliation, which then to be added to the reduced learning characteristic collective and with which further learning steps are carried out, whereupon further iterations of the implementation into a neural network with the new extended collective take place until the first, complete collective is clearly classified, after which a we minimized neural network and a sufficient and largely minimized learning feature collective is available.
DE4124501A 1991-07-24 1991-07-24 Neural network with automatic installation of intermediate neurons Expired - Fee Related DE4124501C2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE4124501A DE4124501C2 (en) 1991-07-24 1991-07-24 Neural network with automatic installation of intermediate neurons
DE4209296A DE4209296A1 (en) 1991-07-24 1992-03-21 Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4124501A DE4124501C2 (en) 1991-07-24 1991-07-24 Neural network with automatic installation of intermediate neurons
DE4209296A DE4209296A1 (en) 1991-07-24 1992-03-21 Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions

Publications (2)

Publication Number Publication Date
DE4124501A1 true DE4124501A1 (en) 1993-01-28
DE4124501C2 DE4124501C2 (en) 1994-09-15

Family

ID=25905785

Family Applications (2)

Application Number Title Priority Date Filing Date
DE4124501A Expired - Fee Related DE4124501C2 (en) 1991-07-24 1991-07-24 Neural network with automatic installation of intermediate neurons
DE4209296A Withdrawn DE4209296A1 (en) 1991-07-24 1992-03-21 Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE4209296A Withdrawn DE4209296A1 (en) 1991-07-24 1992-03-21 Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions

Country Status (1)

Country Link
DE (2) DE4124501C2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243489B1 (en) 1997-05-15 2001-06-05 Siemens Aktiengesellschaft Method for a neural network for representing imaging functions
US7937197B2 (en) 2005-01-07 2011-05-03 GM Global Technology Operations LLC Apparatus and methods for evaluating a dynamic system
CN107024331A (en) * 2017-03-31 2017-08-08 中车工业研究院有限公司 A kind of neutral net is to train motor oscillating online test method
CN109580230A (en) * 2018-12-11 2019-04-05 中国航空工业集团公司西安航空计算技术研究所 A kind of Fault Diagnosis of Engine and device based on BP neural network
CN110119349A (en) * 2018-02-05 2019-08-13 罗伯特·博世有限公司 Method and apparatus for examining the function of neural network

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19509186A1 (en) * 1995-03-14 1996-09-19 Siemens Ag Device for designing a neural network and neural network
DE19634923C2 (en) * 1996-08-29 1999-08-19 Bruce Boye Linearization of nonlinear technical processes with the help of a deviation observer
DE19808197C2 (en) * 1998-02-27 2001-08-09 Mtu Aero Engines Gmbh System and method for diagnosing engine conditions
DE10161224A1 (en) * 2001-12-13 2003-06-26 Deutsche Telekom Ag Telephone pulse to tone signalling conversion unit uses neural network filter
RU2699396C1 (en) * 2018-11-19 2019-09-05 Общество С Ограниченной Ответственностью "Инвек" Neural network for interpreting natural language sentences

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4015791A1 (en) * 1989-05-18 1990-11-22 Apple Computer NEURAL NETWORK FOR COLOR SELECTION
DE4042139A1 (en) * 1989-12-29 1991-07-11 Ricoh Kk NEURON UNIT, NEURONAL NETWORK AND SIGNAL PROCESSING METHOD

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4015791A1 (en) * 1989-05-18 1990-11-22 Apple Computer NEURAL NETWORK FOR COLOR SELECTION
DE4042139A1 (en) * 1989-12-29 1991-07-11 Ricoh Kk NEURON UNIT, NEURONAL NETWORK AND SIGNAL PROCESSING METHOD

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243489B1 (en) 1997-05-15 2001-06-05 Siemens Aktiengesellschaft Method for a neural network for representing imaging functions
US7937197B2 (en) 2005-01-07 2011-05-03 GM Global Technology Operations LLC Apparatus and methods for evaluating a dynamic system
CN107024331A (en) * 2017-03-31 2017-08-08 中车工业研究院有限公司 A kind of neutral net is to train motor oscillating online test method
CN107024331B (en) * 2017-03-31 2019-07-12 中车工业研究院有限公司 A kind of neural network is to train motor oscillating online test method
CN110119349A (en) * 2018-02-05 2019-08-13 罗伯特·博世有限公司 Method and apparatus for examining the function of neural network
CN109580230A (en) * 2018-12-11 2019-04-05 中国航空工业集团公司西安航空计算技术研究所 A kind of Fault Diagnosis of Engine and device based on BP neural network

Also Published As

Publication number Publication date
DE4209296A1 (en) 1993-09-23
DE4124501C2 (en) 1994-09-15

Similar Documents

Publication Publication Date Title
DE102006008482B4 (en) Input vectoring method in neural networks for auto-identification of a partial discharge source
DE10014492C2 (en) Test methods for semiconductor wafers
DE69419264T2 (en) SYSTEM FOR MONITORING AN INDUSTRIAL PROCESS AND DETERMINING THE SENSOR STATE
DE69324296T2 (en) Procedure for diagnosing an ongoing process
DE69718714T2 (en) Fault detection during the operation of electrical equipment
DE69518005T2 (en) PLANT PARAMETER DETERMINATION BY MONITORING THE DENSITY OF SPECTRAL PERFORMANCE
DE102019107363B4 (en) Method and system for determining a property of a machine, in particular a machine tool, without measuring the property and method for determining an expected quality condition of a component manufactured with a machine
DE112020006911T5 (en) Data generation device, machine learning system and machining state estimation device
DE102019217613A1 (en) METHOD OF DIAGNOSING AN ENGINE CONDITION AND DIAGNOSTIC MODELING METHOD FOR THEREOF
DE112018003079T5 (en) Lathe system diagnostic device, power conversion device, lathe system, and lathe system diagnostic method
DE4124501C2 (en) Neural network with automatic installation of intermediate neurons
DE102017121239A1 (en) Method and device for monitoring the kinematics of an epicyclic planetary gear
DE3877912T2 (en) METHOD FOR MONITORING SOUND EMISSIONS.
DE4406723A1 (en) Method for monitoring the operational state of a machine or installation
DE69818380T2 (en) Method for monitoring a planetary gear provided with acceleration sensors in a means of transportation, in particular in a helicopter
DE102006000916B3 (en) Vehicle parameter evaluation method involves sampling parameters at different sample times to generate data samples and including data samples in sample set
DE19636074C2 (en) Learning-capable image processing system for classification
DE69811433T2 (en) Method for monitoring a vehicle transmission with accelerometers, in particular for helicopters
DE69019960T2 (en) DEVICE AND METHOD FOR THE SELF-ACCOUNTING OF THE QUALITY OF AN ELECTRICAL WINDING.
EP3921658A1 (en) Method and testing device
DE69231372T2 (en) Method for obtaining a logical description from a sampled analog signal
DE102020207449A1 (en) Method, computer program and device for processing signals
EP3407273A1 (en) Method and system for determining an abnormal state of a system
EP1043590A1 (en) Method and device for determining the rotational speed of a DC commutator motor
DE69025812T2 (en) Method and device for the automatic execution of test samples

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
AG Has addition no.

Ref country code: DE

Ref document number: 4209296

Format of ref document f/p: P

AG Has addition no.

Ref country code: DE

Ref document number: 4209296

Format of ref document f/p: P

D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee