DE4124501A1 - Neuronal network esp. for testing multiple-phase electric motor - has three neuronal layers for classifying input attribute vectors using class function - Google Patents
Neuronal network esp. for testing multiple-phase electric motor - has three neuronal layers for classifying input attribute vectors using class functionInfo
- Publication number
- DE4124501A1 DE4124501A1 DE4124501A DE4124501A DE4124501A1 DE 4124501 A1 DE4124501 A1 DE 4124501A1 DE 4124501 A DE4124501 A DE 4124501A DE 4124501 A DE4124501 A DE 4124501A DE 4124501 A1 DE4124501 A1 DE 4124501A1
- Authority
- DE
- Germany
- Prior art keywords
- neural network
- class
- learning
- network according
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 title claims abstract description 85
- 230000001537 neural effect Effects 0.000 title claims abstract description 7
- 238000012360 testing method Methods 0.000 title claims description 33
- 230000006870 function Effects 0.000 claims abstract description 43
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000013528 artificial neural network Methods 0.000 claims description 74
- 210000002569 neuron Anatomy 0.000 claims description 42
- 238000005259 measurement Methods 0.000 claims description 29
- 238000000034 method Methods 0.000 claims description 19
- 210000004205 output neuron Anatomy 0.000 claims description 15
- 210000002364 input neuron Anatomy 0.000 claims description 12
- 108010076504 Protein Sorting Signals Proteins 0.000 claims description 6
- 230000002950 deficient Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 230000015556 catabolic process Effects 0.000 claims description 3
- 238000003860 storage Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 3
- 230000007547 defect Effects 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 239000004020 conductor Substances 0.000 claims 1
- 230000007812 deficiency Effects 0.000 claims 1
- 230000010355 oscillation Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 5
- 239000006227 byproduct Substances 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Neurology (AREA)
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Abstract
Description
Die Erfindung betrifft ein neuronales Netz, bestehend aus untereinander netzartig schichtweise hintereinandergeschalteten Neuronenschichten, von denen einer Eingangsneuronenschicht über Eingänge Eingangsmuster jeweils als ein n-dimensionaler Merkmalvektor zuzuführen sind und deren Eingangsneurone jeweils mit Eingängen von Zwischenneuronen einer Zwischenneuronenschicht verbunden sind, in denen jeweils eine Zugehörigkeit des jeweils vorliegenden Merkmalvektors zu einer dem jeweiligen Zwischenneuron zugeordneten Klasse mittels einer parametrisierten Klassenfunktion ermittelt wird, die von den Zwischenneuronen an Ausgangsneuronen einer Ausgangsneuronenschicht mitgeteilt werden, deren Ausgangsgrößen einen Ausgangsvektor repräsentieren.The invention relates to a neural network consisting of with each other like a network in layers cascaded neuron layers, of which an input neuron layer over inputs input pattern each as an n-dimensional feature vector and their input neurons each have inputs from Intermediate neurons connected to an intermediate neuron layer are in which a membership of each present feature vector to a the respective Intermediate neuron-assigned class using a parameterized class function is determined by the Intermediate neurons to output neurons one Output neuron layer are communicated whose Output variables represent an output vector.
Ein neuronales Netz ist eine Anordnung von mathematischen Funktionsgruppen i.a. mehrerer verschiedener Arten, die in sogenannten gedachten Neuronenschichten angeordnet sind, wobei die Ausgänge der Neuronen der einen Schicht jeweils mit den Eingängen der Neuronen der nachgeordneten Schicht netzartig verknüpft sind. Den Eingängen werden sogenannte Eingangsmuster, die jeweils aus einer Menge von Merkmalgrößen bestehen, parallel zugeführt, und von den Ausgängen der Ausgangsschicht werden den Eingangsmustern zugehörige Ausgangsmuster, die jeweils aus einer Menge von Ausgangsgrößen bestehen, abgegeben. Die mathematischen Verknüpfungsfunktionen der Neuronen werden in einer sogenannten Lernphase schrittweise derart parametrisiert, daß zu einer vorgegebenen Anzahl bekannter Lernmuster bekannte zugehörige Ausgangsmuster entstehen. Die Verknüpfungsfunktionen bestehen gewöhnlich aus einer Bildung von Summen aus den parametrisch gewichteten Mustermerkmalen und aus einer parametrisierten Schwellwertbewertung. Diese Art der neuronalen Netze haben den Nachteil, daß zum Lernen eines Musterkollektivs abhängig von dessen Größe sowie der Unterscheidbarkeit der darin enthaltenen Muster oft eine sehr große Anzahl von Neuronen, die nicht vorherbestimmbar ist, zu einer eindeutigen Klassifizierung der Muster in die Ausgangsmuster erforderlich ist und deshalb ein Überschuß an Neuronen von vornherein anzusetzen ist, wodurch eine erhöhte Arbeitszeit und ein vielschrittiger iterativer Lernprozeß notwendig ist, wenn ein Musterkollektiv neu erlernt werden soll oder neue Muster hinzugelernt werden sollen.A neural network is an arrangement of mathematical ones Function groups i.a. several different types that are in so-called imaginary neuron layers are arranged, the outputs of the neurons of one layer each with the inputs of the neurons of the subordinate layer are linked like a network. The entrances are called Input patterns, each consisting of a set of Feature sizes exist, fed in parallel, and from the Outputs of the output layer become the input patterns associated output patterns, each of a set of Output variables exist, given. The math Linking functions of the neurons are in one so-called learning phase is gradually parameterized in such a way that to a given number of known learning patterns known associated initial patterns arise. The Linking functions usually consist of an education of sums from the parametrically weighted sample characteristics and from a parameterized threshold evaluation. These The type of neural networks have the disadvantage that for learning a sample collective depending on its size and the The patterns contained therein can often be distinguished very large number of neurons that cannot be predetermined is to clearly classify the patterns in the Initial pattern is required and therefore an excess Neurons must be placed from the outset, which increases Working hours and a multi-step iterative learning process is necessary if a sample collective is to be newly learned should or new patterns should be learned.
Es ist Aufgabe der Erfindung ein neuronales Netz zu offenbaren, das eine Verringerung der Verarbeitungszeit eines Musters und eine Verringerung von Lernschrittzahlen erbringt und eine eindeutige Abbildung eines jeweils erlernten Musterkollektivs mit einem minimalen Neuronenaufwand aufweist, sowie ein vorteilhaftes Betriebsverfahren und eine vorteilhafte Anwendung des neuronalen Netzes zu nennen.It is an object of the invention to provide a neural network disclose a reduction in processing time of a pattern and a reduction in learning step numbers provides and a clear representation of each learned sample collective with a minimal Has neuron expenditure, as well as an advantageous Operating procedures and an advantageous application of the to call the neural network.
Die Lösung besteht darin, daß die Klassenfunktion jeweils eine Abstandsfunktion bezüglich eines n-dimensionalen Mittelpunktvektors eines n-dimensional bezüglich seiner Grenzen parametrisierten Raumausschnittes ist, wobei eine Grenzparametervariation und eine Aufgliederung der Raumausschnitte derart vorgenommen ist, daß alle von einer Vielzahl von jeweils einer der Klassen zugeordneten Lernmerkmalvektoren in einen der Raumausschnitte verweisen und die Aufgliederung eines Raumausschnittes nur vorliegt, soweit die Grenzparametervariation eine eindeutige Verweisung auf nur einen der Raumausschnitte nicht erbringt, wobei der Raumausschnitt soweit in Unterraumausschnitte mit jeweils einer zugehörigen Unterklassenfunktion eines Zwischenneurons aufgegliedert ist, daß von einer vorgegebenen Gesamtheit von Lernmerkmalvektoren jeder auf nur einen der einer bestimmten Klasse zugeordneten Raumausschnitte (U1; U2, U3, U4) verweist.The solution is that the class function is in each case a distance function with respect to an n-dimensional center point vector of an n-dimensionally parameterized spatial section, with a boundary parameter variation and a division of the spatial sections such that all of a large number of one of the classes refer to the assigned learning feature vectors in one of the room sections and the breakdown of a room section only exists if the boundary parameter variation does not provide a clear reference to only one of the room sections, the room section being subdivided into subspace sections with an associated subclass function of an intermediate neuron to the extent that of a given totality of learning feature vectors each refers to only one of the space sections assigned to a specific class (U 1 ; U 2 , U 3 , U 4 ).
Die einzelnen Ausgangssignale des neuronalen Netzes sind also Binärsignale, die jeweils eine Klassenzugehörigkeit anzeigen. Die Abstandsfunktion ist vorteilhaft stetig fallend. Sie kann beispielsweise eine Glockenfunktion, eine Potenzfunktion oder eine Exponentialfunktion sein.The individual output signals of the neural network are thus binary signals, each belonging to a class Show. The distance function is advantageously continuous falling. For example, it can have a bell function Power function or an exponential function.
Als besonders günstig hat sich eine quadratische Abstandsfunktion des Differenzvektors zwischen dem Merkmalvektor und dem Mittelpunktvektor ergeben, der ins Verhältnis zum Quadrat der Länge eines Radiusvektors gesetzt wird, der die Grenze des betreffenden Raumausschnittes angibt, wenn ein unterer Schwellwert des Abstandsfunktionswertes festgelegt ist; somit stellen die Raumausschnitte n-dimensionale Hyperellipsoide dar, die im Sonderfall n-dimensionale Kugeln sind, wenn die Achsen isometrisch sind.A square has proven to be particularly favorable Distance function of the difference vector between the Feature vector and the center point vector, which ins Ratio to the square of the length of a radius vector becomes the boundary of the area in question indicates when a lower threshold of Distance function value is set; thus the Spatial sections represent n-dimensional hyperellipsoids, which in the Special case are n-dimensional balls if the axes are isometric.
Tritt bei dem Einsatz des aufgrund eines Lernvorganges mit einem Kollektiv von Lernmerkmalvektoren ausgebildeten neuronalen Netz zur Klassifizierung unbekannter Merkmalvektoren eine mehrdeutige oder keine Klassenzugehörigkeit auf, was jeweils in einer Nachverarbeitung der Ausgangswerte abgeprüft wird, so wird zweckmäßig der Schwellwert in Inkrementen innerhalb vorgegebener Grenzen nach und nach erhöht bzw. erniedrigt, bis eine eindeutige Klassenzuordnung vorliegt. Der danach ausgegebene Schwellwert zeigt dem Benutzer den Grad der Eindeutigkeit der Zuordnung qualitativ an.Occurs when using the due to a learning process a collective of learning feature vectors neural network for the classification of unknown Feature vectors an ambiguous or none Class affiliation based on what is in each Postprocessing of the initial values is checked, so expediently the threshold value in increments within specified limits are gradually increased or decreased, until there is a clear class assignment. The one after that Output threshold shows the user the degree of Uniqueness of the assignment qualitatively.
Eine vorteilhafte neuartige Ausgestaltung des neuronalen Netzes besteht darin, daß die Eingangsneuronen eine Aufbereitung von Eingangssignalen derart vornehmen, daß zeitliche Signalfolgen parallelisiert und dann als ein Eingangsvektor genutzt werden. Hierzu wird z. B. der Verlauf mindestens eines Meßsignales über einen vorgegebenen Zeitraum, der z. B. einer Funktionsperiode oder einem Funktionsabschnitt einer Vorrichtung, der die zu verarbeitenden Meßdaten entnommen worden sind, entspricht, in kurzen zeitlichen Abständen, also im Zeitmultiplex, abgetastet und zwischengespeichert. Das Meßsignal wird vorteilhaft vor oder nach der Abtastung und Speicherung glättend verarbeitet, was durch die Bildung einer Einhüllenden von Wechselgrößensignalen und/oder durch eine Kurzzeitmittelung über mehrere Abtastungen erfolgt. Dadurch ist es möglich, mit relativ wenigen Stützwerten Merkmalvektoren zu bilden, die eine hochwertige Klassifikation erbringen. Die Stützwerte werden vorteilhaft in einer vorgegebenen Anzahl über den Zeitraum der sich ergebenden Dauer des Funktionsabschnittes gleichverteilt gebildet.An advantageous new embodiment of the neural Network is that the input neurons are a Process input signals in such a way that parallel signal sequences and then as one Input vector can be used. For this, z. B. the course at least one measurement signal over a given one Period of time B. a term of office or a Functional section of a device that the processing data have been taken corresponds to in short time intervals, i.e. in time multiplex, scanned and cached. The measurement signal is advantageous before or after sampling and storage processed smoothing what by forming a Envelope of changing size signals and / or by one Short-term averaging takes place over several samples. Thereby it is possible with relatively few base values Feature vectors to form a high quality Provide classification. The base values become advantageous in a predetermined number over the period of time resulting duration of the functional section evenly distributed educated.
Die Meßwertaufbereitung läßt sich i.a., wenn es sich nicht um eine sehr schnelle Echtzeitverarbeitung handelt, mittels eines Programmes vornehmen, wenn die Abtastwerte vorab gespeichert wurden.The measured value processing can generally be done if it is not is a very fast real-time processing, by means of of a program if the samples in advance have been saved.
Bei der Neuerstellung eines neuronalen Netzes wird jeweils nach der Zuführung eines Lernmerkmalvektors einer bereits erlernten Klasse ausgangsseitig von der nachgeschalteten Prüfschaltung ermittelt, ob eine richtige und eine eindeutige Klassifizierung desselben vorliegt und, falls dies nicht der Fall ist, wird iterativ eine inkrementale Änderung mindestens eines der Merkmalraumparameter in vorgegebenen Grenzen vorgenommen und, falls dies bei Erreichen der vorgegebenen Grenze noch nicht zu einer eindeutigen richtigen Klassifizierung führt, wird ein weiteres Zwischenneuron eingerichtet, mit Parametern versorgt und mit dem der Klasse des Lernmerkmalvektors zugeordneten Ausgangsneuron verbunden.When a new neural network is created, after the supply of a learning feature vector one already learned class on the output side of the downstream Test circuit determines whether a correct and a there is a clear classification and, if if not, iteratively becomes an incremental Change at least one of the feature space parameters in predetermined limits and, if this is the case with Not reaching the given limit yet leads to a clear correct classification another intermediate neuron set up, with parameters provided and with that of the class of the learning feature vector associated output neuron connected.
Ist ein abgeschlossenes Lernmerkmalkollektiv erlernt, so kann das neuronale Netz unabhängig von der Lernvorrichtung betrieben werden. Die Struktur des neuronalen Netzes und sein Inhalt sind u. a. durch die Reihenfolge der Zuführung der Lernmerkmalvektoren eines Kollektivs bestimmt, da von ihr abhängig mehr oder weniger Unterklassen entstehen, denen die Zwischenneuronen entsprechen. Es hat sich in praktischen Versuchen gezeigt, daß das neuronale Netz i.a. dadurch zu vereinfachen ist, daß nach dem Erlernen eines vollständigen Kollektivs, das in beliebiger Reihenfolge zugeführt werden kann, ein Unterkollektiv aus den Mittelpunktvektoren der Unterklassen gebildet wird und aus diesen ein neuronales Netz neu erstellt wird, mit dem dann die übrigen Lernmerkmalvektoren nur klassifiziert werden, wonach nur die dabei nicht eindeutig und nicht richtig klassifizierten Lernmerkmalvektoren jeweils in einem folgenden Lernschritt zugeführt werden. Diese beiden Schritte der Klassifizierung und des Nachlernens der nicht eindeutig und nicht richtig klassifizierten Lernmerkmalmuster führt letztlich, u. U. nach mehrmaliger Iteration der Neuerstellung des neuronalen Netzes mit dem reduzierten und gemäß dem Verfahren um die notwendigen Lernmerkmalvektoren ergänzten Kollektiv, zu einem vereinfachten aber vollständig klassifizierenden neuronalen Netzes und einem, z. B. für ein späteres Lernen von Obermengen, verfügbaren verkürzten aber ausreichenden Lernmerkmalkollektiv. If a completed learning characteristic collective has been learned, then so can the neural network regardless of the learning device operate. The structure of the neural network and its content is u. a. by the order of feeding the learning feature vectors of a collective determined because of depending on the more or less subclasses that arise the intermediate neurons correspond. It has turned into practical Experiments have shown that the neural network generally thereby too simplify is that after learning a complete Collective that are fed in any order can, a sub-collective of the midpoint vectors of the Subclasses is formed and from these a neuronal Network is created with which then the rest Learning feature vectors are only classified, according to which only the not clearly and incorrectly classified Learning feature vectors each in a subsequent learning step are fed. These two steps of classification and relearning the ambiguously and incorrectly classified learning feature patterns ultimately leads u. U. after repeated iteration of the re-creation of the neural Network with the reduced and according to the procedure around the necessary learning feature vectors added collective, too a simplified but fully classifying neural network and one, e.g. B. for later learning of supersets, available short but sufficient Learning characteristics collective.
Eine vorteilhafte Anwendung findet das neuartige neuronale Netz in Prüfeinrichtungen, wobei die über eine Funktionsperiode von einem Prüfobjekt gewonnenen Meßsignale dem neuronalen Netz zu einer Güteklassifikation des Prüflings zugeführt werden. Bei der Einrichtung einer solchen Vorrichtung ist es nicht mehr erforderlich, die einzelne Fehlerarten eines Produktes in ihren Auswirkungen auf die Meßwertverläufe zu analysieren und zu kennen, wie das bei menschlichen Experten oder analytisch arbeitenden bekannten Vorrichtungen der Fall ist; sondern es genügt, die Meßwerte von guten Musterobjekten und den verschiedenen Arten der fehlerbehafteten Musterobjekten über einen charakteristischen Funktionsabschnitt zu erfassen und in einer Lernphase unter Zuordnung zu der Fehlerart, die den Klassenindex bildet, daraus ein neuronales Netz zu generieren. Darüberhinaus lassen sich die vorbeschriebenen vorteilhaften Ausgestaltungen auf das neuronale Netz und das so gewonnene Lernmerkmalkollektiv anwenden. Das Klassifizierungsvermögen des neuronalen Netzes läßt sich auch sehr leicht bei Änderungen des Produktes oder bei Auftreten neuer Fehlerarten ergänzen und erweitern, indem die Meßwerte von dem geänderten oder fehlerhaften Objekt als weiterer Lernmerkmalvektor erfaßt und gespeichert wird.The novel neural is used advantageously Network in test facilities, the over a Function period of measurement signals obtained from a test object the neural network for a quality classification of the DUT are fed. When setting up a such device it is no longer necessary to the effects of individual types of defects in a product to analyze the measured value courses and to know how that with human experts or working analytically known devices is the case; but it is enough that Measured values from good sample objects and the various Types of defective sample objects via one characteristic functional section to capture and in a learning phase associated with the type of error that the Class index forms a neural network from it to generate. In addition, the previously described advantageous embodiments of the neural network and that apply the learning feature collective thus obtained. The Classification ability of the neural network can be also very easy with changes to the product or with Complement and expand the occurrence of new types of errors by the measured values from the changed or defective object as further learning feature vector is detected and stored.
Eine vorteilhafte Anwendung findet das erfindungsgemäße neuronale Netz in einem Elektromotoren-Güteprüfstand, wodurch es gelingt, mit einem einfachen Computer und nur unter Anwendung der hier dargelegten Mittel und ohne Hinzufügung von speziellem Fachwissen über die Auswirkung einzelner Fehlerarten auf die Meßdaten, eine volle Funktionsfähigkeit der Klassifiziereinrichtung zu erbringen, indem sämtliche bekannten, d. h. denkbaren, Fehlerarten an den Motoren erkannt und angezeigt werden. The invention has an advantageous application neural network in an electric motor quality test bench, which succeeds with a simple computer and only using the means outlined here and without Add special expertise on the impact individual types of errors on the measurement data, a full one To make the classification device functional, by all known, i.e. H. conceivable types of error the motors are recognized and displayed.
Vorteilhafte Ausgestaltungen der Vorrichtung und der Verfahrensschritte sind anhand der Fig. 1 bis 5 dargestellt.Advantageous embodiments of the device and the method steps are shown with reference to FIGS. 1 to 5.
Fig. 1 zeigt ein Schema des neuronalen Netzes mit Lernvorrichtung; Fig. 1 is a diagram showing the neural network with learning device;
Fig. 2 zeigt einen Ausschnitt des neuronalen Netzes für eine Zeitmulitplex-Signalaufbereitung; Fig. 2 shows a section of the neural network for a Zeitmulitplex Signal Processing;
Fig. 3 zeigt ein Schema einer Klassifikatorbildung; Fig. 3 shows a schematic of a Klassifikatorbildung;
Fig. 4 zeigt ein Schema einer Klassifikatorvariation; Fig. 4 shows a schematic of a classifier variation;
Fig. 5 zeigt einen Motorenprüfstand mit einem neuronalen Netz. Fig. 5 shows an engine test stand with a neural network.
Fig. 1 zeigt ein Schema eines neuronalen Netzes mit drei Stufen. Die Eingangsschicht (NSE) von Neuronen besteht aus Aufbereitungsschaltungen (NE1,-NE13), die eine Umsetzung von an den Eingängen (EG1,EG2) eingehenden Größen in Merkmale des Merkmalvektors vornehmen. Sämtliche Merkmale der für die Verarbeitungszeit zwischengespeicherten Merkmalvektoren sind allen Zwischenneuronen (NM1,-NM4) der verdeckten Neuronenschicht (NSM) zugeführt, in denen die Klassifizierung nach Klassen bis in die Unterklassen erfolgt. Die binären Ausgangssignale der Zwischenneuronen sind der Ausgangsneuronenschicht (NSA) zugeführt, die jeweils aus Ausgangssignalspeichern mit einer Oder-Schaltung für die Unterklassenzusammenfassung zu einer Klasse bestehen, die die Ausgangsneuronen (NA1,-NA3) bilden. Fig. 1 shows a schematic of a neural network with three stages. The input layer (NSE) of neurons consists of conditioning circuits (NE 1 , -NE 13 ), which convert the quantities coming in at the inputs (EG 1 , EG 2 ) into features of the feature vector. All features of the feature vectors temporarily stored for the processing time are supplied to all intermediate neurons (NM 1 , -NM 4 ) of the hidden neuron layer (NSM), in which the classification according to classes takes place into the subclasses. The binary output signals of the intermediate neurons are fed to the output neuron layer (NSA), which each consist of output signal memories with an OR circuit for subclassification into a class which form the output neurons (NA 1 , -NA 3 ).
Fig. 2 zeigt einen Ausschnitt in einer besonderen Ausgestaltung der Eingangsneuronenschicht, indem in einer Anzahl der Neuronen (NE1,-NE3) das jeweils anliegende Eingangssignal (EG1) mit einer zeitlichen Folge von Takten (T1,-T3) eines durch eine gesteuerte Uhr (CL) geschalteten Zeitmultiplexers (TM) im Zwischenspeicher (S1,-S3) eingespeichert wird. Von diesen werden die gespeicherten Werte zu einem Zeitpunkt (TX) nach dem Ende der Zeitmultiplexabtastung über Und-Funktionen (U1,-U3) an die Zwischenneuronen als die auszuwertenden Merkmale abgegeben. Fig. 2 shows a detail in a particular embodiment, the input neuron layer by in a number of neurons (NE 1, -NE 3) the respectively applied input signal (EC 1) with a temporal sequence of clocks (T 1, T 3) of a by a controlled clock (CL) switched time multiplexer (TM) in the buffer (S 1, - S 3 ) is stored. From these, the stored values are given to the intermediate neurons as the features to be evaluated at a point in time (TX) after the end of the time-division multiplex scanning via AND functions (U 1, - U 3 ).
Das Eingangssignal (EG1) ist zweckmäßig digital umgesetzt, und die Multiplexerfunktion läßt sich hardwaremäßig oder durch eine Programmsteuerung erfüllen. Die Funktion der Anordnung nach Fig. 2 läßt sich auch in einfacher Weise durch ein Schieberegister erbringen, dem eingangsseitig das digital umgesetzte Signal zugeführt ist und das mit dem Zeittakt als Schiebetakt beaufschlagt ist und dessen Inhalt mit dem Schlußtakt parallel weitergegeben wird. Die Anzahl der Samplingtakte (T1, T3) und die Dauer eines Mulitplexerdurchlaufes ist den jeweiligen Erfordernissen anzupassen, so daß die charakteristischen Verläufe des Eingangssignales mit ausreichender Auflösung erfaßt werden. Vor einer Digitalisierung oder auch nach dieser wird das Eingangssignal vorteilhaft geglättet, wobei der Glättungszeitraum allenfalls einige Abtasttakte lang ist, um die charakteristischen Merkmale zu erhalten und andererseits hochfrequente Störeinflüsse zu beseitigen.The input signal (EG 1 ) is expediently implemented digitally, and the multiplexer function can be fulfilled by hardware or by program control. The function of the arrangement according to FIG. 2 can also be provided in a simple manner by means of a shift register, to which the digitally converted signal is fed on the input side and which is acted upon by the time clock as a shift clock and whose content is passed on in parallel with the final clock. The number of sampling cycles (T 1 , T 3 ) and the duration of a multiplexer pass must be adapted to the respective requirements so that the characteristic curves of the input signal are detected with sufficient resolution. Before digitization or after this, the input signal is advantageously smoothed, the smoothing period being at most a few sampling clocks long in order to maintain the characteristic features and, on the other hand, to eliminate high-frequency interference.
Sind die Eingangssignale Wechselgrößen, so hat es sich als vorteilhaft und ausreichend erwiesen, von diesen die Einhüllende zu bilden und nur den so entstehenden wesentlich niederfrequenteren Größenverlauf zur Merkmalbildung auszuwerten. Auch die Einhüllendenbildung kann vor oder nach einer Digitalisierung des Eingangssingales (EG1) erfolgen. Wird eine Einhüllende programmäßig ausgewertet, so läßt sich statt einer Zeitmultiplexabfrage in einem festen Raster auch eine Bildung einer vorgegebenen Anzahl von Stützwerten der Einhüllenden über einen charakteristischen Signalabschnitt als Merkmale bilden und speichern, wobei die Grenzen des auszuwertenden Signalabschnittes von dem Eintreten bestimmter Kriterien des Meßsignales, z. B. von einem Nulldurchgang, einem Extremwertdurchlauf oder einem Erreichen von Grenzwerten, abgeleitet werden, also zeitlich nicht vorherzubestimmen sind.If the input signals are alternating variables, it has proven to be advantageous and sufficient to form the envelope of these and only to evaluate the resulting significantly lower-frequency variable curve for feature formation. The envelope can also be formed before or after digitizing the input signal (EG 1 ). If an envelope is evaluated program-wise, instead of a time-division multiplex query in a fixed grid, it is also possible to form and store a predetermined number of support values for the envelope over a characteristic signal section, the limits of the signal section to be evaluated depending on the occurrence of certain criteria of the measurement signal, e.g. B. derived from a zero crossing, an extreme value run or reaching limit values, that is, they cannot be predetermined in time.
Sofern mehrere Eingangssignalfolgen in dem neuronalen Netz ausgewertet werden sollen, können mehrere Anordnungen gemäß Fig. 2 parallel angeordnet sein und auch zeitlich gestaffelt mit jeweils einem kleinen Zeitversatz programmäßig betrieben sein, wobei die Zeitraster der verschiedenen Signalaufbereitungen auch unterschiedlich sein können.If several input signal sequences are to be evaluated in the neural network, several arrangements according to FIG. 2 can be arranged in parallel and can also be operated in a staggered manner with a small time offset in each case, the time intervals of the different signal preparations also being able to be different.
Die Funktion der Zwischenneuronen läßt sich anhand der Fig. 3 veranschaulichen, wo in einer Merkmalebene (M1, M2) kreisförmige Schnitte mit einem Klassenraum (U1) einer ersten Klasse und mit drei Unterklassenräumen (U1,-U4) einer zweiten Klasse dargestellt sind und die Lage der jeweils gelernten Merkmalvektoren der beiden Klassen durch Dreiecke bzw. Quadrate eingezeichnet sind. Die gestrichelt umschlossenen Bereiche repräsentieren beispielsweise ideale Klassengrenzen, die überschneidungsfrei sind. Denen nähert sich bei einem Lernen weiterer Lernmerkmalvektoren die Unterklassengrenzziehung an, indem deren Radien verkürzt oder verlängert werden, die Mittelpunkte verlagert werden und erforderlichenfalls neue Unterklassen gebildet werden.The function of the intermediate neurons can be illustrated with the aid of FIG. 3, where in a feature level (M 1 , M 2 ) circular cuts with a class room (U 1 ) of a first class and with three sub-class rooms (U 1, - U 4 ) of a second Class are shown and the location of the learned feature vectors of the two classes are shown by triangles or squares. The areas enclosed in dashed lines represent, for example, ideal class boundaries that are free of overlaps. As further learning feature vectors are learned, subclass boundary drawing approaches them by shortening or lengthening their radii, shifting the center points and, if necessary, forming new subclasses.
Weiterhin zeigt Fig. 4 einen elliptischen Schnitt eines Unterklassenraumes (U) mit der Merkmalebene (M1, M2), bei dem die Radien (R1, R2), die sich in Richtung der Merkmalachsen erstrecken, den jeweiligen Erfordernissen angepaßt verschieden sind. Auf alle Dimensionen eines Merkmalvektors (M) bezogen erhält dann der Merkmalraum die Form eines Hyperellipsoids.Furthermore, FIG. 4 shows an elliptical section of a subclass space (U) with the feature level (M 1 , M 2 ), in which the radii (R 1 , R 2 ), which extend in the direction of the feature axes, are differently adapted to the respective requirements . In relation to all dimensions of a feature vector (M), the feature space then takes the form of a hyperellipsoid.
Jeder Unterklassenraum ist somit durch die Gesamtheit der Koordinaten (Wi) des Mittelpunktes und die Gesamtheit der Radien (Ri) des Hyperboloids bestimmt.Each subclass space is thus the total of Coordinates (Wi) of the center and the entirety of the Radii (Ri) of the hyperboloid determined.
Die Lage eines Merkmalvektors (M) mit den Merkmalen Mi ergibt sich dann aus einer Abstandsfunktion H, aus der sich dessen Unterklassenzugehörigkeit T durch eine Grenzwertzusatzbedingung mit einem Grenzwert S in folgender Weise ergibt:The location of a feature vector (M) with the features Mi then results from a distance function H, from which whose subclass membership T by a Limit value additional condition with a limit value S in the following Way results in:
Bei dem Erzeugen eines neuronalen Netzes werden auf der Grundlage der Eingangsneuronen in einer Lernsteuervorrichtung (LV) gemäß Fig. 1 von dieser gesteuert Lernmerkmalvektoren (ML) jeweils den Zwischenneuronen zur Klassifizierung zugeführt und die Ausgangssignale der Ausgangsneuronen von einer Prüfschaltung (PS) bewertet, die feststellt, ob eine und nur eine Klasse und ggf. die dem Lernmerkmalvektor (ML) zugehörige Klasse (KL) von dem neuronalen Netz ausgegeben wird. Tritt dabei eine neue Klasse auf, für die noch kein Zwischenneuron besteht, so wird hierfür ein neues installiert, indem zu dem Endpunkt des betrachteten Lernmerkmalvektor (ML) ein Hyperellipsoid durch einen Parametersatz Mi, Ri, S festgelegt und gespeichert wird. Ist die neue Klasse bereits im neuronalen Netz durch mindestens ein Zwischenneuron repräsentiert, erfolgt jedoch keine Klassifizierung oder eine Doppelklassifizierung des eingegebenen Lernmerkmalvektors (ML), so wird von der Lernsteuervorrichtung (LV) iterativ eine sukzessiv erweiterende Paramentervariation der Neuronen der betreffenden nicht gefundenen Klassen in jeweils vorgegebenen Grenzen vorgenommen und, falls dies nicht erfolgreich war, eine Neuinstallation eines Unterklassenneurons vorgenommen. Liegt andernfalls eine Falschklassifizierung des Lernmerkmalvektors vor, so nimmt die Lernsteuervorrichtung (LV) iterativ eine sukzessive Parametervariation zur Verengung des Hyperellipsoids in vorgegebenen Grenzen vor und, falls dieses Vorgehen nicht erfolgreich war, wird von der Lernsteuervorrichtung (LV) eine Aufteilung eines betroffenen Neurons in Unterklassenneuronen vorgenommen, die engere Grenzen, also kürzere Radien und getrennte Mittelpunktkoordinaten aufweisen. Die jeweiligen Grenzvorgaben für die Variationen der Parameter, nämlich der Radien und der Mittelpunktkoordinaten, sind dadurch bestimmt, daß alle bisher gelernten Lernmerkmalvektoren in den beschriebenen Räumen enthalten sein müssen. Das jeweilige Maß des Abstandes eines mehreren oder keiner Klasse zugeordneten Lernmerkmalvektors zu dem Hyperellipsoid ist zweckmäßig zur Bildung des Inkrementes der Parameteränderung genutzt, so daß eine schnelle Konvergenz der Iteration erfolgt.When generating a neural network, on the basis of the input neurons in a learning control device (LV) according to FIG. 1, learning feature vectors (ML) controlled by this are fed to the intermediate neurons for classification and the output signals of the output neurons are evaluated by a test circuit (PS), which determines whether one and only one class and possibly the class (KL) belonging to the learning feature vector (ML) is output by the neural network. If a new class occurs for which there is still no intermediate neuron, a new one is installed by defining and storing a hyperellipsoid for the endpoint of the learning feature vector (ML) under consideration using a parameter set Mi, Ri, S. If the new class is already represented in the neural network by at least one intermediate neuron, but there is no classification or a double classification of the entered learning feature vector (ML), the learning control device (LV) iteratively successively expands the parameter variation of the neurons of the relevant classes not found in each case predetermined limits and, if this was unsuccessful, a new subclass neuron was installed. Otherwise, if the learning feature vector is incorrectly classified, the learning control device (LV) iteratively makes a successive parameter variation for narrowing the hyperellipsoid within predetermined limits and, if this procedure has not been successful, the learning control device (LV) divides an affected neuron into subclass neurons made that have narrower boundaries, i.e. shorter radii and separate center coordinates. The respective limit specifications for the variations of the parameters, namely the radii and the center coordinates, are determined by the fact that all learning feature vectors learned so far must be contained in the spaces described. The respective measure of the distance of a learning feature vector from a plurality or from no class to the hyperellipsoid is expediently used to form the increment of the parameter change, so that the iteration rapidly converges.
Bei einer Zuordnung eines Lernmerkmalvektors zu mehreren Klassen wird zweckmäßig zuerst an den Parametern des Neurons geändert, das die geringste Grenzabweichung des Hyperellipsoids zum Lernmerkmalvektorendpunkt zeigt.When one learning feature vector is assigned to several Classes are first useful on the parameters of the neuron changed that the smallest limit deviation of the Hyperellipsoids to learner vector endpoint shows.
Ein Maß der Grenzabweichung GA ergibt sich aus der Abstandsfunktion H und dem Grenzwert S, der beim Lernvorgang gewöhnlich zu 1 gesetzt ist, als:A measure of the limit deviation GA results from the Distance function H and the limit value S, which during the learning process is usually set to 1 as:
GA = H-S, insbes. GA = H-1.GA = H-S, especially GA = H-1.
Die gezeigte Vorrichtung ist in gleicher Weise für eine mehrmalige Neuinstallation eines neuronalen Netzes mit einem reduzierten Lernkollektiv geeignet. Dazu ist ein Zwischenspeicher (ZS) vorgesehen, worin die verschiedenen Prüfergebnisse der Prüfvorrichtung (PV) zugeordnet zu den Lernmerkmalvektoren jeweils gespeichert werden, so daß sie demgemäß gesteuert in einer anderen Reihenfolge bei einem erneuten Lernvorgang in ein neu zu erstellendes neuronales Netz eingespeist werden.The device shown is in the same way for one repeated reinstallation of a neural network with one reduced learning collective. There is a Buffer (ZS) provided, in which the different Test results of the test device (PV) assigned to the Learning feature vectors are each stored so that they accordingly controlled in a different order at one new learning process in a new neural to be created Be fed into the grid.
Die Lernmerkmalvektoren können unmittelbar aus Eingangssignalen durch eine Aufbereitung in den Eingangsneuronen gewonnen werden, wobei eine bekannte zugehörige Klassenbezeichnung (Ki) über eine Eingabevorrichtung (E) in die Lernsteuervorrichtung (LV) eingegeben wird, in der zugehörig zu dieser Klassenbezeichnung ein Ausgangsneuron installiert ist oder wird, falls diese bisher unbekannt war. Das Lernmerkmalvektorkollektiv kann jedoch vorteilhaft in einem Vorlauf oder Erstlauf mittels der Eingangsneuronen erstellt und in dem Zwischenspeicher gespeichert werden, wo es zusammen mit dem zugehörigen Prüfergebnissen zur späteren Verwendung abgelegt und zu einer späteren Wiederverwendung oder einer Ausgabe auf der Ausgabevorrichtung (AV) bereitsteht.The learning feature vectors can be made immediately Input signals by processing in the Input neurons are obtained, a known one associated class designation (Ki) over a Input device (E) into the learning control device (LV) is entered in the belonging to this Class designation an output neuron is installed or if this was previously unknown. The Learning feature vector collective can, however, be advantageous in one Preliminary or first run created using the input neurons and stored in the cache where it together with the associated test results for later Filed use and for later reuse or an output on the output device (AV) is ready.
Wenn bekannt ist, daß das neuronale Netz mit großer Wahrscheinlichkeit alle bekannten Klassen repräsentiert, so läßt es sich ohne die Lernsteuervorrichtung (LV) verwenden. Um jedoch auch Merkmalvektoren klassifizieren zu können, die nicht innerhalb der Hyperellipsoide liegen oder in Überschneidungsbereichen von Hyperellipsoiden mehrerer Klassen liegen, ist es vorteilhaft vorgesehen, die Prüfvorrichtung (PV) an den Ausgangsneuronen zu belassen und von der Steuervorrichtung die Parameter, vorzugsweise die Schwellwerte (Sj) vorübergehend in den betroffenen Zwischenneuronen innerhalb vorgebener Grenzen variieren zu lassen, bis sich jeweils eine und zwar eine eindeutige Klassifizierung ergibt. Als ein Maß für das Zutreffen einer Klasse nach einer solchen Variation wird dabei zweckmäßig der zu der Klassifizierung führende Schwellwert (Sj) mit der Klassenangabe auf eine Ausgabevorrichtung (AV) ausgegeben. Die Indizes i sind jeweils für die einzelnen Merkmale eines Merkmalvektors benutzt und die Indizes j sind für die Größen des jeweils laufenden Lern- oder Merkmalvektors und der zugehörigen laufenden Größen verwandt.If it is known that the neural network with large Probability represents all known classes, so it can be used without the learning control device (LV). However, in order to also be able to classify feature vectors, the do not lie within the hyperellipsoids or in Overlap areas of several hyperellipsoids Classes lie, it is advantageously provided that Leave the test device (PV) on the output neurons and from the control device the parameters, preferably the Threshold values (Sj) temporarily in the affected Intermediate neurons vary within given limits until there is one unique Classification results. As a measure of whether one applies Class after such a variation is appropriate the threshold value (Sj) leading to the classification with the Class specification output on an output device (AV). The indices i are each for the individual characteristics Feature vectors are used and the indices j are for the sizes of the current learning or feature vector and the related current sizes related.
Fig. 5 zeigt einen Motorprüfstand für Elektromotoren (EM), der eine Klassifikation von Prüflingen mittels eines neuronalen Netzes (NN) vornimmt, und der auch zum Erzeugen der erforderlichen Lernmerkmalmuster geeignet ist, wenn er mit den jeweils bekannten fehlerhaften Prüflingen betrieben wird. Fig. 5 shows an engine test bench for electric motors (EM) which performs a classification of samples using a neural network (NN), and which is also suitable for generating the required learning feature pattern when it is operated with the respective known faulty devices under test.
An dem Prüfling-Elektromotor (EM) ist hinter einer Einschaltvorrichtung (ES) der Netzspannung (UN) ein Spannungsmesser (VM) und ein Strommesser (CM) angeordnet, deren Meßsignale (UM, IM) den Eingängen (EG1, EG2) des neuronalen Netzes (NN) zugeführt sind. Weiterhin ist an der Welle des Motors (EM) ein Drehzahlmesser (TM) angeordnet, dessen Meßsignal (DM) ebenfalls einem Signaleingang des neuronalen Netzes (NN) zugeführt ist. Daneben ist es einem ersten Vergleicher (VS1) zugeführt, dessen Ausgangssignal bei Erreichen einer ersten vorgegebenen Drehzahl (DV1) durch die das Ende des Hochlaufens bestimmt ist, die Einschaltvorrichtung (ES) trennt. In einem zweiten Vergleicher (VS2) wird die gemessene Drehzahl dann darauf überwacht, wann sie einen zweiten Grenzwert (DV2) unterschreitet, wodurch das Ende der Meßwerterfassung durch eine vorzeigtige Abschaltung einer ansonsten eine maximale Erfassungsdauer bestimmenden Zeitsteuervorrichtung (TC) dem neuronalen Netz signalisiert wird. Darüberhinaus ist mindestens ein Schwingungs- und/oder Körperschallmesser (SA) an dem Prüfling angeordnet, dessen Meßsignal (SM) ebenfalls dem neuronalen Netz zugeführt ist.On the test object electric motor (EM) a voltage meter (VM) and a current meter (CM) are arranged behind a switch-on device (ES) of the mains voltage (UN), the measurement signals (UM, IM) of the inputs (EG 1 , EG 2 ) of the neural network (NN) are supplied. Furthermore, a tachometer (TM) is arranged on the shaft of the motor (EM), the measurement signal (DM) of which is also fed to a signal input of the neural network (NN). In addition, it is fed to a first comparator (VS 1 ), the output signal of which, upon reaching a first predetermined speed (DV 1 ), by which the end of the run-up is determined, separates the switch-on device (ES). The measured speed is then monitored in a second comparator (VS 2 ) to determine when it falls below a second limit value (DV 2 ), as a result of which the end of the measured value acquisition is signaled to the neural network by a shutdown of a time control device (TC) which otherwise determines the maximum acquisition duration becomes. In addition, at least one vibration and / or structure-borne noise meter (SA) is arranged on the test object, the measurement signal (SM) of which is also fed to the neural network.
Die Aufbereitung der eingehenden Wechselgrößen (IM, UM, SM) erfolgt jeweils mit einer Gleichrichtung (GL), und sämtliche Meßsignale werden einer Filterung (KF) unterworfen. Letztlich erfolgt eine Multiplexerfassung gemäß Fig. 2 und eine Stützwertbestimmung sowie eine Normierung der Stützwerte, die jeweils zu einem Multiplexerdurchlauf gewonnen wurden. Die Erfassungsdauer der Meßsignale ist durch das Einschaltsignal (St′) bestimmt, das von der Einschaltvorrichtung (ES) aus einem Startsignal (St) abgeleitet ist, und durch die Vergleicherausgangssignale von den Drehzahlvergleichern (VS1, VS2) zum anderen bestimmt. Es hat sich gezeigt, daß bei Verwendung handelsüblicher Komponenten die analogen Meßsignale (IM, UM, SM, DM) über einen Meßmultiplexer (MM) an einen Analog-Digital-Umsetzer (ADU) geleitet werden können und mit dem Steuertakt (TT) des Meßmulitplexers (MM) die verschiedenen digitalisierten Meßwerte den verschiedenen Eingängen (EG1, EG2 . . .) des neuronalen Netzes mit Untertakten (TT1, TT2, TT3, TT4) zugeführt werden können.The incoming alternating quantities (IM, UM, SM) are each processed with a rectification (GL), and all measurement signals are subjected to filtering (KF). Finally, a multiplex detection according to FIG. 2 and a base value determination as well as a normalization of the base values are carried out, which were each obtained for a multiplexer run. The detection period of the measurement signals is determined by the switch-on signal (St '), which is derived from the switch-on device (ES) from a start signal (St), and by the comparator output signals from the speed comparators (VS 1 , VS 2 ) to the other. It has been shown that when using commercially available components, the analog measurement signals (IM, UM, SM, DM) can be passed via a measurement multiplexer (MM) to an analog-to-digital converter (ADC) and with the control clock (TT) of the measurement multiplexer (MM) the various digitized measured values can be fed to the various inputs (EG 1 , EG 2 ...) Of the neural network with underclocking (TT 1 , TT 2 , TT 3 , TT 4 ).
Insbesondere ist der neuartige Motorprüfstand durch folgendes charakterisiert:In particular, the new engine test bench is through characterized the following:
- - Anregung des Motors durch eine festgelegte Eingangsfunktion (eingeschaltete Gleich- bzw. Wechselspannung); - Excitation of the engine by a fixed Input function (switched on DC or AC voltage);
- - Betrieb des Motors im Leerlauf (ohne Belastungseinrichtung wie Drehmomentbremse, Lüfterrad oder Schwungscheiben);- Operation of the engine at idle (without load device like torque brake, fan wheel or flywheels);
- - Datenerfassung von Strom-, Spannungs-, Drehzahl- und Körperschallsignal über Shunt, Spannungsteiler, optischen Aufnehmer und Körperschallaufnehmer oder Laservibrometer;- Data acquisition of current, voltage, speed and Structure-borne noise signal via shunt, voltage divider, optical Transducers and structure-borne noise transducers or laser vibrometers;
- - Einschaltdauer bis zur Überschreitung der Betriebsdrehzahl bei intakten Motoren (Enddrehzahl bei Nebenschlußmotoren);- Duty cycle until the operating speed is exceeded for intact motors (final speed for shunt motors);
- - Meßwertaufnahme auch während des Auslaufvorgangs zur Erfassung der mechanischen Verluste;- Recording of measured values also during the run-out process Recording of mechanical losses;
- - Einhüllendenbestimmung bei Wechselgrößen (Strom, Körperschall, Spannung);- Envelope determination for alternating variables (current, Structure-borne noise, tension);
- - Verwendung von Kurzzeitmittelwerten zur Unterdrückung von Störungen;- Using short-term averages to suppress Disorders;
- - Direkte Verwendung der gegebenenfalls gemittelten Stützwerte für die Fehlererkennungsklassifizierung;- Direct use of the averaged if applicable Base values for error detection classification;
- - Einsatz eines neuronalen Netzes zur Fehlererkennungsklassifizierung;- Use of a neural network for Error detection classification;
- - Lernverfahren zur Wissenspeicherung von Lernmerkmalvektoren von fehlerhaften Objekten.- Learning process for knowledge storage of Learning feature vectors of defective objects.
Darüberhinaus ist es vorgesehen, als Nebenprodukt aus den gewonnenen Meßwerten eine Ermittlung von Motorkennlinien durch eine Bestimmung stationärer Arbeitspunkte des Motors vorzunehmen und solche Arbeitspunkte auszusuchen, die durch Drehzahl, Drehmoment, Strom, Wellenleistung, Wirkungsgrad beschrieben werden. Die Ausgabe dieser gewonnen Arbeitspunkte ist z. B. graphisch als Funktion des Stromes, des Drehmoments oder der Drehzahl aus der Ausgabevorrichtung (AV) vorgesehen.In addition, it is provided as a by-product from the obtained measured values a determination of engine characteristics by determining the engine's stationary operating points to carry out and to select those working points which by Speed, torque, current, shaft power, efficiency to be discribed. The output of these gained working points is z. B. graphically as a function of the current, the torque or the speed from the output device (AV) intended.
Die Arbeitsweise der Motorprüfvorrichtung geschieht in folgender Weise. Der Rotor des zu untersuchenden Motors wird durch die eingeschaltete Spannung beschleunigt. Durch die drehende Bewegung werden Körperschallschwingungen angeregt. Die Drehzahl und der Strom haben entsprechend des jeweiligen Motorzustandes einen typischen Verlauf. Diese leicht zu messenden Größen werden von dem Analog-Digtal-Umsetzer (ADU) in rechnergeeignete Zahlenfolgen umgesetzt. Zur Messung von Wechselsignalen ist die Bestimmung der Einhüllenden der Zeitsignale vorgesehen. Diese Aufbereitung kann sowohl durch eine analoge Signalverarbeitung als auch durch Anwendung digitaler Algorithmen in einem Rechner erfolgen. Zur Datenreduktion und Störsignalunterdrückung werden vorteilhaft Kurzzeitmittelwerte verwendet, die ebenso wie die eventuell verwendete Einhüllendenbestimmung analog oder digital realisierbar ist. Diese Stützwerte charakterisieren den zustandstypischen Zeitverlauf von Stromverlauf und Körperschwingungen des zu untersuchenden Motores. Sie werden direkt als die Eingangsgrößen des Klassifikators verwendet. Insbesondere zur Klassifizierung wird das neuronale Netz eingesetzt, das durch das spezielle Lernverfahren anhand weniger Mustermotoren mit den entsprechenden Produktionsfehlern trainiert wird. Neu zu lernende Muster können aufgrund des Lernverfahrens unmittelbar in den Wissensspeicher (die Wissenbasis) mit dem Lernmerkmalkollektiv aufgenommen werden. Der Lernalgorithmus erweitert unter Umständen die Anzahl der Neuronen in der verdeckten und der Ausgangsschicht des neuronalen Netzes. Dadurch sind alle bekannten Zustände wiederzuerkennen. Aus den aufgenommenen Stützwerten der Zeitfunktionen werden stationäre Arbeitspunkte des zu untersuchenden Motors ermittelt. Diese sind durch Drehzahl, Drehmoment, Wellenleistung, Wirkungsgrad und Strom beschreibbar. Eine graphische Darstellung der Arbeitspunkte liefert die gewohnten Motorkennlinien als Beleg.The engine tester works in following way. The rotor of the engine to be examined is accelerated by the switched on voltage. Through the rotating motion, structure-borne sound vibrations are excited. The speed and current have according to the respective Engine state a typical course. This easy too measuring quantities are from the analog-digital converter (ADU) converted into numerical sequences suitable for computers. To measure Alternating signals is the determination of the envelope of the Time signals provided. This processing can be done by both an analog signal processing as well as by application digital algorithms in a computer. For Data reduction and interference signal suppression advantageously used short-term averages, which as well the envelope determination that may be used is analog or is digitally realizable. Characterize these base values the state-typical time curve of current curve and Body vibrations of the engine to be examined. you will be used directly as the input variables of the classifier. The neural network is used especially for classification used by the special learning process fewer sample engines with the corresponding Production errors is trained. New patterns to learn can learn directly in the Knowledge store (the knowledge base) with the Learning characteristics collectively. The learning algorithm may expand the number of neurons in the covert and the starting layer of the neural network. This means that all known states can be recognized. Out the recorded base values of the time functions stationary operating points of the engine to be examined determined. These are by speed, torque, Wave power, efficiency and current can be written. A provides the graphical representation of the operating points familiar engine characteristics as evidence.
In der automatisierten Fertigung werden Elektromotoren in großen Stückzahlen hergestellt. Zur Sicherung der Qualität ist ein möglichst vollständiger Test aller Motoren notwendig. Die bekannten Verfahren benötigen einige Sekunden zur Datenaufnahme und sind entweder in der Aussagesicherheit, was den Fehlertyp betrifft, zu ungenau oder sie erfordern einen hohen rechentechnischen Aufwand.In automated manufacturing, electric motors are used in large quantities manufactured. To ensure quality is a complete test of all engines necessary. The known methods take a few seconds for data acquisition and are either in the Reliability regarding the type of error is too imprecise or they require a high level of computational effort.
Die bekannten nicht modellgestützten Motorprüfvorrichtungen benötigen eine Belastungseinrichtung des Motors (Bremse). Mit Hilfe einer elektronischen Steuerung werden festgelegte Betriebszustände mit einer geregelten Einrichtung angefahren und die freien Größen werden dann gemessen. Dieses sind unter anderem der Strom, der bei einer vorgegebenen Belastung aufgenommen wird. Anhand der gemessenen Größen erfolgt eine qualitätsbezogene Aussage durch einen Vergleich der Meßgrößen mit bekannten Referenzgrößen.The known non-model-based engine test devices require a load device for the motor (brake). With the help of an electronic control, fixed Operating states approached with a controlled device and the free sizes are then measured. These are among other things, the current at a given Load is absorbed. Based on the measured sizes a quality-related statement is made by comparison of the measured quantities with known reference quantities.
Weiterhin läßt sich der Motor bekanntlich durch ein zu erstellendes mathematisches Modell beschreiben, dessen Modellgrößen mit großem Aufwand geschätzt werden müssen. Hierzu sind Eingangssignale notwendig, die die Beobachtung und damit die Schätzung aller benötigten Kenngrößen ermöglichen. Die Schätzung erfolgt mit Hilfe von Approximationsroutinen. Die Modellparameter stehen in enger Beziehung zu den realen physikalischen Größen und sind damit zur detailierten Fehlererkennung geeignet. Die Fehler an den Prüflingen werden mit Hilfe von Grenzwertüberschreitungen oder durch einen Vergleich mit bekannten Referenzwerten anhand des Modelles ermittelt.As is well known, the motor can also be closed by a describe the creating mathematical model, its Model sizes have to be estimated with great effort. For this, input signals are necessary, which are the observation and thus the estimation of all required parameters enable. The estimate is made with the help of Approximation routines. The model parameters are closer Relationship to the real physical quantities and are thus suitable for detailed error detection. The mistakes in the DUTs are exceeded with the help of limit values or by a comparison with known reference values determined based on the model.
Das neuartige Verfahren verwendet dagegen als Anregungsgröße z. B. die eingeschaltete Betriebsspannung des Motors, wie sie bei jedem Betrieb vorkommt. Aufgrund der Konstruktion des Motors entstehen dadurch typische zeitliche Verläufe des Stromes und Körperschwingungen. Diese Signale werden meßtechnisch erfaßt und durch Stützwerte oder Abtastwerte repräsentiert, mit denen das Analysenetzwerk das zustandstypische Verhalten wiedererkennt und somit den Zustand angibt. Treten unbekannte untypische Zustände auf, so läßt sich das verwendete neuronale Netz nach einem Lernschritt jeweils entsprechend erweitern, so daß ein erneutes Auftreten dieses Zustandes wiedererkannt wird. Gleichzeitig werden als Nebenprodukt aus den Meßgrößen stationäre Motorbetriebszustände ermittelt, die als Motorkennlinien angezeigt werden können.The new method, on the other hand, uses as an excitation variable e.g. B. the switched-on operating voltage of the motor as it occurs in every company. Due to the construction of the This results in typical temporal courses of the engine Current and body vibrations. These signals are recorded by measurement and by means of base values or samples represents with which the analysis network the recognizes typical behavior and thus the State indicates. If unknown atypical conditions occur, so the neural network used can be Expand the learning step accordingly so that a recurrence of this condition is recognized. At the same time, as a by-product of the measured quantities stationary engine operating conditions determined as Motor characteristics can be displayed.
Diese Erfindung ermöglicht wegen der schnellen Datenaufnahme, die nur über den Hochlauf und Auslauf des Motors erfolgt, und wegen des geringen numerischen Aufwandes zur Kennwertermittlung und der Bewertung mit einem neuronalen Netz einen vollständigen Test aller produzierten Motoren.This invention enables because of the fast Data acquisition that is only about the ramp-up and ramp-down of the Motors takes place, and because of the low numerical effort for the determination of characteristic values and the evaluation with a neural network produced a complete test of all Engines.
Die Prüfvorrichtung ist unter Anpassung auf eine geeignete Meßwertaufnahme ohne weiteres für andere Objekte einsetzbar.The test device is adapted to a suitable one Measured value recording can easily be used for other objects.
Das neuronale Netz läßt sich auch mit anderen Abstandsfunktionen als der dargestellten realisieren, wobei darauf zu achten ist, daß diese möglichst stetig fallende, eindeutige Funktionen sein sollten. Bevorzugt sind Exponential-, Glockenkurven- oder Potenzfunktionen, bei denen im Mittelpunkt ein endlicher Wert vorhanden ist und in einem bestimmten Abstand davon ein relativ steil abfallender Bereich vorhanden ist.The neural network can also be used with others Realize distance functions as shown, where It is important to ensure that this falling, should be unique functions. Are preferred Exponential, bell curve or power functions, at which have a finite value at the center and in a relatively steep slope at a certain distance from it Area exists.
Das Verfahren zur wiederholenden Erzeugung klassifizierender Neuronen in einem Netz mit einem jeweils neu sortierten und reduzierten Lernmerkmalkollektiv stellt eine eigenständige Erfindung dar, die entsprechend angepaßt auch für andere klassifizierende Neuronentypen mit anderen Funktionsinhalten anwendbar ist.The process of repetitive classifying generation Neurons in a network, each with a new and sorted reduced learning feature collective represents an independent Invention represents that adapted accordingly for others classifying neuron types with different functional content is applicable.
Die Lernschritte für das Lernen einer Stichprobe sind hier in einer Übersicht nochmals im einzelnen angegeben:The learning steps for learning a sample are here specified in an overview again:
- - Für den Merkmalvektor einer Klasse wird in der Lernphase ein Streubereich in Form eines Hyperellispsoids im mehrdimensionalen Merkmalraum festgelegt. In einem ersten Schritt dazu werden alle Radien auf einen zu bestimmenden Maximalwert festgelegt. Dadurch sind diese Anfangsradien für alle Richtungen des Vektorraumes gleich groß, man hat eine Hyperkugel im Merkmalraum.- For the feature vector of a class is in the learning phase a scattering area in the form of a hyperellispsoid in the multi-dimensional feature space. In a first Step to do this are all radii on one to be determined Maximum value set. This makes these initial radii for all directions of the vector space are the same size, you have one Hyperball in the feature space.
- - Anschließend werden alle folgenden Lernvektoren geprüft, ob sie innerhalb dieses so bestimmten Streubereiches liegen und damit richtig zugeordnet werden. Der Streubereich um das erste angelegte Muster kann als Unterklasse der Musterklasse aufgefaßt werden.- Then all the following learning vectors are checked, whether they are within this range and thus be assigned correctly. The scattering area around that first created sample can be a subclass of the sample class be understood.
- - Liegt ein Merkmalvektor dieser Klasse außerhalb dieses ersten Einflußbereiches, so wird eine zweite Unterklasse festgelegt und so weiter, bis alle Merkmalvektoren einer Klasse gelernt sind. - If a feature vector of this class lies outside of this first sphere of influence, so becomes a second subclass fixed and so on until all feature vectors are one Class are learned.
- - Für alle folgenden Klassen wird in derselben Weise verfahren. Sind die Klassengebiete im Merkmalraum disjunkt verteilt, so sind keine weiteren Maßnahmen erforderlich.- For all subsequent classes, the same way method. Are the class areas in the characteristic space disjoint distributed, no further measures are required.
- - Obwohl die Klassengebiete im Merkmalraum disjunkt verteilt sein können, kann es trotzdem zu Kollisionen zwischen Einflußbereichen vom Merkmalvektoren unterschiedlicher Klassen kommen. In diesem Fall werden die entsprechenden Radien der betroffenen Unterklassen soweit reduziert, bis kein Merkmalvektor einer Klasse mehr im Einflußbereich einer falschen Unterklasse liegt. Dies bedeutet auch, daß Überlappungsbereiche verschiedener Klassen im Merkmalraum existieren können, in diesen liegt jedoch kein Muster der Lernstichprobe.- Although the class areas in the trait space are disjoint can be distributed, it can still lead to collisions between areas of influence from feature vectors different classes come. In this case, the corresponding radii of the subclasses affected so far reduced until no more feature vectors of a class in The wrong subclass has influence. This also means that overlap areas are different Classes can exist in the characteristic space in which lies however no sample of the learning sample.
- - Zusätzlich ist ein minimaler Radiuswert vorgegeben, der bei einer Radiusverringerung nicht unterschritten werden darf. Im Grenzfall wird der Minimalwert angenommen.- In addition, a minimum radius value is specified, the when the radius is reduced may. In the limit case, the minimum value is assumed.
- - Liegt ein Merkmalvektor im Bereich einer falschen Unterklasse, so wird nur ein Radius des definierten Hyperelipsoids reduziert. Dabei handelt es sich um diejenige Halbachse mit dem kleinsten Winkel zur Verbindungslinie zwischen dem Unterklassenmittelpunkt und dem falsch klassifizierten Muster. Hatte das Einflußgebiet noch die durch Initialisierungswerte vorgegebene Hyperkugelform, so ergibt sich daraus jetzt das zuvor allgemein definierte Hyperellipsoid.- If a feature vector lies in the wrong area Subclass, so only a radius of the defined Hyperelipsoids reduced. This is the one Semi-axis with the smallest angle to the connecting line between the subclass center and the wrong classified pattern. The area of influence still had that hyperspherical shape given by initialization values, see above the result is the previously generally defined one Hyperellipsoid.
- - Eine andere Behandlung einer Kollision ist die Reduktion aller Radien um den gleichen Faktor. Dieser wird so berechnet, daß das vorher falsch klassifizierte Muster außerhalb des Einflußbereiches der falschen Musterklasse liegt. In diesem Fall bleibt die initialisierte Hyperkugelform erhalten, auch hierbei wird der vorgegebene Minimalwert, der für alle Richtungen gleich ist, beachtet.- Another treatment for a collision is reduction all radii by the same factor. This will be so calculates that the previously misclassified pattern outside the sphere of influence of the wrong model class lies. In this case the initialized one remains Obtain a hyperspherical shape, here too the default one Minimum value, which is the same for all directions, is observed.
- - Liegt der Merkmalvektor einer Klasse innerhalb des Bereiches einer anderen Klasse, wie es bei überlappenden Clusterbereichen vorkommen kann, und können die Radien der betroffenen Unterklassen nicht weiter reduziert werden, da der vorgegebene Minimalradius erreicht ist, so muß dieser innerhalb einer anderen Klasse liegende Einflußbereich gesondert gekennzeichnet werden. Dies wird durch Einführung zweier verschiedener Arten von Unterklassen erreicht. Ein Typ symbolisiert dabei den Normalfall der nicht überlappenden Klassenbereiche, der andere kennzeichnet den Fall der Clusterdurchdringung oder -überlappung.- If the feature vector of a class lies within the Area of a different class, as is the case with overlapping Cluster areas can occur, and can the radii of the affected subclasses cannot be further reduced because the specified minimum radius has been reached, it must area of influence within another class be marked separately. This is through introduction two different types of subclasses. A Type does not symbolize the normal case of overlapping class areas, the other characterizes the Case of cluster penetration or overlap.
- - Durch die Verringerung der Hyperellipsoid-Radien können Muster, die zuvor der richtigen Klasse zugeordnet wurden, aus den entsprechenden Einflußbereichen herausfallen. Für diese Muster müssen dann eigene Unterklassen geschaffen werden. Aus diesem Grund werden die vorstehenden Schritte solange wiederholt, bis alle zu klassifizierenden Muster den korrekten Unterklassen zugeordnet sind und bei einem Lerndurchlauf keine weitere Verringerung von Radien stattfindet.- By reducing the hyperellipsoid radii Patterns that were previously assigned to the correct class fall out of the corresponding spheres of influence. For these patterns must then create their own subclasses will. Because of this, the steps above repeated until all the patterns to be classified the correct subclasses are assigned to a Learning cycle no further reduction of radii takes place.
Der Lernvorgang ist damit abgeschlossen. Die Präsentation der Muster kann in einer beliebigen Reihenfolge, also klassenunabhängig stattfinden.The learning process is now complete. The presentation the pattern can be in any order, so take place regardless of class.
Ausgehend von einer bekannten Lernstichprobe, d. h. einem Lernmerkmalkollektiv, und einer neuen, nachzulernenden Teststichprobe, d. h. einem weiteren Lernmerkmalkollektiv, ergibt sich ein für das selbstorganisierende Klassifikationsnetzwerk gültiges Nachlernverfahren folgendermaßen aus den Verfahrensschritten:Based on a known learning sample, i.e. H. one Learning feature collective, and a new one to be re-learned Test sample, d. H. another learning characteristic collective, there is one for the self-organizing Classification network valid learning process from the process steps as follows:
- - Der Klassifikator wird mit der Lernstichprobe trainiert, die Teststichprobe wird anschließend klassifiziert.- The classifier is trained with the learning sample, the test sample is then classified.
- - Bei einer fehlerfreien Klassifikation der Teststichprobe ist ein Nachlernen nicht notwendig. Ansonsten werden diejenigen Testmuster, die nicht in den angelegten Unterklassen liegen und somit nur durch eine Abstandsentscheidung zugeordnet werden können, zur Lernstichprobe hinzugefügt.- With an error-free classification of the test sample re-learning is not necessary. Otherwise those test patterns that are not in the created Are subclasses and therefore only by one Distance decision can be assigned to Learning sample added.
- - Das Netz wird in den ungelernten Anfangszustand versetzt und die neue Lernstichprobe gelernt; die Teststichprobe wird dann klassifiziert.- The network is set to the unskilled initial state and learned the new learning sample; the test sample will then classified.
- - Existieren Testmuster außerhalb von gelernten Unterklassen, so werden die betreffenden Muster zur Lernstichprobe hinzugefügt und der vorige Schritt wird wiederholt.- Test patterns exist outside of learned ones Subclasses, the relevant patterns become Learning sample added and the previous step is repeated.
- - Alle Muster sind jetzt eindeutig den zugehörigen Unterklassen zugeordnet. Sind alle Muster richtig klassifiziert, ist das Nachlernen beendet. Treten jedoch Fehlklassifikationen auf, werden die entsprechenden Muster zur aktuellen Lernstichprobe hinzugefügt, und die letzten beiden Schritte werden wiederholt.- All patterns are now clearly the corresponding ones Assigned to subclasses. Are all patterns correct? classified, the re-learning is finished. Kick however Misclassifications, the corresponding patterns added to the current learning sample, and the last ones the two steps are repeated.
Die in der Beschreibung und in den Ansprüchen durchgehend benutzten Begriffe des allgemeinen Fachsprachgebrauchs: Lernmuster, Lernmerkmalvektor, Lernmerkmalkollektiv, Lernvorrichtung und Lernphase, sind so richtig bezeichnet, wenn diese als Teil der selbstlernenden Gesamtvorrichtung gesehen werden. Consistently throughout the description and claims Terms used in general terminology: Learning pattern, learning feature vector, learning feature collective, Learning device and learning phase are correctly labeled, if this is part of the overall self-learning device be seen.
Bei einer anderen Betrachtungsweise, in der das neuronale Netz getrennt von der Lehrvorrichtung und dem einzuspeisenden Lehrstoff gesehen wird, sind diese vorstehenden Begriffe dementsprechend als Lehrmuster, Lehrmerkmalvektor, Lehrmerkmalkollektiv, Lehrvorrichtung und Lehrmerkmalvektor zu bezeichnen. Ein grundsätzlicher Unterschied in der Gesamtanordnung ist damit nicht gegeben.Another way of looking at the neural Network separate from the teaching device and the is to be seen, these are the above terms accordingly as teaching patterns, Teaching feature vector, teaching feature collective, teaching device and To denote teaching feature vector. A basic one There is no difference in the overall arrangement.
Claims (21)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4124501A DE4124501C2 (en) | 1991-07-24 | 1991-07-24 | Neural network with automatic installation of intermediate neurons |
DE4209296A DE4209296A1 (en) | 1991-07-24 | 1992-03-21 | Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4124501A DE4124501C2 (en) | 1991-07-24 | 1991-07-24 | Neural network with automatic installation of intermediate neurons |
DE4209296A DE4209296A1 (en) | 1991-07-24 | 1992-03-21 | Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4124501A1 true DE4124501A1 (en) | 1993-01-28 |
DE4124501C2 DE4124501C2 (en) | 1994-09-15 |
Family
ID=25905785
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4124501A Expired - Fee Related DE4124501C2 (en) | 1991-07-24 | 1991-07-24 | Neural network with automatic installation of intermediate neurons |
DE4209296A Withdrawn DE4209296A1 (en) | 1991-07-24 | 1992-03-21 | Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4209296A Withdrawn DE4209296A1 (en) | 1991-07-24 | 1992-03-21 | Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions |
Country Status (1)
Country | Link |
---|---|
DE (2) | DE4124501C2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6243489B1 (en) | 1997-05-15 | 2001-06-05 | Siemens Aktiengesellschaft | Method for a neural network for representing imaging functions |
US7937197B2 (en) | 2005-01-07 | 2011-05-03 | GM Global Technology Operations LLC | Apparatus and methods for evaluating a dynamic system |
CN107024331A (en) * | 2017-03-31 | 2017-08-08 | 中车工业研究院有限公司 | A kind of neutral net is to train motor oscillating online test method |
CN109580230A (en) * | 2018-12-11 | 2019-04-05 | 中国航空工业集团公司西安航空计算技术研究所 | A kind of Fault Diagnosis of Engine and device based on BP neural network |
CN110119349A (en) * | 2018-02-05 | 2019-08-13 | 罗伯特·博世有限公司 | Method and apparatus for examining the function of neural network |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19509186A1 (en) * | 1995-03-14 | 1996-09-19 | Siemens Ag | Device for designing a neural network and neural network |
DE19634923C2 (en) * | 1996-08-29 | 1999-08-19 | Bruce Boye | Linearization of nonlinear technical processes with the help of a deviation observer |
DE19808197C2 (en) * | 1998-02-27 | 2001-08-09 | Mtu Aero Engines Gmbh | System and method for diagnosing engine conditions |
DE10161224A1 (en) * | 2001-12-13 | 2003-06-26 | Deutsche Telekom Ag | Telephone pulse to tone signalling conversion unit uses neural network filter |
RU2699396C1 (en) * | 2018-11-19 | 2019-09-05 | Общество С Ограниченной Ответственностью "Инвек" | Neural network for interpreting natural language sentences |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4015791A1 (en) * | 1989-05-18 | 1990-11-22 | Apple Computer | NEURAL NETWORK FOR COLOR SELECTION |
DE4042139A1 (en) * | 1989-12-29 | 1991-07-11 | Ricoh Kk | NEURON UNIT, NEURONAL NETWORK AND SIGNAL PROCESSING METHOD |
-
1991
- 1991-07-24 DE DE4124501A patent/DE4124501C2/en not_active Expired - Fee Related
-
1992
- 1992-03-21 DE DE4209296A patent/DE4209296A1/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4015791A1 (en) * | 1989-05-18 | 1990-11-22 | Apple Computer | NEURAL NETWORK FOR COLOR SELECTION |
DE4042139A1 (en) * | 1989-12-29 | 1991-07-11 | Ricoh Kk | NEURON UNIT, NEURONAL NETWORK AND SIGNAL PROCESSING METHOD |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6243489B1 (en) | 1997-05-15 | 2001-06-05 | Siemens Aktiengesellschaft | Method for a neural network for representing imaging functions |
US7937197B2 (en) | 2005-01-07 | 2011-05-03 | GM Global Technology Operations LLC | Apparatus and methods for evaluating a dynamic system |
CN107024331A (en) * | 2017-03-31 | 2017-08-08 | 中车工业研究院有限公司 | A kind of neutral net is to train motor oscillating online test method |
CN107024331B (en) * | 2017-03-31 | 2019-07-12 | 中车工业研究院有限公司 | A kind of neural network is to train motor oscillating online test method |
CN110119349A (en) * | 2018-02-05 | 2019-08-13 | 罗伯特·博世有限公司 | Method and apparatus for examining the function of neural network |
CN109580230A (en) * | 2018-12-11 | 2019-04-05 | 中国航空工业集团公司西安航空计算技术研究所 | A kind of Fault Diagnosis of Engine and device based on BP neural network |
Also Published As
Publication number | Publication date |
---|---|
DE4209296A1 (en) | 1993-09-23 |
DE4124501C2 (en) | 1994-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102006008482B4 (en) | Input vectoring method in neural networks for auto-identification of a partial discharge source | |
DE10014492C2 (en) | Test methods for semiconductor wafers | |
DE69419264T2 (en) | SYSTEM FOR MONITORING AN INDUSTRIAL PROCESS AND DETERMINING THE SENSOR STATE | |
DE69324296T2 (en) | Procedure for diagnosing an ongoing process | |
DE69718714T2 (en) | Fault detection during the operation of electrical equipment | |
DE69518005T2 (en) | PLANT PARAMETER DETERMINATION BY MONITORING THE DENSITY OF SPECTRAL PERFORMANCE | |
DE102019107363B4 (en) | Method and system for determining a property of a machine, in particular a machine tool, without measuring the property and method for determining an expected quality condition of a component manufactured with a machine | |
DE112020006911T5 (en) | Data generation device, machine learning system and machining state estimation device | |
DE102019217613A1 (en) | METHOD OF DIAGNOSING AN ENGINE CONDITION AND DIAGNOSTIC MODELING METHOD FOR THEREOF | |
DE112018003079T5 (en) | Lathe system diagnostic device, power conversion device, lathe system, and lathe system diagnostic method | |
DE4124501C2 (en) | Neural network with automatic installation of intermediate neurons | |
DE102017121239A1 (en) | Method and device for monitoring the kinematics of an epicyclic planetary gear | |
DE3877912T2 (en) | METHOD FOR MONITORING SOUND EMISSIONS. | |
DE4406723A1 (en) | Method for monitoring the operational state of a machine or installation | |
DE69818380T2 (en) | Method for monitoring a planetary gear provided with acceleration sensors in a means of transportation, in particular in a helicopter | |
DE102006000916B3 (en) | Vehicle parameter evaluation method involves sampling parameters at different sample times to generate data samples and including data samples in sample set | |
DE19636074C2 (en) | Learning-capable image processing system for classification | |
DE69811433T2 (en) | Method for monitoring a vehicle transmission with accelerometers, in particular for helicopters | |
DE69019960T2 (en) | DEVICE AND METHOD FOR THE SELF-ACCOUNTING OF THE QUALITY OF AN ELECTRICAL WINDING. | |
EP3921658A1 (en) | Method and testing device | |
DE69231372T2 (en) | Method for obtaining a logical description from a sampled analog signal | |
DE102020207449A1 (en) | Method, computer program and device for processing signals | |
EP3407273A1 (en) | Method and system for determining an abnormal state of a system | |
EP1043590A1 (en) | Method and device for determining the rotational speed of a DC commutator motor | |
DE69025812T2 (en) | Method and device for the automatic execution of test samples |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
AG | Has addition no. |
Ref country code: DE Ref document number: 4209296 Format of ref document f/p: P |
|
AG | Has addition no. |
Ref country code: DE Ref document number: 4209296 Format of ref document f/p: P |
|
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |