DE4244014A1 - Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren - Google Patents

Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren

Info

Publication number
DE4244014A1
DE4244014A1 DE4244014A DE4244014A DE4244014A1 DE 4244014 A1 DE4244014 A1 DE 4244014A1 DE 4244014 A DE4244014 A DE 4244014A DE 4244014 A DE4244014 A DE 4244014A DE 4244014 A1 DE4244014 A1 DE 4244014A1
Authority
DE
Germany
Prior art keywords
vector
vectors
layer
measurement
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE4244014A
Other languages
English (en)
Inventor
Uwe Krogmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bodenseewerk Geratetechnik GmbH
Original Assignee
Bodenseewerk Geratetechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bodenseewerk Geratetechnik GmbH filed Critical Bodenseewerk Geratetechnik GmbH
Priority to DE4244014A priority Critical patent/DE4244014A1/de
Publication of DE4244014A1 publication Critical patent/DE4244014A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B9/00Safety arrangements
    • G05B9/02Safety arrangements electric
    • G05B9/03Safety arrangements electric with multiple-channel loop, i.e. redundant control systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0077Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements using redundant signals or controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Neurology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Description

Die Erfindung betrifft ein Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren für Zustandsgrößen, die mit von den Sensoren gelieferten Meßgrößen durch eine Meßgleichung
m = Hx + ε
verknüpft sind, wobei m ein Vektor der Meßgrößen, x ein Vektor der Zustandsgrößen, H die Meßmatrix und ε der Fehlervektor ist und wobei die Ordnung von m größer als die Ordnung von x ist, mit den Verfahrensschritten:
  • a) Bestimmen von Validierungs-Vektoren v i als Spalten- Vektoren einer Projektions-Matrix P = [v 1, v 2, . . . v n]
  • b) Bestimmen eines Merkmals-Vektors v als Linearkombination der Validierungs-Vektoren v i mit den zugehörigen Elementen mi des Meß-Vektors m v = Pm = Σmi v i = [p1, p2, . . . pn]T
  • c) Bestimmen des funktionellen Zusammenhanges zwischen dem Merkmals-Vektor v und dem zugehörigen Klassifikations- Vektor s, indem
    • - Referenzmerkmals-Vektoren mit simulierten Fehlern auf die Eingangs-Schicht eines neuronalen Netzwerkes aufgeschaltet werden, an deren Ausgangsschicht Klassifikations-Vektoren abgegriffen werden, und
    • - in einer Trainingsphase die Verbindungsgewichte zwischen der Eingangs-Schicht und der Ausgangs-Schicht des neuronalen Netzwerkes adaptiert werden.
Zugrundeliegender Stand der Technik
Eine solche Vorrichtung ist bekannt durch die DE-A 41 00 501.
Auf vielen Gebieten der Technik ist es erforderlich, Zustandsgrößen mit hoher Zuverlässigkeit zu messen. Diese Zustandsgrößen bilden die Basis für eine Regelung. Fehler in dieser Regelung können schwerwiegende Folgen haben, beispielsweise zum Absturz eines Flugzeuges führen oder einen Störfall an einem Kernkraftwerk oder einem chemischen Prozeß verursachen.
Um die erforderliche hohe Zuverlässigkeit zu erzielen, ist es bekannt, Sensoren mehrfach redundant vorzusehen.
Dabei liefert der Sensor häufig nicht unmittelbar die zu messende Zustandsgröße: Ein Kreisel liefert u. U. eine Drehgeschwindigkeit um Achsen, die mit den Achsen, um welche die Drehgeschwindigkeit gemessen werden soll, Winkel einschließen. Solche unterschiedlich orientierten Kreisel dienen insbesondere zur Erzeugung redundanter Signale mit einem Minimum an Bauteilen. Meßgrößen sind dabei z. B. Spannungen. Die zu messende Zustandsgröße kann eine Geschwindigkeit über Grund sein, die mittels eines Dopplerradars gemessen wird. Dabei ist die Meßgröße eine Frequenzverschiebung. Die Frequenzverschiebung hängt mit der zu messenden Geschwindigkeit über physikalische und geometrische Beziehungen zusammen. Ein Thermoelement liefert als Meßgröße eine Spannung. Die Zustandsgröße "Temperatur" wird daraus mittels eines Eichfaktors gewonnen. In vielen Fällen ergibt sich eine Zustandsgröße als Linearkombination verschiedener Meßgrößen. Generalisiert kann dies durch eine Vektorgleichung
m = Hx + ε
beschrieben werden, wobei m ein Vektor der Meßgrößen mi, der "Meß-Vektor", x der Vektor der zu bestimmenden Zustandsgrößen, der "Zustands-Vektor", H die "Meßmatrix, die den Zusammenhang zwischen Meß- und Zustands-Vektor wiedergibt, und ε das Meßrauschen ist. Die Redundanz äußert sich dabei darin, daß die Ordnung des Meß-Vektors m größer ist als die Ordnung des Zustands-Vektors x. Es werden mehr Meßgrößen erfaßt, als Zustandsgrößen bestimmt werden müssen. Informationen über Zustandsgrößen können dabei von grundsätzlich verschiedenen Sensoren abgeleitet werden. So kann eine Geschwindigkeitsinformation beispielsweise aus den Signalen von Beschleunigungsmessern eines Flugreglers durch Integration und gleichzeitig aus einem Dopplerradar verfügbar sein. Als fehlerhaft erkannte Sensoren werden von der Bildung der Zustandsgrößen ausgeschlossen. Durch Rekonfiguration der verbleibenden Sensoren werden gültige Zustandsgrößen ermittelt.
Die DE-A 39 29 404 beschreibt ein Verfahren zum Erkennen und Identifizierung von Fehlern an Sensoren für Zustandsgrößen, bei welchem Validierungs-Vektoren gebildet werden und aus den Validierungs-Vektoren mit zugehörigen Elementen des Meß- Vektors ein Paritäts-Vektor gebildet wird. Eine Detektionsfunktion in Form eines skalaren Produkts des Paritäts-Vektors mit sich selbst zeigt das Auftreten eines Fehlers an, wenn sie einen vorgegebenen Grenzwert überschreitet. Bei Vorhandensein eines solchen Fehlers wird eine Lokalisierungsfunktion berechnet, welche einen Schluß darauf gestattet, welcher Sensor einen Fehler zeigt.
Die DE-A 39 29 404 zeigt hierfür ein Netz mit Eingängen längs einer "waagerechten" Seite, auf welche die von den Sensoren gelieferten Meßgrößen aufgeschaltet sind. In "Knotenpunkten" werden die Meßwerte jeweils mit Gewichten in Form der Elemente der von den Validierungs-Vektoren gebildeten Matrix multipliziert und die erhaltenen Produkte zu der "senkrechten" Seite des Netzes aufsummiert. Das ergibt die Komponenten des Paritäts-Vektors. Durch Multiplikation jeder dieser Komponenten mit sich selbst und Aufsummieren der so erhaltenen Quadrate wird die Detektionsfunktion gebildet. Ein weiteres Netz hat Eingänge längs einer "vertikalen" Seite. Auf diese Eingänge sind die Komponenten des Paritäts-Vektors aufgeschaltet. Diese Komponenten werden in den Knotenpunkten des zweiten Netzes wieder mit den Elementen der von den Validierungs-Vektoren gebildeten Matrix multipliziert. Die so gebildeten Produkte werden zur Bildung der Lokalisierungsfunktionen "nach oben hin" aufsummiert. Die Lokalisierungsfunktionen erscheinen an Ausgängen längs einer "waagerechten" Seite des zweiten Netzes.
Bei dem Verfahren und der Vorrichtung nach der DE-A 39 29 404 werden die Gewichte der Netze nach den Gegebenheiten der jeweiligen Sensoranordnung berechnet. Das ist aufwendig. Eine solche Anordnung ist unflexibel.
Die DE-A 41 00 501 beschreibt ein ähnliches Verfahren, bei welchem Validierungs-Vektoren als Spalten-Vektoren einer Projektions-Matrix bestimmt werden. Ein Merkmals-Vektor wird als Element des Paritätsraumes, der das orthogonale Komplement des Signalraumes ist, als Linearkombination der Validierungs- Vektoren mit den zugehörigen Elementen des Meß-Vektors bestimmt. Weiter wird eine "Assoziationsmatrix" bestimmt, welche optimal eine Beziehung zwischen Merkmals-Vektoren und zugehörigen Klassifikations-Vektoren wiedergibt. Die Klassifikations-Vektoren sind jeweils für einen bestimmten Defekt eines bestimmten Sensors charakteristisch. Unter Berücksichtigung des so erhaltenen Klassifikations-Vektors erfolgt eine Rekonfiguration der Sensorsignale.
Die DE-A 41 00 501 sieht auch vor, zur Bestimmung der Assoziationsmatrix Referenzmerkmals-Vektoren auf die verborgene Schicht eines neuronalen Netzwerkes aufzuschalten, an dessen Ausgangsschicht Klassifikations-Vektoren abgegriffen werden. In einer Trainingsphase werden dann die eine Gewichtsmatrix bildenden Verbindungsgewichte zwischen der Eingangs-Schicht und der Ausgangsschicht adaptiert. Zu diesem Zweck werden zunächst diese Verbindungsgewichte auf zufällig gewählte Werte eingestellt. Ausgehend davon werden dann in sich wiederholenden Lernschritten die normierten Referenzmerkmals-Vektoren als Trainings-Vektoren auf die verborgene Schicht aufgeschaltet. Der Trainings-Vektor wird mit den Zeilen-Vektoren der Gewichtsmatrix verglichen. Es wird derjenige Zeilen-Vektor aufgesucht, der von dem Trainings- Vektor den geringsten Euklidischen Abstand hat. Nur dieser Zeilen-Vektor wird im Sinne einer Verringerung des besagten Euklidischen Abstandes korrigiert. Dabei wird der Zeilen- Vektor um den mit einem positiven Faktor kleiner als eins multiplizierten Euklidischen Abstand korrigiert.
Der Erfindung liegt die Aufgabe zugrunde, das Verfahren der eingangs genannten Art zu vereinfachen und zu verbessern.
Der Erfindung liegt insbesondere die Aufgabe zugrunde, ein Verfahren der eingangs genannten Art auch dann anwendbar zu machen, wenn der Merkmalsraum für die Klassierung der Fehler durch gekrümmte "Flächen" unterteilt ist.
Erfindungsgemäß wird diese Aufgabe dadurch gelöst, daß
  • e) als neuronales Netzwerk ein Netzwerk verwendet wird, das ausschließlich Vorwärts-Verknüpfungen zwischen mehr als zwei Schichten von Prozessor-Elementen enthält.
Ein solches Netzwerk läßt sich so trainieren, daß eine Identifizierung von Fehlern auch dann möglich ist, wenn die Fehlerklassen durch "gekrümmte Flächen" im Merkmalsraum voneinander getrennt sind. Das neuronale Netzwerk kann relativ einfach aufgebaut sein und leicht trainiert werden.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Fig. 1 ist eine schematische Darstellung der Struktur eines fehlertoleranten Stabilisierungskreises bei einem Flugzeug.
Fig. 2 zeigt als Blockdiagramm ein Flugregler-Netzwerk und dessen Anbindung an Sensormodule.
Fig. 3 ist ein Blockdiagramm der Einrichtung zur Fehlerfeststellung und -lokalisierung.
Fig. 4 zeigt im einzelnen die Einrichtung zur Fehler- Feststellung und -Lokalisierung von Fig. 3.
Fig. 5 zeigt schematisch ein mehrschichtiges Netzwerk, das zur Bildung der Assoziations-Matrix trainierbar ist, welche den Merkmals-Vektor in Fig. 3 und 4 mit dem Klassifikations-Vektor verknüpft.
Fig. 6 zeigt als Blockdiagramm das Trainieren des mehrschichtigen Netzwerkes.
Fig. 7 zeigt die verschiedenen Schritte des Trainingsvorganges beim Trainieren des mehrschichtigen Netzwerkes von Fig. 5.
Fig. 8 zeigt das mehrschichtige Netzwerk von Fig. 5 mit der Veränderung der Gewichte bei einem Trainingsschritt.
Fig. 9 zeigt das Netzwerk zur Bildung der Klassifikations- Vektoren aus den Meßvektoren im Betrieb der Einrichtung zur Fehler-Feststellung und -Lokalisierung.
In Fig. 1 ist mit 10 ein Flugzeug bezeichnet. Das Flugzeug 10 wird durch einen Stabilisierungskreis 12 stabilisiert. Zu diesem Zweck werden die Bewegungen des Flugzeuges 10 im Raum durch Sensoren 14 erfaßt. Dabei ist für Redundanz gesorgt: Es stehen mehr Meßwerte zur Verfügung als Zustandsgrößen zu bestimmen und zu regeln sind. Bezeichnet H eine "Meßmatrix" und x einen Vektor der Zustandsgrößen, dann ist
m = Hx + ε,
wobei ε der Fehlervektor ist.
Die Signale der Sensoren 14 sind auf einen Flugregler 16 geschaltet. Der Flugregler 16 steuert Stellmotoren an, durch welche Steuerflächen o. dergl. des Flugzeugs 10 betätigbar sind.
Die redundanten Signale der Sensoren 14 sind auf eine Schaltung 18 aufgeschaltet, durch welche Sensorfehler festgestellt und identifiziert oder lokalisiert und bei Auftreten eines Fehlers eine Rekonfiguration des Systems bewirkt wird. Aus den ggf. rekonfigurierten, redundanten Sensordaten werden optimierte Daten auf den Flugregler 16 geschaltet. In Fig. 1 ist mit 20 eine Einrichtung zur Feststellung eines Fehlers an einem Sensor bezeichnet. Mit 22 ist eine Einrichtung zur Lokalisierung eines festgestellten Fehlers und mit 24 eine Einrichtung zur Rekonfiguration des Systems bezeichnet. Die Meßwerte von den Sensoren 14 und ggf. Informationen über die Rekonfiguration des Systems von der Einrichtung 26 beaufschlagen eine Einrichtung 26 zur Bildung der optimalen Daten für den Flugregler aus den normalerweise redundant von den Sensoren 14 vorliegenden Daten.
Fig. 2 ist ein Blockschaltbild der redundanten Signal- Verarbeitung. Die Sensoren 14 liefern über vermehrfachte Sensor-Prozessoren 28 und Schnittstellen 30 redundante Informationen. Die Daten von den vermehrfachten Sensor- Prozessoren 28 und Schnittstellen 30 sind auf Schaltungen 18 zur Feststellung und Lokalisierung von Fehlern an Sensoren 14 geschaltet. Jede dieser Schaltungen 18 ist vermehrfacht vorgesehen. Jeder der Ausgänge der Schnittstellen 30 ist auf jede der Schaltungen 18 ausgeschaltet. Jede der Schaltungen 18 liefert Daten auf einen Flugregler 16. Die Ausgangs-Daten der Flugregler steuern die Stellmotoren.
Die Einrichtung zur Feststellung und Lokalisierung von Fehlern der Sensoren 14 ist in Fig. 3 als Blockdiagramm dargestellt. Der Sensorblock 14 liefert Meßwerte mi, die zu einem Meßvektor m zusammengefaßt werden können. Es wird eine Projektionsmatrix P bestimmt, deren Spalten von Validierungs-Vektoren gebildet sind:
P = [v 1, v 2, . . . v n].
Aus dem Meßvektor m wird durch Anwendung der Projektionsmatrix P ein "Merkmalsvektor" v gebildet:
v = Pm = Σmi v i = [p1, p2, . . . pn]T.
Das ist in Fig. 3 durch einen Block 32 dargestellt.
Block 34 in Fig. 3 stellt eine Einrichtung dar, welche den so gebildeten Merkmalsvektor v mit sich selbst multipliziert. Es wird eine Größe
D = v T v
bildet. Die Größe D wird in einer Einrichtung 36 mit einem Schwellwert verglichen. Wenn die Größe D den Schwellwert überschreitet, dann zeigt dies das Auftreten eines Fehlers an. Es muß dann dieser Fehler lokalisiert werden.
Zu diesem Zweck wird aus dem Merkmalsvektor v durch Multiplikation mit einer Assoziationsmatrix W ein Klassifikations-Vektor u gebildet. Der Klassifikations-Vektor u ist im Idealfall ein Vektor, von dem ein Element "1" und alle anderen Elemente "0" sind. Die Bildung dieses Klassifikations-Vektors ist in Fig. 3 durch Block 38 dargestellt. Der Klassifikations-Vektor u ist auf eine Einrichtung 40 zur Lokalisation eines eventuellen Fehlers geschaltet.
In Fig. 4 ist die Anordnung von Fig. 3 etwas ausführlicher dargestellt.
In Fig. 4 sind die Komponenten mi des Meß-Vektors m auf eine Eingangsschicht 42 eines Netzwerkes 44 geschaltet. Das Netzwerk 44 multipliziert jede Meßgröße mi längs der "vertikalen" Linien des Netzwerkes mit Faktoren P1i . . . Pni. Die Faktoren Pik sind dabei die Elemente der Projektions- Matrix P. Die erhaltenen Produkte werden längs der "horizontalen" Linien aufsummiert. Diese Summen ergeben die Komponenten vi des Merkmalsvektors v. Diese Komponenten des Merkmalsvektors v erscheinen in einer "verborgenen" Schicht 46. Diese verborgene Schicht 46 bildet gleichzeitig die Eingangsschicht eines Netzwerkes 48.
Die Faktoren Pik können anhand der geometrischen und physikalischen Verhältnisse der Sensoren 14 vorherberechnet werden.
Das Netzwerk 44 mit Eingangsschicht 42 und verborgener Schicht 46 entspricht dem Block 32 in Fig. 3.
Jede der in der verborgenen Schicht 46 erscheinenden Komponenten vi des Merkmalsvektors v wird in einem zugehörigen Knotenpunkt 50 mit sich selbst multipliziert. Die so erhaltenen Quadrate werden längs der "vertikalen" Linie 52 aufaddiert und liefern die Größe D. Diese Größe D wird , wie durch Kreis 54 angedeutet ist, mit einem Schwellwert E verglichen. Bei Überschreiten dieses Schwellwertes, erfolgt an einem Ausgang 56 eine Fehlermeldung.
Zur Lokalisierung eines Fehlers werden im Betrieb die Komponenten vi auf das Netzwerk 48 aufgeschaltet. Das Netzwerk 48 erzeugt aus den Komponenten des Merkmalsvektors v in noch zu beschreibender Weise in einer Ausgangsschicht 58 die Komponenten des Klassifikations-Vektors u.
Das Netzwerk 48 ist als trainierbares, neuronales Netz ausgebildet. Ein solches Netzwerk ist in Fig. 5 schematisch dargestellt.
Das Netzwerk 48 weist eine Eingangsschicht, eine "verborgene" Schicht und eine Ausgangsschicht auf. Die Eingangsschicht entspricht der Schicht 46 in Fig. 4. Die Ausgangsschicht entspricht der Ausgangsschicht 58 in Fig. 4. Dazwischen liegt eine verborgene Schicht 60. Das neuronale Netzwerk selbst hat also drei Schichten. Die Schicht 46 besteht aus Prozessor- Elementen 62. Die verborgene Schicht 60 besteht aus Prozessor- Elementen 64 und die Ausgangs-Schicht 58 besteht aus Prozessor-Elementen 66.
Die Prozessor-Elemente 62 dienen nur zur Speicherung der jeweiligen Komponenten des Merkmals-Vektors v. Der Inhalt jedes der Prozessor-Elemente 62 der Schicht 46 ist auf jedes der Prozessor-Elemente 64 der verborgenen Schicht 60 mit einem Gewicht aufgeschaltet. Die Gewichte sind in noch zu beschreibender Weise veränderbar. Diese Aufschaltung mit veränderbaren Gewichten ist durch Pfeile 68 dargestellt. Jedes der Prozessor-Elemente 64 hat n Eingänge. Das Prozessor- Element 64 bildet die Summe der an den Eingängen anliegenden gewichteten Komponenten vi des Merkmals-Vektors v. Das Prozessor-Element 64 erzeugt einen Ausgangs-Wert, der eine nichtlineare Funktion der gebildeten Summe ist. Diese nichtlineare Funktion kann eine Sigmoid-Funktion sein. Als vorteilhaft hat es sich aber erwiesen, wenn die nichtlineare Funktion eine Gauß-Funktion ist. Die Ausgangs-Werte an den Ausgängen der Prozessor-Elemente 64 der verborgenen Schicht 60 sind wieder mit Gewichten auf die Eingänge alle Prozessor- Elemente 66 der Ausgangs-Schicht 58 geschaltet. Die Aufschaltung und die Gewichte sind in Fig. 5 durch Pfeile 70 dargestellt. Die Prozessor-Elemente 66 der Ausgangs-Schicht 58 bilden wieder die Summe der auf ihre Eingänge von den Prozessor-Elementen 64 aufgeschalteten, gewichteten Ausgangs- Werte. An Ausgängen 72 der Prozessor-Elemente werden dann jeweils Ausgangs-Werte gebildet, die Sigmoid- oder Gauß- Funktionen der letztgenannten Summen sind.
Ein solches Netzwerk wird "trainiert". Zu diesem Zweck werden die Gewichte zwischen den verschiedenen Prozessor-Elementen der Schichten 46 und 60 bzw. 60 und 58 zunächst zufällig gewählt. Dann werden an die Schicht 45 "Referenz-Merkmals- Vektoren" angelegt und die sich daraus ergebenden Ausgangs- Vektoren bestimmt. Diese Ausgangs-Vektoren werden verglichen mit "Referenz-Klassifikations-Vektoren, die jeweils den Referenzmerkmals-Vektoren zugeordnet sind. Es werden also zugeordnete Paare von Referenz-Merkmals-Vektoren und Referenz- Klassifikations-Vektoren eingegeben. Es wird die Differenz zwischen dem erhaltenen Ausgangs-Vektor und dem Referenz- Klassifikations-Vektor gebildet. In Abhängigkeit von dieser Differenz, einer Art Regelabweichung, werden nach einem bestimmten Algorithmus die Gewichte verändert, mit denen die Ausgänge der Prozessor-Elemente 62 auf die Eingänge der Prozessor-Elemente 64 und die Ausgänge der Prozessor-Elemente 64 auf die Eingänge der Prozessor-Elemente 66 aufgeschaltet sind.
Das ist in Fig. 6 schematisch dargestellt: Ein Merkmals-Vektor v, dargestellt durch Block 72 wird umgesetzt in einen Ausgangs-Vektor u, dargestellt durch einen Block 74. In einem Summierpunkt 76 wird die Differenz des Ausgangs-Vektors u und eines Referenz-Klassifikations-Vektors, praktisch eines Sollwertes des Ausgangs-Vektors u, gebildet. Der Referenz- Klassifikations-Vektor ist dargestellt durch einen Block 78. Es ergibt sich ein Abweichungs-Vektor, praktisch eine Regelabweichung ε. Dieser ist durch einen Block 80 dargestellt. Nach Maßgabe dieser Regelabweichung erfolgt eine Änderung Δwÿ der Gewichte. Das ist durch Block 82 dargestellt. Man bezeichnet das als Regelabweichungs- Backpropagation.
Fig. 7 ist ein Flußdiagramm des Trainings-Vorganges. Die Gewichte werden auf kleine, zufällige Werte eingestellt. Das ist durch Block 84 dargestellt. Dann wird ein Referenz- Merkmals-Vektor v R eingegeben. Das ist in Fig. 7 durch Block 86 dargestellt. Es wird in Vorwärtsrichtung der Ausgangs-Vektor an den Ausgängen 72 bestimmt. Das ist durch Block 88 dargestellt. Dann wird der zugehörige Referenz- Klassifikations-Vektor u R, also der Soll-Ausgangs-Vektor, eingegeben. Das ist in Fig. 7 durch Block 90 dargestellt. Aus den Differenzen werden anschließend in Rückwärtsrichtung Empfindlichkeiten δ bestimmt. Der Vektor der Empfindlichkeiten δ(K) für die Ausgangsschicht ist gegeben durch die Multiplikation eines Regelabweichungs-Vektors mit einer Matrix Λ.
δ(K) = Λ(K) (u - u R).
Dabei ergibt sich die Matrix aus den Ableitungen der nichtlinearen Ausgangsfunktionen der Prozessoren dieser Schicht. In rekursiver Weise wird daraus und aus der Gewichtsmatrix W(k) der Vektor der Empfindlichkeiten δ(k) der nächstfolgenden Schicht:
δ(k) = Λ(k) W(k) δ (k+1)
mit k = (K-1), (K-2) . . . 2.
Das ist in Fig. 7 durch einen Block 92 dargestellt. Und schließlich werden daraus die Änderungen der Gewichte berechnet. Dabei wird zur Bestimmung einer Änderung W(k) das skalare Produkt des Empfindlichkeitsvektors δ(k+1) der folgenden Schicht und des Ausgangsvektors x(k) der jeweiligen Schicht unter Berücksichtigung eines Lernfaktors µ gebildet:
ΔW(k) = µ w (k+1) x(k)T.
Das ist in Fig. 7 durch Block 94 dargestellt. Anschließend ist eine Schleife 96 zurück zu dem Eingang des Blocks 86 geführt. Die Prozedur wird mit einem anderen Paar von Referenz-Vektoren v R und u R wiederholt.
Fig. 8 veranschaulicht im einzelnen diesen Trainingsvorgang.
Ein bekannter Eingangsvektor v R ist auf die Eingangs-Schicht geschaltet. Es werden die zj(1) gebildet, die hier direkt die Ausgangsgrößen xj(1) bilden. Aus den xj(1) der Prozessorelemente 62 der Eingangs-Schicht 46 wird von den Prozessorelementen 64 der verborgenen Schicht 60 mit Verbindungsgewichten wÿ(1) die zi(2) dieser verborgenen Schicht gebildet. Aus den so gebildeten zi(2) ergeben sich die Ausgangsgrößen xi(2) der Prozessorelemente 64 nach einer nichtlinearen Funktion fi in Form einer Sigmoid- oder Gauß- Funktion zu
fi(zi(2)) = xi(2).
Die Sigmoid-Funktion ist:
σ(x) = 1/(1+e-x).
Wie an dem j-ten Prozessorelement 64 der verborgenen Schicht 60 und dem i-ten Prozessorelement 66 der Ausgangs-Schicht 58 dargestellt ist, bildet jedes Prozessorelement 66 aus den Ausgangsgrößen der Prozessorelemente 64 mit Verbindungsgewichten wÿ(2) die zi(3). Das Prozessorelement 66 liefert dann eine Ausgangsgröße xi(3) wieder nach einer nichtlinearen Funktion der zi(3), wobei diese nichtlineare Funktion wieder eine Sigmoid- oder eine Gauß-Funktion ist. Es ist
fi(zi(3)) = xi(3).
Die so erhaltenen xi(3), die man zu einem Ausgangsvektor u zusammenfassen kann, sollten bei richtiger Wahl der Verbindungsgewichte dem Klassifikations-Vektor entsprechen, der dem als Eingangsvektor v R eingegebenen Merkmals-Vektor zugeordnet sind. Das wird zunächst nicht der Fall sein. Die Komponenten des Sollvektors werden mit den sich tatsächlich ergebenden Komponenten des Ausgangsvektors verglichen. Das ist für die Ausgangsgröße des betrachteten i-ten Prozessorelements 66 durch einen Summierpunkt 76 in Fig. 8 dargestellt.
Die erhaltene Differenz wird multipliziert mit fi′(zi(3)). Der Strich (′) bezeichnet dabei die Ableitung der nichtlinearen Funktion. Das ist durch Block 100 in Fig. 8 dargestellt. Aus dieser Multiplikation ergibt sich eine Größe δi(3). Diese Größe δi(3) wird mit der Ausgangsgröße xj(2) des j-ten Prozessorelements 64 der verborgenen Schicht 60 multipliziert. Das ist durch das abgerundete Rechteck 102 in Fig. 8 dargestellt. Das so erhaltene Produkt wird mit einem Lernfaktor µ, dargestellt durch Block 104 multipliziert und liefert einen Korrekturwert Δwÿ für das Verbindungsgewicht wÿ zwischen dem j-ten Prozessorelement 64 der verborgenen Schicht 60 und dem i-ten Prozessorelement 66 der Ausgangs­ schicht 58.
Die Korrektur des Verbindungsgewichtes ist hier der Übersichtlichkeit halber nur für ein Paar von Prozessorelementen 64 und 66 dargestellt und beschrieben. Tatsächlich werden die in gleicher Weise die Verbindungsgewichte für alle möglichen Kombinationen von Prozessorelementen 64 und 66 korrigiert. i und j sind hier beliebige ganze Zahlen. Die z werden, wie oben geschildert, als gewichtete Summen der Ausgangsgrößen der Prozessorelemente in der vorhergehenden Schicht gebildet.
In ähnlicher Weise werden die Verbindungsgewichte wÿ(1) zwischen der Eingangs-Schicht 46 und der verborgenen Schicht 60 korrigiert. Es werden Größen i(2) gebildet nach der Beziehung
Das ist in Fig. 8 durch einen Block 106 dargestellt. Die so gebildete Größe δi wird multipliziert mit der Ausgangsgröße xj(1) des j-ten Prozessorelements 62 der Eingangs-Schicht 46. Das ist in Fig. 8 durch das abgerundete Rechteck 108 dargestellt. Das Produkt wird multipliziert mit einem Faktor µ, wie durch das Rechteck 110 in Fig. 8 dargestellt ist. Das ergibt eine Korrekturgröße Δwÿ(1) für das Verbindungsgewicht wÿ(1) zwischen dem j-ten Prozessorelement 62 der Eingangs­ schicht 46 und dem i-ten Prozessorelement 64 der verborgenen Schicht 60. Auch hier werden in gleicher Weise alle Verbindungsgewichte wÿ(1) zwischen den verschiedenen Kombinationen der Prozessorelemente 62 der Eingangs-Schicht 46 und den Prozessorelementen 64 der verborgenen Schicht 60 korrigiert. i und j sind beliebige ganze Zahlen. Es ist der Übersichtlichkeit halber nur ein Paar von Prozessorelementen 62 und 64 dargestellt. Die zi(2) sind wieder gewichtete Summen aller xj(1).
Es hat sich gezeigt, daß ein solches Netzwerk in etwa 2 000 überwachten Lernschritten mit vorgegebenen Paaren von Referenz-Merkmals-Vektoren und Referenz-Klassifikations- Vektoren für die hier betrachtete Aufgabe trainiert werden kann. Es wurden damit auch bei stark verrauschten Merkmalsvektoren sehr gute Ergebnisse erzielt.
Fig. 9 zeigt in einer Darstellung ähnlich Fig. 5 das gesamte Netzwerk im Betrieb. Die auf die Eingangs-Schicht 42 gegebenen Komponenten mi des Meßvektors m werden über das Netzwerk 44 an den Prozessor-Elementen 62 der Schicht 46 gewichtet summiert. Das liefert den Merkmals-Vektor v. Die Gewichte sind vorherberechnet. Die Prozessor-Elemente 62 geben an ihren Ausgängen unmittelbar diese Summen aus. Das neuronale Netzwerk 48 ist so trainiert, daß es zu dem Merkmals-Vektor einen Klassifikations-Vektor u in der Ausgangs-Schicht 58 liefert.

Claims (4)

1. Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren für Zustandsgrößen, die mit von den Sensoren gelieferten Meßgrößen durch eine Meßgleichung m = Hx + εverknüpft sind, wobei m ein Vektor der Meßgrößen, x ein Vektor der Zustandsgrößen, H die Meßmatrix und ε der Fehlervektor ist und wobei die Ordnung von m größer als die Ordnung von x ist, mit den Verfahrensschritten:
  • a) Bestimmen von Validierungs-Vektoren vi als Spalten- Vektoren einer Projektions-Matrix P = [v 1, v 2, . . . v n]
  • b) Bestimmen eines Merkmals-Vektors v als Linearkombination der Validierungs-Vektoren v i mit den zugehörigen Elementen mi des Meß-Vektors m v = Pm = Σmi v i =[p1, p2, . . . pn]T
  • c) Bestimmen des funktionellen Zusammenhanges zwischen dem Merkmals-Vektor v und dem zugehörigen Klassifikations-Vektor s, indem
    • - Referenzmerkmals-Vektoren mit simulierten Fehlern auf die Eingangs-Schicht eines neuronalen Netzwerkes aufgeschaltet werden, an deren Ausgangsschicht Klassifikations-Vektoren abgegriffen werden, und
    • - in einer Trainingsphase die Verbindungsgewichte zwischen der Eingangs-Schicht und der Ausgangs- Schicht des neuronalen Netzwerkes adaptiert werden,
  • dadurch gekennzeichnet, daß
  • e) als neuronales Netzwerk (48) ein Netzwerk verwendet wird, das ausschließlich Vorwärts-Verknüpfungen zwischen mehr als zwei Schichten von Prozessor- Elementen enthält.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Prozessor-Elemente der verborgenen Schicht oder Schichten und der Ausgangs-Schicht des Netzwerkes an ihren Ausgängen Signale liefern, die nach einer nichtlinearen Funktion von der Summe der Eingangs-Signale an dem betreffenden Prozessor-Element abhängen.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die nichtlineare Funktion eine Sigmoid-Funktion ist.
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die nichtlineare Funktion eine Gauß-Funktion ist.
DE4244014A 1992-12-24 1992-12-24 Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren Withdrawn DE4244014A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4244014A DE4244014A1 (de) 1992-12-24 1992-12-24 Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4244014A DE4244014A1 (de) 1992-12-24 1992-12-24 Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren

Publications (1)

Publication Number Publication Date
DE4244014A1 true DE4244014A1 (de) 1994-07-07

Family

ID=6476496

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4244014A Withdrawn DE4244014A1 (de) 1992-12-24 1992-12-24 Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren

Country Status (1)

Country Link
DE (1) DE4244014A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0686830A1 (de) 1994-06-08 1995-12-13 Bodenseewerk Gerätetechnik GmbH Inertialsensor-Einheit
DE19506388C1 (de) * 1995-02-23 1996-08-22 Buero Fuer Ca Technik Dipl Ing Verfahren zum Erkennen von systematischen Fehlern, insbesondere zur automatischen Störungserkennung bei Qualitätskontrollen, mittels mit Meßsensoren ausgestatteten Meßgeräten
US5661735A (en) * 1994-12-27 1997-08-26 Litef Gmbh FDIC method for minimizing measuring failures in a measuring system comprising redundant sensors
DE29617200U1 (de) * 1996-10-02 1997-11-06 Siemens AG, 80333 München Vorrichtung zur prädiktiven Diagnose der aktuellen Güte des technischen Arbeitsergebnisses einer technischen Anlage, insbesondere der aktuellen Güte der Schweißpunkte eines Punktschweißroboters
DE19939984C2 (de) * 1999-08-24 2001-09-13 Daimler Chrysler Ag Verfahren zur richtungsselektiven Ausrichtung einer passiven Sicherheitseinrichtung
US6480792B1 (en) 1998-10-22 2002-11-12 British Aerospace Public Limited Company Fatigue monitoring systems and methods incorporating neural networks
DE19607429B4 (de) * 1996-02-28 2004-02-19 Daimlerchrysler Ag Fehlertolerante Steuerungseinrichtung für ein physikalisches System, insbesondere Fahrdynamikregeleinrichtung für ein Kraftfahrzeug
CN105043433A (zh) * 2015-08-28 2015-11-11 北京理工大学 一种基于神经网络的光电编码器快速补偿方法
CN108107910A (zh) * 2017-12-28 2018-06-01 中航联创科技有限公司 一种基于分布式多余度总线的无人机飞控系统及飞控方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3929404A1 (de) * 1989-09-05 1991-03-07 Bodenseewerk Geraetetech Verfahren und vorrichtung zum erkennen und identifizieren von fehlern an sensoren
DE4100501A1 (de) * 1991-01-10 1992-07-16 Bodenseewerk Geraetetech Verfahren und einrichtung zum erkennen von fehlern an sensoren fuer zustandsgroessen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3929404A1 (de) * 1989-09-05 1991-03-07 Bodenseewerk Geraetetech Verfahren und vorrichtung zum erkennen und identifizieren von fehlern an sensoren
DE4100501A1 (de) * 1991-01-10 1992-07-16 Bodenseewerk Geraetetech Verfahren und einrichtung zum erkennen von fehlern an sensoren fuer zustandsgroessen

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DE-Z.: DALZER, Dietrich, KIRBACH, Volkmar: Neuronale Netze in der Prozeßautomatisierung. In: atp - Automatisierungstechnische Praxis, Jg. 34, 1992, H. 7, S. 395-401 *
DE-Z.: HAFNER, Sigrid, GEIGER, Hans, KRESSEL, Ulrich: Anwendungsstand Künstlicher Neuronaler Netze in der Automatisierungstechnik, Teil I: Einführung. IN: atp - Automatisierungstechnische Praxis, Jg. 34, 1992, H. 10, S. 591-599 *
DE-Z.: KAISER, Michael: Künstliche Neuronale Netze, IN: atp - Automatisierungstechnische Praxis, Jg. 34, 1992, H. 9, S. 539-545 *
LAU, Clifford: Artifical Neural Networks, IEEE Press, New York, 1992, S. 3-24, 82-108, 477-482, ISBN 0-87942-289-0 *
US-BUCH: Herausgeber: SANCHEZ-SINENCO, Edgar *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0686830A1 (de) 1994-06-08 1995-12-13 Bodenseewerk Gerätetechnik GmbH Inertialsensor-Einheit
US5661735A (en) * 1994-12-27 1997-08-26 Litef Gmbh FDIC method for minimizing measuring failures in a measuring system comprising redundant sensors
DE19506388C1 (de) * 1995-02-23 1996-08-22 Buero Fuer Ca Technik Dipl Ing Verfahren zum Erkennen von systematischen Fehlern, insbesondere zur automatischen Störungserkennung bei Qualitätskontrollen, mittels mit Meßsensoren ausgestatteten Meßgeräten
DE19607429B4 (de) * 1996-02-28 2004-02-19 Daimlerchrysler Ag Fehlertolerante Steuerungseinrichtung für ein physikalisches System, insbesondere Fahrdynamikregeleinrichtung für ein Kraftfahrzeug
DE29617200U1 (de) * 1996-10-02 1997-11-06 Siemens AG, 80333 München Vorrichtung zur prädiktiven Diagnose der aktuellen Güte des technischen Arbeitsergebnisses einer technischen Anlage, insbesondere der aktuellen Güte der Schweißpunkte eines Punktschweißroboters
US6281465B1 (en) 1996-10-02 2001-08-28 Siemens Aktiengesellschaft Device for predictive diagnosis of the current quality of technical production from a technical installation, particularly of the current quality of welding points of a spot welding robot
US6480792B1 (en) 1998-10-22 2002-11-12 British Aerospace Public Limited Company Fatigue monitoring systems and methods incorporating neural networks
DE19939984C2 (de) * 1999-08-24 2001-09-13 Daimler Chrysler Ag Verfahren zur richtungsselektiven Ausrichtung einer passiven Sicherheitseinrichtung
CN105043433A (zh) * 2015-08-28 2015-11-11 北京理工大学 一种基于神经网络的光电编码器快速补偿方法
CN108107910A (zh) * 2017-12-28 2018-06-01 中航联创科技有限公司 一种基于分布式多余度总线的无人机飞控系统及飞控方法
CN108107910B (zh) * 2017-12-28 2021-01-22 中航联创科技有限公司 一种基于分布式多余度总线的无人机飞控系统及飞控方法

Similar Documents

Publication Publication Date Title
DE69321952T2 (de) System und verfahren zur steuerung einer anlage
DE4042139C2 (de) Neuron-Einheit
DE68924822T2 (de) Signalverarbeitungssystem und Lernverarbeitungssystem.
DE69823049T2 (de) Modellfreie adaptive prozesssteuerung
DE3928456A1 (de) Verfahren und schaltungsanordnung zum bilden eines auswertungssignals aus einer mehrzahl redundanter messsignale
DE69719058T2 (de) Verbessertes neuronales netzwerk
DE4100501A1 (de) Verfahren und einrichtung zum erkennen von fehlern an sensoren fuer zustandsgroessen
DE4217832C2 (de) Mustererkennungsgerät
DE102018116696A1 (de) Verfahren zum Erzeugen von normalen Zustandsvorhersagedaten einer Anlage und Vorrichtung, die dasselbe verwendet
DE4436658A1 (de) Vorrichtung und Verfahren zur Störungsuntersuchung
DE102007014650B3 (de) Verfahren zur rechnergestützten Verarbeitung von in einem Sensornetzwerk erfassten Messwerten
DE3938645C1 (de)
EP0416370B1 (de) Verfahren und Vorrichtung zum Erkennen und Identifizieren von Fehlern an Sensoren
DE2808792C2 (de)
DE19531967A1 (de) Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems
DE69228517T2 (de) Simulator mit Anwendung eines Neuronalnetzwerkes
DE4244014A1 (de) Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren
DE2226566A1 (de) Flugbahn Uberwachungs und Korrektur vorrichtung
DE102020201133A1 (de) Verfahren und Vorrichtung zur Modellwertbildung, insbesondere zur Sensordatenfusion
DE10201018B4 (de) Neuronales Netz, Opimierungsverfahren zur Einstellung der Verbindungsgewichte eines neuronalen Netzes sowie Analyseverfahren zur Überwachung eines Optimierungsverfahrens
DE4406723A1 (de) Verfahren zur Überwachung des Betriebszustands einer Maschine oder Anlage
EP0708936B1 (de) Anordnung zur modellierung eines nichtlinearen prozesses
DE19753620C1 (de) Verfahren zur Erkennung von Abweichungen der Oberflächenform von einer vorgegebenen Form durch eine dreidimensionale Meßwerterfassung und eine nachfolgende Verarbeitung mit einem künstlichen neuronalen Netz
DE4240789C2 (de) Verfahren zur Identifizierung von Objekten
DE102020202305A1 (de) Verfahren zum Erkennen einer Umgebung eines Fahrzeugs und Verfahren zum Trainieren eines Fusionsalgorithmus für ein Fahrzeugsystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee