DE4244014A1 - Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren - Google Patents
Verfahren zum Erkennen und Identifizieren von Fehlern an SensorenInfo
- Publication number
- DE4244014A1 DE4244014A1 DE4244014A DE4244014A DE4244014A1 DE 4244014 A1 DE4244014 A1 DE 4244014A1 DE 4244014 A DE4244014 A DE 4244014A DE 4244014 A DE4244014 A DE 4244014A DE 4244014 A1 DE4244014 A1 DE 4244014A1
- Authority
- DE
- Germany
- Prior art keywords
- vector
- vectors
- layer
- measurement
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 title description 7
- 239000013598 vector Substances 0.000 claims abstract description 135
- 238000005259 measurement Methods 0.000 claims abstract description 24
- 239000011159 matrix material Substances 0.000 claims abstract description 23
- 238000013528 artificial neural network Methods 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000010200 validation analysis Methods 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 6
- 238000012886 linear function Methods 0.000 description 6
- 230000004807 localization Effects 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 1
- 238000001311 chemical methods and process Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B9/00—Safety arrangements
- G05B9/02—Safety arrangements electric
- G05B9/03—Safety arrangements electric with multiple-channel loop, i.e. redundant control systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0055—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
- G05D1/0077—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements using redundant signals or controls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Neurology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Description
Die Erfindung betrifft ein Verfahren zum Erkennen und
Identifizieren von Fehlern an Sensoren für Zustandsgrößen, die
mit von den Sensoren gelieferten Meßgrößen durch eine
Meßgleichung
m = Hx + ε
verknüpft sind, wobei m ein Vektor der Meßgrößen, x ein Vektor
der Zustandsgrößen, H die Meßmatrix und ε der Fehlervektor ist
und wobei die Ordnung von m größer als die Ordnung von x ist,
mit den Verfahrensschritten:
- a) Bestimmen von Validierungs-Vektoren v i als Spalten- Vektoren einer Projektions-Matrix P = [v 1, v 2, . . . v n]
- b) Bestimmen eines Merkmals-Vektors v als Linearkombination der Validierungs-Vektoren v i mit den zugehörigen Elementen mi des Meß-Vektors m v = Pm = Σmi v i = [p1, p2, . . . pn]T
- c) Bestimmen des funktionellen Zusammenhanges zwischen dem
Merkmals-Vektor v und dem zugehörigen Klassifikations-
Vektor s, indem
- - Referenzmerkmals-Vektoren mit simulierten Fehlern auf die Eingangs-Schicht eines neuronalen Netzwerkes aufgeschaltet werden, an deren Ausgangsschicht Klassifikations-Vektoren abgegriffen werden, und
- - in einer Trainingsphase die Verbindungsgewichte zwischen der Eingangs-Schicht und der Ausgangs-Schicht des neuronalen Netzwerkes adaptiert werden.
Eine solche Vorrichtung ist bekannt durch die DE-A 41 00 501.
Auf vielen Gebieten der Technik ist es erforderlich,
Zustandsgrößen mit hoher Zuverlässigkeit zu messen. Diese
Zustandsgrößen bilden die Basis für eine Regelung. Fehler in
dieser Regelung können schwerwiegende Folgen haben,
beispielsweise zum Absturz eines Flugzeuges führen oder einen
Störfall an einem Kernkraftwerk oder einem chemischen Prozeß
verursachen.
Um die erforderliche hohe Zuverlässigkeit zu erzielen, ist es
bekannt, Sensoren mehrfach redundant vorzusehen.
Dabei liefert der Sensor häufig nicht unmittelbar die zu
messende Zustandsgröße: Ein Kreisel liefert u. U. eine
Drehgeschwindigkeit um Achsen, die mit den Achsen, um welche
die Drehgeschwindigkeit gemessen werden soll, Winkel
einschließen. Solche unterschiedlich orientierten Kreisel
dienen insbesondere zur Erzeugung redundanter Signale mit
einem Minimum an Bauteilen. Meßgrößen sind dabei z. B.
Spannungen. Die zu messende Zustandsgröße kann eine
Geschwindigkeit über Grund sein, die mittels eines
Dopplerradars gemessen wird. Dabei ist die Meßgröße eine
Frequenzverschiebung. Die Frequenzverschiebung hängt mit der
zu messenden Geschwindigkeit über physikalische und
geometrische Beziehungen zusammen. Ein Thermoelement liefert
als Meßgröße eine Spannung. Die Zustandsgröße "Temperatur"
wird daraus mittels eines Eichfaktors gewonnen. In vielen
Fällen ergibt sich eine Zustandsgröße als Linearkombination
verschiedener Meßgrößen. Generalisiert kann dies durch eine
Vektorgleichung
m = Hx + ε
beschrieben werden, wobei m ein Vektor der Meßgrößen mi, der
"Meß-Vektor", x der Vektor der zu bestimmenden Zustandsgrößen,
der "Zustands-Vektor", H die "Meßmatrix, die den Zusammenhang
zwischen Meß- und Zustands-Vektor wiedergibt, und ε das
Meßrauschen ist. Die Redundanz äußert sich dabei darin, daß
die Ordnung des Meß-Vektors m größer ist als die Ordnung des
Zustands-Vektors x. Es werden mehr Meßgrößen erfaßt, als
Zustandsgrößen bestimmt werden müssen. Informationen über
Zustandsgrößen können dabei von grundsätzlich verschiedenen
Sensoren abgeleitet werden. So kann eine
Geschwindigkeitsinformation beispielsweise aus den Signalen
von Beschleunigungsmessern eines Flugreglers durch Integration
und gleichzeitig aus einem Dopplerradar verfügbar sein. Als
fehlerhaft erkannte Sensoren werden von der Bildung der
Zustandsgrößen ausgeschlossen. Durch Rekonfiguration der
verbleibenden Sensoren werden gültige Zustandsgrößen
ermittelt.
Die DE-A 39 29 404 beschreibt ein Verfahren zum Erkennen und
Identifizierung von Fehlern an Sensoren für Zustandsgrößen,
bei welchem Validierungs-Vektoren gebildet werden und aus den
Validierungs-Vektoren mit zugehörigen Elementen des Meß-
Vektors ein Paritäts-Vektor gebildet wird. Eine
Detektionsfunktion in Form eines skalaren Produkts des
Paritäts-Vektors mit sich selbst zeigt das Auftreten eines
Fehlers an, wenn sie einen vorgegebenen Grenzwert
überschreitet. Bei Vorhandensein eines solchen Fehlers wird
eine Lokalisierungsfunktion berechnet, welche einen Schluß
darauf gestattet, welcher Sensor einen Fehler zeigt.
Die DE-A 39 29 404 zeigt hierfür ein Netz mit Eingängen längs
einer "waagerechten" Seite, auf welche die von den Sensoren
gelieferten Meßgrößen aufgeschaltet sind. In "Knotenpunkten"
werden die Meßwerte jeweils mit Gewichten in Form der Elemente
der von den Validierungs-Vektoren gebildeten Matrix
multipliziert und die erhaltenen Produkte zu der "senkrechten"
Seite des Netzes aufsummiert. Das ergibt die Komponenten des
Paritäts-Vektors. Durch Multiplikation jeder dieser
Komponenten mit sich selbst und Aufsummieren der so erhaltenen
Quadrate wird die Detektionsfunktion gebildet. Ein weiteres
Netz hat Eingänge längs einer "vertikalen" Seite. Auf diese
Eingänge sind die Komponenten des Paritäts-Vektors
aufgeschaltet. Diese Komponenten werden in den Knotenpunkten
des zweiten Netzes wieder mit den Elementen der von den
Validierungs-Vektoren gebildeten Matrix multipliziert. Die so
gebildeten Produkte werden zur Bildung der
Lokalisierungsfunktionen "nach oben hin" aufsummiert. Die
Lokalisierungsfunktionen erscheinen an Ausgängen längs einer
"waagerechten" Seite des zweiten Netzes.
Bei dem Verfahren und der Vorrichtung nach der DE-A 39 29 404
werden die Gewichte der Netze nach den Gegebenheiten der
jeweiligen Sensoranordnung berechnet. Das ist aufwendig. Eine
solche Anordnung ist unflexibel.
Die DE-A 41 00 501 beschreibt ein ähnliches Verfahren, bei
welchem Validierungs-Vektoren als Spalten-Vektoren einer
Projektions-Matrix bestimmt werden. Ein Merkmals-Vektor wird
als Element des Paritätsraumes, der das orthogonale Komplement
des Signalraumes ist, als Linearkombination der Validierungs-
Vektoren mit den zugehörigen Elementen des Meß-Vektors
bestimmt. Weiter wird eine "Assoziationsmatrix" bestimmt,
welche optimal eine Beziehung zwischen Merkmals-Vektoren und
zugehörigen Klassifikations-Vektoren wiedergibt. Die
Klassifikations-Vektoren sind jeweils für einen bestimmten
Defekt eines bestimmten Sensors charakteristisch. Unter
Berücksichtigung des so erhaltenen Klassifikations-Vektors
erfolgt eine Rekonfiguration der Sensorsignale.
Die DE-A 41 00 501 sieht auch vor, zur Bestimmung der
Assoziationsmatrix Referenzmerkmals-Vektoren auf die
verborgene Schicht eines neuronalen Netzwerkes aufzuschalten,
an dessen Ausgangsschicht Klassifikations-Vektoren abgegriffen
werden. In einer Trainingsphase werden dann die eine
Gewichtsmatrix bildenden Verbindungsgewichte zwischen der
Eingangs-Schicht und der Ausgangsschicht adaptiert. Zu diesem
Zweck werden zunächst diese Verbindungsgewichte auf zufällig
gewählte Werte eingestellt. Ausgehend davon werden dann in
sich wiederholenden Lernschritten die normierten
Referenzmerkmals-Vektoren als Trainings-Vektoren auf die
verborgene Schicht aufgeschaltet. Der Trainings-Vektor wird
mit den Zeilen-Vektoren der Gewichtsmatrix verglichen. Es wird
derjenige Zeilen-Vektor aufgesucht, der von dem Trainings-
Vektor den geringsten Euklidischen Abstand hat. Nur dieser
Zeilen-Vektor wird im Sinne einer Verringerung des besagten
Euklidischen Abstandes korrigiert. Dabei wird der Zeilen-
Vektor um den mit einem positiven Faktor kleiner als eins
multiplizierten Euklidischen Abstand korrigiert.
Der Erfindung liegt die Aufgabe zugrunde, das Verfahren der
eingangs genannten Art zu vereinfachen und zu verbessern.
Der Erfindung liegt insbesondere die Aufgabe zugrunde, ein
Verfahren der eingangs genannten Art auch dann anwendbar zu
machen, wenn der Merkmalsraum für die Klassierung der Fehler
durch gekrümmte "Flächen" unterteilt ist.
Erfindungsgemäß wird diese Aufgabe dadurch gelöst, daß
- e) als neuronales Netzwerk ein Netzwerk verwendet wird, das ausschließlich Vorwärts-Verknüpfungen zwischen mehr als zwei Schichten von Prozessor-Elementen enthält.
Ein solches Netzwerk läßt sich so trainieren, daß eine
Identifizierung von Fehlern auch dann möglich ist, wenn die
Fehlerklassen durch "gekrümmte Flächen" im Merkmalsraum
voneinander getrennt sind. Das neuronale Netzwerk kann relativ
einfach aufgebaut sein und leicht trainiert werden.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter
Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Fig. 1 ist eine schematische Darstellung der Struktur eines
fehlertoleranten Stabilisierungskreises bei einem
Flugzeug.
Fig. 2 zeigt als Blockdiagramm ein Flugregler-Netzwerk und
dessen Anbindung an Sensormodule.
Fig. 3 ist ein Blockdiagramm der Einrichtung zur
Fehlerfeststellung und -lokalisierung.
Fig. 4 zeigt im einzelnen die Einrichtung zur Fehler-
Feststellung und -Lokalisierung von Fig. 3.
Fig. 5 zeigt schematisch ein mehrschichtiges Netzwerk, das zur
Bildung der Assoziations-Matrix trainierbar ist, welche
den Merkmals-Vektor in Fig. 3 und 4 mit dem
Klassifikations-Vektor verknüpft.
Fig. 6 zeigt als Blockdiagramm das Trainieren des
mehrschichtigen Netzwerkes.
Fig. 7 zeigt die verschiedenen Schritte des Trainingsvorganges
beim Trainieren des mehrschichtigen Netzwerkes von
Fig. 5.
Fig. 8 zeigt das mehrschichtige Netzwerk von Fig. 5 mit der
Veränderung der Gewichte bei einem Trainingsschritt.
Fig. 9 zeigt das Netzwerk zur Bildung der Klassifikations-
Vektoren aus den Meßvektoren im Betrieb der Einrichtung
zur Fehler-Feststellung und -Lokalisierung.
In Fig. 1 ist mit 10 ein Flugzeug bezeichnet. Das Flugzeug 10
wird durch einen Stabilisierungskreis 12 stabilisiert. Zu
diesem Zweck werden die Bewegungen des Flugzeuges 10 im Raum
durch Sensoren 14 erfaßt. Dabei ist für Redundanz gesorgt: Es
stehen mehr Meßwerte zur Verfügung als Zustandsgrößen zu
bestimmen und zu regeln sind. Bezeichnet H eine "Meßmatrix"
und x einen Vektor der Zustandsgrößen, dann ist
m = Hx + ε,
wobei ε der Fehlervektor ist.
Die Signale der Sensoren 14 sind auf einen Flugregler 16
geschaltet. Der Flugregler 16 steuert Stellmotoren an, durch
welche Steuerflächen o. dergl. des Flugzeugs 10 betätigbar
sind.
Die redundanten Signale der Sensoren 14 sind auf eine
Schaltung 18 aufgeschaltet, durch welche Sensorfehler
festgestellt und identifiziert oder lokalisiert und bei
Auftreten eines Fehlers eine Rekonfiguration des Systems
bewirkt wird. Aus den ggf. rekonfigurierten, redundanten
Sensordaten werden optimierte Daten auf den Flugregler 16
geschaltet. In Fig. 1 ist mit 20 eine Einrichtung zur
Feststellung eines Fehlers an einem Sensor bezeichnet. Mit 22
ist eine Einrichtung zur Lokalisierung eines festgestellten
Fehlers und mit 24 eine Einrichtung zur Rekonfiguration des
Systems bezeichnet. Die Meßwerte von den Sensoren 14 und ggf.
Informationen über die Rekonfiguration des Systems von der
Einrichtung 26 beaufschlagen eine Einrichtung 26 zur Bildung
der optimalen Daten für den Flugregler aus den normalerweise
redundant von den Sensoren 14 vorliegenden Daten.
Fig. 2 ist ein Blockschaltbild der redundanten Signal-
Verarbeitung. Die Sensoren 14 liefern über vermehrfachte
Sensor-Prozessoren 28 und Schnittstellen 30 redundante
Informationen. Die Daten von den vermehrfachten Sensor-
Prozessoren 28 und Schnittstellen 30 sind auf Schaltungen 18
zur Feststellung und Lokalisierung von Fehlern an Sensoren 14
geschaltet. Jede dieser Schaltungen 18 ist vermehrfacht
vorgesehen. Jeder der Ausgänge der Schnittstellen 30 ist auf
jede der Schaltungen 18 ausgeschaltet. Jede der Schaltungen 18
liefert Daten auf einen Flugregler 16. Die Ausgangs-Daten der
Flugregler steuern die Stellmotoren.
Die Einrichtung zur Feststellung und Lokalisierung von Fehlern
der Sensoren 14 ist in Fig. 3 als Blockdiagramm dargestellt.
Der Sensorblock 14 liefert Meßwerte mi, die zu einem Meßvektor
m zusammengefaßt werden können. Es wird eine Projektionsmatrix
P bestimmt, deren Spalten von Validierungs-Vektoren gebildet
sind:
P = [v 1, v 2, . . . v n].
Aus dem Meßvektor m wird durch Anwendung der Projektionsmatrix
P ein "Merkmalsvektor" v gebildet:
v = Pm = Σmi v i = [p1, p2, . . . pn]T.
Das ist in Fig. 3 durch einen Block 32 dargestellt.
Block 34 in Fig. 3 stellt eine Einrichtung dar, welche den so
gebildeten Merkmalsvektor v mit sich selbst multipliziert. Es
wird eine Größe
D = v T v
bildet. Die Größe D wird in einer Einrichtung 36 mit einem
Schwellwert verglichen. Wenn die Größe D den Schwellwert
überschreitet, dann zeigt dies das Auftreten eines Fehlers an.
Es muß dann dieser Fehler lokalisiert werden.
Zu diesem Zweck wird aus dem Merkmalsvektor v durch
Multiplikation mit einer Assoziationsmatrix W ein
Klassifikations-Vektor u gebildet. Der Klassifikations-Vektor
u ist im Idealfall ein Vektor, von dem ein Element "1" und
alle anderen Elemente "0" sind. Die Bildung dieses
Klassifikations-Vektors ist in Fig. 3 durch Block 38
dargestellt. Der Klassifikations-Vektor u ist auf eine
Einrichtung 40 zur Lokalisation eines eventuellen Fehlers
geschaltet.
In Fig. 4 ist die Anordnung von Fig. 3 etwas ausführlicher
dargestellt.
In Fig. 4 sind die Komponenten mi des Meß-Vektors m auf eine
Eingangsschicht 42 eines Netzwerkes 44 geschaltet. Das
Netzwerk 44 multipliziert jede Meßgröße mi längs der
"vertikalen" Linien des Netzwerkes mit Faktoren P1i . . . Pni.
Die Faktoren Pik sind dabei die Elemente der Projektions-
Matrix P. Die erhaltenen Produkte werden längs der
"horizontalen" Linien aufsummiert. Diese Summen ergeben die
Komponenten vi des Merkmalsvektors v. Diese Komponenten des
Merkmalsvektors v erscheinen in einer "verborgenen" Schicht
46. Diese verborgene Schicht 46 bildet gleichzeitig die
Eingangsschicht eines Netzwerkes 48.
Die Faktoren Pik können anhand der geometrischen und
physikalischen Verhältnisse der Sensoren 14 vorherberechnet
werden.
Das Netzwerk 44 mit Eingangsschicht 42 und verborgener Schicht
46 entspricht dem Block 32 in Fig. 3.
Jede der in der verborgenen Schicht 46 erscheinenden
Komponenten vi des Merkmalsvektors v wird in einem zugehörigen
Knotenpunkt 50 mit sich selbst multipliziert. Die so
erhaltenen Quadrate werden längs der "vertikalen" Linie 52
aufaddiert und liefern die Größe D. Diese Größe D wird , wie
durch Kreis 54 angedeutet ist, mit einem Schwellwert E
verglichen. Bei Überschreiten dieses Schwellwertes, erfolgt an
einem Ausgang 56 eine Fehlermeldung.
Zur Lokalisierung eines Fehlers werden im Betrieb die
Komponenten vi auf das Netzwerk 48 aufgeschaltet. Das Netzwerk
48 erzeugt aus den Komponenten des Merkmalsvektors v in noch
zu beschreibender Weise in einer Ausgangsschicht 58 die
Komponenten des Klassifikations-Vektors u.
Das Netzwerk 48 ist als trainierbares, neuronales Netz
ausgebildet. Ein solches Netzwerk ist in Fig. 5 schematisch
dargestellt.
Das Netzwerk 48 weist eine Eingangsschicht, eine "verborgene"
Schicht und eine Ausgangsschicht auf. Die Eingangsschicht
entspricht der Schicht 46 in Fig. 4. Die Ausgangsschicht
entspricht der Ausgangsschicht 58 in Fig. 4. Dazwischen liegt
eine verborgene Schicht 60. Das neuronale Netzwerk selbst hat
also drei Schichten. Die Schicht 46 besteht aus Prozessor-
Elementen 62. Die verborgene Schicht 60 besteht aus Prozessor-
Elementen 64 und die Ausgangs-Schicht 58 besteht aus
Prozessor-Elementen 66.
Die Prozessor-Elemente 62 dienen nur zur Speicherung der
jeweiligen Komponenten des Merkmals-Vektors v. Der Inhalt
jedes der Prozessor-Elemente 62 der Schicht 46 ist auf jedes
der Prozessor-Elemente 64 der verborgenen Schicht 60 mit einem
Gewicht aufgeschaltet. Die Gewichte sind in noch zu
beschreibender Weise veränderbar. Diese Aufschaltung mit
veränderbaren Gewichten ist durch Pfeile 68 dargestellt. Jedes
der Prozessor-Elemente 64 hat n Eingänge. Das Prozessor-
Element 64 bildet die Summe der an den Eingängen anliegenden
gewichteten Komponenten vi des Merkmals-Vektors v. Das
Prozessor-Element 64 erzeugt einen Ausgangs-Wert, der eine
nichtlineare Funktion der gebildeten Summe ist. Diese
nichtlineare Funktion kann eine Sigmoid-Funktion sein. Als
vorteilhaft hat es sich aber erwiesen, wenn die nichtlineare
Funktion eine Gauß-Funktion ist. Die Ausgangs-Werte an den
Ausgängen der Prozessor-Elemente 64 der verborgenen Schicht 60
sind wieder mit Gewichten auf die Eingänge alle Prozessor-
Elemente 66 der Ausgangs-Schicht 58 geschaltet. Die
Aufschaltung und die Gewichte sind in Fig. 5 durch Pfeile 70
dargestellt. Die Prozessor-Elemente 66 der Ausgangs-Schicht 58
bilden wieder die Summe der auf ihre Eingänge von den
Prozessor-Elementen 64 aufgeschalteten, gewichteten Ausgangs-
Werte. An Ausgängen 72 der Prozessor-Elemente werden dann
jeweils Ausgangs-Werte gebildet, die Sigmoid- oder Gauß-
Funktionen der letztgenannten Summen sind.
Ein solches Netzwerk wird "trainiert". Zu diesem Zweck werden
die Gewichte zwischen den verschiedenen Prozessor-Elementen
der Schichten 46 und 60 bzw. 60 und 58 zunächst zufällig
gewählt. Dann werden an die Schicht 45 "Referenz-Merkmals-
Vektoren" angelegt und die sich daraus ergebenden Ausgangs-
Vektoren bestimmt. Diese Ausgangs-Vektoren werden verglichen
mit "Referenz-Klassifikations-Vektoren, die jeweils den
Referenzmerkmals-Vektoren zugeordnet sind. Es werden also
zugeordnete Paare von Referenz-Merkmals-Vektoren und Referenz-
Klassifikations-Vektoren eingegeben. Es wird die Differenz
zwischen dem erhaltenen Ausgangs-Vektor und dem Referenz-
Klassifikations-Vektor gebildet. In Abhängigkeit von dieser
Differenz, einer Art Regelabweichung, werden nach einem
bestimmten Algorithmus die Gewichte verändert, mit denen die
Ausgänge der Prozessor-Elemente 62 auf die Eingänge der
Prozessor-Elemente 64 und die Ausgänge der Prozessor-Elemente 64
auf die Eingänge der Prozessor-Elemente 66 aufgeschaltet
sind.
Das ist in Fig. 6 schematisch dargestellt: Ein Merkmals-Vektor
v, dargestellt durch Block 72 wird umgesetzt in einen
Ausgangs-Vektor u, dargestellt durch einen Block 74. In einem
Summierpunkt 76 wird die Differenz des Ausgangs-Vektors u und
eines Referenz-Klassifikations-Vektors, praktisch eines
Sollwertes des Ausgangs-Vektors u, gebildet. Der Referenz-
Klassifikations-Vektor ist dargestellt durch einen Block 78.
Es ergibt sich ein Abweichungs-Vektor, praktisch eine
Regelabweichung ε. Dieser ist durch einen Block 80
dargestellt. Nach Maßgabe dieser Regelabweichung erfolgt eine
Änderung Δwÿ der Gewichte. Das ist durch Block 82
dargestellt. Man bezeichnet das als Regelabweichungs-
Backpropagation.
Fig. 7 ist ein Flußdiagramm des Trainings-Vorganges. Die
Gewichte werden auf kleine, zufällige Werte eingestellt. Das
ist durch Block 84 dargestellt. Dann wird ein Referenz-
Merkmals-Vektor v R eingegeben. Das ist in Fig. 7 durch Block 86
dargestellt. Es wird in Vorwärtsrichtung der Ausgangs-Vektor
an den Ausgängen 72 bestimmt. Das ist durch Block 88
dargestellt. Dann wird der zugehörige Referenz-
Klassifikations-Vektor u R, also der Soll-Ausgangs-Vektor,
eingegeben. Das ist in Fig. 7 durch Block 90 dargestellt. Aus
den Differenzen werden anschließend in Rückwärtsrichtung
Empfindlichkeiten δ bestimmt. Der Vektor der
Empfindlichkeiten δ(K) für die Ausgangsschicht ist gegeben
durch die Multiplikation eines Regelabweichungs-Vektors mit
einer Matrix Λ.
δ(K) = Λ(K) (u - u R).
Dabei ergibt sich die Matrix aus den Ableitungen der
nichtlinearen Ausgangsfunktionen der Prozessoren dieser
Schicht. In rekursiver Weise wird daraus und aus der
Gewichtsmatrix W(k) der Vektor der Empfindlichkeiten δ(k) der
nächstfolgenden Schicht:
δ(k) = Λ(k) W(k) δ (k+1)
mit k = (K-1), (K-2) . . . 2.
Das ist in Fig. 7 durch einen Block 92 dargestellt. Und
schließlich werden daraus die Änderungen der Gewichte
berechnet. Dabei wird zur Bestimmung einer Änderung W(k) das
skalare Produkt des Empfindlichkeitsvektors δ(k+1) der
folgenden Schicht und des Ausgangsvektors x(k) der jeweiligen
Schicht unter Berücksichtigung eines Lernfaktors µ gebildet:
ΔW(k) = µ w (k+1) x(k)T.
Das ist in Fig. 7 durch Block 94 dargestellt. Anschließend ist
eine Schleife 96 zurück zu dem Eingang des Blocks 86 geführt.
Die Prozedur wird mit einem anderen Paar von Referenz-Vektoren
v R und u R wiederholt.
Fig. 8 veranschaulicht im einzelnen diesen Trainingsvorgang.
Ein bekannter Eingangsvektor v R ist auf die Eingangs-Schicht
geschaltet. Es werden die zj(1) gebildet, die hier direkt die
Ausgangsgrößen xj(1) bilden. Aus den xj(1) der
Prozessorelemente 62 der Eingangs-Schicht 46 wird von den
Prozessorelementen 64 der verborgenen Schicht 60 mit
Verbindungsgewichten wÿ(1) die zi(2) dieser verborgenen
Schicht gebildet. Aus den so gebildeten zi(2) ergeben sich die
Ausgangsgrößen xi(2) der Prozessorelemente 64 nach einer
nichtlinearen Funktion fi in Form einer Sigmoid- oder Gauß-
Funktion zu
fi(zi(2)) = xi(2).
Die Sigmoid-Funktion ist:
σ(x) = 1/(1+e-x).
Wie an dem j-ten Prozessorelement 64 der verborgenen Schicht
60 und dem i-ten Prozessorelement 66 der Ausgangs-Schicht 58
dargestellt ist, bildet jedes Prozessorelement 66 aus den
Ausgangsgrößen der Prozessorelemente 64 mit
Verbindungsgewichten wÿ(2) die zi(3). Das Prozessorelement 66
liefert dann eine Ausgangsgröße xi(3) wieder nach einer
nichtlinearen Funktion der zi(3), wobei diese nichtlineare
Funktion wieder eine Sigmoid- oder eine Gauß-Funktion ist. Es
ist
fi(zi(3)) = xi(3).
Die so erhaltenen xi(3), die man zu einem Ausgangsvektor u
zusammenfassen kann, sollten bei richtiger Wahl der
Verbindungsgewichte dem Klassifikations-Vektor entsprechen,
der dem als Eingangsvektor v R eingegebenen Merkmals-Vektor
zugeordnet sind. Das wird zunächst nicht der Fall sein. Die
Komponenten des Sollvektors werden mit den sich tatsächlich
ergebenden Komponenten des Ausgangsvektors verglichen. Das ist
für die Ausgangsgröße des betrachteten i-ten Prozessorelements
66 durch einen Summierpunkt 76 in Fig. 8 dargestellt.
Die erhaltene Differenz wird multipliziert mit fi′(zi(3)). Der
Strich (′) bezeichnet dabei die Ableitung der nichtlinearen
Funktion. Das ist durch Block 100 in Fig. 8 dargestellt. Aus
dieser Multiplikation ergibt sich eine Größe δi(3). Diese
Größe δi(3) wird mit der Ausgangsgröße xj(2) des j-ten
Prozessorelements 64 der verborgenen Schicht 60 multipliziert.
Das ist durch das abgerundete Rechteck 102 in Fig. 8
dargestellt. Das so erhaltene Produkt wird mit einem
Lernfaktor µ, dargestellt durch Block 104 multipliziert und
liefert einen Korrekturwert Δwÿ für das Verbindungsgewicht
wÿ zwischen dem j-ten Prozessorelement 64 der verborgenen
Schicht 60 und dem i-ten Prozessorelement 66 der Ausgangs
schicht 58.
Die Korrektur des Verbindungsgewichtes ist hier der
Übersichtlichkeit halber nur für ein Paar von
Prozessorelementen 64 und 66 dargestellt und beschrieben.
Tatsächlich werden die in gleicher Weise die
Verbindungsgewichte für alle möglichen Kombinationen von
Prozessorelementen 64 und 66 korrigiert. i und j sind hier
beliebige ganze Zahlen. Die z werden, wie oben geschildert,
als gewichtete Summen der Ausgangsgrößen der Prozessorelemente
in der vorhergehenden Schicht gebildet.
In ähnlicher Weise werden die Verbindungsgewichte wÿ(1)
zwischen der Eingangs-Schicht 46 und der verborgenen Schicht
60 korrigiert. Es werden Größen i(2) gebildet nach der
Beziehung
Das ist in Fig. 8 durch einen Block 106 dargestellt. Die so
gebildete Größe δi wird multipliziert mit der Ausgangsgröße
xj(1) des j-ten Prozessorelements 62 der Eingangs-Schicht 46.
Das ist in Fig. 8 durch das abgerundete Rechteck 108
dargestellt. Das Produkt wird multipliziert mit einem Faktor
µ, wie durch das Rechteck 110 in Fig. 8 dargestellt ist. Das
ergibt eine Korrekturgröße Δwÿ(1) für das Verbindungsgewicht
wÿ(1) zwischen dem j-ten Prozessorelement 62 der Eingangs
schicht 46 und dem i-ten Prozessorelement 64 der verborgenen
Schicht 60. Auch hier werden in gleicher Weise alle
Verbindungsgewichte wÿ(1) zwischen den verschiedenen
Kombinationen der Prozessorelemente 62 der Eingangs-Schicht 46
und den Prozessorelementen 64 der verborgenen Schicht 60
korrigiert. i und j sind beliebige ganze Zahlen. Es ist der
Übersichtlichkeit halber nur ein Paar von Prozessorelementen
62 und 64 dargestellt. Die zi(2) sind wieder gewichtete Summen
aller xj(1).
Es hat sich gezeigt, daß ein solches Netzwerk in etwa 2 000
überwachten Lernschritten mit vorgegebenen Paaren von
Referenz-Merkmals-Vektoren und Referenz-Klassifikations-
Vektoren für die hier betrachtete Aufgabe trainiert werden
kann. Es wurden damit auch bei stark verrauschten
Merkmalsvektoren sehr gute Ergebnisse erzielt.
Fig. 9 zeigt in einer Darstellung ähnlich Fig. 5 das gesamte
Netzwerk im Betrieb. Die auf die Eingangs-Schicht 42 gegebenen
Komponenten mi des Meßvektors m werden über das Netzwerk 44 an
den Prozessor-Elementen 62 der Schicht 46 gewichtet summiert.
Das liefert den Merkmals-Vektor v. Die Gewichte sind
vorherberechnet. Die Prozessor-Elemente 62 geben an ihren
Ausgängen unmittelbar diese Summen aus. Das neuronale Netzwerk
48 ist so trainiert, daß es zu dem Merkmals-Vektor einen
Klassifikations-Vektor u in der Ausgangs-Schicht 58 liefert.
Claims (4)
1. Verfahren zum Erkennen und Identifizieren von Fehlern an
Sensoren für Zustandsgrößen, die mit von den Sensoren
gelieferten Meßgrößen durch eine Meßgleichung
m = Hx + εverknüpft sind, wobei m ein Vektor der Meßgrößen, x ein
Vektor der Zustandsgrößen, H die Meßmatrix und ε der
Fehlervektor ist und wobei die Ordnung von m größer als
die Ordnung von x ist, mit den Verfahrensschritten:
- a) Bestimmen von Validierungs-Vektoren vi als Spalten- Vektoren einer Projektions-Matrix P = [v 1, v 2, . . . v n]
- b) Bestimmen eines Merkmals-Vektors v als Linearkombination der Validierungs-Vektoren v i mit den zugehörigen Elementen mi des Meß-Vektors m v = Pm = Σmi v i =[p1, p2, . . . pn]T
- c) Bestimmen des funktionellen Zusammenhanges zwischen
dem Merkmals-Vektor v und dem zugehörigen
Klassifikations-Vektor s, indem
- - Referenzmerkmals-Vektoren mit simulierten Fehlern auf die Eingangs-Schicht eines neuronalen Netzwerkes aufgeschaltet werden, an deren Ausgangsschicht Klassifikations-Vektoren abgegriffen werden, und
- - in einer Trainingsphase die Verbindungsgewichte zwischen der Eingangs-Schicht und der Ausgangs- Schicht des neuronalen Netzwerkes adaptiert werden,
- dadurch gekennzeichnet, daß
- e) als neuronales Netzwerk (48) ein Netzwerk verwendet wird, das ausschließlich Vorwärts-Verknüpfungen zwischen mehr als zwei Schichten von Prozessor- Elementen enthält.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die
Prozessor-Elemente der verborgenen Schicht oder Schichten
und der Ausgangs-Schicht des Netzwerkes an ihren Ausgängen
Signale liefern, die nach einer nichtlinearen Funktion von
der Summe der Eingangs-Signale an dem betreffenden
Prozessor-Element abhängen.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die
nichtlineare Funktion eine Sigmoid-Funktion ist.
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die
nichtlineare Funktion eine Gauß-Funktion ist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4244014A DE4244014A1 (de) | 1992-12-24 | 1992-12-24 | Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4244014A DE4244014A1 (de) | 1992-12-24 | 1992-12-24 | Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4244014A1 true DE4244014A1 (de) | 1994-07-07 |
Family
ID=6476496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4244014A Withdrawn DE4244014A1 (de) | 1992-12-24 | 1992-12-24 | Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4244014A1 (de) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0686830A1 (de) | 1994-06-08 | 1995-12-13 | Bodenseewerk Gerätetechnik GmbH | Inertialsensor-Einheit |
DE19506388C1 (de) * | 1995-02-23 | 1996-08-22 | Buero Fuer Ca Technik Dipl Ing | Verfahren zum Erkennen von systematischen Fehlern, insbesondere zur automatischen Störungserkennung bei Qualitätskontrollen, mittels mit Meßsensoren ausgestatteten Meßgeräten |
US5661735A (en) * | 1994-12-27 | 1997-08-26 | Litef Gmbh | FDIC method for minimizing measuring failures in a measuring system comprising redundant sensors |
DE29617200U1 (de) * | 1996-10-02 | 1997-11-06 | Siemens AG, 80333 München | Vorrichtung zur prädiktiven Diagnose der aktuellen Güte des technischen Arbeitsergebnisses einer technischen Anlage, insbesondere der aktuellen Güte der Schweißpunkte eines Punktschweißroboters |
DE19939984C2 (de) * | 1999-08-24 | 2001-09-13 | Daimler Chrysler Ag | Verfahren zur richtungsselektiven Ausrichtung einer passiven Sicherheitseinrichtung |
US6480792B1 (en) | 1998-10-22 | 2002-11-12 | British Aerospace Public Limited Company | Fatigue monitoring systems and methods incorporating neural networks |
DE19607429B4 (de) * | 1996-02-28 | 2004-02-19 | Daimlerchrysler Ag | Fehlertolerante Steuerungseinrichtung für ein physikalisches System, insbesondere Fahrdynamikregeleinrichtung für ein Kraftfahrzeug |
CN105043433A (zh) * | 2015-08-28 | 2015-11-11 | 北京理工大学 | 一种基于神经网络的光电编码器快速补偿方法 |
CN108107910A (zh) * | 2017-12-28 | 2018-06-01 | 中航联创科技有限公司 | 一种基于分布式多余度总线的无人机飞控系统及飞控方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3929404A1 (de) * | 1989-09-05 | 1991-03-07 | Bodenseewerk Geraetetech | Verfahren und vorrichtung zum erkennen und identifizieren von fehlern an sensoren |
DE4100501A1 (de) * | 1991-01-10 | 1992-07-16 | Bodenseewerk Geraetetech | Verfahren und einrichtung zum erkennen von fehlern an sensoren fuer zustandsgroessen |
-
1992
- 1992-12-24 DE DE4244014A patent/DE4244014A1/de not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3929404A1 (de) * | 1989-09-05 | 1991-03-07 | Bodenseewerk Geraetetech | Verfahren und vorrichtung zum erkennen und identifizieren von fehlern an sensoren |
DE4100501A1 (de) * | 1991-01-10 | 1992-07-16 | Bodenseewerk Geraetetech | Verfahren und einrichtung zum erkennen von fehlern an sensoren fuer zustandsgroessen |
Non-Patent Citations (5)
Title |
---|
DE-Z.: DALZER, Dietrich, KIRBACH, Volkmar: Neuronale Netze in der Prozeßautomatisierung. In: atp - Automatisierungstechnische Praxis, Jg. 34, 1992, H. 7, S. 395-401 * |
DE-Z.: HAFNER, Sigrid, GEIGER, Hans, KRESSEL, Ulrich: Anwendungsstand Künstlicher Neuronaler Netze in der Automatisierungstechnik, Teil I: Einführung. IN: atp - Automatisierungstechnische Praxis, Jg. 34, 1992, H. 10, S. 591-599 * |
DE-Z.: KAISER, Michael: Künstliche Neuronale Netze, IN: atp - Automatisierungstechnische Praxis, Jg. 34, 1992, H. 9, S. 539-545 * |
LAU, Clifford: Artifical Neural Networks, IEEE Press, New York, 1992, S. 3-24, 82-108, 477-482, ISBN 0-87942-289-0 * |
US-BUCH: Herausgeber: SANCHEZ-SINENCO, Edgar * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0686830A1 (de) | 1994-06-08 | 1995-12-13 | Bodenseewerk Gerätetechnik GmbH | Inertialsensor-Einheit |
US5661735A (en) * | 1994-12-27 | 1997-08-26 | Litef Gmbh | FDIC method for minimizing measuring failures in a measuring system comprising redundant sensors |
DE19506388C1 (de) * | 1995-02-23 | 1996-08-22 | Buero Fuer Ca Technik Dipl Ing | Verfahren zum Erkennen von systematischen Fehlern, insbesondere zur automatischen Störungserkennung bei Qualitätskontrollen, mittels mit Meßsensoren ausgestatteten Meßgeräten |
DE19607429B4 (de) * | 1996-02-28 | 2004-02-19 | Daimlerchrysler Ag | Fehlertolerante Steuerungseinrichtung für ein physikalisches System, insbesondere Fahrdynamikregeleinrichtung für ein Kraftfahrzeug |
DE29617200U1 (de) * | 1996-10-02 | 1997-11-06 | Siemens AG, 80333 München | Vorrichtung zur prädiktiven Diagnose der aktuellen Güte des technischen Arbeitsergebnisses einer technischen Anlage, insbesondere der aktuellen Güte der Schweißpunkte eines Punktschweißroboters |
US6281465B1 (en) | 1996-10-02 | 2001-08-28 | Siemens Aktiengesellschaft | Device for predictive diagnosis of the current quality of technical production from a technical installation, particularly of the current quality of welding points of a spot welding robot |
US6480792B1 (en) | 1998-10-22 | 2002-11-12 | British Aerospace Public Limited Company | Fatigue monitoring systems and methods incorporating neural networks |
DE19939984C2 (de) * | 1999-08-24 | 2001-09-13 | Daimler Chrysler Ag | Verfahren zur richtungsselektiven Ausrichtung einer passiven Sicherheitseinrichtung |
CN105043433A (zh) * | 2015-08-28 | 2015-11-11 | 北京理工大学 | 一种基于神经网络的光电编码器快速补偿方法 |
CN108107910A (zh) * | 2017-12-28 | 2018-06-01 | 中航联创科技有限公司 | 一种基于分布式多余度总线的无人机飞控系统及飞控方法 |
CN108107910B (zh) * | 2017-12-28 | 2021-01-22 | 中航联创科技有限公司 | 一种基于分布式多余度总线的无人机飞控系统及飞控方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69321952T2 (de) | System und verfahren zur steuerung einer anlage | |
DE4042139C2 (de) | Neuron-Einheit | |
DE68924822T2 (de) | Signalverarbeitungssystem und Lernverarbeitungssystem. | |
DE69823049T2 (de) | Modellfreie adaptive prozesssteuerung | |
DE3928456A1 (de) | Verfahren und schaltungsanordnung zum bilden eines auswertungssignals aus einer mehrzahl redundanter messsignale | |
DE69719058T2 (de) | Verbessertes neuronales netzwerk | |
DE4100501A1 (de) | Verfahren und einrichtung zum erkennen von fehlern an sensoren fuer zustandsgroessen | |
DE4217832C2 (de) | Mustererkennungsgerät | |
DE102018116696A1 (de) | Verfahren zum Erzeugen von normalen Zustandsvorhersagedaten einer Anlage und Vorrichtung, die dasselbe verwendet | |
DE4436658A1 (de) | Vorrichtung und Verfahren zur Störungsuntersuchung | |
DE102007014650B3 (de) | Verfahren zur rechnergestützten Verarbeitung von in einem Sensornetzwerk erfassten Messwerten | |
DE3938645C1 (de) | ||
EP0416370B1 (de) | Verfahren und Vorrichtung zum Erkennen und Identifizieren von Fehlern an Sensoren | |
DE2808792C2 (de) | ||
DE19531967A1 (de) | Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems | |
DE69228517T2 (de) | Simulator mit Anwendung eines Neuronalnetzwerkes | |
DE4244014A1 (de) | Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren | |
DE2226566A1 (de) | Flugbahn Uberwachungs und Korrektur vorrichtung | |
DE102020201133A1 (de) | Verfahren und Vorrichtung zur Modellwertbildung, insbesondere zur Sensordatenfusion | |
DE10201018B4 (de) | Neuronales Netz, Opimierungsverfahren zur Einstellung der Verbindungsgewichte eines neuronalen Netzes sowie Analyseverfahren zur Überwachung eines Optimierungsverfahrens | |
DE4406723A1 (de) | Verfahren zur Überwachung des Betriebszustands einer Maschine oder Anlage | |
EP0708936B1 (de) | Anordnung zur modellierung eines nichtlinearen prozesses | |
DE19753620C1 (de) | Verfahren zur Erkennung von Abweichungen der Oberflächenform von einer vorgegebenen Form durch eine dreidimensionale Meßwerterfassung und eine nachfolgende Verarbeitung mit einem künstlichen neuronalen Netz | |
DE4240789C2 (de) | Verfahren zur Identifizierung von Objekten | |
DE102020202305A1 (de) | Verfahren zum Erkennen einer Umgebung eines Fahrzeugs und Verfahren zum Trainieren eines Fusionsalgorithmus für ein Fahrzeugsystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8139 | Disposal/non-payment of the annual fee |