DE69031866T2 - Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation - Google Patents
Verfahren und Anordnung zur Signalverarbeitung durch die EigenvektortransformationInfo
- Publication number
- DE69031866T2 DE69031866T2 DE69031866T DE69031866T DE69031866T2 DE 69031866 T2 DE69031866 T2 DE 69031866T2 DE 69031866 T DE69031866 T DE 69031866T DE 69031866 T DE69031866 T DE 69031866T DE 69031866 T2 DE69031866 T2 DE 69031866T2
- Authority
- DE
- Germany
- Prior art keywords
- vector
- estimate
- eigenvector
- determining
- previous
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000012545 processing Methods 0.000 title claims description 20
- 230000009466 transformation Effects 0.000 title description 19
- 239000013598 vector Substances 0.000 claims description 168
- 239000011159 matrix material Substances 0.000 claims description 65
- 238000013144 data compression Methods 0.000 claims description 5
- 230000000875 corresponding effect Effects 0.000 description 36
- 230000006870 function Effects 0.000 description 29
- 238000000354 decomposition reaction Methods 0.000 description 14
- 238000010276 construction Methods 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 8
- 238000012804 iterative process Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 7
- 238000007792 addition Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000003247 decreasing effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 210000000225 synapse Anatomy 0.000 description 4
- 238000012887 quadratic function Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Optimization (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Complex Calculations (AREA)
Description
- Die Erfindung bezieht sich auf ein Verfahren zur Verarbeitung von Signaldaten mit einer Datenverarbeitungsanordnung, wobei das Verfahren die Bestimmung einer Approximation an einen höchstwertigen Eigenvektor einer Kovarianzmatrix umfaßt, die mit den als Vektoren in einem Vektorraum dargestellten Signaldaten verbunden ist, und auf eine Anordnung zur Durchführung des Verfahrens.
- Die Eigenvektoranalyse (Principal Component Analysis, PCA) ist eine Strategie, die auf den statistischen Eigenschaften eines Signals beruht, das heißt, auf kohärenten Daten, die zum Beispiel ein Bildmuster oder ein Sprachmuster darstellen. Im allgemeinen stehen solche Daten in enger Beziehung zueinander, was durch eine sogenannte Kovarianzmatrix ausgedrückt wird. Definitionsgemäß ist diese Kovarianzmatrix positiv symmetrisch. Das impliziert die Existenz einer Gruppe von wechselseitig orthogonalen Eigenvektoren (principal components). Eine Darstellung der Kovarianzmatrix auf der Basis, die durch ihre Eigenvektoren bestimmt ist, ist eine diagonale Matrix, wobei die Komponenten auf der Diagonalen die jeweils zu den Eigenvektoren gehörenden Eigenwerte (Varianzen) sind und die nicht auf der Diagonale angeordneten Komponenten gleich Null sind. Die Abbildung der Kovarianzmatrix auf die Basis ihrer Eigenvektoren wird allgemein als Eigenvektortransformation, Principal Component Transform, Hotelling Transform oder Karhunen-Loève Transform bezeichnet (siehe zum Beispiel: Digital Image Processing, R.C. Gonzalez und P. Wintz, Zweite Auflage, Addison-Wesley Publishing Company, 1987, Seite 122 - 130).
- Die diagonale Form drückt die Tatsache aus, daß die entsprechend transformierten Daten jetzt nicht korreliert sind, da die nicht auf der Diagonalen liegenden Komponenten gleich Null sind. Diese Transformation wird vor allem in der Datenkomprimierung, der Merkmalextraktion und der Codierung angewendet. Durch das Zerlegen der Daten in eine Reihe von unkorrelierten Komponenten von abnehmender statistischer Signifikanz wird eine Datenkomprimierung erreicht, indem die Komponenten mit der größten statistischen Signifikanz ausgewählt werden und der Rest verworfen wird. Eine weitere Anwendung dieser Transformation ist zum Beispiel die Durchführung einer Bildrotation in der Bildverarbeitung (siehe Seite 125 bis 130 in dem obengenannten Buch).
- Die Eigenvektoranalyse wird zum Beispiel von Y. Chauvin in "Principal Component Analysis by Gradient Descent on a constrained linear Hebbian Cell", IEEE und INNS International Joint Conference On Neural Nets, 1989, Seite 1373 - 1405, behandelt. Nach diesem Stand der Technik wird das Verhalten einer linearen Recheneinheit während des Lernens durch Gradientenabfall einer Kostenfunktion gleich der Summe eines Varianzmaximierungsterms und eines Gewichtnormalisierungsterms untersucht. Diese Kostenfunktion hat ein globales Minimum, das auf die Hauptkomponenten der Muster ausgerichtet ist, welche in die lineare Recheneinheit eingegeben werden. Die Lernkurve konvergiert zu diesem globalen Minimum, wenn bestimmte Bedingungen erfüllt werden. Eine der Annahmen, die zur Gewährleistung der Gültigkeit getroffen werden, besteht außerdem darin, daß die Kovarianzmatrix unterschiedliche Eigenwerte hat.
- In dem Dokument "Principal Component Analysis" von I.T. Joliffe, Springer-Verlag 1986, Seite 235 - 246, wird die Verwendung des sogenannten Leistungsverfahrens und der SAS-Software beschrieben, die das Leistungsverfahren zur Bestimmung des größten Eigenwertes und des Eigenvektors einer Matrix und der Hauptkomponente implementiert. Unter bestimmten Bedingungen ergibt sich der Eigenvektor durch iteratives Multiplizieren der Matrix mit einem Anfangsvektor. Die SAS-Software bietet Möglichkeiten wie das Zuordnen verschiedener Gewichtungen zu verschiedenen Beobachtungen und die Nutzung einer Korrelation oder Kovarianzmatrix anstelle der Matrix von Beobachtungen.
- Die während des Gradientenabfalis durchgeführten Iterationen erfordern erhebliche Berechnungen. Die während des Leistungsverfahrens durchgeführten Iterationen erfordern eine Matrix-Multiplikation, die mit Hilfe einer speziellen, komplexen Computeranweisung ausgeführt werden kann oder bei einem herkömmlichen Computer in eine lange Folge von Multiplikationen und Additionen unterteilt werden kann. Die Erfindung hat daher zur Aufgabe, die Eigenvektoranalyse mit weniger und einfacheren Berechnungen pro Iteration durchzuführen, wobei entartete Eigenwerte zugelassen werden.
- Zu diesem Zweck ist ein erfindungsgemäßes Verfahren dadurch gekennzeichnet, daß die Bestimmung zur Steigerung der Verarbeitungsgeschwindigkeit in der Anordnung folgendes umfaßt:
- - Annehmen eines Anfangsvektors 61 im genannten Vektorraum als einen ersten Schätzwert c&sub1;;
- - Durchführen einer Iteration mit folgenden Schritten für jeden nächsten Schätzwert ck+1;
- - Annehmen eines nächsten Vektors θk+1 im genannten Vektorraum;
- - Bestimmen von mindestens einer Polarität eines Skalarproduktes ck θk+1 eines vorhergehenden Schätzwertes mit dem nächsten Vektor;
- - Annehmen einer Summe des vorhergehenden Schätzwertes und des nächsten Vektors als den nächsten Schätzwert ck+1 wobei der nächste Vektor durch einen Faktor gewichtet ist, welcher vom Skalarprodukt abhängt, um den nächsten Schätzwert in der Richtung des vorhergehenden Schätzwertes zu erhöhen;
- - nach Beendigung der Iteration Nehmen des höchstwertigen Eigenvektors parallel zu einem zuletzt erhaltenen ck+1 der nächsten Schätzwerte.
- Durch Vergrößern der Komponente des nächsten Schätzwertes in der Richtung des vorhergehenden Schätzwertes entwickeln sich die Schätzwerte in der Richtung des höchstwertigen Eigenvektors, das heißt des Eigenvektors mit dem größten Eigenwert. Um die Approximationen von weiteren Eigenvektoren zu bestimmen, können im Prinzip die gleichen Schritte wie oben beschrieben durchlaufen werden, jedoch jetzt unter Verwendung von Vektoren in einem untergeordneten Raum orthogonal zu den Approximationen der zuvor berechneten entsprechenden Eigenvektoren. Pro Iteration sind eine Vektorskalar-Berechnung (inneres Produkt), eine Skalarvektor-Multiplikation und eine Vektoraddition erforderlich. Falls eine Eigenwert-Entartung angetroffen wird, garantiert die Konstruktion mit orthogonalem Teilraum, daß die Approximationen der zugehörigen Eigenvektoren gefunden werden. Im allgemeinen werden die Eigenvektoren erfindungsgemäß in der Reihenfolge abnehmender statistischer Signifikanz, das heißt in der Reihenfolge abnehmender Eigenwerte, approximiert.
- Vorzugsweise umfaßt das erfindungsgemäße Verfahren zwecks Bestimmung einer weiteren Approximation eines weiteren Eigenvektors der Kovarianzmatrix die folgenden Schritte:
- - Annehmen eines weiteren Anfangsvektors als einen ersten weiteren Schätzwert, wobei dieser Vektor in einer Region des Vektorraums liegt, welche durch Vektoren bestimmt ist, deren Absolutwert des inneren Produkts bei jeder zuvor bestimmten entsprechenden Approximation kleiner ist als ein vorgegebener entsprechender Wert;
- - Bestimmen einer linearen Kombination des vorhergehenden weiteren Schätzwertes und eines nächsten weiteren Regionsvektors für jeden nächsten weiteren Schätzwert, wobei der nächste weitere Regionsvektor mit einem Faktorschätzwert gewichtet wird und dem nächsten weiteren Vektor, um den nächsten weiteren Schätzwert in einer Richtung des vorhergenden weiteren Schätzwertes zu vergrößern;
- - nach Beendigung der Bestimmung der nächsten weiteren Schätzwerte Orthogonalisieren des letzten erhaltenen weiteren Schätzwertes in bezug auf jede zuvor bestimmte Approximation;
- - Nehmen der weiteren Approximation parallel zu dem genannten orthogonalisierten zuletzt erhaltenen weiteren Schätzwert.
- Statt jeden weiteren Vektor in bezug auf die bereits erhaltenen Approximationen zu orthogonalisieren, wird die Orthogonalisierung jetzt nur für den zuletzt erhaltenen Schätzwert durchgeführt, wodurch erhebliche Berechnungszeit eingespart wird. Ein weiterer Vorteil besteht darin, daß die Werte des inneren Produktes der Vektoren und jede der zuvor bestimmten und normalisierten Approximationen sowieso benötigt werden, um die zugehörigen Eigenwerte zu erzeugen, so daß eine effiziente Strategie erreicht wird.
- Vorzugsweise ist der Faktor zur Gewichtung des nächsten Vektors oder des nächsten weiteren Vektors die Vorzeichenfunktion für das innere Produkt, so daß nur eine Invertierung erfolgt, wenn die Vorzeichenfunktion ein Minus ergibt. Um nur Vektoren zu berücksichtigen, die erheblich zu der Bestimmung des nächsten Schätzwertes oder des nächsten weiteren Schätzwertes beitragen, ist vorzugsweise der genannte Faktor die Vorzeichenfunktion für das innere Produkt, wenn das innere Produkt einen Wert außerhalb eines vorgegebenen Intervalls um Null hat, und ist gleich Null, wenn das innere Produkt einen Wert innerhalb des Intervalls hat.
- Dies könnte auch durch Auswählen von Vektoren erreicht werden, die in einer vorhergehenden Bestimmung einer Approximation aufgrund ihrer unzureichenden Werte des inneren Produkts weggelassen wurden.
- Die zugehörigen Eigenwerte werden gefunden durch.
- - Normalisieren des zuletzt erhaltenen Schätzwertes, der mit dem bestimmten Eigenvektor verbunden ist, auf Eins;
- - Bestimmen einer Summierung von Quadraten der inneren Produkte, wobei jedes entsprechende innere Produkt den normalisierten Schätzwert und den entsprechenden Vektor betrifft, der zum Erzeugen eines entsprechenden Schätzwertes benutzt wird, und Mittelwertbildung eines Summierergebnisses.
- Besonders vorteilhaft ist es, das Verfahren auf einer (digitalen) neuronalnetz-artigen Struktur zu implementieren, da die erforderlichen Operationen (inneres Produkt, Skalarvektor-Multiplikation und Vektoraddition) die Bestandteile der Mehrzahl der Berech nungen zur Aktualisierung der Synapse-Koeffizienten reflektieren.
- Diese Regeln können zusammengefaßt werden als:
- Sf = f (Σj Cij . Vj) (a)
- Cij (neu) = Cij (vorliegend) + ΔiVj (b)
- Gleichung (a) drückt die nicht-lineare Abhängigkeit der Ausgabe Si von Neuron i vom inneren Produkt des Vektors der i-ten Reihe der Synapse-Koeffizientenmatrix C und vom Vektor V aus, wobei die Komponenten hiervon aus den Ausgaben der Neuronen j bestehen, welche über Synapse-Koeffizienten Cij mit dem Eingang von Neuron i gekoppelt sind. Die Gleichung (b) gibt die Aktualisierung jedes Synapse-Koeffizienten entsprechend einer Lernregel allgemeinen Typs an, wobei eine Neuronenausgabe Vj und ein Korrekturfaktor Δi eine Rolle spielen. Die Strategie des steilsten Abfalls stimmt zum Beispiel mit der allgemeinen Aktualisierungsregel entsprechend Gleichung (b) überein. Wenn sie parallel in bezug auf den Index i oder den Index j oder beide ausgeführt wird, gibt Gleichung (b) eine Vektoraddition an.
- Das oben beschriebene erfindungsgemäße Verfahren kann erfolgreich auf Signaldaten-Manipulationen angewendet werden, die sich auf die Singulärwert-Zerlegung beziehen. Der Ausdruck "Singulärwert-Zerlegung" gibt eine Verallgemeinerung der Eigenvektor-Eigenwert-Darstellung für quadratische Datenmatrizen an, wie sie oben erwähnt wurden. Entsprechend der Matrixtheorie gibt es für jede rechteckige mxn-Matrix Transformationsmatrizen, die eine verallgemeinerte diagonale Matrix ergeben, welche Komponenten auf der verallgemeinerten Diagonale hat, die die sogenannten Singulärwerte darstellen, und Komponenten außerhalb der verallgemeinerten Diagonale, die gleich Null sind.
- Im Bereich der Signalverarbeitung wird die Singulärwert-Zerlegung (Singular Value Decomposition, SVD) in der adaptiven Filterung, der linearen Vorhersageschätzung, die Modalanalyse bei der Behandlung mehrfach-sinusförmiger Signale, der adaptiven Modellierung usw. angewandt. Zahlreiche technische Anwendungen werden in "SVD and Signal Processing: Algorithms, Applications and Architectures", herausgegeben durch Ed. F. Deprettere, Nordholland, 1988, ausführlich untersucht.
- Zum Extrahieren von Informationen aus dem betrachteten Signaldatenverarbeitungssystem wird enstprechend der SVD angenommen, daß es mit einem linearen Modell gut beschrieben wird. Das bedeutet, das System umfaßt eine lineare Transformation als Eingabe-Ausgabe-Zusammenhang. Die Matrix, die diese lineare Transformation verkörpert, ist oft unbekannt. Es wird hier weiterhin angenommen, daß Informationen bezüglich dieser Matrix von Messungen von bestimmten Eingangsvektoren und den zugehörigen Ausgangsvektoren des Systems abgeleitet werden können. Erfindungsgemäß wird folgendermaßen vorgegangen. Es wird eine Sammjung von Eingangsvektoren erstellt, die eine zufältige und gleichmäßige Verteilung im Eingangsraum haben, das heißt, ihre Eingangs-Kovarianzmatrix ist eine Einheitsmatrix. Das impliziert, daß die Ausgangs-Kovarianzmatrix der Ausgangsvektoren im Ausgangsraum nur Komponenten enthält, die sich auf die gesuchte Matrix beziehen. Die Diagonalisierung der Ausgangs-Kovarianzmatrix entsprechend des oben in bezug auf die Eigenvektoranalyse beschriebenen Verfahrens führt zu einer Gruppe von Grundvektoren im Ausgangsraum, die eine erste Transformationsmatrix definiert. Eine zugehörige zweite Transformationsmatrix mit den Grundvektoren für den Eingangsraum wird parallel dazu bestimmt. Diese Transformationsmatrizen definieren die Singulärwert-Zerlegung zusammen mit der Gruppe von verallgemeinerten Eigenwerten, die sowohl von den Grundvektoren als auch von den Messungen abgeleitet werden können, wie im folgenden beschrieben wird.
- Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im folgenden näher beschrieben. Es zeigen:
- Figur 1 ein Beispiel für eine Gaußsche Wahrscheinlichkeitsdichte-Funktion von zwei korrelierten Zufallsvariablen;
- Figur 2 die Formeln für das Diagramm aus Figur 1;
- Figur 3 die Konstruktion der aufeinanderfolgenden Schätzwerte zur Erzeugung eines Eigenvektors;
- Figur 4 die Formeln für die in Figur 3 dargestellte Konstruktion;
- Figur 5 die Formel zur Bestimmung der Eigenwerte;
- Figur 6 Beispiele von Gewichtungsfunktionen zur Bestimmung des vom inneren Produkt abhängigen Faktors;
- Figur 7 ein erstes Beispiel eines Ausführungsform einer erfindungsgemäßen Anordnung;
- Figur 8 ein zweites Beispiel einer Ausführungsform einer erfindungsgemäßen Anordnung;
- Figur 9 die Formeln für die Singulärwert-Zerlegung (SVD) im allgemeinen;
- Figur 10 die Formeln zur Bestimmung von aufeinanderfolgenden Schätzwerten für die Eigenvektoren, die bei der Singulärwert-Zerlegung eine Rolle spielen;
- Figur 11 die Formel zur Bestimmung der approximierten Singulärwerte;
- Figur 12 ein drittes Beispiel für die erfindungsgemäße Anordnung; und
- Figur 13 ein viertes Beispiel für die erfindungsgemäße Anordnung.
- Figur 1 zeigt ein Beispiel für eine Gaußsche Wahrscheinlichkeitsdichte- Funktion von Zufallsvariablen x und y, die die erwarteten oder mittleren Werte E(x) bzw. E(y) haben. Die geschlossenen Konturen stellen Kurven von konstanter Wahrscheinlichkeitsdichte dar. Die Wahrscheinlichkeit, daß die Variablen x und y Werte annehmen, die zu einer bestimmten Region in der x-y-Ebene gehören, entspricht dem Integral von f über diese Region. Die Abweichungen von diesen Zufallsvariablen in bezug auf ihre erwarteten Werte E(x) und E(y), das heißt: x-E(x) und y-E(y), stehen in wechselseitigem Zusammenhang, wie aus dem Diagramm in Figur 1 abgeleitet werden kann. Eine Zunahme des Wertes x-E(x) führt in diesem Beispiel statistisch zu einer Zunahme des Wertes y-E(y). Eine Größe, die diese Abhängigkeit oder Korrelation darstellt, ist die Kovarianz von x und y: cov(x,y), definiert als der Wert des Produktes (x-E(x)) (y-E(y)) gemittelt über die Wahrscheinlichkeitsdichte. Die Ausdrücke cov(x,x) und cov(y,y) geben die sogenannten Varianzen oder Standardabweichungen von x bzw. von y an, die ein Maß für die erwarteten Werte für die quadratische Abweichung vom jeweiligen Mittelwert E(x) bzw. E(y) sind. Je kleiner die Varianz, desto ausgeprägter ist die Wahrscheinlichkeitsdichte in der Nachbarschaft des Mittelwerts.
- Wenn das geordnete Paar (x,y) als ein Vektor betrachtet wird, der auf der Basis mit dem Einheitsvektor x und dem Einheitsvektor x dargestellt wird, ist die Kovarianzmatrix definiert als E (( -E( )) ( -E( )) mit den Diagonalenkomponenten cov(x,x) und cov(y,y) und den außerhalb der Diagonalen liegenden Komponenten cov(x,y) und cov(y,x).
- Da diese Kovarianzmatrix positiv symmetrisch ist, hat sie eine orthonormale Gruppe von Eigenvektoren, die eine weitere Basis p und q definiert, um darin jeden Vektor oder jede Matrix auszudrücken, die auf der Basis x und y ausgedrückt werden kann. Die Kovarianzmatrix hat die Form einer Diagonalmatrix, wenn sie auf ihre Eigenvektorbasis abgebildet wird, das heißt, ihre außerhalb der Diagonalen liegende Komponenten sind dann gleich Null.
- Diese diagonale Darstellung der Kovarianzmatrix macht die Tatsache sichtbar, daß die entsprechend transformierten Darstellungen der Vektoren sich jetzt auf die neuen Zufallsvariablen p und q beziehen, die lineare Kombinationen der Variablen x und y sind und die jetzt unkorreliert sind. Da die Kovarianzmatrix positiv endlich ist, stellen außerdem die Komponenten auf der Diagonalen, die die Eigenwerte der Kovarianzmatrix sind, jetzt die entsprechenden Varianzen cov(p,p) und cov(q,q) dar, die üblicherweise als ²p bzw. ²q bezeichnet werden.
- Wie bereits erwähnt, ist die Transformation zur Diagonalisierung der Kovarianzmatrix bekannt unter den Bezeichnungen: Eigenvektor-Transformation, Principal Components Transforms, Hotelling Transform, oder Karhunen-Loève Transform. Bei der Signalverarbeitung wird diese Transformation zum Beispiel benutzt, um die abhängigkeitsbezogenen Redundanzen im Signal zu Codierzwecken zu entfernen oder um die Signalenergie in einer kleinen Zahl von Koeffizienten zu konzentrieren, die dann bei der Datenkomprimierung vorteilhaft genutzt werden können. Da die Transformation eigentlich eine Rotation ist, kann sie außerdem benutzt werden, um bei der Bildverarbeitung Drehungen durchzuführen.
- In der Praxis wird davon ausgegangen, daß die oft unbekannte Wahrscheinlichkeitsfunktion durch eine Gaußsche Funktion, die in einer Reihenentwicklung als Term erster Ordnung betrachtet werden kann, gut approximiert wird. Die Gaußsche Dichte ist durch die Kovarianzmatrix und die Mittelwerte der Zufallsvariablen vollständig definiert. Außerdem wird die Gaußsche Eigenart der Wahrscheinlichkeitsdichte durch eine lineare Transformation nicht beeinflußt. Der allgemeine Ausdruck für eine N-dimensionale Gaußsche Wahrscheinlichkeitsdichte ist durch die Formel (i) in Figur 2 gegeben. Hier bezeichnet N die Dimension des Zufallsvektor-Raums, C steht für die entsprechende Kovarianzmatrix und C&supmin;¹ für ihren Kehrwert (C und C&supmin;¹ sind beide symmetrisch), wobei angenommen wird, daß die Determinante von C, bezeichnet mit C , nicht verschwindet. Die Vektoren und stellen den Zufallsvektor bzw. seinen erwarteten Wert dar.
- In Gleichung (i) aus Figur 2 enthält das Argument der Exponentialfunktion eine quadratische Funktion ( - ).C&supmin;¹.( - ). Die Abbildung des Vektors - auf die Basis, auf der C&supmin;¹ (und damit C) eine diagonale Form annimmt, transformiert das Argument in eine Summierung von homogenen quadratischen Termen. Aufgrund der Eigenschaften der Exponentialfunktion kann die gemeinsame Wahrscheinlichkeitsdichte nun in Faktoren unterteilt werden, die jeder eine eindimensionale Gaußsche Wahrscheinlichkeitsdichte in der in Formel (ii) aus Figur 2 angegebenen Form darstellen, und jeder mit einer geeigneten Varianz Σ²i und einem geeigneten Mittelwert µi.
- Geometrisch stellt die Eigenvektor-Transformation eine Rotation einer Fläche, auf der die quadratische Funktion ( - ).C&supmin;¹.(( - )) einen konstanten Wert annimmt, in einer Richtung dar, in der ihre Symmetrieachsen mit den (neuen) Koordinatenachsen zusammenfallen. Dies gilt auch in bezug auf die Gaußsche Dichtefunktion, da es sich hierbei um eine Funktion des obigen quadratischen Ausdrucks selbst handelt.
- Die Erfindung schlägt nun ein Verfahren zur Bestimmung von Approximationen der Eigenvektoren und Eigenwerte der Kovarianzmatrix in einer Reihenfolge von abnehmender statistischer Signifikanz vor. Dies wird unter Bezugnahme auf Figur 3 erläutert. Die Konturen im Diagramm aus Figur 3 geben wieder Flächen an, auf denen der quadratische Ausdruck, der sich auf die Kovarianzmatrix bezieht, und somit auch die Gaußsche Wahrscheinlichkeitsdichte konstante Werte annehmen. Der Ursprung der Koordinatenachsen x und y wurde in den Mittelwertort E(x) und E(y) in bezug auf Figur 1 umgesetzt. Bei der Konstruktion durch Vektoraddition, wie sie im folgenden erläutert wird, muß daher der Mittelwertort als Ursprung genommen werden. Die Aufgabe besteht nun darin, die Approximationen der Richtungen der Symmetrieachsen - angegeben durch p und q in bezug auf das xy-Koordinatensystem - der quadratischen Funktion und damit der Gaußschen Dichtefunktion zu finden. Dies erfolgt folgendermaßen.
- Als ein erster Schätzwert &sub1; für einen Eigenvektor wird ein Anfangsvektor &sub1; auf der Basis eines Kriteriums oder zufallsmäßig gewählt. Ein zweiter Schätzwert &sub2; wird erstellt, indem zuerst ein zweiter Vektor &sub2; gewählt wird und daraufhin der erste Schätzwert &sub1; und der zweite Vektor &sub2; linear kombiniert werden, wobei letzterer durch einen Faktor gewichtet ist, der der Vorzeichenfunktion für das innere Produkt ( &sub1;. &sub2;) entspricht. In dem gegebenen Beispiel impliziert dies das Addieren des Vektors minus&sub2; zu dem ersten Schätzwert &sub1;, um &sub2; zu erhalten. Ein dritter Schätzwert &sub3; und ein vierter Schätzwert &sub4; werden nach dem Wählen eines dritten Vektors &sub3; bzw. eines vierten Vektors &sub4; auf ähnliche Weise konstruiert. Die Formeln, die die obige Konstruktion zusammenfassen, sind in Figur 4 dargestellt.
- Aus dem Diagramm in Figur 3 kann abgeleitet werden, daß jeder nächste Schätzwert k+1 dazu neigt, einen kleineren Winkel mit der p-Achse zu ergeben, das heißt mit der Achse, die parallel zu dem Eigenvektor mit dem größten Eigenwert verläuft. Dieser Eigenvektor wird als statistisch signifikantester Eigenvektor bezeichnet. (Es ist zu beachten, daß das Verhältnis zwischen den jeweiligen Eigenwerten dem Verhältnis zwischen den Längen der entsprechenden Hauptachsen der gezeichneten Konturen entspricht.) Durch Vergrößern jedes nächsten Schätzwertes k+1 in Richtung seines Vorgängers k durch den Gewichtungsfaktor, der die Vorzeichenfunktion für das genannte innere Produkt enthält, wird jeder nächste Schätzwert k+1 weiter in die Richtung der Hauptachse entwickelt. Nach Beendigung dieses iterativen Vorgangs wird der letzte erhaltene Schätzwert als eine Approximation für den signifikantesten Eigenvektor genommen. Obwohl die obige Schilderung keinen strengen mathematischen Beweis darstellt, eignet sie sich doch zur Begründung der Idee.
- Um die anderen Eigenvektoren zu approximieren, sollten die hierfür in Betracht gezogenen Vektoren k in dem Teilraum orthogonal zu den bereits erhaltenen Approximationen, das heißt dem Orthoplement, liegen. Hierfür wird ein gewählter Vektor k seiner Komponenten entblößt, die in dem anderen Teilraum liegen, welcher durch die bereits erhaltenen Approximationen aufgespannt wird.
- Entsprechend einer weiteren Version des vorgeschlagenen Verfahrens sollten die Vektoren k zur Verwendung im Iterationsprozeß vorzugsweise Absolutwerte des inneren Produkts bei bereits erhaltenen und normalisierten Approximationen haben, die kleiner sind als eine vorgegebene Obergrenze. Die Orthogonalisierung wird daher aufgeschoben, bis der letzte Schätzwert erhalten ist. Auf diese Weise wird das Weglassen der obengenannten Komponenten bei jedem Iterationsschritt bis auf den letzten vermieden. Für jeden Vektor k sollte eine Berechnung des inneren Produktes durchgeführt werden, um zu entscheiden, ob er berücksichtigt werden sollte oder nicht. Darüber hinaus werden die Resultate des inneren Produkts vorzugsweise zur Berechnung der zu jeder Approximation gehörenden Varianz benutzt, so daß bereits ermittelte Ergebnisse effizient für einen anderen Zweck verwendet werden, was in bezug auf Figur 8 noch erläutert wird.
- Auf diese Weise ergibt die obige Strategie nacheinander die Approximationen der Eigenvektoren in der Reihenfolge abnehmender statistischer Signifikanz.
- Die Approximation des zu einem bestimmten Eigenvektor gehörenden Eigenwertes wird entsprechend den bekannten Regeln der Statistik bestimmt. Das heißt, die Beispiel-Varianz s² als Approximation der Varianz 02, die mit einem bestimmten Eigenvektor in bezug auf den Ursprung des Mittelwertes verbunden ist, ist durch die Formel aus Figur 5 gegeben, wobei k jedesmal den k-ten Vektor angibt, der zur Bestimmung dieses speziellen Eigenvektors benutzt wird, wie oben und in den Formeln von Figur 4 geschildert.
- Statt die (binäre) Vorzeichenfunktion (Figur 6 (a)) zu benutzen, um durch die Anwendung auf das innere Produkt inp den Gewichtungsfaktor wf zu erzeugen, wird vorzugsweise die (ternäre) modifizierte Vorzeichenfunktion aus Figur 6(b) benutzt, um nur diejenigen Vektoren zu berücksichtigen, die zu einer erheblichen Verbesserung des aktuellen Schätzwertes führen, wodurch die Anzahl der Operationen reduziert wird. Mit anderen Worten, es werden nur diejenigen Vektoren als für die aktuelle Approximation relevant erachtet, die dazu führen, daß das innere Produkt einen Absolutwert hat, welcher größer ist als eine vorgegebene Untergrenze B. Während des aktuellen Prozesses zur Bestimmung der Approximation eines bestimmten Eigenvektors werden einige Vektoren weggelassen, weil ihre inneren Produkte in diesem Prozeß zu klein sind und daher eine langsame Entwicklung zur Folge haben würden. Diese weggelassenen Vektoren liegen jedoch in einer Region des Vektorraums, die Vektoren liefern würde, welche zu erheblichen Werten des inneren Produktes führen, wenn sie in dem Prozeß zur Entwicklung der Approximationen der weiteren Eigenvektoren benutzt würden.
- Figur 7 stellt ein Diagramm eines ersten Beispiels einer Anordnung (2Q) zur Verarbeitung von Signaldaten dar, um nacheinander Schätzwerte für einen bestimmten Eigenvektor zu bestimmen.
- Die Anordnung 70 enthält einen Vektorgenerator 72 zur aufeinanderfolgenden Erzeugung von Vektoren k. Für k = 1 wird der erzeugte Vektor &sub1; über das Leitelement 74 zum Speicher 76 geleitet, um dort als ein erster Schätzwert für die Approximation des höchstwertigen Eigenvektors gespeichert zu werden. Jeder nächste erzeugte Vektor k+1 wird über das Leitelement 74 zum Register 78 geleitet, um dort gespeichert zu werden. Der in Register 78 gespeicherte Vektor und der in Speicher 76 hinterlegte vorhergehende Schätzwert k werden Mitteln für das innere Produkt 80 zur Berechnung des Wertes des inneren Produktes zugeführt. Der berechnete Wert des inneren Produktes wird durch die Funktionsmittel 82 bearbeitet, zum Beispiel durch die Vorzeichenfunktion entsprechend Figur 6a oder durch die modifizierte Vorzeichenfuktion entsprechend Figur 6b. Der Ausgang der Funktionsmittel 82 liefert den Faktor zur Gewichtung des aktuellen Vektors k+1, der in Register 78 gespeichert ist. Zu diesem Zweck erhält das Multipliziermittel 84 sowohl den Faktor als auch den aktuellen Vektor k+1, um den gewichteten Vektor zu erzeugen, der in dem Addierer 86 zu dem vorhergehenden, in Speicher 76 hinterlegten Schätzwert k zu addieren ist. Das Addierergebnis k+1 wird daraufhin in Speicher 76 gespeichert, um den vorhergehenden Schätzwert k zu ersetzen. Vorzugsweise werden die Operationen mit dem inneren Produkt im Mittel für das innere Produkt 80, die Multiplikationen im Multipliziermittel 84 und die Summier-Operationen im Addierer 86 jeweils parallel in bezug auf die entsprechenden Vektorkomponenten ausgeführt. Vorzugsweise ist der Speicher 76 von einem Typ, der das parallele Schreiben und das parallele Lesen der Vektorkomponenten erlaubt.
- Es ist zu beachten, daß bei der Ausführung der Voneichenfunktions- Operation durch das Funktionsmittel 82 entweder der Vektor k+1 einfach in dem Multipliziermittel 84 zu invertieren ist oder dem Addierer 86 direkt zuzuführen ist. In diesem Fall ist das Multipliziermittel ein einzelner Inverter, der den Inhalt des Registers 78 invertiert. Die für jeden iterativen Vorgang für die Berechnung der Approximation eines bestimmten Eigenvektors erzeugten Vektoren sollten orthogonal zu der bereits bestimmten Approximation sem.
- In Figur 8 ist ein zweites Diagramm eines Beispiels für eine erfindungsgemäße Anordnung dargestellt. Gleiche oder den Teilen der Anordnung aus Figur 7 ähnliche Teile sind mit den gleichen Bezugszeichen versehen. Die abgebildete Anordnung 90 wurde im Vergleich zu der Anordnung 70 aus Figur 7 erweitert, indem ein Entscheidungsmittel 100 hinzugefügt wurde, um zu entscheiden, ob ein aktueller Vektor k+1, der durch den Vektorgenerator 72 erzeugt wurde, bei der Vektorkonstruktion gemäß Figur 3, die zu einer Approximation des relevanten Eigenvektors führt, eine Rolle spielen soll.
- Um die Approximation des höchstrangigen Eigenvektors (mit der höchsten Signifikanz) zu bestimmen, wurde das Entscheidungsmittel IQQ außer Betracht gelassen, da die Anordnung 90 auf ähnliche Weise funktioniert wie die Anordnung 70 aus der vorhergehenden Figur 7. Nach der Bestimmung des letzten erhaltenen Schätzwertes des ersten Eigenvektors wird dieser auf Eins normalisiert und als erster Grundvektor im Basisspeicher 102 gespeichert.
- Um jede nächste Approximation zu bestimmen, funktioniert die Anordnung 90 folgendermaßen. Ein erster erzeugter Vektor wird im Entscheidungsmittel 100 untersucht, um zu bestimmen, ob er bei den zuvor ermittelten Grundvektoren zu Werten des inneren Produktes führt, die klein genug sind, um sie bei der Vektorkonstruktion zu berücksichtigen.
- Falls die Werte des inneren Produktes klein genug sind, wird der Vektor &sub1; über das Leitelement 74 direkt dem Speicher 76 zugeführt. Wenn Vektor den Test nicht besteht, wird er bei der Vektorkonstruktion weggelassen und es wird ein nächster Vektor erzeugt. Jeder nächste erzeugte Vektor k+1, der den Test bestanden hat, wird in das Register 78 geladen, von wo aus der Prozeß fortgesetzt wird, wie in bezug auf Figur 7 beschrieben. Nach Erhalt des letzten Schätzwertes für den aktuellen Eigenvektor wird dieser in bezug auf die in Speicher 102 gespeicherten Grundvektoren orthogonalisiert und auf Eins normalisiert, um im Basisspeicher 102 gespeichert zu werden.
- Wenn die Gruppe der Vektoren , die durch den Vektorgenerator 72 erzeugt wurde, bei jedem iterativen Prozeß, der zu der zugehörigen Approximation führt, abweicht, wird die Varianz entsprechend der Formel aus Figur 5 berechnet, indem die bestimmte Gruppe zusammen mit dem socben bestimmten zugehörigen Grundvektor erneut in das Mittel für das innere Produkt 104 eingeführt wird. Der Eingang des Quadrierelementes 106 ist mit dem Ausgang des Mittels für das innere Produkt 104 verbunden, um jeden Wert des inneren Produktes zu quadrieren. Daraufhin werden diese quadrierten Werte summiert und durch die Anzahl der Vektoren k geteilt, die während des iterativen Prozesses erzeugt wurden, und zwar sowohl die Exemplare, die für die Vektorkonstruktion berücksichtigt wurden, als auch die Exemplare die aufgrund ihrer zu kleinen Werte des inneren Produktes außer acht gelassen wurden.
- Wenn die gleiche Gruppe von Vektoren für jeden iterativen Prozeß benutzt wird, können mehrere Operationen, die sich auf die Prüfung des Wertes des inneren Produktes und die Berechnung der Varianz beziehen, folgendermaßen miteinander verflochten sein.
- Die Prüfung des Wertes des inneren Produktes wird über das Mittel für das innere Produkt 104, das Quadriermittel 106 und einen Komparator 108 durchgeführt. Die quadrierten Werte des inneren Produktes werden in einem untergeordneten Speicher (nicht abgebildet) zur Verwendung in den Varianzberechnungen gespeichert. Während jedes iterativen Prozesses brauchen nur die neuen Werte des inneren Produktes berechnet zu werden, das beißt, nur die Werte des inneren Produktes in bezug auf den zuletzt erhaltenen Grundvektor sind zu bestimmen. Diese Ergebnisse bilden zusammen mit den im untergeordneten Speicher (nicht abgebildet) gespeicherten Werten die Kriterien für die Entscheidung, ob der aktuelle Vektor zu der Vektorkonstruktionsphase weitergelangen kann oder nicht. Diese neuen Werte des inneren Produktes sind jedoch genau diejenigen, die für die Berechnung der zu dem zuvor (zuletzt) erhaltenen Grundvektor gehörenden Varianz benötigt werden. Aus diesem Grunde wird die zu dem Grundvektor k gehörende Varianz in der Vektorkonstruktionsphase für den Grundvektor k+1 bestimmt.
- Erst nach Beendigung der Suche des nächsten Grundvektors muß der zuletzt erhaltene erneut in das Mittel für das innere Produkt 104 eingeführt werden, um die zugehörige Varianz zu erzeugen.
- Die Singulärwert-Zerlegung (Singular Value Decomposition, SVD) einer mxn Datenmatrix entsprechend des erfindungsgemäßen Verfahrens, das die oben bereits erläuterte Eigenvektoranalyse umfaßt, wird im folgenden beschrieben. Es ist zu beachten, daß im Bereich der Signalverarbeitung zahlreiche Anwendungen auf die Singulärwert-Zerlegung zurückgreifen, wie bereits oben erwähnt.
- Der Zusammenhang, mit dem begonnen wird, ist in Formal (i) in Figur 9 dargestellt, wobei x ein Eingangsvektor im n-dimensionalen Eingangsraum ist und zu einem Ausgangsvektor y im m-dimensionalen Ausgangsraum führt, der durch eine Lineartransformation, welche durch die Matrix A verkörpert wird, mit in Beziehung gesetzt wird.
- Da die Matrix A im allgemeinen unbekannt ist, werden Messungen durchgeführt, um exemplarische Paare ( µ, µ von Eingangsvektoren µ zu erzeugen, die mit den zugehörigen Ausgangsvektoren µ verbunden sind. Es wird angenommen, daß die exemplarischen Eingangsvektoren µ zufällig und gleichmäßig in einer solchen Region des Eingangsraums verteilt sind, daß die Eingangsvektorkomponenten von verschiedenen Rängen unkorreliert sind, während die zugehörigen Varianzen gleich Eins sind. Diese Charakterisierung wird durch die Formel (ii) in Figur 9 ausgedrückt. Hier hat die Eingangs- Kovarianzmatrix < > die Form einer diagonalen Einheitsmatrix. Demzufolge hat die Ausgangs-Kovarianzmatrix < > die in Formel (iii) aus Figur 9 dargestellte Form. Das bedeutet, < > entspricht einer symmetrischen Matrix AAT, die sich aus dem Matrixprodukt von Matrix A und ihrer transponierten Version AT zusammensetzt.
- Die symmetrische Matrix wird mit Hilfe einer Transformationsmatrix V&sub1; diagonalisiert, wobei ihre Spalten eine Darstellung der Eigenvektoren der symmetrischen Matrix bilden (Formel (iv)). Hier liegen die Eigenvektoren der Matrix AAT im Ausgangsraum. Die Matrix AAT ist vom Rang r, das heißt, sie hat eine Anzahl von r Eigenwerten größer als Null. Das gleiche gilt für die zu diagonalisierende symmetrische Matrix ATA im Eingangsraum - unter der Voraussetzung, daß die diagonale Form jetzt über eine nxr Transformationsmatrix U&sub1; erreicht wird, die aus den Eigenvektoren von ATA im Eingangsraum besteht (Formel (v)). Es kann abgeleitet werden, daß die Matrix A als rechter Ausdruck in der Formel (vi) aus Figur 9 geschrieben werden kann. Die Matrix Σ&sub1; umfaßt sogenannte Singulärwerte, die mit den in Σ&sub1;² enthaltenen Eigenwerten verbunden sind. Der Ausdruck von Formel (vi) wird im allgemeinen als die Singulärwert-Zerlegung bezeichnet.
- Auf der Grundlage der Messungen wird somit eine Ausgangs-Kovarianzmatrix konstruiert, die symmetrisch ist und Informationen zu der angenommenen Linearität des betrachteten Systems enthält. Entsprechend dem bereits oben in bezug auf Figur 3 erläuterten Verfahren werden die Eigenvektoren dieser symmetrischen Matrix nacheinander approximiert, wobei normalisierte Versionen hiervon die Spalten der Transformationsmatrix V&sub1; bilden. Wie durch Formel (vii) aus Figur 9 deutlich gemacht werden kann, muß in jedem iterativen Schritt zur Erzeugung eines nächsten Schätzwertes für einen bestimmten Eigenvektor im Ausgangsraum der zugehörige Eingangsvektor entsprechend transformiert werden, um schließlich einen zugehörigen Eigenvektor im Eingangsraum zu erzeugen. Es ist zu beachten, daß aufgrund der Gleichförmigkeit der Verteilung der exemplarischen Eingangsvektoren die Eingangs-Kovarianzmatrix bereits in diagonaler Form vorliegt (Formel (ii) in Figur 9). Infolgedessen würde jede zusätzliche Basis im Eingangsraum die Eingangs-Kovarianzmatrix in ihrer diagonalen Einheitsform halten. Formel (vii) aus Figur 9 stellt jedoch die Einschränkung für die Auswahl der Eingangsraumbasis dar.
- Die obige Konstruktion für die aufeinanderfolgenden Schätzwerte eines bestimmten Ausgangs-Eigenvektors v und des zugehörigen Eingangs-Eigenvektors u ist in Figur 10 formuliert, wobei die Bezeichnung k für den k-ten Schätzwert für den Ausgangs-Eigenvektor reserviert ist und die Bezeichnung bk für den zugehörigen k-ten Schätzwert des entsprechenden Eingangs-Eigenvektors u reserviert ist.
- Für alle exemplarischen Eingangs-Ausgangs-Paare gilt der Zusammenhang von Formel (i), der die lineare Beziehung zwischen dem Eingangsvektor k und dem zugehörigen Ausgangsvektor k widerspiegelt. Als ein erster Schätzwert &sub1; für v wird ein bestimmter Ausgangsvektor k gewählt, und als ein erster Schätzwert für gewählt wird der zugehörige Eingangsvektor &sub1; gewählt. Die Ableitung jedes nächsten Schätzwertes k+1 ist in Formel (üi) von Figur 10 angegeben und entspricht der Ableitung, wie sie in bezug auf Figur 4 erläutert wurde. Um den Zusammenhang von Formel (iv) in Figur 10 beizubehalten, das heißt die lineare Beziehung zwischen den entsprechenden Schätzwerten, wie sie durch Formel (vii) aus Figur 9 gerechtfertigt ist, muß der nächste Schätzwert k+1 entsprechend Formel (v) aus Figur 10 bestimmt werden. Die Vorzeichenfunktion für das innere Produkt kann auch durch die modifizierte Vorzeichenfunktion ersetzt werden, wie in bezug auf Figur 6 erläutert.
- Nach Beendigung des iterativen Prozesses wird jeder Schätzwert k+1 und k+1 auf Eins normalisiert, um die entsprechenden Einheitslängen-Grundvektoren darzustellen. Die Singulärwerte selbst werden bestimmt, wie in bezug auf die Formeln aus Figur 11 erläutert wird. In Formel (i) aus Figur 11 ist der lineare Zusammenhang zwischen Eingangsvektor und Ausgangsvektor als Index geschrieben, wobei jeder Index, der in einem bestimmten Term zweimal auftritt, eine Summierung über diesen Index darstellt. Formel (ii) stellt auf diese Weise die Indexschreibweise der Formel (vi) aus Figur 9 dar, wobei il und jl die jeweiligen Komponenten der Matrizen V&sub1; bzw. U&sub1; sind. Setzt man den Ausdruck (ii) von Figur 11 in die Formel (i) aus Figur 11 ein, so erhält man den Ausdruck (iii), wobei die rechte Seite jetzt ein inneres Produkt enthält, das sich auf den Vektor und den Einheitslängen-Eingangsgrundvektor &sub1; von Rang 1 bezieht. Nach der Multiplikation beider Seiten mit dem Einheitslängen-Ausgangsgrundvektor &sub1; wird der zugehörige Singulärwert &sub1; durch den Quotienten der inneren Produkte . &sub1;) und ( . &sub1;) bestimmt. Die Mittelwertbildung über alle exemplarischen Paare ergibt schließlich die Approximation für den Eigenwert &sub1;, wie in Formel (iv) aus Figur 11 angegeben.
- In der Tat werden die Ausgangsgrundvektoren bei der Singulärwert-Zerlegung auf die gleiche Weise berechnet wie die Eigenvektoren bei der Eigenvektoranalyse. Aus diesem Grunde ist die Anordnung, wie sie zur Implementierung der Eigenvektoranalyse vorgeschlagen wurde, in einer Anordnung zur Implementierung der Singulärwert-Zerlegung enthalten. Weitere Berechnungsmittel zur entsprechenden Berechnung der Eingangsgrundvektoren und der Singulärwerte sind dann hinzuzufügen. Dies ist in der Anordnung entsprechend Figur 12 dargestellt. Die abgebildete exemplarische Anordnung 120 führt die oben erläuterte Singulärwert-Zerlegung aus. Zu diesem Zweck enthält sie einen Vektorgenerator 122 zum Erzeugen der Ausgangsvektoren und der Eingangsvektoren , wobei jeder Ausgangsvektor in linearem Zusammenhang mit einem entsprechenden Eingangsvektor steht. Die entsprechenden Ausgangsvektoren werden dem Ausgangsbasiskalkulator 124 zugeführt, der zum Beispiel eine Anordnung wie in Figur 7 oder Figur 8 dargestellt enthält und oben beschrieben wurde. Der Ausgangsbasiskalkulator 124 berechnet die jeweiligen Ausgangsgrundvektoren, das heißt die Spalten der Matrix V&sub1; in Formel (vi) von Figur 9. Die Eingangsvektoren werden dem Eingangskalkulator 126 zur Berechnung der Eingangsgrundvektoren zugeführt, das heißt der Spalten von Matrix U&sub1; in Formel (vi) aus Figur 9.
- Die entsprechenden Teile des Eingangskalkulators 126 werden mit den gleichen Bezugszeichen bezeichnet wie in den Figuren 7 und 8 und führen die gleichen Aufgaben aus, wie entsprechend beschrieben. Zur Berechnung eines bestimmten Eingangsgrundvektors wird also ein erster Schätzwert &sub1; über das Leitelement 74 in den Speicher 76 geladen. Für jeden nächsten Schätzwert wird ein nächster Eingangsvektor k+1 über das Leitelement 74 in das Multipliziermittel 84 eingegeben, um mit dem relevanten Faktor multipliziert zu werden, der vom Ausgangsbasiskalkulator 124 geliefert wird. Das Multiplikationsergebnis wird daraufhin in einen Addierer 86 geladen, um zu dem vorhergehenden Schätzwert addiert zu werden, der in Speicher 76 gespeichert ist. Nach Beendigung dieses iterativen Vorgangs hinsichtlich des bestimmten Eingangsvektors wird der zuletzt erhaltene Schätzwert auf Eins normalisiert, um als entsprechender Grundvektor zu dienen.
- Es ist zu beachten, daß in einer erfindungsgemäßen Anordnung die folgenden Teile ausschließlich vorhanden sind, um sowohl in der Berechnung des Ausgangs-Schätzwertes als auch in der Berechnung des Eingangs-Schätzwertes benutzt zu werden: das Leitelement 74, das Multipliziermittel 84, der Addierer 86. Dies ist in Figur 13 dargestellt.
- Figur 13 zeigt ein viertes Beispiel einer erfindungsgemäßen Anordnung 130. Die Bezugszeichen beziehen sich auf gleiche Teile wie in den Figuren 7, 8 und 12 angegeben. Der Vektorgenerator 122, der zum Beispiel die Kombination aus den Teilen 72 und 100 von Figur 8 enthalten kann, führt die Vektoren dem Leitelement 74 zu, das jetzt die entsprechenden Ausgangsvektoren entweder direkt dem Speicher 76 oder dem Register 78 sendet, wie in bezug auf die Figuren 7 und 8 beschrieben, und die entsprechenden Eingangsvektoren entweder direkt dem Speicher 76 oder dem Multipliziermittel 84 sendet, wie in bezug auf Figur 12 beschrieben.
Claims (9)
1. Verfahren zur Verarbeitung von Signaldaten mit einer
Datenverarbeitungsanordnung, wobei das Verfahren die Bestimmung einer Approximation an einen
höchstwertigen Eigenvektor einer Kovarianzmatrix umfaßt, die mit den als Vektoren in einem
Vektorraum dargestellten Signaldaten verbunden ist, dadurch gekennzeichnet, daß die
Bestimmung zur Steigerung der Verarbeitungsgeschwindigkeit in der Anordnung
folgendes umfaßt:
- Annehmen eines Anfangsvektors 81 im genannten Vektorraum als einen ersten
Schätzwert c&sub1;;
- Durchführen einer Iteration mit folgenden Schritten für jeden nächsten Schätzwert
ck+1:
- Annehmen eines nächsten Vektors k+ 1 im genannten Vektorraum;
- Bestimmen von mindestens einer Polarität eines Skalarproduktes ck θk+1
eines vorhergehenden Schätzwertes mit dem nächsten Vektor;
- Annehmen einer Summe des vorhergehenden Schätzwertes und des nächsten
Vektors als den nächsten Schätzwert ck+1 , wobei der nächste Vektor durch einen
Faktor gewichtet ist, welcher vom Skalarprodukt abhängt, um den nächsten Schätzwert
in der Richtung des vorhergehenden Schätzwertes zu erhöhen;
- nach Beendigung der Iteration Nehmen des höchstwertigen Eigenvektors parallel zu
einem zuletzt erhaltenen ck+1 der nächsten Schätzwerte.
2. Verfahren nach Anspruch 1, das die Bestimmung einer weiteren
Approximation an einen weiteren Eigenvektor umfaßt, wobei die Bestimmung der weiteren
Approximation folgendes umfaßt:
- Annehmen eines weiteren Anfangsvektors in einem Teilraum des genannten
Vektorraums als einen ersten weiteren Schätzwert, wobei der Teilraum im wesentlichen schräg
zu allen zuvor bestimmten Eigenvektoren verläuft;
- Durchführen einer Iteration mit den folgenden Schritten für jeden nächsten weiteren
Schätzwert:
- Annehmen eines nächsten weiteren Vektors im genannten Teilraum;
- Bestimmen von mindestens einer Polarität eines weiteren Skalarproduktes
eines vorhergehenden weiteren Schätzwertes mit dem nächsten weiteren Vektor;
- Annehmen einer Summe des vorhergehenden weiteren Schätzwertes und des
nächsten weiteren Vektors als den nächsten weiteren Schätzwert, wobei der nächste
weitere Vektor durch einen Faktor gewichtet ist, welcher vom weiteren Skalarprodukt
abhängt, um den nächsten weiteren Schätzwert in der Richtung des vorhergehenden
weiteren Schätzwertes zu erhöhen;
- nach Beendigung der Iteration Nehmen des weiteren Eigenvektors parallel zu einem
zuletzt erhaltenen der nächsten weiteren Schätzwerte
3. Verfahren nach Anspruch 1, das folgendes umfaßt:
- den Faktor gleich Eins machen, wenn die Polarität positiv ist, oder minus Eins
machen, wenn die Polarität negativ ist.
4. Verfahren nach Anspruch 1 oder 3, das folgendes umfaßt:
- Bestimmen, ob das Skalarprodukt einen Absolutwert hat, der kleiner ist als ein
vorgegebener Schwellwert;
- den Faktor gleich Null setzen, wenn der Absolutwert kleiner ist als der Schwellwert.
5. Verfahren nach Anspruch 1 oder 2, benutzt für die Datenkomprimierung,
wobei mindestens der höchstwertige der Eigenvektoren gespeichert oder als eine
Darstellung der Signaldaten übertragen wird.
6. Verfahren nach Anspruch 1, 2 oder 5, angewendet auf die Verarbeitung
von Signaldaten, die Bilddaten oder Sprachdaten enthalten.
7. Verfahren nach Anspruch 1, 2, 5 oder 6, angewendet auf die
Datenkomprimierung.
8. Datenverarbeitungsanordnung zur Verarbeitung von Signaldaten durch die
Bestimmung von mindestens einer Approximation an einen höchstwertigen Eigenvektor
einer Kovarianzmatrix, die mit den als Vektoren in einem Vektorraum dargestellten
Signaldaten verbunden ist, dadurch gekennzeichnet, daß die Bestimmung zur Steigerung
der Verarbeitungsgeschwindigkeit in der Anordnung folgendes umfaßt:
- einen Speicher (76) zum Speichern eines Anfangsvektors des genannten Vektorraums
als einen ersten Schätzwert;
- Mittel zur Durchführung (78, 80, 82, 84, 86) einer Iteration mit den folgenden
Schritten für jeden nächsten Schätzwert
- Annehmen eines nächsten Vektors im genannten Vektorraum;
- Bestimmen eines Skalarproduktes eines vorhergehenden Schätzwertes mit dem
nächsten Vektor;
- Bestimmen einer Summe des vorhergehenden Schätzwertes und des nächsten
Vektors als den nächsten Schätzwert, wobei der nächste Vektor mit einem Faktor
multipliziert wird, welcher vom Wert des Skalarprodukts abhängt;
- Speichern des nächsten Schätzwertes im Speicher;
- Mittel zum Liefern des höchstwertigen Eigenvektors parallel zu einem zuletzt
erhaltenen der nächsten Schätzwerte nach Beendigung der Iteration.
9. Anordnung nach Anspruch 8, wobei die Durchführungsmittel folgendes
umfassen:
- ein Register (78) zum Speichern des nächsten Vektors;
- Polaritätsmittel (80, 82), die mit dem Register und dem Speicher verbunden sind, um
die Polarität des Skalarproduktes zu ermitteln;
- Summiermittel (84, 86) zum Bestimmen der Summe unter der Steuerung der
Polaritätsmittel.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP90400875A EP0448890B1 (de) | 1990-03-30 | 1990-03-30 | Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69031866D1 DE69031866D1 (de) | 1998-02-05 |
DE69031866T2 true DE69031866T2 (de) | 1998-06-18 |
Family
ID=8205694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69031866T Expired - Fee Related DE69031866T2 (de) | 1990-03-30 | 1990-03-30 | Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation |
Country Status (4)
Country | Link |
---|---|
US (2) | US5379352A (de) |
EP (1) | EP0448890B1 (de) |
JP (1) | JPH04330556A (de) |
DE (1) | DE69031866T2 (de) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69031866T2 (de) * | 1990-03-30 | 1998-06-18 | Koninkl Philips Electronics Nv | Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation |
US5719024A (en) * | 1993-08-18 | 1998-02-17 | Applied Spectral Imaging Ltd. | Method for chromosome classification by decorrelation statistical analysis and hardware therefore |
FR2690771A1 (fr) * | 1992-04-29 | 1993-11-05 | Philips Electronique Lab | Processeur neuronal muni de moyens pour normaliser des données. |
US6009123A (en) * | 1994-04-01 | 1999-12-28 | Fujitsu Limited | Process and system for transferring vector signal with precoding for signal power reduction |
US5680409A (en) * | 1995-08-11 | 1997-10-21 | Fisher-Rosemount Systems, Inc. | Method and apparatus for detecting and identifying faulty sensors in a process |
US6134537A (en) * | 1995-09-29 | 2000-10-17 | Ai Ware, Inc. | Visualization and self organization of multidimensional data through equalized orthogonal mapping |
DE19609859C1 (de) * | 1996-03-13 | 1997-07-24 | Siemens Ag | Verfahren zur Bildung einer Bild-Transformationsmatrix für ein beliebig geformtes Bildsegment eines digitalen Bildes, durch einen Rechner |
US5887074A (en) * | 1996-12-13 | 1999-03-23 | Siemens Corporate Research, Inc. | Local principal component based method for detecting activation signals in functional MR images |
US5995927A (en) * | 1997-03-14 | 1999-11-30 | Lucent Technologies Inc. | Method for performing stochastic matching for use in speaker verification |
US7085393B1 (en) | 1998-11-13 | 2006-08-01 | Agere Systems Inc. | Method and apparatus for regularizing measured HRTF for smooth 3D digital audio |
AUPQ136299A0 (en) * | 1999-07-02 | 1999-07-22 | Microsystem Controls Pty Ltd | Coin validation |
KR100316720B1 (ko) * | 2000-01-20 | 2001-12-20 | 윤종용 | 통계적 기법을 이용하여 데이터를 압축 및 재현하는 방법 |
JP3672234B2 (ja) * | 2000-06-12 | 2005-07-20 | インターナショナル・ビジネス・マシーンズ・コーポレーション | データベースからのドキュメントのリトリーブ・ランク付け方法、コンピュータシステム、および記録媒体 |
US6675106B1 (en) | 2001-06-01 | 2004-01-06 | Sandia Corporation | Method of multivariate spectral analysis |
US6584413B1 (en) | 2001-06-01 | 2003-06-24 | Sandia Corporation | Apparatus and system for multivariate spectral analysis |
WO2004061702A1 (en) | 2002-12-26 | 2004-07-22 | The Trustees Of Columbia University In The City Of New York | Ordered data compression system and methods |
WO2004063964A2 (en) * | 2003-01-07 | 2004-07-29 | Hach Company | Classification of deviations in a process |
US7400772B1 (en) * | 2003-05-20 | 2008-07-15 | Sandia Corporation | Spatial compression algorithm for the analysis of very large multivariate images |
WO2004111930A2 (en) * | 2003-05-30 | 2004-12-23 | Rabinovich Andrew M | Color unmixing and region of interest detection in tissue samples |
US7523076B2 (en) | 2004-03-01 | 2009-04-21 | Tokyo Electron Limited | Selecting a profile model for use in optical metrology using a machine learning system |
US7280229B2 (en) | 2004-12-03 | 2007-10-09 | Timbre Technologies, Inc. | Examining a structure formed on a semiconductor wafer using machine learning systems |
US7421414B2 (en) | 2005-03-31 | 2008-09-02 | Timbre Technologies, Inc. | Split machine learning systems |
US20070230774A1 (en) * | 2006-03-31 | 2007-10-04 | Sony Corporation | Identifying optimal colors for calibration and color filter array design |
US8761248B2 (en) * | 2006-11-28 | 2014-06-24 | Motorola Mobility Llc | Method and system for intelligent video adaptation |
US7949618B2 (en) | 2007-03-28 | 2011-05-24 | Tokyo Electron Limited | Training a machine learning system to determine photoresist parameters |
US7372583B1 (en) | 2007-04-12 | 2008-05-13 | Tokyo Electron Limited | Controlling a fabrication tool using support vector machine |
US7483809B2 (en) | 2007-04-12 | 2009-01-27 | Tokyo Electron Limited | Optical metrology using support vector machine with profile parameter inputs |
US7511835B2 (en) | 2007-04-12 | 2009-03-31 | Tokyo Electron Limited | Optical metrology using a support vector machine with simulated diffraction signal inputs |
US20100231725A1 (en) * | 2009-03-16 | 2010-09-16 | Sony Corporation, A Japanese Corporation | Illuminant independent color calibration using colored rays approach |
US8530838B2 (en) * | 2009-12-29 | 2013-09-10 | Saint-Gobain Ceramics & Plastics, Inc. | Radiation detection system and method of indicating presence of radiation |
JP5524692B2 (ja) * | 2010-04-20 | 2014-06-18 | 富士フイルム株式会社 | 情報処理装置および方法ならびにプログラム |
US10341555B2 (en) * | 2011-12-02 | 2019-07-02 | Chromologic Llc | Characterization of a physical object based on its surface roughness |
US20150120392A1 (en) * | 2013-10-25 | 2015-04-30 | Cellco Partnership (D/B/A Verizon Wireless) | Ranking of Store Locations Using Separable Features of Traffic Counts |
CN106297820A (zh) * | 2015-05-14 | 2017-01-04 | 杜比实验室特许公司 | 具有基于迭代加权的源方向确定的音频源分离 |
EP3418831B1 (de) * | 2017-06-19 | 2023-08-16 | C.R.F. Società Consortile per Azioni | Verfahren zur durchführung eines rauschentfernungsvorgangs auf von einem sensor erfassten signalen und system daraus |
US11131607B2 (en) | 2019-05-02 | 2021-09-28 | Caterpillar Inc. | Modal analysis for damage rate measurement and prediction |
US11740327B2 (en) * | 2020-05-27 | 2023-08-29 | Qualcomm Incorporated | High resolution and computationally efficient radar techniques |
WO2022167658A1 (en) * | 2021-02-05 | 2022-08-11 | Deepmind Technologies Limited | Determining principal components using multi-agent interaction |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3754128A (en) * | 1971-08-31 | 1973-08-21 | M Corinthios | High speed signal processor for vector transformation |
US4945502A (en) * | 1988-12-27 | 1990-07-31 | Eastman Kodak Company | Digital image sharpening method using SVD block transform |
DE69031866T2 (de) * | 1990-03-30 | 1998-06-18 | Koninkl Philips Electronics Nv | Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation |
-
1990
- 1990-03-30 DE DE69031866T patent/DE69031866T2/de not_active Expired - Fee Related
- 1990-03-30 EP EP90400875A patent/EP0448890B1/de not_active Expired - Lifetime
-
1991
- 1991-03-28 JP JP3087349A patent/JPH04330556A/ja active Pending
-
1993
- 1993-05-24 US US08/066,406 patent/US5379352A/en not_active Expired - Fee Related
-
1994
- 1994-08-31 US US08/298,920 patent/US5583951A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP0448890B1 (de) | 1997-12-29 |
JPH04330556A (ja) | 1992-11-18 |
US5379352A (en) | 1995-01-03 |
EP0448890A1 (de) | 1991-10-02 |
DE69031866D1 (de) | 1998-02-05 |
US5583951A (en) | 1996-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69031866T2 (de) | Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation | |
DE69838181T2 (de) | Visualisierung und selbstorganisation multidimensionaler daten durch ausgeglichene orthogonale abbildung | |
Drucker et al. | Boosting decision trees | |
DE69324052T2 (de) | Neuronalnetzwerk-Lernsystem | |
DE60133840T2 (de) | Vorrichtung und verfahren zur erzeugung einer dreidimensionalen darstellung aus einem zweidimensionalen bild | |
Blayo et al. | Data analysis: How to compare Kohonen neural networks to other techniques? | |
DE60019786T2 (de) | Identifizierung oder überprüfung von objektklassen, oder erzeugung von objektbildern | |
DE69222707T2 (de) | Zeichenverdünnung mit Verwendung des Auftrittsverhaltens von lokal unabhängigen kompetitiven Prozessen | |
DE102021200012A1 (de) | Optimierte quantisierung für neuronale netze mit verringerter auflösung | |
DE4217832C2 (de) | Mustererkennungsgerät | |
DE60036138T2 (de) | Nichtlineares datenabbildungs- und dimensionalitätsreduktionssystem | |
Pakshin et al. | Iterative learning control of a multiagent system under random perturbations | |
EP0925541B1 (de) | Verfahren und vorrichtung zur rechnergestützten generierung mindestens eines künstlichen trainingsdatenvektors für ein neuronales netz | |
DE69517249T2 (de) | Anordnung zur segmentierung eines diskreten datensatzes | |
DE69710207T2 (de) | Verfahren und gerät zur mustererkennung mit verwendung eines in unterkategorieen unterverteilten lexikons | |
DE60021888T2 (de) | Fehlergrenzenmodell zur identifizierung von stochastischen modellen fuer einen steuerungsentwurf | |
Sum et al. | A note on the equivalence of NARX and RNN | |
WO2023232175A1 (de) | Verfahren zur bestimmung von grundzustandsenergien eines physikalischen systems mittels eines quantencomputers | |
DE69619154T2 (de) | Verfahren und Vorrichtung zur Mustererkennung | |
DE69703663T2 (de) | Lernverfahren für die klassifizierung von durch eine trennfläche erster oder zweiter ordnung in zwei klassen getrennten daten | |
DE69328596T2 (de) | Optimierung eines Neuralnetzwerks mit Vorwärtskopplung | |
Huang et al. | The ODE method and spectral theory of Markov operators | |
DE102022101766A1 (de) | Quantisierungsverfahren und Quantisierungsvorrichtung für ein neuronales Netz | |
DE102020123155A1 (de) | Quantisierungsverfahren eines künstlichen neuronalen Netzwerks und Operationsverfahren unter Verwendung eines künstlichen neuronalen Netzwerks | |
DE102021104181A1 (de) | Bildverbesserung für realitätsnähe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: LABORATOIRES D'ELECTRONIQUE PHILIPS S.A.S., LIMEIL |
|
8339 | Ceased/non-payment of the annual fee |