DE69031866T2 - Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation - Google Patents

Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation

Info

Publication number
DE69031866T2
DE69031866T2 DE69031866T DE69031866T DE69031866T2 DE 69031866 T2 DE69031866 T2 DE 69031866T2 DE 69031866 T DE69031866 T DE 69031866T DE 69031866 T DE69031866 T DE 69031866T DE 69031866 T2 DE69031866 T2 DE 69031866T2
Authority
DE
Germany
Prior art keywords
vector
estimate
eigenvector
determining
previous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69031866T
Other languages
English (en)
Other versions
DE69031866D1 (de
Inventor
Jacques-Ariel Sirat
Didier E Zwierski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Laboratoires dElectronique Philips SAS
Original Assignee
Laboratoires dElectronique Philips SAS
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Laboratoires dElectronique Philips SAS, Koninklijke Philips Electronics NV filed Critical Laboratoires dElectronique Philips SAS
Publication of DE69031866D1 publication Critical patent/DE69031866D1/de
Application granted granted Critical
Publication of DE69031866T2 publication Critical patent/DE69031866T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Complex Calculations (AREA)

Description

  • Die Erfindung bezieht sich auf ein Verfahren zur Verarbeitung von Signaldaten mit einer Datenverarbeitungsanordnung, wobei das Verfahren die Bestimmung einer Approximation an einen höchstwertigen Eigenvektor einer Kovarianzmatrix umfaßt, die mit den als Vektoren in einem Vektorraum dargestellten Signaldaten verbunden ist, und auf eine Anordnung zur Durchführung des Verfahrens.
  • HINTERGRUND DER ERFINDUNG
  • Die Eigenvektoranalyse (Principal Component Analysis, PCA) ist eine Strategie, die auf den statistischen Eigenschaften eines Signals beruht, das heißt, auf kohärenten Daten, die zum Beispiel ein Bildmuster oder ein Sprachmuster darstellen. Im allgemeinen stehen solche Daten in enger Beziehung zueinander, was durch eine sogenannte Kovarianzmatrix ausgedrückt wird. Definitionsgemäß ist diese Kovarianzmatrix positiv symmetrisch. Das impliziert die Existenz einer Gruppe von wechselseitig orthogonalen Eigenvektoren (principal components). Eine Darstellung der Kovarianzmatrix auf der Basis, die durch ihre Eigenvektoren bestimmt ist, ist eine diagonale Matrix, wobei die Komponenten auf der Diagonalen die jeweils zu den Eigenvektoren gehörenden Eigenwerte (Varianzen) sind und die nicht auf der Diagonale angeordneten Komponenten gleich Null sind. Die Abbildung der Kovarianzmatrix auf die Basis ihrer Eigenvektoren wird allgemein als Eigenvektortransformation, Principal Component Transform, Hotelling Transform oder Karhunen-Loève Transform bezeichnet (siehe zum Beispiel: Digital Image Processing, R.C. Gonzalez und P. Wintz, Zweite Auflage, Addison-Wesley Publishing Company, 1987, Seite 122 - 130).
  • Die diagonale Form drückt die Tatsache aus, daß die entsprechend transformierten Daten jetzt nicht korreliert sind, da die nicht auf der Diagonalen liegenden Komponenten gleich Null sind. Diese Transformation wird vor allem in der Datenkomprimierung, der Merkmalextraktion und der Codierung angewendet. Durch das Zerlegen der Daten in eine Reihe von unkorrelierten Komponenten von abnehmender statistischer Signifikanz wird eine Datenkomprimierung erreicht, indem die Komponenten mit der größten statistischen Signifikanz ausgewählt werden und der Rest verworfen wird. Eine weitere Anwendung dieser Transformation ist zum Beispiel die Durchführung einer Bildrotation in der Bildverarbeitung (siehe Seite 125 bis 130 in dem obengenannten Buch).
  • STAND DER TECHNIK
  • Die Eigenvektoranalyse wird zum Beispiel von Y. Chauvin in "Principal Component Analysis by Gradient Descent on a constrained linear Hebbian Cell", IEEE und INNS International Joint Conference On Neural Nets, 1989, Seite 1373 - 1405, behandelt. Nach diesem Stand der Technik wird das Verhalten einer linearen Recheneinheit während des Lernens durch Gradientenabfall einer Kostenfunktion gleich der Summe eines Varianzmaximierungsterms und eines Gewichtnormalisierungsterms untersucht. Diese Kostenfunktion hat ein globales Minimum, das auf die Hauptkomponenten der Muster ausgerichtet ist, welche in die lineare Recheneinheit eingegeben werden. Die Lernkurve konvergiert zu diesem globalen Minimum, wenn bestimmte Bedingungen erfüllt werden. Eine der Annahmen, die zur Gewährleistung der Gültigkeit getroffen werden, besteht außerdem darin, daß die Kovarianzmatrix unterschiedliche Eigenwerte hat.
  • In dem Dokument "Principal Component Analysis" von I.T. Joliffe, Springer-Verlag 1986, Seite 235 - 246, wird die Verwendung des sogenannten Leistungsverfahrens und der SAS-Software beschrieben, die das Leistungsverfahren zur Bestimmung des größten Eigenwertes und des Eigenvektors einer Matrix und der Hauptkomponente implementiert. Unter bestimmten Bedingungen ergibt sich der Eigenvektor durch iteratives Multiplizieren der Matrix mit einem Anfangsvektor. Die SAS-Software bietet Möglichkeiten wie das Zuordnen verschiedener Gewichtungen zu verschiedenen Beobachtungen und die Nutzung einer Korrelation oder Kovarianzmatrix anstelle der Matrix von Beobachtungen.
  • AUFGABE DER ERFINDUNG
  • Die während des Gradientenabfalis durchgeführten Iterationen erfordern erhebliche Berechnungen. Die während des Leistungsverfahrens durchgeführten Iterationen erfordern eine Matrix-Multiplikation, die mit Hilfe einer speziellen, komplexen Computeranweisung ausgeführt werden kann oder bei einem herkömmlichen Computer in eine lange Folge von Multiplikationen und Additionen unterteilt werden kann. Die Erfindung hat daher zur Aufgabe, die Eigenvektoranalyse mit weniger und einfacheren Berechnungen pro Iteration durchzuführen, wobei entartete Eigenwerte zugelassen werden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Zu diesem Zweck ist ein erfindungsgemäßes Verfahren dadurch gekennzeichnet, daß die Bestimmung zur Steigerung der Verarbeitungsgeschwindigkeit in der Anordnung folgendes umfaßt:
  • - Annehmen eines Anfangsvektors 61 im genannten Vektorraum als einen ersten Schätzwert c&sub1;;
  • - Durchführen einer Iteration mit folgenden Schritten für jeden nächsten Schätzwert ck+1;
  • - Annehmen eines nächsten Vektors θk+1 im genannten Vektorraum;
  • - Bestimmen von mindestens einer Polarität eines Skalarproduktes ck θk+1 eines vorhergehenden Schätzwertes mit dem nächsten Vektor;
  • - Annehmen einer Summe des vorhergehenden Schätzwertes und des nächsten Vektors als den nächsten Schätzwert ck+1 wobei der nächste Vektor durch einen Faktor gewichtet ist, welcher vom Skalarprodukt abhängt, um den nächsten Schätzwert in der Richtung des vorhergehenden Schätzwertes zu erhöhen;
  • - nach Beendigung der Iteration Nehmen des höchstwertigen Eigenvektors parallel zu einem zuletzt erhaltenen ck+1 der nächsten Schätzwerte.
  • Durch Vergrößern der Komponente des nächsten Schätzwertes in der Richtung des vorhergehenden Schätzwertes entwickeln sich die Schätzwerte in der Richtung des höchstwertigen Eigenvektors, das heißt des Eigenvektors mit dem größten Eigenwert. Um die Approximationen von weiteren Eigenvektoren zu bestimmen, können im Prinzip die gleichen Schritte wie oben beschrieben durchlaufen werden, jedoch jetzt unter Verwendung von Vektoren in einem untergeordneten Raum orthogonal zu den Approximationen der zuvor berechneten entsprechenden Eigenvektoren. Pro Iteration sind eine Vektorskalar-Berechnung (inneres Produkt), eine Skalarvektor-Multiplikation und eine Vektoraddition erforderlich. Falls eine Eigenwert-Entartung angetroffen wird, garantiert die Konstruktion mit orthogonalem Teilraum, daß die Approximationen der zugehörigen Eigenvektoren gefunden werden. Im allgemeinen werden die Eigenvektoren erfindungsgemäß in der Reihenfolge abnehmender statistischer Signifikanz, das heißt in der Reihenfolge abnehmender Eigenwerte, approximiert.
  • Vorzugsweise umfaßt das erfindungsgemäße Verfahren zwecks Bestimmung einer weiteren Approximation eines weiteren Eigenvektors der Kovarianzmatrix die folgenden Schritte:
  • - Annehmen eines weiteren Anfangsvektors als einen ersten weiteren Schätzwert, wobei dieser Vektor in einer Region des Vektorraums liegt, welche durch Vektoren bestimmt ist, deren Absolutwert des inneren Produkts bei jeder zuvor bestimmten entsprechenden Approximation kleiner ist als ein vorgegebener entsprechender Wert;
  • - Bestimmen einer linearen Kombination des vorhergehenden weiteren Schätzwertes und eines nächsten weiteren Regionsvektors für jeden nächsten weiteren Schätzwert, wobei der nächste weitere Regionsvektor mit einem Faktorschätzwert gewichtet wird und dem nächsten weiteren Vektor, um den nächsten weiteren Schätzwert in einer Richtung des vorhergenden weiteren Schätzwertes zu vergrößern;
  • - nach Beendigung der Bestimmung der nächsten weiteren Schätzwerte Orthogonalisieren des letzten erhaltenen weiteren Schätzwertes in bezug auf jede zuvor bestimmte Approximation;
  • - Nehmen der weiteren Approximation parallel zu dem genannten orthogonalisierten zuletzt erhaltenen weiteren Schätzwert.
  • Statt jeden weiteren Vektor in bezug auf die bereits erhaltenen Approximationen zu orthogonalisieren, wird die Orthogonalisierung jetzt nur für den zuletzt erhaltenen Schätzwert durchgeführt, wodurch erhebliche Berechnungszeit eingespart wird. Ein weiterer Vorteil besteht darin, daß die Werte des inneren Produktes der Vektoren und jede der zuvor bestimmten und normalisierten Approximationen sowieso benötigt werden, um die zugehörigen Eigenwerte zu erzeugen, so daß eine effiziente Strategie erreicht wird.
  • Vorzugsweise ist der Faktor zur Gewichtung des nächsten Vektors oder des nächsten weiteren Vektors die Vorzeichenfunktion für das innere Produkt, so daß nur eine Invertierung erfolgt, wenn die Vorzeichenfunktion ein Minus ergibt. Um nur Vektoren zu berücksichtigen, die erheblich zu der Bestimmung des nächsten Schätzwertes oder des nächsten weiteren Schätzwertes beitragen, ist vorzugsweise der genannte Faktor die Vorzeichenfunktion für das innere Produkt, wenn das innere Produkt einen Wert außerhalb eines vorgegebenen Intervalls um Null hat, und ist gleich Null, wenn das innere Produkt einen Wert innerhalb des Intervalls hat.
  • Dies könnte auch durch Auswählen von Vektoren erreicht werden, die in einer vorhergehenden Bestimmung einer Approximation aufgrund ihrer unzureichenden Werte des inneren Produkts weggelassen wurden.
  • Die zugehörigen Eigenwerte werden gefunden durch.
  • - Normalisieren des zuletzt erhaltenen Schätzwertes, der mit dem bestimmten Eigenvektor verbunden ist, auf Eins;
  • - Bestimmen einer Summierung von Quadraten der inneren Produkte, wobei jedes entsprechende innere Produkt den normalisierten Schätzwert und den entsprechenden Vektor betrifft, der zum Erzeugen eines entsprechenden Schätzwertes benutzt wird, und Mittelwertbildung eines Summierergebnisses.
  • Besonders vorteilhaft ist es, das Verfahren auf einer (digitalen) neuronalnetz-artigen Struktur zu implementieren, da die erforderlichen Operationen (inneres Produkt, Skalarvektor-Multiplikation und Vektoraddition) die Bestandteile der Mehrzahl der Berech nungen zur Aktualisierung der Synapse-Koeffizienten reflektieren.
  • Diese Regeln können zusammengefaßt werden als:
  • Sf = f (Σj Cij . Vj) (a)
  • Cij (neu) = Cij (vorliegend) + ΔiVj (b)
  • Gleichung (a) drückt die nicht-lineare Abhängigkeit der Ausgabe Si von Neuron i vom inneren Produkt des Vektors der i-ten Reihe der Synapse-Koeffizientenmatrix C und vom Vektor V aus, wobei die Komponenten hiervon aus den Ausgaben der Neuronen j bestehen, welche über Synapse-Koeffizienten Cij mit dem Eingang von Neuron i gekoppelt sind. Die Gleichung (b) gibt die Aktualisierung jedes Synapse-Koeffizienten entsprechend einer Lernregel allgemeinen Typs an, wobei eine Neuronenausgabe Vj und ein Korrekturfaktor Δi eine Rolle spielen. Die Strategie des steilsten Abfalls stimmt zum Beispiel mit der allgemeinen Aktualisierungsregel entsprechend Gleichung (b) überein. Wenn sie parallel in bezug auf den Index i oder den Index j oder beide ausgeführt wird, gibt Gleichung (b) eine Vektoraddition an.
  • ANWENDUNG AUF SINGULÄRWERT-ZERLEGUNG
  • Das oben beschriebene erfindungsgemäße Verfahren kann erfolgreich auf Signaldaten-Manipulationen angewendet werden, die sich auf die Singulärwert-Zerlegung beziehen. Der Ausdruck "Singulärwert-Zerlegung" gibt eine Verallgemeinerung der Eigenvektor-Eigenwert-Darstellung für quadratische Datenmatrizen an, wie sie oben erwähnt wurden. Entsprechend der Matrixtheorie gibt es für jede rechteckige mxn-Matrix Transformationsmatrizen, die eine verallgemeinerte diagonale Matrix ergeben, welche Komponenten auf der verallgemeinerten Diagonale hat, die die sogenannten Singulärwerte darstellen, und Komponenten außerhalb der verallgemeinerten Diagonale, die gleich Null sind.
  • Im Bereich der Signalverarbeitung wird die Singulärwert-Zerlegung (Singular Value Decomposition, SVD) in der adaptiven Filterung, der linearen Vorhersageschätzung, die Modalanalyse bei der Behandlung mehrfach-sinusförmiger Signale, der adaptiven Modellierung usw. angewandt. Zahlreiche technische Anwendungen werden in "SVD and Signal Processing: Algorithms, Applications and Architectures", herausgegeben durch Ed. F. Deprettere, Nordholland, 1988, ausführlich untersucht.
  • Zum Extrahieren von Informationen aus dem betrachteten Signaldatenverarbeitungssystem wird enstprechend der SVD angenommen, daß es mit einem linearen Modell gut beschrieben wird. Das bedeutet, das System umfaßt eine lineare Transformation als Eingabe-Ausgabe-Zusammenhang. Die Matrix, die diese lineare Transformation verkörpert, ist oft unbekannt. Es wird hier weiterhin angenommen, daß Informationen bezüglich dieser Matrix von Messungen von bestimmten Eingangsvektoren und den zugehörigen Ausgangsvektoren des Systems abgeleitet werden können. Erfindungsgemäß wird folgendermaßen vorgegangen. Es wird eine Sammjung von Eingangsvektoren erstellt, die eine zufältige und gleichmäßige Verteilung im Eingangsraum haben, das heißt, ihre Eingangs-Kovarianzmatrix ist eine Einheitsmatrix. Das impliziert, daß die Ausgangs-Kovarianzmatrix der Ausgangsvektoren im Ausgangsraum nur Komponenten enthält, die sich auf die gesuchte Matrix beziehen. Die Diagonalisierung der Ausgangs-Kovarianzmatrix entsprechend des oben in bezug auf die Eigenvektoranalyse beschriebenen Verfahrens führt zu einer Gruppe von Grundvektoren im Ausgangsraum, die eine erste Transformationsmatrix definiert. Eine zugehörige zweite Transformationsmatrix mit den Grundvektoren für den Eingangsraum wird parallel dazu bestimmt. Diese Transformationsmatrizen definieren die Singulärwert-Zerlegung zusammen mit der Gruppe von verallgemeinerten Eigenwerten, die sowohl von den Grundvektoren als auch von den Messungen abgeleitet werden können, wie im folgenden beschrieben wird.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden im folgenden näher beschrieben. Es zeigen:
  • Figur 1 ein Beispiel für eine Gaußsche Wahrscheinlichkeitsdichte-Funktion von zwei korrelierten Zufallsvariablen;
  • Figur 2 die Formeln für das Diagramm aus Figur 1;
  • Figur 3 die Konstruktion der aufeinanderfolgenden Schätzwerte zur Erzeugung eines Eigenvektors;
  • Figur 4 die Formeln für die in Figur 3 dargestellte Konstruktion;
  • Figur 5 die Formel zur Bestimmung der Eigenwerte;
  • Figur 6 Beispiele von Gewichtungsfunktionen zur Bestimmung des vom inneren Produkt abhängigen Faktors;
  • Figur 7 ein erstes Beispiel eines Ausführungsform einer erfindungsgemäßen Anordnung;
  • Figur 8 ein zweites Beispiel einer Ausführungsform einer erfindungsgemäßen Anordnung;
  • Figur 9 die Formeln für die Singulärwert-Zerlegung (SVD) im allgemeinen;
  • Figur 10 die Formeln zur Bestimmung von aufeinanderfolgenden Schätzwerten für die Eigenvektoren, die bei der Singulärwert-Zerlegung eine Rolle spielen;
  • Figur 11 die Formel zur Bestimmung der approximierten Singulärwerte;
  • Figur 12 ein drittes Beispiel für die erfindungsgemäße Anordnung; und
  • Figur 13 ein viertes Beispiel für die erfindungsgemäße Anordnung.
  • GAUSSSCHE WAHRSCHEINLICHKEITSDICHTE
  • Figur 1 zeigt ein Beispiel für eine Gaußsche Wahrscheinlichkeitsdichte- Funktion von Zufallsvariablen x und y, die die erwarteten oder mittleren Werte E(x) bzw. E(y) haben. Die geschlossenen Konturen stellen Kurven von konstanter Wahrscheinlichkeitsdichte dar. Die Wahrscheinlichkeit, daß die Variablen x und y Werte annehmen, die zu einer bestimmten Region in der x-y-Ebene gehören, entspricht dem Integral von f über diese Region. Die Abweichungen von diesen Zufallsvariablen in bezug auf ihre erwarteten Werte E(x) und E(y), das heißt: x-E(x) und y-E(y), stehen in wechselseitigem Zusammenhang, wie aus dem Diagramm in Figur 1 abgeleitet werden kann. Eine Zunahme des Wertes x-E(x) führt in diesem Beispiel statistisch zu einer Zunahme des Wertes y-E(y). Eine Größe, die diese Abhängigkeit oder Korrelation darstellt, ist die Kovarianz von x und y: cov(x,y), definiert als der Wert des Produktes (x-E(x)) (y-E(y)) gemittelt über die Wahrscheinlichkeitsdichte. Die Ausdrücke cov(x,x) und cov(y,y) geben die sogenannten Varianzen oder Standardabweichungen von x bzw. von y an, die ein Maß für die erwarteten Werte für die quadratische Abweichung vom jeweiligen Mittelwert E(x) bzw. E(y) sind. Je kleiner die Varianz, desto ausgeprägter ist die Wahrscheinlichkeitsdichte in der Nachbarschaft des Mittelwerts.
  • Wenn das geordnete Paar (x,y) als ein Vektor betrachtet wird, der auf der Basis mit dem Einheitsvektor x und dem Einheitsvektor x dargestellt wird, ist die Kovarianzmatrix definiert als E (( -E( )) ( -E( )) mit den Diagonalenkomponenten cov(x,x) und cov(y,y) und den außerhalb der Diagonalen liegenden Komponenten cov(x,y) und cov(y,x).
  • Da diese Kovarianzmatrix positiv symmetrisch ist, hat sie eine orthonormale Gruppe von Eigenvektoren, die eine weitere Basis p und q definiert, um darin jeden Vektor oder jede Matrix auszudrücken, die auf der Basis x und y ausgedrückt werden kann. Die Kovarianzmatrix hat die Form einer Diagonalmatrix, wenn sie auf ihre Eigenvektorbasis abgebildet wird, das heißt, ihre außerhalb der Diagonalen liegende Komponenten sind dann gleich Null.
  • Diese diagonale Darstellung der Kovarianzmatrix macht die Tatsache sichtbar, daß die entsprechend transformierten Darstellungen der Vektoren sich jetzt auf die neuen Zufallsvariablen p und q beziehen, die lineare Kombinationen der Variablen x und y sind und die jetzt unkorreliert sind. Da die Kovarianzmatrix positiv endlich ist, stellen außerdem die Komponenten auf der Diagonalen, die die Eigenwerte der Kovarianzmatrix sind, jetzt die entsprechenden Varianzen cov(p,p) und cov(q,q) dar, die üblicherweise als ²p bzw. ²q bezeichnet werden.
  • Wie bereits erwähnt, ist die Transformation zur Diagonalisierung der Kovarianzmatrix bekannt unter den Bezeichnungen: Eigenvektor-Transformation, Principal Components Transforms, Hotelling Transform, oder Karhunen-Loève Transform. Bei der Signalverarbeitung wird diese Transformation zum Beispiel benutzt, um die abhängigkeitsbezogenen Redundanzen im Signal zu Codierzwecken zu entfernen oder um die Signalenergie in einer kleinen Zahl von Koeffizienten zu konzentrieren, die dann bei der Datenkomprimierung vorteilhaft genutzt werden können. Da die Transformation eigentlich eine Rotation ist, kann sie außerdem benutzt werden, um bei der Bildverarbeitung Drehungen durchzuführen.
  • GAUSSSCHE FORMELN
  • In der Praxis wird davon ausgegangen, daß die oft unbekannte Wahrscheinlichkeitsfunktion durch eine Gaußsche Funktion, die in einer Reihenentwicklung als Term erster Ordnung betrachtet werden kann, gut approximiert wird. Die Gaußsche Dichte ist durch die Kovarianzmatrix und die Mittelwerte der Zufallsvariablen vollständig definiert. Außerdem wird die Gaußsche Eigenart der Wahrscheinlichkeitsdichte durch eine lineare Transformation nicht beeinflußt. Der allgemeine Ausdruck für eine N-dimensionale Gaußsche Wahrscheinlichkeitsdichte ist durch die Formel (i) in Figur 2 gegeben. Hier bezeichnet N die Dimension des Zufallsvektor-Raums, C steht für die entsprechende Kovarianzmatrix und C&supmin;¹ für ihren Kehrwert (C und C&supmin;¹ sind beide symmetrisch), wobei angenommen wird, daß die Determinante von C, bezeichnet mit C , nicht verschwindet. Die Vektoren und stellen den Zufallsvektor bzw. seinen erwarteten Wert dar.
  • In Gleichung (i) aus Figur 2 enthält das Argument der Exponentialfunktion eine quadratische Funktion ( - ).C&supmin;¹.( - ). Die Abbildung des Vektors - auf die Basis, auf der C&supmin;¹ (und damit C) eine diagonale Form annimmt, transformiert das Argument in eine Summierung von homogenen quadratischen Termen. Aufgrund der Eigenschaften der Exponentialfunktion kann die gemeinsame Wahrscheinlichkeitsdichte nun in Faktoren unterteilt werden, die jeder eine eindimensionale Gaußsche Wahrscheinlichkeitsdichte in der in Formel (ii) aus Figur 2 angegebenen Form darstellen, und jeder mit einer geeigneten Varianz Σ²i und einem geeigneten Mittelwert µi.
  • Geometrisch stellt die Eigenvektor-Transformation eine Rotation einer Fläche, auf der die quadratische Funktion ( - ).C&supmin;¹.(( - )) einen konstanten Wert annimmt, in einer Richtung dar, in der ihre Symmetrieachsen mit den (neuen) Koordinatenachsen zusammenfallen. Dies gilt auch in bezug auf die Gaußsche Dichtefunktion, da es sich hierbei um eine Funktion des obigen quadratischen Ausdrucks selbst handelt.
  • GEOMETRISCHE KONSTRUKTION
  • Die Erfindung schlägt nun ein Verfahren zur Bestimmung von Approximationen der Eigenvektoren und Eigenwerte der Kovarianzmatrix in einer Reihenfolge von abnehmender statistischer Signifikanz vor. Dies wird unter Bezugnahme auf Figur 3 erläutert. Die Konturen im Diagramm aus Figur 3 geben wieder Flächen an, auf denen der quadratische Ausdruck, der sich auf die Kovarianzmatrix bezieht, und somit auch die Gaußsche Wahrscheinlichkeitsdichte konstante Werte annehmen. Der Ursprung der Koordinatenachsen x und y wurde in den Mittelwertort E(x) und E(y) in bezug auf Figur 1 umgesetzt. Bei der Konstruktion durch Vektoraddition, wie sie im folgenden erläutert wird, muß daher der Mittelwertort als Ursprung genommen werden. Die Aufgabe besteht nun darin, die Approximationen der Richtungen der Symmetrieachsen - angegeben durch p und q in bezug auf das xy-Koordinatensystem - der quadratischen Funktion und damit der Gaußschen Dichtefunktion zu finden. Dies erfolgt folgendermaßen.
  • Als ein erster Schätzwert &sub1; für einen Eigenvektor wird ein Anfangsvektor &sub1; auf der Basis eines Kriteriums oder zufallsmäßig gewählt. Ein zweiter Schätzwert &sub2; wird erstellt, indem zuerst ein zweiter Vektor &sub2; gewählt wird und daraufhin der erste Schätzwert &sub1; und der zweite Vektor &sub2; linear kombiniert werden, wobei letzterer durch einen Faktor gewichtet ist, der der Vorzeichenfunktion für das innere Produkt ( &sub1;. &sub2;) entspricht. In dem gegebenen Beispiel impliziert dies das Addieren des Vektors minus&sub2; zu dem ersten Schätzwert &sub1;, um &sub2; zu erhalten. Ein dritter Schätzwert &sub3; und ein vierter Schätzwert &sub4; werden nach dem Wählen eines dritten Vektors &sub3; bzw. eines vierten Vektors &sub4; auf ähnliche Weise konstruiert. Die Formeln, die die obige Konstruktion zusammenfassen, sind in Figur 4 dargestellt.
  • Aus dem Diagramm in Figur 3 kann abgeleitet werden, daß jeder nächste Schätzwert k+1 dazu neigt, einen kleineren Winkel mit der p-Achse zu ergeben, das heißt mit der Achse, die parallel zu dem Eigenvektor mit dem größten Eigenwert verläuft. Dieser Eigenvektor wird als statistisch signifikantester Eigenvektor bezeichnet. (Es ist zu beachten, daß das Verhältnis zwischen den jeweiligen Eigenwerten dem Verhältnis zwischen den Längen der entsprechenden Hauptachsen der gezeichneten Konturen entspricht.) Durch Vergrößern jedes nächsten Schätzwertes k+1 in Richtung seines Vorgängers k durch den Gewichtungsfaktor, der die Vorzeichenfunktion für das genannte innere Produkt enthält, wird jeder nächste Schätzwert k+1 weiter in die Richtung der Hauptachse entwickelt. Nach Beendigung dieses iterativen Vorgangs wird der letzte erhaltene Schätzwert als eine Approximation für den signifikantesten Eigenvektor genommen. Obwohl die obige Schilderung keinen strengen mathematischen Beweis darstellt, eignet sie sich doch zur Begründung der Idee.
  • Um die anderen Eigenvektoren zu approximieren, sollten die hierfür in Betracht gezogenen Vektoren k in dem Teilraum orthogonal zu den bereits erhaltenen Approximationen, das heißt dem Orthoplement, liegen. Hierfür wird ein gewählter Vektor k seiner Komponenten entblößt, die in dem anderen Teilraum liegen, welcher durch die bereits erhaltenen Approximationen aufgespannt wird.
  • Entsprechend einer weiteren Version des vorgeschlagenen Verfahrens sollten die Vektoren k zur Verwendung im Iterationsprozeß vorzugsweise Absolutwerte des inneren Produkts bei bereits erhaltenen und normalisierten Approximationen haben, die kleiner sind als eine vorgegebene Obergrenze. Die Orthogonalisierung wird daher aufgeschoben, bis der letzte Schätzwert erhalten ist. Auf diese Weise wird das Weglassen der obengenannten Komponenten bei jedem Iterationsschritt bis auf den letzten vermieden. Für jeden Vektor k sollte eine Berechnung des inneren Produktes durchgeführt werden, um zu entscheiden, ob er berücksichtigt werden sollte oder nicht. Darüber hinaus werden die Resultate des inneren Produkts vorzugsweise zur Berechnung der zu jeder Approximation gehörenden Varianz benutzt, so daß bereits ermittelte Ergebnisse effizient für einen anderen Zweck verwendet werden, was in bezug auf Figur 8 noch erläutert wird.
  • Auf diese Weise ergibt die obige Strategie nacheinander die Approximationen der Eigenvektoren in der Reihenfolge abnehmender statistischer Signifikanz.
  • Die Approximation des zu einem bestimmten Eigenvektor gehörenden Eigenwertes wird entsprechend den bekannten Regeln der Statistik bestimmt. Das heißt, die Beispiel-Varianz s² als Approximation der Varianz 02, die mit einem bestimmten Eigenvektor in bezug auf den Ursprung des Mittelwertes verbunden ist, ist durch die Formel aus Figur 5 gegeben, wobei k jedesmal den k-ten Vektor angibt, der zur Bestimmung dieses speziellen Eigenvektors benutzt wird, wie oben und in den Formeln von Figur 4 geschildert.
  • FAKTOREN DES INNEREN PRODUKTES
  • Statt die (binäre) Vorzeichenfunktion (Figur 6 (a)) zu benutzen, um durch die Anwendung auf das innere Produkt inp den Gewichtungsfaktor wf zu erzeugen, wird vorzugsweise die (ternäre) modifizierte Vorzeichenfunktion aus Figur 6(b) benutzt, um nur diejenigen Vektoren zu berücksichtigen, die zu einer erheblichen Verbesserung des aktuellen Schätzwertes führen, wodurch die Anzahl der Operationen reduziert wird. Mit anderen Worten, es werden nur diejenigen Vektoren als für die aktuelle Approximation relevant erachtet, die dazu führen, daß das innere Produkt einen Absolutwert hat, welcher größer ist als eine vorgegebene Untergrenze B. Während des aktuellen Prozesses zur Bestimmung der Approximation eines bestimmten Eigenvektors werden einige Vektoren weggelassen, weil ihre inneren Produkte in diesem Prozeß zu klein sind und daher eine langsame Entwicklung zur Folge haben würden. Diese weggelassenen Vektoren liegen jedoch in einer Region des Vektorraums, die Vektoren liefern würde, welche zu erheblichen Werten des inneren Produktes führen, wenn sie in dem Prozeß zur Entwicklung der Approximationen der weiteren Eigenvektoren benutzt würden.
  • ERSTES BEISPIEL EINER ANORDNUNG
  • Figur 7 stellt ein Diagramm eines ersten Beispiels einer Anordnung (2Q) zur Verarbeitung von Signaldaten dar, um nacheinander Schätzwerte für einen bestimmten Eigenvektor zu bestimmen.
  • Die Anordnung 70 enthält einen Vektorgenerator 72 zur aufeinanderfolgenden Erzeugung von Vektoren k. Für k = 1 wird der erzeugte Vektor &sub1; über das Leitelement 74 zum Speicher 76 geleitet, um dort als ein erster Schätzwert für die Approximation des höchstwertigen Eigenvektors gespeichert zu werden. Jeder nächste erzeugte Vektor k+1 wird über das Leitelement 74 zum Register 78 geleitet, um dort gespeichert zu werden. Der in Register 78 gespeicherte Vektor und der in Speicher 76 hinterlegte vorhergehende Schätzwert k werden Mitteln für das innere Produkt 80 zur Berechnung des Wertes des inneren Produktes zugeführt. Der berechnete Wert des inneren Produktes wird durch die Funktionsmittel 82 bearbeitet, zum Beispiel durch die Vorzeichenfunktion entsprechend Figur 6a oder durch die modifizierte Vorzeichenfuktion entsprechend Figur 6b. Der Ausgang der Funktionsmittel 82 liefert den Faktor zur Gewichtung des aktuellen Vektors k+1, der in Register 78 gespeichert ist. Zu diesem Zweck erhält das Multipliziermittel 84 sowohl den Faktor als auch den aktuellen Vektor k+1, um den gewichteten Vektor zu erzeugen, der in dem Addierer 86 zu dem vorhergehenden, in Speicher 76 hinterlegten Schätzwert k zu addieren ist. Das Addierergebnis k+1 wird daraufhin in Speicher 76 gespeichert, um den vorhergehenden Schätzwert k zu ersetzen. Vorzugsweise werden die Operationen mit dem inneren Produkt im Mittel für das innere Produkt 80, die Multiplikationen im Multipliziermittel 84 und die Summier-Operationen im Addierer 86 jeweils parallel in bezug auf die entsprechenden Vektorkomponenten ausgeführt. Vorzugsweise ist der Speicher 76 von einem Typ, der das parallele Schreiben und das parallele Lesen der Vektorkomponenten erlaubt.
  • Es ist zu beachten, daß bei der Ausführung der Voneichenfunktions- Operation durch das Funktionsmittel 82 entweder der Vektor k+1 einfach in dem Multipliziermittel 84 zu invertieren ist oder dem Addierer 86 direkt zuzuführen ist. In diesem Fall ist das Multipliziermittel ein einzelner Inverter, der den Inhalt des Registers 78 invertiert. Die für jeden iterativen Vorgang für die Berechnung der Approximation eines bestimmten Eigenvektors erzeugten Vektoren sollten orthogonal zu der bereits bestimmten Approximation sem.
  • ZWEITES BEISPIEL EINER ANORDNUNG
  • In Figur 8 ist ein zweites Diagramm eines Beispiels für eine erfindungsgemäße Anordnung dargestellt. Gleiche oder den Teilen der Anordnung aus Figur 7 ähnliche Teile sind mit den gleichen Bezugszeichen versehen. Die abgebildete Anordnung 90 wurde im Vergleich zu der Anordnung 70 aus Figur 7 erweitert, indem ein Entscheidungsmittel 100 hinzugefügt wurde, um zu entscheiden, ob ein aktueller Vektor k+1, der durch den Vektorgenerator 72 erzeugt wurde, bei der Vektorkonstruktion gemäß Figur 3, die zu einer Approximation des relevanten Eigenvektors führt, eine Rolle spielen soll.
  • Um die Approximation des höchstrangigen Eigenvektors (mit der höchsten Signifikanz) zu bestimmen, wurde das Entscheidungsmittel IQQ außer Betracht gelassen, da die Anordnung 90 auf ähnliche Weise funktioniert wie die Anordnung 70 aus der vorhergehenden Figur 7. Nach der Bestimmung des letzten erhaltenen Schätzwertes des ersten Eigenvektors wird dieser auf Eins normalisiert und als erster Grundvektor im Basisspeicher 102 gespeichert.
  • Um jede nächste Approximation zu bestimmen, funktioniert die Anordnung 90 folgendermaßen. Ein erster erzeugter Vektor wird im Entscheidungsmittel 100 untersucht, um zu bestimmen, ob er bei den zuvor ermittelten Grundvektoren zu Werten des inneren Produktes führt, die klein genug sind, um sie bei der Vektorkonstruktion zu berücksichtigen.
  • Falls die Werte des inneren Produktes klein genug sind, wird der Vektor &sub1; über das Leitelement 74 direkt dem Speicher 76 zugeführt. Wenn Vektor den Test nicht besteht, wird er bei der Vektorkonstruktion weggelassen und es wird ein nächster Vektor erzeugt. Jeder nächste erzeugte Vektor k+1, der den Test bestanden hat, wird in das Register 78 geladen, von wo aus der Prozeß fortgesetzt wird, wie in bezug auf Figur 7 beschrieben. Nach Erhalt des letzten Schätzwertes für den aktuellen Eigenvektor wird dieser in bezug auf die in Speicher 102 gespeicherten Grundvektoren orthogonalisiert und auf Eins normalisiert, um im Basisspeicher 102 gespeichert zu werden.
  • Wenn die Gruppe der Vektoren , die durch den Vektorgenerator 72 erzeugt wurde, bei jedem iterativen Prozeß, der zu der zugehörigen Approximation führt, abweicht, wird die Varianz entsprechend der Formel aus Figur 5 berechnet, indem die bestimmte Gruppe zusammen mit dem socben bestimmten zugehörigen Grundvektor erneut in das Mittel für das innere Produkt 104 eingeführt wird. Der Eingang des Quadrierelementes 106 ist mit dem Ausgang des Mittels für das innere Produkt 104 verbunden, um jeden Wert des inneren Produktes zu quadrieren. Daraufhin werden diese quadrierten Werte summiert und durch die Anzahl der Vektoren k geteilt, die während des iterativen Prozesses erzeugt wurden, und zwar sowohl die Exemplare, die für die Vektorkonstruktion berücksichtigt wurden, als auch die Exemplare die aufgrund ihrer zu kleinen Werte des inneren Produktes außer acht gelassen wurden.
  • Wenn die gleiche Gruppe von Vektoren für jeden iterativen Prozeß benutzt wird, können mehrere Operationen, die sich auf die Prüfung des Wertes des inneren Produktes und die Berechnung der Varianz beziehen, folgendermaßen miteinander verflochten sein.
  • Die Prüfung des Wertes des inneren Produktes wird über das Mittel für das innere Produkt 104, das Quadriermittel 106 und einen Komparator 108 durchgeführt. Die quadrierten Werte des inneren Produktes werden in einem untergeordneten Speicher (nicht abgebildet) zur Verwendung in den Varianzberechnungen gespeichert. Während jedes iterativen Prozesses brauchen nur die neuen Werte des inneren Produktes berechnet zu werden, das beißt, nur die Werte des inneren Produktes in bezug auf den zuletzt erhaltenen Grundvektor sind zu bestimmen. Diese Ergebnisse bilden zusammen mit den im untergeordneten Speicher (nicht abgebildet) gespeicherten Werten die Kriterien für die Entscheidung, ob der aktuelle Vektor zu der Vektorkonstruktionsphase weitergelangen kann oder nicht. Diese neuen Werte des inneren Produktes sind jedoch genau diejenigen, die für die Berechnung der zu dem zuvor (zuletzt) erhaltenen Grundvektor gehörenden Varianz benötigt werden. Aus diesem Grunde wird die zu dem Grundvektor k gehörende Varianz in der Vektorkonstruktionsphase für den Grundvektor k+1 bestimmt.
  • Erst nach Beendigung der Suche des nächsten Grundvektors muß der zuletzt erhaltene erneut in das Mittel für das innere Produkt 104 eingeführt werden, um die zugehörige Varianz zu erzeugen.
  • SINGULÄRWERT-ZERLEGUNG
  • Die Singulärwert-Zerlegung (Singular Value Decomposition, SVD) einer mxn Datenmatrix entsprechend des erfindungsgemäßen Verfahrens, das die oben bereits erläuterte Eigenvektoranalyse umfaßt, wird im folgenden beschrieben. Es ist zu beachten, daß im Bereich der Signalverarbeitung zahlreiche Anwendungen auf die Singulärwert-Zerlegung zurückgreifen, wie bereits oben erwähnt.
  • Der Zusammenhang, mit dem begonnen wird, ist in Formal (i) in Figur 9 dargestellt, wobei x ein Eingangsvektor im n-dimensionalen Eingangsraum ist und zu einem Ausgangsvektor y im m-dimensionalen Ausgangsraum führt, der durch eine Lineartransformation, welche durch die Matrix A verkörpert wird, mit in Beziehung gesetzt wird.
  • Da die Matrix A im allgemeinen unbekannt ist, werden Messungen durchgeführt, um exemplarische Paare ( µ, µ von Eingangsvektoren µ zu erzeugen, die mit den zugehörigen Ausgangsvektoren µ verbunden sind. Es wird angenommen, daß die exemplarischen Eingangsvektoren µ zufällig und gleichmäßig in einer solchen Region des Eingangsraums verteilt sind, daß die Eingangsvektorkomponenten von verschiedenen Rängen unkorreliert sind, während die zugehörigen Varianzen gleich Eins sind. Diese Charakterisierung wird durch die Formel (ii) in Figur 9 ausgedrückt. Hier hat die Eingangs- Kovarianzmatrix < > die Form einer diagonalen Einheitsmatrix. Demzufolge hat die Ausgangs-Kovarianzmatrix < > die in Formel (iii) aus Figur 9 dargestellte Form. Das bedeutet, < > entspricht einer symmetrischen Matrix AAT, die sich aus dem Matrixprodukt von Matrix A und ihrer transponierten Version AT zusammensetzt.
  • Die symmetrische Matrix wird mit Hilfe einer Transformationsmatrix V&sub1; diagonalisiert, wobei ihre Spalten eine Darstellung der Eigenvektoren der symmetrischen Matrix bilden (Formel (iv)). Hier liegen die Eigenvektoren der Matrix AAT im Ausgangsraum. Die Matrix AAT ist vom Rang r, das heißt, sie hat eine Anzahl von r Eigenwerten größer als Null. Das gleiche gilt für die zu diagonalisierende symmetrische Matrix ATA im Eingangsraum - unter der Voraussetzung, daß die diagonale Form jetzt über eine nxr Transformationsmatrix U&sub1; erreicht wird, die aus den Eigenvektoren von ATA im Eingangsraum besteht (Formel (v)). Es kann abgeleitet werden, daß die Matrix A als rechter Ausdruck in der Formel (vi) aus Figur 9 geschrieben werden kann. Die Matrix &Sigma;&sub1; umfaßt sogenannte Singulärwerte, die mit den in &Sigma;&sub1;² enthaltenen Eigenwerten verbunden sind. Der Ausdruck von Formel (vi) wird im allgemeinen als die Singulärwert-Zerlegung bezeichnet.
  • Auf der Grundlage der Messungen wird somit eine Ausgangs-Kovarianzmatrix konstruiert, die symmetrisch ist und Informationen zu der angenommenen Linearität des betrachteten Systems enthält. Entsprechend dem bereits oben in bezug auf Figur 3 erläuterten Verfahren werden die Eigenvektoren dieser symmetrischen Matrix nacheinander approximiert, wobei normalisierte Versionen hiervon die Spalten der Transformationsmatrix V&sub1; bilden. Wie durch Formel (vii) aus Figur 9 deutlich gemacht werden kann, muß in jedem iterativen Schritt zur Erzeugung eines nächsten Schätzwertes für einen bestimmten Eigenvektor im Ausgangsraum der zugehörige Eingangsvektor entsprechend transformiert werden, um schließlich einen zugehörigen Eigenvektor im Eingangsraum zu erzeugen. Es ist zu beachten, daß aufgrund der Gleichförmigkeit der Verteilung der exemplarischen Eingangsvektoren die Eingangs-Kovarianzmatrix bereits in diagonaler Form vorliegt (Formel (ii) in Figur 9). Infolgedessen würde jede zusätzliche Basis im Eingangsraum die Eingangs-Kovarianzmatrix in ihrer diagonalen Einheitsform halten. Formel (vii) aus Figur 9 stellt jedoch die Einschränkung für die Auswahl der Eingangsraumbasis dar.
  • Die obige Konstruktion für die aufeinanderfolgenden Schätzwerte eines bestimmten Ausgangs-Eigenvektors v und des zugehörigen Eingangs-Eigenvektors u ist in Figur 10 formuliert, wobei die Bezeichnung k für den k-ten Schätzwert für den Ausgangs-Eigenvektor reserviert ist und die Bezeichnung bk für den zugehörigen k-ten Schätzwert des entsprechenden Eingangs-Eigenvektors u reserviert ist.
  • Für alle exemplarischen Eingangs-Ausgangs-Paare gilt der Zusammenhang von Formel (i), der die lineare Beziehung zwischen dem Eingangsvektor k und dem zugehörigen Ausgangsvektor k widerspiegelt. Als ein erster Schätzwert &sub1; für v wird ein bestimmter Ausgangsvektor k gewählt, und als ein erster Schätzwert für gewählt wird der zugehörige Eingangsvektor &sub1; gewählt. Die Ableitung jedes nächsten Schätzwertes k+1 ist in Formel (üi) von Figur 10 angegeben und entspricht der Ableitung, wie sie in bezug auf Figur 4 erläutert wurde. Um den Zusammenhang von Formel (iv) in Figur 10 beizubehalten, das heißt die lineare Beziehung zwischen den entsprechenden Schätzwerten, wie sie durch Formel (vii) aus Figur 9 gerechtfertigt ist, muß der nächste Schätzwert k+1 entsprechend Formel (v) aus Figur 10 bestimmt werden. Die Vorzeichenfunktion für das innere Produkt kann auch durch die modifizierte Vorzeichenfunktion ersetzt werden, wie in bezug auf Figur 6 erläutert.
  • Nach Beendigung des iterativen Prozesses wird jeder Schätzwert k+1 und k+1 auf Eins normalisiert, um die entsprechenden Einheitslängen-Grundvektoren darzustellen. Die Singulärwerte selbst werden bestimmt, wie in bezug auf die Formeln aus Figur 11 erläutert wird. In Formel (i) aus Figur 11 ist der lineare Zusammenhang zwischen Eingangsvektor und Ausgangsvektor als Index geschrieben, wobei jeder Index, der in einem bestimmten Term zweimal auftritt, eine Summierung über diesen Index darstellt. Formel (ii) stellt auf diese Weise die Indexschreibweise der Formel (vi) aus Figur 9 dar, wobei il und jl die jeweiligen Komponenten der Matrizen V&sub1; bzw. U&sub1; sind. Setzt man den Ausdruck (ii) von Figur 11 in die Formel (i) aus Figur 11 ein, so erhält man den Ausdruck (iii), wobei die rechte Seite jetzt ein inneres Produkt enthält, das sich auf den Vektor und den Einheitslängen-Eingangsgrundvektor &sub1; von Rang 1 bezieht. Nach der Multiplikation beider Seiten mit dem Einheitslängen-Ausgangsgrundvektor &sub1; wird der zugehörige Singulärwert &sub1; durch den Quotienten der inneren Produkte . &sub1;) und ( . &sub1;) bestimmt. Die Mittelwertbildung über alle exemplarischen Paare ergibt schließlich die Approximation für den Eigenwert &sub1;, wie in Formel (iv) aus Figur 11 angegeben.
  • DRITTES BEISPIEL EINER ANORDNUNG
  • In der Tat werden die Ausgangsgrundvektoren bei der Singulärwert-Zerlegung auf die gleiche Weise berechnet wie die Eigenvektoren bei der Eigenvektoranalyse. Aus diesem Grunde ist die Anordnung, wie sie zur Implementierung der Eigenvektoranalyse vorgeschlagen wurde, in einer Anordnung zur Implementierung der Singulärwert-Zerlegung enthalten. Weitere Berechnungsmittel zur entsprechenden Berechnung der Eingangsgrundvektoren und der Singulärwerte sind dann hinzuzufügen. Dies ist in der Anordnung entsprechend Figur 12 dargestellt. Die abgebildete exemplarische Anordnung 120 führt die oben erläuterte Singulärwert-Zerlegung aus. Zu diesem Zweck enthält sie einen Vektorgenerator 122 zum Erzeugen der Ausgangsvektoren und der Eingangsvektoren , wobei jeder Ausgangsvektor in linearem Zusammenhang mit einem entsprechenden Eingangsvektor steht. Die entsprechenden Ausgangsvektoren werden dem Ausgangsbasiskalkulator 124 zugeführt, der zum Beispiel eine Anordnung wie in Figur 7 oder Figur 8 dargestellt enthält und oben beschrieben wurde. Der Ausgangsbasiskalkulator 124 berechnet die jeweiligen Ausgangsgrundvektoren, das heißt die Spalten der Matrix V&sub1; in Formel (vi) von Figur 9. Die Eingangsvektoren werden dem Eingangskalkulator 126 zur Berechnung der Eingangsgrundvektoren zugeführt, das heißt der Spalten von Matrix U&sub1; in Formel (vi) aus Figur 9.
  • Die entsprechenden Teile des Eingangskalkulators 126 werden mit den gleichen Bezugszeichen bezeichnet wie in den Figuren 7 und 8 und führen die gleichen Aufgaben aus, wie entsprechend beschrieben. Zur Berechnung eines bestimmten Eingangsgrundvektors wird also ein erster Schätzwert &sub1; über das Leitelement 74 in den Speicher 76 geladen. Für jeden nächsten Schätzwert wird ein nächster Eingangsvektor k+1 über das Leitelement 74 in das Multipliziermittel 84 eingegeben, um mit dem relevanten Faktor multipliziert zu werden, der vom Ausgangsbasiskalkulator 124 geliefert wird. Das Multiplikationsergebnis wird daraufhin in einen Addierer 86 geladen, um zu dem vorhergehenden Schätzwert addiert zu werden, der in Speicher 76 gespeichert ist. Nach Beendigung dieses iterativen Vorgangs hinsichtlich des bestimmten Eingangsvektors wird der zuletzt erhaltene Schätzwert auf Eins normalisiert, um als entsprechender Grundvektor zu dienen.
  • VIERTES BEISPIEL EINER ANORDNUNG
  • Es ist zu beachten, daß in einer erfindungsgemäßen Anordnung die folgenden Teile ausschließlich vorhanden sind, um sowohl in der Berechnung des Ausgangs-Schätzwertes als auch in der Berechnung des Eingangs-Schätzwertes benutzt zu werden: das Leitelement 74, das Multipliziermittel 84, der Addierer 86. Dies ist in Figur 13 dargestellt.
  • Figur 13 zeigt ein viertes Beispiel einer erfindungsgemäßen Anordnung 130. Die Bezugszeichen beziehen sich auf gleiche Teile wie in den Figuren 7, 8 und 12 angegeben. Der Vektorgenerator 122, der zum Beispiel die Kombination aus den Teilen 72 und 100 von Figur 8 enthalten kann, führt die Vektoren dem Leitelement 74 zu, das jetzt die entsprechenden Ausgangsvektoren entweder direkt dem Speicher 76 oder dem Register 78 sendet, wie in bezug auf die Figuren 7 und 8 beschrieben, und die entsprechenden Eingangsvektoren entweder direkt dem Speicher 76 oder dem Multipliziermittel 84 sendet, wie in bezug auf Figur 12 beschrieben.

Claims (9)

1. Verfahren zur Verarbeitung von Signaldaten mit einer Datenverarbeitungsanordnung, wobei das Verfahren die Bestimmung einer Approximation an einen höchstwertigen Eigenvektor einer Kovarianzmatrix umfaßt, die mit den als Vektoren in einem Vektorraum dargestellten Signaldaten verbunden ist, dadurch gekennzeichnet, daß die Bestimmung zur Steigerung der Verarbeitungsgeschwindigkeit in der Anordnung folgendes umfaßt:
- Annehmen eines Anfangsvektors 81 im genannten Vektorraum als einen ersten Schätzwert c&sub1;;
- Durchführen einer Iteration mit folgenden Schritten für jeden nächsten Schätzwert ck+1:
- Annehmen eines nächsten Vektors k+ 1 im genannten Vektorraum;
- Bestimmen von mindestens einer Polarität eines Skalarproduktes ck &theta;k+1 eines vorhergehenden Schätzwertes mit dem nächsten Vektor;
- Annehmen einer Summe des vorhergehenden Schätzwertes und des nächsten Vektors als den nächsten Schätzwert ck+1 , wobei der nächste Vektor durch einen Faktor gewichtet ist, welcher vom Skalarprodukt abhängt, um den nächsten Schätzwert in der Richtung des vorhergehenden Schätzwertes zu erhöhen;
- nach Beendigung der Iteration Nehmen des höchstwertigen Eigenvektors parallel zu einem zuletzt erhaltenen ck+1 der nächsten Schätzwerte.
2. Verfahren nach Anspruch 1, das die Bestimmung einer weiteren Approximation an einen weiteren Eigenvektor umfaßt, wobei die Bestimmung der weiteren Approximation folgendes umfaßt:
- Annehmen eines weiteren Anfangsvektors in einem Teilraum des genannten Vektorraums als einen ersten weiteren Schätzwert, wobei der Teilraum im wesentlichen schräg zu allen zuvor bestimmten Eigenvektoren verläuft;
- Durchführen einer Iteration mit den folgenden Schritten für jeden nächsten weiteren Schätzwert:
- Annehmen eines nächsten weiteren Vektors im genannten Teilraum;
- Bestimmen von mindestens einer Polarität eines weiteren Skalarproduktes eines vorhergehenden weiteren Schätzwertes mit dem nächsten weiteren Vektor;
- Annehmen einer Summe des vorhergehenden weiteren Schätzwertes und des nächsten weiteren Vektors als den nächsten weiteren Schätzwert, wobei der nächste weitere Vektor durch einen Faktor gewichtet ist, welcher vom weiteren Skalarprodukt abhängt, um den nächsten weiteren Schätzwert in der Richtung des vorhergehenden weiteren Schätzwertes zu erhöhen;
- nach Beendigung der Iteration Nehmen des weiteren Eigenvektors parallel zu einem zuletzt erhaltenen der nächsten weiteren Schätzwerte
3. Verfahren nach Anspruch 1, das folgendes umfaßt:
- den Faktor gleich Eins machen, wenn die Polarität positiv ist, oder minus Eins machen, wenn die Polarität negativ ist.
4. Verfahren nach Anspruch 1 oder 3, das folgendes umfaßt:
- Bestimmen, ob das Skalarprodukt einen Absolutwert hat, der kleiner ist als ein vorgegebener Schwellwert;
- den Faktor gleich Null setzen, wenn der Absolutwert kleiner ist als der Schwellwert.
5. Verfahren nach Anspruch 1 oder 2, benutzt für die Datenkomprimierung, wobei mindestens der höchstwertige der Eigenvektoren gespeichert oder als eine Darstellung der Signaldaten übertragen wird.
6. Verfahren nach Anspruch 1, 2 oder 5, angewendet auf die Verarbeitung von Signaldaten, die Bilddaten oder Sprachdaten enthalten.
7. Verfahren nach Anspruch 1, 2, 5 oder 6, angewendet auf die Datenkomprimierung.
8. Datenverarbeitungsanordnung zur Verarbeitung von Signaldaten durch die Bestimmung von mindestens einer Approximation an einen höchstwertigen Eigenvektor einer Kovarianzmatrix, die mit den als Vektoren in einem Vektorraum dargestellten Signaldaten verbunden ist, dadurch gekennzeichnet, daß die Bestimmung zur Steigerung der Verarbeitungsgeschwindigkeit in der Anordnung folgendes umfaßt:
- einen Speicher (76) zum Speichern eines Anfangsvektors des genannten Vektorraums als einen ersten Schätzwert;
- Mittel zur Durchführung (78, 80, 82, 84, 86) einer Iteration mit den folgenden Schritten für jeden nächsten Schätzwert
- Annehmen eines nächsten Vektors im genannten Vektorraum;
- Bestimmen eines Skalarproduktes eines vorhergehenden Schätzwertes mit dem nächsten Vektor;
- Bestimmen einer Summe des vorhergehenden Schätzwertes und des nächsten Vektors als den nächsten Schätzwert, wobei der nächste Vektor mit einem Faktor multipliziert wird, welcher vom Wert des Skalarprodukts abhängt;
- Speichern des nächsten Schätzwertes im Speicher;
- Mittel zum Liefern des höchstwertigen Eigenvektors parallel zu einem zuletzt erhaltenen der nächsten Schätzwerte nach Beendigung der Iteration.
9. Anordnung nach Anspruch 8, wobei die Durchführungsmittel folgendes umfassen:
- ein Register (78) zum Speichern des nächsten Vektors;
- Polaritätsmittel (80, 82), die mit dem Register und dem Speicher verbunden sind, um die Polarität des Skalarproduktes zu ermitteln;
- Summiermittel (84, 86) zum Bestimmen der Summe unter der Steuerung der Polaritätsmittel.
DE69031866T 1990-03-30 1990-03-30 Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation Expired - Fee Related DE69031866T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP90400875A EP0448890B1 (de) 1990-03-30 1990-03-30 Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation

Publications (2)

Publication Number Publication Date
DE69031866D1 DE69031866D1 (de) 1998-02-05
DE69031866T2 true DE69031866T2 (de) 1998-06-18

Family

ID=8205694

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69031866T Expired - Fee Related DE69031866T2 (de) 1990-03-30 1990-03-30 Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation

Country Status (4)

Country Link
US (2) US5379352A (de)
EP (1) EP0448890B1 (de)
JP (1) JPH04330556A (de)
DE (1) DE69031866T2 (de)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69031866T2 (de) * 1990-03-30 1998-06-18 Koninkl Philips Electronics Nv Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation
US5719024A (en) * 1993-08-18 1998-02-17 Applied Spectral Imaging Ltd. Method for chromosome classification by decorrelation statistical analysis and hardware therefore
FR2690771A1 (fr) * 1992-04-29 1993-11-05 Philips Electronique Lab Processeur neuronal muni de moyens pour normaliser des données.
US6009123A (en) * 1994-04-01 1999-12-28 Fujitsu Limited Process and system for transferring vector signal with precoding for signal power reduction
US5680409A (en) * 1995-08-11 1997-10-21 Fisher-Rosemount Systems, Inc. Method and apparatus for detecting and identifying faulty sensors in a process
US6134537A (en) * 1995-09-29 2000-10-17 Ai Ware, Inc. Visualization and self organization of multidimensional data through equalized orthogonal mapping
DE19609859C1 (de) * 1996-03-13 1997-07-24 Siemens Ag Verfahren zur Bildung einer Bild-Transformationsmatrix für ein beliebig geformtes Bildsegment eines digitalen Bildes, durch einen Rechner
US5887074A (en) * 1996-12-13 1999-03-23 Siemens Corporate Research, Inc. Local principal component based method for detecting activation signals in functional MR images
US5995927A (en) * 1997-03-14 1999-11-30 Lucent Technologies Inc. Method for performing stochastic matching for use in speaker verification
US7085393B1 (en) 1998-11-13 2006-08-01 Agere Systems Inc. Method and apparatus for regularizing measured HRTF for smooth 3D digital audio
AUPQ136299A0 (en) * 1999-07-02 1999-07-22 Microsystem Controls Pty Ltd Coin validation
KR100316720B1 (ko) * 2000-01-20 2001-12-20 윤종용 통계적 기법을 이용하여 데이터를 압축 및 재현하는 방법
JP3672234B2 (ja) * 2000-06-12 2005-07-20 インターナショナル・ビジネス・マシーンズ・コーポレーション データベースからのドキュメントのリトリーブ・ランク付け方法、コンピュータシステム、および記録媒体
US6675106B1 (en) 2001-06-01 2004-01-06 Sandia Corporation Method of multivariate spectral analysis
US6584413B1 (en) 2001-06-01 2003-06-24 Sandia Corporation Apparatus and system for multivariate spectral analysis
WO2004061702A1 (en) 2002-12-26 2004-07-22 The Trustees Of Columbia University In The City Of New York Ordered data compression system and methods
WO2004063964A2 (en) * 2003-01-07 2004-07-29 Hach Company Classification of deviations in a process
US7400772B1 (en) * 2003-05-20 2008-07-15 Sandia Corporation Spatial compression algorithm for the analysis of very large multivariate images
WO2004111930A2 (en) * 2003-05-30 2004-12-23 Rabinovich Andrew M Color unmixing and region of interest detection in tissue samples
US7523076B2 (en) 2004-03-01 2009-04-21 Tokyo Electron Limited Selecting a profile model for use in optical metrology using a machine learning system
US7280229B2 (en) 2004-12-03 2007-10-09 Timbre Technologies, Inc. Examining a structure formed on a semiconductor wafer using machine learning systems
US7421414B2 (en) 2005-03-31 2008-09-02 Timbre Technologies, Inc. Split machine learning systems
US20070230774A1 (en) * 2006-03-31 2007-10-04 Sony Corporation Identifying optimal colors for calibration and color filter array design
US8761248B2 (en) * 2006-11-28 2014-06-24 Motorola Mobility Llc Method and system for intelligent video adaptation
US7949618B2 (en) 2007-03-28 2011-05-24 Tokyo Electron Limited Training a machine learning system to determine photoresist parameters
US7372583B1 (en) 2007-04-12 2008-05-13 Tokyo Electron Limited Controlling a fabrication tool using support vector machine
US7483809B2 (en) 2007-04-12 2009-01-27 Tokyo Electron Limited Optical metrology using support vector machine with profile parameter inputs
US7511835B2 (en) 2007-04-12 2009-03-31 Tokyo Electron Limited Optical metrology using a support vector machine with simulated diffraction signal inputs
US20100231725A1 (en) * 2009-03-16 2010-09-16 Sony Corporation, A Japanese Corporation Illuminant independent color calibration using colored rays approach
US8530838B2 (en) * 2009-12-29 2013-09-10 Saint-Gobain Ceramics & Plastics, Inc. Radiation detection system and method of indicating presence of radiation
JP5524692B2 (ja) * 2010-04-20 2014-06-18 富士フイルム株式会社 情報処理装置および方法ならびにプログラム
US10341555B2 (en) * 2011-12-02 2019-07-02 Chromologic Llc Characterization of a physical object based on its surface roughness
US20150120392A1 (en) * 2013-10-25 2015-04-30 Cellco Partnership (D/B/A Verizon Wireless) Ranking of Store Locations Using Separable Features of Traffic Counts
CN106297820A (zh) * 2015-05-14 2017-01-04 杜比实验室特许公司 具有基于迭代加权的源方向确定的音频源分离
EP3418831B1 (de) * 2017-06-19 2023-08-16 C.R.F. Società Consortile per Azioni Verfahren zur durchführung eines rauschentfernungsvorgangs auf von einem sensor erfassten signalen und system daraus
US11131607B2 (en) 2019-05-02 2021-09-28 Caterpillar Inc. Modal analysis for damage rate measurement and prediction
US11740327B2 (en) * 2020-05-27 2023-08-29 Qualcomm Incorporated High resolution and computationally efficient radar techniques
WO2022167658A1 (en) * 2021-02-05 2022-08-11 Deepmind Technologies Limited Determining principal components using multi-agent interaction

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3754128A (en) * 1971-08-31 1973-08-21 M Corinthios High speed signal processor for vector transformation
US4945502A (en) * 1988-12-27 1990-07-31 Eastman Kodak Company Digital image sharpening method using SVD block transform
DE69031866T2 (de) * 1990-03-30 1998-06-18 Koninkl Philips Electronics Nv Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation

Also Published As

Publication number Publication date
EP0448890B1 (de) 1997-12-29
JPH04330556A (ja) 1992-11-18
US5379352A (en) 1995-01-03
EP0448890A1 (de) 1991-10-02
DE69031866D1 (de) 1998-02-05
US5583951A (en) 1996-12-10

Similar Documents

Publication Publication Date Title
DE69031866T2 (de) Verfahren und Anordnung zur Signalverarbeitung durch die Eigenvektortransformation
DE69838181T2 (de) Visualisierung und selbstorganisation multidimensionaler daten durch ausgeglichene orthogonale abbildung
Drucker et al. Boosting decision trees
DE69324052T2 (de) Neuronalnetzwerk-Lernsystem
DE60133840T2 (de) Vorrichtung und verfahren zur erzeugung einer dreidimensionalen darstellung aus einem zweidimensionalen bild
Blayo et al. Data analysis: How to compare Kohonen neural networks to other techniques?
DE60019786T2 (de) Identifizierung oder überprüfung von objektklassen, oder erzeugung von objektbildern
DE69222707T2 (de) Zeichenverdünnung mit Verwendung des Auftrittsverhaltens von lokal unabhängigen kompetitiven Prozessen
DE102021200012A1 (de) Optimierte quantisierung für neuronale netze mit verringerter auflösung
DE4217832C2 (de) Mustererkennungsgerät
DE60036138T2 (de) Nichtlineares datenabbildungs- und dimensionalitätsreduktionssystem
Pakshin et al. Iterative learning control of a multiagent system under random perturbations
EP0925541B1 (de) Verfahren und vorrichtung zur rechnergestützten generierung mindestens eines künstlichen trainingsdatenvektors für ein neuronales netz
DE69517249T2 (de) Anordnung zur segmentierung eines diskreten datensatzes
DE69710207T2 (de) Verfahren und gerät zur mustererkennung mit verwendung eines in unterkategorieen unterverteilten lexikons
DE60021888T2 (de) Fehlergrenzenmodell zur identifizierung von stochastischen modellen fuer einen steuerungsentwurf
Sum et al. A note on the equivalence of NARX and RNN
WO2023232175A1 (de) Verfahren zur bestimmung von grundzustandsenergien eines physikalischen systems mittels eines quantencomputers
DE69619154T2 (de) Verfahren und Vorrichtung zur Mustererkennung
DE69703663T2 (de) Lernverfahren für die klassifizierung von durch eine trennfläche erster oder zweiter ordnung in zwei klassen getrennten daten
DE69328596T2 (de) Optimierung eines Neuralnetzwerks mit Vorwärtskopplung
Huang et al. The ODE method and spectral theory of Markov operators
DE102022101766A1 (de) Quantisierungsverfahren und Quantisierungsvorrichtung für ein neuronales Netz
DE102020123155A1 (de) Quantisierungsverfahren eines künstlichen neuronalen Netzwerks und Operationsverfahren unter Verwendung eines künstlichen neuronalen Netzwerks
DE102021104181A1 (de) Bildverbesserung für realitätsnähe

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: LABORATOIRES D'ELECTRONIQUE PHILIPS S.A.S., LIMEIL

8339 Ceased/non-payment of the annual fee