DE69425166T2 - Verfahren und Gerät zur Mustererkennung - Google Patents
Verfahren und Gerät zur MustererkennungInfo
- Publication number
- DE69425166T2 DE69425166T2 DE69425166T DE69425166T DE69425166T2 DE 69425166 T2 DE69425166 T2 DE 69425166T2 DE 69425166 T DE69425166 T DE 69425166T DE 69425166 T DE69425166 T DE 69425166T DE 69425166 T2 DE69425166 T2 DE 69425166T2
- Authority
- DE
- Germany
- Prior art keywords
- category
- feature vector
- matrix
- pattern
- pattern recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19127—Extracting features by transforming the feature space, e.g. multidimensional scaling; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
- G06F18/21322—Rendering the within-class scatter matrix non-singular
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Description
- Die vorliegende Erfindung bezieht sich auf ein Mustererkennungsgerät und -verfahren mit einer derartigen Funktion, dass für einen unbekannten Eingangsvektor durch Ausgeben einer Gruppe von Kategorien, zu der der Eingangsvektor gehört, die Anzahl an Kandidatenkategorien, zu denen der Eingangsvektor gehört, verringert werden kann.
- Bei einem herkömmlichen Mustererkennungsgerät wird ein Eingangsvektor in dem Fall, dass die Anzahl an Kategorien als Ziele zur Erkennung sehr groß ist, dieser nicht mit allen Standardmustern als Kandidaten verglichen, sondern Verarbeitungen werden derart ausgeführt, dass eine vorbestimmte arithmetische Operation mit geringem Berechnungsumfang zuerst ausgeführt wird, und eine Gruppe von Kategorien, die als Kategoriegruppe bestimmt werden können, zu der der Eingangsvektor gehört, wird unter Bezugnahme auf eine Tabelle entsprechend den Werten der Ergebnisse der arithmetischen Operationen ausgewählt, und die in der Kategoriegruppe enthaltenen Kategorien werden als Kandidaten ausgegeben. Derartige Verarbeitungen werden allgemein als Einengung oder Klassifizierung der Kandidaten bezeichnet. Da die Anzahl an Kandidatenkategorien durch einen derartigen Klassifizierungsvorgang verringert wird, kann die Gesamtverarbeitungszeit reduziert werden. Nachstehend werden Beispiele einer derartigen Klassifizierung beschrieben. Fig. 8 zeigt einen Aufbau eines herkömmlichen Geräts zur Zeichenerkennung. In der Darstellung bezeichnet das Bezugszeichen 71 eine Eingabeeinheit zur Umwandlung eines Dokumentenbildes als Ziel zur Erkennung in ein elektrisches Signal, 72 einen Merkmalsextrahierer zum Extrahieren eines Merkmals, das besonders für ein Zeichen ist, aus einem Eingangssignal von der Eingabeeinheit 71 bei jedem Zeichen und zur Erzeugung eines Merkmalsvektors, 75 bis 78 Abschnitte zur Ausführung eines Klassifizierungsvorgangs, 76 einen Parameterspeicher, in dem Parameter für den Klassifizie rungsvorgang gespeichert wurden, 75 eine Klassifizierungsverarbeitungseinheit, 78 eine Kategorietabelle, 77 eine Kategorietabellen-Bezugnahmeeinheit zur Bezugnahme auf die Kategorietabelle 78 anhand des Ergebnisses des Klassifizierungsvorgangs, 80 ein Verzeichnis, in dem Standardmuster aller Kandidatenkategorien als Ziele zur Erkennung als Mittelvektoren gespeichert sind, 79 einen Vergleicher zur Auswahl der Kategorie als Erkennungsergebnis, das die kleinste Distanz zwischen dem Standardvektor in dem Verzeichnis 80 und dem Eingangsvektor liefert, und 81 eine Ausgabeeinheit zur Ausgabe der Kandidatenkategorie, die schließlich durch den Vergleicher 79 ausgewählt wurde.
- Eine Aufgabe der Klassifizierung besteht in der Verringerung der Anzahl an Kategorien, die die Kandidaten werden können, mittels eines geringen Berechnungsaufwands, der so gering als möglich ist. Allerdings sind im allgemeinen sogar im Fall von Mustern, die zur gleichen Kategorie gehören, diese derart verteilt, dass sie einen gewissen Abweichungsgrad aufweisen. Fig. 9 zeigt eine schematische Darstellung des Zustands jeder Kategorieverteilung im Fall, dass die Anzahl der Dimensionen des Merkmalsvektors auf zwei eingestellt ist. Die Musterdaten sind auf eine Fläche um den Kategoriemittelvektor mit Abweichungen wie C1, C2, ... verteilt.
- Zur Einengung der Anzahl an Kategorien wird ein Fall zur Einteilung der Kategorien durch Ebenen in Betracht gezogen, die sich senkrecht in einem Raum in Fig. 9 schneiden (allgemein wird angenommen, dass die Anzahl der Dimensionen des Merkmalsvektors auf N eingestellt ist, N-dimensionale Hyperebene). Bei der Betrachtung des Falls der Einteilung durch die Hyperebene ist es effektiv, die zu einer Richtung senkrechte Ebene derart einzustellen, dass die Abweichung so groß als möglich ist. Daher wird zuerst die Hauptkomponente für den Mittelvektor einer Kategorie analysiert, und die oberen L Eigenvektoren unter den Eigenvektoren, die als Ergebnis der Analyse erhalten werden, werden als Basisvektoren ei (i = 1, 2, ..., L) der Hyperebene eingesetzt. Die vorstehend angeführten Eigenvektoren weisen die gleichen Werte wie die Eigenvektoren einer Zwischenkategorie- Kovarianzmatrix SB auf. Die Definition der Zwischenkategorie- Kovarianzmatrix SB ist durch folgende Gleichung gegeben.
- SB = (1/C ( (k) - XT)( (k) - XT)'
- (k): Mittelvektor einer Kategorie k
- XT: Gesamtmittelvektor aller Muster
- Strich('): Transponierwert
- In dem Beispiel aus Fig. 9 werden vier Räume E&sub1;, E&sub2;, E&sub3; und E&sub4; durch die oberen zwei Basisvektoren e&sub1; und e&sub2; erhalten (Fig. 10). Der Raum, zu dem jedes Muster gehört, wird zuvor bezüglich aller Lernmuster untersucht. In dem Fall, dass selbst eine kleine Anzahl von Lernmustern in jedem Raum enthalten ist, wird berücksichtigt, dass die Kategorie, zu der die Lernmuster gehören, in einem derartigen Raum enthalten ist, so dass jeder Raum und die Kategorie, zu der die Lernmuster gehören, in einer Tabelle registriert werden.
- Bei der Eingabe eines unbekannten Merkmalsvektors X wird eine Skalarproduktoperation mit den Basisvektoren ei durch den Klassifizierungsvorgang in der Klassifizierungsverarbeitungseinheit 75 durchgeführt, der Raum, zu dem X gehört, wird untersucht, und es wird auf die vorstehend angeführte Tabelle Bezug genommen, so dass die Kategorien eingeengt werden können. Lediglich die Kategorien, die eingeengt wurden, werden mit dem Verzeichnis 80 durch den Vergleicher 79 verglichen. Die optimale Kategorie wird durch die Ausgabeeinheit 81 ausgegeben.
- Bei dem vorstehend beschriebenen herkömmlichen Verfahren gibt es allerdings Nachteile dahingehend, dass die Innerkategorie- Kovarianzmatrix größer verglichen mit der Zwischenkategorie- Kovarianzmatrix ist und die Anisotropie der Innerkategorie- Kovarianzmatrix stark ist und die Anzahl an in jedem unterteilten Raum enthaltenen Kategorien groß ist, so dass die Anzahl an Kategorien nicht effektiv eingeengt werden kann. Fig. 11 zeigt eine schematische Darstellung eines Beispiels in einem derartigen Fall. Da die Überlappung zwischen den Kategorien groß ist, ist die effektive Trennung dieser Kategorien durch die Hyperebene schwierig.
- Der Erfindung liegt die Aufgabe zugrunde, ein Mustererkennungsverfahren und ein Gerät auszugestalten, das die Anzahl an Kategorien selbst in Fällen wie vorstehend beschrieben effektiv einengen kann.
- Erfindungsgemäß wird, wie in den Patentansprüchen definiert, ein Merkmalsvektor extrahiert und zur Bewirkung einer Trennung zwischen Kategorien umgewandelt, eine Skalarproduktoperation mit einem vorbestimmten Basisvektor wird ausgeführt und es wird auf eine Kategorietabelle Bezug genommen. Aufgrund dessen können die vorstehend angeführten herkömmlichen Probleme gelöst und selbst in einem Fall wie in Fig. 11 gezeigt die Anzahl an Kategorien effektiv eingeengt werden.
- Gemäß einem Ausführungsbeispiel der Erfindung werden nach der Durchführung einer Umwandlung derart, dass eine Mittelverteilungsmatrix Sw jeder Innerkategorie-Kovarianzmatrix eine Einheitsmatrix wird, die Kategorien durch eine Hyperebene getrennt. Daher können lediglich die Kategorien, von denen angenommen wird, dass ein Eingangsvektor zu ihnen gehört, aus einer Anzahl von Kandidatenkategorien effektiv eingeengt werden, so dass sich eine Wirkung dahingehend ergibt, dass ein Muster mit geringerem Berechnungsaufwand erkannt werden kann.
- Fig. 1 zeigt ein Blockschaltbild eines Aufbaus eines Mustererkennungsgeräts gemäß dem ersten Ausführungsbeispiel der Erfindung,
- Fig. 2 zeigt ein Ablaufdiagramm für das erste Ausführungsbeispiel der Erfindung,
- Fig. 3 zeigt eine Darstellung zur Beschreibung der Normalisierung eines Zeichenbildes,
- Fig. 4 zeigt eine Speicherabbildung eines Aufbaus einer Kategorietabelle in Fig. 1,
- Fig. 5 zeigt eine schematische Darstellung zur Beschreibung eines Umwandlungszustands bei dem ersten Ausführungsbeispiel,
- Fig. 6 zeigt eine schematische Darstellung zur Beschreibung der Kategorientrennung gemäß dem ersten Ausführungsbeispiel,
- Fig. 7 zeigt ein schematisches Blockschaltbild des Mustererkennungsgeräts des Ausführungsbeispiels,
- Fig. 8 zeigt ein Blockschaltbild eines Aufbaus eines herkömmlichen Mustererkennungsgeräts,
- Fig. 9 zeigt eine schematische Darstellung zur Beschreibung der Kategorientrennung bei dem herkömmlichen Gerät,
- Fig. 10 zeigt eine schematische Darstellung zur Beschreibung der Kategorientrennung bei dem herkömmlichen Gerät und
- Fig. 11 zeigt eine schematische Darstellung eines Beispiels für den Fall, dass die Trennung der Kategorien schwierig ist.
- Nachstehend wird ein Ausführungsbeispiel der Erfindung unter Bezugnahme auf die Zeichnung beschrieben.
- Fig. 1 zeigt den Aufbau eines Mustererkennungsgeräts eines Ausführungsbeispiels der Erfindung. In der Darstellung bezeichnet das Bezugszeichen 11 eine Eingabeeinheit zur Umwandlung eines Dokumentenbildes als Ziel zur Erkennung in ein elektrisches Signal, 12 einen Merkmalsextrahierer zur Extraktion eines Merkmals, das besonders für ein Zeichen ist, aus einem Eingangssignal von der Eingabeeinheit 11 für jedes Zeichen und zur Erzeugung eines Merkmalsvektors, 13 eine Umwandlungseinheit, die als vorbestimmte Umwandlungsmatrix bei einem Eingangsvektor dient, der dabei umgewandelt wird, 14 einen Umwandlungsmatrixspeicher zur Speicherung der Umwandlungsmatrix, 15 bis 18 Abschnitte zur Durchführung eines Klassifizierungsvorgangs, 16 einen Parameterspeicher, in dem Parameter für den Klassifizierungsvorgang gespeichert sind, 15 eine Klassifizierungsverarbeitungseinheit, 18 eine Kategorietabelle, 17 eine Kategorietabellen- Bezugnahmeeinheit zur Bezugnahme auf die Kategorietabelle 18 anhand des Ergebnisses des Klassifizierungsvorgangs, 20 ein Verzeichnis, in dem Standardmuster aller Kandidatenkategorien als Erkennungsziele als Mittelvektoren gespeichert sind, 19 einen Vergleicher zur Auswahl der Kategorie, die die kleinste Distanz zwischen dem Standardvektor in dem Verzeichnis 20 und dem Eingangsvektor als Erkennungsergebnis liefert, und 21 eine Ausgabeeinheit zur Ausgabe der Kandidatenkategorie, die schließlich von dem Vergleicher 19 ausgewählt wird.
- Zuerst wird ein Verfahren zum Erhalten der Umwandlungsmatrix und von Parametern für einen Klassifizierungsvorgang beschrieben. In einem Fall wie in Fig. 10 gezeigt, ist die Trennung jeder Kategorie durch eine Hyperebene gemäß dem herkömmlichen Verfahren schwierig, da die Innerkategorie-Kovarianzmatrix größer ist verglichen mit der Zwischenkategorie-Kovarianzmatrix und die Anisotropie der Innerkategorie-Kovarianz stark ist. Gemäß dem Ausführungsbeispiel werden daher nach der Durchführung einer Umwandlung derart, dass die Mittelkovarianzmatrix Sw jeder Innerkategorie-Kovarianzmatrix eine Einheitsmatrix geworden ist, die Kategorien unter Verwendung einer Hyperebene getrennt.
- Die Verteilung der Kategorie k wird näherungsweise durch eine Kovarianzmatrix folgender Gleichung ausgedrückt.
- Sk = (1/n(k) (Xi(k) - (k))(Xi(k) - (k))'
- (k): Mittelvektor der Kategorie k
- n(k): Anzahl der Lernmuster der Kategorie k
- Andererseits ist für eine Kovarianzmatrix Sk (k = 1, ..., C: C bezeichnet die Anzahl der Kategorien) der Kategorie k eine Innermittelkategorie-Kovarianzmatrix Sw durch die folgende Gleichung definiert:
- Sw = (1/C) Sk
- Nun wird angenommen, dass die Anzahl der Dimensionen von X auf N eingestellt ist, und die folgende Umwandlung wird ausgeführt.
- = AX(X RN
- [A - Aufgabe der Erfindung]
- : N· N) ...(1)
- A = UM-1/2 U' (bei diesem Beispiel A' = A)
- Punkt (·): Wert nach der Umwandlung
- Strich ('): Transponierwert
- M und U bezeichnen jeweils eine Eigenwertmatrix und eine Eigenvektormatrix von Sw. Das heißt, unter der Annahme, dass die Eigenwerte der Innermittelkategorie-Kovarianzmatrix Sw auf ul, ..., uN gesetzt sind, und ihre Eigenwerte jeweils auf Φ&sub1;, ..., ΦN gesetzt sind, ist
- M = diag(u&sub1;, ..., uN)
- M-1/2 = diag(1/ u&sub1;, ..., 1/ uN)
- U = (Φ&sub1;, ..., ΦN)
- Bei diesem Beispiel ist
- M-1/2 = diag(1/ u&sub1;, ..., 1/ uN)
- Aus den Definitionen der Eigenwertmatrix und der Eigenvektormatrix wird
- Sw = UMU'
- erhalten.
- Es gilt:
- w = A'SwA
- UM-1/2U'SwM-1/2U'
- = UM-1/2U'UMU'UM-1/2U'
- = UM-1/2MM-1/2U'
- = UU'
- = I
- Es ist ersichtlich, dass nach der Umwandlung von (1) die Innermittelkategorie-Kovarianzmatrix zu einer Einheitsmatrix wie in Fig. 5 gezeigt wird.
- Fig. 6 zeigt eine schematische Darstellung eines Zustands nach dem Abschluss der Umwandlung durch A. Es ist ersichtlich, dass der Trennungsvorgang durch die Hyperebene effektiver ausgeführt werden kann, da der Gruppierungsgrad jeder Kategorie gut ist. Die Normalisierung der Kovarianzmatrix in die Einheitsmatrix selbst ist ein bekanntes Verfahren, das sogenannte Weißfärbungs- oder "Whitening"-Verfahren (Quellenliteratur: Noriyuki Ohtsu, "The Mathematical Study About the Feature Extraction in the Pattern Recognition", Study Report of The Electric Overall Laboratory, Juli 1981, Gala, B. E. "A data clustering algorithm for feature extraction and unsupervised learning" IEEE Proc, of the Conf. on Computer Graphics Pattern Recognition and Data Structure, 14. Mai 1975, Long Beach, CA, Seiten 323 bis 332).
- Die Umwandlungsmatrix A wird in den Umwandlungsmatrixspeicher 14 geschrieben. Nachdem alle Lernmuster durch die Umwandlungsmatrix A umgewandelt wurden, werden der Gesamtmittelvektor T und die Basisvektoren ei, die die Hyperebene zur Einteilung des Raums anzeigen, erhalten. Die Basisvektoren ei werden auf im wesentlichen die gleiche Art und Weise wie bei dem herkömmlichen Verfahren bestimmt. Das heißt, die Hauptkomponente wird für den Mittelvektor jeder Kategorie analysiert, und die oberen L Eigenvektoren unter den Eigenvektoren, die als Ergebnis der Analyse erhalten werden, werden als Basisvektoren ei (i = 1, 2, ..., L) der Hyperebene eingesetzt. Die Einstellung des Werts von L auf einen großen Wert ist zur Reduzierung der Anzahl an Kandidatenkategorien effektiv. Wenn aber der Wert von L groß ist, erhöht sich die Größe einer Kategorietabelle, die nachste hend beschrieben wird. Daher wird L experimentell auf einen geeigneten Wert gesetzt. Als geeigneter Wert von L reicht es bei diesem Beispiel aus, L auf einen Wert in einem Bereich von 1/d bis 1/(d+10) der Anzahl an Dimensionen des Merkmalsvektors zu setzen, wobei d eine beliebige ganze Zahl ist. Die wie vorstehend beschrieben erhaltenen Werte ei und T werden in den Parameterspeicher 16 geschrieben.
- Andererseits wird auch zuvor untersucht, zu welchem der unterteilten Räume alle Lernmuster nach der Umwandlung gehören. Selbst im Fall, dass eine kleine Anzahl an Lernmustern in jedem Raum enthalten ist, wird berücksichtigt, dass die Kategorie, zu der die Lernmuster gehören, in einem derartigen Raum enthalten ist. Ein derartiger Bezug wird in der Kategorietabelle 18 registriert.
- Fig. 7 zeigt ein schematisches Blockschaltbild eines Mustererkennungsgeräts als Beispiel zur Ausführung der Erfindung.
- Das Bezugszeichen 101 bezeichnet eine CPU bzw. Zentraleinheit zur Speicherung der Verarbeitungen des gesamten Geräts. Die CPU 101 führt die Verarbeitungen auf der Grundlage eines in einem ROM 102 gespeicherten Steuerprogramms aus. Das Steuerprogramm des Ablaufdiagramms aus Fig. 2, das Verzeichnis und andere Daten sind in dem ROM 102 gespeichert. Ein RAM 103 wird als Arbeitsspeicher zur Speicherung von Daten während der Ausführung jeder Verarbeitung verwendet. Das Bezugszeichen 104 bezeichnet eine Schnittstelle zur Steuerung der Kommunikation zwischen einem anderen Mustererkennungsgerät und einem Anschluss eines Computers zur Durchführung einer Bildeingabe von einem anderen Gerät, der Ausgabe des Erkennungsergebnisses und dergleichen. Das Bezugszeichen 105 bezeichnet eine Abtasteinrichtung zum optischen Lesen des Originalbildes als Erkennungsziel, 106 eine Eingabeeinheit, wie eine Tastatur oder eine Zeigeeinrichtung oder eine andere Einrichtung, die Befehle zum Start, zur Unterbrechung und Befehle anderer Art zur Verarbeitung eingeben kann, und 107 eine Anzeigeeinrichtung wie eine CRT-Einrichtung oder ein Flüssigkristallanzeigefeld zur Anzeige eines von einer Abtasteinrichtung oder einer anderen Eingabeeinrichtung eingegebenen Bildes, von Erkennungsergebnissen und während des Erkennungsvorgangs ausgegebenen Nachrichten.
- Der Verarbeitungsablauf bei dem Ausführungsbeispiel wird nachstehend unter Bezugnahme auf das Ablaufdiagramm in Fig. 2 beschrieben. In Schritt S201 wird das Dokumentenbild durch die Abtasteinrichtung 105 gelesen, und die Bilddaten werden in binäre digitale Bilddaten umgewandelt. In Schritt S202 wird ein Zeichenextrahiervorgang zur Extraktion eines Bereichs jedes Zeichens aus den ausgelesenen Bilddaten ausgeführt. In Schritt S203 werden die Bilddaten eines Zeichens auf eine vorbestimmte Größe normalisiert. Zu diesem Zweck wird ein Pufferspeicher zur Speicherung der normalisierten Bilddaten, bei denen eine vorbestimmte Länge 64 auf eine Seite eingestellt wird, ausgebildet, und die Bilddaten eines Zeichens werden normalisiert und gespeichert. Die Beschreibung wird nachstehend insbesondere anhand Fig. 3 durchgeführt. Die Daten eines Zeichens des Originalbildes werden durch a(i, j) (0 ≤ i < w, 0 ≤ j < h) ausgedrückt. Die Höhe des Zeichens wird auf h und die Breite auf w eingestellt. a(i, j) weist einen Wert 1 für einschwarzes Bildelement und einen Wert 0 für ein weißes Bildelement auf. Nun wird unter der Annahme, dass die Daten nach der Normalisierung auf b(i, j) = (0 ≤ i, j < 64) gesetzt sind, diese berechnet durch
- b(i, j) = a(64 · i/w, 64 · j/h)
- (für alle Werte von i und j, die die Beziehung (0 ≤ i, j < 64) erfüllen)
- Nachdem das Zeichenbild auf ein Quadrat mit der Länge einer Seite von 64 normalisiert wurde, werden die Merkmale gemäß einem vorbestimmten Algorithmus in Schritt S204 extrahiert. Bei dem Ausführungsbeispiel wird das normalisierte Zeichenbild in (8 · 8) kleine Bereiche eingeteilt, die Anzahl der schwarzen Bildelemente wird für jeden kleinen Bereich erfasst, und ein Histogramm wird erhalten. Da die Anzahl der schwarzen Bildele mente für alle 64 kleinen Bereiche berechnet wird, wird der 64- dimensionale Merkmalsvektor X als Ganzes erzeugt.
- In Schritt S205 wird die vorstehend beschriebene Umwandlungsmatrix bei dem extrahierten Merkmalsvektor X angewendet, wodurch der umgewandelte Merkmalsvektor erhalten wird.
- In Schritt S206 werden durch die Ausführung der folgenden Skalarproduktoperation bei dem Merkmalsvektor nach dem Abschluss der Umwandlung Werte p&sub1;, p&sub2;, ..., pL zum Durchsuchen der Kategorietabelle erhalten
- wenn ei ( - T) ≥ 0, pi = 1
- wenn ei ( - T) < 0, pi = 0
- (i = 1, 2, ..., L)
- Der Wert γ zur Bezugnahme auf die Kategorietabelle wird unter Verwendung von pi als Ergebnis der vorstehenden Skalarproduktoperation gemäß folgender Gleichung berechnet.
- γ = pi · 2i-1
- γ hat die Werte von 0 bis 2L-1, die den Raum anzeigen, zu dem gehört. In Schritt S207 wird die Kategorietabelle unter Verwendung von γ durchsucht. Fig. 4 zeigt einen Speicheraufbau zur Beschreibung der Kategorietabelle 18 in Fig. 1. Anhand des Werts von γ wird zuerst auf eine Adressentabelle AT[γ] Bezug genommen. Anhand des Werts der Adressentabelle AT[γ] wird auf eine Position 41 einer Kategorietabelle CT[0] Bezug genommen, und die nach der Position 41 gespeicherten Kategorien werden als Kandidatenkategorien eingestellt. Eine Anzahl m wird an einer ersten Position 41 gespeichert. Nachfolgend werden (m) Codes, die die Kandidatenkategorien anzeigen, aufeinanderfolgend nach einer Position 42 gespeichert. Die Anzahl (m) ist nicht konstant, sondern in Abhängigkeit von jeder Gruppe verschieden. Bei dem Aufbau in Fig. 1 wird auch die Adressentabelle AT in einem vorbestimmten Bereich in der Kategorietabelle 18 gespei chert. Die in der Kategorietabelle CT enthaltenen Kategorien werden zuvor durch Berechnung des Bezugswerts γ für die Lernmuster und durch Untersuchen des Raums erhalten, zu dem der Wert von γ gehört.
- Der Merkmalsvektor wird lediglich für die (m) eingeengten Kandidatenkategorien mit den in dem Verzeichnis gespeicherten Standardmustern in Schritt S208 verglichen. Die Kategorie, die die kleinste Distanz liefert, wird schließlich als Kandidatenkategorie ausgewählt und in Schritt S209 ausgegeben.
- Ein zweites Ausführungsbeispiel verwendet ein Verfahren, bei dem lediglich die Elemente einer großen Effizienz zur Klassifizierung unter den Elementen des ursprünglichen Merkmalsvektors als Umwandlungsmatrix verwendet werden. Für den 64- dimensionalen Merkmalsvektor wird, ähnlich wie bei dem ersten Ausführungsbeispiel, ein Grad R(j) einer Alleinklassifizierungseffektivität einer Merkmalsachse j durch die folgende Gleichung definiert.
- R(j) = σ /σ
- wobei σ und σ jeweils eine Zwischenkategorievarianz lediglich durch die Komponente der Merkmalsachse j und eine Inner-Mittelkategorievarianz bezeichnen.
- Ein neuer Merkmalsvektor wird lediglich durch die oberen L Merkmalsgrößen von einem größeren Wert von R(j) gebildet. Der Vorgang zur Berechnung des Skalarprodukts unter Verwendung von und die nachfolgenden Verarbeitungen sind im wesentlichen gleich jenen in dem ersten Ausführungsbeispiel.
- Die Erfindung ist als Mittel zur Einengung der Anzahl an möglichen Kategorien zu verstehen, zu denen der Eingangsmerkmalsvektor gehören kann, und ist nicht auf die Art des Eingangsvektors oder der Kategorie beschränkt. Die Erfindung kann daher auf verschiedenen Erkennungsgebieten wie der Zeichen-, Sprach- oder Bilderkennung angewendet werden.
Claims (11)
1. Mustererkennungsgerät (11-21; 101-107) mit
einer Eingabeeinrichtung (11; 104, 105) zur Eingabe
von Musterdaten,
einer Merkmalsvektorextraktionseinrichtung (12; 101-
103), die bei den Musterdaten zur Extraktion eines
Merkmalsvektors (X) betreibbar ist,
einer Umwandlungseinrichtung (13, 14; 101-103), die
bei dem Merkmalsvektor ( ) zur Erzeugung eines
umgewandelten Merkmalsvektors (X) betreibbar ist, wobei die
Umwandlungseinrichtung eine Umwandlungsmatrix (A) verwendet, die
zur Umwandlung einer Innermittel-Kovarianzmatrix (Sw) in
eine Einheitsmatrix ( w, I) ausgewählt ist, wobei die
Innermittel-Kovarianzmatrix (Sw) aus einer Vielzahl von
Kovarianzmatrizen (Sk: k = 1 bis C), die die Kovarianz zwischen
den Mustererkennungskandidaten in einer (k) der Vielzahl
von Kategorien (1 bis C) von Mustererkennungskandidaten
darstellen, und einem Mittelvektor ( (k)) für diese
Kategorie (k) bestimmt wird,
einer Klassifizierungsverarbeitungseinrichtung (15,
16; 101-103) zur Bestimmung der Skalarprodukte (ei· : i = 1
bis L) zwischen dem umgewandelten Merkmalsvektor ( ) und
einer Vielzahl von Basisvektoren (ei: i = 1 bis L), wobei
die Basisvektoren Eigenvektoren (Φ&sub1;, ..., ΦL) der Innermittel-
Kovarianzmatrix (Sw) sind, die beim Auswählen der
Umwandlungsmatrix (A) bestimmt werden, und
einer Kategorieauswahleinrichtung (17, 18; 101-103),
die eine Kategorietabelle (18) zur Auswahl zumindest einer
Kategorie von Mustererkennungskandidaten aus der
Kategorie
tabelle (18) auf der Grundlage (γ, pi : 1 = 1 bis L) der
bestimmten Skalarprodukte (ei· : i = 1 bis L) enthält, wobei
die Kategorietabelle (18) anzeigt, welche Bereiche
(E&sub1;, ..., EN) des Hyperraums, der durch durch die
Basisvektoren (ei) definierte Hyperebenen unterteilt wird, auf durch
die Umwandlungsmatrix (A) umgewandelten Kategorien
überlappen.
2. Gerät nach Anspruch 1, ferner mit
einer Vergleichereinrichtung (19, 20; 101-103) mit
einem Musterverzeichnis (20) von Mustererkennungskandidaten
zum Vergleich des Merkmalsvektors (X) mit jenen Kandidaten
der zumindest einen durch die Kategorieauswahleinrichtung
ausgewählten Kategorie und zum Erkennen des durch den
Merkmalsvektor dargestellten Eingabemusters und
einer Ausgabeeinrichtung (21; 104, 107) zur Ausgabe
des Ergebnisses des durch die Vergleichereinrichtung (19,
20) durchgeführten Vergleichs.
3. Gerät nach Anspruch 1 oder 2, wobei die
Eingabeeinrichtung (11; 105) eine Abtasteinrichtung (105) zur Eingabe
von Zeichentext oder Bildmusterdaten umfasst.
4. Gerät nach einem der Ansprüche 1 bis 3, wobei die
Eingabeeinrichtung (11; 104) eine Einrichtung (104) zur
Eingabe von Sprachmusterdaten umfasst.
5. Gerät nach einem der vorhergehenden Ansprüche, wobei die
Merkmalsvektorextraktionseinrichtung (12), die
Umwandlungseinrichtung (13, 14), die
Klassifizierungsverarbeitungseinrichtung (15, 16) und die
Kategorieauswahleinrichtung (17, 18) alle mittels eines programmierten
Mikrocomputers (101-103) implementiert sind.
6. Mustererkennungsverfahren mit den Schritten
Eingeben von Musterdaten,
Extrahieren eines Merkmalsvektors (X) aus den
Musterdaten,
Umwandeln des Merkmalsvektors (X) in einen
umgewandelten Merkmalsvektor ( ) durch eine Matrixumwandlung unter
Verwendung einer zur Umwandlung einer Innenmittel-
Kovarianzmatrix (Sw) in eine Einheitsmatrix ( w, I)
ausgewählten Umwandlungsmatrix (A), wobei die Innenmittel-
Umwandlungsmatrix (Sw) aus einer Vielzahl von
Kovarianzmatrizen (Sk:k = 1 bis C), die die Kovarianz zwischen den
Mustererkennungskandidaten in einer (k) der Vielzahl von
Kategorien (1 bis C) der Mustererkennungskandidaten
darstellen, und einem Mittelvektor ( (k)) für diese Kategorie
(k) bestimmt wird,
Klassifizieren des Merkmalsvektors (X) durch Bestimmen
der Skalarprodukte (ei· : i = 1 bis L) zwischen dem
umgewandelten Merkmalsvektor ( ) und einer Vielzahl von
Basisvektoren (ei: 1 = 1 bis L), wobei die Basisvektoren
Eigenvektoren (Φ&sub1;, ..., ΦL) der Innenmittel-Kovarianzmatrix (Sw)
sind, die beim Auswählen der Umwandlungsmatrix (A) bestimmt
werden, und
Auswählen zumindest einer Kategorie der
Mustererkennungskandidaten aus einer Kategorietabelle (18) auf der
Grundlage der bestimmten Skalarprodukte, wobei die
Kategorietabelle anzeigt, welche Bereiche (E&sub1;, E&sub2;, ...) des
Hyperraums, der durch durch die Basisvektoren (ei) definierte
Hyperebenen eingeteilt wird, auf durch die
Umwandlungsmatrix (A) umgewandelten Kategorien überlappen.
7. Verfahren nach Anspruch 6, ferner mit dem Schritt zum
Vergleichen des extrahierten Merkmalsvektors (X) mit in
einem Musterverzeichnis (20) gespeicherten
Standardmusterkandidaten für jene Kandidaten der zumindest einen
ausgewählten Kategorie, die auf der Grundlage der bestimmten
Skalarprodukte ausgewählt wird.
8. Verfahren nach Anspruch 6 oder 7, wobei der Schritt zur
Eingabe von Musterdaten durch optisches Lesen von
Zeichen
text oder eines Bildes unter Verwendung einer
Abtasteinrichtung durchgeführt wird.
9. Verfahren nach Anspruch 6 oder 7, wobei der Schritt zur
Eingabe von Musterdaten durch die Eingabe von
Sprachmusterdaten durchgeführt wird.
10. Verfahren nach einem der Ansprüche 6 bis 9, wobei die
Schritte zur Extraktion des Merkmalsvektors, zur Umwandlung
des Merkmalsvektors, zur Klassifizierung des
Merkmalsvektors und zur Auswahl der zumindest einen Kategorie der
Mustererkennungskandidaten durch den Ablauf eines Programms
auf einem programmierten Mikrocomputer (101-103) mit einem
Mikroprozessor (101) und einem Nur-Lese-Speichermedium
(102) durchgeführt werden.
11. Speichermedium (102) zur Speicherung von Befehlen zur
Steuerung eines Mikroprozessors (101) zur Ausführung des
Verfahrens nach Anspruch 10.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5038208A JPH06251156A (ja) | 1993-02-26 | 1993-02-26 | パターン認識装置 |
| JP01637794A JP3372631B2 (ja) | 1994-02-10 | 1994-02-10 | パターン認識方法及び装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE69425166D1 DE69425166D1 (de) | 2000-08-17 |
| DE69425166T2 true DE69425166T2 (de) | 2001-03-15 |
Family
ID=26352714
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE69425166T Expired - Lifetime DE69425166T2 (de) | 1993-02-26 | 1994-02-25 | Verfahren und Gerät zur Mustererkennung |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US5671293A (de) |
| EP (1) | EP0613101B1 (de) |
| DE (1) | DE69425166T2 (de) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102007036277A1 (de) | 2007-07-31 | 2009-02-05 | Technische Universität Berlin | Verfahren und Vorrichtung zur automatischen Mustererkennung |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10143613A (ja) * | 1996-10-30 | 1998-05-29 | Hewlett Packard Co <Hp> | パタン認識方法 |
| JP2836681B2 (ja) * | 1997-01-14 | 1998-12-14 | 日本電気株式会社 | パタンマッチング符号化方法及び符号化装置 |
| US6539115B2 (en) * | 1997-02-12 | 2003-03-25 | Fujitsu Limited | Pattern recognition device for performing classification using a candidate table and method thereof |
| US6226408B1 (en) * | 1999-01-29 | 2001-05-01 | Hnc Software, Inc. | Unsupervised identification of nonlinear data cluster in multidimensional data |
| JP4570764B2 (ja) * | 2000-12-01 | 2010-10-27 | 本田技研工業株式会社 | 運動情報認識システム |
| WO2004055697A1 (ja) * | 2002-12-13 | 2004-07-01 | Fujitsu Limited | 処理方法、処理装置及びコンピュータプログラム |
| US7961955B1 (en) | 2008-01-28 | 2011-06-14 | Thomas Cecil Minter | Adaptive bayes feature extraction |
| EP2521092A1 (de) * | 2009-12-28 | 2012-11-07 | Cyber Ai Entertainment Inc. | Bilderkennungssystem |
| CN106203478A (zh) * | 2016-06-27 | 2016-12-07 | 南昌大学 | 一种用于智能电表大数据的负荷曲线聚类方法 |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4155072A (en) * | 1976-12-17 | 1979-05-15 | Ricoh Company, Ltd. | Character recognition apparatus |
| JPS5944667B2 (ja) * | 1978-03-28 | 1984-10-31 | 株式会社東芝 | パタ−ン認識装置 |
| DE2844156A1 (de) * | 1978-10-10 | 1980-04-24 | Philips Patentverwaltung | Verfahren zum verifizieren eines sprechers |
| JPS55157799A (en) * | 1979-05-29 | 1980-12-08 | Nippon Electric Co | High efficiency pattern matching unit |
| JPS57178578A (en) * | 1981-04-27 | 1982-11-02 | Toshiba Corp | Pattern recognition system |
-
1994
- 1994-02-25 DE DE69425166T patent/DE69425166T2/de not_active Expired - Lifetime
- 1994-02-25 EP EP94301378A patent/EP0613101B1/de not_active Expired - Lifetime
-
1996
- 1996-08-21 US US08/700,828 patent/US5671293A/en not_active Expired - Lifetime
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102007036277A1 (de) | 2007-07-31 | 2009-02-05 | Technische Universität Berlin | Verfahren und Vorrichtung zur automatischen Mustererkennung |
Also Published As
| Publication number | Publication date |
|---|---|
| EP0613101A3 (de) | 1995-04-26 |
| US5671293A (en) | 1997-09-23 |
| DE69425166D1 (de) | 2000-08-17 |
| EP0613101A2 (de) | 1994-08-31 |
| EP0613101B1 (de) | 2000-07-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE69604481T2 (de) | Verfahren und gerät zum trennen des vordergrunds und hintergrunds in textenthaltenden bildern | |
| DE68928895T2 (de) | Verfahren und Gerät für universelle adaptiv lernende Bildmessung und -erkennung | |
| DE69428293T2 (de) | Gerät zur bildidentifizierung | |
| DE69426479T2 (de) | Optische Mehrfontzeichenerkennung mit einem Verbindungsschachtelansatz | |
| DE69231309T2 (de) | Methode und System zur Handschrifterkennung | |
| DE60208223T2 (de) | Anordnung und verfahren zur gesichtserkennung unter verwendung von teilen des gelernten modells | |
| DE3689416T2 (de) | Mustermerkmalextraktion. | |
| DE69226846T2 (de) | Verfahren zur Bestimmung von Wortgrenzen im Text | |
| DE69230631T2 (de) | Verfahren zum Vergleichen von Wortgestalten | |
| DE202022101590U1 (de) | Ein System zur Klassifizierung von Fernerkundungsbildern unter Verwendung fusionierter Faltungsmerkmale mit maschinellem Lernen | |
| DE69031774T2 (de) | Adaptiver Gruppierer | |
| DE60217748T2 (de) | Verfahren und Gerät zur Anzeige eines Bildraumes | |
| DE102017220307B4 (de) | Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen | |
| DE69425166T2 (de) | Verfahren und Gerät zur Mustererkennung | |
| DE69720564T2 (de) | Verfahren, Gerät und Computerprogrammprodukt zur Erzeugung von einem Klassifikationsbaum | |
| DE69529015T2 (de) | Schnelligkeits- und Erkennungsverbesserung für OCR mittels normalisierter Höhen-/Breitenposition | |
| DE60034554T2 (de) | Verfahren und vorrichtung zur bearbeitung von farbbildern | |
| DE69331648T2 (de) | Zeichenerkennungsverfahren und -gerät | |
| DE69805280T2 (de) | Gerät und verfahren zur mustererkennung. | |
| BE1031719B1 (de) | Elektronisches Gerät sowie Bilddatenverarbeitungsverfahren und System | |
| DE60033580T2 (de) | Verfahren und gerät zur klassifizierung eines bildes | |
| DE202022101680U1 (de) | Ein automatisches System zur Erkennung von Handgesten | |
| DE69626182T2 (de) | Trennung von sich berührenden Zeichen in optischer Zeichenerkennung | |
| DE112019005487T5 (de) | Tintendatenerzeugungsvorrichtung, -verfahren und -programm | |
| DE69521868T2 (de) | Verfahren zur Gestaltung von Klassifikationsbäumen |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8364 | No opposition during term of opposition |