DE69328640T2 - Verfahren und Einrichtung zur Mustererkennung - Google Patents

Verfahren und Einrichtung zur Mustererkennung

Info

Publication number
DE69328640T2
DE69328640T2 DE69328640T DE69328640T DE69328640T2 DE 69328640 T2 DE69328640 T2 DE 69328640T2 DE 69328640 T DE69328640 T DE 69328640T DE 69328640 T DE69328640 T DE 69328640T DE 69328640 T2 DE69328640 T2 DE 69328640T2
Authority
DE
Germany
Prior art keywords
pattern
candidates
candidate
unknown
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69328640T
Other languages
English (en)
Other versions
DE69328640D1 (de
Inventor
Toshiaki Yagasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE69328640D1 publication Critical patent/DE69328640D1/de
Application granted granted Critical
Publication of DE69328640T2 publication Critical patent/DE69328640T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Einrichtung zur Mustererkennung, und insbesondere ein Verfahren und eine Einrichtung, womit eine Anzeige des Vertrauens zu einem ausgewählten Kandidaten für ein unbekanntes Muster bereitsteht.
  • In einem System zur Mustererkennung wird ein unbekanntes Muster, beispielsweise ein aus einem Bildscanner abgeleitetes Muster oder ein durch Faksimileübertragung empfangenes analysiert, um die Identität des Musters zu bestimmen. Fig. 15 veranschaulicht einen typischen Mustererkennungsprozeß, der individuelle Zeichen in einem Bild mit einer Vielzahl solcher Zeichen identifiziert.
  • Wie in Fig. 15 gezeigt, wird in Schritt S1501 ein aus einem Bildscanner abgeleitetes Bild eingegeben, und die individuellen Zeichen im Bild werden im Schritt S1502 segmentiert. Schritte S1501 und 1502 werden typischerweise von einem Universalhauptcomputer ausgeführt, der dann die in Schritt S1502 segmentierten Zeichen an eine anwendungsspezifische optische Zeichenerkennungseinrichtung sendet. In Schritt S1503 unterzieht die optische Zeichenerkennungseinrichtung die segmentierten Zeichen der Merkmalsauslese, wodurch ein Merkmalsvektor für das unbekannte Muster abgeleitet wird. Der Merkmalsvektor repräsentiert verschiedene Merkmale, die das Muster betreffen, wie die Strichposition, Richtung, Länge usw. Dann wird in einem Grobklassifizierungsschritt 1504 der Merkmalsvektor für das unbekannte Muster mit einem Wörterbuch verglichen, das eine Vielzahl von Merkmalsvektoren als Standardmuster enthält. Insbesondere wird der Merkmalsvektor für ein unbekanntes Muster mit jedem Merkmalsvektor im Standardmusterwörterbuch verglichen und ein Abstandswert errechnet, der den mathematischen Abstand zwischen den Merkmalsvektor für das unbekannte Muster und dem Merkmalsvektor für das Standardmuster darstellt. Die Abstandwerte werden sortiert, und die besten Kandidaten, beispielsweise die dem Merkmalsvektor für das unbekannte Muster am nächsten kommenden 52 Kandidaten ausgewählt. In Schritt S1505 werden die besten Kandidaten einer Detailklassifizierung unterzogen. In der Detailklassifizierung werden zusätzliche Auswahlfunktionen, beispielsweise eine Pseudo-Bayes- Selektierfunktion, zur Auswahl des oder der besten Kandidaten unter jenen im Grobklassifizierungsschritt bestimmten verwendet. Der beste Kandidat oder die besten Kandidaten für das unbekannte Muster werden zum Universalhauptcomputer zurückgesandt, der sie in Schritt S1506 der Nachverarbeitung unterzieht. Die Nachverarbeitung erfordert typischerweise eine Verarbeitung wie Buchstabierprüfung, Kontextprüfung oder Syntaxverarbeitung und resultiert in der Auswahl eines Kandidaten für das unbekannte Muster.
  • Während der in Fig. 15 dargestellte Prozeß das Identifizieren von Kandidaten für unbekannte Muster mit hoher Genauigkeit zuläßt, bleibt noch ein Problem übrig. Insbesondere treten noch Situationen auf, in denen das unbekannte Muster nicht mit einem hohen Grad an Vertrauen identifiziert werden kann, und selbst der beste Kandidat ist von zweifelhafter Genauigkeit.
  • Ein Artikel mit dem Titel "A relaxational extracting method for character recognition in scene images" von J. Ohya et al., in "PROC. OF COMPUTER VISION AND PATTERN RECOGNITION 88", 5. Juni 1988, Ann Arbor, Michigan, Seiten 424 bis 429, und ein Artikel mit dem Titel "Recognition of hand printed characters by non-linear elastic matching", von Y. Fujimoto et al., in "Proc. Of the Int. Joint Conf. On Pattern Recognition", 8. November 1976, Coronada, CA, Seiten 113 bis 118 offenbaren beide Mustererkennungsverfahren, in denen Zeichenmusterkandidaten zur Bewertung ausgewählt werden. Jedoch keines dieser vorherigen Dokumente stellt eine Lösung für das hiesige Problem bereit.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, zu bestimmen, wann ein unbekanntes Muster nicht mit einem hohen Vertrauensgrad identifizierbar ist.
  • Ein Ausführungsbeispiel der vorliegenden Erfindung sieht eine Anzeige vor, wenn ein unbekanntes Muster nicht mit einem hohen Vertrauensgrad identifizierbar ist. Dies ist vorzugsweise zur Bereitstellung einer ungenauen Identifikation eines unbekannten Musters in jenen Situationen anzusehen, in denen selbst der beste Kandidat für das unbekannte Muster von zweifelhafter Genauigkeit ist.
  • In einem ersten Aspekt sieht die vorliegende Erfindung eine Einrichtung zur Mustererkennung vor, wie sie im Patentanspruch 1 angegeben ist.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung ist ein Verfahren zur Mustererkennung vorgesehen, wie es im Patentanspruch 13 angegeben ist.
  • KURZE BESCHREIBUNG DER ZEICHNUNG
  • Fig. 1 ist ein Gesamtblockdiagramm einer Mustererkennungseinrichtung nach der vorliegenden Erfindung;
  • Fig. 2 ist ein detailliertes Blockdiagramm der Einrichtung zur optischen Zeichenerkennung, das in Fig. 1 dargestellt ist;
  • Fig. 3 ist ein detailliertes Blockdiagramm der Grobklassifizierungseinrichtung, die in Fig. 2 dargestellt ist;
  • Fig. 4 ist ein Ablaufdiagramm zur Beschreibung der Arbeitsweise des in Fig. 3 gezeigten Grobklassifizierers;
  • Fig. 5 ist ein Diagramm zur Erläuterung eines Steuerwortes, das im Grobklassifizierer von Fig. 3 verwendet wird;
  • Fig. 6 bis Fig. 8 sind Ablauftafeln zur Erläuterung einer Rückweisungsverarbeitung nach der Erfindung;
  • Fig. 9 und 10 sind Blockdiagramme, die alternative Ausführungsbeispiele einer Einrichtung zur Mustererkennung nach der Erfindung zeigen;
  • Fig. 11, zu der die Fig. 11(a) und 11(b) gehören, sind Ansichten zur Erläuterung von Beispielen der Mustererkennung nach der vorliegenden Erfindung;
  • Fig. 12 ist eine Ablauftafel, die zur Erläuterung einer Mustererkennung nach Fig. 11 verwendet wird;
  • Fig. 13 ist ein funktionelles Blockdiagramm zur Erläuterung eines anderen System zur Mustererkennungs nach der Erfindung;
  • Fig. 14 ist eine Ansicht, die ein Mustererkennungsergebnis gemäß dem System von Fig. 13 zeigt; und
  • Fig. 15 ist eine Ablauftafel zur Erläuterung eines bekannten Mustererkennungsprozesses.
  • DETAILLIERTE BESCHREIBUNG DES BEVORZUGTEN AUSFÜHRUNGSBEISPIELS
  • Fig. 1 ist ein Gesamtblockdiagramm einer Einrichtung zur Mustererkennung nach der vorliegenden Erfindung.
  • Wie in Fig. 1 gezeigt, enthält das System zur Mustererkennung eine Haupt-CPU 10, wie beispielsweise einen programmierbaren Prozessor EZPS 3500, eine Einrichtung 11 zur Bilddateneingabe, wie beispielsweise einen Bildscanner oder eine Faksimileempfangseinheit, einen Bildspeicher 12 zum Speichern von Bilddaten, die von der Eingabeeinrichtung eingegeben werden, eine Zeichenerkennungseinrichtung 14 zum Erkennen unbekannter Muster, die von der Haupt-CPU 10 über eine SCSI-Schnittstelle 13 übertragen wereden, und zum Übertragen von Kandidaten für das unbekannte Muster über die Schnittstelle 13 zurück zur Haupt- CPU, einen Zeichenspeicher 15, der die von der Zeichenerkennungseinrichtung gesendeten Kandidaten speichert, und eine Anzeige 16, die die Mustererkennungsergebnisse anzeigt.
  • Fig. 2 ist ein detailliertes Blockdiagramm der Zeichenerkennungseinrichtung 14.
  • Wie in Fig. 2 gezeigt, gehört ein Übertragungsteil und ein Erkennungsteil zur Zeichenerkennungseinrichtung 14. Der Übertragungsteil enthält einen Übertragungsbus 20, mit dem ein Mikroprozessor 21 verbunden ist, beispielsweise ein programmierbarer Mikroprozessor 68000, einen programmierbaren Nurlesespeicher ("PROM") 22, der Prozeßschritte zum Ausführen vom Mikroprozessor 21 speichert, einen Pufferspeicher 24, der die Übertragung zu und von der Haupt-CPU 10 puffert, eine DMA- Steuerung 25, die den direkten Speicherzugriff mit der Haupt-CPU 10 steuert, eine SCSI-Steuerung 26, die die Kommunikation mit der Haupt-CPU 10 über Schnittstelle 13 steuert, und einen internen Pufferspeicher 27, der internes Puffern zwischen dem Übertragungsteil und dem Erkennungsteil bereitstellt. Der Erkennungsteil enthält einen Erkennungsbus 29, mit dem der zuvor genannte interne Pufferspeicher 27 sowie ein digitaler Signalprozessor ("DSP 30") verbunden ist, wie beispielsweise ein digitaler Signalprozessor von Texas Instruments TMS 320C25, einen PROM 31, der Verarbeitungsschritte speichert, die vom DSP 30 auszuführen sind, eine Merkmalsausleseeinrichtung, die einen Merkmalsvektor von einem unbekannten Muster ausliest, eine Grobklassifizierungseinrichtung 34, die mehrere Kandidaten bereitstellt, die von Wörterbuch-ROM 35a und 35b für ein unbekanntes Muster ausgewählt sind, und einen Detailwörterbuch- ROM 36, der detaillierte Wörterbuchdaten bereitstellt, durch die die grobklassifizierten Kandidaten angenähert werden und der Haupt-CPU 10 zur Nachverarbeitung bereitgestellt werden.
  • Fig. 3 ist ein detailliertes Blockdiagramm der Grobklassifizierungseinrichtung 34.
  • Wie in Fig. 3 gezeigt, gehört zu der Grobklassifizierungseinrichtung 34 eine Hauptsteuerlogik 37, die verschiedene Komponenten in der Grobklassifizierungseinrichtung steuert. Insbesondere steuert die Hauptsteuerlogik 37 die Wörterbuchsteuerung 39, den Klassifizierer 40, den Sortierer 41 und die RAM-Steuerung 42, die der Reihe nach Daten-RAM 44 steuern. Die Hauptsteuerlogik 37 gibt ein Kennzeichen "neu vorgeschlagene Ausgabe" ("NPO") an DSP 30 ab, wenn eine neue Ausgabe verfügbar ist.
  • Genauer gesagt, die Wörterbuchsteuerung 39 stellt die Steuerung für die Wörterbuch-ROM 35a und 35b bereit. Wie in Fig. 3 gezeigt, stellt die Wörterbuchsteuerung 39 ein Verzahnungssteuersignal 45 und ein Wörterbuchadressensignal 46 bereit. Diese Signale ermöglichen das parallele Lesen der Wörterbuch-ROM 35a und 35b, um so Merkmalsvektoren im Wörterbuch für den Klassifizierer 40 mit höherer Geschwindigkeit bereitzustellen, als wenn die Wörterbuch-ROM einzeln gelesen würden. Falls gewünscht, können diese Signale zum Lesen von mehr als zwei Wörterbuch-ROM verwendet werden, obwohl dies nicht dargestellt ist.
  • Der Klassifizierer 40 enthält zwei Recheneinheiten (eine für jeden Wörterbuch-ROM) zum Errechnen des Abstands zwischen einem Merkmalsvektor des Wörterbuchs und dem Merkmalsvektor für das unbekannte Muster. Unter der Steuerung von der Hauptsteuerlogik 37 errechnet der Klassifizierer 40 den Abstand gemäß einer der drei Abstandsfunktionen, nämlich der Mahalanobis- Abstandsfunktion, der Abstandsfunktion mittleren Absolutwerts und der Funktion mittleren Schwankungsquadrats. Genauer gesagt, die Mahalanobis-Abstandsfunktion errechnet das Punktprodukt des Merkmalsvektors X vom unbekannten Muster und den Merkmalsvektor W vom Wörterbuch-ROM folgendermaßen:
  • wobei kmax die Dimensionalität des Merkmalsvektors ist, Z = -2 C&supmin;¹ W (C ist die Durchschnitts-Kovarianzmatrix von den Wörterbuchvektoren), X&sub0; = 1 und W&sub0; = WT C&supmin;¹ W.
  • Die Abstandsfunktion mittleren Absolutwerts summiert alle absoluten Abstände zwischen dem Merkmalsvektor des unbekannten Musters und den Merkmalsvektor aus dem Wörterbuch-ROM nach folgender Formel:
  • Die Funktion mittleren Schwankungsquadrats summiert das Quadrat des Abstands zwischen dem Merkmalsvektor des unbekannten Musters und dem Merkmalsvektor vom Wörterbuch-ROM folgendermaßen:
  • Der solchermaßen errechnete Abstandswert wird gemeinsam mit der Identität des Kandidaten, der diesem Abstandswert entspricht, dem Sortierer 41 bereitgestellt. Der Sortierer 41 sortiert die Abstandswerte, die vom Klassifizierer 40 kommen, in abfallender oder ansteigender Reihenfolge gemäß einem Steuersignal aus der Hauptsteuerlogik 37. Ein zur Verwendung als Sortierer 41 geeigneter ist detailliert im Dokument EP-A-0 467 661 beschrieben.
  • Wenn der Klassifizierer 40 jeden Merkmalsvektor in den Wörterbuch-ROM 35a und 35b verarbeitet hat, veranlaßt die Hauptsteuerlogik 37 den Sortierer 41, sortierte Abstandswerte und zugehörige Kandidatenidentitäten an den Daten-ROM 44 zu senden. Unter der Steuerung vom RAM 42 und der Hauptsteuerlogik 37 speichert der Daten-RaM 44 die sortierten Abstandswerte und die zugehörigen Kandidatenidentitäten in sequentiellen Speicherplätzen. Um den Speicherplatz im Daten-RAM 44 zu bewahren, ist es vorzuziehen, für den Daten-RAM, nur einen der Abstandswerte oder der Kandidatenidentität zu speichern, und diese Auswahl erfolgt gemäß der Steuerung aus der RAM-Steuerung 42.
  • Fig. 4 ist eine Ablauftafel zur Erläuterung der Arbeitsweise des Grobklassifiziereinrichtung 34.
  • In Schritt S41 schreibt der DSP 30 ein Steuerwort in das Steuerregister 42a in der RAM-Steuerung 42. Bitzuordnungen für das Steuerwort sind in Fig. 5 gezeigt. Wie dort gezeigt, wird Bit 15 ein Startbit zum Anweisen der Grobklassifiziereinrichtung 34, ihre Klassifizierung zu beginnen und oder Sortieraufgaben. Bit 14 ist ein Etikettierbit, das verwendet wird, die Einrichtung anzuweisen, ob die Abstandswerte vom Sortierer 41 im Daten-RAM zu speichern sind oder die Kandidatenidentitäten aus dem Sortierer 41 zu speichern sind. Bit 13 zeigt an, ob das Sortieren in abfallender oder ansteigender Reihenfolge zu erfolgen hat. Bits 9 und 10 zeigen an, ob die Grobklassifizierungseinrichtung einfach nur die Abstandswerte errechnet, ohne zu sortieren, einfach Daten im Daten-RAM 44 sortiert oder sowohl Abstandswerte errechnet und die errechneten Abstandswerte sortiert. Bits 7 und 8 spezifizieren, welche der Abstandsfunktionen vom Klassifizierer 40 verwendet wird, nämlich die zuvor beschriebene Mahalanobis-Abstandsfunktion, die Abstandsfunktion mittleren Absolutwerts oder die Funktion mittleren Schwankungsquadrats. Bit 6 zeigt an, ob oben 100 oder oben 52 Kandidaten im Daten-RAM 44 zu speichern sind. Bit 5 zeigt an, ob in den Wörterbuch-ROM 35a und 35b abfallende Daten beginnen. Wenn Bit 5 auf 1 gesetzt ist, wird auf die Wörterbuch- ROM von Anfang an zugegriffen; wenn andererseits Bit 5 auf 0 gesetzt ist, dann wird auf die Wörterbuch-ROM beginnend mit der letzten Zugriffsaddresse zugegriffen. Bits 0, 1 und 2 zeigen den Wörterbuch-ROM-Modus an, das heißt, die Nummer von Wörterbuch- ROM, die in der Einrichtung vorhanden sind, und die Verzahnungskoordination für diese Wörterbuch-ROM.
  • Zurück zu Fig. 4: In Schritt S42 gibt der DSP 30 den Merkmalsvektor für das unbekannte Muster auf den Erkennungsbus 29 ab, und die RAM-Steuerung 42 speichert den Merkmalsvektor in aufeinanderfolgenden Stellen im Daten-RAM 44. In Schritt S43 wird der Sortierspeicher 41 auf einen vorbestimmten Wert in Vorbereitung für Sortieroperationen initialisiert. Wie in der Schrift mit Seriennummer 07/554 384 beschrieben, kann der vorbestimmte Wert durch den zu erwartenden maximalen Abstandswert oder den zu erwartenden minimalen Abstandswert gemäß der Tatsache sein, ob eine ansteigende oder abfallende Sortierung gewünscht ist. Wie nachstehend in mehr Einzelheiten in der Verbindung mit Fig. 7 beschrieben, können jedoch auch andere Initialisierungswerte verwendet werden.
  • In Schritt S44 stellt der Daten-RAM 44 gemäß Startbit 15 den Merkmalsvektor des unbekannten Musters dem Klassifizierer 40 bereit. Die Wörterbuchsteuerung 39 greift dann auf die Wörterbuch-ROM 35a und 35b in der vom ROM bestimmten Reihenfolge des Startadressenbit 5 und veranlaßt die Merkmalsvektoren gemäß dem Kandidatenmustern, in den Wörterbuch-ROM ebenfalls für den Klassifizierer 40 bereitgestellt zu werden. Im Falle der Mahalanobis-Funktion muß der Wörterbuchmerkmalsvektor W vorverarbeitet werden, um einen Zwischenvektor Z = -2 C&supmin;¹ W zu erhalten, wie sich aus der Gleichung (1) ergibt. Alternativ kann, obwohl nicht dargestellt, ein separates Wörterbuch lediglich dann zur Verwendung vorgesehen sein, wenn die Mahalanobis-Funktion ausgewählt ist. Das separate Wörterbuch würde Merkmalsvektoren enthalten, die gemäß Gleichung (1) vorverarbeitet sind, und diese können direkt mit dem unbekannten Merkmalsvektor verwendet werden.
  • In Schritt S45 errechnet der Klassifizierer 40 den Abstandswert zwischen dem unbekannten Merkmalsvektor und dem Kandidatenmerkmalsvektor. Die zum Errechnen des Abstandswertes verwendete Abstandsfunktion wird gemäß den Bits 7 und 8 vom Steuerwort ausgewählt, das im Steuerregister 42a gespeichert ist. In Schritt S46 wird der neuerlich errechnete Abstandwert dem Sortierer 41 bereitgestellt. Der Sortierer 41 sortiert den neuen Abstandswert in zuvor errechnete Abstandswerte, wie in der zuvor genannten U. S. Patentanmeldung Nr. 07/554 384 beschrieben. Der Sortierer wird unter Verwendung der oberen 100 oder oberen 52 Kandidaten gemäß Bit 6 des im Steuerregister 42a gespeicherten Steuerwortes geführt und wird in absteigender oder ansteigender Reihenfolge gemäß Bit 13 ausgeführt.
  • Wenn es zusätzliche Merkmalsvektoren gibt, die in den Wörterbuch-ROM 35a und 35b gespeichert sind, dann kehrt in Schritt S47 die Steuerung zu Schritt S43 zurück. Wenn andererseits alle Merkmalsvektoren verarbeitet sind, dann schreitet der Ablauf zu Schritt S48, in dem die gespeicherten Abstandswerte gemeinsam mit den sortierten Kandidatenidentitäten dem Daten-RAM 44 bereitgestellt werden. Der RAM 44 speichert entweder die Abstandswerte oder die Kandidatenidentitäten gemäß Bit 14 des im Steuerregister 42a gespeicherten Steuerwortes. Die Daten werden in aufeinanderfolgenden Stellen vom Daten-RAM 44 geschrieben und überschreiben die Daten des unbekannten Merkmalsvektors, der in Schritt S42 gespeichert worden ist.
  • In Schritt S49 setzt die Grobklassifizierungseinrichtung 34 ein NPO-Kennzeichen (siehe Fig. 3) zum Signal DSP 30, daß das neu vorgeschlagene Ausgangssignal fertig ist. Der Digitalsignalprozessor 30 liest den Daten-RAM 44 über den Erkennungsbus 29 und verarbeitet die sortierten Daten, wie nachstehend detailliert beschrieben.
  • Fig. 6 ist eine Ablauftafel zur Erläuterung der Arbeitsweise der in den Fig. 1, 2 und 3 gezeigten Einrichtung zur Mustererkennung. Die Verarbeitungsschritte, die in Fig. 6 dargestellt sind, werden in der Form von Computerprogrammen in einem nicht dargestellten Speicher für die Haupt-CPU 10 gespeichert, im PROM 22 für den Mikroprozessor 21 und im PROM 31 für den DSP 30, und sie werden von der Haupt-CPU 10, vom Mikroprozessor 21 beziehungsweise vom Digitalsignalprozessor 30 ausgeführt, wie aus der nachstehenden Beschreibung hervorgeht.
  • In der in Fig. 6 dargestellten Arbeitsweise wird der Vertrauenspegel für die von der Grobklassifiziereinrichtung 34 sortierten Daten bestimmt durch Gewinnen der Abstandswerte, die vom Sortierer 41 sortiert sind. Wenn die Abstandswerte näher am vorbestimmten Schwellwert liegen, dann ist der Vertrauenspegel im Grobklassifizierungsschritt hoch. Wenn andererseits die Abstandswerte größer als ein vorbestimmter Pegel sind, dann ist das Vertrauen von im Grobklassifizierungsschritt bestimmten Kandidaten gering, und eine Zurückweisungsverarbeitung folgt.
  • Somit werden in Schritt S601 Bilddaten von der Eingabeeinrichtung 11 in die Haupt-CPU 10 eingegeben. Die Haupt- CPU 10 speichert die Bilddaten im Bildspeicher 12 und segmentiert das Bild im Segmentierungsschritt S602 in individuelle Muster. Die Haupt-CPU 10 sendet sequentiell segmentierte Muster über die Schnittstelle 13 an die Zeichenerkennungseinrichtung 14.
  • In Schritt S603 akzeptiert die Zeichenerkennungseinrichtung 14 über die SCSI-Steuerung 26 ein unbekanntes Muster und speichert das unbekannte Muster im Pufferspeicher 24. Der Pufferspeicher 24 wird vom Mikroprozessor 21 so gesteuert, daß er Muster speichert, die von der Haupt-CPU 10 gesendet worden sind, um so dem Erkennungsbus 29 einen kontinuierlichen Musterstrom bereitzustellen. Die Schnittstelle zwischen dem Übertragungsbus 20 und dem Erkennungsbus 29 ist vom internen Pufferspeicher 27 vorgesehen.
  • In Schritt S604 wird das unbekannte Muster, das zum Erkennungsbus 29 über den internen Pufferspeicher 27 übertragen wurde, vom Digitalsignalprozessor 30 zur Merkmalsausleseeinrichtung 32 übertragen. Wie bekannt, bestimmt die Merkmalsausleseeinrichtung 32 einen Merkmalsvektor aus dem unbekannten Muster, in dem jede Komponente des Vektors ein unterschiedliches Merkmal des unbekannten Musters darstellt, wie die Strichposition, die Richtung, die Länge und so weiter. Typischerweise werden bis zu 200 unterschiedliche Merkmale für jedes unbekannte Muster ausgelesen.
  • In Schritt S605 schreibt der Digitalsignalprozessor 30 ein Steuerwort in das Steuerregister der Grobklassifizierungseinrichtung 34, das die Grobklassifizierungseinrichtung anweist, sortierte Abstandswerte - und nicht sortierte Kandidatenidentitäten (das heißt, Bit 14 ist auf "1" eingestellt") - bevorzugt zurückzugeben. Dann wird eine in Schritt 604 bestimmte Teilmenge des Merkmalsvektors zum Daten-RAM 44 in der Grobklassifizierungseinrichtung übertragen. Das Startbit wird in der Grobklassifizierungseinrichtung eingestellt, um die Grobklassifizierungseinrichtung anzuweisen, den Merkmalsvektors des unbekannten Musters mit den Merkmalsvektoren zu vergleichen, die in den Wörterbuch-ROM 35a und 35b gespeichert sind, wie zuvor anhand Fig. 4 beschrieben.
  • Nach Feststellung des NPO-Signals von der Grobklassifiziereinrichtung 34 überprüft der Digitalsignalprozessor 30 in Schritt S606 die sortierten Abstandswerte, die von der Grobklassifiziereinrichtung 34 zurückgegeben worden sind. Wenn der beste von der Grobklassifiziereinrichtung 34 zurückgegebene Abstandswert geringer als ein vorbestimmter Wert ist, das heißt, wenn die beste Abstandseinrichtung relativ nah an wenigstens einem Kandidaten liegt, dann wird bestimmt, daß der Vertrauenspegel des Kandidaten hoch ist. In diesem Falle wird in Schritt S607 die Grobklassifizierung erneut ausgeführt, aber zu dieser Zeit schreibt der Digitalsignalprozessor 30 ein Steuerwort in die Grobklassifiziereinrichtung, das die Einrichtung veranlaßt, sortierte Kandidatenidentitäten zurückzugeben (das heißt, Bit 14 ist auf "0" gesetzt). Die in Schritt S607 sortierten Kandidatenidentitäten werden vom Erkennungsbus 29 über den internen Pufferspeicher 27 zum Übertragungsbus 20 gesendet und dann über den Pufferspeicher 24 und die SCSI-Steuerung 26 über die Schnittstelle 13 zur Haupt-CPU 10. In Schritt S608 führt die Haupt-CPU 10 eine Nachverarbeitung bezüglich der Kandidatenidentäten aus, um eine Identität für das unbekannte Muster zu bestimmen. Insbesondere kann eine Nachverarbeitung aus einer Buchstabierüberprüfung, einer Syntaxüberprüfung, einer Kontextüberprüfung (beispielsweise Zurückweisen von Buchstaben, die in Zahlen eingebettet sind, oder vice versa), und so weiter bestehen. Ein detaillierte Verarbeitung, wie in Schritt S1505 von Fig. 15 gezeigt, kann vor Schritt S608 ausgeführt werden, aber im allgemeinen ist es nicht erforderlich, insofern Schritt S606 garantiert, daß Kandidaten mit hohem Vertrauen identifiziert sind. Die für das unbekannte Muster bestimmte Identität wird im Zeichenspeicher 15 gespeichert und auf der Anzeige 16 angezeigt (Schritt S609).
  • Wenn andererseits in Schritt S606 der in Grobklassifizierungsschritt S605 bestimmte beste Abstandswert nicht besser als ein vorbestimmter Pegel ist, dann wird in Schritt S610 ein Grobklassifizierungsschritt ausgeführt, der sortierte Kandidatenidentitäten zurückgibt. In Schritt S611 werden die sortierten Kandidatenidentitäten der detaillierten Verarbeitung in einem Versuch unterzogen, einen akzeptablen Kandidaten für das unbekannte Muster zu erhalten. In der detaillierten Verarbeitung wird ein in Schritt S604 ausgelesener Vollmerkmalsvektor mit Vollmerkmalsvektoren verglichen, die im detaillierten Wörterbuch-ROM 36 gespeichert sind. Für diese detaillierte Verarbeitung können andere Selektierfunktionen, wie eine Pseudo-Bayes-Selektierfunktion zusätzlich oder anstelle der Mahalanobis-Abstandsfunktion oder der Abstandsfunktion des mittleren Schwankungsquadrats oder der Abstandsfunktion mittleren Absolutwerts verwendet werden. Im Verfahren der Pseudo-Bayes-Selektierfunktion werden die ersten k Elemente des Merkmalsvektors für die Abstandserrechnung verwendet. Dann wird unter der Annahme, daß der Mittelwert der verbleibenden Elemente h ist, und unter Verwendung von h anstelle der restlichen Elemente wird der Abstand errechnet. Ein derartiges Verfahren gestattet in kurzer Zeit die Abstandsrechnung für große Merkmalsvektoren. Da darüber hinaus die Grobklassifizierung in Schritt S610 ausgeführt wird, bedarf es keiner Errechnung von Abstandsfunktionen für jede der Eingaben in den detaillierten Wörterbuch-ROM 36; nur die im Grobklassifizierungsschritt zurückgegebenen Kandidatenidentitäten müssen überprüft werden.
  • In Schritt S612 werden die in der detaillierten Verarbeitung errechneten Abstandswerte überprüft, um zu bestimmen, ob ein akzeptabler Kandidat identifiziert worden ist. Wenn der Abstandwert für den besten Kandidaten geringer als ein vorbestimmter Abstand ist, dann ist ein akzeptabler Kandidat identifiziert, und der Ablauf schreitet fort zu Schritt S608 und dann zur Nachverarbeitung und zur Anzeige in Schritt S609, wie zuvor beschrieben. Wenn andererseits der Abstandswert des besten Kandidaten nicht geringer als ein vorbestimmter Abstand ist, dann ist ein akzeptabler Kandidat nicht identifiziert worden, und der Vertrauenspegel, der mit selbst zum besten Kandidaten gehört, ist niedrig. In diesem Falle schreitet der Ablauf zu Schritt S613, in dem ein Anzeiger für geringes Vertrauen eingestellt wird. Der Anzeiger bedeutet, daß selbst der beste Kandidat, der für das unbekannte Muster identifiziert ist, eine zweifelhafte Genauigkeit besitzt. Es gibt keinen Bedarf zur Detailverarbeitung oder Nachverarbeitung, wie sie in den Schritten S611 und S608 ausgeführt wird. Der im Grobklassifizierungsschritt S610 identifizierte beste Kandidat wird einfach zur Haupt-CPU 10 zurückgegeben, die den besten Kandidaten im Zeichenspeicher 15 gemeinsam mit dem Anzeiger für geringes Vertrauen speichert und der den besten Kandidaten auf der Anzeige 16 mit Anzeige geringem Vertrauens als umgekehrte Grafik anzeigt (Schritt S614).
  • In Schritt S615 wird bestimmt, ob es zusätzliche unbekannte Muster gibt, für die die Identitäten erforderlich sind. Wenn es keine zusätzlichen Muster gibt, dann kehrt der Ablauf zu Schritt S603 zurück; wenn anderenfalls keine zusätzlichen Muster mehr da sind, dann endet die Operation.
  • Fig. 7 ist ein Ablaufdiagramm, das einen zweiten Operationsmodus für die in den Fig. 1, 2 und 3 gezeigte Mustererkennungseinrichtung darstellt, und in der der für unbekannte Muster gewonnene Vertrauenspegel für Kandidaten bestimmt wird. In Fig. 7 entsprechen die Schritte S701, S702, S703 und S704 den Schritten S601, S602, S603 beziehungsweise S604.
  • In Schritt S705 wird der Sortierspeicher 41 auf einen vorbestimmten Schwellwert initialisiert, der einem akzeptablen Vertrauenspegel für Kandidaten entspricht, die zu einem unbekannten Muster gehören. Durch Initialisieren des Sortierspeichers auf diesen Schwellwert wird der Sortierspeicher automatisch Kandidaten in Wörterbuch-ROM 35a und 35b ignorieren, deren Abstandswerte größer als der vorbestimmte Pegel ist.
  • Der Sortierspeicher 41 kann durch geeignete Programmierung des DSP 30 auf den Schwellwert gebracht werden. Alternativ kann der Schwellwert in den Speicher 41 eingesetzt werden, in dem die Grobklassifizierungseinrichtung 34 zuerst "Blind" - Merkmalsvektordaten verarbeitet, bevor der Merkmalsvektor für das unbekannte Muster verarbeitet wird. Die "Blind"- Merkmalsvektordaten werden so vorausgewählt, daß ein bekannter Abstandswert von dem Wörterbuchmerkmalsvektoren bereitgestellt wird, und dieser bekannte Wert wird automatisch im Sortierspeicher 41 während der Operation der Grobklassifizierungseinrichtung gespeichert. Der Merkmalsvektor für das unbekannte Muster wird nach dem "Blind"-Merkmalsvektor verarbeitet und wird ohne Neuinitialisieren des Sortierspeichers 41 verarbeitet, wodurch der Sortierspeicher 41 in effektiver Weise auf den Schwellwert eingestellt wird.
  • In Schritt S706 schreibt der Digitalsignalprozessor 30 ein Steuerwort in die Grobklassifizierungseinrichtung 34, das die Grobklassifizierungseinrichtung veranlaßt, sortierte Kandidatenidentitäten bereitzustellen, und nicht sortierte Abstandswerte. Dann wird das Startbit gesetzt, das die Grobklassifizierungseinrichtung veranlaßt, den Merkmalsvektor für das unbekannte Muster mit jedem Merkmalsvektor zu vergleichen, der in den Wörterbuch-ROM 35a und 35b gespeichert ist. Da der Sortierspeicher auf einem vorbestimmten Schwellwertpegel gemäß einem akzeptablen Vertrauenspegel initialisiert wird, wie zuvor beschrieben, werden nur dann Kandidaten sortiert und zum Digitalsignalprozessor 30 zurückgegeben, wenn sie einem minimal akzeptablen Vertrauenspegel genügen.
  • In Schritt S707 werden die Ergebnisse der Grobklassifizierung inspiziert, um zu bestimmen, ob irgendwelche Kandidatenidentitäten von der Grobklassifiziereinrichtung 34 zurückgegeben worden sind. Wenn Kandidaten zurückgegeben worden sind, dann ist bekannt, daß diese Kandidaten einen minimal akzeptablen Vertrauenspegel haben; mit diesen Kandidaten kann die detaillierte Verarbeitung in Schritt S708, die Nachverarbeitung in Schritt S709 und das Speichern und Anzeigen in den Schritten S710 ausgeführt werden. Abhängig vom in Schritt S705 eingestellten Schwellwert und der Anzahl zurückgegebener Kandidaten kann die Detailverarbeitung des Schrittes S708 nicht erforderlich sein, und es ist in einigen Fällen möglich, diesen Schritt fortzulassen.
  • Wenn andererseits in Schritt S707 keine Daten von der Grobklassifiziereinrichtung 34 zurückgegeben worden sind, dann ist bekannt, daß kein Kandidat einem minimal akzeptablen Vertrauenspegel entspricht. Folglich wird die Zurückweisungsverarbeitung ausgeführt, bei der ein Anzeiger für geringes Vertrauen in Schritt S711 eingesetzt wird. Falls gewünscht, kann der Sortierspeicher in der Grobklassifiziereinrichtung 34 auf einen anderen höheren Pegel initialisiert werden, und die Grobklassifizierung kann erneut ausgeführt werden, um wenigstens einige Kandidaten für das unbekannte Muster zu gewinnen. Wegen des fehlenden Vertrauens in einige solcher Kandidaten, die so gewonnen wurden, ist es jedoch vorzuziehen, ein Symbol "unbekanntes Zeichen" wie beispielsweise zur Haupt-CPU 10 zurückzugeben und die Haupt-CPU das unbekannte Zeichensymbol im Zeichenspeicher 15 speichern zu lassen und selbiges auf der Anzeige 16 anzuzeigen.
  • In Schritt S713 wird bestimmt, ob es zusätzliche Muster gibt, die die Mustererkennung erfordern. Wenn dem so ist, kehrt der Ablauf zu Schritt S703 zurück; wenn andererseits keine zusätzlichen Muster vorhanden sind, dann ist der Ablauf beendet.
  • Fig. 8 ist ein Ablaufdiagramm zur Erläuterung eines weiteren Operationsmodus der Einrichtung zur Mustererkennung, dargestellt in den Fig. 1, 2 und 3. Der in Fig. 8 dargestellte Prozeß bestimmt den Vertrauenspegel durch Erzielen von Kandidatenidentitäten für ein unbekanntes Muster auf der Grundlage einer Grobklassifizierung von drei unterschiedlichen Abstandsrechenfunktionen. Wenn die besten Kandidaten für unterschiedliche Abstandsrechenfunktionen dieselben sind, dann gibt es ein hohes Vertrauen in die Genauigkeit der Musteridentifikation. Wenn andererseits die unterschiedlichen Abstandsfunktionen unterschiedliche Kandidaten erzeugen, dann ist das Vertrauen in die Kandidatenidentitäten gering.
  • In Fig. 8 sind die Schritte S801, S802, S803 und S804 identisch mit den Schritten S601, S602, S602 beziehungsweise S604.
  • In Schritt S805 setzt der Digitalsignalprozessor 30 Bits 7 und 8 des Steuerwortes zur Auswahl der Mahalanobis- Abstandsfunktion ein und setzt Bit 14 so ein, daß sortierte Kandidatenidentitäten im Daten-RAM 44 gespeichert werden. Dann wird das Startbit 15 so eingestellt, daß es die Grobklassifizierungseinrichtung 34 veranlaßt, den Merkmalsvektor für das unbekannte Muster mit jedem der Merkmalsvektoren im Wörterbuch 35a und 35b auf der Grundlage der Mahalanobis- Abstandsrechnung zu vergleichen. Die durch diese erste Grobrechnung gewonnenen gespeicherten Kandidatenidentitäten werden im internen Pufferspeicher 27 gespeichert.
  • In den Schritten S806 wird eine zweite Grobklassifizierung ausgeführt, die identisch ist mit der, die in Schritt S805 ausgeführt wird, mit der Ausnahme, daß Bits 7 und 8 des Befehlswortes so eingestellt werden, daß die Abstandsfunktion mittleren Absolutwerts ausgewählt wird. Erneut werden die von der Grobklassifiziereinrichtung 34 gewonnenen sortierten Kandidatenidentitäten im internen Pufferspeicher 37 gespeichert.
  • In Schritt S807 wird eine dritte Grobklassifizierung ausgeführt, die identisch ist mit den ersten beiden, mit der Ausnahme, daß die Bits 7 und 8 des Befehlswortes zur Auswahl der Abstandsrechenfunktion mittleren Schwankungsquadrates eingestellt werden. Die sortierten Kandidatenidentitäten aus der Grobklassifiziereinrichtung 34 werden im internen Pufferspeicher 37 gespeichert.
  • In Schritt S808 werden die besten Kandidaten für jede der unterschiedlichen Abstandsrechnungen verglichen. Wenn die Kandidaten dieselben sind, dann besteht ein sehr hohes Vertrauen in die Genauigkeit der Kandidatenidentitäten. Folglich ist es nicht generell erforderlich, eine detaillierte Verarbeitung und Nachverarbeitung auszuführen, und der beste Kandidat wird einfach gespeichert und in Schritt S809 angezeigt.
  • Wenn in Schritt S808 andererseits die besten Kandidaten für jede der Abstandsrechnungen nicht dieselben sind, dann werden in Schritt S810 die besten Kandidaten verglichen, um zu bestimmen, ob sie alle unterschiedlich sind. Wenn die besten Kandidaten alle unterschiedlich sind, dann besteht nur geringes Vertrauen in die Genauigkeit des Mustererkennungsprozesses, und in Schritt S811 wird ein Anzeiger für geringes Vertrauen eingestellt. In Schritt S812 speichert die Haupt-CPU 10 einen Kandidaten, der aus einer der Abstandsrechnungen im Zeichenspeicher 15 mit einem Anzeiger für geringes Vertrauen ausgewählt ist, und zeigt den ausgewählten Kandidaten auf der Anzeige 16 mit der Anzeige geringen Vertrauens an, beispielsweise durch Umkehrgrafiken.
  • Die in Schritt S812 gespeicherten und angezeigten Kandidaten können beliebig aus den besten Kandidaten aus den unterschiedlichen Abstandsfunktionen ausgewählt werden. Jedoch können unbekannte Muster mit speziellen Eigenschaften genauer auf der Grundlage einer Abstandsrechenfunktion identifiziert werden, als basierend auf einer anderen Funktion, wie ausführlicher in Verbindung mit dem Dokument EP-A-0 555 023 erläutert, betitelt mit "Method and Apparatus for Pattern Recognition". Beispielsweise ist die Abstandsfunktion mittleren Absolutwerts für klare Bilder und große Schriftart geeignet. Folglich werden für solche Bilder die besten Kandidaten in Schritt S813 verwendet, die die besten Kandidaten aus der Abstandsfunktion mittleren Absolutwerts sind. Andererseits stellt die Mahalanobis-Abstandsfunktion und die Funktion mittleren Schwankungsquadrats genauere Ergebnisse für kleine Schriftarten und verschlechterte Bilder dar. Für derartige Bilder sollte folglich der beste Wert aus einem dieser Abstandsfunktionen verwendet werden, anstelle derjenigen der Abstandsfunktion mittleren Absolutwerts.
  • Wenn unter erneuten Rückbezug auf Schritt S810 die besten Kandidaten aus den unterschiedlichen Abstandsfunktionen nicht alle unterschiedlich sind, das heißt, einige der besten Kandidaten sind dieselben, dann ist die zusätzliche Verarbeitung zur Bestimmung garantiert, ob ein Kandidat hohen Vertrauens identifiziert werden kann. Folglich schreitet der Ablauf fort zu Schritt S813, in dem die Detailverarbeitung bezüglich der Kandidaten ausgeführt wird. Schritt S814 bestimmt den Vertrauenspegel für die Kandidaten, die aus der Detailverarbeitung ausgewählt worden sind. Das Vertrauen kann bestimmt werden durch Inspizieren der Abstandswerte, die im Detailverarbeitungsschritt zurückgegeben werden. Wenn die Abstandswerte beispielsweise groß sind, dann ist das Vertrauen gering; im entgegengesetzten Falle ist das Vertrauen für geringe Abstandswerte groß. Gleichermaßen kann das Vertrauen in Schritt S814 durch Vergleichen der Abstandswerte für die obersten Kandidaten bestimmt werden. Wenn der Unterschied zwischen den Abstandswerten für die besten Kandidaten kleiner ist, dann ist das Vertrauen gering, und vice versa.
  • Wenn in Schritt S815 der in Schritt S814 bestimmte Vertrauenspegel niedrig ist, dann wird in Schritt S816 ein Anzeiger für geringes Vertrauen eingestellt, und in Schritt S817 speichert die CPU 10 den besten Kandidaten aus Schritt S813 mit dem Anzeiger für geringes Vertrauen im Zeichenspeicher 15 und zeigt den besten Kandidaten auf der Anzeige 16 mit der Anzeige geringem Vertrauens an, beispielsweise durch Umkehrgrafiken.
  • Wenn andererseits in Schritt S815 der Vertrauenspegel nicht niedrig ist, dann speichert die CPU 10 in Schritt S818 den besten Kandidaten aus Schritt S813 im Zeichenspeicher 15 und zeigt den besten Kandidaten auf der Anzeige 16 an.
  • Der Ablauf schreitet dann fort zu Schritt S819, in dem bestimmt wird, ob es zusätzliche Muster gibt, die der Mustererkennung bedürfen. Wenn dem so ist, kehrt der Ablauf zu Schritt S803 zurück, falls nicht, dann endet der Ablauf.
  • Fig. 9 stellt ein weiteres Ausführungsbeispiel einer Einrichtung zur Mustererkennung nach der vorliegenden Erfindung dar. In Fig. 9 haben Komponenten mit gleichen Funktionen wie jene zuvor beschriebenen dieselben Bezugzeichen.
  • In der Einrichtung zur Mustererkennung von Fig. 9 erhält eine Haupt-CPU 10 Bilddaten aus einer Einrichtung 11 zur Bilddateneingabe und speichert die Bilddaten im Bildspeicher 12. Die Bilddaten im Bildspeicher werden von der CPU 10 in individuelle unbekannte Muster segmentiert, die zum Zeichenerkennungsgerät 14 über die Schnittstelle 13 übertragen werden. Die Zeichenerkennungseinrichtung 14 führt ein Merkmalsauslesen aus, um einen Merkmalsvektor für das unbekannte Muster zu erzeugen, und führt eine Grobklassifizierung auf der Grundlage des Merkmalsvektors und eine detaillierte Klassifizierung auf der Grundlage der Ergebnisse der Grobklassifizierung aus, wie bereits zuvor in Verbindung mit den Fig. 1 bis 8 beschrieben worden ist. Die Identitäten der Kandidaten aus der Detailverarbeitung werden über den Bus 13 zur Haupt-CPU 10 zurückgesandt, woraufhin die Haupt-CPU Nachverarbeitungen ausführt, um eine Identität für das unbekannte Muster zu bestimmen.
  • Die für die unbekannten Muster bestimmten Identitäten werden über Bus 51 zum Lokalbereichsnetzwerkbus 52 übertragen. Auf den Lokalnetzbereichsbus 52 wird von einer Vielzahl alleinstehender Computer 53 zugegriffen, wodurch jeder der alleinstehenden Computer selbst die Mustererkennungsfähigkeiten des Erkennungsgerätes erhält.
  • Die Arbeitsweise des in Fig. 9 gezeigten Ausführungsbeispiels ist anderer Hinsicht bezüglich der Arbeitsweise des zuerst beschriebenen Ausführungsbeispiels identisch.
  • Fig. 10 veranschaulicht ein weiteres Ausführungsbeispiel der Einrichtung zur Mustererkennung nach der vorliegenden Erfindung. In Fig. 10 sind die Elemente mit Funktionen und Strukturen, die jenen zuvor beschriebenen gleich sind, mit denselben Bezugszeichen versehen.
  • Wie in Fig. 10 gezeigt, ist der Lokalbereichsnetzbus 52 mit einer Einrichtung 11 zur Bilddateneingabe, einer Zeichenerkennungseinrichtung 14 und mehreren alleinstehenden Computern 53 vorgesehen. Mit dieser Struktur ist jeder der alleinstehenden Computer 53 in der Lage, auf die Bilddateneingabemöglichkeiten der Einrichtung 11 zur Bilddateneingabe zuzugreifen und die Bilddaten die solchermaßen empfangenen Bilddaten zur Zeichenerkennungseinrichtung 14 zu kanalisieren, um so die Identitäten von Kandidaten für unbekannte Muster zu erhalten. Diese Struktur beseitigt das Erfordernis der Bereitstellung einer Haupt-CPU und eines Bildspeichers; die von der Haupt-CPU 10 und dem Bildspeicher 12 ausgeführten Prozesse in den vorherigen Ausführungsbeispielen können von den alleinstehenden Computern 53 ausgeführt werden.
  • Fig. 11 und 12 sind Ansichten zur Erläuterung der Arbeitsweise beliebiger der vorstehenden Ausführungsbeispiele für den Fall, daß die von der Eingabeeinrichtung 11 eingegebenen Bilddaten solche enthalten, die Zeichen darstellen, die mit Bilddaten gemischt sind, die Bilder darstellen. Wie insbesondere in Fig. 11(a) dargestellt, enthalten Bilddaten typischerweise Bereiche 61, die Bilder von Zeichen oder Textdaten darstellen, sowie Bereiche 62, die Zeichenbilddaten nicht darstellen, beispielsweise Grafiken, Bilder, Tafeln und dergleichen. Für ein derartiges Bild ist es vorteilhaft, zwischen Zeichenbereichen 10 und Nichtzeichenbereichen 62 zu unterscheiden, um die Zeichenerkennung bezüglich der Zeichenbereiche 61 auszuführen und die Darstellung des eingegebenen Bildes zu speichern, so daß Zeichenbereiche in die Identität der Zeichen decodiert werden, wohingegen die Bildbereiche als Bildinformation zurückgehalten werden, wie beispielsweise in Fig. 11(b) gezeigt.
  • Fig. 12 ist ein Ablaufdiagramm, das diesen Operationsmodus veranschaulicht. In Schritt S1201 werden Bilddaten eingegeben. Die Bilddaten werden zum Identifizieren individueller Blöcke der Information inspiziert, und für jeden der individuellen Informationsblöcke wird herausgefunden, ob der Block Zeicheninformationen oder Nichtzeicheninformationen enthält (Schritt S1202). Derartiges Herausfinden ist im Stand der Technik bekannt, wie beispielsweise in den U.S. Patenten 4 701 807 und 4 729 035 beschrieben.
  • Der Schritt S1203 bestimmt, ob ein Zeichenblock in Schritt S1202 selektiert ist. Wenn ein Zeichenblock nicht selektiert ist, dann wird in Schritt S1204 das Bild ohne Verarbeitung gespeichert. Wenn andererseits ein Zeichenblock selektiert worden ist, dann wird in Schritt S1205 die Zeichenerkennungsverarbeitung gemäß einer der zuvor beschriebenen Techniken ausgeführt. In Schritt S1206 werden die Identität der erkannten Zeichen gespeichert.
  • In Schritt S1207 werden die gespeicherten Daten, ob Bild oder Zeichen, ausgegeben. In dieser Hinsicht können die gespeicherten Daten über ein Modem auf eine Fernsprechschnittstelle ausgegeben werden. In diesem Falle werden Zeichendaten in Codeform ausgegeben, beispielsweise im ASCII-Code, während Bilddaten in Bildform ausgegeben werden, beispielsweise gemäß den CCITT-Normen zur G3- Faksimileübertragung.
  • Fig. 13 und 14 sind Ansichten zur Erläuterung eines weiteren Ausführungsbeispiels nach der Erfindung, in denen es möglich ist, die Ergebnisse der Zeichenerkennung zum wortverarbeiteten Text vorauszusehen. Voraussehen stellt die Sicherheit dar, daß die Textdatei des wortverarbeiteten Originals durch Mustererkennung aus einem Bild des wortverarbeiteten Textes wiedergefunden werden kann. Wenn somit beispielsweise im Falle, bei dem wortverarbeiteter Text an eine entfernte Stelle der Faksimile übertragen wird (beispielsweise durch "PC-Fax" direkt von der Wortverarbeitungsausrüstung), stellt das Vorausschauen sicher, daß das empfangene Bild an der entfernten Stelle der Zeichenerkennung zum Zwecke des Wiederherstellens der Textdatei des wortverarbeiteten Originals unterzogen werden kann.
  • Wie in Fig. 13 gezeigt, wird eine Textdatei 70 bei 71 ausgedruckt und bei 72 per Faksimile übertragen. Unter Verwendung des alternativen "PC-Fax" ist das Erfordernis zum Ausdrucken nicht gegeben, wie durch den gestrichelten Pfeil in der Textdatei 70 gezeigt, und wird unter 76 in ein Druckbild umgesetzt und unter 72 per Faksimile übertragen. Das beim Faksimileempfang 73 empfangene Bild wird bei 74 der Zeichenerkennung unterzogen, um bei 75 eine Textdatei zu erstellen. Die Zeichenerkennung 74 kann gemäß einem beliebigen der zuvor beschriebenen Ausführungsbeispiele des Systems zur Mustererkennung ausgeführt werden.
  • Zur Sicherstellung, daß die Textdatei 75 dieselbe Information wie die Textdatei 70 enthält, werden die Ergebnisse der Bildumsetzung, der Übertragung und der Mustererkennung vorausgeschaut. Somit wird die Textdatei 70 der elektronischen Bildumsetzung 76 unterzogen. Das so erschaffene Bild gibt verschiedene Schriftarten und Typengrößen wieder, die beim Ausdrucken 71 verwendet werden. Das bei 76 umgesetzte Bild wird bei 77 der Zeichenerkennung unterzogen, um bei 78 eine Textdatei zu erstellen.
  • Die Originaltextdatei 70 wird bei 79 angezeigt, und die mustererkannte Textdatei 78 wird bei 80 angezeigt. Die Anzeige kann seitenweise erfolgen, wie in Fig. 14 gezeigt, die das Auftreten von Daten auf der Anzeige darstellt. Darüber hinaus werden die Textdateien verglichen, und Diskrepanzen zwischen den beiden Textdateien werden notiert. Irgendwelche Diskrepanzen, wie beispielsweise jene, die durch die Umkehrgrafiken bei 90 angezeigt werden, zeigen an, daß der unter 71, 72, 73, 74 und 75 dargestellte Übertragungsprozeß die Textdatei bei 75 nicht erfolgreich wiederherstellt. Folglich können Anpassungen in der Textdatei vorgenommen werden, oder die Textdatei kann unter Verwendung unterschiedlicher Schriftart, Stil, Größe und so weiter ausgedruckt werden. Derartige Modifikationen erfolgen erforderlichenfalls, bis die Textdatei 78 mit der Textdatei 70 identisch ist. In diesem Punkt kann sichergestellt werden, daß der Übertragungsprozeß 42 zu einer Textdatei 78 führt, die mit der Textdatei 70 identisch ist.

Claims (23)

1. Gerät zur Mustererkennung, mit:
einem Mustererkennungmittel zum Bereitstellen einer Vielzahl von Kandidaten für ein unbekanntes Muster; und
einem Ausgabemittel zur Ausgabe einer Identität für das unbekannte Muster gemäß der Vielzahl von Kandidaten;
dadurch gekennzeichnet, daß
das Mustererkennungsmittel (S804 - S807) jeden Kandidaten auf der Grundlage einer jeweils unterschiedlichen Abstandsfunktion bereitstellt, die einen Abstandswert zwischen einem Kandidaten für das unbekannte Muster und einem bekannten Muster bestimmt, und daß zu Mustererkennung des weiteren gehören:
ein Vergleichermittel (S808, S810, S809, S812) zum Vergleichen der Vielzahl von Kandidaten, um so zu bestimmen, ob die Vielzahl von Kandidaten vergleichbar ist, und zum Ausgeben einen der Vielzahl von Kandidaten als Identität des unbekannten Musters dann, wenn das Vergleichermittel bestimmt, daß die Vielzahl von Kandidaten vergleichbar ist; und
ein Detailverarbeitungsmittel (S813) zum Ausführen einer Detailverarbeitung, bei der zusätzliche Unterscheidungsfunktionen zur Anwendung kommen, um die Identität des unbekannten Musters zu bestimmen, wobei das Detailverarbeitungsmittel selektiv betriebsbereit ist, die Identität des unbekannten Musters gemäß der Bestimmung vom Vergleichsmittel zu bestimmen, daß die in Vielzahl vorhandenen Kandidaten nicht vergleichbar ist.
2. Gerät nach Anspruch 1, dessen Mustererkennungsmittel ein Klassifizierungsmittel zum Bereitstellen eines Abstandswertes zwischen dem unbekannten Muster und wenigstens einem bekannten Muster enthält.
3. Gerät nach Anspruch 2, mit einem Vertrauenskoeffizienten- Bestimmungsmittel zum Bestimmen des Vertrauenskoeffizienten eines Kandidaten auf der Grundlage des Abstandswertes aus dem Klassifiziermittel.
4. Gerät nach Anspruch 3, das des weiteren über einen Datenanbieter zum Segmentieren von Bildinformationen in Muster enthält, wobei das Mustererkennungsmittel einen vom Datenanbieter übertragenen Kandidaten für ein Mustersegment bereitstellt; wobei der Datenanbieter den Kandidaten dann bereitstellt, wenn der Vertrauenskoeffizient groß ist, und ein Rückweissignal bereitstellt, wenn der Vertrauenskoeffizient gering ist.
5. Gerät nach Anspruch 3 oder 4, dessen Klassifizierungsmittel in selektiver Weise sortierte Abstandswerte zwischen dem unbekannten Muster und wenigstens einem bekannten Muster und sortierte Kandidaten für das unbekannte Muster bereitstellt.
6. Gerät nach Anspruch 3 oder 4, dessen Klassifizierungsmittel Abstandswerte zwischen dem unbekannten Muster und dem wenigstens einen bekannten Muster auf der Grundlage einer Vielzahl von Abstandsfunktionen bereitstellt, und wobei das Vertrauenskoeffizienten-Bestimmungsmittel den Vertrauenskoeffizienten durch einen Vergleich der von der Vielzahl von Abstandsfunktionen zurückgegebenen Abstandswerte bestimmt.
7. Gerät nach einem der vorstehenden Ansprüche, dessen Mustererkennungsmittel über ein Klassifizierungsmittel verfügt, um den Kandidaten dann bereitzustellen, wenn dieser näher am vorbestimmten Koeffizienten aus einem bekannten Muster liegt.
8. Gerät nach einem der vorstehenden Ansprüche, das des weiteren über ein Selektiermittel zum Unterscheiden zwischen Zeichenmustern und Nichtzeichenmustern verfügt, und wobei das Mustererkennungmittel einen Kandidaten dann bereitstellt, wenn ein Zeichenmuster herausgefunden ist.
9. Gerät nach Anspruch 8, wobei das Verarbeitungsmittel des weiteren augestattet ist mit einem Zeicheninformations- Verarbeitungsmittel und mit einem Vorschaumittel zum Veranlassen der vom Zeicheninformatinsverarbeitungsmittel verarbeiteten Zeicheninformation, vom Mustererkennungsmittel verarbeitet zu werden.
10. Gerät nach einem der vorstehenden Ansprüche, das des weiteren über eine Bildinformations-Eingabeeinrichtung zur Eingabe der Bildinformation zum Datenanbieter verfügt.
11. Gerät nach Anspruch 4 und einem der Ansprüche 5 bis 10, sofern abhängig von Anspruch 4, das des weiteren über einen mit dem der Datenanbieter verbundenen Netzwerkbus verfügt, wobei der Datenanbieter auf Befehle auf dem Netzwerkbus zur Mustererkennung anspricht.
12. Gerät nach Anspruch 4 und einem der Ansprüche 5 bis 11, sofern abhängig von Anspruch 4, dessen Datenanbieter des weiteren augestattet ist mit einem Zeicheninformations- Verarbeitungsmittel und mit einem Vorschaumittel zum Veranlassen der vom Zeicheninformationsverarbeitungsmittel verarbeiteten Zeicheninformation, vom Mustererkennungsmittel verarbeitet zu werden.
13. Verfahren zur Mustererkennung, mit den Verfahrensschritten:
Verwenden eines Mustererkennungsmittels in einem ersten Verfahrensschritt zum Bereitstellen einer Vielzahl von Kandidaten für ein unbekanntes Muster; und
Ausgeben einer Identität für das unbekannte Muster gemäß der Vielzahl von Kandidaten;
dadurch gekennzeichnet, daß im ersten Verfahrensschritt
das Mustererkennungsmittel (S804 - S807) jeden Kandidaten auf der Grundlage einer jeweils unterschiedlichen Abstandsfunktion bereitstellt, die einen Abstandswert zwischen einem Kandidaten für das unbekannte und einem bekannten Muster bestimmt,
wobei der erste Verfahrensschritt des weiteren umfaßt:
Vergleichen (S808, S810, S809, S812) der Vielzahl von Kandidaten, um so zu bestimmen, ob die Vielzahl von Kandidaten vergleichbar sind, und Ausgeben eines der Vielzahl von Kandidaten als die Identität des unbekannten Musters, wenn das Vergleichsmittel bestimmt, daß die Vielzahl von Kandidaten vergleichbar sind, und
Verwenden eines Detailverarbeitungsmittels (S813) zum Ausführen einer Detailverarbeitung, bei der zusätzliche Selektierfunktionen Verwendung finden, um die Identität eines unbekannten Musters zu bestimmen, wobei das Detailverarbeitungsmittel in selektiver Weise betriebsbereit ist, die Identität des unbekannten Musters gemäß der Bestimmung vom Vergleichsmittel zu bestimmen, daß die Vielzahl von Kandidaten nicht vergleichbar ist.
14. Verfahren nach Anspruch 13, dessen erster Verfahrensschritt das Bereitstellen eines Abstandswertes zwischen dem unbekannten und dem wenigstens einem bekannten Muster umfaßt.
15. Verfahren nach Anspruch 14, mit dem Verfahrensschritt des Verwendens eines Vertrauenskoeffizienten-Bestimmungsmittels zur Bestimmung des Vertrauenskoeffizienten eines Kandidaten auf der Grundlage des Abstandswertes.
16. Verfahren nach Anspruch 15, mit dem weiteren Verfahrensschritt des Verwendens eines Datenanbieters zum Segmentieren von Bildinformationen in Muster, wobei der erste Verfahrensschritt einen Kandidaten zu einem vom Datenanbieter übertragenen Mustersegment bereitstellt; wobei der Datenanbieter den Kandidaten dann bereitstellt, wenn der Vertrauenskoeffizient groß ist, und ein Rückweissignal bereitstellt, wenn der Vertrauenskoeffizient klein ist.
17. Verfahren nach Anspruch 15 oder 16, dessen erster Verfahrensschritt in selektiver Weise sortierte Abstandswerte zwischen dem unbekannten Muster und dem wenigstens einen bekannten Muster und sortierte Kandidaten für das unbekannte Muster bereitstellt.
18. Verfahren nach Anspruch 15 oder 16, dessen erster Verfahrensschritt Abstandswerte zwischen dem unbekannten Muster und dem wenigstens einen bekannten Muster basierend auf einer Vielzahl von Abstandsfunktionen bereitstellt, und bei dem das Vertrauenskoeffizient-Bestimmungsmittel den Vertrauenskoeffizienten auf der Grundlage eines Vergleichs des Abstandswertes bestimmt, den die Vielzahl von Abstandsfunktionen zurückgeben.
19. Verfahren nach einem der Ansprüche 13 bis 18, dessen erster Verfahrensschritt über das Verwenden von Klassifizierungsmitteln zum Bereitstellen des Kandidaten verfügt, wenn der Kandidat näher am vorbestimmten Koeffizienten für ein bekanntes Muster liegt.
20. Verfahren nach einem der Ansprüche 13 bis 19, mit dem weiteren Verfahrensschritt des Selektierens zwischen Zeichenmustern und Nichtzeichenmustern, und bei dem der erste Verfahrensschritt einen Kandidaten dann bereitstellt, wenn ein Zeichenmuster herausgefunden ist.
21. Verfahren nach einem der Ansprüche 13 bis 20, mit dem weiteren Verfahrensschritt des Verwendens einer Bildinformations-Eingabeeinrichtung zur Eingabe der Bildinformation in den Datenanbieter.
22. Verfahren nach Anspruch 16 und einem der Ansprüche 17 bis 21, sofern abhängig von Anspruch 16, wobei der Datenanbieter mit einem Netzwerkbus verbunden ist und der Datenanbieter auf Befehle auf dem Netzwerkbus zur Mustererkennung anspricht.
23. Verfahren nach Anspruch 16 und einem der Ansprüche 17 bis 22, sofern abhängig von Anspruch 16, bei dem der Datenanbieter des weiteren ausgestattet ist mit einem Zeicheninformations- Verarbeitungsmittel und einem Vorschaumittel zum Veranlassen der vom Zeicheninformationsverarbeitungsmittel verarbeiteten Zeicheninformation, vom Mustererkennungsmittel verarbeitet zu werden.
DE69328640T 1992-02-07 1993-01-29 Verfahren und Einrichtung zur Mustererkennung Expired - Lifetime DE69328640T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US83259492A 1992-02-07 1992-02-07

Publications (2)

Publication Number Publication Date
DE69328640D1 DE69328640D1 (de) 2000-06-21
DE69328640T2 true DE69328640T2 (de) 2000-09-28

Family

ID=25262125

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69328640T Expired - Lifetime DE69328640T2 (de) 1992-02-07 1993-01-29 Verfahren und Einrichtung zur Mustererkennung

Country Status (4)

Country Link
US (1) US5524065A (de)
EP (1) EP0555024B1 (de)
JP (1) JPH05274436A (de)
DE (1) DE69328640T2 (de)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7242988B1 (en) 1991-12-23 2007-07-10 Linda Irene Hoffberg Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US7721307B2 (en) 1992-12-09 2010-05-18 Comcast Ip Holdings I, Llc Method and apparatus for targeting of interactive virtual objects
JPH087033A (ja) * 1994-06-16 1996-01-12 Canon Inc 情報処理方法及び装置
TW274135B (de) * 1994-09-14 1996-04-11 Hitachi Seisakusyo Kk
US5463564A (en) * 1994-09-16 1995-10-31 3-Dimensional Pharmaceuticals, Inc. System and method of automatically generating chemical compounds with desired properties
US5666547A (en) * 1994-09-23 1997-09-09 Alcatel Network Systems, Inc. Method and apparatus for framing a serial data stream
US5649070A (en) * 1995-02-17 1997-07-15 International Business Machines Corporation Learning system with prototype replacement
US5739518A (en) * 1995-05-17 1998-04-14 Metanetics Corporation Autodiscrimination for dataform decoding and standardized recording
US5912700A (en) * 1996-01-10 1999-06-15 Fox Sports Productions, Inc. System for enhancing the television presentation of an object at a sporting event
US6104833A (en) * 1996-01-09 2000-08-15 Fujitsu Limited Pattern recognizing apparatus and method
JP2973944B2 (ja) * 1996-06-26 1999-11-08 富士ゼロックス株式会社 文書処理装置および文書処理方法
US5917553A (en) * 1996-10-22 1999-06-29 Fox Sports Productions Inc. Method and apparatus for enhancing the broadcast of a live event
US6535681B2 (en) * 2001-06-19 2003-03-18 Lucent Technologies Inc. Fiber-optic cable routing and bend limiting device and system
JP2001503546A (ja) 1996-11-04 2001-03-13 3―ディメンショナル ファーマシューティカルズ インコーポレイテッド 化学データの可視化、並びに対話式に処理および分析するためのシステム、方法、およびコンピュータプログラム製品
US6453246B1 (en) * 1996-11-04 2002-09-17 3-Dimensional Pharmaceuticals, Inc. System, method, and computer program product for representing proximity data in a multi-dimensional space
US6571227B1 (en) 1996-11-04 2003-05-27 3-Dimensional Pharmaceuticals, Inc. Method, system and computer program product for non-linear mapping of multi-dimensional data
US5953077A (en) * 1997-01-17 1999-09-14 Fox Sports Productions, Inc. System for displaying an object that is not visible to a camera
US6370269B1 (en) * 1997-01-21 2002-04-09 International Business Machines Corporation Optical character recognition of handwritten or cursive text in multiple languages
US5930393A (en) * 1997-08-11 1999-07-27 Lucent Technologies Inc. Method and apparatus for enhancing degraded document images
US7152031B1 (en) * 2000-02-25 2006-12-19 Novell, Inc. Construction, manipulation, and comparison of a multi-dimensional semantic space
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6459809B1 (en) 1999-07-12 2002-10-01 Novell, Inc. Searching and filtering content streams using contour transformations
US6594382B1 (en) * 1999-11-04 2003-07-15 The United States Of America As Represented By The Secretary Of The Navy Neural sensors
AU2001241800A1 (en) 2000-02-29 2001-09-12 3-Dimensional Pharmaceuticals, Inc. Method and computer program product for designing combinatorial arrays
WO2001071624A1 (en) 2000-03-22 2001-09-27 3-Dimensional Pharmaceuticals, Inc. System, method, and computer program product for representing object relationships in a multidimensional space
AU2001249805A1 (en) 2000-04-03 2001-10-15 3-Dimensional Pharmaceuticals, Inc. Method, system, and computer program product for representing object relationships in a multidimensional space
US7286977B1 (en) 2000-09-05 2007-10-23 Novell, Inc. Intentional-stance characterization of a general content stream or repository
US7653530B2 (en) * 2000-07-13 2010-01-26 Novell, Inc. Method and mechanism for the creation, maintenance, and comparison of semantic abstracts
US7672952B2 (en) * 2000-07-13 2010-03-02 Novell, Inc. System and method of semantic correlation of rich content
CA2419600A1 (en) * 2000-08-22 2002-02-28 3-Dimensional Pharmaceuticals, Inc. Method, system, and computer program product for determining properties of combinatorial library products from features of library building blocks
US20100122312A1 (en) * 2008-11-07 2010-05-13 Novell, Inc. Predictive service systems
US20090234718A1 (en) * 2000-09-05 2009-09-17 Novell, Inc. Predictive service systems using emotion detection
WO2002025504A2 (en) * 2000-09-20 2002-03-28 Lobanov Victor S Method, system, and computer program product for encoding and building products of a virtual combinatorial library
US8682077B1 (en) 2000-11-28 2014-03-25 Hand Held Products, Inc. Method for omnidirectional processing of 2D images including recognizable characters
US7054757B2 (en) * 2001-01-29 2006-05-30 Johnson & Johnson Pharmaceutical Research & Development, L.L.C. Method, system, and computer program product for analyzing combinatorial libraries
JP4421134B2 (ja) * 2001-04-18 2010-02-24 富士通株式会社 文書画像検索装置
US6768815B2 (en) 2001-05-10 2004-07-27 The United States Of America As Represented By The Secretary Of The Navy Color sensor
JP4846924B2 (ja) * 2001-05-31 2011-12-28 キヤノン株式会社 パターン認識装置
US7020336B2 (en) * 2001-11-13 2006-03-28 Koninklijke Philips Electronics N.V. Identification and evaluation of audience exposure to logos in a broadcast event
US7167587B2 (en) * 2002-08-30 2007-01-23 Lockheed Martin Corporation Sequential classifier for use in pattern recognition system
US7366352B2 (en) * 2003-03-20 2008-04-29 International Business Machines Corporation Method and apparatus for performing fast closest match in pattern recognition
US8620083B2 (en) * 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
JP2005339039A (ja) * 2004-05-25 2005-12-08 Fuji Xerox Co Ltd 文書処理装置および文書処理方法
US7416125B2 (en) * 2005-03-24 2008-08-26 Hand Held Products, Inc. Synthesis decoding and methods of use thereof
WO2009013818A1 (ja) * 2007-07-25 2009-01-29 Fujitsu Limited 文字認識処理方法及び装置
JP5361174B2 (ja) * 2007-11-30 2013-12-04 キヤノン株式会社 表示制御装置、表示制御方法、およびプログラム
US10007486B2 (en) 2008-12-01 2018-06-26 Micron Technology, Inc. Systems and methods to enable identification of different data sets
US8301622B2 (en) * 2008-12-30 2012-10-30 Novell, Inc. Identity analysis and correlation
US8386475B2 (en) * 2008-12-30 2013-02-26 Novell, Inc. Attribution analysis and correlation
US8296297B2 (en) * 2008-12-30 2012-10-23 Novell, Inc. Content analysis and correlation
US8150160B2 (en) * 2009-03-26 2012-04-03 King Fahd University Of Petroleum & Minerals Automatic Arabic text image optical character recognition method
US20100250479A1 (en) * 2009-03-31 2010-09-30 Novell, Inc. Intellectual property discovery and mapping systems and methods
US11797669B2 (en) 2020-06-22 2023-10-24 Bank Of America Corporation System for isolated access and analysis of suspicious code in a computing environment
US11880461B2 (en) 2020-06-22 2024-01-23 Bank Of America Corporation Application interface based system for isolated access and analysis of suspicious code in a computing environment
US11269991B2 (en) 2020-06-22 2022-03-08 Bank Of America Corporation System for identifying suspicious code in an isolated computing environment based on code characteristics
US11636203B2 (en) 2020-06-22 2023-04-25 Bank Of America Corporation System for isolated access and analysis of suspicious code in a disposable computing environment
US11574056B2 (en) 2020-06-26 2023-02-07 Bank Of America Corporation System for identifying suspicious code embedded in a file in an isolated computing environment

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1811420B2 (de) * 1968-11-28 1974-05-30 Matth. Hohner Ag, 7218 Trossingen Schaltung zur Klassifizierung von Repräsentanten mit stark unterschiedlichen Merkmalen
DE3026055C2 (de) * 1980-07-09 1984-01-12 Computer Gesellschaft Konstanz Mbh, 7750 Konstanz Schaltungsanordnung zur maschinellen Zeichererkennung
JPS57178578A (en) * 1981-04-27 1982-11-02 Toshiba Corp Pattern recognition system
JPS5879300A (ja) * 1981-11-06 1983-05-13 日本電気株式会社 パタ−ン距離計算方式
US4573196A (en) * 1983-01-19 1986-02-25 Communications Intelligence Corporation Confusion grouping of strokes in pattern recognition method and system
US4621334A (en) * 1983-08-26 1986-11-04 Electronic Signature Lock Corporation Personal identification apparatus
US4701807A (en) * 1983-09-22 1987-10-20 Canon Kabushiki Kaisha Method and apparatus for processing an image
US4658429A (en) * 1983-12-29 1987-04-14 Hitachi, Ltd. System and method for preparing a recognition dictionary
US5077807A (en) * 1985-10-10 1991-12-31 Palantir Corp. Preprocessing means for use in a pattern classification system
JPS63311583A (ja) * 1987-06-15 1988-12-20 Fuji Xerox Co Ltd 手書き文字認識システム

Also Published As

Publication number Publication date
EP0555024A3 (de) 1994-03-09
US5524065A (en) 1996-06-04
EP0555024A2 (de) 1993-08-11
JPH05274436A (ja) 1993-10-22
DE69328640D1 (de) 2000-06-21
EP0555024B1 (de) 2000-05-17

Similar Documents

Publication Publication Date Title
DE69328640T2 (de) Verfahren und Einrichtung zur Mustererkennung
DE69330378T2 (de) Mustererkennung
DE69229537T2 (de) Verfahren und Gerät zur Dokumentverarbeitung
DE69225678T2 (de) Verfahren und Gerät zur Dokumentbildverarbeitung
DE69229536T2 (de) Verfahren und Gerät zum Auswahl linguistisch bezeichnender Bilder in einem Dokumentbild ohne Dekodierung des Bildinhalts
DE69226611T2 (de) Verfahren und Gerät zur Verarbeitung eines Dokumentbildes
DE69604481T2 (de) Verfahren und gerät zum trennen des vordergrunds und hintergrunds in textenthaltenden bildern
DE69229468T2 (de) Verfahren und Gerät zur Bestimmung der Wortfrequenz in einem Dokument ohne Dokumentbilddekodierung
DE69519323T2 (de) System zur Seitensegmentierung und Zeichenerkennung
DE69423254T2 (de) Verfahren und Gerät zur automatischen Spracherkennung von Dokumenten
DE69517564T2 (de) Verfahren und Gerät zur Erzeugung einer hybriden Datenstruktur zur Anzeige eines Rasterbildes
DE60217299T2 (de) Holistisch-analytische erkennung von handgeschriebenem text
DE69523970T2 (de) Dokumentspeicher- und Wiederauffindungssystem
DE69610689T2 (de) System zum Klassifizieren von Fingerabdrücken
DE69516751T2 (de) Bildvorverarbeitung für Zeichenerkennungsanlage
DE69414530T2 (de) Bildkompression von Dokumenten mit Aufgeben des Formblattes
DE69230631T2 (de) Verfahren zum Vergleichen von Wortgestalten
DE69722971T2 (de) Automatisches sprachenerkennungssystem für die mehrsprachige optische zeichenerkennung
DE19953608B4 (de) Vorrichtung und Verfahren zum Erkennen eines Fonts eines Textes in einem Dokumentenverarbeitungssystem
DE4311172C2 (de) Verfahren und Einrichtung zum Identifizieren eines Schrägenwinkels eines Vorlagenbildes
DE69130469T2 (de) Gerät und Verfahren zur Bildverarbeitung
DE69623569T2 (de) System zur Zeichenerkennung und Übersetzung
DE69226609T2 (de) Verfahren und Gerät zur Dokumentbildverarbeitung
DE19705757C2 (de) Verfahren zum Erkennen eines Eingabemusters und zum Erzeugen einer Datenbank sowie Zeichenerkennungssystem
DE69230633T2 (de) Verfahren zur Ermittlung von Wortformen zum folgenden Vergleich

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
R071 Expiry of right

Ref document number: 555024

Country of ref document: EP