DE60208817T2 - Verfahren und Vorrichtung zur Buchstabenseparation für deren Erkennung - Google Patents

Verfahren und Vorrichtung zur Buchstabenseparation für deren Erkennung Download PDF

Info

Publication number
DE60208817T2
DE60208817T2 DE60208817T DE60208817T DE60208817T2 DE 60208817 T2 DE60208817 T2 DE 60208817T2 DE 60208817 T DE60208817 T DE 60208817T DE 60208817 T DE60208817 T DE 60208817T DE 60208817 T2 DE60208817 T2 DE 60208817T2
Authority
DE
Germany
Prior art keywords
image
picture
character
composite image
characters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60208817T
Other languages
English (en)
Other versions
DE60208817D1 (de
Inventor
c/o Matsushita Elc. Wks. Ltd Yoshihito Kadoma-shi HASHIMOTO
c/o Matsushita Electric Works Ltd Kazutaka Kadoma-shi IKEDA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Application granted granted Critical
Publication of DE60208817D1 publication Critical patent/DE60208817D1/de
Publication of DE60208817T2 publication Critical patent/DE60208817T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/15Cutting or merging image elements, e.g. region growing, watershed or clustering-based techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)
  • Character Input (AREA)
  • Image Processing (AREA)

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein Verfahren zur Zeichenerkennung für ein effektives Erkennen von Zeichen wie z. B. Buchstaben, numerischen Zeichen und Symbolen, mit einer Genauigkeit, selbst bei einem unklaren Bild oder einem Bild, das Störungen enthält, und eine Vorrichtung für ein solches Verfahren.
  • STAND DER TECHNIK
  • In der Vergangenheit wurde die Erkennung von Zeichen in einem Objektbild durch Vergleich des Objektbildes mit einem Bezugsbild, das in einem Speicher gespeichert war, durchgeführt. Zum Beispiel gibt es, wie in der Japanischen Patentanmeldung [kokai] Nr. 8-212290 offenbart, ein Verfahren zum Erkennen von Buchstaben, die in einem Originalbild enthalten sind, welches die Schritte des Binarisierens der zu erkennenden Buchstaben, das Durchführen einer Normalisierungsbehandlung beim erhaltenen Binärbild und das Eingeben der normalisierten Daten in ein neurales Netzwerk umfaßt. Gemäß dieses Verfahrens ist es möglich, Buchstaben und/oder numerische Zeichen selbst aus einem Kennzeichen eines sich bewegenden Fahrzeuges genau zu erkennen.
  • Bei diesem Verfahren kommt es jedoch vor, daß genaue Erkennungsergebnisse nicht erzielt werden können, wenn das Originalbild Störungen und/oder eine Unschärfe enthält. Insbesondere wenn eine Qualität des Originalbildes relativ schlecht ist, zum Beispiel wenn das Originalbild einige Zeichen wie z. B. numerische Zeichen enthält, von denen jedes aus mehreren Elementen besteht, und/oder unerwünschte Punkte um die Zeichen im Hintergrund vorhanden sind, wie in 1A gezeigt, besteht die Befürchtung, daß die Zeit, die für das Erkennen der Zeichen erforderlich ist, trotz einer Abnahme der Erkennungsgenauigkeit deutlich zunimmt.
  • KURZE DARSTELLUNG DER ERFINDUNG
  • Daher besteht eine Aufgabe der Erfindung darin, ein Verfahren zur Zeichentrennung für ein effizientes Erkennen von Zeichen wie z. B. Buchstaben, numerische Zeichen und Symbole, die in einem Originalbild enthalten sind, mit einer Genauigkeit zur Verfügung zu stellen, selbst wenn wenigstens eines der in dem Originalbild enthaltenen Zeichen aus mehreren Elementen besteht.
  • Somit umfaßt das Verfahren zur Zeichentrennung zum Einsatz in der Erkennung folgende Schritte:
    • (I) Aufnehmen eines ersten Bildes, welches ein Zeichen umfaßt, das aus mehreren Elementen zusammengesetzt ist;
    • (II) Herauslösen der mehreren Elemente in dem ersten Bild, um ein zweites Bild zu erhalten, in dem jedes der mehreren Elemente von einem rechteckigen Rahmen umschlossen ist;
    • (III) Bilden eines zusammengesetzten Bildes aus einer Kombination der rechteckigen Rahmen in dem zweiten Bild;
    • (IV) Berechnen eines charakteristischen Betrages der Elemente, die in dem zusammengesetzten Bild enthalten sind;
    • (V) Eingeben des charakteristischen Betrages in ein trainiertes Back-Propagation-Netzwerk, um einen Übereinstimmungsgrad zwischen dem charakteristischen Betrag des zusammengesetzten Bildes und dem Bezugszeichen zu liefern; und
    • (VI) Bestimmen des zusammengesetzten Bildes, welches einen höchsten Übereinstimmungsgrad zwischen dem charakteristischen Betrag des zusammengesetzten Bildes und des Bezugszeichens aufweist, aus Ergebnissen, die durch Wiederholen der Schritte (III) bis (V) bezüglich verschiedener Kombinationen der rechteckigen Rahmen in dem zweiten Bild erhalten werden, um es als ein getrenntes Zeichen zur Erkennung auszugeben.
  • In dem oben genannten Verfahren zur Zeichentrennung wird vorzugsweise eine unten beschriebene Vorbehandlung durchgeführt, wenn das erste Bild wenigstens zwei Zeichen, die aneinander gekoppelt sind, enthält. Dabei umfaßt die Vorbehandlung folgende Schritte:
    Aufbereiten eines binären Bildes, welches die wenigstens zwei Zeichen umfaßt;
    Bestimmen eines Profils, welches eine Verteilungsstärke in einer Ausrichtungsrichtung der wenigstens zwei Zeichen aus dem binären Bild zeigt;
    Setzen einer Schwelle oder einer Schwellenlinie, welche eine vorbestimmte Verteilungsstärke in dem Profil aufweist;
    Entfernen einer ersten Region des Profils aus dem Profil, in der die Verteilungsstärke niedriger als die Schwelle oder Schwellenlinie ist, um ein kompensiertes Bild zu erhalten, in dem die wenigstens zwei Zeichen getrennt voneinander sind; und
    Verwenden des kompensierten Bildes als das erste Bild.
  • Insbesondere wird bevorzugt, daß die oben beschriebene Vorbehandlung folgende Schritte umfaßt:
    Teilen der ersten Region nach dem Entfernen der ersten Region aus dem Profil in zwei Bereiche, an einer Stelle, welche eine minimale Verteilungsstärke des Profils in der ersten Region aufweist; und
    Zufügen der zwei Bereiche jeweils in ein Paar zweiter Regionen des Profils, welche sich auf beiden Seiten der ersten Region befinden, in der die Verteilungsstärke größer als die Schwellenlinie ist, um das kompensierte Bild zu erhalten.
  • Ferner wird in dem oben angeführten Verfahren zur Zeichentrennung bevorzugt, eine unten beschriebene Vorbehandlung durchzuführen, wenn das erste Bild ein Zeichen umfaßt, das aus mehreren Punkten besteht. Dabei umfaßt die Vorbehandlung folgende Schritte:
    Aufbereiten eines binären Bildes, welches das Zeichen der Punkte umfaßt;
    Ausdehnen jedes Punktes des Zeichens in einer horizontalen Richtung in dem binären Bild, um ein kompensiertes Bild zu erhalten, in dem jeder der ausgedehnten Punkte mit einem nahegelegenen ausgedehnten Punkt verbunden ist, und
    Verwenden des kompensierten Bildes als das erste Bild.
  • Insbesondere wird bevorzugt, daß die Vorbehandlung folgende Schritte umfaßt:
    Aufbereiten eines binären Bildes, welches das Zeichen der Punkte umfaßt;
    Ausdehnen jedes der Punkte des Zeichens in horizontaler und vertikaler Richtung in dem binären Bild, um ein kompensiertes Bild zu erhalten, in dem jeder der ausgedehnten Punkte mit einem nahegelegenen ausgedehnten Punkt verbunden ist; und
    Verwenden des kompensierten Bildes als das erste Bild.
  • Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, eine Vorrichtung zur Zeichentrennung zum Einsatz in der Erkennung bereitzustellen, welches die Fähigkeit aufweist, die bemerkenswerten Effekte des oben beschriebenen Verfahrens zur Zeichentrennung zu erzielen.
  • Die Vorrichtung zur Zeichentrennung der vorliegenden Erfindung umfaßt:
    eine Bildaufnahmevorrichtung zur Aufnahme eines ersten Bildes;
    einen Bildelementteiler zum Herauslösen mehrerer Elemente, die sich zu einem Zeichen zusammensetzen, welche in dem ersten Bild enthalten sind, um ein zweites Bild zu erhalten, in dem jedes der Elemente von einem rechteckigen Rahmen umschlossen ist;
    einen Erzeuger eines zusammengesetzten Bildes zum Bilden eines zusammengesetzten Bildes aus einer Kombination der rechteckigen Rahmen in dem zweiten Bild;
    eine Rechnervorrichtung für einen charakteristischen Betrag zum Bestimmen eines charakteristischen Betrages der Elemente, die in dem zusammengesetzten Bild enthalten sind;
    ein trainiertes Back-Propagation-Netzwerk, um einen Übereinstimmungsgrad zwischen dem charakteristischen Betrag des zusammengesetzten Bildes und des Bezugszeichens zu liefern, wenn der charakteristische Betrag in das Back-Propagation-Netzwerk eingegeben wird; und
    einen Bildanalysator zum Bestimmen des zusammengesetzten Bildes, welches einen höchsten Übereinstimmungsgrad zwischen dem charakteristischen Betrag des zusammengesetzten Bildes und des Bezugszeichens aufweist, aus Ergebnissen, die von dem Back-Propagation-Netzwerk bezüglich verschiedener Kombinationen der rechteckigen Rahmen in dem zweiten Bild geliefert werden, um es als ein getrenntes Zeichen zur Erkennung auszugeben.
  • Diese und weitere Aufgaben und Vorteile der vorliegenden Erfindung werden aus der besten Ausführungsform der Erfindung hervorgehen, die unten unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben wird.
  • KURZE ERKLÄRUNG DER ZEICHNUNGEN
  • 1A bis 1D sind Bilder, welche ein Verfahren zur Zeichentrennung zum Einsatz in der Erkennung gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigen;
  • 2 ist ein schematisches Diagramm, das Anordnungen von rechteckigen Innenrahmen in einem punktierten Kreis von 1B darstellt;
  • 3A und 3B sind schematische Diagramme, die Beispiele von rechteckigen Außenrahmen darstellen;
  • 4 ist ein Bild, das ein Beispiel eines ersten zusammengesetzten Bildes zeigt, das über einen Bereichsprüfschritt (II) geliefert wird;
  • 5 ist ein Flussdiagramm einer ersten Phase des Verfahrens zur Zeichentrennung zum Einsatz in der Erkennung der ersten Ausführungsform;
  • 6A und 6B sind schematische Diagramme, die Beispiele einer zweiten Phase des Verfahrens zur Zeichentrennung der ersten Ausführungsform darstellen;
  • 7 ist ein Flussdiagramm der zweiten Phase des Verfahrens zur Zeichentrennung;
  • 8 ist ein Flussdiagramm einer dritten Phase des Verfahrens zur Zeichentrennung der ersten Ausführungsform;
  • 9 ist ein Bild, das ein Beispiel des ersten zusammengesetzten Bildes zeigt, das über die zweite Phase des Verfahrens zur Zeichentrennung geliefert wird;
  • 10A und 10B sind schematische Diagramme, die Beispiele von zweiten zusammengesetzten Bildern darstellen;
  • 11A bis 11F sind schematische Diagramme, die das Aufbereiten von Daten für das neurale Netzwerk aus dem zweiten zusammengesetzten Bild darstellen;
  • 12 ist ein Bild, das ein Beispiel für die Erkennungsergebnisse des Verfahrens zur Zeichentrennung der Ausführungsform zeigt;
  • 13A bis 13E sind Bilder, die eine Vorbehandlung zeigen, die vor dem Verfahren zur Zeichentrennung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung durchgeführt wird;
  • 14A und 14B sind schematische Diagramme, welche diese Vorbehandlung darstellen;
  • 15 ist ein Originalbild mit einer schlechten Qualität;
  • 16A bis 16D sind Bilder, die eine Vorbehandlung zeigen, die vor dem Verfahren zur Zeichentrennung gemäß einer dritten Ausführungsform der vorliegenden Erfindung durchgeführt wird; und
  • 17A bis 17D sind Bilder, die eine Vorbehandlung zeigen, die vor dem Verfahren zur Zeichentrennung gemäß einer dritten Ausführungsform der vorliegenden Erfindung durchgeführt wird.
  • BESTE AUSFÜHRUNGSFORM DER ERFINDUNG
  • Erste Ausführungsform
  • Als eine bevorzugte Ausführungsform des Verfahrens der vorliegenden Erfindung zur Zeichentrennung zum Einsatz in der Erkennung wird unten im Detail ein Verfahren zum wirksamen und genauen Erkennen einer Anordnung von numerischen Zeichen aus einem Originalbild, in 1A gezeigt, erklärt, das durch Verwendung einer Bildaufnahmeeinheit, beispielsweise durch eine Fernsehkamera oder eine Digitalkamera, erhalten wird.
  • In dem Originalbild von 1A setzt sich zum Beispiel das numerische Zeichen „1" aus einem oberen und einem unteren Element (11, 12) zusammen, da ein Mittelabschnitt des numerischen Zeichens „1" verloren gegangen ist. In ähnlicher Weise ist das numerische Zeichen „2" aus vier Elementen (21, 22, 23, 24) zusammengesetzt, und es gibt unerwünschte Punkte (25, 26) als Störungen an oberen und unteren Seiten des numerischen Zeichens „2".
  • Bei dem Verfahren zur Zeichentrennung dieser Ausführungsform wird jedes der Elemente, die in dem Originalbild enthalten sind, das heißt jedes der Elemente (11, 12, 21, 22, ...), aus denen sich die jeweiligen numerischen Zeichen („1", „2", ...) und die unerwünschten Punkte (25, 26, ...) zusammensetzen, die als Störungen in dem Originalbild enthalten sind, herausgelöst und dann von einem rechteckigen Innenrahmen 30 umschlossen, um ein zweites Bild zu erhalten, das in 1B und 2 gezeigt wird. Das heißt, in dem zweiten Bild ist jeder der rechteckigen Rahmen 30 so angeordnet, daß er das jeweilige Element oder den jeweiligen Punkt umschreibt. Das zweite Bild kann durch eine Rahmenverteilungseinheit für das Herauslösen der mehreren Elemente erhalten werden, aus denen sich das Zeichen in dem Originalbild zusammensetzt, und durch Anordnen der rechteckigen Innenrahmen 30, so daß jeder der rechteckigen Innenrahmen das jeweilige Element umschreibt.
  • Als nächstes wird eine Kombination aus den rechteckigen Innenrahmen 30 in dem zweiten Bild freiwillig ausgewählt und ein erstes zusammengesetztes Bild 100 durch einen Rahmensynthesizer gemäß dieser Kombination aufbereitet. Zum Beispiel kann das erste zusammengesetzte Bild 100 in bezug auf zwei rechteckige Rahmen 30 aufbereitet werden, welche die Elemente 11, 12 des darin enthaltenen numerischen Zeichens „1" umschließen, wie in 3A gezeigt, und ein weiteres erstes zusammengesetztes Bild 100 kann in bezug auf fünf rechteckige Rahmen 30 aufbereitet werden, welche die Elemente 21 bis 24 des numerischen Zeichens „2" und den unerwünschten Punkt 24 darin umschließen, wie in 3B gezeigt. Somit wird das erste zusammengesetzte Bild 100 durch einen rechteckigen Außenrahmen 40 definiert, der mehrere der rechteckigen Innenrahmen 30 umschreibt. In dem zweiten Bild wird die X-Achse in einer Ausrichtungsrichtung der numerischen Zeichen und die Y-Achse in einer Höhenrichtung der numerischen Zeichen definiert.
  • Als nächstes wird ein Bereich des rechteckigen Außenrahmens 40 dieses ersten zusammengesetzten Bildes 100 berechnet. Zum Beispiel kann – wie in 3A gezeigt – der Bereich des rechteckigen Außenrahmens 40 einfach gemäß den Koordinaten der oberen linken Ecke (x1, y1) und der unteren rechten Ecke (x2, y2) des rechteckigen Außenrahmens berechnet werden. Danach wird der berechnete Bereich des rechteckigen Außenrahmens 40 mit einem erforderlichen Wert, der zuvor in einem Back-Propagation-Netzwerk gespeichert wurde, verglichen, zum Beispiel zwei Mal ein Durchschnitt von Breiten von numerischen Zeichen, die in dem Back-Propagation-Netzwerk gespeichert sind. Wenn der Bereich gleich oder kleiner als der erforderliche Wert ist, fährt das Verfahren zur Zeichentrennung zum nächsten Schritt fort. Auf der anderen Seite wird, wenn der Bereich größer als der erforderliche Wert ist, das erste zusammengesetzte Bild gelöscht und eine andere Kombination der rechteckigen Innenrahmen 30 in dem zweiten Bild ausgewählt, um ein anderes erstes zusammengesetztes Bild 100 zu erzeugen. Der Bereich des rechteckigen Außenrahmens eines anderen ersten zusammengesetzten Bildes wird gemäß der oben beschriebenen Weise geprüft. In dieser Ausführungsform wird dieser Schritt als Bereichsprüfschritt (I) bezeichnet.
  • Nach dem Bereichsprüfschritt (I) wird ein Abstand zwischen den rechteckigen Innenrahmen in dem ersten zusammengesetzten Bild berechnet. Zum Beispiel kann, wie in 3 gezeigt, dieser Abstand d leicht gemäß Koordinaten der oberen linken Ecken (x1, y1), (x3, y3) der zwei rechteckigen Innenrahmen 30 bestimmt werden. Danach wird der berechnete Abstand mit einem erforderlichen Wert, der zuvor im Back-Propagation-Netzwerk gespeichert wurde, verglichen, zum Beispiel 40% eines Durchschnitts von Spaltbreiten der numerischen Zeichen, die in dem Back-Propagation-Netzwerk gespeichert sind. Wenn der Abstand gleich oder kleiner als der erforderliche Wert ist, fährt das Verfahren zur Zeichentrennung zum nächsten Schritt fort. Wenn der Abstand jedoch größer als der erforderliche Wert ist, wird das erste zusammengesetzte Bild 100 gelöscht und eine andere Kombination der rechteckigen Innenrahmen in dem zweiten Bild ausgewählt, um ein anderes erstes zusammengesetztes Bild zu erzeugen. Der Abstand zwischen den rechteckigen Innenrahmen in einem anderen ersten zusammengesetzten Bild wird gemäß der oben beschriebenen Weise geprüft. In dieser Ausführungsform wird dieser Schritt als Abstandsprüfschritt (I) bezeichnet.
  • Nach dem Abstandsprüfschritt (I) wird der Bereich des rechteckigen Außenrahmens 40 des ersten zusammengesetzten Bildes 100 mit einem erforderlichen Wert verglichen, der zuvor in dem Back-Propagation-Netzwerk gespeichert wurde, zum Beispiel einer Hälfte eines Durchschnitts von Breiten von numerischen Zeichen, die in dem Back-Propagation-Netzwerk gespeichert wurden. Wenn der Bereich gleich oder größer als der erforderliche Wert ist, fährt das Verfahren zur Zeichentrennung zum nächsten Schritt fort. Wem der Bereich hingegen größer als der erforderliche Wert ist, wird ein anderer rechteckiger Innenrahmen in dem zweiten Bild ausgewählt und zum ersten zusammengesetzten Bild hinzugefügt, so daß ein anderes erstes zusammengesetztes Bild, das einen vergrößerten Bereich aufweist, erzeugt wird. Ein Bereich des rechteckigen Außenrahmens 100 eines anderen ersten zusammengesetzten Bildes wird gemäß der oben beschriebenen Weise geprüft. Somit können durch Wiederholen dieses Verfahrens bis zur Erfüllung der oben genannten Bedingung mehrere rechteckige Innenrahmen in einem einzelnen rechteckigen Außenrahmen umschlossen werden, wie in 3B gezeigt. In dieser Ausführungsform wird dieser Schritt als Bereichsprüfschritt (II) bezeichnet.
  • Wie in 1C gezeigt, wird das über den Bereichsprüfschritt (II) gelieferte erste zusmmengesetzte Bild 100 als ein verlässliches Kandidatenbild in einem Speicher gespeichert. Ein Beispiel des ersten zusammengesetzten Bildes 100, das über den Bereichsprüfschritt (II) geliefert wird, ist in 4 zu sehen. In dieser Figur sollte – obwohl mehrere der Elemente und der Punkte in dem ersten zusammengesetzten Bild 100 enthalten sind – festgehalten werden, daß alle Elemente, aus denen sich das numerische Zeichen „3" zusammensetzt, in dem ersten zusammengesetzten Bild 100 enthalten sind. Es gibt jedoch einen Fall, bei dem nicht alle Elemente, aus denen sich das numerische Zeichen zusammensetzt, in dem ersten zusammengesetzten Bild enthalten sind. Daher ist es – wenn ein solches nutzloses erstes zusammengesetztes Bild gefunden und vor den nachfolgenden wichtigen Schritten des Verfahrens zur Zeichentrennung der vorliegenden Erfindung gelöscht werden kann – möglich, eine Gesamtanzahl der ersten zusammengesetzten Bilder zu verringern, um die Bilderkennung wirksamer durchzuführen. Daher ist eine zweite Phase des Verfahrens zur Zeichentrennung dieser Ausführungsform eine optionale Phase für das Erreichen dieses Zwecks, d. h. „Datenreduktion". Daher kann die zweite Phase erforderlichenfalls ausgelassen werden.
  • Vor der Erklärung der zweiten Phase wird die oben erklärte erste Phase des Verfahrens zur Zeichentrennung dieser Ausführungsform gemäß des in 5 gezeigten Flussdiagramms zusammengefaßt. Das heißt, jeder der rechteckigen Innenrahmen 30, der das jeweilige Element oder den jeweiligen Punkt in dem zweiten Punkt umschreibt, wird als ein Kombinationsbasiselement in Reihenfolge (Schritt 50) ausgewählt. Zudem wird ein weiterer rechteckiger Innenrahmen 30, der mit dem Kombinationsbasiselement zu kombinieren ist, ausgewählt (Schritt 51), um dadurch das erste zusammengesetzte Bild 100 aufzubereiten, das den rechteckigen Außenrahmen 40 aufweist, der die ausgewählten rechteckigen Innenrahmen 30 (Schritt 52) umschreibt.
  • Danach wird der Bereich des rechteckigen Außenrahmens 40 des ersten zusammengesetzten Bildes 100 berechnet (Schritt 53), und es werden der Bereichsprüfschritt (I), der Abstandsprüfschritt (I) und der Bereichsprüfschritt (II) in Reihenfolge ausgeführt (Schritte 5456). Wenn das erste zusammengesetzte Bild 100 als „Nicht gut (NG)" in entweder dem Bereichprüfschritt (I) oder dem Abstandprüfschritt (I) befunden wird, wird es gelöscht, und ein neuer rechteckiger Innenrahmen, der mit dem rechteckigen Innenrahmen des Kombinationsbasiselementes zu kombinieren ist, wird ausgewählt (Schritt 51), um dadurch ein anderes erstes zusammengesetztes Bild zu erzeugen.
  • Wem hingegen das erste zusammengesetzte Bild 100 als „Nicht gut (NG)" in dem Bereichsprüfschritt (II) befunden wird, wird ein zusätzlicher rechteckiger Innenrahmen 30 ausgewählt und zu dem ersten zusammengesetzten Bild 30 hinzugefügt, um den Gesamtbereich davon zu vergrößern. Daher wird das erste zusammengesetzte Bild 100, selbst wenn es als „NG" in dem Bereichsprüfschritt (II) befunden wird, nicht gelöscht.
  • Wie oben beschrieben, wird das erste zusammengesetzte Bild 100 (z. B. 4), das über den Bereichsprüfschritt (I), den Abstandsprüfschritt (I) und den Bereichsprüfschritt (II) geliefert wird, als das verlässliche Kandidatenbild in dem Speicher (Schritt 57) gespeichert. Nebenbei sei bemerkt, daß – wem das erste zusammengesetzte Bild 100 als das verlässliche Zeichen zur Erkennung in dem Speicher gespeichert wird – ein nächstes erstes zusammengesetztes Bild aufbereitet wird, indem ein anderer rechteckiger Innenrahmen als ein neues Kombinationsbasiselement ausgewählt wird, mit wenigstens einem der restlichen rechteckigen Innenrahmen, abgesehen von dem/den rechteckigen Innenrahmen, der oder die bereits als das Kombinationsbasiselement verwendet wurde/n. Auf diese Weise fährt – wenn alle rechteckigen Innenrahmen in dem zweiten Bild als das Kombinationsbasiselement (Schritt 58) verwendet werden – das Verfahren zur Zeichentrennung der vorliegenden Erfindung zur zweiten Phase fort, das ist die Datenreduktionsbehandlung, wie in einem Flussdiagramm von 6 gezeigt.
  • Die zweite Phase des Verfahrens zur Zeichentrennung dieser Ausführungsform ist eine Datenreduktionsbehandlung, bei der überlappende erste zusammengesetzte Bilder gelöscht werden, um eine Verbesserung bei der Erkennungsgeschwindigkeit zu erhalten. Das heißt, daß – wie in dem Flussdiagramm von 7 gezeigt – eines der ersten zusammengesetzten in dem Speicher gespeicherten Bilder und ein anderes erstes zusammengesetztes Bild, das mit dem ausgewählten ersten zusammengesetzten Bild zu vergleichen ist, ausgewählt werden, so daß ein Vergleich zwischen den beiden durchgeführt wird. Zum Beispiel wird – wie in 6A gezeigt – wenn das erste zusammengesetzte Bild 100' vollständig in dem anderen ersten zusammengesetzten Bild 100 (Schritt 60) umschlossen ist, das erste zusammengesetzte Bild 100' gelöscht (Schritt 62).
  • Wenn hingegen – wie in 6B gezeigt – das erste zusammengesetzte Bild 100 teilweise mit dem anderen ersten zusammengesetzten Bild 100' überlappt ist, wird ein Überlappungsbereich zwischen diesen ersten zusammengesetzten Bildern (100, 100') berechnet. Wenn der Überlappungsbereich 80% oder mehr von einem der ersten zusammengesetzten Bilder (Schritt 63) ausmacht, werden die ersten zusammengesetzten Bilder (100, 100') aneinander gekoppelt, um ein neues erstes zusammengesetztes Bild 100'' (Schritt 64) zu erhalten. Wenn der Überlappungsbereich weniger als 80% ausmacht, wird jedes der ersten zusammengesetzten Bilder für sich alleine beibehalten, ohne an das andere erste zusammengesetzte Bild gekoppelt zu werden. Wenn alle ersten zusammengesetzten Bilder in dem Speicher in der zweiten Phase (Schritt 65) überprüft wurden, geht das Verfahren zur Zeichentrennung dieser Ausführungsform zu der dritten Phase über.
  • In der dritten Phase des Verfahrens zur Zeichentrennung werden – wie in einem Flussdiagramm von 8 gezeigt – Schritte, die dem Bereichsprüfschritt (I), dem Abstandsprüfschritt (I) und dem Bereichsprüfschritt (II) der ersten Phase ähnlich sind, im wesentlichen in bezug auf mehrere der rechteckigen Innenrahmen 30 wiederholt, die in dem rechteckigen Außenrahmen 40 des ersten zusammengesetzten Bilds 100 enthalten sind, das aus der zweiten Phase geliefert wird. Mit anderen Worten, die erste Phase dient dazu, eine grobe (breite) Region (= erstes zusammengesetztes Bild) zu bestimmen, einschließlich der Elemente des numerischen Zeichens, das zu erkennen ist, während die dritte Phase dazu dient, eine feine (schmale) Region (= zweites zusammengesetztes Bild, das später beschrieben wird) zu bestimmen, das im wesentlichen nur die Elemente des zu erkennenden numerischen Zeichens enthält, und die Bilderkennung gemäß des zweiten zusammengesetzten Bildes zu erreichen.
  • In der dritten Phase wird – wie in 9 und 10A gezeigt – eine Kombination der rechteckigen Innenrahmen 30 in dem ersten zusammengesetzten Bild 100 freiwillig ausgewählt und ein zweites zusammengesetztes Bild 200 gemäß dieser Kombination durch die im wesentlichen selbe Weise wie in der ersten Phase aufbereitet. Dieses zweite zusammengesetzte Bild 200 wird durch einen rechteckigen Außenrahmen 70 definiert, der die ausgewählten rechteckigen Innenrahmen 30 umschreibt.
  • Als nächstes wird in bezug auf das zweite zusammengesetzte Bild 200 ein Bereich des rechteckigen Außenrahmens 70 berechnet, zum Beispiel auf die im wesentlichen selbe Weise wie in der ersten Phase. Der berechnete Bereich des rechteckigen Außenrahmens 70 wird mit einem erforderlichen Wert verglichen, der zuvor in dem Back-Propagation-Netzwerk gespeichert worden war, zum Beispiel 1,2 Mal ein Durchschnitt von Breiten der numerischen Zeichen, die in dem Back-Propagation-Netzwerk gespeichert sind. In der dritten Phase wird dieser Vergleich unter einer strengeren Bedingung als in der ersten Phase durchgeführt (z. B. zwei Mal der Durchschnitt von Breiten der numerischen Zeichen, die in dem Back-Propagation-Netzwerk gespeichert sind). Wenn der Bereich gleich oder kleiner als der erforderliche Wert ist, geht das Verfahren zur Zeichentrennung auf den nächsten Schritt der dritten Phase über. Wenn der Bereich hingegen größer als der erforderliche Wert ist, wird das zweite zusammengesetzte Bild gelöscht und eine andere Kombination der rechteckigen Innenrahmen 30 in dem ersten zusammengesetzten Bild 100 ausgewählt, um ein anderes zweites zusammengesetztes Bild 200 zu erzeugen. Der Bereich des rechteckigen Außenrahmens 70 eines anderen zweiten zusammengesetzten Bilds wird gemäß der oben beschriebenen Weise geprüft. In dieser Ausführungsform wird dieser Schritt als ein Bereichsprüfschritt (III) bezeichnet.
  • Nach dem Bereichsprüfschritt (III) wird ein Abstand zwischen den rechteckigen Innenrahmen 30 in dem zweiten zusammengesetzten Bild 200 berechnet, zum Beispiel auf die im wesentlichen selbe Weise wie in der ersten Phase. Danach wird der berechnete Abschnitt mit einem erforderlichen Wert verglichen, der zuvor in dem Back-Propagation-Netzwerk gespeichert wurde, zum Beispiel 40% eines Durchschnitts von Spaltbreiten der numerischen Zeichen, die in dem Back-Propagation-Netzwerk gespeichert sind. Wenn der Abstand gleich oder kleiner als der erforderliche Wert ist, geht das Verfahren zur Zeichentrennung auf den nächsten Schritt des dritten Bildes über. Wenn hingegen der Abstand größer als der erforderliche Wert ist, wird das zweite zusammengesetzte Bild 200 gelöscht und eine andere Kombination der rechteckigen Innenrahmen 30 in dem ersten zusammengesetzten Bild 100 ausgewählt, um ein anderes zweites zusammengesetztes Bild 200 zu erzeugen. Der Abstand zwischen den rechteckigen Innenrahmen 30 in einem anderen zweiten zusammengesetzten Bild 200 wird gemäß der oben beschriebenen Weise geprüft. In dieser Ausführungsform wird der Schritt als Abstandsprüfschritt (II) bezeichnet.
  • Nach dem Abstandsprüfschritt (II) wird der Bereich des rechteckigen Außenrahmens 70 dieses zweiten zusammengesetzten Bildes 200 mit einem erforderlichen Wert verglichen, der zuvor in dem Back-Propagation-Netzwerk gespeichert wurde, zum Beispiel 0,8 Mal ein Durchschnitt von Breiten der numerischen Zeichen, die in dem Back-Propagation-Netzwerk gespeichert sind. In der dritten Phase wird der Vergleich unter einer strengeren Bedingung durchgeführt als in der ersten Phase (z. B. eine Hälfte eines Durchschnitts von Breiten der numerischen Zeichen, die in dem Back-Propagation-Netzwerk gespeichert sind). Wenn der Bereich gleich oder größer als der erforderliche Wert ist, geht das Verfahren zur Zeichentrennung der vorliegenden Erfindung auf den nächsten Schritt der dritten Phase über. Wenn der Bereich hingegen größer als der erforderliche Wert ist, wird ein anderer rechteckiger Innenrahmen 30 in dem ersten zusammengesetzten Bild 100 ausgewählt und zu dem zweiten zusammengesetzten Bild hinzugefügt, so daß ein neues zweites zusammengesetztes Bild erzeugt wird, das einen vergrößerten Bereich aufweist. Ein Bereich des rechteckigen Außenrahmens 70 des neuen zweiten zusammengesetzten Bildes 200 wird gemäß der oben beschriebenen Weise geprüft. Somit können durch Wiederholen dieses Verfahrens bis zur Erfüllung der oben genannten Bedingung mehrere rechteckige Innenrahmen 30 in dem ersten zusammengesetzten Bild 100 in einem einzelnen rechteckigen Außenrahmen 70 des zweiten zusammengesetzten Bildes 200 umschlossen werden, wie in 10B gezeigt. In dieser Ausführungsform wird dieser Schritt als Bereichsprüfschritt (IV) bezeichnet.
  • Das Flussdiagramm, das in 8 gezeigt wird, faßt die dritte Phase des Verfahrens zur Zeichentrennung dieser Ausführungsform bis hierher zusammen. Das heißt, jeder der rechteckigen Innenrahmen 30, welche die Elemente oder Punkte in dem ersten zusammengesetzten Bild 100 umschließen, wird als ein Kombinationsbasiselement in Reihenfolge (Schritt 80) ausgewählt. Zudem wird ein anderer rechteckiger Innenrahmen 30, der mit dem rechteckigen Innenrahmen des Kombinationsbasiselements zu kombinieren ist, ausgewählt (Schritt 81), um dadurch das zweite zusammengesetzte Bild 200 zu erhalten, das den rechteckigen Außenrahmen 70 aufweist, der diese ausgewählten rechteckigen Innenrahmen 30 (Schritt 82) umschreibt, wie in 10A gezeigt.
  • Danach wird der Bereich des rechteckigen Außenrahmens 70 des zweiten zusammengesetzten Bildes 200 berechnet (Schritt 83), und der Bereichsprüfschritt (III), der Abstandsprüfschritt (II) und der Bereichsprüfschritt (IV) werden in Reihenfolge ausgeführt (Schritt 8587).
  • Wenn das zweite zusammengesetzte Bild 200 entweder in dem Bereichsprüfschritt (III) oder dem Abstandsprüfschritt (II) für „Nicht gut (NG)" befunden wird, wird es gelöscht und ein anderer rechteckiger Innenrahmen 30, der mit dem rechteckigen Innenrahmen des Kombinationsbasiselements zu kombinieren ist, wird ausgewählt (Schritt 81), um dadurch ein anderes zweites zusammengesetztes Bild 200 (Schritt 82) zu erzeugen. Wenn hingegen das zweite zusammengesetzte Bild 200 in dem Bereichsprüfschritt (IV) als „Nicht gut (NG)" befunden wird, wird ein zusätzlicher rechteckiger Innenrahmen 30 ausgewählt und zu dem zweiten zusammengesetzten Bild, das als „NG" befunden wird, hinzugefügt, so daß ein neues zweites zusammengesetztes Bild 200 mit einem vergrößerten Bereich erzeugt wird. Daher wird das zweite zusammengesetzte Bild, das in dem Bereichsprüfschritt (II) für „NG" befunden wird, nicht gelöscht. Nebenbei sei bemerkt, daß die dritte Phase einen Schritt 84 umfaßt, bei dem geprüft wird, ob die nachfolgende(n) Behandlung(en), z. B. der Bereichsprüfschritt (III), bei dem zweiten zusammengesetzten Bild 200 bereits durchgeführt wurde. Falls ja, wird das zweite zusammengesetzte Bild gelöscht, um eine unnötige Wiederholung derselben Behandlung zu vermeiden.
  • Als nächstes wird ein Längenverhältnis, d. h. vertikale Breite/horizontale Breite, des rechteckigen Außenrahmens 70 des zweiten zusammengesetzten Bildes 200, das über den Bereichsprüfschritt (IV) geliefert wird, berechnet und mit einem vorbestimmten Wert verglichen, der in dem Back-Propagation-Netzwerk (Schritt 88) gespeichert ist. In dieser Ausführungsform wird dieser Schritt, der als ein Längenverhältnisprüfschritt (I) bezeichnet wird, ausgeführt, um festzustellen, ob das Längenverhältnis innerhalb eines Bereichs von 0,5 Mal bis 1,5 Mal eines Mindestwertes der Längenverhältnisse der numerischen Zeichen ist, die in dem Back-Propagation-Netzwerk gespeichert sind. Wenn sich das Längenverhältnis innerhalb dieses Bereichs befindet, geht das Verfahren zur Zeichentrennung auf den nächsten Schritt der dritten Phase über. Wenn das Längenverhältnis außerhalb dieses Bereichs liegt, wird das zweite zusammengesetzte Bild gelöscht und ein anderer rechteckiger Innenrahmen 30 in dem ersten zusammengesetzten Bild 100 ausgewählt, um ein neues zweites zusammengesetztes Bild 200 zu erzeugen.
  • Als nächstes werden Daten, die in das neurale Netzwerk einzugeben sind, aus dem zweiten zusammengesetzten Bild 200, das in dem Längenverhältnis-Prüfschritt (I) für „OK" befunden wird, aufbereitet. Zuerst werden die Elemente, die in dem zweiten zusammnengesetzten Bild 200 enthalten sind, herausgelöst. In dieser Ausführungsform werden zum Beispiel – wie in 11A gezeigt – die zwei Elemente, aus denen sich das numerische Zeichen „4" zusammensetzt – aus dem zweiten zusammengesetzten Bild 200 herausgelöst. Als nächstes wird eine Bildgröße des herausgelösten Bildes normalisiert. Zum Beispiel wird die Normalisierung so durchgeführt, daß eine längere („Ly" in 11A) der X-Achsen- und Y-Achsen-Längen (Lx, Ly) des herausgelösten Bildes 40 Pixel beträgt.
  • Als nächstes wird in bezug auf jedes der Pixel auf Randlinien der Elemente des normalisierten Bildes eine Außenlinienrichtung berechnet. In dieser Ausführungsform werden – wie in 11B gezeigt – vier Außenlinienrichtungen (D1 bis D4) gesetzt. Zum Beispiel wird in der Region, die in 11B durch einen Kreis angezeigt wird, in dem Fall, in dem die Außenlinienrichtung eines Zielpixels Pt als eine Richtung einer geraden Linie definiert wird, die sich zwischen dem Zielpixel Pt und einem Bezugspixel Ps erstreckt, das nur 1 Pixel hinter dem Zielpixel Pt angeordnet ist, angenommen, daß das Zielpixel Pt eine Außenlinienrichtung D2 aufweist, die eine schräge Richtung ist. Dieses Ergebnis stimmt jedoch nicht mit dem Umstand überein, daß eine korrekte Außenlinienrichtung des Zielpixels Pt als D3 betrachtet werden sollte. In dieser Ausführungsform wird angenommen, da die Außenlinienrichtung des Zielpixels Pt als eine Richtung einer geraden Linie definiert wird, die sich zwischen dem Zielpixel Pt und einem Bezugspixel Ps' erstreckt, das 6 Pixel hinter dem Zielpixel angeordnet ist, daß das Zielpixel Pt die Außenlinienrichtung D3 aufweist, die eine vertikale Richtung ist. Dieses Ergebnis stimmt mit dem Umstand überein, daß die korrekte Außenlinienrichtung D3 ist, wie oben beschrieben.
  • Als nächstes, wie in 11E gezeigt, wird ein Gittermuster 45 so angeordnet, daß die Elemente des normalisierten Bildes darin enthalten sind. In dieser Ausführungsform ist das Gittermuster 45 in einer quadratischen Form von 40 × 40 Pixel konfiguriert. Die Anzahl von Gittern des Gittermusters 45 beträgt 36. In bezug auf die Pixel auf der Randlinie, die in jedem der Gitter enthalten ist, wird ein Histogramm der Außenlinienrichtungen aufbereitet, wie in 11F gezeigt. Nachdem eine Behandlung zum Teilen einer Höhe von jeder der Außenlinienrichtungen durch die maximale Höhe der Außenlinienrichtung in bezug auf jedes der Histogramme durchgeführt wurde, werden die resultierenden Daten in das neurale Netzwerk eingegeben (Schritt 91). In dieser Ausführungsform sind die Eingabeabmessungen des neuralen Netzwerkes 144, wobei dies dadurch erhalten wird, daß die Anzahl von Außenlinienrichtungen (= 4 Abmessungen) mit der Anzahl von Gittern (= 36 Abmessungen) multipliziert wird. Die Berechnung des neuralen Netzwerkes weist ein Erkennungsergebnis auf, bei dem das numerische Zeichen, das in dem zusammengesetzten Bild 200 enthalten ist, „4" ist (Schritt 92).
  • Um das Erkennungsergebnis mit der größten Genauigkeit zu erhalten, wird das Längenverhältnis des erkannten numerischen Zeichens (zum Beispiel „4") berechnet und mit einem Bezugslängenverhältnis (zum Beispiel dem Bezugslängenverhältnis von „4"), das in dem Back-Propagation-Netzwerk gespeichert ist, verglichen, um einen Übereinstimmungsgrad zwischen den beiden zu prüfen (Schritt 93). In dieser Ausführungsform wird dies als Längenverhältnis-Prüfschritt (II) bezeichnet. Wenn ein Erkennungsergebnis mit einem Übereinstimmungsgrad zwischen den beiden erhalten wird, wird es vorübergehend in dem Speicher gespeichert. Danach werden die Daten, falls ein neues Erkennungsergebnis mit einem höheren Übereinstimmungsgrad zwischen den beiden erzielt wird, erneuert (Schritt 94 und 95). Durch das Wiederholen dieses Vorgangs kann das Erkennungsergebnis mit dem höchsten Übereinstimmungsgrad zwischen den beiden erhalten werden. In dieser Ausführungsform hat zum Beispiel – wie in 12 gezeigt – die Kombination aus den zwei Elementen, die durch das Bezugszeichen 4 gekennzeichnet sind – einen höheren Übereinstimmungsgrad des Längenverhältnisses als jede Kombination, welche den Punkt/die Punkte aufweist, der bzw. die mit „X" gekennzeichnet sind. Daher wird die Kombination der rechteckigen Innenrahmen 30 mit dem höchsten Übereinstimmungsgrad als eine korrekte Kombination der Elemente ausgegeben, aus denen sich das numerische Zeichen „4" zusammensetzt.
  • Der Schritt 96 der dritten Phase besteht darin, zu prüfen, ob alle rechteckigen Innenrahmen 30 in dem ersten zusammengesetzten Bild 100, das aus der zweiten Phase geliefert wurde, als das Kombinationsbasiselement in der dritten Phase verwendet wurden. Falls ja, geht das Verfahren zur Zeichentrennung dieser Ausführungsform auf den nächsten Schritt 97 über, der darin besteht, zu prüfen, ob die Erkennung aller numerischen Zeichen in dem Originalbild von 1A abgeschlossen worden ist. Als Ergebnis kann – wie in 1D gezeigt – das Verfahren zur Zeichentrennung der vorliegenden Erfindung ein Bild liefern, welches die rechteckigen Außenrahmen 70 der zweiten zusammengesetzten Bilder 200 enthält, in denen jeweils nur die Elemente, aus denen sich das numerische Zeichen zusammensetzt, umschlossen sind.
  • Nebenbei sei bemerkt, daß in dieser Ausführungsform die charakteristischen Beträge wie Bereich, Abstand und Längenverhältnis durch Einheiten zur Berechnung des charakteristischen Betrags bestimmt werden können. Außerdem kann der Übereinstimmungsrad des charakteristischen Betrags durch einen Bildanalysator bestimmt werden. Daher stellt die vorliegende Ausführungsform auch eine Vorrichtung oder ein System zur Zeichentrennung zum Einsatz in der Erkennung bereit, um das oben beschriebene Verfahren zur Zeichentrennung auszuführen.
  • Zweite Ausführungsform
  • Diese Ausführungsform stellt eine Vorbehandlung bereit, die vorzugsweise vor dem Verfahren zur Zeichentrennung der ersten Ausführungsform durchgeführt wird, zum Beispiel wenn ein zu erkennendes Originalbild eine Anordnung von numerischen Zeichen enthält, in der naheliegende numerische Zeichen teilweise aneinander gekoppelt sind, wie in 13A gezeigt, weil das Originalbild unter einer schlechten Bedingung aufbereitet wird. Daher wird auf eine nochmalige Erklärung des Verfahrens zur Zeichentrennung der ersten Ausführungsform, das nach der Vorbehandlung durchgeführt wird, verzichtet.
  • Zuerst wird, wie in 13B gezeigt, ein binäres Bild des Originalbilds von 13A aufbereitet. Danach wird ein Profil, das die Verteilungsstärke in einer Ausrichtungsrichtung (X-Achsen-Richtung) der numerischen Zeichen aus dem binären Bild anzeigt, bestimmt, wie in 13C gezeigt. 13D ist eine Draufsicht des Profils von 13C, wobei jede der hellen Regionen eine hohe Verteilungsstärke des numerischen Zeichens anzeigt. Wenn die Region dunkel wird, bedeutet dies, daß die Verteilungsstärke des numerischen Zeichens kleiner oder Null ist (= die Region zwischen naheliegenden numerischen Zeichen).
  • Als Beispiel wird ein Verfahren zum Bestimmen des Profils besprochen. Zuerst werden die Regionen des numerischen Zeichens in dem binären Bild (13B) auf einer Achse projiziert, die als Projektionsachse (= x-Achse) bezeichnet wird und sich parallel zu der Ausrichtungsrichtung der numerischen Zeichen erstreckt. In dieser Projektionsbehandlung wird ein Abtastvorgang in einer Richtung (Y-Achse) durchgeführt, die zu der Projektionsachse senkrecht verläuft, um die Anzahl an Pixeln auf der Abtastlinie zu zählen. Zum Beispiel wird, wie in 13B gezeigt, wenn die Pixel von weißen Regionen, welche die numerischen Zeichen anzeigen, einen Konzentrationswert „1" liefern und die Pixel von schwarzen Regionen, welche den Hintergrund anzeigen, einen Konzentrationswert „0" zeigen, die Anzahl an Pixeln, welche den Konzentrationswert „1" aufweisen, gezählt. Dadurch, daß die Anzahl an Pixeln mit dem Konzentrationswert „1" auf der Abtastlinie, die sich von jedem Punkt der Projektionsachse erstreckt, als ein Projektionswert festgelegt wird, kann das Profil der Verteilungsstärke erhalten werden, wie in 13C gezeigt.
  • Nebenbei sei bemerkt, daß es – wenn naheliegende numerische Zeichen (z. B. „9" und „0") aneinander durch einen relativ großen Bereich gekoppelt sind, wie in 13B gezeigt – erforderlich ist, die weiße Region der Kopplungsregion von den weißen Regionen zu unterscheiden, aus denen sich das numerische Zeichen zusammensetzt. In diesem Verfahren ist es durch Multiplexing des Projektionswertes mit der Anzahl an Inselregionen auf der Abtastlinie, in denen jeweils die Pixel, welche den Konzentrationswert „1" aufweisen, nacheinander angeordnet sind, möglich, die Pixel mit dem Konzentrationswert „1" des numerischen Zeichens von den Pixeln mit dem Konzentrationswert „1" der Kopplungsregion zu unterscheiden. Zum Beispiel ist in 13B die Anzahl von Pixeln „1" auf der Abtastlinie Ls1, die an der Kopplungsregion vorbeiführt, ungefähr gleich der Anzahl von Pixeln „1" auf der Abtastlinie Ls2, welche am numerischen Zeichen „0" vorbeiführt. Durch die oben beschriebene Multiplexing-Behandlung wird die Verteilungsstärke an der Abtastlinie Ls1 jedoch geringer als die Verteilungsstärke an der Abtastlinie Ls2, wie durch die quadratischen Regionen „Q1", „Q2" in 13C gezeigt.
  • Als nächstes wird – wie in 13C gezeigt – eine Schwellenlinie L mit einer vorbestimmten Verteilungsstärke in dem Profil gesetzt. Zum Beispiel wird in dem Fall, in dem eine untere Region S2 des Profils, wo die Verteilungsstärke geringer als die Schwellenlinie L ist, zwischen einem Paar von oberen Regionen (S1L, S1R) des Profils angeordnet wird, wo die Verteilungsstärke größer als die Schwellenlinie L ist, die untere Region S2 in die zwei Bereiche (S2L, S2R) an einer Position „Pm" geteilt, welche eine Mindestverteilungsstärke des Profils innerhalb der unteren Region aufweist. 13E ist eine Unteransicht des Profils von 13C, in der jede der weißen Linien, die sich in der Y-Achsen-Richtung erstrecken, die Position „Pm" der Mindestverteilungsstärke in der jeweiligen unteren Region S2 des Profils bezeichnet.
  • Wie in 14A und 14B gezeigt, werden diese Bereiche (S2L, S2R) aus dem Profil entfernt und danach jeweils zu den naheliegenden oberen Regionen (S1L, S1R) hinzugefügt, so daß die obere Region S1L' von der naheliegenden oberen Region S1R' getrennt wird. Somit wird ein kompensiertes Bild erhalten, in dem die naheliegenden numerischen Zeichen des Originalbilds voneinander getrennt werden. Durch Ausführen des Verfahrens zur Zeichentrennung der ersten Ausführungsform bei diesem kompensierten Bild können die rechteckigen Innenrahmen so angeordnet werden, daß jeder der rechteckigen Rahmen in sich ein einzelnes numerisches Zeichen umschließt. Daher ist es möglich, das Auftreten eines Nachteils zu vermeiden, der darin besteht, daß die naheliegenden numerischen Zeichen, die aneinander gekoppelt sind, in einem einzelnen rechteckigen Rahmen umschlossen sind, was zu einer Verringerung der Erkennungsgenauigkeit führen könnte.
  • Die Schwellenlinie L kann wie folgt bestimmt werden. Eine obere Region des Profils wird zuerst in dem Fall herausgelöst, in dem die Schwellenlinie auf eine Position „0" gesetzt wird. Danach wird ein Längenverhältnis dieser oberen Region mit einem vorbestimmten Wert verglichen, zum Beispiel einem durchschnittlichen Längenverhältnis der numerischen Zeichen, die zuvor in dem Back-Propagation-Netzwerk gespeichert wurden. Wenn das Längenverhältnis der oberen Region größer als das durchschnittliche Längenverhältnis ist, wird die Schwellenlinie verwendet. Wenn diese Bedingung jedoch nicht erfüllt ist, werden die oben angeführten Vorgänge wiederholt, indem die Position der Schwellenlinie geändert wird, um die Schwellenlinie zu bestimmen, welche die oben genannte Bedingung erfüllt. Als Alternative kann eine durchschnittliche Breite in der horizontalen Richtung der Zeichen anstatt des durchschnittlichen Längenverhältnisses verwendet werden.
  • Somit ist es gemäß des Verfahrens zur Zeichentrennung der vorliegenden Erfindung mit der Vorbehandlung der zweiten Ausführungsform möglich, die Zeichen wie numerische Zeichen und Buchstaben genau und wirksam zu erkennen, selbst aus einem Originalbild mit schlechter Qualität, zum Beispiel wie in 15 gezeigt, in der einige der Zeichen in mehrere Elemente (z. B. „8" und „9") aufgeteilt werden, unerwünschte Punkte um die Zeichen herum angeordnet und einige der Zeichen aneinander gekoppelt (z. B. „S" und „H") sind.
  • Dritte Ausführungsform
  • Diese Ausführungsform stellt eine Vorbehandlung bereit, die vorzugsweise vor dem Verfahren zur Zeichentrennung durchgeführt wird, zum Beispiel wenn ein zu erkennendes Originalbild eine Anordnung von Zeichen enthält, wie numerische Zeichen und Buchstaben, von denen jedes aus mehreren Punkten zusammengesetzt ist, wie in 16A gezeigt. Daher wird auf eine nochmalige Erklärung des Verfahrens zur Zeichentrennung der ersten Ausführungsform, das nach der Vorbehandlung durchgeführt wird, verzichtet.
  • In dieser Vorbehandlung wird zuerst, wie in 16B gezeigt, ein binäres Bild des Originalbilds von 16A aufbereitet. Danach wird jeder der Punkte der Zeichen in zwei Richtungen ausgedehnt, d. h. in eine horizontale und eine vertikale Richtung des binären Bildes, um ein kompensiertes Bild zu erhalten, wie in 16C gezeigt, wobei jeder der ausgedehnten Punkte mit einem naheliegenden ausgedehnten Punkt verbunden wird. Diese Ausdehnungsbehandlung kann durchgeführt werden, indem Pixel mit dem Wert „0" um den jeweiligen Punkt herum durch die Pixel mit dem Wert „1" in der bezeichneten Richtung des binären Bildes ersetzt werden. In dem so erhaltenen kompensierten Bild setzt sich jedes der Zeichen aus einem einzelnen Element zusammen.
  • Wenn das Verfahren zur Zeichentrennung der vorliegenden Erfindung bei dem Originalbild von 16A ausgeführt wird, besteht die Befürchtung, daß die Zeit, die für die Bilderkennung erforderlich ist, zunimmt, weil der rechteckige Innenrahmen in bezug auf jeden der Punkte der Zeichen so angeordnet ist, daß die Gesamtzahl der rechteckigen Innenrahmen beträchtlich steigt. Außerdem kann dies zu einer Verschlechterung der Erkennungsgenauigkeit führen. Wenn jedoch das Verfahren zur Zeichentrennung der vorliegenden Erfindung bei dem kompensierten Bild von 16C durchgeführt wird, kann die Gesamtanzahl von rechteckigen Innenrahmen, die anzuordnen sind, beträchtlich reduziert werden, wie in 16D gezeigt. Daher ist es möglich, eine Verbesserung der Erkennungsgenauigkeit zu erreichen und die für die Bilderkennung erforderliche Zeit zu reduzieren. Nebenbei sei angemerkt, daß es einen Fall gibt, in dem naheliegende Zeichen in diesem kompensierten Bild aneinander gekoppelt sind. In einem solchen Fall kam die in der zweiten Ausführungsform erläuterte Vorbehandlung bei dem kompensierten Bild von 16C durchgeführt werden.
  • Vierte Ausführungsform
  • Diese Ausführungsform stellt eine Vorbehandlung bereit, die vorzugsweise vor dem Verfahren zur Zeichentrennung der ersten Ausführungsform durchgeführt wird, zum Beispiel wenn ein Kopplungsbereich zwischen naheliegenden Zeichen in einem Originalbild, wie in 17A gezeigt, viel größer ist als im Fall des Originalbildes von 13A, so daß es sein kann, daß keine ausreichende Erkennungsgenauigkeit durch die Vorbehandlung der zweiten Ausführungsform erreicht wird. Daher wird auf eine nochmalige Erklärung des Verfahrens zur Zeichentrennung der ersten Ausführungsform, das nach der Vorbehandlung durchgeführt wird, verzichtet.
  • In dieser Ausführungsform werden, wenn rechteckige Innenrahmen in einem in 17A gezeigten Originalbild angeordnet werden, zwei naheliegende Zeichen („2" und „3" in 17A), die aneinander gekoppelt sind, in einem einzelnen großen rechteckigen Innenrahmen umschlossen. Danach wird dieser große rechteckige Innenrahmen zwangsweise in mehrere Regionen aufgeteilt, von denen jede einen vorbestimmten Bereich aufweist, um ein kompensiertes Bild zu erhalten. Zum Beispiel wird der große rechteckige Innenrahmen in mehrere kleine rechteckige Innenrahmen aufgeteilt, so daß jeder der kleinen rechteckigen Innenrahmen eine Seite aufweist, die im wesentlichen gleich einer Hälfte der Mindestbreite in der horizontalen und der vertikalen Richtung der Zeichen ist, die zuvor in dem Back-Propagation-Netzwerk gespeichert wurden. In 17C wird der einzelne große rechteckige Innenrahmen in 16 (= 4 × 4) kleine rechteckige Innenrahmen aufgeteilt.
  • Durch das Ausführen des Verfahrens zur Zeichentrennung der ersten Ausführungsform bei dem erhaltenen kompensierten Bild ist es möglich, die Zeichen – wie numerische Zeichen und Buchstaben – genau und wirksam zu erkennen, wie in 17D gezeigt, und dies sogar bei einem Originalbild (z. B. 17A) mit schlechter Qualität, bei dem der Kopplungsbereich zwischen den naheliegenden Zeichen relativ groß ist. Nebenbei sei angemerkt, daß – wenn der Bereich des großen rechteckigen Innenrahmens kleiner als ein vorbestimmter Wert ist, zum Beispiel 1,2 Mal ein Durchschnittsbereich der Zeichen, die zuvor in dem Back-Propagation-Netzwerk gespeichert wurden – vorzugsweise das Verfahren zur Zeichentrennung der vorliegenden Erfindung ohne diese Vorbehandlung durchgeführt wird.
  • GEWERBLICHE ANWENDBARKEIT
  • Gemäß der vorliegenden Erfindung ist es möglich, ein verlässliches Verfahren zur Zeichentrennung zum Einsatz in der Erkennung bereitzustellen, selbst wenn ein Originalbild nicht genau mit Hilfe einer herkömmlichen Binarisierung oder Projektionsbehandlung erkannt werden kann, weil das Originalbild Zeichen wie Buchstaben und numerische Zeichen aufweist, die jeweils aus mehreren Elementen oder unerwünschten Punkten um die Zeichen herum zusammengesetzt sind. Außerdem besteht ein Vorteil darin, daß das Problem einer verringerten Bilderkennung gelöst wird, zum Beispiel wenn die zu erkennenden Zeichen einen Unterstrich aufweisen oder es schwierig ist, die Zeichen von dem Hintergrund zu trennen, weil die Druckoberfläche eine satinierte Oberfläche ist. Ferner besteht ein weiterer Vorteil in der Milderung eines Nachteils, der darin besteht, daß genaue Erkennungsergebnisse nicht wirksam mit Erkennungsgenauigkeit erhalten werden können, wenn das Originalbild Störungen im Hintergrund und/oder Zeichen aufweist, die jeweils aus mehreren Punkten zusammengesetzt sind, z. B. Buchstaben, die durch einen Tintenstrahldrucker gedruckt werden.
  • Somit wird eine breite Anwendung des Verfahrens zur Zeichentrennung zum Einsatz in der Erkennung der vorliegenden Erfindung erwartet, da es wirksam Zeichen genau erkennen kann, selbst bei einem Originalbild mit schlechter Qualität.

Claims (7)

  1. Verfahren zur Zeichentrennung zum Einsatz in der Erkennung, welches die folgenden Schritte umfaßt: (I) Aufnehmen eines ersten Bildes, welches ein Zeichen umfaßt, das aus mehreren Elementen zusammengesetzt ist; (II) Herauslösen der mehreren Elemente in dem ersten Bild, um ein zweites Bild zu erhalten, in dem jedes der mehreren Elemente von einem rechteckigen Rahmen umschlossen ist; (III) Bilden eines zusammengesetzten Bildes aus einer Kombination der rechteckigen Rahmen in dem zweiten Bild; (IV) Berechnen eines charakteristischen Betrages der Elemente, die in dem zusammengesetzten Bild enthalten sind; (V) Eingeben des charakteristischen Betrages in ein trainiertes Back-Propagation Netzwerk, um einen Übereinstimmungsgrad zwischen dem charakteristischen Betrag des zusammengesetzten Bildes und dem Bezugszeichen zu liefern; und (VI) Bestimmen des zusammengesetzten Bildes, welches einen höchsten Übereinstimmungsgrad zwischen dem charakteristischen Betrag des zusammengesetzten Bildes und des Bezugszeichens aufweist, aus Ergebnissen, die durch Wiederholen der Schritte (III) bis (V) bezüglich verschiedener Kombinationen der rechteckigen Rahmen in dem zweiten Bild erhalten wird, um es als ein getrenntes Zeichen zur Erkennung auszugeben.
  2. Verfahren zur Zeichentrennung nach Anspruch 1, welches eine Vorbehandlung umfaßt, die durchgeführt wird, wenn das erste Bild wenigstens zwei Zeichen, die aneinander gekoppelt sind, umfaßt, wobei die Vorbehandlung die folgenden Schritte umfaßt: Aufbereiten eines binären Bildes, welches die wenigstens zwei Zeichen umfaßt; Bestimmen eines Profils, welches eine Verteilungsstärke in einer Ausrichtungsrichtung der wenigstens zwei Zeichen aus dem binären Bild zeigt; Setzen einer Schwellenlinie, welche eine vorbestimmte Verteilungsstärke in dem Profil aufweist; Entfernen einer ersten Region des Profils aus dem Profil, in der die Verteilungsstärke niedriger als die Schwellenlinie ist, um ein kompensiertes Bild zu erhalten, in dem die wenigstens zwei Zeichen getrennt voneinander sind; und Verwenden des kompensierten Bildes als das erste Bild.
  3. Verfahren zur Zeichentrennung nach Anspruch 2, wobei die Vorbehandlung die folgenden Schritte umfaßt: Teilen der ersten Region nach dem Entfernen der ersten Region aus dem Profil in zwei Bereiche, an einer Stelle, welche eine minimale Verteilungsstärke des Profils in der ersten Region aufweist; und Zufügen der zwei Bereiche jeweils in ein Paar zweiter Regionen des Profils, welche sich auf beiden Seiten der ersten Region befinden, in der die Verteilungsstärke größer als die Schwellenlinie ist, um das kompensierte Bild zu erhalten.
  4. Verfahren zur Zeichentrennung nach Anspruch 1, welches eine Vorbehandlung umfaßt, die durchgeführt wird, wenn das erste Bild ein Zeichen umfaßt, das aus mehreren Punkten besteht, wobei die Vorbehandlung die folgenden Schritte umfaßt: Aufbereiten eines binären Bildes, welches das Zeichen der Punkte umfaßt; Ausdehnen jedes Punktes des Zeichens in einer horizontalen Richtung in dem binären Bild, um ein kompensiertes Bild zu erhalten, in dem jeder der ausgedehnten Punkte mit einem nahegelegenen ausgedehnten Punkt verbunden ist; und Verwenden des kompensierten Bildes als das erste Bild.
  5. Verfahren zur Zeichentrennung nach Anspruch 1, welches eine Vorbehandlung umfaßt, die durchgeführt wird, wenn das erste Bild ein Zeichen umfaßt, das aus mehreren Punkten besteht, wobei die Vorbehandlung die folgenden Schritte umfaßt: Aufbereiten eines binären Bildes, welches das Zeichen der Punkte umfaßt; Ausdehnen jedes der Punkte des Zeichens in horizontaler und vertikaler Richtung in dem binären Bild, um ein kompensiertes Bild zu erhalten, in dem jeder der ausgedehnten Punkte mit einem nahegelegenen ausgedehnten Punkt verbunden ist; und Verwenden des kompensierten Bildes als das erste Bild.
  6. Verfahren zur Zeichentrennung nach Anspruch 1, wobei der charakteristische Betrag ein Längenverhältnis des zusammengesetzten Bildes ist.
  7. Vorrichtung zur Zeichentrennung zum Einsatz in der Erkennung, welche umfaßt: eine Bildaufnahmevorrichtung zur Aufnahme eines ersten Bildes; einen Bildelementteiler zum Herauslösen mehrerer Elemente, die sich zu einem Zeichen zusammensetzen, welche in dem ersten Bild enthalten sind, um ein zweites Bild zu erhalten, in dem jedes der Elemente von einem rechteckigen Rahmen umschlossen ist; einen Erzeuger eines zusammengesetzten Bildes zum Bilden eines zusammengesetzten Bildes aus einer Kombination der rechteckigen Rahmen in dem zweiten Bild; einer Rechnervorrichtung für einen charakteristischen Betrag zum Bestimmen eines charakteristischen Betrages der Elemente, die in dem zusammengesetzten Bild enthalten sind; ein trainiertes Back-Propagation Netzwerk, um einen Übereinstimmungsgrad zwischen dem charakteristischen Betrag des zusammengesetzten Bildes und des Bezugszeichens zu liefern, wenn der charakteristische Betrag in das Back-Propagation Netzwerk eingeben wird; und einen Bildanalysator zum Bestimmen des zusammengesetzten Bildes, welches einen höchsten Übereinstimmungsrad zwischen dem charakteristischen Betrag des zusammengesetzten Bildes und des Bezugszeichens aufweist, aus Ergebnissen, die von dem Back-Propagation Netzwerk bezüglich verschiedener Kombinationen der rechteckigen Rahmen in dem zweiten Bild geliefert werden, um es als ein separates Zeichen zur Erkennung auszugeben.
DE60208817T 2001-11-30 2002-11-28 Verfahren und Vorrichtung zur Buchstabenseparation für deren Erkennung Expired - Fee Related DE60208817T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001367675A JP3965983B2 (ja) 2001-11-30 2001-11-30 画像処理方法およびその装置
JP2001367675 2001-11-30
PCT/JP2002/012470 WO2003046807A1 (en) 2001-11-30 2002-11-28 Image recognition method and apparatus for the same method

Publications (2)

Publication Number Publication Date
DE60208817D1 DE60208817D1 (de) 2006-04-06
DE60208817T2 true DE60208817T2 (de) 2006-09-14

Family

ID=19177389

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60208817T Expired - Fee Related DE60208817T2 (de) 2001-11-30 2002-11-28 Verfahren und Vorrichtung zur Buchstabenseparation für deren Erkennung

Country Status (8)

Country Link
US (1) US7480410B2 (de)
EP (1) EP1449153B1 (de)
JP (1) JP3965983B2 (de)
KR (1) KR100567362B1 (de)
CN (1) CN100489885C (de)
DE (1) DE60208817T2 (de)
TW (1) TWI221587B (de)
WO (1) WO2003046807A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060193520A1 (en) * 2005-02-28 2006-08-31 Takeshi Mita Object detection apparatus, learning apparatus, object detection system, object detection method and object detection program
KR100987110B1 (ko) * 2008-12-12 2010-10-12 (주)씨프로 카메라 모듈용 지지장치
JP5292643B2 (ja) * 2010-07-28 2013-09-18 武蔵エンジニアリング株式会社 投票用紙の読取装置および読取方法
CN102385707A (zh) * 2010-08-30 2012-03-21 阿里巴巴集团控股有限公司 一种数字图像识别的方法、装置及爬虫服务器
JP2012194705A (ja) * 2011-03-15 2012-10-11 Omron Corp 画像処理装置、画像処理方法および画像処理プログラム
TWI602155B (zh) * 2013-02-08 2017-10-11 威聯通科技股份有限公司 利用影像內容不連續性增強物件偵測之方法
WO2016006076A1 (ja) * 2014-07-10 2016-01-14 富士機械製造株式会社 部品装着座標の作成方法および部品装着座標の作成装置
US9361536B1 (en) * 2014-12-16 2016-06-07 Xerox Corporation Identifying user marks using patterned lines on pre-printed forms
CN105138963A (zh) * 2015-07-31 2015-12-09 小米科技有限责任公司 图片场景判定方法、装置以及服务器
TWI607387B (zh) * 2016-11-25 2017-12-01 財團法人工業技術研究院 字符辨識系統及其字符辨識方法
CN108229470B (zh) 2017-12-22 2022-04-01 北京市商汤科技开发有限公司 文字图像处理方法、装置、设备及存储介质
CN111598076B (zh) * 2020-05-25 2023-05-02 北京明略软件系统有限公司 一种标签图像中日期检测处理方法及装置
JP7137170B1 (ja) * 2021-03-22 2022-09-14 楽天グループ株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5991582A (ja) 1982-11-16 1984-05-26 Nec Corp 文字読取装置
JPH0782524B2 (ja) 1983-03-31 1995-09-06 株式会社東芝 光学的文字読取装置
JPH0614372B2 (ja) 1984-01-23 1994-02-23 日本電信電話株式会社 文字読取方法
JPS6129982A (ja) 1984-07-21 1986-02-12 Nippon Telegr & Teleph Corp <Ntt> オンライン手書き文字列認識方式
JPS62190574A (ja) 1986-02-18 1987-08-20 Mitsubishi Electric Corp 文字パタ−ン切り出し装置
JPS62223890A (ja) 1986-03-26 1987-10-01 Hitachi Ltd ダイナミツク型ram
US5048100A (en) * 1988-12-15 1991-09-10 Michael Kuperstein Self organizing neural network method and system for general classification of patterns
JP2944102B2 (ja) 1989-05-26 1999-08-30 烈 山川 ファジィニューロン
US5151951A (en) * 1990-03-15 1992-09-29 Sharp Kabushiki Kaisha Character recognition device which divides a single character region into subregions to obtain a character code
CA2081406C (en) * 1991-12-23 1997-09-16 Chinmoy Bhusan Bose Method and apparatus for connected and degraded text recognition
JP3187899B2 (ja) 1991-12-25 2001-07-16 松下電器産業株式会社 文字認識装置
US5481621A (en) 1992-05-28 1996-01-02 Matsushita Electric Industrial Co., Ltd. Device and method for recognizing an image based on a feature indicating a relative positional relationship between patterns
US6041141A (en) 1992-09-28 2000-03-21 Matsushita Electric Industrial Co., Ltd. Character recognition machine utilizing language processing
JPH06180771A (ja) 1992-12-11 1994-06-28 Matsushita Electric Ind Co Ltd 英文字認識装置
US6212299B1 (en) * 1992-12-11 2001-04-03 Matsushita Electric Industrial Co., Ltd. Method and apparatus for recognizing a character
WO1994027251A1 (en) * 1993-05-18 1994-11-24 Massachusetts Institute Of Technology Automated reading system and method
JPH07175894A (ja) 1993-11-05 1995-07-14 Toshiba Corp ニューラルネットワークと文字認識方法と電子部品実装検査装置及びそれを用いた管理方法
US5542006A (en) * 1994-06-21 1996-07-30 Eastman Kodak Company Neural network based character position detector for use in optical character recognition
JPH08212290A (ja) 1995-02-06 1996-08-20 Nippon Signal Co Ltd:The パターン識別における特徴量作成装置
JPH09305710A (ja) 1996-05-15 1997-11-28 Mitsubishi Heavy Ind Ltd 2値化装置
US6266445B1 (en) 1998-03-13 2001-07-24 Canon Kabushiki Kaisha Classification-driven thresholding of a normalized grayscale image
GB2343045B (en) 1998-10-21 2003-03-05 Racal Res Ltd Systems and methods for processing digital image data
EP1089214A3 (de) 1999-09-30 2005-01-26 Matsushita Electric Industrial Co., Ltd. Gerät und Verfahren zur Bilderkennung

Also Published As

Publication number Publication date
US7480410B2 (en) 2009-01-20
KR100567362B1 (ko) 2006-04-03
TW200300539A (en) 2003-06-01
CN100489885C (zh) 2009-05-20
JP3965983B2 (ja) 2007-08-29
EP1449153A1 (de) 2004-08-25
WO2003046807A1 (en) 2003-06-05
TWI221587B (en) 2004-10-01
KR20030076620A (ko) 2003-09-26
US20040071345A1 (en) 2004-04-15
CN1489745A (zh) 2004-04-14
DE60208817D1 (de) 2006-04-06
EP1449153B1 (de) 2006-01-18
JP2003168076A (ja) 2003-06-13

Similar Documents

Publication Publication Date Title
DE60208817T2 (de) Verfahren und Vorrichtung zur Buchstabenseparation für deren Erkennung
DE60311748T2 (de) Verfahren zur Bestimmung von Rändern zwischen Bildbereichen mit verschiedenen Bildmerkmalen
DE602004005358T2 (de) Objektdetektion in bildern
DE69910631T2 (de) Bildanpassung um die Empfindlichkeit auf Falschregistrierung zu vermindern
DE10037697B4 (de) Adaptive Maskentechnik zur Inspektion von Defekten
DE69812882T2 (de) Verfahren zur bewegungskompensierten Mehrhalbbildverbesserung von Videostandbildern
DE69432239T2 (de) Bildfelddetektion
DE69822608T2 (de) Binarisierungsverfahren in einem Zeichenerkennungssystem
DE3916323A1 (de) Verfahren zum erkennen eines zeichens und dabei verwendbares zeichenerkennungssystem
EP1770635B1 (de) Iteratives Verfahren zur Interpolation von Bildinformationswerten
DE60028584T2 (de) System und methode zur bildinterpolation
EP0925682B1 (de) Verfahren zur detektion von kanten in einem bildsignal
DE19736696A1 (de) Bildverarbeitungsvorrichtung
DE102015206654A1 (de) Bildverarbeitungsvorrichtung
DE3446898A1 (de) Verfahren und vorrichtung zur herstellung einer bildauszugsmaske im zuge einer elektronischen bildreproduktion
DE69925354T2 (de) Bildverarbeitungssystem um vertikale Muster auf abgetasteten Bildern zu reduzieren
DE102006011719A1 (de) Bildverarbeitungsgerät und Verfahren zur Generierung von Registrierungsdaten bei der Bildverarbeitung
EP2787485B1 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
EP3656561B1 (de) Schnelle bildentzerrung für bildinspektion
DE2435982A1 (de) Verfahren und vorrichtung zur verarbeitung von durch abtastung eines mehrfarbigen musters erhaltenen informationen
DE3524505A1 (de) Bilderkennungsvorrichtung
DE3923914C2 (de) Verfahren zum Extrahieren von Merkmalsgrößen eines Zeichens
DE69813416T2 (de) Vorrichtungen zur Linienrichtungsbestimmung, Bildschrägeerfassung und Bildschrägekorrektur.
DE60024535T2 (de) Verfahren zur Zeichentrennung
EP1578609B1 (de) Verfahren und vorrichtung zur echzeitkontrolle von druckbildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
8339 Ceased/non-payment of the annual fee