DE60024535T2 - Verfahren zur Zeichentrennung - Google Patents

Verfahren zur Zeichentrennung Download PDF

Info

Publication number
DE60024535T2
DE60024535T2 DE60024535T DE60024535T DE60024535T2 DE 60024535 T2 DE60024535 T2 DE 60024535T2 DE 60024535 T DE60024535 T DE 60024535T DE 60024535 T DE60024535 T DE 60024535T DE 60024535 T2 DE60024535 T2 DE 60024535T2
Authority
DE
Germany
Prior art keywords
image
character
binarized
characters
binarized image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60024535T
Other languages
English (en)
Other versions
DE60024535D1 (de
Inventor
Takuma Akagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of DE60024535D1 publication Critical patent/DE60024535D1/de
Publication of DE60024535T2 publication Critical patent/DE60024535T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/15Cutting or merging image elements, e.g. region growing, watershed or clustering-based techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Character Input (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Erfindungsgebiet
  • Die vorliegende Erfindung betrifft ein Zeichenextraktionsverfahren zum Extrahieren von mit jedem Zeichen verbundenen Zeichen zu einer Zeit in einer Zeichenerkennungsvorrichtung, die gemäß beispielsweise durch die Eingabe von hellen und Schattenzeichenbildern Zeichen erkennt.
  • 2. Beschreibung des verwandten Standes der Technik
  • Im allgemeinen wird die Zeichenerkennungstechnologie im großen und ganzen eingeteilt in die Eingabe von Zeichenbildern, der Extraktion von Zeichenlinien, der Zeichenextraktion und Zeichenerkennung.
  • Im allgemeinen werden verbundene Zeichen extrahiert nach Binärisierung von Eingabezeichenbildern. Die Eingabezeichenbilder werden unterteilt in einen Zeichenbereich und einen Hintergrundbereich. Zu dieser Zeit werden mehrere Zeichen extrahiert zu einem Zeichenbereich in den verbundenen genannten. Im Stand der Technik werden diese verbundenen Zeichen jeweils voneinander separiert mittels Erhalten von strukturellen und analytischen Separierungspunkten gemäß dem Schatten der verbundenen Zeichen. Das heißt, wenn die Form der verbundenen Zeichen eine Delle wie beispielsweise ein Tal aufweist, wird ein Zeichenbereich herausgeschnitten zu jedem Zeichen mittels Beurteilung der Delle als der Übergangspunkt.
  • Es wird jedoch eine Vielfalt an Mustern betrachtet für die Formen der Übergangspunkte von verbundenen Zeichen und die Muster, die gemäß dem Stand der Technik separiert werden könnten, sind lediglich limitiert auf einige spezielle Formen aus diesen Mustern.
  • Im allgemeinen sind im Fall von Dokumentbildern von handgeschriebenen Zeichen, für den überwiegenden Teil der überbrückten/verbundenen Zeichen, wenn diese extrahiert werden, Zeichen auf einem Eingabedokumentbild zum ersten Mal bereits verbunden, wenn das Dokument eingegeben wird/ist.
  • Auf der anderen Seite, im Falle von Dokumentbildern im Drucktyp, ist der überwiegende Teil an Ursachen für verbundene Zeichen, daß ein Problem entsteht, wenn Zeichen extrahiert werden und nicht aktuell verbunden sind, jedoch vorhanden sind aufgrund einer geringen Auflösung eines Scanners (eine Zeichenbildeingabevorrichtung) und eines Binärisierungsfehlens während der Binärisierungsverarbeitung.
  • Daher, wenn zurückgekehrt wird zu hellen/Licht- und dunklen/Schattenbildern, die binärisierte Eingabezeichenbilder sind, sollte ein verbundener/gebrückter Punkt zwischen Zeichen relativ leicht detektierbar sein.
  • Wenn jedoch lediglich helle/Licht- und dunkle/Schattenbilder einfach verwendet werden, wird ein Problem komplizierter, beinhaltend das Spezifizieren eines Zeichenbereiches, die Verzögerung der Verarbeitungsgeschwindigkeit und darüber hinaus, solche Schlecht-Effekte, wie ein Fehler in der Zeichenpositionsabschätzung etc. verursacht werden und die Performance ziemlich verschlechtert.
  • US 5809166 beschreibt ein Zeichenerkennungssystem, bei dem Paare von benachbarten vertikalen Strichen als erstes detektiert werden im Zeichenbild und dieses ebenso unterteilt wird in diskrete horizontale Bänder. Zeichen werden erkannt auf der Basis der Bilddatenverteilung in jedem Band zwischen den detektierten vertikalen Balken.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist daher ein Gegenstand der vorliegenden Erfindung gemäß der Ansprüche 1, 7 und 12, eine Zeichenextraktionsmethode bereitzustellen, die in der Lage ist, hochpräzise und effizient verbundene Zeichen herauszufinden, die schwierig herauszufinden sind aus den Formen, und diese zu separieren.
  • Gemäß der vorliegenden Erfindung wird ein Zeichenextraktionsverfahren bereitgestellt in einer Zeichenerkennungsvorrichtung zum Erkennen von Zeichen gemäß Eingabezeichenbildern, aufweisend: einen ersten Schritt zum Erhalten eines ersten binärisierten Bildes der eingegebenen Zeichenbilder, die binärisiert sind in Übereinstimmung mit einem ersten Schwellenwert, basierend auf wenigstens einem Dichtewert jedes Pixels in den eingegebenen Zeichenbildern, um das erste binärisierte Bild zu separieren in einen Zeichenbereich und einen Hintergrundbereich; einen zweiten Schritt zum Erhalten eines zweiten binärisierten Bildes durch Binärisieren von Abschnitten, korrespondierend mit dem Zeichenbereich, separiert im ersten Schritt in Korrespondenz mit einem zweiten Schwellenwert, basierend auf einem Dichtewert jedes Pixels, der mit dem Zeichenbereich des ersten binärisierten Bildes korrespondiert, um das zweite binärisierte Bild zu separieren in wenigstens zwei Bereiche; und einen dritten Schritt zum Separieren des ersten binärisierten Bildes in einzelne separierte Zeichen in Übereinstimmung mit dem zweiten binärisier ten, im zweiten Schritt separierten Bild.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine vergrößerte Ansicht, die ein Beispiel eines Eingabedokumentbildes vor Eingabe durch einen Scanner zeigt;
  • 2 ist ein Diagramm zum Erklären des Zustandes zur Eingabe eines Dokumentbildes durch Ausmarkieren mit Maschen;
  • 3 ist ein Diagramm, das ein Beispiel einer hellen und dunklen Bildeingabe mittels eines Scanners zeigt;
  • 4 ist ein Diagramm, das ein Beispiel eines binärisierten Bildes durch Binärisieren des in 3 gezeigten hellen und dunklen Bildes zeigt;
  • 5 ist ein Blockdiagramm, das schematisch eine Struktur einer Zeichenextraktionsvorrichtung zeigt, auf die das Zeichenextraktionsverfahren der vorliegenden Erfindung anwendbar ist;
  • 6 ist ein Flußdiagramm zur Erläuterung des Zeichenextraktionsverfahrens der vorliegenden Erfindung;
  • 7 ist ein Diagramm, das ein Beispiel eines ersten binärisierten Bildes zeigt, das binärisiert ist in der ersten Binärisierungseinheit;
  • 8 ist ein Diagramm, das ein Beispiel eines zweiten binärisierten Bildes zeigt, das binärisiert ist in der zweiten Binärisierungseinheit; und
  • 9 ist ein Flußdiagramm zur Erläuterung eines Verfahrens zur Bestimmung einer verbundenen Zeichenposition in einer Zeichenseparierungseinheit.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Bevorzugte Ausführungsformen der vorliegenden Erfindung werden im nachhinein unter Bezugnahme auf die angehängten Figuren beschrieben.
  • Weiterhin wird in der folgenden Beschreibung angenommen, daß je kleiner die Lichtwerte der Pixel sind, desto schwärzer diese Pixel sein werden und je größer die Dichtewerte sind, desto weißer die Pixel werden. "Dichtewert" bezieht sich auf den Level oder Grad an Helligkeit des Pixels.
  • 1 zeigt ein vor Eingabe mittels eines Scanners vergrößertes Eingabedokumentbild. Die "1" und "2" sind nahe beieinander geschrieben; diese sind jedoch nicht miteinander verknüpft, da dort ein freier Leerraum zwischen diesen besteht. Nun lassen Sie uns einen Fall betrachten, um solche Dokumentbilder mittels eines Scanners zu lesen.
  • Ein Scanner teilt Dokumentbilder ein in solche wie in 2 gezeigte Maschen, nimmt einen Mittelwert an Dichtigkeit in Bezug auf Rechtecke auf und gibt den mittleren Dichtigkeitswert als eine repräsentative Dichte an Pixeln, korrespondierend mit den Rechtecken, ein. In 3 ist ein Beispiel eines Licht- und Schattenbildes, angegeben mittels eines Scanners, gezeigt. In diesem Beispiel ist ein Licht- und Schattenbild ein vertikales 6-Punkt und laterales 12-Punkt-Bild.
  • In 3 stellt der Bereich a, in schwarz ausgemalt, Pixel dar, die den kleinsten Dichtewert aufweisen, wobei der Bereich b, gezeigt mittels schräg gekreuzter Linien, Pixel darstellt, die einen Dichtewert aufweisen, der größer als der der Pixel a ist, wobei der Bereich c, gezeigt in dicken schrägen Linien, Pixel darstellt, die eine Dichte aufweisen, die größer ist, als die der Pixel b, wobei der Bereich d, gezeigt in schmalen, schrägen Linien, Pixel darstellt, die einen Dichtewert aufweisen, der größer ist als der der Pixel c.
  • Wird die Breite des freien Raums zwischen den Zeichen enger als die mittels eines Scanners erworbenen Rechtecke, werden sogar dann Pixel in geringer Dichte erhalten, wenn diese im freien Raumbereich wie in 3 zu erkennen sind. Daher, wenn dieses Bild binärisiert ist, wird ein binärisiertes Bild in einer Form von zwei verbundenen Zeichen erhalten, wie in 4 gezeigt.
  • In einem konventionellen Zeichenextraktionsverfahren werden verbundene Zeichen separiert unter Verwendung lediglich eines wie in 4 gezeigten binärisierten Bildes.
  • Beim Betrachten des in 3 gezeigten Licht- und Schattenbildes jedoch ist die Kontur eines Zeiches in einer Dichte größer als die des zentralen Bereiches des Zeichens. Der verbundene Bereich der Zeichen ist ebenso nicht außergewöhnlich, wobei Pixel, die mit dem freien Raum korrespondieren, in einer Dichte größer sind als die des Zeichenbereichs.
  • Daher werden in der vorliegenden Erfindung Abschnitte in großer Dichte effizient gefunden und durch Entscheidung eines verbundenen Zeichenbereichs ein Zeichenbereich separiert zu jedem Zeichen. Dies wird weiter unten im Detail erläutert werden.
  • 5 ist ein Blockdiagramm, das die Struktur einer Zeichenextraktionsvorrichtung zeigt, auf die das Zeichenextraktionsverfahren der vorliegenden Erfindung anwendbar ist. In 5 liest als ein Zeichenbildeingabemittel ein Scanner 1 ein Eingabedokumentbild optisch und gibt ein wie in 3 gezeigtes Licht- und Schattenbild ein. Das Licht- und Schattenbild, das eingegeben wird mittels des Scanners 1, wird temporär gespeichert in einem ersten Bildspeicher 2.
  • Eine erste Binärisierungseinheit 3 binärisiert das Licht- und Schattenbild, das temporär im ersten Bildspeicher 2 gemäß der beispielsweise einer bekannten Ohtsu's-Binärisierungsmethode (bezogen auf "Automatic Threshold Selection Method according to Discrimination and Minimum Square Standard", durch Nobuyuki Ohtsu, Shingakuron (D), Vol. J63-D, Nr. 4, pp. 349–356, 1980) gespeichert und ausgegeben wird, beispielsweise als ein wie in 4 gezeigtes erstes binärisiertes Bild.
  • Darüber hinaus ist das Binärisierungsverfahren für das Licht- und Schattenbild offenbart in US-Patent Nr. 5,784,500 (Juli 21, 1988).
  • Die erste binärisierte Bildausgabe aus der ersten Binärisierungseinheit 3 wird temporär in einem zweiten Bildspeicher 4 gespeichert. Eine Abschätzeinheit 5 zur Abschätzung von verbundenen Zeichen schätzt ab (beurteilt), ob dort verbundene Zeichen existieren, basierend auf dem ersten, im zweiten Bildspeicher temporär gespeicherten binärisierten Bild. Den Standard zur Abschätzung betrachtend, im Fall, indem eine laterale Größe eines schwarzen/dunklen Pixelbereichs weiter ist als eine vertikale Größe, wird abgeschätzt, daß mehrere Zeichen verbunden sind.
  • Eine zweite Binärisierungseinheit 6 ist in Betrieb, wenn die Einheit 5 zum Abschätzen der verbundenen Zeichen abschätzt, daß mehrere Zeichen verbunden sind und wenn ein Licht- und Schattenbild temporär im ersten Bildspeicher 2 gespeichert ist/wird und das temporär im zweiten Bildspeicher 4 gespeicherte erste binärisierte Bild eingegeben wird, wobei Dichtewerte zuerst lediglich von Licht- und Schattenbildpixeln genommen werden, korrespondierend mit Positionen von schwarzen/dunklen Pixeln des ersten binärisierten Bildes, und für ein Histogramm registriert werden.
  • Anschließend, basierend auf dem erhaltenen Histogramm, erhält die zweite Binärisierungseinheit 6 einen Schwellenwert, um den Dichtewert des Histogramms unter Verwendung der oben erwähnten bekannten Ohtsu-Binärisierungsmethode zu halbieren. Nur wenn ein Dichtewert mit selbigen Koordinaten des Licht- und Schattenbildes aus dem schwarzen/dunklen Pixel des binärisierten Bildes größer ist als der erhaltene Schwellenwert, werden die schwarzen/dunklen Pixel invertiert in weiße Pixel und ein neues binärisiertes Bild (ein zweites binärisiertes Bild) wird gebildet.
  • Die zweite binärisierte Bildausgabe aus der zweiten Binärisierungseinheit 6 wird temporär in einem driten Bildspeicher 7 gespeichert. Eine Zeichenseparierungseinheit 8 unterteilt verbundene Zeichenpositionen gemäß dem Licht- und Schattenbild, das temporär gespeichert ist im ersten Bildspeicher 2, das erste binärisierte Bild wird temporär gespeichert im zweiten Bildspeicher 4 und das zweite binärisierte Bild temporär gespeichert im dritten Bildspeicher 7, und separiert die Zeichenbilder zu jedem Zeichen entsprechend der Information auf dieser bestimmten Zeichenverbindungsposition. Was separiert wird zu diesem Zeitpunkt ist das in der ersten Binärisierungseinheit 3 erhaltene Zeichenbild (das erste binärisierte Bild).
  • Eine Selektionseinheit 9 selektiert die gespeicherten Inhalte des zweiten Bildspeichers 4 oder die Ausgabe der Zeichenseparierungseinheit 8, basierend auf dem Ergebnis der Abschätzung durch die Einheit 5 zur Abschätzung der verbundenen Zeichen. Das bedeutet, daß, wenn die Einheit 5 zur Abschätzung der Abschätzung der verbundenen Zeichen abschätzte, daß dort keine verbundenen Zeichen existieren, die gespeicherten Inhalte des zweiten Bildspeichers 4 selektiert werden, und wenn abgeschätzt wird, daß dort verbundene Zeichen vorhanden sind, die Ausgabe der Zeichenseparierungseinheit 8 selektiert wird.
  • Als nächstes wird die Zeichenextraktionsmethode der vorliegenden Erfindung im Detail unter Bezugnahme eines in 6 gezeigten Flußdiagramms beschrieben. Als erstes wird ein Licht- und Schatten-Zeichenbild eingegeben in den Scanner 1 und temporär gespeichert im ersten Bildspeicher 2 (S1). Anschließend wird das Licht- und Schattenbild im ersten Bildspeicher 2 umgewandelt in das erste binärisierte Bild in der ersten Binärisierungseinheit 3 unter Verwendung der Ohtsu-Binärisierungsmethode und temporär gespeichert im zweiten Bildspeicher 4 (S2).
  • Anschließend beurteilt die Einheit 5 zur Abschätzung der verbundenen Zeichen, ob dort verbundene Zeichen vorhanden sind, basierend auf dem erhaltenen ersten binärisierten Bild im zweiten Bildspeicher 4 (S3). Den Standard zur Beurteilung von verbundenen Zeichen betrachtend, wenn eine laterale Größe eines Schwarz-Pixel-Bereiches größer ist als eine vertikale Größe, wird dieses dahingehend beurteilt, daß mehrere Zeichen verbunden sind. Wenn beurteilt wird, daß dort keine verbundenen Zeichen vorhanden sind, wird die Bearbeitung beendet. In diesem Fall wählt die Selektionseinheit 9 das erste binärisierte Bild im zweiten Bildspeicher 4 und schickt dieses zur nächsten Erkennungsbearbeitung.
  • Wenn beurteilt wird, daß dort verbundene Zeichen vorhanden sind, nimmt die zweite Binärisierungseinheit 6 Dichtewerte nur von den Licht- und Schattenbildpixeln, korrespondierend zu den Positionen der schwarzen/dunklen Pixel des in der ersten Binärisierungseinheit 3 erhaltenen ersten binärisierten Bildes und regi striert für ein Histogramm (S4). Anschließend, basierend auf dem erhaltenen Histogramm, wird ein Schwellenwert erhalten unter Verwendung der Ohtsu-Binärisierungsmethode, um den Dichtewert des Histrogramms zu halbieren. Wenn die Dichtewerte der gleichen Koordinaten des Licht- und Schattenbildes aus den schwarzen/dunklen Pixeln des binärisierten Bildes größer sind als der erhaltene Schwellenwert, werden die schwarzen/dunklen Pixel invertiert zu den weißen Pixeln, wobei das zweite binärisierte Bild gebildet und temporär gespeichert wird im dritten Bildspeicher 7 (S5).
  • 7 zeigt ein Beispiel des ersten binärisierten Bildes, das binärisiert wurde in der ersten Binärisierungseinheit 3 und 8 zeigt ein Beispiel des zweiten binärisierten Bildes, das binärisiert wurde in der zweiten Binärisierungseinheit 6, wobei in den 7 und 8 die schwarzen Rechtecke Bereiche darstellen, die betrachtet werden als schwarze/dunkle Pixel in der Binärisierung und weiße Rechtecke Bereiche sind, die betrachtet werden als weiße Pixel in der Binärisierung.
  • Wenn ein Dichtehistogramm wieder geplottet wird nur für einen Zeichenbereich und binärisiert ist, werden die Bereiche, die schwarze/dunkle Pixel erzeugen durch den Quantisierungsfehler des Scanners, wie oben erwähnt, das heißt, die geschlossenen Bereiche zwischen Zeichen oder den Konturen der Zeichen gewechselt in die weißen Pixel aufgrund eines Dichtewertes. Daher kann in 8 erkannt werden, daß ein neuer freier Raum erzeugt wird zwischen Zeichen "2" und "5" und "5" und "3" (die Pfeilbereiche in 8).
  • Anschließend wird in der Zeichenseparierungseinheit 8 eine verbundene Zeichenposition bestimmt (S6), basierend auf dem in der zweiten Binärisierungseinheit 6 binärisierten Bild, den in der ersten Binärisierungs einheit 3 erhaltenen ersten binärisierten Bild und dem Licht- und Schattenbild, eingegeben mittels des Scanners 1. Die Bestimmung der verbundenen Zeichenposition wird später im Detail erläutert werden. Anschließend, basierend auf der Information der bestimmten verbundenen Zeichenposition, werden Zeichenbilder (das in der ersten Binärisierungseinheit 3 erhaltene erste binärisierte Bild) separiert zu jedem Zeichen (S7). In diesem Fall selektiert die Selektionseinheit 9 die Ausgabe der Zeichenseparierungseinheit 8 und schickt diese zur nächsten Erkennungsverarbeitung.
  • Anschließend wird die Methode zur Bestimmung der verbundenen Zeichenposition in der Zeichenseparierungseinheit 8 im Detail unter Bezugnahme auf den in 9 gezeigten Flußdiagramm erläutert. Zunächst wird das in der ersten Binärisierungseinheit 3 erhaltene erste binärisierte Bild verglichen mit dem in der zweiten Binärisierungseinheit 6 erhaltenen zweiten binärisierten Bild, wobei Spalten, die viele Pixel enthalten, die neu in weiße Pixel verwandelt wurden, detektiert werden (S11). Anschließend werden die in Schritt S11 detektierten Spalten dahingehend geprüft, ob dort ein einzelner schwarzer Pixel in der vertikalen Richtung des zweiten binärisierten Bildes (S12) vorliegt.
  • Wenn kein einzelner schwarzer/dunkler Pixel detektiert wurde in der vertikalen Richtung als ein Ergebnis der obigen Prüfung, wurde der Betrieb fortgesetzt zum Schritt S14. Wenn schwarze/dunkle Pixel detektiert wurden, wurde das Licht- und Schattenbild, das durch den Scanner 1 eingegeben wurde, geprüft (S13). Das heißt, daß ein mittlerer Dichtewert an den Positionen der schwarzen/dunklen Pixel im ersten binärisierten Bild der besagten Spalte an derselben Spalte des Licht- und Schattenbildes erhalten wird. Die gleiche Verarbeitung wird durchgeführt für verschiedene Spalten, die links und rechts der Spalte vorhanden sind. Wenn diese Spalte eine Brücke zu den linken und rechten Spalten ist, das heißt, wenn dort beurteilt wird, ob ein mittlerer Wert der Dichtewerte der linken und rechten Spalten kleiner ist als ein mittlerer Wert der Dichtewerte dieser Spalten. Wenn ein mittlerer Wert kleiner ist als ein Ergebnis dieser Beurteilung, schreitet der Prozeß zum Schritt S14 fort, und wenn dieser nicht kleiner ist, werden die Zeichen aus dem Zeichenseparierungsprozeß zurückgezogen.
  • Anschließend wird geprüft (S14), ob dort Zeichen vorhanden sind an der linken und rechten Seite (beide Seiten) der aus dem Prozeß im Schritt S12 oder S13 erhaltenen Spalte. Die aus dem zweiten binärisierten Bild erhaltenen weißen Pixel werden an der Zeichenkante präsentiert zusätzlich zu dem verbundenen Punkt der Zeichen, wie in 8 gezeigt. Es ist daher notwendig, zu prüfen, ob dort Zeichen an beiden Enden dieser Spalte vorhanden sind. Beispielsweise wird die Anzahl der schwarzen/dunklen Pixel über verschiedene Spalten an beiden Enden dieser Spalte, basierend auf dem ersten binärisierten Bild gezählt, und wenn dort mehr schwarze Pixel als ein bestimmter Wert vorhanden sind, wird dieses angesehen, daß dort Zeichen vorhanden sind.
  • Wenn kein Zeichen gefunden wurde als Ergebnis der Prüfung in Schritt S14, werden die Zeichen zurückgenommen aus dem Zeichenseparierungsprozeß, und wenn dort Zeichen vorhanden sind, wird der Zeichenseparierungsprozeß durchgeführt mittels der Zeichenseparierungseinheit (S15).
  • Weiterhin, wenn die Auflösung des Scanners 1, der Zeichenbilder eingibt, klein ist im Schritt S12 des in 9 gezeigten Flußdiagramms, springe zu Schritt S14, sogar dann, wenn dort einige schwarze/dunkle Pixel vorhanden sind. In diesem Fall, als ein Standard zur Bestimmung eines Separierungskandidaten, wird eine Differenz zwischen den schwarzen/dunklen Pixeln des in der ersten Binärisierungseinheit 3 erhaltenen ersten binärisierten Bildes und der schwarzen/dunklen Pixel des zweiten binärisierten Bildes, erhalten in der zweiten Binärisierungseinheit 6, genommen und eine Spalte mit einer größeren Differenz stellt eine Kandidatenspalte für die Zeichenseparierung her. In diesem Fall ist der Schwellenwert für die Größe der Differenz erniedrigt, wenn die Auflösung des Scanners 1 gering ist.
  • Wie oben beschrieben, gemäß der oben erwähnten Ausführungsform, ist es möglich, verbundene Zeichen zu separieren, die nicht lediglich mittels eines binärisierten Bildes so weit separiert werden können. Darüber hinaus kann die Separierung von verbundenen Zeichen bearbeitet werden mit einer merklich leichteren Last als alle Prozesse unter Verwendung lediglich eines Licht- und Schattenbildes. Demgemäß können die verbundenen Zeichen, die schwierig sind vom Standpunkt der Form herausgefunden zu werden, aufgefunden und präziser und effizienter separiert werden.
  • Wie oben im Detail beschrieben, gemäß der vorliegenden Erfindung, kann eine Zeichenextraktionsmethode bereitgestellt werden, die in der Lage ist, verbundene Zeichen hochpräzise und effizient vom Standpunkt der Form aus zu finden und zu separieren.

Claims (12)

  1. Zeichenextraktionsverfahren in einer Zeichenerkennungsvorrichtung zum Erkennen von Zeichen gemäß der eingegebenen hellen und Schatten-Zeichenbildern, aufweisend: einen ersten Schritt zum Erhalten eines ersten binärisierten Bildes der eingegebenen Zeichenbilder, die binärisiert sind in Übereinstimmung mit einem ersten Schwellenwert, basierend auf wenigstens einem Dichtewert jedes Pixels in den eingegebenen Zeichenbildern, um das erste binärisierte Bild zu separieren in einen Zeichenbereich und einen Hintergrundbereich; einen zweiten Schritt zum Erhalten eines zweiten binärisierten Bildes durch Binärisieren von Abschnitten, korrespondierend mit dem Zeichenbereich, separiert im ersten Schritt in Korrespondenz mit einem zweiten Schwellenwert, basierend auf einem Dichtewert jedes Pixels, der mit dem Zeichenbereich des ersten binärisierten Bildes korrespondiert, um das zweite binärisierte Bild zu separieren in wenigstens zwei Bereiche; und einen dritten Schritt zum Separieren des ersten binärisierten Bildes in einzelne separierte Zeichen in Übereinstimmung mit dem zweiten binärisierten, im zweiten Schritt separierten Bild.
  2. Verfahren nach Anspruch 1, wobei der dritte Schritt beinhaltet einen Schritt der Separierung der Zeichen in einzelne Zeichen unter Verwendung einer Pixelzeile oder einer Pixelspalte als ein Separierungspunkt, der eine große Differenz zwischen dem ersten binärisierten, im ersten Schritt erhaltenen Bildes und dem zweiten, im zweiten Schritt erhaltenen binärisierten Bildes aufweist.
  3. Verfahren nach Anspruch 1, wobei der dritte Schritt beinhaltet einen Schritt des Vergleichens zwischen den Dichtewerten an beiden Seiten einer zu separierenden Region und einem Dichtewert der zu separierenden Region selbst, und Separieren der Zeichen in einzelne Zeichen, nur für den Fall, wenn die Dichtewerte an beiden Seiten kleiner sind als der Dichtewert der zu separierenden Region selbst.
  4. Verfahren nach Anspruch 1, wobei der zweite Schritt beinhaltet einen Schritt des Separierens der Zeichen in einzelne Zeichen, basierend auf einem Histogramm, das gebildet wird unter Verwendung der Dichtewerte der Pixel an den zum Zeichenbereich anwendbaren Positionen.
  5. Verfahren nach Anspruch 2, wobei bei Bestimmung eines Separierungspunktes, basierend auf einer Differenz zwischen dem Dichtewert des im ersten Schritt erhaltenen ersten binärisierten Bildes und dem Dichtewert des im zweiten Schritt erhaltenen zweiten binärisierten Bildes, der Schwellenwert zum Entscheiden des Separierungspunktes variiert wird, basierend auf einem Auflösungswert des eingegebenen Zeichenbildes.
  6. Zeichenseparierungsverfahren nach Anspruch 1, weiterhin aufweisend die Schritte: einen vierten Schritt zum Beurteilen, ob die Zeichenbilder verbunden sind, basierend auf den ersten im ersten Schritt erhaltenen ersten binären Bildern, wobei die zweiten und dritten Schritte durchgeführt werden, wenn die Zeichen dahingehend beurteilt werden, im vierten Schritt verbunden zu sein.
  7. Zeichenextraktionsvorrichtung in einer Zeichenerkennungsvorrichtung zum Erfassen von Zeichen gemäß den eingegebenen hellen und Schatten-Zeichenbildern, aufweisend: erstes Mittel zum Erhalten eines ersten binärisierten Bildes der eingegebenen Zeichenbilder, binärisiert in Übereinstimmung mit einem ersten Schwellenwert, basierend auf wenigstens einem Dichtewert jedes Pixels in den Eingabezeichenbildern, um das erste binärisierte Bild zu separieren in einen Zeichenbereich und einen Hintergrundbereich; zweites Mittel zum Erhalten eines zweiten binärisierten Bildes durch Binärisieren von Bereichen, korrespondierend mit dem Zeichenbereich, separiert durch das erste Mittel in Übereinstimmung mit einem zweiten Schwellenwert, basierend auf einem Dichtewert jedes Pixels, korrespondierend mit dem Zeichenbereich des ersten binärisierten Bildes, um das zweite binärisierte Bild zu separieren in zwei Bereiche oder mehr; und drittes Mittel zum Separieren des ersten binärisierten Bildes in einzelne separierte Zeichen in Übereinstimmung mit dem zweiten binärisierten Bild, separiert durch das zweite Mittel.
  8. Vorrichtung nach Anspruch 7, wobei das dritte Mittel beinhaltet Mittel zum Separieren der Zeichen in einzelne Zeichen unter Verwendung einer Pixelzeile oder einer Pixelspalte als einen Separierungspunkt, der eine große Differenz zwischen dem durch das erste Mittel erhaltene erste binärisierte Bild und dem durch das zweite Mittel erhaltene zweite binärisierte Bild aufweist.
  9. Vorrichtung nach Anspruch 7, wobei das dritte Mittel beinhaltet Mittel zum Vergleichen zwischen den Dichtewerten an beiden Seiten einer zu separierenden Region und einem Dichtewert der zu separierenden Region selbst, und Separieren der Zeichen in einzelne Zeichen, nur dann, wenn die Dichtewerte an beiden Seiten kleiner als der Dichtewert der zu separierenden Region selbst sind.
  10. Vorrichtung nach Anspruch 7, wobei das zweite Mittel beinhaltet Mittel zum Separieren der Zeichen in einzelne Zeichen, basierend auf einem Histogramm, das gebildet wird unter Verwendung von Dichtewerten der Pixel an den zum Zeichenbereich anwendbaren Positionen.
  11. Vorrichtung nach Anspruch 8, wobei das Bestimmen eines Separierungspunktes basiert auf einer Differenz zwischen dem Dichtewert des Zeichenbereichs, erhalten durch das erste Mittel, und dem Dichtewert des durch das zweite Mittel erhaltenen Bereichs, wobei ein Schwellenwert zum Bestimmen eines Separierungspunktes variiert wird, basierend auf einem Auflösungswert eines eingegebenen Zeichenbildes.
  12. Zeichenerkennungsvorrichtung, aufweisend: einen Scanner zum Aufnehmen von Zeichenbildern durch optisches Einlesen von Eingabedokumentbildern; einen ersten Bildspeicher zum Speichern der Zeichenbilder, die durch den Scanner aufgenommen worden sind; eine erste Binärisierungseinheit zum Binärisieren der im ersten Bildspeicher gespeicherten Zeichenbilder, um ein erstes binärisiertes Bild zu erzeugen; einen zweiten Bildspeicher zum Speichern des ersten binärisierten Bildes, das erstellt worden ist durch die erste Binärisierungseinheit; eine Verbindungszeichenschätzeinheit zum Abschätzen, ob dort verbundene Zeichen gemäß des ersten binärisierten im zweiten Bildspeicher gespeicherten Bildes vorhanden sind. eine zweite Binärisierungseinheit zum Erstellen eines zweiten binärisierten Bildes durch Überführen der dunklen/schwarzen Pixel in helle/weiße Pixel, wenn die Verbindungszeichenschätzeinheit viele verbundene Zeichen schätzt, in der Dichtewerte nur von den Pixeln der Zeichenbilder genommen werden an einer Position, die äquivalent ist zu der der dunklen/schwarzen Pixel des ersten binärisierten Bildes, basierend auf den Zeichenbildern, die gespeichert sind im ersten Bildspeicher, und das erste binärisierte Bild gespeichert ist im zweiten Bildspeicher und ein Histogramm registriert ist, und ein Schwellenwert erhalten wird, basierend auf dem registrierten Histogramm, außerhalb der dunklen/schwarzen Pixel des ersten binärisierten Bildes, dessen Dichtewert an den gleichen Koordinaten der Zei chenbilder höher ist als der erhaltene Schwellenwert; einen dritten Bildspeicher zum Speichern des zweiten binärisierten Bildes, das hergestellt worden ist durch die zweite Binärisierungseinheit; eine Zeichenseparierungseinheit, um eine verbundene Zeichenposition zu bestimmen, basierend auf den Zeichenbildern, die im ersten Bildspeicher gespeichert sind, wobei das erste binärisierte Bild im zweiten Bildspeicher gespeichert ist und das zweite binärisierte Bild im dritten Bildspeicher gespeichert ist, und zum Separieren des verbundenen Zeichenbildes in einzelne Zeichen gemäß der bestimmten Zeichenpositionsinformation; und eine Erkennungseinheit zum Erfassen der einzelnen Zeichen, die separiert sind durch die Zeichenseparierungseinheit.
DE60024535T 1999-07-30 2000-06-06 Verfahren zur Zeichentrennung Expired - Lifetime DE60024535T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP21715199A JP4392907B2 (ja) 1999-07-30 1999-07-30 文字切出し方法
JP21715199 1999-07-30

Publications (2)

Publication Number Publication Date
DE60024535D1 DE60024535D1 (de) 2006-01-12
DE60024535T2 true DE60024535T2 (de) 2006-08-17

Family

ID=16699666

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60024535T Expired - Lifetime DE60024535T2 (de) 1999-07-30 2000-06-06 Verfahren zur Zeichentrennung

Country Status (5)

Country Link
EP (1) EP1073002B1 (de)
JP (1) JP4392907B2 (de)
KR (1) KR100383858B1 (de)
CN (1) CN1192324C (de)
DE (1) DE60024535T2 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100872983B1 (ko) * 2001-12-22 2008-12-08 주식회사 포스코 슬래브의 문자인식 및 확인용 장치
EP1398726B1 (de) * 2002-09-11 2008-07-30 Samsung Electronics Co., Ltd. Vorrichtung und Verfahren zur Erkennung von Zeichenbildern auf einem Bildschirm
JP3950777B2 (ja) * 2002-09-30 2007-08-01 キヤノン株式会社 画像処理方法、画像処理装置および画像処理プログラム
KR100977713B1 (ko) * 2003-03-15 2010-08-24 삼성전자주식회사 영상신호의 글자 인식을 위한 전처리 장치 및 방법
US8723964B2 (en) 2003-09-12 2014-05-13 Sony Corporation Method and device for communication using an optical sensor
CN1310182C (zh) * 2003-11-28 2007-04-11 佳能株式会社 用于增强文档图像和字符识别的方法和装置
JP4423076B2 (ja) * 2004-03-22 2010-03-03 キヤノン株式会社 認識対象切出し装置および方法
CN100369049C (zh) * 2005-02-18 2008-02-13 富士通株式会社 灰度字符的精确分割装置及方法
JP4658848B2 (ja) * 2006-03-30 2011-03-23 日本電産サンキョー株式会社 文字列認識方法及び文字列認識装置
EP2348487A3 (de) 2010-01-22 2017-09-13 Samsung Electronics Co., Ltd. Verfahren und Vorrichtung zur Erzeugung einer animierten Mitteilung
CN103034855A (zh) * 2012-12-05 2013-04-10 曙光信息产业(北京)有限公司 在图像中识别字符区域的方法
CN106446896B (zh) * 2015-08-04 2020-02-18 阿里巴巴集团控股有限公司 一种字符分割方法、装置及电子设备
JP7030462B2 (ja) * 2017-09-21 2022-03-07 キヤノン株式会社 スキャン画像から文字情報を取得する画像処理装置、画像処理方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634256B2 (ja) * 1987-03-04 1994-05-02 シャープ株式会社 接触文字切出し方法
JP2615153B2 (ja) * 1988-08-24 1997-05-28 富士通株式会社 切断分離を伴う文字認識方法
JP2865697B2 (ja) * 1989-03-20 1999-03-08 株式会社日立製作所 エクスチャ分離方法
KR930014166A (ko) * 1991-12-30 1993-07-22 이헌조 문서인식장치의 개별문자 절출방법
JPH07200739A (ja) * 1994-01-07 1995-08-04 Nippon Steel Corp マーキング文字認識方法
JPH08129611A (ja) * 1994-10-31 1996-05-21 Sony Corp 文字識別方法及び検査基準文字登録方法
JP3805005B2 (ja) * 1994-11-09 2006-08-02 キヤノン株式会社 画像処理装置及び光学的文字認識装置及びそれらの方法
KR0186172B1 (ko) * 1995-12-06 1999-05-15 구자홍 문자 인식장치의 접촉문자 분리 및 특징 추출방법
KR19980068924A (ko) * 1997-02-25 1998-10-26 구자홍 선과 겹친문자 영상복원을 이용한 필기체 인식 방법
KR19990056813A (ko) * 1997-12-29 1999-07-15 구자홍 개별문자의 가로/세로비를 이용한 접촉문자 분리방법

Also Published As

Publication number Publication date
JP2001043313A (ja) 2001-02-16
JP4392907B2 (ja) 2010-01-06
EP1073002B1 (de) 2005-12-07
KR20010015025A (ko) 2001-02-26
EP1073002A2 (de) 2001-01-31
CN1192324C (zh) 2005-03-09
DE60024535D1 (de) 2006-01-12
CN1291756A (zh) 2001-04-18
KR100383858B1 (ko) 2003-05-14
EP1073002A3 (de) 2003-10-29

Similar Documents

Publication Publication Date Title
DE68915950T2 (de) Verfahren zum Trennen von Zeichen.
DE69333694T2 (de) Verfahren und Anordnung zur Bildverarbeitung
DE19814075B4 (de) Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Beseitigen von Randfehlern
DE3716787C2 (de)
DE3633743C2 (de)
DE60129872T2 (de) Verfahren zur Extrahierung von Titeln aus numerischen Bildern
DE69723220T2 (de) Gerät und Verfahren zur Extrahierung von Tabellengeraden innerhalb normaler Dokumentbilder
DE60303202T2 (de) System und verfahren zum identifizieren und extrahieren von zeichenketten aus erfassten bilddaten
DE60132315T2 (de) Verbessertes verfahren zur bildbinarisierung
DE3854996T2 (de) Anlage und Verfahren zur Zellbildverarbeitung
DE3881392T2 (de) System und Verfahren für automatische Segmentierung.
DE69728482T2 (de) Zweidimensionaler Codeleser
DE69937530T2 (de) Verfahren zum automatischen Klassifizieren von Bildern nach Ereignissen
DE602005001785T2 (de) Verfahren und Vorrichtung zur Textdetektion in Video
DE4311172C2 (de) Verfahren und Einrichtung zum Identifizieren eines Schrägenwinkels eines Vorlagenbildes
DE2858688C2 (de)
DE3851173T2 (de) Verfahren und Gerät zur Erkennung von Halbtonbildmustern.
DE10317917B4 (de) System und Verfahren zum Umgrenzen und Klassifizieren von Regionen innerhalb einer graphischen Abbildung
DE60024535T2 (de) Verfahren zur Zeichentrennung
DE3786472T2 (de) Vorrichtung für optische Zeichenerkennung.
DE69729368T2 (de) Bildprozessor, Gerät und Verfahren zur Bildverarbeitung
DE3425449A1 (de) Verfahren und vorrichtung zur alphanumerischen handschriftenerkennung
DE19956158A1 (de) Bild-Binärisierungsverfahren auf Bereichsbasis
DE69728724T2 (de) Bildbereichs-Erkennungsverfahren und Bildverarbeitungsvorrichtung
EP0402868B1 (de) Verfahren zur Erkennung von vorab lokalisierten, in digitalen Grauwertbildern vorliegenden Zeichen, insbesondere zum Erkennen von in Metalloberflächen eingeschlagenen Zeichen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition