DE3883578T2 - Verfahren und Gerät zur Erkennung von gedruckten Zeichen auf einem Beleg. - Google Patents

Verfahren und Gerät zur Erkennung von gedruckten Zeichen auf einem Beleg.

Info

Publication number
DE3883578T2
DE3883578T2 DE88105799T DE3883578T DE3883578T2 DE 3883578 T2 DE3883578 T2 DE 3883578T2 DE 88105799 T DE88105799 T DE 88105799T DE 3883578 T DE3883578 T DE 3883578T DE 3883578 T2 DE3883578 T2 DE 3883578T2
Authority
DE
Germany
Prior art keywords
rectangles
rectangle
list
character
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE88105799T
Other languages
English (en)
Other versions
DE3883578D1 (de
Inventor
Takashi Mano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Application granted granted Critical
Publication of DE3883578D1 publication Critical patent/DE3883578D1/de
Publication of DE3883578T2 publication Critical patent/DE3883578T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1475Inclination or skew detection or correction of characters or of image to be recognised
    • G06V30/1478Inclination or skew detection or correction of characters or of image to be recognised of characters or characters lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Input (AREA)

Description

    Bereich der Erfindung
  • Die Erfindung bezieht sich auf ein Verfahren und Gerät zur Erkennung von gedruckten Zeichen auf einem Beleg, welcher, bezogen auf einen Bildabtaster, schräggestellt wird.
  • Stand der Technik
  • Die optische Zeichenerkennungstechnologie (OCR) wurde verwendet, um Zeichenbilder auf einem Beleg zu erkennen. Die OCR- Technologie enthält Schritte zum Abtasten des Bildes von dem Beleg, indem die analogen Signale verglichen werden, die durch den Abtastvorgang mit einem Schwellenwert erzeugt wurden, um binäre Signale zu erzeugen, die das Bild des Belegs darstellen, die binären Signale in einem Bildpuffer gespeichert, die Zeichenbilder segmentiert werden, d. h. das Bild des Belegs in einzelne, deutliche Bilder von jedem Zeichen zu brechen, die segmentierten Zeichenbilder zu erkennen und die Ergebnisse der Erkennung aus zugeben.
  • Die Segmentierung enthält einen Schritt, um die Zeichenreihen voneinander zu trennen. Fig. 1B, auf die hier Bezug genommen wird, zeigt das Bild des Belegs 201, der in dem Bildpuffer 202 gespeichert wird. Die Fig. 1B zeigt, daß der Beleg 201 durch einen Abtaster abgetastet wurde, ohne daß der Beleg 201, bezogen auf den Abtaster, schräggestellt wurde. Um die Zeichenreihen voneinander zu trennen, wurde eine Schattenprojektionstechnologie verwendet. Die Schatten aller Zeichen werden projiziert, um Projektionen 203 und 204 zu erzeugen. Die Projektionen 203 und 204 stellen die Positionen der ersten und zweiten Zeichenreihen in dem Bildpuffer in der y-Achse dar. Ein Problem tritt auf, wenn der Beleg, bezogen auf den Abtaster, schräggestellt oder geneigt wird, wie Fig. 1C zeigt. Der schräggestellte Beleg 205 erzeugt eine lange Projektion 207, in der die ersten und zweiten Zeichenreihen enthalten sind. In diesem Fall werden die Zeichenbilder in der ersten Zeichenreihe nicht von den Zeichenbilder der zweiten Zeichenreihe getrennt, wobei zwei Zeichenreihen als eine einzelne Reihe behandelt werden, so daß die Zeichen in beiden Reihen untereinander vermischt werden und in einer einzelnen Zeichenreihe von einem Ausgabeausdruck ausgedruckt werden unter Angabe der Ergebnisse der OCR des Belegs 205. Um die Trennung der Zeichenreihen zu gewährleisten, beträgt der maximale Schrägungswinkel für einen Standard A4 Beleg etwa 1 Grad. Um die Trennung der Zeichenreihen bei größerer Schrägstellung durchzuführen, bietet die japanische Patentanmeldung 56-204636 eine Lösung an, nach der die Zeichenreihen in mehrere Blöcke 209 getrennt werden, wie durch senkrecht gestrichelte Linien 206 in Fig. 1C gezeigt wird, und eine Blockprojektion, z. B. 208, wird für jeden Block erzeugt, und die Segmentierung der Zeichen eines Blockes 209 erfolgt gemäß der Blockprojektion 208. Eine Kontinuität von einem Block 209 zu dem nächsten Block 210 wird erkannt, um die Zeichen einer Zeichenreihe zu erkennen. Obwohl die Patentanmeldung 56-204636 das Problem ziemlich verbessert, ist ein kompliziertes Verfahren erforderlich, um die Kontinuität der Blöcke herauszufinden. Ein weiteres Problem, das in der Technologie enthalten ist, bei der die Projektionen verwendet werden, ist, daß die Technologie nicht erfolgreich arbeitet, wenn die Zeichen und eine Fotografie in horizontaler Richtung des Belegs vermischt werden.
  • R. L. Hoffman und J. W. McCullough, Segmentation Methods for Recognition of Machine-Printed Characters, IBM Journal of Research and Development, vol. 15 (1971), 153-165, beschreibt einen Algorithmus zur Trennung von sich berührenden Zeichen. Abgetastete Zeichen werden auf-ihre vertikale Dichte geprüft (d. h. Anzahl von schwarzen Bildelementen in jeder vertikalen Zeile), und Zeilen mit niedriger Dichte werden als Grenzen der Zeichen ausgewählt. Daher unterscheidet sich das Verfahren in dem Artikel offensichtlich von dem der vorliegenden Erfindung.
  • K. Y. Wong, R. G. Casey, und F.M. Wahl, Document Analysis System, IBM Journal of Research and Development, vol. 26 (1982), 647-656, beschreibt ein allgemeines Konzept eines Bürosystems zur Beleganalyse. Dies ist eine Beschreibung einer Segmentierung unter Verwendung des oben beschriebenen Projektionsverfahrens. Das Konzept des Artikels unterscheidet sich offensichtlich von der vorliegenden Erfindung.
  • R. G. Casey und G. Nagy, Recursive Segmentation an Classification of Composite Character Patterns, Proceedings of 6th International Conference on Pattern Recognition (1982) beschreibt ein Segmentierungsverfahren, in dem mehrere Zeichen verbunden werden. Als erster Schritt der Segmentierung wird ein Verfahren vorgestellt, das in dem Artikel von Wong verwendet wird. Der beschriebene Algorithmus wird verwendet, wenn der segmentierte Block als einer mit verbundenen Zeichen angesehen wird. Das Konzept des Artikels unterscheidet sich offensichtlich von dem der vorliegenden Erfindung.
  • R. G. Casey und C. R. Jih, A Processor-Based OCR System, IBM Journal of Research and Development, vol. 27 (1983), 386-399 beschreibt ein allgemeines Verfahren für OCR-Systeme. Der Algorithmus ist, daß Zeichen nach Erkennung der Grundzeile segmentiert werden. Auch wird hier der Entscheidungsbaum- Algorithmus beschrieben. Der Artikel beschreibt nicht das Konzept der vorliegenden Erfindung.
  • R. G. Casey, S. K. Chai, und K. Y. Wong, Unsupervised Construction of Decision Networks for Pattern Classification, Proceedings of IEEE 7th International Conference on Pattern Recognition (1984) beschreibt einen Erkennungsalgorithmus und keine Segmentierung.
  • Zusammenfassung der Erfindung
  • Gegenstand der vorliegenden Erfindung ist es, ein Verfahren und Gerät zur Erkennung von Zeichen und Symbolen auf Belegen zu liefern, welche, bezogen auf einen Bildabtaster schräggestellt oder geneigt wurden. Dieser Gegenstand wird mit dem Verfahren erreicht, das in Anspruch 1 festgelegt ist, und dem Gerät, das in Anspruch 6 festgelegt ist.
  • Ein Beleg wird mittels eines Bildabtasters abgetastet und die Bilddaten, die das Bild des Belegs darstellen, werden in Bildspeichermitteln gespeichert. Rechtecke, die die Außengrenzen jedes Bildes von mehreren Zeichenreihen in den Bildspeichermitteln berühren und umgeben, werden erzeugt und die Positionen der vier Kanten des Rechtecks in XY-Koordinaten der Bildspeichermittel werden erkannt. Die Größe eines Rechtecks wird auf der Basis der erkannten Kantenpositionen berechnet und die Größe jedes Rechtecks wird mit einem, für die zu erkennenden Zeichen und Symbole angenommenen Größenbereich verglichen. Die Positionen der Rechtecke, die in den Größenbereich fallen, werden in einer ersten Tabelle wie die Positionsdaten gespeichert, wobei die Positionsdaten von den Rechtecken der Zeichen und Symbole über den Mehrzeichenreihen in der ersten Liste, in der Reihenfolge von einem Rechteck an einem Ende zu einem Rechteck am anderen Ende entlang der Richtung der y-Achse der XY-Koordinaten, angeordnet sind.
  • Die Positionsdaten der Rechtecke in der ersten Liste werden aufeinanderfolgend in der angeordneten Reihenfolge abgerufen, um die Größe jedes Rechtecks zu erkennen, um eine Durchschnittsgröße aller, in der ersten Liste gespeicherter Rechtecke zu festzulegen. Wieder werden die Positionsdaten der Rechtecke in der ersten Liste aufeinanderfolgend in der angeordneten Reihenfolge abgerufen, um ein erstes Rechteck herauszufinden, das in einen Größenbereich fällt, der, basierend auf dem Durchschnittsgröße, festgelegt wurde. Die Abrufoperationen werden fortgesetzt, um ein zweites Rechteck herauszufinden, dessen untere linke Ecke innerhalb der zuvor festgelegten Entfernungen in den X- und Y-Richtungen von einer unteren linken Ecke des ersten Rechtecks liegt. Die Abrufoperationen werden fortgesetzt, um ein drittes Rechteck herauszufinden, dessen untere linke Ecke innerhalb der zuvor festgelegten Entfernungen in den X- und Y-Richtungen von der unteren linken Ecke des zweiten Rechtecks liegt. Die Operationen werden fortgesetzt, um eine zuvor festgelegte Anzahl von Rechtecken in einer Zeichenreihe herauszufinden, die die Bedingung erfüllt. Wenn die zuvor festgelegte Anzahl von Rechtecken ermittelt wurde, wird eine Schrägstellung der Zeichenreihe in den XY- Koordinaten auf der Basis der Positionen der unteren linken Ecke dieser Rechtecke berechnet und ihre ermittelte Schräge wird als Schrägstellung des Belegs behandelt.
  • Wieder werden die Positionsdaten der Rechtecke in der ersten Reihen aufeinanderfolgend in der angeordneten Reihenfolge abgerufen, und die Position der unteren Ecke jedes Rechtecks in der y-Achse wird durch die obere Schrägstellung des Belegs korrigiert. Die korrigierte Portion wird hier nachstehend als virtuelle Position des Rechtecks bezeichnet. Unter den virtuellen Positionen, die während der Abrufoperationen berechnet werden, wird eine virtuelle Position, die sich auf dem Beleg in der höchsten Position befindet, auf dem Beleg erkannt und die erkannte, höchste virtuelle Position wird in einem Register gespeichert.
  • Die Positionsdaten der Rechtecke in der ersten Liste werden wie der aufeinanderfolgend in der angeordneten Reihenfolge abgerufen, und die virtuelle Position jedes Rechtecks wird wieder berechnet. Ein Vergleich erfolgt, um zu sehen, ob die virtuelle Position jedes Rechtecks in einen zuvor festgelegten Bereich der höchsten Position fällt, die in dem Register gespeichert ist. Dieser Bereich wird gewählt, um das Rechteck von Zeichen zu erfassen, wie kleinen Zeichen "p", "y", mit einem Schenkel, der sich unter die Grundzeile des Zeichens erstreckt. Während der Abruf- und Vergleichsoperationen werden die Positionsdaten des Rechtecks, das in den Bereich fällt, von der ersten Liste in eine zweite übertragen und am Ende der Operationen wurden die Positionsdaten des Rechtecks in der ersten Zeichenreihe in der zweiten Liste in der Reihenfolge von dem Rechteck des ersten Zeichens zu dem letzten Rechteck des letzten Zeichens gespeichert.
  • Eine Erkennungseinheit ruft aufeinanderfolgend die Positionsdaten der in der zweiten Liste gespeicherten Rechtecke ab, liest die Bilddaten in den Bildspeichermitteln, die von dem Rechteck umgeben sind, das von den Positionsdaten spezifiziert wurde und erkennt die Bilddaten.
  • Damit die Erfindung ganz verstanden werden kann, wird nun ein bevorzugtes Ausführungsbeispiel mit Bezug auf die begleitenden Zeichnungen beschrieben
  • Fig. 1A zeigt das Bild des schräggestellten Belegs, der in dem Bildpuffer 23 gespeichert wird, welcher gemäß der vorliegenden Erfindung erkannt wird.
  • Fig. 1B und 1C zeigen eine frühere Technologie zur Segmentierung von Zeichenbildern auf dem Beleg.
  • Fig. 2 zeigt ein Blockdiagramm der Schaltkreiskonfiguration zur Durchführung des Verfahrens der Erfindung.
  • Fig. 3 zeigt ein Flußdiagramm des Verfahrens der Erfindung.
  • Fig. 4 zeigt die Erkennung der Positionen von den vier Kanten des Rechtecks, die die äußeren Grenzen des Zeichens A berühren.
  • Fig. 5A, 5B und 5C zeigen die Erkennung des Rechtecks, die untere linke Ecke, die innerhalb einer zuvor festgelegten Entfernung in den x- und y-Achsen von der unteren linken Ecke des vorhergehenden Rechtecks liegt.
  • Fig. 6 zeigt die Erzeugung der virtuellen Positionen des Rechtecks. 1 . . . Beleg
  • 20 . . . Steuereinheit
  • 21 . . . Abtaster
  • 22 . . . Schwellenschaltkreis
  • 23 . . . Bildpuffer
  • 24 . . . Zeichenposition Erkennungseinheit
  • 25 . . . Tabellenspeicher
  • 26 . . . Einheit zur Schrägstellungsberechnung
  • 27 . . . Einheit zur Einreihenauswahl
  • 31 . . . Erkennungseinheit
  • 32 . . . Ausgabepuffer
  • Beschreibung des Ausführungsbeispiels
  • In Fig. IA wird ein Beleg 1 gezeigt, der mehrere Zeichenreihen enthält. Zur Vereinfachung der Zeichnung werden nur drei Zeichenreihen gezeigt. Außerdem sind die Zwischenräume sowohl in horizontaler Richtung als auch in vertikaler Richtung auf dem Beleg 1 größer als die auf dem tatsächlichen Beleg, was zum besseren Verständnis der Erfindung dient. Deshalb kann jede Zeichenreihe mehr Zeichen enthalten, als in Fig. 1A gezeigt.
  • Der Beleg 1 wird geneigt oder schräggestellt durch einen Schrägungswinkel in den XY-Koordinaten dargestellt.
  • Der Beleg 1 wird, wie in Fig. 2 gezeigt, von einem Belegabtaster 21 abgetastet. Der Belegabtaster 21 ist mit einer Lichtquelle, einem optischen Sensorfeld und Mitteln zur Bewegung des Belegs 1 bezogen auf das optische Sensorfeld versehen. Das optische Sensorfeld enthält mehrere optische Sensorelemente, die ladungsgekoppelten Schaltungen, die in einer Dichte oder Auflösung von 240 Bildelementen/Zoll. 2016 Sensorelemente, die in einer Reihe in horizontaler Richtung angeordnet sind, sind z. B. erforderlich, um einen Standard A4 Beleg mit einer Breite von 210 mm abzutasten. Jedes Element definiert ein Bildelement (pel). Das Licht von der Lichtquelle wird von dem Beleg 1 reflektiert und das reflektierte Licht, das ein Bild des Belegs 1 repräsentiert, wird von dem optischen Sensorfeld erkannt, welches elektrische Analogsignale von den Bildelementen erzeugt. Die Analogsignale werden an einen Schwellenschaltkreis 22 geliefert, der in Fig. 2 abgebildet ist, welcher jedes der Analogsignale mit einem Schwellenpegel vergleicht. Wenn das Analogsignal den Schwellenpegel überschreitet, erzeugt der Schwellenschaltkreis 22 das binäre "0" Signal, das einen Weißpegel darstellt. Wenn das Analogsignal den Schwellenpegel nicht überschreitet, erzeugt der Schwellenschaltkreis 22 das binäre "1" Signal, das einen Schwarzpegel repräsentiert. Die optischen Sensorelemente, die in einer Zeile in horizontaler Richtung angeordnet sind, definieren eine Abtastzeile, die in Fig. 1A abgebildet ist. Da der Beleg 1 im Verhältnis zu den optischen Sensorelementen bewegt wird, bewegt sich die Abtastlinie 2 in der Y-Richtung auf dem Beleg 1 nach unten, und die Bilddaten auf dem Beleg 1 werden schrittweise in einem Bildpuffer 23 gespeichert.
  • Eine Steuereinheit 20 ist in Fig. 2 abgebildet. Die Steuereinheit 20 steuert die Operationen aller Blöcke in Fig. 2. Zur Vereinfachung der Zeichnungen werden die Verbindungen zwischen der Steuereinheit 20 und den Blöcken jedoch nicht in Fig. 2 gezeigt.
  • Die Verarbeitungsoperationen gemäß der vorliegenden Erfindung werden im allgemeinen wie folgt gegliedert:
  • A) Abtasten und Speichern des Bilds von dem Beleg
  • B) Segmentierung der Zeichenbilder und Erkennung deren Position, um eine erste Liste in einem Tabellenspeicher 25 zu bilden
  • C) Erkennung des Schrägungswinkels des Belegs
  • D) Aufzeichnung der Inhalte der ersten Liste in dem Tabellenspeicher 25 und Zusammenstellung einer zweiten Liste in einem Tabellenspeicher 30
  • E) Erkennung des Zeichenbilds, das durch die Inhalte der zweiten Liste spezifiziert wird
  • Die Punkte (A) bis (E) werden nachfolgend ausführlich beschrieben.
  • (A) Abtasten und Speichern des Bilds von dem Beleg
  • Es wird davon ausgegangen, daß der Bildpuffer 23 eine kleine Speicherkapazität 23A zur Speicherung eines Teils des schräggestellten Belegs 1 einschließlich dreier Zeichenreihen hat.
  • Die Steuereinheit 20 reagiert auf Knopfdruck des Bedieners, durch Betätigen des Schalters des Abtasters oder auf die Beendigung der Verarbeitungen von Schritt (e), die hier nachstehend beschrieben werden, um den Speichervorgang des Bildpuffers 23 auszulösen. Da der in Fig. 1A gezeigte Teil der Anfangsteil des Belegs 1 ist, wird durch die Betätigung des Schalters die Steuereinheit 20 veranlaßt, mit den Operationen zu beginnen. Die Steuereinheit 20 steuert den Abtaster 21, den Schwellenschaltkreis 22 und den Bildpuffer 23, mit den Abtastoperationen zu beginnen, die elektrischen Signale von dem Abtaster 21 an den Schwellenschaltkreis 22 zu liefern, und die binären Signale, die die Bilddaten repräsentieren, von dem Schwellenschaltkreis 22 in den Bildpuffer 23 zu speichern. Die Steuereinheit 20 überwacht die Abtast- und Speicheroperationen, stoppt diese und beginnt mit den nächsten Operationen (B), während der Bildpuffer 23 mit den Bilddaten gefüllt wird. Die Operationen werden als Blöcke 301 und 302 in Fig. 3 gezeigt.
  • (B) Segmentierung der Zeichenbilder und Erkennung deren Position, um eine erste Liste in einem Tabellenspeicher 25 zu bilden
  • Die Steuereinheit 20 aktiviert eine Zeichenposition der Erkennungseinheit 24. Sie greift auf den Bildspeicher 23 zu, um die Daten der horizontalen Bitreihen in der Reihenfolge von oben nach unten abzurufen. Zweck der Operationen ist es (i) jedes Zeichenbild zu aktivieren, d. h. das abgetastete Bild des Belegs in einzelne, deutliche Bilder von jedem Zeichen zu segmentieren durch Erzeugen von Rechtecken, wobei jedes von ihnen jedes Zeichenbild umgibt, (ii) die Positionen der Rechtecke in der XY-Koordinate des Bildpuffers 23 zu erkennen und (iii) die Daten zu speichern, die die Positionen der Rechtecke in einer Tabelle 25 (Fig. 2) zur Bildung einer ersten Liste darstellen. Die Operationen (B) werden als Block 303 in Fig. 3 gezeigt. Die einzelnen Beschreibungen der Punkte (i), (ii) und (iii) folgen nachstehend.
  • i) Die horizontalen Datenbitzeilen des Bildpuffers 23 werden aufeinanderfolgend in der Reihenfolge von oben nach unten durch die Erkennungseinheit 24 der Zeichenposition abgerufen. Die Erkennungseinheit 24 der Zeichenposition bestimmt das Vorhandensein von den Bits 1, d. h. Schwarzbildelemente, in jeder Zeile, erzeugt ein Rechteck, welches die äußere Kante des Musters der Schwarzbildelemente berührt und berechnet die Position des Rechtecks in der XY-Koordinate. Es ist zu bemerken, daß der Beleg 1 schwarzverschmierte Blöcke, lange Zeilen, eine Fotografie, usw. enthalten kann, die kleiner oder breiter als die angenommene Größe der Zeichen und Symbole sein können, die von der Einheit zur Erkennung von Zeichen 31 erkannt werden. Die Mittel zur Erkennung der Zeichenposition 24 erkennt diese Gegenstände und ignoriert diese.
  • Ausführlicher in Fig. IA und 4 beschrieben, entspricht die Abtastzeile 2 der Datenbitzeile des Bildpuffers 23. Wenn die Bitzeile 2A an die Mittel zur Erkennung der Zeichenposition 24 geliefert werden, erkennen diese das Schwarzbildelement von dem oberen Teil des Zeichens A. Während die nachfolgende Bitzeilengruppe 41 an das Gerät zur Erkennung der Zeichenposition 24 geliefert wird, erzeugt sie ein Rechteck 42. Das Gerät zur Erkennung der Zeichenposition bestimmt die Kontinuität der Schwarzbildelemente oder des Bildes in den gelieferten Bildzeilen und entwickelt das Rechteck, wenn es die Kontinuität erkennt. In Fig. 4 wird das Rechteck, infolge der vorhandenen Kontinuität der Schwarzbildelemente in der Bitzeilengruppe 45 und 46 schrittweise entwickelt, wie 43 und 44 zeigen. Die Bitzeile 2C ist die letzte Bitzeile der Bitzeilengruppe 46.
  • Das Gerät zur Erkennung der Zeichenposition 24 erkennt den Mangel an Kontinuität des Schwarzbildelements in der y-Richtung durch Bestimmung der Bitzeile 2C+1, d. h. die nächste Bitzeile zu der Bitzeile 2C. Auf gleiche Weise erkennt das Gerät zur Erkennung der Zeichenposition 24 den Mangel von Kontinuität in der x-Richtung.
  • Dann erkennt das Gerät zur Erkennung der Zeichenposition 24 das Ende der Schwarzbildelemente in der x-Richtung in der Bitzeile 2B und das Ende der Schwarzbildelemente in der y-Richtung in der Bitzeile 2C und beendet oder fixiert das Rechteck, wobei das Rechteck 44, das die äußeren Kanten der kontinuierlichen Schwarzbildelementengruppe des Zeichens A berührt, erzeugt wird.
  • ii) Während das Gerät zur Erkennung der Zeichenposition 24 das Rechteck 44 vervollständigt, berechnet es die Folgepositionen des Rechtecks 44, das das Zeichen "A" in den XY-Koordinaten umgibt, wie Fig. 4 zeigt.
  • YTA . . . Position der oberen Kante des Rechtecks von dem Zeichen A in der y-Achse in dem Bildspeicher 23
  • YBA . . . Position der unteren Kante des Rechtecks von dem Zeichen A in der y-Achse in dem Bildspeicher 23
  • XLA . . . Position der linken Kante des Rechtecks von dem Zeichen A in der x-Achse in dem Bildspeicher 23
  • XRA . . . Position der rechten Kante des Rechtecks von dem Zeichen A in der x-Achse in dem Bildspeicher 23
  • Wobei das erste Zeichen die x- oder y-Achse darstellt, das zweite Zeichen die obere, untere, linke oder rechte Kante des Rechtecks darstellt und das dritte Zeichen das Zeichen repräsentiert, das von dem kompletten Rechteck umgeben wird.
  • Es ist zu bemerken, daß das Gerät zur Erkennung der Zeichenposition 24 eine Erkennung nicht ausführt, während die kontinuierliche Schwarzbildelementengruppe das Zeichen A darstellt. Das Gerät zur Erkennung der Zeichenposition 24 erkennt lediglich die Rechtecke, die jede der kontinuierlichen Schwarzbildelementengruppe berührt sowie deren Position und Größe in den XY-Koordinaten.
  • Als nächstes bestimmt das Gerät zur Erkennung der Zeichenposition 24, ob die Größen in den x- und y-Richtungen des Rechtecks in einen Bereich fallen, der für die angenommenen Größen der zu erkennenden Zeichen und Symbole festgelegt wurde. Wie zuvor beschrieben, ist der Zweck der Bestimmung der Größe des vervollständigten Rechtecks den schwarzen Block, die lange Zeile, die Fotografiegrößen zu ignorieren, die außerhalb der angenommenen Größen der Zeichen und Symbole liegen. Während das Gerät zur Erkennung der Zeichenposition 24 das Rechteck aus den Größen herausfindet, die außerhalb der angenommenen Größen liegen, ignoriert das Gerät zur Erkennung der Zeichenposition 24 das Rechteck ohne Speicherung der Positionsdaten von dem Rechteck in dem nächsten Schritt (iii).
  • iii) Das Gerät zur Erkennung der Zeichenposition 24 speichert die Positionsdaten YTA, YBA, XLA und XRA als Eingabe, d. h. als Adresse 2, von einem Tabellenspeicher 25, um die erste Liste zu bilden, wie Tabelle 1 zeigt. TABELLE 1: ERSTE LISTE ADRESSE OBERE KANTE UNTERE KANTE LINKE KANTE RECHTE KANTE ZEIGER
  • Die Eingabeadresse 1 ist die Anfangseingabe, wenn der Tabellenzugriff gestartet wird. Das Gerät 24 speichert die Adresse 2 als Zeiger der Eingabe 1, die angibt, daß die nächste Eingabe, auf die zugegriffen wird, Eingabe 2 ist. Der Wert 0 des Zeigers der Eingabe 2 stellt dar, daß die Eingabe 2 die letzte Eingabe ist, so daß die Tabellenzugriffoperationen beendet werden.
  • Auf die gleiche Weise vervollständigt das Gerät zur Erkennung der Zeichenposition 24 ein Rechteck 45, das das Zeichen "r" umgibt, wie Fig. 1A zeigt und berechnet die Positionsdaten YTr, YBr, XLr und XRr. Die untere Kante des Rechtecks 45 liegt auf einer Bitzeile 2D. Das Gerät zur Erkennung der Zeichenposition 24 speichert die Daten YTr, YBr, XLr und XRr in einer Eingabeadresse 3, wie unten abgebildet, vergleicht die XLr mit den XLa, um zu bestimmen, welches der Rechtecke dem Wert X=0 am nächsten liegt. In diesem Fall, da das Rechteck des Zeichens A auf der linken Seite des Rechtecks des Zeichens r liegt, speichert das Gerät zur Erkennung der Zeichenposition 24 die Adresse 3 als Zeiger in der Eingabe 2. TABELLE 2: ERSTE LISTE ADRESSE OBERE KANTE UNTERE KANTE LINKE KANTE RECHTE KANTE ZEIGER
  • Die Inhalte der ersten Liste in dem Tabellenspeicher 25 sind, wenn die Zeichen A, r, B und C verarbeitet werden, wie folgt TABELLE 3: ERSTE LISTE ADRESSE OBERE KANTE UNTERE KANTE LINKE KANTE RECHTE KANTE ZEIGER
  • Es ist zu bemerken, daß wenn mit dem Verfahren fortgefahren wird, die Zeiger der Eingaben gewechselt werden, um auf die Positionsdaten in der Folge von C, B, A und r zuzugreifen, d. h. in der Richtung von links nach rechts auf dem Beleg 1. D.h. die Tabelleneingabe 1 speichert den Zeiger 5, der die Eingabe 5 adressiert, speichert die Daten des Rechtecks des Zeichens C und der Zeiger 4, der die Eingabe 4 adressiert, speichert die Positionsdaten des Rechtecks von dem Zeichen B und der Zeiger 2, der die Eingabe 2 adressiert, speichert die Positionsdaten des Rechtecks von dem A und den Zeiger 3, der die Eingabe 3 des Rechtecks von dem Zeichen r adressiert.
  • Es ist offensichtlich, daß, jedesmal wenn das Gerät zur Erkennung der Zeichenposition 24 ein neues Rechteck vervollständigt, das Gerät 24 die Position in der x-Achse von diesem neuen Rechteck mit den Positionen der x-Achsen der alten Rechtecke vergleicht, die bereits in der ersten Liste gespeichert wurden und die Zeiger der neuen und alten Rechtecke ändert, um die Zugriffsoperationen für diese zu veranlassen, die in der Reihenfolge von dem linken Ende des Rechtecks zu dem rechten Ende des Rechtecks in Richtung der x- Achse durchzuführen sind. Die Inhalte der ersten Liste in dem Tabellenspeicher 25 sind, wenn alle Rechtecke für die Zeichen- und Symbolbilder verarbeitet wurden, in der Tabelle 4 auf der folgenden Seite dargestellt. TABELLE 4: ERSTE LISTE ADRESSE OBERE KANTE UNTERE KANTE LINKE KANTE RECHTE KANTE ZEIGER Fortsetzung Tabelle 4: Erste Liste ADRESSE OBERE KANTE UNTERE KANTE LINKE KANTE RECHTE KANTE ZEIGER
  • Die Zeiger in der ersten Liste in dem Tabellenspeicher 25 geben an, daß der Anfangszugriff zu der ersten Liste bei der Eingabeadresse 1 erfolgt und der Zugriff auf die verbleibenden Eingaben in der Folge durchgeführt wird, wie in dem unteren Teil von Fig. 1A gezeigt. D.h. in der ersten Liste, die in der Tabelle 4 gezeigt wird, werden Mehrzeichendaten des Rechtecks in der Reihenfolge von dem äußersten linken Rechteck zu dem äußersten rechten Rechteck in Richtung der x-Achse der XY-Koordinaten des Bildpuffers 23 angeordnet. Die Steuereinheit 20 erkennt die Beendigung der Operationen (B) beginnt mit den nächsten Operationen (C).
  • (C) Erkennung des Schrägungswinkels des Belegs
  • In der Operation werden die Rechtecke aufgenommen, die zu irgendeinem der Zeichenreihen des Belegs 1 gehören und die Schrägstellung des Belegs 1 in den XY-Koordinaten wird erkannt.
  • Die einzelnen Operationen sind wie folgt:
  • i) Die Steuereinheit 20 aktiviert ein Gerät zur Schrägstellungsberechnung 26, das in Fig. 2 gezeigt wird.
  • ii) Das Gerät zur Schrägstellungsberechnung 26 greift auf alle Eingaben der ersten Liste (TABELLE 4) des Tabellenspeichers 25 in der durch die Zeiger festgelegten Reihenfolge zu, um die Positionsdaten abzurufen, z. B. die oberen, unteren, linken und rechten Kantenwerte jedes Rechtecks und berechnet die Größe jedes Rechtecks sowohl in der x- als auch in der y-Richtung. Und das Gerät zur Schrägstellungsberechnung 26 errechnet eine Durchschnittsgröße von allen Rechtecken. Die Operationen werden als Block 304 in Fig. 3 dargestellt.
  • In dem Fall des Beispiels ist das erste Rechteck das Rechteck des Zeichens D. Und das Gerät zur Schrägstellungsberechnung 26 fährt mit dem Zugriff auf die erste Liste fort, um ein zweites Rechteck herauszufinden, das sich auf der rechten Seite des ersten Rechtecks befindet, welches in den zugelassenen Bereich fällt und die folgenden Bedingungen (1) und (2) erfüllt:
  • Xf + X&sub1; ( Xs < Xf + X&sub2; . . . (1)
  • Yf - Y&sub1; < Ys < Yf + Y&sub2; . . . (2)
  • Diese Werte repräsentieren die Positionen und Entfernungen, die in Fig. 5A abgebildet sind.
  • Xf, Yf . . . Position der unteren linken Ecke des ersten Rechtecks 51
  • Xs, Ys . . . Position der unteren linken Ecke des zweiten Rechtecks 52
  • X&sub1; . . . Zuvor festgelegte Entfernung von Xf
  • X&sub2; . . . Zuvor festgelegte Entfernung von Xf
  • Y&sub1; . . Zuvor festgelegte Entfernung von Yf
  • Y&sub2; . . . Zuvor festgelegte Entfernung von Yf
  • Der Wert X&sub1; wird experimentell ausgewählt, um dem Fall zuvorzukommen, daß das erste Rechteck für das schmale Zeichen das schmalste ist, die "1". Der Wert X&sub2; wird experimentell ausgewählt, um dem Fall zuvorzukommen, daß das zweite Rechteck von dem ersten Rechteck doppelt so weit entfernt ist. Die Werte Y&sub1; und Y&sub2; werden experimentell ausgeführt, um dem Fall zuvorzukommen, daß der maximale Schrägstellungswinkel des Belegs 1 50 ist. Der andere Gesichtspunkt bei der Auswahl des Wert Y&sub2; ist, das Zeichen "p" zurückzuweisen, wie Fig. 5C zeigt, das eine lange Ausdehnung unter seiner Grundzeile hat, da die Schrägstellung des Belegs 1 anhand der Positionen der unteren linken Ecke der Rechtecke festgelegt wird, wie hierin angegeben.
  • Die Werte X&sub1;, X&sub2;, Y&sub1; und Y&sub2; definieren einen Bereich 53, wie in Fig. 5A, Fig. 5B und Fig. 5C gezeigt. Die Bedingungen (1) und (2) bestimmen, ob die untere linke Ecke (Xs, Ys) des zweiten Rechtecks 52 in den Bereich 53 fallen. Das zweite Rechteck 52 in Fig. 5A erfüllt die Bedingungen (1) und (2). Das zweite Rechteck 55 in Fig. 5B erfüllt nicht die Bedingungen (1) und (2). Das zweite Rechteck 57 in Fig. 5C erfüllt Bedingung (1), jedoch nicht Bedingung (2).
  • Wenn das Gerät zur Schrägstellungsberechnung 26 das zweite Rechteck herausfindet, wie im Fall von Fig. 1A das Rechteck des Zeichens C, welches die Bedingungen (1) und (2) erfüllt, speichert es die Positionsdaten von oben und links des zweiten Rechtecks in dem Register. Es ist zu bemerken, daß das Register des Geräts zur Schrägstellungsberechnung 26 nun die Positionsdaten der unteren, linke Ecke des ersten und zweiten Rechtecks speichert. Und das Gerät zur Schrägstellungsberechnung 26 fährt mit dem Zugriff auf die erste Liste (TABELLE 4) fort, um das dritte Rechteck herauszufinden, dessen untere linke Ecke in den Bereich 53 des zweiten Rechtecks fällt. Wenn es das dritte Rechteck herausfindet, in dem Fall das Rechteck des Zeichens B, speichert es die Positionsdaten von unten und links des dritten Rechtecks in dem Register. Auf diese Weise findet das Gerät zur Schrägstellungsberechnung 26 eine Reihe von Rechtecken heraus, deren untere, linke Ecke in den Bereich des vorherigen Rechtecks fallen und bestimmt, ob die Anzahl von gefundenen Rechtecken gleich mit einer zuvor bestimmten Anzahl, der 15, ist. Die Zahl wurde unter der Annahme ausgewählt, daß ein Standard-Brief in Englisch in einem Standard-Format wenigstens 15 durchschnittliche Zeichengrößen in einer Zeichenreihe enthält. Jede andere Zahl kann verwendet werden.
  • Nach Beendigung der ersten Suche von der ersten Liste, die durch Spezifizierung des Rechtecks des Zeichens D als erstes Rechteck begonnen wurde, hat das Gerät zur Schrägstellungsberechnung 26 die vier Rechtecke der Zeichen D, C, B und A herausgefunden. Da diese Zahl kleiner als 15 ist, bringt das Gerät zur Schrägstellungsberechnung 26 die in dem Register gespeicherten Daten in Grundstellung zurück und beginnt mit der zweiten Suche von der ersten Liste durch Spezifizierung des Rechtecks von dem Zeichen C als erstes Rechteck. Es ist offensichtlich, daß die dreimal wiederholte Suche, bei der als erstes Rechteck die Rechtecke der Zeichen C, B bzw. A festgelegt werden, keine 15 Rechtecke herausfindet, deren untere linke Ecke in den Bereich 53 fällt, d. h. unter die Bedingungen (1) und (2) von dem vorherigen Rechteck. Das Gerät zur Schrägstellungsberechnung 26 beginnt mit der fünften Suche, indem das Rechteck des Zeichens 1 als erstes Rechteck festgelegt wird. Es wird davon ausgegangen, daß die zweite Zeichenreihe beginnend mit Zeichen 1 des Belegs 1 in der Fig. 1A 15 durchschnittlichen Zeichengrößen enthält, obwohl nur 7 Zeichen in der Fig. IA gezeigt werden. Nach Beendigung der fünften Suche weiß das Gerät zur Schrägstellungsberechnung 26, daß die 15 Rechtecke gefunden wurden. Und die Positionsdaten, die die unteren linken Ecken der gefundenen 15 Rechtecke darstellen, wurden in dem Register gespeichert. Das Gerät zur Schrägstellungsberechnung 26 ruft die Positionsdaten in dem Register ab und erzeugt einen Schrägungswinkel von der zweiten Zeichenreihe unter Verwendung einer Fehlerquadratmethode, die in dem Stand der Technik wohl bekannt ist. Und das Gerät zur Schrägstellungsberechnung 26 behält den Schrägungswinkel zur Verwendung als Schrägungswinkel des Belegs 1 bis zur letzten Verarbeitung bei.
  • Die Operationen werden als Block 305 in Fig. 3 gezeigt. Die Steuereinheit erkennt die Beendigung der Operationen (C) und beginnt mit den nächsten Operationen (D).
  • (D) Aufzeichnung der Inhalte der ersten Liste in dem Tabellenspeicher 25 und Zusammenstellung einer zweiten Liste in einem Tabellenspeicher 30
  • Zweck zur Aufnahme der Inhalte in der ersten Liste ist es, die Rechtecke der Zeichen und Symbole herauszufinden, die zu einer Zeichenreihe zwischen allen gespeicherten Rechtecken in der ersten Liste gehören, um die Positionsdaten der Zeichen von diesen Rechtecken abzurufen und diese in einem Tabellenspeicher 30 zur Bildung einer zweiten Liste zu speichern. Die folgende, ausführliche Beschreibung bezieht sich auf die obigen Operationen zum Speichern der Positionsdaten der Rechtecke von den Zeichen D, C, B, A, die zu der ersten Zeichenreihe des Belegs 1 gehören, in dem Tabellenspeicher 30, um die zweite Liste zu bilden, wie in Fig. 1A abgebildet.
  • Die Operationen werden nachstehend ausführlich beschrieben:
  • i) Die Steuereinheit 20 aktiviert ein Gerät zur Einreihenauswahl 27, wie in Fig. 2 abgebildet. Das Gerät zur Einreihenauswahl 27 empfängt den Wert des Schrägungswinkels des Belegs 1 von dem Gerät zur Schrägstellungsberechnung 26 und speichert diesen in einem Register 28. Das Gerät zur Einreihenauswahl 27 greift auf die erste Liste (TABELLE 4) in dem Tabellenspeicher 25 zu, um schrittweise die unteren und linken Werte jedes Rechtecks in der durch die Zeiger angegebenen Reihenfolge abzurufen, d. h. in der Reihenfolge der Zeichen, die in dem unteren Teil von Fig. 1a gezeigt werden. Die ersten Werte YBD und XLD, die aus der ersten Liste abgerufen werden, stellen die Position der unteren linken Ecke des Rechtecks des Zeichens D in den XY-Koordinaten dar. Das Gerät zur Einreihenauswahl 27 führt folgende Berechnungen durch:
  • YB = (XLC·tan 0) + YBD . . . (3)
  • Der Wert YB repräsentiert eine virtuelle Position der unteren linken Ecke des Rechtecks in der y-Achse, wenn der Beleg 1 im Uhrzeigersinn gedreht wird, um den Schrägungswinkel 0 zu korrigieren, wie in Fig. 6 gezeigt. Die virtuelle Position YB wird in einem Register 29 des Geräts zur Einreihenauswahl 27 gespeichert. Als nächstes ruft das Gerät zur Einreihenauswahl 27 die Positionsdaten YB1 und XL1 von dem Rechteck des Zeichens 1 ab und erzeugt den virtuellen Wert YB für die untere linke Ecke des Rechtecks und vergleicht den YB für das Rechteck des Zeichens 1 mit dem Wert YB für das Rechteck des Zeichens D, um festzulegen, welcher der beiden Werte kleiner ist. In diesem Fall wird der YB für das Rechteck des Zeichens D ausgewählt und der Inhalt des Registers 29, d. h. der Wert YB für das Rechteck des Zeichens D wird nicht verändert. Auf diese Weise greift das Gerät zur Einreihenauswahl 27 kontinuierlich auf alle Positionsdaten in der ersten Liste (TABELLE 4) zu und erzeugt den virtuellen Wert YB von jedem Rechteck und vergleicht den neuen Wert YB mit dem alten Wert YB, der in dem Register 29 gespeichert ist und ersetzt den alten Wert YB durch den neuen Wert YB, wenn der neue Wert kleiner als der alter Wert YB ist, so daß der kleinste Wert YB zwischen allen Rechtecken in dem Register 29 gespeichert wird. Der kleinste Wert YB gibt den Wert YB von dem Rechteck in der ersten Zeichenreihe an, die sich in der höchsten Position in dem Beleg befindet, wie Fig. 6 zeigt. Die Operationen werden als Block 306 in Fig. 3 gezeigt.
  • ii) Das Gerät zur Einreihenauswahl 27 greift wiederum auf die erste Liste (TABELLE 4) in dem Tabellenspeicher 25 in der Reihenfolge zu, die durch den Zeiger spezifiziert wird, d. h. in der Reihenfolge, die in dem unteren Teil von Fig. 1A gezeigt wird. Das Gerät zur Einreihenauswahl 27 ruft die Positionsdaten YBD und XLD von dem Rechteck des Zeichens D ab und führt die Berechnung wie hierin zuvor beschrieben durch: Und das Gerät zur Einreihenauswahl 27 bestimmt, ob der errechnete Wert YB in einen Bereich 61 fällt oder nicht, wie in Fig. 6 abgebildet. Die untere Grenze des Bereichs 61 wird ausgewählt, um die Rechtecke von den Zeichen aufzufangen, deren Schenkel unter der Grundzeile liegen, wie die Zeichen p und y. In diesem
  • Fall lautet die Antwort JA, denn das Gerät zur Einreihenauswahl 27 entscheidet, daß das Zeichen D zu der ersten Zeichenreihe gehört und ruft die vier Positionsdaten des Rechtecks von dem Zeichen D, d. h. YTD, YBD, XLD und XRD von der Eingabe 7 der ersten Liste (TABELLE 4) in dem Tabellenspeicher 25 ab und speichert diese in einer Eingabe 1 der zweiten Liste des Tabellenspeichers 30. Das Gerät zur Einreihenauswahl 27 ersetzt außerdem den Zeiger 7 in der Eingabe 1 von der ersten Liste durch den Zeiger 13 in der Eingabe 7 von dem Rechteck des Zeichens D und löscht die Inhalte in Eingabe 7.
  • Die Änderung des Zeigers wird durchgeführt, um die gelöschte Eingabe 7 zu überspringen und die Eingabe 13 des nächsten Zeichens 1 anzuzeigen.
  • Als nächstes ruft das Gerät zur Einreihenauswahl 27 die vier Positionsdaten des Rechtecks von dem Zeichen 1 in der Eingabe 13 von der ersten Liste auf und wiederholt Berechnung und Vergleich. Der Vergleich gibt an, daß der berechne%e Wert YB des Rechtecks von Zeichen 1 nicht in den Bereich 61 fällt, der für die erste Zeichenreihe bestimmt wurde, d. h. das Zeichen 1 gehört nicht zu der ersten Zeichenreihe. Das Gerät zur Einreihenauswahl 27 führt an dem Rechteck des Zeichens 1 nichts mehr aus und greift auf die Eingabe 18 zu, die von dem Zeiger 18 in der Eingabe 13 spezifiziert wurde und wiederholt die Berechnung und Vergleich. Der Vergleich gibt wiederum an, daß der berechnete Wert YB von dem Rechteck des Zeichens "t" nicht in den Bereich 61 fällt, daher beendet das Gerät zur Einreihenauswahl 27 das Verfahren des Rechtecks von dem Zeichen "t" und greift auf die Eingabe 5 zu, die durch den Zeiger 5 in der Eingabe 18 spezifiziert wird. Die Eingabe 5 speichert die vier Positionsdaten des Rechtecks von dem Zeichen C in der ersten Zeichenreihe. Der Vergleich zeigt an, daß der berechnete Wert des Rechtecks von dem Zeichen C in den Bereich 61 fällt, und das Gerät zur Einreihenauswahl 27 entscheidet, daß das Zeichen C zu der ersten Zeichenreihe gehört. Das Gerät zur Einreihenauswahl 27 ruft die vier Positionsdaten des Rechtecks von dem Zeichen C ab, d. h. YTC, YBC, XLC und XRC von der Eingabe 5 der ersten Listen und speichert diese in einer Eingabe 2 von der zweiten Liste des Tabellenspeichers 30. Das Gerät zur Einreihenauswahl 27 ersetzt außerdem den Zeiger 5 in der Eingabe 18 von der ersten Liste durch den Zeiger 12 in der Eingabe 5 und löscht die Inhalte der Eingabe 5, wobei die Eingabe 5 in den letzten Operationen übersprungen wird und das Rechteck des Zeichens "t" wird gefolgt von dem Rechteck des Zeichens "m". Auf diese Weise wiederholt das Gerät zur Einreihenatswahl 27 die obigen Operationen für jedes Rechteck in der ersten Liste. Die Inhalte der geänderten ersten Liste und die neue zweite Liste zur Vervollständigung der Operationen von allen Eingaben von der ersten Liste werden in den Tabellen 5 bzw. 6 gezeigt. Die obige Zusammenstellung der zweiten Liste und die Änderung der ersten Liste werden als Block 307 in Fig. 3 gezeigt.
  • Die Steuereinheit 20 beendet die Operationen (D) und beginnt mit den nächsten Operation (E). TABELLE 5: GEANDERTE ERSTE LISTE ADRESSE OBERE KANTE UNTERE KANTE LINKE KANTE RECHTE KANTE ZEIGER Fortsetzung Tabelle 4: GEÄNDERTE ERSTE LISTE ADRESSE OBERE KANTE UNTERE KANTE LINKE KANTE RECHTE KANTE ZEIGER TABELLE 6: ZWEITE LISTE ADRESSE OBERE KANTE UNTERE KANTE LINKE KANTE RECHTE KANTE
  • (E) Erkennung des Zeichenbilds das durch die Inhalte der zweiten Liste spezifiziert wird
  • Es ist zu bemerken, daß die in der zweiten Liste gespeicherten Positionsdaten, d. h. YTD, YBD, XLD, XRD, . . . , YTA, YBA, XLA, XRA, die Positionen der Rechtecke in dem Bildpuffer 23 angeben, von denen jedes die Zeichenbilder D, C, B, A umgibt, die in dem Bildpuffer 23 gespeichert sind.
  • Die Steuereinheit 20 beginnt die Operation (E) durch Aktivierung der Erkennungseinheit 31. Die Erkennungseinheit 31 wird mit Entscheidungsbäumen zur Erkennung der Zeichenbilder versorgt, die in dem Stand der Technik wohl bekannt sind. Deshalb wird auf eine ausführliche Beschreibung der Entscheidungsbäume in der Spezifikation verzichtet. Die Erkennungseinheit 31 greift auf die Eingabe 1 von der zweiten Liste in dem Tabellenspeicher 30 zu, um die Positionsdaten YTD, YBD, XLD und XRD auf zurufen, die die Position des Rechtecks darstellt, die das Zeichen D umgibt. Und die Erkennungseinheit 31 ruft die Bilddaten in dem Bildspeicher 23 auf der das Rechteck umgibt. Die Erkennungseinheit 31 erkennt das Bild des Zeichens D durch Benutzung des Entscheidungsbaums und speichert die Ergebnisse in einem Ausgabepuffer 32. Als nächstes ruft die Erkennungseinheit 31 die Positionsdaten YTC, YBC, XLC und XRC von der Eingabe 2 in der zweiten Liste ab und führt die obigen Operationen zur Speicherung der Ergebnisse der Erkennung des Zeichens C in dem Ausgabepuffer 32. Die Erkennungseinheit 31 wiederholt die obigen Operationen bis alle in der zweiten Liste gespeicherten Positionsdaten verwendet wurden. Die Operationen werden als Block 308 in Fig. 3 gezeigt.
  • Die Steuereinheit 20 erkennt die Beendigung der Operationen (E) und liefert die Inhalte der Ausgabespeicher 32 an ein Ausgabegerät. Es ist zu bemerken, daß die vier Zeichen der ersten Zeichenreihe von dem Beleg 1 erkannt wurden, wie Fig. 1A zeigt. Die Steuereinheit 20 bestimmt die höchste Position der oberen Kante des Rechtecks von den Zeichen in der ersten Liste, d. h. die Position der oberen Kante des Rechtecks des Zeichens r. Mit Bezug auf Fig. 1A befindet sich das obere Ende auf der Bitzeile 2B. Die Steuereinheit 20 weiß, daß ein oberer Speicherbereich zwischen der oberen Bitzeile und der Bitzeile 2B des Bildpuffers 23 nun für die Speicherung des nächsten Belegbilds verfügbar ist. Die Steuereinheit 20 aktiviert den Abtaster 21, um das obere nächste Belegbild in dem oberen Speicherbereich zu speichern und die Steuereinheit 20 ändert die Adressen der Bitzeilen vor dem oberen Speicherbereich, um zu Adresse 23B fortzufahren, die die letzte Bitzeile des anfangs gespeicherten Belegbildes ist. D.h. der oberen Bitzeile des oberen Speicherbereichs wird eine Adresse 23B+2 zugewiesen usw., wobei die Kontinuität des neu gespeicherten Belegbildes in dem oberen Speicherbereich gegenüber dem anfänglich gespeicherten Bild in dem Bildpuffer 23 aufrechterhalten wird.
  • Wenn der Bildpuffer 23 mit dem neuen Belegbild ausgefüllt ist, führt die Steuereinheit 20 die Operationen (B) bis (E) durch. Wenn die Operation (E) vollständig ist, wiederholt die Steuereinheit die obigen Operationen bis alle Zeichen in dem Beleg 1 erkannt wurden.
  • Bei vollständiger Erkennung von jeder Zeichenreihe versorgt die Steuereinheit 20 das Ausgabegerät, den Drucker, ein Anzeigegerät, usw. mit den Inhalten der Ausgabepuffer 32, wobei der Bediener die Ergebnisse der Zeichenerkennung auf dem Beleg 1 haben kann.
  • Obwohl die Erfindung unter Verwendung des schräggestellten oder geneigten Belegs 1 in linksdrehender Richtung beschrieben wurde, ist offensichtlich, daß die Erfindung die Zeichen des Belegs erkennen kann, wenn dieser im Uhrzeigersinn schräggestellt wurde.
  • In diesem Ausführungsbeispiel wird die Segmentierung der Zeichen und Symbole für den Beleg mit Zeichen in Wörtern beschrieben, die von links nach rechts buchstabiert werden. Die Erfindung ist für die Segmentierung der Zeichen und Symbole geeignet, die in entgegengesetzter Richtung buchstabiert werden, d. h. von rechts nach links durch Anordnung der Zeiger in der ersten Liste in der Reihenfolge von dem äußersten rechten Rechteck zu dem äußersten linken Rechteck in der Zeichenreihe durch Anordnung des Bereichs 53 in Fig. 5A auf der linken Seite des Rechtecks 51.
  • Unter Verwendung der vorliegenden Erfindung zur Erkennung des Belegs einschließlich drei Arten von Schriftzeichen, d. h. Courier 10, Courier 12 und Prestige Elite 12 mit einzelnen, vertikalen Zwischenräumen zwischen den Zeichenreihen wurde festgestellt, daß die Zeichen des Belegs, der mit einem maximalen Schrägungswinkel von 6, rechts- oder linksdrehend schräggestellt wurde, mit deutlicher Trennung die Zeichenreihen erkannt hat, mit anderen Worten, ohne daß die Zeichen der zweiten Zeichenreihe, wie Fig. IA zeigt, in der ersten und dritten Zeichenreihe erschienen sind.

Claims (9)

1. Eine Methode zur Erkennung von gedruckten Zeichen auf einem Beleg, auf dem die Zeichen auf dem Beleg in Zeichenreihen angeordnet sind, das Verfahren mit Schritten enthaltend
Speicherung eines Bildes des Belegs in Bildspeichermitteln;
Bestimmung der XY-Koordinatenpositionen der Rechtecke in dem gespeicherten Bild, die parallel zu x- und y-Achsen sind, jedes Rechteck die äußere Grenze des Bildes eines Zeichens definiert und durch Erkennung der Kontinuität eines Zeichenbildes über die aufeinanderfolgenden Bitzeilen des Bildes gebildet werden;
Bildung einer ersten Liste der Positionsdaten der Rechtecke, in denen die Rechtecke in der Reihenfolge entlang der x-Achse des gespeicherten Bildes gemäß ihrer x- Koordinatenpositionsdaten angeordnet sind;
Bestimmung der Identität einer Vielzahl von Rechtecken, die innerhalb einer besonderen Zeichenreihe durch Feststellung erkannt werden, ob die Position eines zuvor bestimmten Punktes auf jedem dieser Rechtecke innerhalb eines zuvor bestimmten Bereichs liegt, der, bezogen auf ein anderes von diesen Rechtecken, in der ersten Liste definiert wurde und auf den Positionsdaten von den identifizierten Rechtecken basiert, Berechnen des Winkels bei dem die Zeichenreihe schräggestellt wird, bezogen auf die XY-Koordinaten der Bildspeichermittel;
basierend auf dem berechneten Schrägstellungswinkel; und erneute Anordnung der Positionsdaten in einer zweiten Liste gemäß der Zugehörigkeit zu einer Zeichenreihe;
Lieferung von den Bildspeichermitteln an ein Zeichenerkennungsmittel der Bilddaten innerhalb jeder von den Rechtecken in der in der zweiten Listen spezifizierten Reihenfolge.
2. Eine Methode wie in Anspruch 1, wobei der Schritt zur Festlegung der Positionen der Rechtecke einen Schritt zur Festlegung enthält, ob jedes Rechteck eine Größe hat, die in einen zuvor bestimmten Größenbereich für die zu erkennenden Zeichen fällt und während des Schritts zur Bildung einer Liste mit Positionsdaten gebildet wird, diese Rechtecke zu ignorieren, die außerhalb des Bereichs liegen.
3. Eine Methode wie in Anspruch 1, wobei die Positionsdaten die Positionen von oberen, unteren, linken und rechten Kanten der Rechtecke in den XY-Koordinaten darstellen.
4. Eine Methode wie in Anspruch 1, wobei der Schritt zur Bestimmung der Identität von einer Vielzahl von Rechtecken innerhalb einer besonderen Zeichenreihe einen Schritt zum Suchen enthalten, um eine zuvor bestimmte Anzahl von Rechtecken in der ersten Liste zu erkennen, mit einer unteren linken Ecke von einem Rechteck, das innerhalb einer zuvor bestimmten Entfernung in der x- und y-Achse von einer unteren linken Ecke des vorherigen Rechtecks liegt und einen Schritt zur Durchführung von Berechnungen der Positionsdaten von unteren linken Ecken der erkannten Rechtecke, um die Schrägstellung der Zeichenreihe und somit des Belegs zu erkennen.
5. Ein Verfahren wie in Anspruch 1, wobei der Schritt zur Festlegung der Rechtecke, aus denen jede Zeichenreihe gebildet wird, Schritte enthält
zum schrittweisen Lesen der Positionsdaten der Rechtecke in der ersten Liste in der angeordneten Reihenfolge;
zur Erzeugung einer virtuellen Position von jedem Rechteck durch Korrektur der Position in der y-Achse von jedem Rechteck in der ersten Liste durch die Schrägstellung;
zum Speichern in einem Register der virtuellen Position des Rechtecks, das sich in der höchsten Position des Belegs befindet;
zum erneuten schrittweise Lesen der Positionsdaten der Rechtecke in der ersten Liste;
zur Erzeugung der virtuellen Position von jedem Rechteck und Festlegung, ob die erzeugte virtuelle Position in einen zuvor bestimmten Bereich von der in einem Register gespeicherten virtuellen Position fällt; und
zur Übertragung der Positionsdaten eines Rechtecks in die erste Liste, der erzeugten virtuellen Position, welche in den zuvor bestimmten Bereich fällt, in die zweite Liste.
6. Gerät zur Zeichenerkennung zur Erkennung von gedruckten Zeichen auf einem Beleg mit:
Bildspeichermitteln (23) zur Speicherung eines Bildes von dem Beleg;
Mittel (24) zur Festlegung der XY-Koordinatenpositionen in dem gespeicherten Bild, die parallel zu den x- und y-Achsen sind, jedes Rechteck die äußere Grenze des Bildes eines Zeichens definiert und durch Erkennung der Kontinuität eines Zeichenbildes über die aufeinanderfolgenden Bitzeilen des Bildes gebildet werden;
Mittel zur Bildung einer ersten Liste der Positionsdaten der Rechtecke, in denen die Rechtecke in der Reihenfolge entlang der x-Achse des gespeicherten Bildes gemäß ihrer X-Koordinatenpositionsdaten angeordnet sind;
Mittel zur Schrägstellungsberechnung (26) zur Bestimmung der Identität einer Vielzahl von Rechtecken, die innerhalb einer besonderen Zeichenreihe durch Feststellung erkannt werden, ob die Position eines zuvor bestimmten Punktes auf jedem dieser Rechtecke innerhalb eines zuvor bestimmten Bereichs liegt, der, bezogen auf ein anderes von diesen Rechtecken, in der ersten Liste definiert wurde und auf den Positionsdaten von den identifizierten Rechtecken basiert, Berechnen des Winkels bei dem die Zeichenreihe schräggestellt wird, bezogen auf die XY-Koordinaten der Bildspeichermittel;
Mittel (27) zur Feststellung aller Rechtecke, aus denen jede Zeichenreihe gebildet wird, basierend auf dem berechneten Schrägstellungswinkel; und erneute Anordnung der Positionsdaten in einer zweiten Liste gemäß der Zugehörigkeit zu einer Zeichenreihe;
Mittel zur Zeichenerkennung (31), um von den Bildspeichermitteln die Bilddaten innerhalb jeder der Rechtecke in der Reihenfolge abzurufen, die in der zweiten Liste angegeben sind.
7. Gerät zu Zeichenerkennung wie in Anspruch 6, wobei die Mittel zur Feststellung der Positionen von den Rechtecken bestimmen, ob eine Größe von jedem Rechteck innerhalb eines zuvor bestimmten Größenbereichs der zu erkennenden Zeichen liegt und Positionsdaten nur für Rechtecke erzeugt, die in den Größenbereich fallen.
8. Gerät zur Erkennung von Zeichen wie in Anspruch 6, wobei die Positionsdaten obere, untere, linke und rechte Kanten der Rechtecke in den XY-Koordinaten der Bildspeichermittel repräsentieren.
9. Gerät zur Erkennung von Zeichen wie in Anspruch 7, wobei die erste Liste in einem ersten Tabellenspeicher gespeichert wird; und
wobei die Mittel zur Schrägstellungsberechnung die Positionsdaten der Rechtecke der ersten Liste in der angeordneten Reihenfolge lesen, eine zuvor bestimmte Anzahl von Rechtecken erkennen, in welchen eine untere linke Ecke des einen Rechtecks innerhalb der zuvor bestimmten Entfernungen in den x- und y-Richtungen von einer unteren linken Ecke des vorhergehenden Rechtecks liegt und Erkennen einer Schrägstellung des Belegs, der auf den Positionen der unteren linken Ecke der erkannten Rechtecke basiert und wobei die Mittel zur Festlegung aller Rechtecke, aus denen jede Zeichenreihe gebildet wird, schrittweise erneut die Positionsdaten der Rechtecke von der ersten Liste in der angeordneten Reihenfolge zu lesen, um eine virtuelle Position von jedem Rechteck zu erzeugen, das eine durch die Schrägstellung korrigierte y-Achsen Position hat, Speicherung einer virtuellen Position, die sich in der höchsten Position des Belegs in einem Register befindet, erneut schrittweises Lesen der Positionsdaten der ersten Liste in der angeordneten Reihenfolge, um die Virtuellen Positionen der Rechtecke zu erzeugen, festzulegen, ob die erzeugten, virtuellen Positionen in einen zuvor bestimmten Bereich von der virtuellen Position in dem Register fallen und Übertragen der Positionsdaten des Rechtecks, deren virtuelle Position in den zuvor bestimmten Bereich einer zweiten Liste fallen.
DE88105799T 1987-04-17 1988-04-12 Verfahren und Gerät zur Erkennung von gedruckten Zeichen auf einem Beleg. Expired - Fee Related DE3883578T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62093435A JPS63268081A (ja) 1987-04-17 1987-04-17 文書の文字を認識する方法及び装置

Publications (2)

Publication Number Publication Date
DE3883578D1 DE3883578D1 (de) 1993-10-07
DE3883578T2 true DE3883578T2 (de) 1994-04-21

Family

ID=14082232

Family Applications (1)

Application Number Title Priority Date Filing Date
DE88105799T Expired - Fee Related DE3883578T2 (de) 1987-04-17 1988-04-12 Verfahren und Gerät zur Erkennung von gedruckten Zeichen auf einem Beleg.

Country Status (4)

Country Link
US (1) US4926490A (de)
EP (1) EP0287027B1 (de)
JP (1) JPS63268081A (de)
DE (1) DE3883578T2 (de)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816918B2 (ja) * 1989-04-18 1996-02-21 シャープ株式会社 行抽出方法
JP2930612B2 (ja) * 1989-10-05 1999-08-03 株式会社リコー 画像形成装置
US5187753A (en) * 1989-12-08 1993-02-16 Xerox Corporation Method and apparatus for identification and correction of document skew
JP2779553B2 (ja) * 1989-12-12 1998-07-23 シャープ株式会社 画像読取装置およびこの画像読取装置を用いるファクシミリ装置
US5245676A (en) * 1989-12-21 1993-09-14 Xerox Corporation Determination of image skew angle from data including data in compressed form
EP0461817A3 (en) * 1990-06-15 1993-11-18 American Telephone & Telegraph Image segmenting apparatus and methods
US5172422A (en) * 1991-05-13 1992-12-15 Eastman Kodak Company Fast character segmentation of skewed text lines for optical character recognition
US5253305A (en) * 1991-06-25 1993-10-12 Industrial Technology Research Institute Character boundary identification method and system
US6373997B1 (en) 1991-07-30 2002-04-16 Xerox Corporation Coarse and fine skew measurement
US5267325A (en) * 1991-09-06 1993-11-30 Unisys Corporation Locating characters for character recognition
US5276742A (en) * 1991-11-19 1994-01-04 Xerox Corporation Rapid detection of page orientation
CA2077970C (en) * 1991-11-19 1999-02-23 Daniel P. Huttenlocher Optical word recognition by examination of word shape
CA2077969C (en) * 1991-11-19 1997-03-04 Daniel P. Huttenlocher Method of deriving wordshapes for subsequent comparison
JP3576570B2 (ja) * 1991-11-19 2004-10-13 ゼロックス コーポレイション 比較方法
US5321770A (en) * 1991-11-19 1994-06-14 Xerox Corporation Method for determining boundaries of words in text
US5452374A (en) * 1992-04-06 1995-09-19 Ricoh Corporation Skew detection and correction of a document image representation
US5568571A (en) * 1992-12-14 1996-10-22 University Microfilms, Inc. Image enhancement system
EP0635803A3 (de) * 1993-06-18 1995-06-07 Omron Tateisi Electronics Co Verfahren und Gerät zur Bildverarbeitung.
US5818976A (en) * 1993-10-25 1998-10-06 Visioneer, Inc. Method and apparatus for document skew and size/shape detection
KR960006101B1 (ko) * 1993-11-11 1996-05-08 대우전자주식회사 광자기 디스크재생시스템의 광픽업장치
US5410611A (en) * 1993-12-17 1995-04-25 Xerox Corporation Method for identifying word bounding boxes in text
JP3445394B2 (ja) * 1993-12-17 2003-09-08 ゼロックス・コーポレーション 少なくとも二つのイメージセクションの比較方法
US5588072A (en) * 1993-12-22 1996-12-24 Canon Kabushiki Kaisha Method and apparatus for selecting blocks of image data from image data having both horizontally- and vertically-oriented blocks
JP3602596B2 (ja) * 1995-02-22 2004-12-15 株式会社東芝 ドキュメントファイリング装置および方法
JP4114959B2 (ja) * 1995-06-20 2008-07-09 キヤノン株式会社 画像処理方法及び装置
US5848186A (en) * 1995-08-11 1998-12-08 Canon Kabushiki Kaisha Feature extraction system for identifying text within a table image
US5638466A (en) * 1995-08-30 1997-06-10 Horizon Marketing Corporation Aka Wordwand Method and apparatus for deskewing images of symbols having a non-linear baseline
JP3006466B2 (ja) * 1995-09-28 2000-02-07 日本電気株式会社 文字入力装置
US6256412B1 (en) * 1996-03-04 2001-07-03 Ricoh Company, Ltd. Image recognition method and apparatus using image rotation information
US5835638A (en) * 1996-05-30 1998-11-10 Xerox Corporation Method and apparatus for comparing symbols extracted from binary images of text using topology preserved dilated representations of the symbols
US6157738A (en) * 1996-06-17 2000-12-05 Canon Kabushiki Kaisha System for extracting attached text
US5912996A (en) * 1997-03-06 1999-06-15 Canon Kabushiki Kaisha Method of enhancing the signal-to-noise within the pixel image of a hand entered symbol
GB9711022D0 (en) 1997-05-28 1997-07-23 Rank Xerox Ltd Text/image selection from document images
JP3558493B2 (ja) * 1997-06-10 2004-08-25 富士通株式会社 用紙位置合わせ装置、用紙位置合わせ方法及び用紙位置合わせプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4170441B2 (ja) 1997-11-28 2008-10-22 富士通株式会社 文書画像傾き検出装置および文書画像傾き検出プログラムの記憶媒体
US6298157B1 (en) * 1998-02-27 2001-10-02 Adobe Systems Incorporated Locating and aligning embedded images
TW457458B (en) * 1998-06-01 2001-10-01 Canon Kk Image processing method, device and storage medium therefor
US6449397B1 (en) * 1999-04-05 2002-09-10 Mustek Systems Inc. Image processing system for scanning a rectangular document
JP4610687B2 (ja) * 1999-11-15 2011-01-12 コニカミノルタホールディングス株式会社 原稿読み取り装置
US6687421B1 (en) * 2000-03-17 2004-02-03 International Business Machines Corporation Skew detection of text in a noisy digitized image
US6912325B2 (en) * 2000-05-17 2005-06-28 Eastman Kodak Company Real time electronic registration of scanned documents
US6999635B1 (en) * 2002-05-01 2006-02-14 Unisys Corporation Method of reducing background noise by tracking character skew
EP1413444B1 (de) * 2002-10-23 2007-05-30 Hewlett Packard Company, a Delaware Corporation Papierschräglaufkorrektur in einem Druckgerät
TWI267800B (en) * 2003-06-13 2006-12-01 Lite On Technology Corp Automatic correction method of tilted image
US7508984B2 (en) * 2003-07-31 2009-03-24 Ricoh Company, Ltd. Language recognition method, system and software
JP4553241B2 (ja) * 2004-07-20 2010-09-29 株式会社リコー 文字方向識別装置、文書処理装置及びプログラム並びに記憶媒体
JP4607633B2 (ja) * 2005-03-17 2011-01-05 株式会社リコー 文字方向識別装置、画像形成装置、プログラム、記憶媒体および文字方向識別方法
WO2007142227A1 (ja) * 2006-06-07 2007-12-13 Nec Corporation 画像方向判定装置、画像方向判定方法、および画像方向判定用プログラム
US20080225340A1 (en) * 2007-03-14 2008-09-18 Ricoh Company, Limited Image processing apparatus, image processing method, and computer program product
US8620080B2 (en) * 2008-09-26 2013-12-31 Sharp Laboratories Of America, Inc. Methods and systems for locating text in a digital image
US8175388B1 (en) * 2009-01-30 2012-05-08 Adobe Systems Incorporated Recognizing text at multiple orientations
KR101621848B1 (ko) * 2009-12-14 2016-06-01 삼성전자주식회사 화상처리장치 및 방법
US8384917B2 (en) * 2010-02-15 2013-02-26 International Business Machines Corporation Font reproduction in electronic documents
US20130156288A1 (en) * 2011-12-19 2013-06-20 De La Rue North America Inc. Systems And Methods For Locating Characters On A Document
JP5874474B2 (ja) * 2012-03-21 2016-03-02 富士ゼロックス株式会社 画像情報登録システム、画像情報登録プログラム
JP6903966B2 (ja) * 2017-03-16 2021-07-14 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
JP7031465B2 (ja) * 2018-04-18 2022-03-08 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US11010423B2 (en) * 2018-08-20 2021-05-18 Accenture Global Solutions Limited Populating data fields in electronic documents
EP4242988A1 (de) * 2022-03-11 2023-09-13 Tata Consultancy Services Limited Verfahren und system zur erkennung eines textes aus in einer szene aufgenommenen multimedia-inhalten

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4013999A (en) * 1974-08-15 1977-03-22 Recognition Equipment Incorporated Single read station acquisition for character recognition
US4377803A (en) * 1980-07-02 1983-03-22 International Business Machines Corporation Algorithm for the segmentation of printed fixed pitch documents
JPS58101373A (ja) * 1981-12-14 1983-06-16 Nippon Telegr & Teleph Corp <Ntt> 文字図形入力方法
JPS58146973A (ja) * 1982-02-25 1983-09-01 Ricoh Co Ltd 文字行および文字の切出し方法
JPS58169293A (ja) * 1982-03-31 1983-10-05 Toshiba Corp 文字切り出し方式
JPS6172374A (ja) * 1984-09-17 1986-04-14 Toshiba Corp 文字認識装置
JPH0697470B2 (ja) * 1985-02-20 1994-11-30 富士通株式会社 文字列抽出装置

Also Published As

Publication number Publication date
JPS63268081A (ja) 1988-11-04
US4926490A (en) 1990-05-15
DE3883578D1 (de) 1993-10-07
EP0287027A3 (de) 1991-07-10
EP0287027B1 (de) 1993-09-01
EP0287027A2 (de) 1988-10-19

Similar Documents

Publication Publication Date Title
DE3883578T2 (de) Verfahren und Gerät zur Erkennung von gedruckten Zeichen auf einem Beleg.
DE69724755T2 (de) Auffinden von Titeln und Photos in abgetasteten Dokumentbildern
JP2536966B2 (ja) テキスト編集システム
DE4311172C2 (de) Verfahren und Einrichtung zum Identifizieren eines Schrägenwinkels eines Vorlagenbildes
DE69032344T2 (de) Verfahren zum Messen von Neigungswinkeln
DE69432585T2 (de) Verfahren und Gerät zur Auswahl von Text und/oder Non-Text-Blöcken in einem gespeicherten Dokument
DE3926327C2 (de) Verfahren und System zum Erkennen von Zeichen auf einem Medium
DE60308944T2 (de) Layoutanalyse eines handschriftlichen Dokuments für Freiform-Eingabe mit digitaler Tinte
DE68922772T2 (de) Verfahren zur Zeichenkettenermittlung.
US5751850A (en) Method for image segmentation and classification of image elements for documents processing
DE3881392T2 (de) System und Verfahren für automatische Segmentierung.
DE3485953T2 (de) Verfahren und anlage zur on-line-erkennung handgeschriebener muster.
DE69032421T2 (de) Verfahren und Gerät zur Dokumentschräglage-Ermittlung
DE3523042C2 (de)
DE69029594T2 (de) Ermittlung von Linienabschnitten und von vorbestimmten Mustern in einem optisch abgetasteten Dokument
DE4430369A1 (de) Verfahren und Einrichtung zum Erzeugen eines Dokumenten-Layouts
US5075895A (en) Method and apparatus for recognizing table area formed in binary image of document
DE3425449A1 (de) Verfahren und vorrichtung zur alphanumerischen handschriftenerkennung
EP0343786A2 (de) Verfahren und Gerät zum Lesen und Speichern von Text in digitaler Form
EP0629078A1 (de) Gerät zur Bildinformationsverarbeitung und -wiedergabe
DE3722444A1 (de) Verfahren und vorrichtung zum erzeugen von entwurfsmusterdaten
DE2740105A1 (de) Optische zeichenerkennungseinrichtung
EP0176672B1 (de) Verfahren und Anlage für den Linienverdünnungsvorgang mit variablen Abtastgebieten
EP0301384B1 (de) Schaltungsanordnung zur Aufbereitung von schrägstehenden, insbesondere handgeschriebenen Zeichen
DE3787206T2 (de) Gerät und Verfahren zur Ermittlung von Zeichenteilen auf einem gedruckten Dokument.

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee