DE68923650T2 - Bildverarbeitungsverfahren. - Google Patents

Bildverarbeitungsverfahren.

Info

Publication number
DE68923650T2
DE68923650T2 DE68923650T DE68923650T DE68923650T2 DE 68923650 T2 DE68923650 T2 DE 68923650T2 DE 68923650 T DE68923650 T DE 68923650T DE 68923650 T DE68923650 T DE 68923650T DE 68923650 T2 DE68923650 T2 DE 68923650T2
Authority
DE
Germany
Prior art keywords
chain code
pixels
edge
edge pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE68923650T
Other languages
English (en)
Other versions
DE68923650D1 (de
Inventor
Ryohei C O Ezel Inc Kumagai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yozan Inc
Original Assignee
Ezel Inc
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ezel Inc, Sharp Corp filed Critical Ezel Inc
Application granted granted Critical
Publication of DE68923650D1 publication Critical patent/DE68923650D1/de
Publication of DE68923650T2 publication Critical patent/DE68923650T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

  • Die vorliegende Erfindung betrifft eine Verfahren zum Bestimmen von konkaven Stellen in einer durch Pixel dargestellten Konfiguration.
  • Ein handgeschriebener Buchstabe kann durch die Anzahl und die Orte seiner konkaven Stellen sowie der durch seine Konfiguration eingeschlossenen Stellen erkannt werden. Um alle konkaven Stellen in einer Konfiguration zu bestimmen, ist es beispielsweise aus John H. Munson, "Experiments in the recognition of han-printed text" bekannt, eine sogenannte konvexe Hüllkurve (CHB) für die entsprechende Konfiguration zu erzeugen. Die CHB einer zweidimensionalen Figur kann als Gummiband, das sich um die Figur erstreckt, verstanden werden. Im Falle einer quantisierten Figur muß die CHB angenähert werden, da eine gerade Linie zwischen zwei Bildpunkten normalerweise nicht stets auf Pixelorte fällt. In dem oben beschriebenen Dokument wird daher vorgeschlagen, Extremalpunkte in dem Buchstabenbild zu lokalisieren und diese Extremalpunkte durch solche Pixellinien zu verbinden, die der theoretischen geraden Linie möglichst genau folgen, wobei darauf geachtet wird, daß die angenäherte Linie nie die theoretische gerade Linie überschreitet. Nachdem die CHB erhalten ist, können die konkaven Stellen sowie eingeschlossene Stellen des Buchstabenbildes mit Hilfe bekannter Routinen gefunden werden.
  • Im Hinblick auf diesen Stand der Technik ist es die Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Detektieren konkaver Stellen anzugeben.
  • Diese Aufgabe wird durch den Gegenstand des Patentanspruchs 1 gelöst.
  • Bevorzugte Ausführungsformen der vorliegenden Erfindung werden im folgenden unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert, wobei die Zeichnungen im einzelnen zeigen:
  • Fig. 1 eine Bildkonfiguration, die mehrere konkave Stellen aufweist;
  • Fig. 2 eine Datentabelle von Randpixeln einer zu verarbeitenden Konfiguration;
  • Fig. 3 eine Illustration einer Regel, die gemäß einer bevorzugten Ausführungsform angewendet wird;
  • Fig. 4 einen Teil der Bildkonfiguration;
  • Fig. 5 einen anderen Teil der die konkaven Stellen enthaltenden Konfiguration;
  • Fig. 6 eine geneigte Linie, die zwei benachbarte Top-Punkte einer konvexen Hüllkurve verbindet; und
  • Fig. 7 ein Verfahren zum Erzeugen der konvexen Hüllkurve.
  • Fig. 1 zeigt eine Konfiguration, enthaltend konkave Stellen A, B, C, D und E. Ein horizontal liegendes Rechteck R umschreibt die Konfiguration. Die Konfiguration wird durch das Rechteck R in vier Quadranten geteilt. Wenn man die Grenzpixel der Konfiguration verfolgt, gehören die Grenzpixel des oberen linken Kontaktpunktes bis zum unteren linken Kontaktpunkt zum ersten Quadranten, die Grenzpixel vom linken unteren Kontaktpunkt zum unteren rechten Kontaktpunkt zum zweiten Quadranten, die Grenzpixel vom unteren rechten Kontaktpunkt zum oberen rechten Kontaktpunkt zum dritten Quadranten und die Grenzpixel vom rechten oberen Kontaktpunkt zum oberen linken Kontaktpunkt zum vierten Quadranten. Die Numerierung von 1 bis 4 kann auch gemäß anderen Regeln erfolgen. Jedoch ist die den Quadranten betreffende Information für die nachfolgend beschriebene Verarbeitung von Bedeutung.
  • In Fig. 2 ist eine Tabelle gezeigt, die die Information über die als Chain-Code beschriebenen Randpixel enthält; ob es sich um Top-Punkte auf der konvexen Müllkurve handelt, um welche X- und Y-Koordinaten es sich handelt und zu welchem Quadranten der entsprechende Punkt gehört. In Fig. 2 sind die Top-Punkte auf der konvexen Hüllkurve durch Y oder N angedeutet, wobei Y einen Top-Punkt und N keinen Top-Punkt bedeutet.
  • Die Fig. 3a bis 3d zeigen die Beziehung zwischen dem Quadranten und dem Chain-Code. Fig. 3a zeigt die Chain-Codes der Grenzpixel in dem ersten Quadranten, aber nicht in einer konkaven Stelle. Fig. 3b zeigt die Chain-Codes der Randpixel in dem zweiten Quadranten, aber nicht in einer konkaven Stelle. Fig. 3c zeigt die Chain-Codes der Grenzpixel in dem dritten Quadranten, aber nicht in einer konkaven Stelle. Fig. 3d zeigt die Chain-Codes der Grenzpixel im vierten Quadranten, aber nicht in einer konkaven Stelle. Wie anhand der Fig. 3a bis 3d erkannt werden kann, bedeuten Chain-Codes außer 4 bis 6 im ersten Quadranten eine konkave Stelle, Chain-Codes außer 6 bis 0 im zweiten Quadranten eine konkave Stelle, Chain-Codes außer 0 bis 2 im dritten Quadranten eine konkave Stelle und Chain-Codes außer 2 bis 4 im vierten Quadranten eine konkave Stelle.
  • Im Falle, daß kein Chain-Code gefunden werden kann, der ein konkave Stelle angibt, wird die folgende Verarbeitung notwendig.
  • In Fig. 4 werden die Top-Punkte P1 und P2 auf der konvexen Hüllkurve aufgefunden. Die Neigung der Linie l, die den Punkt P1 mit dem Punkt P2 verbindet, wird berechnet. Die Neigung ist 5/7=0,714 und der Neigungswinkel ist 35,5 Grad. Die Grenzpixel werden von P1 bis P2 verfolgt. Die Abstände zwischen der Linie l und den Grenzpixen wird abgeschätzt. Zum Berechnen des Abstandes wird eine Beziehung zwischen dem Chain-Code und dem Abstandsinkrement Δd im voraus berechnet. Das Abstandsinkrement Ad der Grenzpixel wird integriert, so daß eine Distanz zwischen der Linie l und dem momentan abgetasteten Pixel berechnet werden kann.
  • Für die Konfiguration der Fig. 4 ergibt sich die Beziehung aus der folgenden Tabelle 1. Tabelle 1 Chain Code
  • In Tabelle 1 wird Δd als positiv definiert, wenn es von der Linie l aus betrachtet nach innen gerichtet ist.
  • Die Grenzpixel von Pb1 bis Pb7 zwischen P1 und P2 weisen die in Tabelle 2 gezeigten Abstände von der Linie l auf. Die Abstände werden durch Integrieren von Δd, wie oben beschrieben, berechnet. Tabelle 2 Grenzpixel Abstand
  • Hierzu wird eine Regel angewendet, daß Grenzpixel zwischen benachbarten Top-Punkten eine konkave Stelle definieren, wenn einer oder mehr Grenzpixel einen Abstand von größer als 1 von der Verbindungslinie zwischen Top-Punkten aufweisen.
  • In Tabelle 2 weist der Pixel Pb6 einen Abstand von 1,135 auf. Somit wird beim Verfolgen der Grenzpixel von Pb1 bis Pb7 erkannt, daß der Punkt Pb6 eine konkave Stelle definiert.
  • Beim Zählen der Anzahl der Grenzpixel von Pb1 bis Pb7 wird die innere periphere Länge der konkaven Stelle berechnet. Wenn erkannt wird, daß die Grenzpixel keine konkave Stelle definieren, wird der berechnete Wert gelöscht.
  • Die Länge der konkaven Stelle wird dadurch berechnet, daß der Abstand zwischen den Top-Punkten P1 un P2 berechnet wird. Der Abstand wird durch die X- und Y-Koordinaten von P1 und P2 berechnet.
  • Das konkave Verhältnis wird anhand der inneren peripheren Länge, der Sehnenlänge der konkaven Stelle und der peripheren Länge der Konfiguration wie folgt berechnet.
  • Konkaves Verhältnis ist (innere periphere Länge) /{(periphere Länge) x (Sehnenlänge)}.
  • Fig. 5 zeige eine andere zu verarbeitende Konfiguration.
  • Die Konfiguration weist Grenzpixel von Pb1 bis Pb9 zwischen den Top-Punkten P1 und P2 auf. Die Abstände eines jeden Grenzpixels von der Linie l, die P1 und P2 verbindet, ist in Tabelle 3 gezeigt. Die Neigung der Linie l ist 6/5=1,20 und der Neigungswinkel 4-50,2 Grad. Tabelle 3 Grenzpixel Abstand
  • In der Tabelle 3 weist Pb2 einen Abstand größer als 1 auf und Pb3 weist einen Abstand kleiner als 1 auf. Pb4 weist einen Abstand größer als 1 auf. In diesem Fall kann eine konkave Stelle auf zwei Arten definiert werden. Gemaß einer ersten Art wird eine konkave Stelle durch die Grenzpixel von Pb1 bis Pb9 definiert. Bei der zweiten Art werden zwei konkave Stellen definiert, d.h. eine konkave Stelle wird definiert von den Grenzpixeln von Pb1 bis Pb3, und die andere konkave Stelle wird durch die Grenzpixel von Pb4 bis Pb9 definiert.
  • Tabelle 1 zeigt das Abtsandsinkrement in dem ersten Quadranten. Die folgende Tabelle 4 zeigt das Abtandsinkrement in dem zweiten bis vierten Quadranten. Der Neigungwinkel 4 wird für jeden Quadranten, so wie in Fig. 6 gezeig, bestimmt. Tabelle 4 Quadrant Chain Code
  • Gemäß der obigen Regel wird eine konkave Stelle definiert, wenn einer oder mehrere Grenzpixel einen Abstand größer als 1 aufweisen. Ein derartiger Abstand kann auch ein anderer Wert sein, beispielsweise 2, wenn Rauschen mitberücksichtigt wird.
  • Bei einer praktischen Verarbeitung konkaver Stellen werden die Daten in Tabelle 2 nacheinander ausgelesen, die Abstände mittels Integrieren der Abstandselemente berechnet, und gleichzeitig werden die Chain-Codes entsprechend der in Fig. 3 gezeigten Regel bewertet. Wenn der integrierte Wert einen vorgegebenen Wert erreicht oder wenn der Chain-Code einen Wert annimmt, der nicht in Fig. 3 gezeigt ist, ist eine konkave Stelle gefunden worden. Durch Zählen der Grenzpixel wird gleichzeitig die innere periphere Länge berechnet. Die Sehnenlänge wird durch Berechnen des Abstandes zwischen den Top-Punkten berechnet.
  • Für das Erzeugen einer exakten konvexen Hüllkurve hat der Erfinder vorliegender Erfindung ein Bildverarbeitungsverfahren erfunden, welches in der veröffentlichten Anmeldung EP-A-0 380 721 beschrieben ist.
  • Fig. 7 zeigt zwei nebeneinander angeordnete Top-Punkte a und b auf der konvexen Hüllkurve sowie Grenzpixel C1 bis C9, die dazwischen angeordnet sind. Die Top-Punkte a und b sind durch die Linie l verbunden, um eine Neigung von a nach b zu definieren. Zum Erzeugen der konvexen Hüllkurve wird zwischen a und b ein kontinuierlicher Pixelzug erzeugt. Jeder Pixel des Zuges liegt innerhalb der Linie und stellt den nächsten Pixel zur Linie innerhalb des Zuges dar. In diesem Fall wird ein Pixel-Zug gegen den Uhrzeigersinn erzeugt. Jedoch kann der Pixel-Zug auch im Uhrzeigersinn erzeugt werden.
  • Der Chain-Code eines jeden Pixels des Chain-Code-Zuges wird auf 4 oder 5 begrenzt. Der Pixel d' des Chain-Codes 4 neben a ist näher als der Pixel d1 des Chain-Codes 5. Der Pixel des Chain- Codes 4 liegt jedoch außerhalb der Linie l. Daher wird der Pixel d1 gewählt. Danach werden weitere Pixel innerhalb der Linie l, die am nächsten zur Linie l liegen, gewählt. Die Pixel von d2 bis d8 werden ausgewählt. Die konvexe Hüllkurve wird entsprechend obigen Verfahren exakt erzeugt.
  • Wenn jeder Pixel des erzeugten Pixel-Zuges durch eine bestimmte Dichte oder einen anderen Index indiziert wird, wird die Sehnenlänge als die Anzahl der indizierten Pixel definiert. In den durch Subtraktion des Ursprungsbildes von der konvexen Hüllkurve erzeugten Konfigurationen definiert die Anzahl der Grenzpixel ohne Index die innere periphere Länge der konkaven Stelle.

Claims (4)

1. Verfahren zum Detektieren konkaver Stellen bei einer in einem Bild enthaltenen Konfiguration, die durch Pixel dargestellt ist, wobei das Verfahren folgende Schritte aufweist:
Bestimmen der Randpixel der Bildkonfiguration, welche auf einer konvexen Hüllkurve (CHB) der Konfiguration liegen als Top- Punkte,
Bestimmen von Grenzpixeln unter den Randpixeln, durch die ein Reckteck definiert wird, durch welches die Bildkonfiguration umrandet wird, wobei durch das Rechteck Randpixel, die sich zwischen unterschiedlichen Grenzpixeln befinden unterschiedlichen Orientierungsbereichen zugewiesen werden;
Erzeugen eines Freeman-Chain-Code-Zuges, welcher das äußere der Bildkonfiguration, wie es durch die Randpixel definiert ist, beschreibt; und
Einstufen eines Chain-Code-Zugabschnitts zwischen zwei benachbarten Top-Punkten als konkave Stelle, falls der Chain- Code-Abschnitt andere Chain-Codes aufweist, als sie dem entsprechend zugewiesenen Orientierungsbereich entsprechen.
2. Verfahren nach Anspruch 1, wobei die Grenzpixel durch den untersten, den am weitesten links liegenden, den am weitesten rechts liegenden und den obersten Pixel der Bildkonfiguration im bezug auf ein vorgegebenes Orientierungssystem gebildet werden.
3. Verfahren nach Anspruch 2, bei dem die bestimmten Chain- Codes folgendermaßen definiert sind:
4, 5, 6 für Chain-Code-Zugabschnitte, die Randpixel zwischen dem obersten und dem am weitesten links liegenden Randpixel darstellen,
6, 7, 0 für Chain-Code-Zugabschnitte, die Randpixel zwischen dem am weistens links und dem untersten Randpixel darstellen,
0, 1 oder 2 für Chain-Code-Zugabschnitte, die Randpixel zwischen dem untersten und den am weitesten links liegenden Randpixel darstellen, und
2, 3, 4 für Chain-Code-Zugabschnitte, die Randpixel zwischen dem am weitestens rechts und dem obersten Randpixel darstellen.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei im Falle, daß ein Chain-Code-Zugabschnitt zwischen zwei benachbarten Top-Strichpunkten eine konkave Stelle anzeigt, die folgenden Schritte ausgeführt werden:
Berechnen des Neigungswinkels einer Linie, die zwei benachbarte Top-Strichpunkte verbindet;
Erzeugen eines Chain-Code-Zugabschnitts, welcher die entsprechende Randlinie zwischen den Top-Punkten beschreibt,
wobei der Abstand eines jeden Randpixel wie er durch den Chain- Code-Zugabschnitt beschrieben wird, zu der Verbindungslinie durch die Summe von vorberechneten neigungswinkelabhängigen Abstandsinkrementen angenähert wird, welche für alle Chain- Code-Elemente addiert werden, die Randpixel zwischen dem Top-Punkt, von dem der Chain-Code-Zugabschnitt beginnt und dem Randpixel, dessen Distanz momentan berechnet wird, darstellen und
Detektieren, ob einer der Randpixel, wie sie von dem Chain- Code-Zugabschnitt beschrieben werden, einen Abstand größer als ein vorgegebener Wert aufweist, wodurch die Existenz einer konkaven Stelle zwischen den zwei Top-Punkten angezeigt wird.
DE68923650T 1988-05-12 1989-05-10 Bildverarbeitungsverfahren. Expired - Lifetime DE68923650T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63115757A JP2739130B2 (ja) 1988-05-12 1988-05-12 画像処理方法

Publications (2)

Publication Number Publication Date
DE68923650D1 DE68923650D1 (de) 1995-09-07
DE68923650T2 true DE68923650T2 (de) 1996-01-18

Family

ID=14670297

Family Applications (1)

Application Number Title Priority Date Filing Date
DE68923650T Expired - Lifetime DE68923650T2 (de) 1988-05-12 1989-05-10 Bildverarbeitungsverfahren.

Country Status (4)

Country Link
US (1) US5159645A (de)
EP (1) EP0341701B1 (de)
JP (1) JP2739130B2 (de)
DE (1) DE68923650T2 (de)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067379A (en) * 1988-12-09 2000-05-23 Cognex Corporation Method and apparatus for locating patterns in an optical image
US5553196A (en) * 1989-04-05 1996-09-03 Yozan, Inc. Method for processing data using a neural network having a number of layers equal to an abstraction degree of the pattern to be processed
US5754701A (en) * 1992-08-11 1998-05-19 Nec Corporation Image signal coding method
US5590220A (en) * 1992-08-12 1996-12-31 International Business Machines Corporation Bending point extraction method for optical character recognition system
JP2710202B2 (ja) * 1993-03-24 1998-02-10 インターナショナル・ビジネス・マシーンズ・コーポレイション 閉じた輪郭イメージを凸多角形で境界づける方法及びデータ処理装置
US5649024A (en) * 1994-11-17 1997-07-15 Xerox Corporation Method for color highlighting of black and white fonts
US5668891A (en) * 1995-01-06 1997-09-16 Xerox Corporation Methods for determining font attributes of characters
US5801966A (en) * 1995-07-24 1998-09-01 Cognex Corporation Machine vision methods and articles of manufacture for determination of convex hull and convex hull angle
US6026176A (en) 1995-07-25 2000-02-15 Cognex Corporation Machine vision methods and articles of manufacture for ball grid array inspection
US5872870A (en) * 1996-02-16 1999-02-16 Cognex Corporation Machine vision methods for identifying extrema of objects in rotated reference frames
US5909504A (en) * 1996-03-15 1999-06-01 Cognex Corporation Method of testing a machine vision inspection system
US6298149B1 (en) 1996-03-21 2001-10-02 Cognex Corporation Semiconductor device image inspection with contrast enhancement
US6259827B1 (en) 1996-03-21 2001-07-10 Cognex Corporation Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images
US5978502A (en) * 1996-04-01 1999-11-02 Cognex Corporation Machine vision methods for determining characteristics of three-dimensional objects
US6137893A (en) * 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
US5960125A (en) 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
US5953130A (en) * 1997-01-06 1999-09-14 Cognex Corporation Machine vision methods and apparatus for machine vision illumination of an object
US6075881A (en) * 1997-03-18 2000-06-13 Cognex Corporation Machine vision methods for identifying collinear sets of points from an image
US5974169A (en) * 1997-03-20 1999-10-26 Cognex Corporation Machine vision methods for determining characteristics of an object using boundary points and bounding regions
US6141033A (en) * 1997-05-15 2000-10-31 Cognex Corporation Bandwidth reduction of multichannel images for machine vision
US6608647B1 (en) 1997-06-24 2003-08-19 Cognex Corporation Methods and apparatus for charge coupled device image acquisition with independent integration and readout
US5978080A (en) * 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine an orientation, pixel width and pixel height of a field of view
US6025854A (en) * 1997-12-31 2000-02-15 Cognex Corporation Method and apparatus for high speed image acquisition
US6236769B1 (en) 1998-01-28 2001-05-22 Cognex Corporation Machine vision systems and methods for morphological transformation of an image with zero or other uniform offsets
US6282328B1 (en) 1998-01-28 2001-08-28 Cognex Corporation Machine vision systems and methods for morphological transformation of an image with non-uniform offsets
US6215915B1 (en) 1998-02-20 2001-04-10 Cognex Corporation Image processing methods and apparatus for separable, general affine transformation of an image
US6381375B1 (en) 1998-02-20 2002-04-30 Cognex Corporation Methods and apparatus for generating a projection of an image
US6381366B1 (en) 1998-12-18 2002-04-30 Cognex Corporation Machine vision methods and system for boundary point-based comparison of patterns and images
US6687402B1 (en) 1998-12-18 2004-02-03 Cognex Corporation Machine vision methods and systems for boundary feature comparison of patterns and images
US6684402B1 (en) 1999-12-01 2004-01-27 Cognex Technology And Investment Corporation Control methods and apparatus for coupling multiple image acquisition devices to a digital data processor
US6748104B1 (en) 2000-03-24 2004-06-08 Cognex Corporation Methods and apparatus for machine vision inspection using single and multiple templates or patterns
US8111904B2 (en) 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
US8162584B2 (en) 2006-08-23 2012-04-24 Cognex Corporation Method and apparatus for semiconductor wafer alignment
JP5192315B2 (ja) * 2008-07-18 2013-05-08 一夫 相坂 2値画像を領域分割するための凹点検出方法
JP5708305B2 (ja) 2011-06-30 2015-04-30 富士通株式会社 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3755780A (en) * 1971-06-28 1973-08-28 Pattern Analysis & Recognition Method for recognizing characters
US4183013A (en) * 1976-11-29 1980-01-08 Coulter Electronics, Inc. System for extracting shape features from an image
JPS594382A (ja) * 1982-06-30 1984-01-11 Nippon Telegr & Teleph Corp <Ntt> 描画像の符号化方式
JPS60136892A (ja) * 1983-12-26 1985-07-20 Hitachi Ltd オンライン手書き図形認識装置
US4876728A (en) * 1985-06-04 1989-10-24 Adept Technology, Inc. Vision system for distinguishing touching parts
CA1270953A (en) * 1986-05-23 1990-06-26 Satoshi Naoi Method of curve approximation
US4791482A (en) * 1987-02-06 1988-12-13 Westinghouse Electric Corp. Object locating system
US4949281A (en) * 1987-04-23 1990-08-14 H. Berthold Ag Method and apparatus for generating and producing two-dimensional graphic object by polynominal parametric curves
US4982342A (en) * 1987-11-05 1991-01-01 Kabushiki Kaisha Toyota Chuo Kenkyusho Image processor system having multifunction look-up table units
US5018211A (en) * 1988-10-31 1991-05-21 International Business Machines Corp. System for detecting and analyzing rounded objects
US5086482A (en) * 1989-01-25 1992-02-04 Ezel, Inc. Image processing method
US5050222A (en) * 1990-05-21 1991-09-17 Eastman Kodak Company Polygon-based technique for the automatic classification of text and graphics components from digitized paper-based forms

Also Published As

Publication number Publication date
EP0341701A2 (de) 1989-11-15
JP2739130B2 (ja) 1998-04-08
US5159645A (en) 1992-10-27
EP0341701B1 (de) 1995-08-02
EP0341701A3 (de) 1991-10-09
JPH01284984A (ja) 1989-11-16
DE68923650D1 (de) 1995-09-07

Similar Documents

Publication Publication Date Title
DE68923650T2 (de) Bildverarbeitungsverfahren.
DE3716787C2 (de)
DE3485953T2 (de) Verfahren und anlage zur on-line-erkennung handgeschriebener muster.
DE2909153C2 (de) Einrichtung zur digitalen Analyse von Bild- oder Zeichenmustern
DE102007035884B4 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE4311172C2 (de) Verfahren und Einrichtung zum Identifizieren eines Schrägenwinkels eines Vorlagenbildes
DE69926205T2 (de) Artefaktentfernungstechnik für schiefenkorrigierte bilder
DE3923449A1 (de) Verfahren zum bestimmen von kanten in bildern
DE3322443C2 (de)
DE3916323A1 (de) Verfahren zum erkennen eines zeichens und dabei verwendbares zeichenerkennungssystem
EP0059240A2 (de) Verfahren zum automatischen Erkennen von Bild- und Text- oder Graphikbereichen auf Druckvorlagen
WO2001065470A1 (de) Verfahren zur analyse von fingerabdruckbildern
DE69029429T2 (de) Binäres Bildreduzierungsverfahren
EP0301384B1 (de) Schaltungsanordnung zur Aufbereitung von schrägstehenden, insbesondere handgeschriebenen Zeichen
DE4102587A1 (de) Verfahren und einheit zur binaeren bildverarbeitung sowie verfahren und einheit zur zeichenerkennung
EP0550511B1 (de) Verfahren zur extrahierung von einzelzeichen aus rasterbildvorlagen einer gelesenen hand- oder maschinenschriftlichen zeichenfolge freier teilung
DE2064602A1 (de) Verfahren und Anordnung zur Zeichentrennung bei der maschinellen Zeichen erkennung
DE3328308A1 (de) Eingabeverfahren fuer daten eines grafischen musters
DE69813416T2 (de) Vorrichtungen zur Linienrichtungsbestimmung, Bildschrägeerfassung und Bildschrägekorrektur.
DE3787670T2 (de) Kurvennäherungsverfahren.
DE69028970T2 (de) Bildverarbeitungsgerät
DE69125777T2 (de) Verfahren und Gerät zur Trennung von Bildbereichen
EP0107789A2 (de) Verfahren zur Darstellung von Druckvorlagen in Form von grössen- und drehlagenunabhängigen Bogenstrukturen zum Zwecke einer Dokumentenanalyse, insbesondere zur Schriftzeichenerkennung
DE2054547A1 (de) Musterverarbeitungssystem
DE69531412T2 (de) Bildkodierung beruhend auf Bildbereichen und deren segmentierten Randlinien

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: YOZAN INC., TOKIO/TOKYO, JP SHARP K.K., OSAKA, JP