DE68923650T2 - Bildverarbeitungsverfahren. - Google Patents
Bildverarbeitungsverfahren.Info
- Publication number
- DE68923650T2 DE68923650T2 DE68923650T DE68923650T DE68923650T2 DE 68923650 T2 DE68923650 T2 DE 68923650T2 DE 68923650 T DE68923650 T DE 68923650T DE 68923650 T DE68923650 T DE 68923650T DE 68923650 T2 DE68923650 T2 DE 68923650T2
- Authority
- DE
- Germany
- Prior art keywords
- chain code
- pixels
- edge
- edge pixels
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 claims description 9
- 230000001419 dependent effect Effects 0.000 claims 1
- 230000002093 peripheral effect Effects 0.000 description 7
- 238000003672 processing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
- Die vorliegende Erfindung betrifft eine Verfahren zum Bestimmen von konkaven Stellen in einer durch Pixel dargestellten Konfiguration.
- Ein handgeschriebener Buchstabe kann durch die Anzahl und die Orte seiner konkaven Stellen sowie der durch seine Konfiguration eingeschlossenen Stellen erkannt werden. Um alle konkaven Stellen in einer Konfiguration zu bestimmen, ist es beispielsweise aus John H. Munson, "Experiments in the recognition of han-printed text" bekannt, eine sogenannte konvexe Hüllkurve (CHB) für die entsprechende Konfiguration zu erzeugen. Die CHB einer zweidimensionalen Figur kann als Gummiband, das sich um die Figur erstreckt, verstanden werden. Im Falle einer quantisierten Figur muß die CHB angenähert werden, da eine gerade Linie zwischen zwei Bildpunkten normalerweise nicht stets auf Pixelorte fällt. In dem oben beschriebenen Dokument wird daher vorgeschlagen, Extremalpunkte in dem Buchstabenbild zu lokalisieren und diese Extremalpunkte durch solche Pixellinien zu verbinden, die der theoretischen geraden Linie möglichst genau folgen, wobei darauf geachtet wird, daß die angenäherte Linie nie die theoretische gerade Linie überschreitet. Nachdem die CHB erhalten ist, können die konkaven Stellen sowie eingeschlossene Stellen des Buchstabenbildes mit Hilfe bekannter Routinen gefunden werden.
- Im Hinblick auf diesen Stand der Technik ist es die Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Detektieren konkaver Stellen anzugeben.
- Diese Aufgabe wird durch den Gegenstand des Patentanspruchs 1 gelöst.
- Bevorzugte Ausführungsformen der vorliegenden Erfindung werden im folgenden unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert, wobei die Zeichnungen im einzelnen zeigen:
- Fig. 1 eine Bildkonfiguration, die mehrere konkave Stellen aufweist;
- Fig. 2 eine Datentabelle von Randpixeln einer zu verarbeitenden Konfiguration;
- Fig. 3 eine Illustration einer Regel, die gemäß einer bevorzugten Ausführungsform angewendet wird;
- Fig. 4 einen Teil der Bildkonfiguration;
- Fig. 5 einen anderen Teil der die konkaven Stellen enthaltenden Konfiguration;
- Fig. 6 eine geneigte Linie, die zwei benachbarte Top-Punkte einer konvexen Hüllkurve verbindet; und
- Fig. 7 ein Verfahren zum Erzeugen der konvexen Hüllkurve.
- Fig. 1 zeigt eine Konfiguration, enthaltend konkave Stellen A, B, C, D und E. Ein horizontal liegendes Rechteck R umschreibt die Konfiguration. Die Konfiguration wird durch das Rechteck R in vier Quadranten geteilt. Wenn man die Grenzpixel der Konfiguration verfolgt, gehören die Grenzpixel des oberen linken Kontaktpunktes bis zum unteren linken Kontaktpunkt zum ersten Quadranten, die Grenzpixel vom linken unteren Kontaktpunkt zum unteren rechten Kontaktpunkt zum zweiten Quadranten, die Grenzpixel vom unteren rechten Kontaktpunkt zum oberen rechten Kontaktpunkt zum dritten Quadranten und die Grenzpixel vom rechten oberen Kontaktpunkt zum oberen linken Kontaktpunkt zum vierten Quadranten. Die Numerierung von 1 bis 4 kann auch gemäß anderen Regeln erfolgen. Jedoch ist die den Quadranten betreffende Information für die nachfolgend beschriebene Verarbeitung von Bedeutung.
- In Fig. 2 ist eine Tabelle gezeigt, die die Information über die als Chain-Code beschriebenen Randpixel enthält; ob es sich um Top-Punkte auf der konvexen Müllkurve handelt, um welche X- und Y-Koordinaten es sich handelt und zu welchem Quadranten der entsprechende Punkt gehört. In Fig. 2 sind die Top-Punkte auf der konvexen Hüllkurve durch Y oder N angedeutet, wobei Y einen Top-Punkt und N keinen Top-Punkt bedeutet.
- Die Fig. 3a bis 3d zeigen die Beziehung zwischen dem Quadranten und dem Chain-Code. Fig. 3a zeigt die Chain-Codes der Grenzpixel in dem ersten Quadranten, aber nicht in einer konkaven Stelle. Fig. 3b zeigt die Chain-Codes der Randpixel in dem zweiten Quadranten, aber nicht in einer konkaven Stelle. Fig. 3c zeigt die Chain-Codes der Grenzpixel in dem dritten Quadranten, aber nicht in einer konkaven Stelle. Fig. 3d zeigt die Chain-Codes der Grenzpixel im vierten Quadranten, aber nicht in einer konkaven Stelle. Wie anhand der Fig. 3a bis 3d erkannt werden kann, bedeuten Chain-Codes außer 4 bis 6 im ersten Quadranten eine konkave Stelle, Chain-Codes außer 6 bis 0 im zweiten Quadranten eine konkave Stelle, Chain-Codes außer 0 bis 2 im dritten Quadranten eine konkave Stelle und Chain-Codes außer 2 bis 4 im vierten Quadranten eine konkave Stelle.
- Im Falle, daß kein Chain-Code gefunden werden kann, der ein konkave Stelle angibt, wird die folgende Verarbeitung notwendig.
- In Fig. 4 werden die Top-Punkte P1 und P2 auf der konvexen Hüllkurve aufgefunden. Die Neigung der Linie l, die den Punkt P1 mit dem Punkt P2 verbindet, wird berechnet. Die Neigung ist 5/7=0,714 und der Neigungswinkel ist 35,5 Grad. Die Grenzpixel werden von P1 bis P2 verfolgt. Die Abstände zwischen der Linie l und den Grenzpixen wird abgeschätzt. Zum Berechnen des Abstandes wird eine Beziehung zwischen dem Chain-Code und dem Abstandsinkrement Δd im voraus berechnet. Das Abstandsinkrement Ad der Grenzpixel wird integriert, so daß eine Distanz zwischen der Linie l und dem momentan abgetasteten Pixel berechnet werden kann.
- Für die Konfiguration der Fig. 4 ergibt sich die Beziehung aus der folgenden Tabelle 1. Tabelle 1 Chain Code
- In Tabelle 1 wird Δd als positiv definiert, wenn es von der Linie l aus betrachtet nach innen gerichtet ist.
- Die Grenzpixel von Pb1 bis Pb7 zwischen P1 und P2 weisen die in Tabelle 2 gezeigten Abstände von der Linie l auf. Die Abstände werden durch Integrieren von Δd, wie oben beschrieben, berechnet. Tabelle 2 Grenzpixel Abstand
- Hierzu wird eine Regel angewendet, daß Grenzpixel zwischen benachbarten Top-Punkten eine konkave Stelle definieren, wenn einer oder mehr Grenzpixel einen Abstand von größer als 1 von der Verbindungslinie zwischen Top-Punkten aufweisen.
- In Tabelle 2 weist der Pixel Pb6 einen Abstand von 1,135 auf. Somit wird beim Verfolgen der Grenzpixel von Pb1 bis Pb7 erkannt, daß der Punkt Pb6 eine konkave Stelle definiert.
- Beim Zählen der Anzahl der Grenzpixel von Pb1 bis Pb7 wird die innere periphere Länge der konkaven Stelle berechnet. Wenn erkannt wird, daß die Grenzpixel keine konkave Stelle definieren, wird der berechnete Wert gelöscht.
- Die Länge der konkaven Stelle wird dadurch berechnet, daß der Abstand zwischen den Top-Punkten P1 un P2 berechnet wird. Der Abstand wird durch die X- und Y-Koordinaten von P1 und P2 berechnet.
- Das konkave Verhältnis wird anhand der inneren peripheren Länge, der Sehnenlänge der konkaven Stelle und der peripheren Länge der Konfiguration wie folgt berechnet.
- Konkaves Verhältnis ist (innere periphere Länge) /{(periphere Länge) x (Sehnenlänge)}.
- Fig. 5 zeige eine andere zu verarbeitende Konfiguration.
- Die Konfiguration weist Grenzpixel von Pb1 bis Pb9 zwischen den Top-Punkten P1 und P2 auf. Die Abstände eines jeden Grenzpixels von der Linie l, die P1 und P2 verbindet, ist in Tabelle 3 gezeigt. Die Neigung der Linie l ist 6/5=1,20 und der Neigungswinkel 4-50,2 Grad. Tabelle 3 Grenzpixel Abstand
- In der Tabelle 3 weist Pb2 einen Abstand größer als 1 auf und Pb3 weist einen Abstand kleiner als 1 auf. Pb4 weist einen Abstand größer als 1 auf. In diesem Fall kann eine konkave Stelle auf zwei Arten definiert werden. Gemaß einer ersten Art wird eine konkave Stelle durch die Grenzpixel von Pb1 bis Pb9 definiert. Bei der zweiten Art werden zwei konkave Stellen definiert, d.h. eine konkave Stelle wird definiert von den Grenzpixeln von Pb1 bis Pb3, und die andere konkave Stelle wird durch die Grenzpixel von Pb4 bis Pb9 definiert.
- Tabelle 1 zeigt das Abtsandsinkrement in dem ersten Quadranten. Die folgende Tabelle 4 zeigt das Abtandsinkrement in dem zweiten bis vierten Quadranten. Der Neigungwinkel 4 wird für jeden Quadranten, so wie in Fig. 6 gezeig, bestimmt. Tabelle 4 Quadrant Chain Code
- Gemäß der obigen Regel wird eine konkave Stelle definiert, wenn einer oder mehrere Grenzpixel einen Abstand größer als 1 aufweisen. Ein derartiger Abstand kann auch ein anderer Wert sein, beispielsweise 2, wenn Rauschen mitberücksichtigt wird.
- Bei einer praktischen Verarbeitung konkaver Stellen werden die Daten in Tabelle 2 nacheinander ausgelesen, die Abstände mittels Integrieren der Abstandselemente berechnet, und gleichzeitig werden die Chain-Codes entsprechend der in Fig. 3 gezeigten Regel bewertet. Wenn der integrierte Wert einen vorgegebenen Wert erreicht oder wenn der Chain-Code einen Wert annimmt, der nicht in Fig. 3 gezeigt ist, ist eine konkave Stelle gefunden worden. Durch Zählen der Grenzpixel wird gleichzeitig die innere periphere Länge berechnet. Die Sehnenlänge wird durch Berechnen des Abstandes zwischen den Top-Punkten berechnet.
- Für das Erzeugen einer exakten konvexen Hüllkurve hat der Erfinder vorliegender Erfindung ein Bildverarbeitungsverfahren erfunden, welches in der veröffentlichten Anmeldung EP-A-0 380 721 beschrieben ist.
- Fig. 7 zeigt zwei nebeneinander angeordnete Top-Punkte a und b auf der konvexen Hüllkurve sowie Grenzpixel C1 bis C9, die dazwischen angeordnet sind. Die Top-Punkte a und b sind durch die Linie l verbunden, um eine Neigung von a nach b zu definieren. Zum Erzeugen der konvexen Hüllkurve wird zwischen a und b ein kontinuierlicher Pixelzug erzeugt. Jeder Pixel des Zuges liegt innerhalb der Linie und stellt den nächsten Pixel zur Linie innerhalb des Zuges dar. In diesem Fall wird ein Pixel-Zug gegen den Uhrzeigersinn erzeugt. Jedoch kann der Pixel-Zug auch im Uhrzeigersinn erzeugt werden.
- Der Chain-Code eines jeden Pixels des Chain-Code-Zuges wird auf 4 oder 5 begrenzt. Der Pixel d' des Chain-Codes 4 neben a ist näher als der Pixel d1 des Chain-Codes 5. Der Pixel des Chain- Codes 4 liegt jedoch außerhalb der Linie l. Daher wird der Pixel d1 gewählt. Danach werden weitere Pixel innerhalb der Linie l, die am nächsten zur Linie l liegen, gewählt. Die Pixel von d2 bis d8 werden ausgewählt. Die konvexe Hüllkurve wird entsprechend obigen Verfahren exakt erzeugt.
- Wenn jeder Pixel des erzeugten Pixel-Zuges durch eine bestimmte Dichte oder einen anderen Index indiziert wird, wird die Sehnenlänge als die Anzahl der indizierten Pixel definiert. In den durch Subtraktion des Ursprungsbildes von der konvexen Hüllkurve erzeugten Konfigurationen definiert die Anzahl der Grenzpixel ohne Index die innere periphere Länge der konkaven Stelle.
Claims (4)
1. Verfahren zum Detektieren konkaver Stellen bei einer in
einem Bild enthaltenen Konfiguration, die durch Pixel
dargestellt ist, wobei das Verfahren folgende Schritte
aufweist:
Bestimmen der Randpixel der Bildkonfiguration, welche auf einer
konvexen Hüllkurve (CHB) der Konfiguration liegen als Top-
Punkte,
Bestimmen von Grenzpixeln unter den Randpixeln, durch die ein
Reckteck definiert wird, durch welches die Bildkonfiguration
umrandet wird, wobei durch das Rechteck Randpixel, die sich
zwischen unterschiedlichen Grenzpixeln befinden
unterschiedlichen Orientierungsbereichen zugewiesen werden;
Erzeugen eines Freeman-Chain-Code-Zuges, welcher das äußere der
Bildkonfiguration, wie es durch die Randpixel definiert ist,
beschreibt; und
Einstufen eines Chain-Code-Zugabschnitts zwischen zwei
benachbarten Top-Punkten als konkave Stelle, falls der Chain-
Code-Abschnitt andere Chain-Codes aufweist, als sie dem
entsprechend zugewiesenen Orientierungsbereich entsprechen.
2. Verfahren nach Anspruch 1, wobei die Grenzpixel durch den
untersten, den am weitesten links liegenden, den am weitesten
rechts liegenden und den obersten Pixel der Bildkonfiguration
im bezug auf ein vorgegebenes Orientierungssystem gebildet
werden.
3. Verfahren nach Anspruch 2, bei dem die bestimmten Chain-
Codes folgendermaßen definiert sind:
4, 5, 6 für Chain-Code-Zugabschnitte, die Randpixel zwischen
dem obersten und dem am weitesten links liegenden Randpixel
darstellen,
6, 7, 0 für Chain-Code-Zugabschnitte, die Randpixel zwischen
dem am weistens links und dem untersten Randpixel darstellen,
0, 1 oder 2 für Chain-Code-Zugabschnitte, die Randpixel
zwischen dem untersten und den am weitesten links liegenden
Randpixel darstellen, und
2, 3, 4 für Chain-Code-Zugabschnitte, die Randpixel zwischen
dem am weitestens rechts und dem obersten Randpixel darstellen.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei im
Falle, daß ein Chain-Code-Zugabschnitt zwischen zwei
benachbarten Top-Strichpunkten eine konkave Stelle anzeigt, die
folgenden Schritte ausgeführt werden:
Berechnen des Neigungswinkels einer Linie, die zwei benachbarte
Top-Strichpunkte verbindet;
Erzeugen eines Chain-Code-Zugabschnitts, welcher die
entsprechende Randlinie zwischen den Top-Punkten beschreibt,
wobei der Abstand eines jeden Randpixel wie er durch den Chain-
Code-Zugabschnitt beschrieben wird, zu der Verbindungslinie
durch die Summe von vorberechneten neigungswinkelabhängigen
Abstandsinkrementen angenähert wird, welche für alle Chain-
Code-Elemente addiert werden, die Randpixel zwischen dem
Top-Punkt,
von dem der Chain-Code-Zugabschnitt beginnt und dem
Randpixel, dessen Distanz momentan berechnet wird, darstellen
und
Detektieren, ob einer der Randpixel, wie sie von dem Chain-
Code-Zugabschnitt beschrieben werden, einen Abstand größer als
ein vorgegebener Wert aufweist, wodurch die Existenz einer
konkaven Stelle zwischen den zwei Top-Punkten angezeigt wird.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63115757A JP2739130B2 (ja) | 1988-05-12 | 1988-05-12 | 画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE68923650D1 DE68923650D1 (de) | 1995-09-07 |
DE68923650T2 true DE68923650T2 (de) | 1996-01-18 |
Family
ID=14670297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE68923650T Expired - Lifetime DE68923650T2 (de) | 1988-05-12 | 1989-05-10 | Bildverarbeitungsverfahren. |
Country Status (4)
Country | Link |
---|---|
US (1) | US5159645A (de) |
EP (1) | EP0341701B1 (de) |
JP (1) | JP2739130B2 (de) |
DE (1) | DE68923650T2 (de) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6067379A (en) * | 1988-12-09 | 2000-05-23 | Cognex Corporation | Method and apparatus for locating patterns in an optical image |
US5553196A (en) * | 1989-04-05 | 1996-09-03 | Yozan, Inc. | Method for processing data using a neural network having a number of layers equal to an abstraction degree of the pattern to be processed |
US5754701A (en) * | 1992-08-11 | 1998-05-19 | Nec Corporation | Image signal coding method |
US5590220A (en) * | 1992-08-12 | 1996-12-31 | International Business Machines Corporation | Bending point extraction method for optical character recognition system |
JP2710202B2 (ja) * | 1993-03-24 | 1998-02-10 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 閉じた輪郭イメージを凸多角形で境界づける方法及びデータ処理装置 |
US5649024A (en) * | 1994-11-17 | 1997-07-15 | Xerox Corporation | Method for color highlighting of black and white fonts |
US5668891A (en) * | 1995-01-06 | 1997-09-16 | Xerox Corporation | Methods for determining font attributes of characters |
US5801966A (en) * | 1995-07-24 | 1998-09-01 | Cognex Corporation | Machine vision methods and articles of manufacture for determination of convex hull and convex hull angle |
US6026176A (en) | 1995-07-25 | 2000-02-15 | Cognex Corporation | Machine vision methods and articles of manufacture for ball grid array inspection |
US5872870A (en) * | 1996-02-16 | 1999-02-16 | Cognex Corporation | Machine vision methods for identifying extrema of objects in rotated reference frames |
US5909504A (en) * | 1996-03-15 | 1999-06-01 | Cognex Corporation | Method of testing a machine vision inspection system |
US6298149B1 (en) | 1996-03-21 | 2001-10-02 | Cognex Corporation | Semiconductor device image inspection with contrast enhancement |
US6259827B1 (en) | 1996-03-21 | 2001-07-10 | Cognex Corporation | Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images |
US5978502A (en) * | 1996-04-01 | 1999-11-02 | Cognex Corporation | Machine vision methods for determining characteristics of three-dimensional objects |
US6137893A (en) * | 1996-10-07 | 2000-10-24 | Cognex Corporation | Machine vision calibration targets and methods of determining their location and orientation in an image |
US5960125A (en) | 1996-11-21 | 1999-09-28 | Cognex Corporation | Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object |
US5953130A (en) * | 1997-01-06 | 1999-09-14 | Cognex Corporation | Machine vision methods and apparatus for machine vision illumination of an object |
US6075881A (en) * | 1997-03-18 | 2000-06-13 | Cognex Corporation | Machine vision methods for identifying collinear sets of points from an image |
US5974169A (en) * | 1997-03-20 | 1999-10-26 | Cognex Corporation | Machine vision methods for determining characteristics of an object using boundary points and bounding regions |
US6141033A (en) * | 1997-05-15 | 2000-10-31 | Cognex Corporation | Bandwidth reduction of multichannel images for machine vision |
US6608647B1 (en) | 1997-06-24 | 2003-08-19 | Cognex Corporation | Methods and apparatus for charge coupled device image acquisition with independent integration and readout |
US5978080A (en) * | 1997-09-25 | 1999-11-02 | Cognex Corporation | Machine vision methods using feedback to determine an orientation, pixel width and pixel height of a field of view |
US6025854A (en) * | 1997-12-31 | 2000-02-15 | Cognex Corporation | Method and apparatus for high speed image acquisition |
US6236769B1 (en) | 1998-01-28 | 2001-05-22 | Cognex Corporation | Machine vision systems and methods for morphological transformation of an image with zero or other uniform offsets |
US6282328B1 (en) | 1998-01-28 | 2001-08-28 | Cognex Corporation | Machine vision systems and methods for morphological transformation of an image with non-uniform offsets |
US6215915B1 (en) | 1998-02-20 | 2001-04-10 | Cognex Corporation | Image processing methods and apparatus for separable, general affine transformation of an image |
US6381375B1 (en) | 1998-02-20 | 2002-04-30 | Cognex Corporation | Methods and apparatus for generating a projection of an image |
US6381366B1 (en) | 1998-12-18 | 2002-04-30 | Cognex Corporation | Machine vision methods and system for boundary point-based comparison of patterns and images |
US6687402B1 (en) | 1998-12-18 | 2004-02-03 | Cognex Corporation | Machine vision methods and systems for boundary feature comparison of patterns and images |
US6684402B1 (en) | 1999-12-01 | 2004-01-27 | Cognex Technology And Investment Corporation | Control methods and apparatus for coupling multiple image acquisition devices to a digital data processor |
US6748104B1 (en) | 2000-03-24 | 2004-06-08 | Cognex Corporation | Methods and apparatus for machine vision inspection using single and multiple templates or patterns |
US8111904B2 (en) | 2005-10-07 | 2012-02-07 | Cognex Technology And Investment Corp. | Methods and apparatus for practical 3D vision system |
US8162584B2 (en) | 2006-08-23 | 2012-04-24 | Cognex Corporation | Method and apparatus for semiconductor wafer alignment |
JP5192315B2 (ja) * | 2008-07-18 | 2013-05-08 | 一夫 相坂 | 2値画像を領域分割するための凹点検出方法 |
JP5708305B2 (ja) | 2011-06-30 | 2015-04-30 | 富士通株式会社 | 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3755780A (en) * | 1971-06-28 | 1973-08-28 | Pattern Analysis & Recognition | Method for recognizing characters |
US4183013A (en) * | 1976-11-29 | 1980-01-08 | Coulter Electronics, Inc. | System for extracting shape features from an image |
JPS594382A (ja) * | 1982-06-30 | 1984-01-11 | Nippon Telegr & Teleph Corp <Ntt> | 描画像の符号化方式 |
JPS60136892A (ja) * | 1983-12-26 | 1985-07-20 | Hitachi Ltd | オンライン手書き図形認識装置 |
US4876728A (en) * | 1985-06-04 | 1989-10-24 | Adept Technology, Inc. | Vision system for distinguishing touching parts |
CA1270953A (en) * | 1986-05-23 | 1990-06-26 | Satoshi Naoi | Method of curve approximation |
US4791482A (en) * | 1987-02-06 | 1988-12-13 | Westinghouse Electric Corp. | Object locating system |
US4949281A (en) * | 1987-04-23 | 1990-08-14 | H. Berthold Ag | Method and apparatus for generating and producing two-dimensional graphic object by polynominal parametric curves |
US4982342A (en) * | 1987-11-05 | 1991-01-01 | Kabushiki Kaisha Toyota Chuo Kenkyusho | Image processor system having multifunction look-up table units |
US5018211A (en) * | 1988-10-31 | 1991-05-21 | International Business Machines Corp. | System for detecting and analyzing rounded objects |
US5086482A (en) * | 1989-01-25 | 1992-02-04 | Ezel, Inc. | Image processing method |
US5050222A (en) * | 1990-05-21 | 1991-09-17 | Eastman Kodak Company | Polygon-based technique for the automatic classification of text and graphics components from digitized paper-based forms |
-
1988
- 1988-05-12 JP JP63115757A patent/JP2739130B2/ja not_active Expired - Fee Related
-
1989
- 1989-05-10 EP EP89108437A patent/EP0341701B1/de not_active Expired - Lifetime
- 1989-05-10 DE DE68923650T patent/DE68923650T2/de not_active Expired - Lifetime
-
1991
- 1991-10-29 US US07/784,126 patent/US5159645A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP0341701A2 (de) | 1989-11-15 |
JP2739130B2 (ja) | 1998-04-08 |
US5159645A (en) | 1992-10-27 |
EP0341701B1 (de) | 1995-08-02 |
EP0341701A3 (de) | 1991-10-09 |
JPH01284984A (ja) | 1989-11-16 |
DE68923650D1 (de) | 1995-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE68923650T2 (de) | Bildverarbeitungsverfahren. | |
DE3716787C2 (de) | ||
DE3485953T2 (de) | Verfahren und anlage zur on-line-erkennung handgeschriebener muster. | |
DE2909153C2 (de) | Einrichtung zur digitalen Analyse von Bild- oder Zeichenmustern | |
DE102007035884B4 (de) | Linienrauschunterdrückungsvorrichtung, -verfahren und -programm | |
DE4311172C2 (de) | Verfahren und Einrichtung zum Identifizieren eines Schrägenwinkels eines Vorlagenbildes | |
DE69926205T2 (de) | Artefaktentfernungstechnik für schiefenkorrigierte bilder | |
DE3923449A1 (de) | Verfahren zum bestimmen von kanten in bildern | |
DE3322443C2 (de) | ||
DE3916323A1 (de) | Verfahren zum erkennen eines zeichens und dabei verwendbares zeichenerkennungssystem | |
EP0059240A2 (de) | Verfahren zum automatischen Erkennen von Bild- und Text- oder Graphikbereichen auf Druckvorlagen | |
WO2001065470A1 (de) | Verfahren zur analyse von fingerabdruckbildern | |
DE69029429T2 (de) | Binäres Bildreduzierungsverfahren | |
EP0301384B1 (de) | Schaltungsanordnung zur Aufbereitung von schrägstehenden, insbesondere handgeschriebenen Zeichen | |
DE4102587A1 (de) | Verfahren und einheit zur binaeren bildverarbeitung sowie verfahren und einheit zur zeichenerkennung | |
EP0550511B1 (de) | Verfahren zur extrahierung von einzelzeichen aus rasterbildvorlagen einer gelesenen hand- oder maschinenschriftlichen zeichenfolge freier teilung | |
DE2064602A1 (de) | Verfahren und Anordnung zur Zeichentrennung bei der maschinellen Zeichen erkennung | |
DE3328308A1 (de) | Eingabeverfahren fuer daten eines grafischen musters | |
DE69813416T2 (de) | Vorrichtungen zur Linienrichtungsbestimmung, Bildschrägeerfassung und Bildschrägekorrektur. | |
DE3787670T2 (de) | Kurvennäherungsverfahren. | |
DE69028970T2 (de) | Bildverarbeitungsgerät | |
DE69125777T2 (de) | Verfahren und Gerät zur Trennung von Bildbereichen | |
EP0107789A2 (de) | Verfahren zur Darstellung von Druckvorlagen in Form von grössen- und drehlagenunabhängigen Bogenstrukturen zum Zwecke einer Dokumentenanalyse, insbesondere zur Schriftzeichenerkennung | |
DE2054547A1 (de) | Musterverarbeitungssystem | |
DE69531412T2 (de) | Bildkodierung beruhend auf Bildbereichen und deren segmentierten Randlinien |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: YOZAN INC., TOKIO/TOKYO, JP SHARP K.K., OSAKA, JP |