DE69129136T2 - Binärbildverarbeitung zur Dekodierung selbstaktierender Kodierungen in Markengestalt - Google Patents

Binärbildverarbeitung zur Dekodierung selbstaktierender Kodierungen in Markengestalt

Info

Publication number
DE69129136T2
DE69129136T2 DE69129136T DE69129136T DE69129136T2 DE 69129136 T2 DE69129136 T2 DE 69129136T2 DE 69129136 T DE69129136 T DE 69129136T DE 69129136 T DE69129136 T DE 69129136T DE 69129136 T2 DE69129136 T2 DE 69129136T2
Authority
DE
Germany
Prior art keywords
mark
bitmap image
marks
encoding
image space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69129136T
Other languages
English (en)
Other versions
DE69129136D1 (de
Inventor
Dan S Bloomberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of DE69129136D1 publication Critical patent/DE69129136D1/de
Application granted granted Critical
Publication of DE69129136T2 publication Critical patent/DE69129136T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/143Glyph-codes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/01Details
    • G06K7/016Synchronisation of sensing process
    • G06K7/0166Synchronisation of sensing process by means of clock-signals derived from the code marks, e.g. self-clocking code
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Description

  • Diese Erfindung betrifft ein Verfahren zur Decodierung codierter, digitaler Informationen und insbesondere zur Decodierung selbsttaktender Codierungen in Markengestalt. Normales Papier ist weiterhin ein bevorzugtes Auszeichnungsmedium zur Speicherung und Übertragung von von Menschen lesbaren Informationen, wobei aber das Auftreten elektronischer Dokumentenverarbeitungssysteme offensichtlich gemacht hat, daß die funktionale Zweckmäßigkeit von normalem Papier und anderen Arten von Hardkopiedokumenten beträchtlich verstärkt werden könnte, wenn die von Menschen lesbaren Informationen, die sie normalerweise transportieren, ergänzt würden, indem geeignete, maschinenlesbare, digitale Daten auf sie geschrieben würden. Diese maschinenlesbaren Daten würden dem Hardkc)piedokument ermöglichen, aktiv mit einem solchen Dokumentverarbeitungssystem in einer Vielzahl unterschiedlicher Möglichkeiten zu wechselwirken, wenn das Dokument in das System durch einen gewöhnlichen Eingangsabtaster abgetastet wird. Man vergleiche z.B. unsere mitanhangigen, europäischen Patentanmeldungen Nr. 91 304879.9 und 91 304 880.7 (nun als EP-A-0 459 792 bzw. EP-A-0 459793 veröffentlicht).
  • Als allgemeine Regeln werden digitale Daten aufgezeichnet, indem zweidimensionale Marken auf ein Aufzeichnungsmedium nach Maßgabe eines Musters geschrieben werden, das die Daten entweder durch das Vorhandensein oder Fehlen von Marken an einer Reihe von räumlichen Stellen oder durch das Vorhandensein oder Fehlen von auf Marken bezogenen Übergängen an solchen Stellen codiert. Die gewöhnliche, magnetische und optische, digitale Datenaufzeichnung stimmt mit dieser Art Codierung überein. Des weiteren stimmen auch die Strichcodierungen, die früher zur Aufzeichnung digitaler Daten auf Papier vorgeschlagenen worden sind, mit dem oben beschriebenen Codierungsstil überein. Man vergleiche US-A-4,692,603 über "Optical Reader for Printed Bit- Encoded Data and Method of Reading Same", US-A-4,728,783 und US-A4,754,127 über "Method an Apparatus for Transforming Digitally Encoded Data into Printed Data Strips", und US-A-4,782,221 über "Printed Data Strip Including Bit-Encoded Information and Scanner Contrast".
  • Betrachtet man die obengenannten Strichcodierungen zusätzlich im einzelnen, sieht man, daß deren sichtbare Erscheinung stark veränderbar ist, weil sie von den Daten abhängt, so daß sie dazu neigen, ein gesprenkeltes Aussehen zu haben. Diese Sprenkelung ist eine ohne weiteres unterscheidbare Abweichung von der klaren, scharfen Erscheinung von mit hoher Qualität gedruckten Dokumenten, so daß dies für einige Betrachter ästhetisch unannehmbar ist. Ferner ist ein weiterer Nachteil dieser Strichcodierungen der Allgemeinaufwand, den sie in Erwagung ziehen. Insbesondere enthält, wie es durch die obengenannten Patent gelehrt wird, dieser Allgemeinaufwand die Ausrichtungsmarken, die vorgesehen werden, um den Datentakt zu bewahren, sowie die Anfangsblockinformationen, die vorgesehen sind, um die Organisation der codierten Daten zu beschreiben, wie die Anzahl der Bits, die entlang einer gegebenen Codierungszeile codiert sind.
  • Es ist deshalb offensichtlich, daß es ein dringendes Bedürfnis nach relativ wirksamen, visuell verbesserten Codierungen zur Codierung digitaler Daten auf normalem Papier und anderen Arten Hardkopieaufzeichnungsmedien besteht, insbesondere für Anwendungen, bei denen solche maschinenlesbaren Daten in sichtbarer Nebeneinanderstellung zu von Menschen lesbaren Informationen aufgezeichnet werden sollen. Des weiteren erkennt man, daß es ein Bedürfnis nach wirksamen und zuverlässigen Techniken zur Wiedergewinnung digitaler Daten von solchen Codierungen gibt. Darüber hinaus ist es insofem, als Bilder, die von Hardkopiedokumenten getragen sind, häufig vervielfältigt werden, wie durch Photokopieren und durch Faksimiliwiedergabe, offensichtlich, daß es sehr vorteilhaft wäre, Datencodierungs- und Decodiertechniken zu haben, die eine beträchtliches Maß an Bildverzerrung zulassen können.
  • In Reaktion auf das Vorstehende und andere Bedürfnisse, schafft die vorliegende Erfindung ein Verfahren zur Decodierung codierter, digitaler Informationen, wobei die codierten Informationen in der Form einer Punktrasterbildraumdarstellung einer selbsttaktenden Codierung in Markengestalt sind, die aus Marken gebildet ist, die Gestalten haben, die digitale Datenwerte codieren, so daß jeder einzelne Datenwert, der durch die genannte Codierung codiert ist, durch die Gestalt einer entsprechenden Marke dargestellt ist; die genannten Marken aus einer Gruppe n zulässiger Markengestalten ausgewählt werden, wobei jede der genannten Markengestalten der Codierung eines vorbestimmten, digitalen Datenwerts im voraus zugeordnet ist; die genannten Marken räumlich in dem genannten Punktrasterbildraum im wesentlichen nach Maßgabe einer räumlichen Formatierungsregel verteilt sind; das genannte Verfahren die Schritte umfaßt Lokalisieren von wenigstens drei nicht geradlinigen Bezugspunkten in dem genannten Punktrasterbildraum, wobei die genannten Bezugspunkte eine vorbestimmte, nominale, räumliche Beziehung zueinander haben;
  • Bestimmen der räumlichen Beziehung der genannten Bezugspunkte in dem genannten Punktrasterbildraum;
  • Berechnen eines Schiefekorrekturfaktors aus der räumlichen Beziehung der genannten Bezugspunkte im genannten Punktrasterbildraum;
  • Bestimmen eines X Skalierungskorrekturfaktors und eines Y Skalierungskorrekturfaktors für die genannte Punktrasterbildraumdarstellung der genannten Markencodierung;
  • Kalibrieren der genannten räumlichen Formatierungsregel nach Maßgabe der genannten Schiefe- und Skalierungskorrekturfaktoren;
  • Identifizieren einer ungefähren Mittenposition einer ersten der genannten Marken in dem genannten Punktrasterbildraum;
  • Filtern der genannten Punktrasterbildraumdarstellung der genannten Markencodierung nach Maßgabe wenigstens eines zu einer Gestalt passenden Unterscheidungsfilters für jedes der genannten n zulässigen Bilder, wodurch wenigstens n gefilterte Darstellungen der genannten Markencodierung bereitgestellt werden;
  • räumliches Abtasten aller genannter gefilterter Darstellungen der genannten Markencodierung im wesentlichen nach Maßgabe der genannten kalibrierten, räumlichen Formatierungsregel, um relative Stärkewerte der Filteranpassung für jede Marke der genannten Markencodierung zu erhalten, wie sie durch jedes der genannten Filter gefiltert wird, wobei die genannte Abtastung bei der ungefähren Mittenposition einer vorbestimmten der genannten Marken beginnt und sich von dort von ungefährer Markenmittenposition zu ungefährer Markenmittenposition im wesentlichen nach Maßgabe der genannten kalibrierten, räumlichen Formatierungsregel fortsetzt;
  • Vergleichen der Stärkewerte der Filteranpassung von jeder der genannten Marken, Marke um Marke, für alle genannten Filter, um die genannten Marken nach ihren Gestalten zu klassifizieren; und
  • Zuordnen decodierter Datenwerte zu den genannten nach der Gestalt klassifizierten Marken nach Maßgabe der Datenwerte, die den genannten Markengestalten im voraus zugeordnet worden sind.
  • Somit schafft die Erfindung binäre Bildverarbeitungstechniken zur Decodierung von Punktraster-Bildraumdarstellungen von selbsttaktenden Codierungen in Markengestalt und zur Verfolgung der Anzahl und Stelen von Mehrdeutigkeiten (manchmal hier als "Fehler" bezeichnet), die während der Decodierung solcher Codierungen angetroffen werden. Ein wesentlicher Teil der Bildverarbeitung, die bei der dargestellten Ausführungsform dieser Erfindung durchgeführt wird, wird durch die Verwendung morphologischer Filteroperationen wegen der Parallelität ausgeführt, die von solchen Operationen geboten wird. Des weiteren kann die Feherbestimmung, die nach Maßgabe dieser Erfindung ausgeführt wird, mit der Fehlerstatistik von einem alternativen Decodierverfahren verbunden oder gegenüber ihm verglichen werden, so wie das vorgenannte Decodierverfahren von Stearns u.a., um die Zuverlässigkeit der Decodierung zu erhöhen, die erhalten wird.
  • Noch andere Merkmale und Vorteile dieser Erfindung werden offensichtlicher, wenn die folgende, ins einzelne gehende Beschreibung in Verbindung mit den beigefügten Zeichnungen gelesen wird, wobei;
  • Fig. 1 ein vereinfachtes Blockdiagramm eines elektronischen Dokumentverarbeitungssystem zur Ausführung der vorliegenden Erfindung ist und um die verschiedenen Gesichtspunkte zu nutzen;
  • Fig. 2 ein Funktionsblockdiagramm einer typischen Prozessor/Druckerschnittstelle für das Dokumentenverarbeitungssystem ist, das in Fig. 1 gezeigt ist;
  • Fig. 3 ein Codierungsdiagramm zur Darstellung der Bit-Codierung ist, die durch eine relativ einfache, selbsifaktende, binäre Codierung in Markengestalt geliefert wird, die aus rotationsveränderlichen ändernden Markengestalten gebildet ist;
  • Fig. 3A ein anderes Codierungsdiagramm zur Darstellung der Bit-Codierung von Binärdaten in einer rotationsinvarianten Codierung in Markengestalt ist;
  • Fig. 3B typische Datenzellenstrukturen sowie typische gedruckte Bildpunktmuster für rotationsveränderliche Markengestalten der in Fig. 3 gezeigten Art zeigt;
  • Fig. 4 ein Funktionsablaufdiagramm auf einer hohen Ebene eines ersten Decodierverfahrens für eine Markencodierung ist;
  • Fig. 5 ein mehr ins einzelne gehendes Ablaufdiagramm der Mittenanordnung der Marke ist, der Etikettierungs- und Sortierungsphase einer Ausführung des in Fig. 4 gezeigten Decodierverfahrens ist;
  • Fig. 6 ein Punktrasterbild etikettierter Mittenorte von Marken ist, die Kandidaten zur Kalibrierung durch das wahlweise Kalibrierungsverfahren sind, das in Fig. 5 gezeigt ist;
  • Fig. 7 ein relativ ins einzelne gehendes Ablaufdiagramm der Leselfehlrbestimmungsphase für die Marke bei der vorgenannten Ausführung des Decodierverfahrens ist, das in Fig. 4 gezeigt ist;
  • Fig. 8 und 9 Bildpunktsuchbereiche darstellen, die zur Verwendung bei der Decodierung von Codierungen als Marken mit relativ niedriger bzw. hoher Dichte geeignet sind;
  • Fig. 10 ein Funktionsblockdiagramm auf hoher Ebene des Systems ist, in dem eine Codierung und Decodierung in Markengestalt für Daten verwendet wird, die Fehlerkorrekturcodierungen (ECC) enthalten;
  • Fig. 11 ein Funktionsblockdiagramm eines morphologischen Filterverfahrens zur Filterung eines abgetasteten Punktrasterbildes einer Markencodierung ist, um die EIN Bildpunkte bei oder nahe den Mitten der Marken durch die Verwendung breiter Filter zu trennen, die nach Maßgabe der Periodizität des Markencodierungsbildes ausgestaltet sind;
  • Fig. 12 ein Punktrasterbild einer typischen Markencodierung ist;
  • Fig. 13 ein Punktrasterbild ist, das die Wirkung der Anwendung des Filterverfahrens, das in Fig. 11 gezeigt ist, auf das in Fig. 12 gezeigte Punktrasterbild darstellt;
  • Fig. 14 ein weiteres Punktrasterbild ist, um die Wirkung der iterativen Wiederanwendung der zweiten Filterebene des Filterverfahrens der Fig. 11 auf das in Fig. 13 gezeigte Punktrasterbild darzustellen;
  • Fig. 15 ein Funktionsblockdiagramm eines iterativen Filterverfahrens einer zweiten Ebene ist;
  • Fig. 16 ein Punktrasterbild einer Markencodierung ist, das durch ein alternatives, morphologisches Filterverfahren gefiltert worden ist, um die Markenmitten räumlich zu trennen;
  • Fig. 17 eine Begrenzungskastenerweiterung der Bildpunktmuster innernalb des in Fig. 16 gezeigten Punktrasterbildes darstellt;
  • Fig. 18 ein Punktrasterbild ist, das die Trennung der Markenmittenbildpunkte zeigt, die in dem Fall von Markencodierungen mit relativ niedriger, räumlicher Dichte erhalten werden kann, indem die Schwerpunkte der einzelnen Marken, die sich auf Bildpunktmuster beziehen, innerhalb des Punktrasterbildes gekennzeichnet werden, das in Fig. 16 gezeigt ist, oder indem ein Ausdünnungsverfahren dieser Muster oder an ihren Begrenzungskastenerweiterungen durchgeführt wird, wie es in Fig. 17 gezeigt ist;
  • Fig. 19 ein Funktionsblockdigramm eines vorläufigen morphologischen Filterverfahrens ist, das breite Filter verwendet, um die räumliche Trennung der Marken von Markencodierungen höherer, räumlicher Dichte zu erhöhen;
  • Fig. 20 ein Funktionsblockdiagramm eines Reparaturverfahrens eines morphologischen Punktrasterbildes ist, das verwendet werden kann, um EIN Bildpunkte an Stellen der Markenmitten wiederherzustellen, wenn das Filterverfahren der Fig. 19 Löcher in dem Punktraster an diesen Stellen erzeugt;
  • Fig. 21 ein Punktrasterbild der Markenmitten einer Markencodierung relativ hoher Dichte ist, wie es erzeugt werden kann, indem ein Ausdünnungsverfahren bei dem in Fig. 17 gezeigten Punktraster oder bei einem Punktraster ausgeführt wird, der durch das Bildreparaturverfahren der Fig. 20 erzeugt wird;
  • Fig. 22 ein Funktionsblockdiagramm eines iterativen, morphologischen Ausdünnungsverfahren ist, das zur Erzeugung des in Fig. 21 gezeigten Punktrasterbildes verwendet werden kann;
  • Fig. 23 ein Funktionsblockdiagramm eines morphologischen Verfahrens zur Isolierung von Bildpunkten von Markenmitten durch die Verwendung eines kleinen, schwach angepaßten Treffer-Fehltreffer-Filters;
  • Fig. 24 ein Funktionsablaufdiagramm eine Decodierverfahrens ist, das eine Faltungsfilterung des Bildes der Punktraster-Markencodierung zur Lokalisierung der Marken mittem in dem Punktrasterbildraum und zur Klassifizierung der Marken nach Maßgabe ihrer Formen verwendet;
  • Fig. 25A und 25B die Ergebnisse der Faltung ungewichteter bzw. gewichteter Filter mit einer Markengestalt darstellen, an die die Filter stark angepaßt sind; und
  • Fig. 26 ein Teilablaufdiagramm zur Darstellung einer abgeänderten Ausführungsform des Decodierungsverfahrens ist, das in Fig. 24 gezeigt ist.
  • Während die Erfindung hier unten mehr im einzelnen unter besonderer Bezugnahme auf gewisse Ausführungsformen beschrieben ist, versteht es sich, daß es nicht beabsichtigt ist, sie auf diese Ausführungsformen zu beschränken. Im Gegensatz ist das Ziel, alle Alternativen, Abänderungen und Äquivalente abzudecken, die in den Bereich der Erfindung fallen, wie er durch die beigefügte Ansprüche festgelegt ist.
  • A. Eine beispielhafte Umgebung
  • Es wird sich nun den Zeichnungen zugewandt und an dieser Stelle insbesondere Fig. 1, in der ein elektronisches Dokumentenverarbeitungssystem 21 gezeigt ist, um eine typische Umgebung für diese Erfindung darzustellen. Indem der üblichen Praxis gefolgt wird, umfaßt das Dokumentenverarbeitungssystem 21 einen digitalen Prozessor 22 mit einem Hauptspeicher 23 und einen Massenspeicher 24, einen Eingangsabtaster 25 zur Abtastung digitaler Darstellungen ausgewählter Hardkopiedokumente in den Prozessor 22 und einen Drucker 26 zum Drucken von Hardkopie-Bildaufbereitungen von ausgewählten Dateien, die in dem Dateiverzeichnis (nicht gezeigt) des Prozessors 22 aufgelistet sind. Des weiteren gibt es eine Benutzerschnittstelle 27, um einem Benutzer zu ermöglichen, mit dem Prozessor 22, dem Eingangsabtaster 25 und dem Drucker 26 wechselzuwirken.
  • Es versteht sich, daß die Benutzerschnittstelle 27 gemeinsam die Eingabeeinrichtungen darstellt, durch die der Benutzer Steuerbefehle für den Eingangsabtaster 25 und für den Drucker 26 sowie Befehle zur Bildaufbereitung und Verarbeitung für den Prozessor 22 eingibt. Zusätzlich stellt die Schnittstelle 27 die Ausgabeeinrichtungen dar, durch die der Benutzer eine Rückmeldung in bezug auf die Vorgänge erhält, die in Reaktion auf die Befehle unternommen werden, die durch den Benutzer oder sonstwie eingegeben werden, wie unter der Programmsteuerung. Im allgemeinen enthält die Benutzerschnittstelle 27 z.B. eine Tastatur oder Ähnliches zur Eingabe von Benutzerbefehlen, einen Bildschirm, um dem Benutzer eine Ansicht des Verfahrens zu geben, das von dem Prozessor 22 durchgeführt wird, und eine Pfeilsteuerung, um dem Benutzer zu ermöglichen, einen Pfeil zu bewegen, um eine Auswahl von und/oder eine Eingabe von Daten in einem Verfahren vorzunehmen, das durch den Bildschirm angezeigt wird (keine dieser herkömmlichen Komponenten ist gezeigt).
  • Das dargestellte Dokumentenverarbeitungssystem 21 ist zentralisiert, so daß es durch die Annahme vereinfacht worden ist, daß alle Steuerbefehle und alle Bildaufbereitungsund Verarbeitungsbefehle von dem Prozessor 22 unter Programmsteuerung ausgeführt werden. In der Praxis jedoch kann die Ausführung dieser Befehle durch mehrere verschiedene Prozessoren verarbeitet werden, wobei einige oder alle von ihnen ihren eigenen Hauptspeicher und sogar ihren eigenen Massenspeicher haben. Ebenso können der Eingangsabtaster 25 oder der Drucker 26 oder beide ihre eigene Benutzerschnittstelle haben, wie es durch die unterbrochene Linie 28 bzw. 29 dargestellt ist. Es liegt tatsächlich auf der Hand, daß das Dokumentenverarbeitungssystem 21 umkonfiguriert werden könnte, so daß es eine verteilte Architektur aufweist, mit einem fernuegenden Eingangsabtaster und/oder einem fernliegenden Drucker (nicht gezeigt) zu arbeiten. Daten könnten von solchen Abtaster- und Druckerendstationen und von ihnen über bestimmte Kommuniktionsverbindungen oder Wählkommunikationsnetze (ebenfalls nicht gezeigt) Übertragen werden.
  • Üblicherweise ist der Eingangsabtaster 25 ein Punktrasterabtaster, der das Bild von jedem Hardkopieeingangsdokument mit einer vorbestimmten Raumauflösung, von sagen wir 300 s.p.i x 300 s.p.i (Flecken/Zoll) (ungefähr 12 Flecken pro mm), abtastet. Beim Betrieb wandelt der Abtaster 25 die einzeln aufgelösten Bildelemente (im allgemeinen "pixels" oder "pels" genannt) des abgetasteten Bildes in entsprechende, digitale Werte um, und setzt diese digitalen Werte zusammen, um eine Datenstruktur (als ein "Punktrasterbild" bekannt) zu erzeugen, die die räumliche Beziehung der Pixel bewahrt, auf die sich die abgetasteten Werte beziehen. Obgleich die folgende Beschreibung auf Anwen dungen konstruiert ist, bei denen der Abtaster 25 ein Schwarz-Weiß-Abtaster zur Umwandlung der Pixel des abgetasteten Bildes in digitale Werte mit einzelnem Bit (d.h. "1" oder "0") ist, versteht es sich, daß er ein Grautonabtaster zur Umwandlung der Pixel in Mehrbitwert sein könnte. Des weiteren ist es offensichtlich, daß der Abtaster 25 ein Punktrasterbild eines Dokuments oder von Ähnlichen durch die Verwendung einer Videoaufnahmeeinrichtung oder einer sogenannter Video-"Bildeinfangschaltung" zusammen mit einer geeigneten Schwellenwertlogik, wenn sie benötigt wird, aufnehmen könnte.
  • Der Drucker 26 ist im allgemeinen andererseits ein sogenannter Rasterdrucker, um die digitalen Werte einer Rasterbilddatei auf raumlich entsprechende Pixel des Bildes abzubilden, die er auf ein geeignetes Aufzeichnungsmedium druckt, wie unbehandeltes Papier. Der Prozessor 22 kann ausgestaltet sein, punktgerasterte Bilddateien zu verarbeiten und zu speichern und solche Dateien nach Anforderung zu dem Drucker 26 zu übertragen. Alternativ jedoch kann, wie es in Fig. 2 gezeigt ist, der Prozessor 22 einen PDL (Seitenbeschreibungssprache)-Treiber 31 zur Übertragung von PDL Beschreibungen der elektronischen Dokumentdateien zu dem Drucker 26 enthalten, die zum Drukken ausgewahlt sind. Somit ist der Drucker 26 dargestellt, als daß er eine PDL Zerlegungseinrichtung 32 zur Zerlegung solcher PDL Beschreibungen aufweist, um eine entsprechende punktgerasterte Bilddatei zu erzeugen. Noch andere Arten Drucker und Prozeß/Druckerschnittstellen bieten sich von selbst an, wobei aber zum Zweck der folgenden Erörterung angenommen wird, daß der Drucker 26 ein Rasterdrucker ist, der PDL Dateien von dem Prozessor 22 erhalt.
  • B. Codierung in Markengestalt
  • Wie man sieht, gibt es einen Markencodierer 33, damit der Drucker 26 maschinenlesbare, digitale Datenmarken auf das Aufzeichnungsmedium entweder alleine oder in Nebeneinanderstellung von von Menschen lesbaren Informationen zu drucken. Bei gewissen Anwendungen kann der Markencodierer 33 am gleichen Aufstellungsort wie der Prozessor 22 sein, um Markencodierungen in elektronische Dokumentdateien vor der Umsetzung solcher Dateien in PDL Beschreibungen einzuführen. Bei anderen Anwendungen jedoch mag es notwendig oder erwünscht sein, daß der Markencodierer 33 die Markencodierungen in die rasterformatierte, punktgerasterte Bilddatei einführt, die für den Drucker 26 vorgesehen ist. PDL Beschreibungen von in Markengestalt codierten Daten können mehrere, unterschiedliche Formen annehmen, einschließlich eingeschlossener Punktrasterdarstellungen der Codierung, mit der solche Daten codiert sind, Schriftbeschreibungen und Layoutanordnungen für Punktrasterdarstellungen der einzelnen codierten Markengestalten (wobei angenommen wird, daß solche Punktrasterbilder bei dem Schriftzeichenverzeichnis des Druckers 26 vorhanden oder herabladbar sind), und bitweiser Beschreibungen der Punktrasterbilder für die codierten Markengestalten.
  • Insbesondere werden, wie es in Fig. 2 und 3 gezeigt ist, die digitalen Daten 35, die auf den Codierer 33 angewandt werden, in den Formen von Marken 36 codiert, die der Codierer 33 veranlaßt, daß sie der Drucker 26 auf das Aufzeichnungsmedium druckt. Diese Marken bilden eine selbsttaktende Markencodierung, weil die Codierung, die auf das Aufzeichnungsmedium gedruckt wird, eine getrennte Marke 36 für jeden der codierten Datenwerte aufweist. In der Praxis wird, wie es in Fig. 38 gezeigt ist, jede der gedruckten Marken 36 durch das Pixelmuster festgelegt, das innerhalb einer allgemein rechteckförmigen, zweidimensionalen Mehrfachanordnung 37 von Pixelposition gedruckt wird (nachfolgend als eine "Markenzelle" oder eine "Datenzelle" bezeichnet). Man betrachte Fig. 38 als ein Beispiel. Diese eine Marke festlegenden Datenzellen 37 sind typischerweise auf dem Aufzeichnungsmedium nach Maßgabe einer vorbestimmten, räumlichen Formatierungsregel ausgelegt, die bewirkt, daß die Markencodierungen 36 für aufeinanderfolgende Datenwerte räumlich nach Maßgabe einer vorbestimmten Schablone oder Muster verteilt sind. Zum Beispiel werden die Datenzellen 37, die Markencodierungen 36 für aufeinanderfolgende Datenwerte enthalten, geeignet auf das Aufzeichnungsmedium nach Maßgabe einer regelmäßigen und sich wiederholenden, logischen Datenblockformatierungsregel gedruckt, so daß die gedruckten Datenzellen räumlich in einer zweidimensionalen Mehrfachanordnung logischer Blöcke vorbestimmter Größe angeordnet werden, wie einem logischen Blockformat von 16 Zellen x 16 Zellen.
  • Die Codierung in Markengestalt erlaubt natürlich viele unterschiedliche Ausführungen, von denen einige zur Codierung von digitalen Einzeitwerten geeignet sind und andere zur Codierung von Mehrbitwerten geeignet sind. Zum Beispiel werden einzelne Bitwerte ("1" und "0") bequemerweise codiert, indem längliche Mehrpixelmarken gedruckt werden, von denen jede aus einer vorbestimmten Anzahl benachbarter "EIN" (sagen wir schwarzer) Pixel bestehen, die entlang einer Achse ausgerichtet sind, die unter einem Winkel von ungefähr +45º oder -45º von der Querachse des Autzeichnungsmediums in Abhängigkeit davon geneigt ist, ob der Datenwert darin als eine "1" oder eine "0" codiert ist. Solche Marken sind Beispiele von sogenannten "rotationsveränderlichen" Marken, weil sie aufeinander nur durch Rotationsoperationen abgebildet werden können. Sie sind auch Beispiele von Marken, die ohne weiteres selbst in Gegenwart einer beträchtlichen Verzerrung und Bildverschlechterung unterscheidbar sind, weil sie nicht dazu neigen, sich zu einer gemeinsamen Form zu verschlechtern.
  • Ein bedeutender Vorteil, die Marken 36 auszuwählen, so daß sie alle die gleiche Anzahl "EIN" Pixel haben, ist, daß die gedruckte Markencodierung eine allgemeine gleichförmige Textur hat, die die Form einer Grautonerscheinung annimmt, wenn Marken höherer Dichte von einem zufälligen Betrachter betrachtet werden. Es lohnt sich deshalb, anzumerken, daß dieser Vorteil hergestellt werden kann, indem die Daten mit der Rotation undloder der Kontur (gemeinsam hier als die "Gestalt" bezeichnet) der Marken 36 codiert werden. Digitale Einzeitwerte können z.B. durch rotationsinvariante Marken codiert werden, die unterscheidbar unterschiedliche Konturen aber dieselbe Anzahl "EIN" Pixel zur Codierung der "1-en" bzw. "0-en" aufweisen. Man betrachte z.B. Fig. 3A. Die Grautonerscheinung der gedruckten Markencodierung kann auf einen ästhetisch gefälligen Grauton "abgestimmt" werden, indem der Inhalt der Marken an "EIN" Pixel erhöht oder verringert wird. Des weiteren könnte die Grautonerscheinung der gedruckten Markencodierung nach Maßgabe der, sagen wir, Grauskalabildwerte moduliert werden (durch nichtgezeigte Mittel), wödurch der gedruckten Codierung eine Grautonbildqualität verliehen wird.
  • Während die Codierung in Markengestalt theoretisch zu der Codierung von digitalen Werten irgendeiner gegebenen Bitänge n ausgedehnt werden kann, indem eine Codierung mit 2 zulässigen Markengestalten verwendet wird, sollte die Codierung sorgfältig ausgewählt werden, um sicherzustellen, daß ihre Markengestaten voneinander zuverlässig unterschieden werden können, weil eine solche Unterscheidung zur genauen Wiederherstellung der Daten wesentlich ist, die darin codiert sind.
  • C. Decodierung von Codierungen in Markengestalt i. Überblick
  • Es wird sich nun der Fig. 4 zugewandt, wobei gemäß der vorliegenden Erfindung gedruckte Markencodierungen der vorstehenden Art zugängig sind, durch Verarbeitung von Punktrasterbilder von ihnen decodiert zu werden. Wie man sehen wird, können die Bildverarbeitungstechniken, die zur Decodierung solcher Markencodierungen vorgesehen sind, ein beträchtliches Maß an Bildverzerrung und Verschlechterung zulassen, so daß von abgetasteten Photokopien und Faksimilikopien getragene Codierungen decodiert werden können, vorausgesetzt, daß das abgetastete Dokument nicht zu viele Generationen von dem Original entfernt liegt. Natürlich könnten gedruckte Markencodierungen wiederhergestellt werden, indem ein geeignetes elektronisches Dokumentenverarbeitungssystem zur Decodierung der Codierung verwendet wird, um die codierten Daten wiederherzustellen, und dann die Codierung mit genau diesen Daten, die darin codiert sind, gedruckt wird, wobei die Decodierung und die erneute Codierung im wesentlichen ausgeführt werden, wie es hier beschrieben ist.
  • In gewissen Decodierern ordnet die Bildverarbeitung, die zur Decodierung der Markencodierungen durchgeführt wird, die Marken zuerst in den X-Y Koordinaten des Punktrasterbildraumes an, konstruiert dann eine Tabelle zur Indexierung der Marken in der räumlichen Reihenfolge, in der Daten in ihm codiert worden sind, und analysiert dann die Marken in der indexierten Reihenfolge, um die Datenwerte der Reihe nach zu gewinnen, die in ihnen codiert sind. In anderen Decodierern klassifiziert die Bildverarbeitung die Marken nach ihrer Gestalt, während gleichzeitig ihre Mitten in dem Punktrasterbildraum angeordnet werden, so daß die decodierten Werte der Marken bequem in dem Punktrasterbildraum geändert sind. Jedoch können diese räumlich indexierten, decodierten Datenwerte nach Maßgabe der räumlichen Schablone oder des Musters sortiert werden, das ihre räumliche Ordnung beherrscht, wenn es erwünscht ist, ihre serielle Ordnung in dem Zeitbereich wiederherzustellen.
  • 2. Decodierung durch binäre Bildverarbeitung a. Einleitung
  • Wenn wir uns noch genauer auf das Decodierverfahren der vorliegenden Erfindung konzentrieren, sieht man, daß in dem Verfahren, das in Fig. 4 dargestellt ist, das Punktrasterbild der Markencodierung zuerst morphologisch und/oder durch die Verwendung einer Pixelsuchttechnik verarbeitet wird, um die ungefahren oder augenscheinlichen Mitten der Marken, wie bei 41, zu trennen. Vorbestimmte dieser augenscheinlichen Markenmitten, wie die augenscheinlichen Mitten der Eckenmarken, werden dann als Bezugspunkte zur Berechnung bei 42 von geeigneten Schiefe- und X und Y Skalierungskorrekturfaktoren verwendet, um die Schiefefehler bzw. die X und Y Skalierungsfehler auszugleichen, die in die Markencodierung eingeführt worden sein mögen, während sie kopiert und/oder abgetastet worden ist. Wie man sehen wird, werden diese Ausgleichsfaktoren zur Berechnung von Vektoren verwendet, die einem Markenmittenetikettierungsverfahren ermöglichen, von Markenmitte zu Markenmitte zu springen (oder genauer gesagt, zu einer ahnlichen Stelle der nachsten Markenmitte). Somit ist ein relativ örtliches Pixelsuchverfahren zur Etikettierung des augenscheinlichen Mittenpixels von jeder Marke mit ihren X-Y Bildraumkoordinaten ausreichend, wie bei 43. Zufalliges Bildrauschen wird an dieser Stelle wirksam zurückgewiesen, da keine Etiketten für die Rauschkomponenten des Bildes vorgesehen sind.
  • Es wird daran erinnert, daß Daten typischerweise in Marken in einer logischen, blockweisen oder zellenweisen Reihenfolge codiert werden. Aus diesem Grund werden, wie es bei 45 angegeben ist, die X-Y Koordinatenetiketten für die Marken typischerweise nach Maßgabe der raumlichen Reihenfolge der Datencodierung sortiert, wodurch eine lndextabelle zur seriellen Adressierung der Marken in der gleichen Reihenfolge konstruiert wird, wie die Daten in sie codiert worden sind. Oder es kann, wenn es erwünscht ist, ein Zeiger (nicht gezeigt) vorgesehen werden, um wahlweise auf Marken an einer oder mehreren vorausgewahlten Stellen innerhalb des Punktrasterbildraums zuzugreifen, so daß ein Index bei 45 zur Codierung von ausgewahlten der Marken in der Reihenfolge konstruiert wird, in der auf sie zugegriffen wird. Beispielsweise kann eine einfache X-Y Suche verwendet werden, um relativ schnell einen solchen Zeiger von der Mitte irgendeiner Marke zu der Mitte irgendeiner anderen Marke in dem Punktrasterbildraum zu verschieben, indem die Richtung und die Anzahl der Markenmitten in dem Punktrasterbildraum und um wieviel jeweils die X und Y Koordinaten von irgend zwei gegebenen Mustermitten voneinander darin verschoben sind, berechnet werden. Wenn diese Richtungsinformationen und die Zahlwerte der dazwischenliegenden Markenmitten gegeben sind, kann eine geeignete Suche ausgeführt werden, indem zuerst schrittweise der Zeiger von Markenmitte zu Markenmitte in der angegebenen Richtung, entlang sagen wird der X-Achse, verschoben wird, bis der Zeiger die gegebene Anzahl dazwischenliegender Markenmitten übersprungen hat, und indem dann das obige Verfahren wiederholt wird, um schrittweise den Zeiger zu seinem beabsichtigten Ziel entlang der anderen oder Y-Achse zu verschieben.
  • Zur Wiederherstellung der codierten Datenwerte aus den Markencodierungen werden 2n Kopien des Punktrasterbildes der Codierung (wo n die Bitlänge des Datenwerts ist, der in jeder der Markengestalten codiert ist) jeweils, wie bei 51, durch ein Filter gefiltert, das an ein entsprechendes der 2 zulässigen Markenformen angepaßt ist. Beispielsweise kann jedes dieser Bilder morphologisch nach Maßgabe eines Treffer-Fehltreffer-Filters verarbeitet werden, der schwach an eine entsprechende (und nur eine) der möglichen Markengestalten angepaßt ist. Dies ergibt 2 unterschiedlich gefilterte Fassungen des Punktrasterbildes. Insbesondere hängt als Ergebnis der Treffer-Fehltreffer-Filterung das Pixelmuster nahe irgendeiner gegebenen Markenmitte oder Stelle der "Datenetikette" in irgendeinem gegebenen der gefilterten Bilder von der Genauigkeit der Übereinstimmung zwischen dem Treffer-Fehltreffer-Filter, das verwendet wurde, das gegebene Bild herzustellen, und der Marke ab, die sich an der gegebenen Datenetikettenstelle befindet (d.h., je enger die Anpassung ist, um so größer ist die Anzahl der "EIN" Pixel nahe der Datenetikettenstelle). Deshalb werden die Pixelmuster der gefilterten Bilder, wie bei 52, Datenetikettenstelle um Datenetikettenstelle in der logischen Codierungsreihenfolge (oder einer wahlweisen Zugriffsreihenfolge) verglichen, um, wie bei 53, die Datenwerte zu bestimmen und sequentiell auszulesen, die in aufeinanderfolgenden der Marken codiert sind.
  • b. Definitionen
  • Vor der Betrachtung des Decodierverfahrens im einzelnen mag es hilfreich sein, kurz einige der Ausdrücke zu definieren, die zur Beschreibung der "morphologischen Bildverarbeitungsoperationen" genommen worden sind:
  • "Morphologische Operation" ist eine Operation an einem Punktrasterbild (das "Quellenbild" genannt), die eine örtliche Regel an jeder Pixelstelle in dem Quellenbild verwendet, um ein anderes Punktrasterbild (als das "Zielbild" bekannt) zu erzeugen. Zur Bequemlichkeit werden das Quellen- und das Zielbild manchmal als "Pixelraster"-Bilder bezeichnet, so daß die Operationsrate betrachtet werden kann, als daß an jedem "Pixel" gearbeitet wird. "Punktrasterbild" und "Pixelraster" sind gleichwertige Ausdrücke für eine Datenstruktur einer gewissen Art, und "Bit" und "Pixel" werden austauschbar hier verwendet, um die Inhalte einer solchen Datenstruktur zu beschreiben.
  • "Strukturierungselement (SE)" ist ein Bildobjekt typischerweise relativ kleiner Größe und einfacher Form, um das Quellenbild zu sondieren, um Informationen von ihm durch die Verwendung ausgewahlter, morphologischer Operationen zu gewinnen. Die SEe auf die hier unten Bezug genommen wird, sind binare SEe. Sie werden dargestellt, indem Vollkreise verwendet werden, um ihre "EIN" Pixel zu kennzeichnen, und offene Kreise, um ihre "AUS" Pixel zu kennzeichnen. Ihre Mitten sind durch ein Videokreuz gekennzeichnet. SEe können auch Pixel "ohne Belang" einschließen, wobei angemerkt wird, daß solche Pixel durch leere Quadrate dargestellt sind.
  • Die folgenden Ausdrücke sind für binare, morphologische Operationen spezifisch:
  • "EROSION" ist eine Operation, die durchgeführt wird, indem ein binäres Quellenbild mit einem SE sondiert wird, um ein "ein" (1) oder "aus" (0) Pixel in das Zielbild für jede Pixestelle innerhalb des Quellenbildes zu schreiben, wobei der logische Pegel des Pixel, das an irgendeiner gegebenen Stelle geschrieben wird, davon abhangt, ob das Quellenbild zu dem SE paßt oder nicht, wenn es an der gegebenen Pixelstelle zentriert ist. Wenn das SE, das passen soll, "Treffer" und "Fehltreffer" enthalt, wird die Anpassungsoperation im allgemeinen eine "Treffer- Fehler-Transformation" genannt. Jedoch ist, um diese Offenbarung zu vereinfachen, die Definition von "EROSION" erweitert worden, um solche Treffer-Fehler- Transformationen einzuschließen.
  • "AUSDEHNUNG" ist eine Operation, die durchgeführt wird, indem ein binares Quellenbild mit einem SE geprüft wird, um das SE in das Zielbild auf Mitten zu schreiben, die den Stellen alle "EIN" Pixel in dem Quellenbild entsprechen. Wie es hier verwendet wird, ist "AUSDEHNUNG" nur für "Treffer" in dem SE definiert, so daß "Fehltreffer" unberücksichtigt sind. Somit ist das ausgedehnte Zielbild die Vereinigung aller Kopien des SE, die in alle 1-Pixel des Quellenbildes übersetzt worden sind.
  • "ÖFFNUNG" ist eine Operation zum Kopieren eines SE in das Zielbild für jede Anpassung an das SE in dem Quellenbild. Es ist einer EROSION eines Quellenbildes durch ein SE aquivalent, dem eine AUSDEHNUNG des erodierten Bildes durch dasselbe SE folgt. Wenn man sich an die vorstehenden Definitionen von EROSION und AUSDEHNUNG halt, ist die Definition der ÖFFNUNG Operation ausgedehnt worden, um eine EROSION mit einem SE einzuschließen, das "Treffer" und "Fehltreffer" enthalt, woraufhin eine AUSDEHNUNG mit nur den "Treffern" in dem SE folgt.
  • "SCHLIESSEN" ist eine Operation, die aus einer AUSDEHNUNG eines Quellenbildes mit nachfolgender EROSION des ausgedehnten Bildes gebildet ist. Ein SCHLIESSEN eines Bildes ist einer Bitumkehrung einer ÖFFNUNG aquivalent, die an einem Quellenbild mit umgekehrten Bits ausgeführt wird. im Hinblick auf die vorstehende Definition von AUSDEHNUNG versteht es sich, daß SCHLIESSEN hier nur für "Treffer" in dem SE definiert ist, so daß irgendwelche "Fehltreffer" unberücksichtigt sind.
  • Morphologische Operationen sind translationsinveriant. Mit anderen Worten kann ein Quellen verschoben werden, bevor es transformiert wird, wodurch bewirkt wird, daß das Ergebnis um die gleiche Größe versetzt oder verschoben wird, ohne es sonst zu andem. Dies bedeutet, daß diese Operationen mit einem hohen Maß an Parallelität ausgeführt werden können, weil jedes Bit oder Bildelement in dem Quellenbild nach Maßgabe derselben Regel verarbeitet wird.
  • EROSION, AUSDEHNUNG, ÖFFNUNG und SCHLIESSEN Operationen, die mit SEen ausgeführt werden, die nur aus "Treffern" bestehen, sind geometrisch "zunehmende" Operationen. Deshalb sind, wenn ein erstes Bild in einem zweiten Bild enthalten ist, irgendwelche dieser Operationen, die mit solch einem SE an dem ersten Bild ausgeführt werden, auch in dem zweiten Bild enthalten. Des weiteren ist SCHLIESSEN "extensiv" und ÖFFNUNG ist "antiextensiv". Demgemäß ist das Quellenbild in dem Zielbild enthalten, wenn die Quelle durch ein SCHLIESSEN transformiert wird, und das Zielbild ist in dem Quellenbild enthalten, wenn die Quelle durch ÖFFNUNG transformiert wird. Die Ergebnisse der Operationen ÖFFNUNG und SCHLIESSEN sind von der Position der Mitte des SE unabhängig. Des weiteren sind die Operationen ÖFFNUNG und SCHLIESSEN indempotent, das bedeutet, daß sie das transformierte Bild nicht andern, wenn sie erneut auf SE angewendet werden.
  • Andere Ausdrücke, die manchmal beim Beschreiben von morphologischen Operationen verwendet werden:
  • Ein "4-Verbindungsbereich" ist eine Gruppe von EIN ("1") Pixeln, so daß ein Weg zwischen irgendwelchen zwei dieser Pixel gefunden werden kann, der vollständig innerhalb der Gruppe der EIN Pixel bleibt und nur aus horizontalen oder vertikalen Bewegungen von 1 Pixel besteht.
  • Ein "8-Verbindungsbereich" ist eine Gruppe von EIN ("1") Pixeln, so daß ein Weg zwischen irgendwelchen zwei dieser Pixel gefunden werden kann, der vollständig innerhalb der Gruppe von EIN Pixel bleibt und nur aus horizontalen oder vertikalen oder diagonalen Bewegungen von 1 Pixel besteht.
  • Ein "Treffer-Fehltreffer-SE" ist ein SE, das eine von null verschiedene Gruppe von EIN Pixeln und eine von null verschiedene Gruppe von AUS ("0") Pixeln angibt, wobei sich diese zwei Gruppen nicht überlappen (d.h., sich nicht schneiden).
  • Ein "schwach" passendes Filter gibt relativ wenige Pixel des Pixelmusters an, zu dem es gehört, während ein "stark" passendes Filter einen großen Prozentsatz des Pixelmuster angibt, zu dem es gehört.
  • Ein "Nur-Treffer" SE ist ein SE, das eine von null verschiedene Gruppe von EIN Pixel angibt.
  • c. Eine detaillierte Ausführung
  • Nun auf Bezugnahme auf Fig. 5 und unter Berücksichtigung der allgemein angenommenen Praxis werden die Betriebsmittel Prozessor und Hauptspeicher, die verwendet werden, das Markendecodierprogramm auszuführen, jedesmal erneut initialisiert, wie bei 61, wenn das Decodierprogramm aufgerufen wird. Bei der in Fig. 1 dargestellten Ausführungsform kommuniziert der Prozessor 22 mit seinem Hauptspeicher 23 und, wenn es notwendig ist, mit seinem Massenspeicher 24 (Fig. 1), um das Markendecodierverfahren auszuführen, wobei es aber offensichtlich ist, daß das Decodierverfahren unter der Steuerung eines getrennt programmierten Prozessors (nicht gezeigt) durch die Verwendung des Hauptspeichers 23 oder durch die Verwendung eines getrennten Speichersystems (nicht gezeigt) ausgeführt werden könnte.
  • i. Taktwiederherstellung
  • Sobald das System initialisiert worden ist, eine gegebene Markencodierung zu decodieren, wird eine Kopie des Punktrasterbildes der Codierung in den Hauptspeicher, wie bei 62, geladen, und dieses Bild wird dann, wie bei 63, transformiert, um ein identisch skaliertes Punktrasterbild zu liefern, das aus wenigstens einem zentral angeordneten Bit oder "Pixel" gebildet ist, aber aus nicht mehr als einigen wenigen für jede der Marken der Codierung. Wie es hier unten beschrieben ist, wird das Verfahren zur Durchführung der Transformation 63 typischerweise für die Raumdichte, mit der Marken gedruckt werden sollen, maßgeschneidert, weil Marken hoher Dichter wahrscheinlicher durch die Unschärfe untrennbar verschmelzen, die während des Druckens, Kopierens und Abtastens auftritt, als Marken niederer Dichte. Wenn die abgetasteten Marken gut getrennt sind, können sie auf ein einzelnes Pixel nahe ihren entsprechenden Mitten geschrumpft werden. Wenn sich andererseits die abgetasteten Marken berühren, können sie zuerst voneinander durch Filtern isoliert und dann geschrumpft werden. Für den Augenblick wird angenommen, daß die Transformation 63 das abgetastete Punktrasterbild der Markencodierung in ein Punktrasterbild transformiert, das ein einzelnes Pixel bei der ungefahren Mitte jeder Datenzelle der Codierung enthält, wobei es sich aber versteht, daß dies nicht wesentlich ist.
  • ii Bestimmung der Schiefe und der Skalierung
  • In der Praxis kann das abgetastete Bild der Markencodierung, das decodiert werden soll, von der horizontalen in einer Uhrzeigersinn- oder Gegenuhrzeigersinnrichtung schief sein und kann durch Skalierungsfehler unterschiedlicher Größe entlang seiner X- Achse und/oder Y-Achse verzerrt sein. Aus diesem Grund wird bei 65 Vorsorge getroffen, die Schiefe- und Skalierungskorrekturfaktoren zu berechnen, um solche Fehler auf einer markenweisen Grundlage (wie gezeigt) oder auf einer datenblockweisen Grundlage, die nicht gezeigt ist, oder durch die Verwendung eines Bildausrichtungs- und Skalierungsverfahrens (ebenfalls nicht gezeigt) zu korrigieren.
  • Wie es offensichtlich ist, können Schiefe- und Skalierungskorrekturfaktoren von den X-Y Koordinaten in dem abgetasteten Punktrasterbildraum von irgendwelchen drei oder mehr nichtkolinearen Bezugspunkten berechnet werden, die eine nominale (d.h., fehlerfreie) räumliche Beziehung aufweisen, die bekannt ist oder bestimmt werden kann. Einer dieser Bezugspunkte wird ausgewählt, eine translationsinvariante Bezugsposition festzulegen, so daß die Schiefe- und Skalierungsfehler bestimmt werden können, indem der Abstand und der Winkel verglichen werden, unter dem die tatsächliche und die nominale Position von jedem der anderen Bezugspunkte von diesem räumlich festgelegten Bezugspunkt verschoben sind.
  • Wie es vorhergehend angegeben worden ist, werden die datencodierten Marken typischerweise mit einer vorbestimmten Raumdichte in allgemein quadratischen Datenanordnungen oder Blöcken gedrückt, so daß die Mitten der die Marken festlegenden Datenzellen (im allgemeinen hier als Markenmiften bezeichnet) üblicherweise in eine allgemein rechteckigen Ausbildung angeordnet sind. Deshalb werden die Schiefe- und Skalierungskorrekturfaktoren geeigneterweise aus den X-Y Raumkoordinaten des Punktrasterbildes der augenscheinlichen Mittenpixel von mindestens drei der Eckenmarken der gedruckten Markencodierung berechnet (obgleich es aus der vorstehenden Beschreibung der Eigenschaften offensichtlich ist, die für die sogenannten "Bezugspunkte" verlangt werden, daß die augenscheinlichen Mitten von irgendwelchen anderen eindeutig erkennbaren Marken statt oder zusätzlich zu den augenscheinlichen Mitten der Eckenmarken verwendet werden könnten). Somit werden, wie es dargestellt ist, die X-Y Koordinaten der ausgewählten Eckenpixel der Reiehe nach gekennzeichnet bei 66 und gespeichert bei 67, bis bei 68 bestimmt wird, daß alle Informationen, die benötigt werden, die Schiefe- und Skalierungskorrekturfaktoren bei 65 zu berechnen, gesammelt worden sind.
  • Wiederum versteht es sich jedoch, daß die augenscheinlichen Mitten von irgendwelchen anderen, eindeutig erkennbaren Marken statt oder zusätzlich zu den augenscheinlichen Mitten der Eckenmarken verwendet werden könnten, um solche Schiefe- und Skalierungskorrekturfaktoren zu berechnen, so daß auf die vorstehende Beschreibung der Eigenschaften, die von den sogenannten "Bezugspunkten" verlangt wird, Bezug genommen wird. Des weiteren versteht es sich, daß die Mittenpixel der Eckenmarken zur Berechnung der Schiefe- und Skalierungskorrekturfaktoren für andere Arten von Markencodierungsmuster verwendet werden können, wie hexagonale Gittermuster.
  • Es kann eine relativ einfache Bildanalyse an dem transformierten Punktrasterbild vorgenommen werden, das durch den Transformationsschritt 63 geliefert wird, um die X-Y Koordinaten der Eckenpixel mit ausreichender Genauigkeit zu kennzeichnen, um geeignete Schiefe- und Skalierungskorrekturfaktoren zu berechnen. Wenn das Punktrasterbild der augenscheinlichen Markenmittenpixel in der Reihenfolge von links nach rechts und von oben nach unten abgetastet wird, wobei etwas oberhalb des Punktrasterbildes begonnen wird, kann das erste EIN Pixel, das angetroffen wird, entweder das obere, linke Eckenpixel oder ein Pixel bei oder nahe der oberen, rechten Ecke des Bildes sein.
  • Um diese Mehrdeutigkeit aufzulösen, wird dieses Pixel versuchsweise als oberes, linke Eckenpixel angenommen, wöbei es aber Gegenstand ist, zugunsten davon zurückgewiesen zu werden, die Bezeichnung als oberes, linkes Eckenpixel auf irgendein nachfolgend abgetastetes Pixel anzuwenden, das mehr als M Pixel links und nicht mehr als N Abtastzeilen unterhalb des versuchsweise angenommenen Pixels ist.
  • Bei manchen Situationen kann die obere, linke Eckenmarke fehlen, so daß das Pixel, das die ungefähre Mitte der zweiten Marke in der ersten Zeile der Markencodierung darstellt, versuchsweise als das obere, linke Eckenpixel gekennzeichnet werden kann. Wenn jedoch N etwas größer (in Abtastzeilen) als der durchschnittliche, vertikale Abstand von Mitte zu Mitte der Marken oder Datenzellen gewählt wird, kann dieser Fehler bestimmt und korrigiert werden, indem eine obere, linke Eckenpixelstelle dem Punktrasterbild hinzugefügt wird, wenn ein EIN Pixel jederzeit während des Abtastens der N Abtastzeilen in einem Abstand von grob einer Datenzelle links des versuchsweise angenommen Pixels angetroffen wird. in anderen Situationen kann das Pixel, das die ungefähre Mitte der ersten Marke in der zweiten Datenzeile markiert, etwas links des oberen, linken Eckenpixels sein. Wenn jedoch M ausgewählt wird, daß es ein geeignet größerer Bruchteil (sagen wir ungefähr einhalb) der durchschnittlichen horizontalen Verschiebung von Mitte zur Mitte (in Druckerpixel oder pels) der Datenzellen ist, wird diese Annormalität im allgemeinen nicht berücksichtigt, wenn das Punktrasterbild um mehr als 20º oder so schief ist. Kurz gesagt, hängen die bevorzugten Werte für M und N von der Datenzellengröße in pels der gedruckten Marken ab. Bei einer Datenzellengröße von 10 pel x 10 pel wird M geeigneterweise ausgewählt, daß es ungefähr 5 Pixel ist, und N wird geeigneterweise ausgewählt, daß es ungefähr 15 Abtastzeilen ist. Zum Vergleich wird für eine Zellengröße von 5 pel x 5 pel typischerweise M ausgewählt, daß es ungefähr 3 Pixel ist, und N wird typischerweise ausgewählt, daß es ungefähr 8 Abtastzeilen ist.
  • Das oben beschriebene Verfahren zur Lokalisierung der oberen, linken Ecke eines abgetasteten Markencodierungsmusters ist in einfacher Analogie erweiterbar, um entsprechende Verfahren zur Lokalisierung der augenscheinlichen Mittenpixel der oberen, rechten Ecke, der unteren, linken Ecke und der unteren, rechten Eckenmarken des abgetasteten Codierungsmusters zu liefern. Die X-Y Koordinaten dieser Eckenpixel können in dem Punktrasterbildraum gekennzeichnet werden, indem (0,0) Bezugskoordinaten sagen wird dem Pixel an der oberen, linken Ecke zugeordnet werden und indem dann die Koordinaten aller anderen Eckenpixel zu diesen Bezugskoordinaten in Bezug gesetzt werden.
  • Alternativ kann das augenscheinliche Mittenpixel von irgendeiner oder allen Eckenmar- Ren gefunden werden, indem eine oder mehrere Abtastungen entlang einer Abtastlinie ausgeführt werden, die nach rechts aufwärts für die obere, linke und die untere, rechte Ecke und links aufwärts für die obere, rechte und die linke, untere geneigt ist. Diese Abtastlinie wird anfangs mit einem sicheren Abstand außerhalb des Markencodierungsmusters angeordnet, aber sie wird schrittweise einwärts in Richtung zu der Zieleckenmarke für jede aufeinanderfolgende Abtastung verschoben, um sich fortschreitend auf ihr einzuschließen. Deshalb ist das augenscheinliche Mittenpixel der Zieleckenmarke üblicherweise das erste "EIN" Pixel, das dieses Abtastverfahren antrifft.
  • Wenn die Datenzellengröße (in Drucker pels) der gedruckten Marken und die X-Y Punktrasterbildraumkoordinaten der augenscheinlichen Mittenpixel des gedruckten Markencodierungsmusters gegeben sind, können die Drehung und die Skalierung des Punktrasterbildes der Markencodierung bestimmt werden, wie es oben beschrieben worden ist. Alternativ kann die Periodizität der Marken bestimmt werden, indem eine Frequenztransformation, wie eine Fourier-Transformation oder einer Walsh-Transformation, an entweder dem abgetasteten Punktrasterbild der Markencodierung oder an dem Punktrasterbild der Markenmittenpixel durchgeführt wird.
  • iii. Springen, Suchen und Etikettieren
  • Somit ist es offensichtlich, daß die durchschnittliche Anzahl Pixel zwischen den Mitten benachbarter Marken in dem Punktrasterbild der Markencodierung auch berechnet werden kann, wie bei 80. Wenn diese Informationen gegeben sind, kann ein Sprung- und Suchverfahren bei sagen wir dem oberen, linken Eckenpixel des Punktrasterbildes der augenscheinlichen Markenmitten initiiert werden, um die ungefähren X-Y Punktrasterbildraumkoordinaten für die augenscheinlichen Mitten von aufeinanderfolgenden räumlich benachbarten Marken der gedruckten Markencodierung zu identifizieren, wie bei 71, und zu speichern, wie bei 72. Dieses Koordinatenetikettierungsverfahren beginnt mit einem Sprung von dem oberen, linken Eckenpixel zu der erwarteten Stelle der Mitte seines rechten Nachbars. Wenn ein EIN Pixel an dieser Stelle gefunden wird, wird das Pixel mit seinen X-Y Koordinaten etikettiert, und das Verfahren springt dann zu der erwarteten Mittenstelle der nächsten, benachbarten Marke. Wenn andererseits das Verfahren fehischlägt, ein EIN Pixel an der erwarteten Mittenstelle zu finden, führt es eine ausgedehnte Suche durch, wobei typischerweise ein sich ausdehnendes, rautenförmiges oder spiralförmiges Suchmuster verwendet wird, um zu bestimmen, ob es ein EIN Pixel innerhalb einiger weniger Pixelpositionen in einer Richtung oder einer anderen der erwarteten Mittenstelle gibt. Wenn es so ist, etikettiert das Verfahren das erste "EIN" Pixel, das es antrifft, mit seinen X-Y Koordinaten und springt dann zu der wahrscheinlichen Mittenstelle der nächsten, benachbarten Marke. Umgekehrt, kehrt, wenn die Suche fehlschlägt, ein nahegelegenes EIN Pixel zu finden, das Verfahren geeigneterweise zu der Stelle zurück, an der es erwartete, das Mittenpixel für die Marke zu finden, um diese Stelle mit ihren X-Y Koordinaten zu etikettieren, bevor vorwärts gesprungen wird, um das Mittenpixel der nächsten Marke zu lokalisieren. Dieses Verfahren fährt markenweise und zeilenweise bei der abgetasteten Markencodierung fort, um eine X-Y Koordinatenetikette in dem Punktrasterbildraum für jede und alle Markenmittenstellen zu liefern.
  • iv. Erneut kalibrierte Markenmittenetikettierung (wahlweise)
  • Wie es in Fig. 6 gezeigt ist, kann die Markenmittenetikettierung, die mit dem oben beschriebenen Sprung- und Suchverfahren ausgeführt wird, Fehler enthalten, wenn die Markenmitten nicht gut in dem Markenmittenrasterbild getrennt sind. Einige der Transformationsverfahren, die zur Erzeugung eines Markenmittenrasterbildes von einem abgetasteten Punktrasterbild mit Markencodierung hoher Dichte verwendet werden können, garantieren nicht, daß eine solche Trennung für alle Markenmitten vorhanden ist, so daß es ein wahlweises Kalibrierungsverfahren zur erneuten Berechnung der X-Y Koordinatenetiketten für die Markenmitten solcher Bilder gibt.
  • Zu der Fig. 5 zurückkehrend sieht man, daß dieses wahlweise Kalibrierungsverfahren die X-Y Koordinaten für den Schwerpunkt von einer oder mehreren Gruppen von Markenmittenpixeln verwendet, um die X-Y Koordinaten für alle Markenmittenpixel innerhalb von jeder dieser Gruppen auf der Grundlagen des mittleren Abstandes dieser Pixel von dem Schwerpunkt der gegebenen Gruppe zu berechnen. Diese Kalibrierung kann einmal ausgeführt werden, um die X-Y Koordinaten der Markenmittenpixel in bezug auf den Schwerpunkt des Markenmittenrasterbildes zu kalibrieren. Oder, wie es gezeigt ist, es kann wie bei 81, wiederholt werden, um die X-Y Koordinaten aufeinanderfolgender Gruppen (z.B. 16 x 16 Blöcke) von Markenmittenpixeln, wie bei 82, in bezug auf ihre entsprechenden Schwerpunkte zu kalibrieren, wie bei 83 bestimmt wird.
  • v. Wiederherstellung kopierter Datenwerte fur den Zeitbereich
  • Nachdem die X-Y Koordinatenetiketten auf die Markenmittenpixel angewendet worden sind und alle notwendigen Kalibrierungen von ihnen abgeschlossen worden sind, werden die X-Y Koordinatenetiketten normalerweise zu einer logischen Blockfolge sortiert, wodurch sie seriell nach Maßgabe der Reihenfolge umgeordnet werden, in der die Daten in durch sie etikettierte Marken codiert werden. Des weiteren werden, wie es bei 85 angegeben ist, schrittweise zunehmende lndexwerte den neu geordneten Etiketten zugeordnet, so daß sie ohne weiteres in sortierter Folge wiedergewonnen werden können.
  • vi. Bestimmung von Datenwerten aus Markengestalten
  • Sich der Fig. 7 zuwendend kann, da die indexierten X-Y Koordinatenetiketten für die Marken gegeben sind, die Markencodierung decodiert werden, indem die Formen der einzelnen Marken in logischer Folge analysiert werden, um seriell die Datenwerte zu bestimmen, die in ihnen codiert worden sind. Ein solches Analyseverfahren ist z.B. aus PROCEEDINGS SPIE CONFERENCE IMAGE ALGEBRA & MORPHLOGICAL IMAGE PROCESSING, 10-12. Juli 1990 SAN DIEGO, US; Seiten 116-128: D. BLOOMBERG & P. MARAGOS: "Generalized hit-miss operations" bekannt. Um diese Markengestaltanalyse auszuführen, wird das abgetastete Punktrasterbild der Markencodierung, wie bei 101, getrennt bei 102 nach Maßgabe einer Mehrzahl unterschiedlicher Filter, wie bei 103, gefiltert, von denen jeder ausgewählt wird, Pixel von einer entsprechenden der zulässigen Markengestaten hindurchzulassen und Pixel von allen anderen Markengestalten zu unterdrücken. Aus diesem Grund können die Filter beschrieben werden, als daß sie einzelne auf die entsprechenden der zulässigen Markengestalten "abgestimmt" sind. Das Punktrasterbildfiltern kann der Reihe nach ausgeführt werden, wie es in Fig. 7 gezeigt ist, oder parallel, wie bei Fig. 4 angegeben. Jedenfalls werden die gefilterten Punktrasterbilder bei 104 gespeichert, so daß sie während der markenweisen Analysephase des Decodierverfahrens wiedergewonnen werden können, wie es unten beschrieben ist.
  • Um die gefilterten Punktrasterbilder bereitzustellen, wird das Punktrasterbild der Markencodierung vorteilhafterweise morphologisch durch die Verwendung unabhängiger Operationen nach Maßgabe einer Mehrzahl unterschiedlicher, schwacher Treffer- Fehltreffer-Filter erodient, von denen jedes relativ gut an eine verschiedene der zulässigen Markengestalten angepaßt ist und relativ schlecht an alle anderen angepaßt ist. Diese Filter werden als "schwache" Treffer-Fehltreffer-Filter bezeichnet, weil sie nur lose die Formen der Marken festlegen (d.h., die Muster der "EIN" und "AUS" Pixel, die die Markengestalten definieren). Infolgedessen bewirkt das Filtern einer passenden Marke innerhalb des Quellenbildes typischerweise mehrere EIN Pixel, die in das Ziel- oder gefilterte Bild nahe der Mitte der passenden Marke geschrieben werden, während das Filtern einer nichtpassenden Marke beträchtlich weniger, wenn überhaupt, EIN Pixel ergibt, die in das Zielbild nahe der Mitte der nichtpassenden Marke geschrieben werden. Mit anderen Worten bewirkt das Filtern eine beträchtlich größere Anzahl EIN Pixel, die in ein gefiltertes Bild für die Marke geschrieben werden sollen, die gut zu dem Filter paßt, das verwendet wird, dieses bestimmte Bild zu erzeugen, als für die Marken, die an das Filter unangepaßt oder nur schlecht angepaßt sind.
  • Nachdem bei 105 bestimmt worden ist, daß alle gefilterten Punktrasterbilder konstruiert worden sind, wird ein Markenindexzeiger 107, wie bei 106, auf den Indexwert für die erste Marke gesetzt, die decodiert worden ist, wodurch die X-Y Bildraumkoordinatenetikette für die erste Marke aus dem Speicher wiedergewonnen wird. Diese Marke wird bei 111 verwendet, um räumlich hintereinander die gefilterten Punktrasterbilder bei ungefähr der Mitte der Marke zu adressieren, die decodiert werden soll, so daß die EIN Pixel, die jedes dieser Bilder nahe der Mitte dieser bestimmten Marke enthält, gezählt werden können, wie bei 112. Diese Zählwerte wiederum werden in getrennten Zellen eines Datenfeldes gespeichert, wie bei 113.
  • Typischerweise wird das Pixelzählen ausgeführt, indem an dem etikettierten Mittelpunkt der adressierten Marke begonnen wird und sich dann nach außen von dort bewegt wird, um die Anzahl von EIN Pixel zu zählen, die in eine ausgewählte Anzahl fortschreitend größerer Quadrate fällt, die zu dem Markenmittelpunkt zentriert sind. Dieses "Quadrat- Suchmuster" dehnt sich in alle Richtungen mit einer Geschwindigkeit von einer Pixelposition/Ring aus, wobei aber die Suche auf die Datenzelle für die Marke begrenzt ist, die decodiert wird ist. Beispielsweise ist, wie es in Fig. 8 gezeigt ist, eine Suche mit drei Ringen für Markencodierungen geeignet, die mit einer Dichte von 900 Bit/Inch² (ungefähr 1,4 Bit/mm²) geschrieben sind, wobei Datenzellen für die Marken von 10 pel x 10 pel verwendet werden. Im Gegensatz wird, wie es in Fig. 9 gezeigt ist, eine Suche mit zwei Ringen für Markencodierungen bevorzugt, die mit einer Dichte von 3600 Bit/Inch² (ungefähr 5,6 Bit/mm²) geschrieben werden, wobei Datenzellen von 5 pel x 5 pel verwendet werden. In beiden Fällen ist der innerste Ring der mit X-Y etikettierte Mittelpunkt der Marke.
  • Nachdem bei 115 (Fig. 7) bestätigt worden ist, daß alle Pixelzählwerte für die gegebene Marke aufaddiert worden sind, wird das Datenfeld, das sie enthält, bei 116 in der Rangordnung nach dem Zählwert sortiert, so daß die zwei größten Zählwerte aus ihm unmittelbar zum Vergleich, wie bei 117, gewonnen werden können. Wenn diese Zählwerte ungleich sind, wie es bei 121 bestimmt wird, wird der Datenwert, der der Markengestalt zugeordnet ist; die den größten Zählwert ergibt, dem Index für die gegebene Marke zugeordnet, wie bei 122. Wenn andererseits die Gleichheitsprüfung 121 bestimmt, daß die zwei größten Zählwerte gleich sind, wird ein Fehlerzählwert erhöht, wie bei 124, um die Anzahl der Decodiermehrdeutigkeiten zu verfolgen, die auftreten, und die X-Y Koordinatenetikette der mehrdeutigen Marke wird gespeichert, um anzugeben, wo die Mehrdeutigkeit oder der "Fehler" auftrat. Danach wird eine Abschätzung des Datenwerts, der in der mehrdeutigen Marke codiert worden ist, ihrem Index zugeordnet, wie bei 125. Dann, wenn bei 126 bestimmt wird, daß es mehr Marken gibt, die decodiert werden sollen, wird der Markenindexwert bei 107 erhöht, um das Zähl- und Vergleichsverfahren bei der nächsten Marke zu wiederholen.
  • vii. Systeme, die eine Fehlerkorrekturcodierung verwenden
  • Wie es in Fig. 10 gezeigt ist, kann die Codierung und Decodierung in Markengestalten für Daten verwendet werden, die Fehlerkorrekturcodierungen enthalten. Hierfür wird die Date in Markengestalt bei 131 codiert, und die codierten Markengestalten werden dann in ein Punktrasterformat bei 132 umgewandelt, so daß sie bei 133 auf ein geeignetes Aufzeichnungsmedium, wie unbehandeltes Papier, durch einen Punktrasterdrucker gedruckt werden können. Nachfolgend wird das gedruckte Bild (das vom Menschen lesbare Informationen sowie die Markencodierung enthalten kann) in ein Rasterbild durch einen Eingabeabtastvorgang 134 umgewandelt. Dieses Punktrasterbild wird einem Analysealgorithmus bei 135 unterzogen, um das abgetastete Bild der Markencodierung zu trennen, so daß das oben beschriebene Decodierverfahren bei 136 verwendet werden kann, um decodierte Datenwerte den Marken- oder Datenindexen zuzuordnen. Die als Marken decodierten Daten werden dann bei 137 mit einem Fehlerkorrekturcodierungsdecodierer verarbeitet, um die ursprünglichen Daten in der fehlerkorrigierten Form zu liefern.
  • viii. Transformationen für getrennte Markenmittenpixel
  • Indem zu dem Problem zurückgekehrt wird, die Mitten der Marken bei einer Codierung in Markengestalt zu kennzeichnen, werden drei unterschiedliche Techniken zur Durchführung dieser Funktion beschrieben. Zwei Verfahren zur Transformation des abgetasteten Punktrasterbildes der Markencodierung in ein Punktrasterbild der Markenmittenpixel, wie bei 63 in Fig. 5, wird in diesem Abschnitt beschrieben, und ein drittes Verfahren, das keine solche Transformationen verlangt, wird in dem folgenden Abschnitt beschrieben. Deshalb wird in diesem Abschnitt angenommen, daß das Transformationsverfahren 63 ausgeführt wird, um die Markenmitten als einen getrennten und einzelnen Schritt von der Bestimmung der Marken zu trennen. Wie man sehen wird, kann das Transformationsverfahren 63 durch die Verwendung breiter Filter, die die Periodizität der Markencodierung (diese Filter sind typischerweise in der Größenordnung von 2-6 Zyklen lang) darstellen, oder durch die Verwendung kleiner Filter ausgeführt werden, die einzelne Markenformen darstellen (diese Filter sind üblicherweise etwas kleiner als die Marken).
  • Indem sich zuerst der breiten Filterausführung der Transformation 63 zugewandt wird, versteht man, daß die Marken von Markencodierungen niederer Dichte (d.h., diejenigen, die mit Dichten von bis zu ungefähr 2500 Marken//Inch² (ungefähr 3,87 Marken/mm²) gedrückt werden, wobei Markenzellen so klein wie 6 Pixel x 6 Pixel verwendet werden) üblicherweise vernünftig gut in dem abgetasteten Punktrasterbild der Markencodierung getrennt sind. Deshalb können, wie es in Fig. 11 gezeigt ist, ihre augenscheinlichen Mittenpixel im allgemeinen mit ausreichender Genauigkeit durch ÖFFNEN des abgetasteten Punktrasterbildes 140 (siehe Fig. 12) nach Maßgabe eines breiten, horizontalen Treffer-Fehltreffer-Filters, wie bei 141, und eines breiten, vertikalen Treffer-Fehltreffer- Filters, wie bei 142, identifiziert werden. Die Ergebnisse der ÖFFNUNG Operation werden einer Bit-ODER-Operation bei 143 unterzogen, um ein gefiltertes Punktrasterbild einer ersten Ebene zu erzeugen, das eine relativ wenig diagonale EIN-Pixelstruktur aufweist. Als nächstes wird das gefilterte Punktrasterbild bei 144 und 145 nach Maßgabe des horizontalen bzw. vertikalen Treffer-Fehltreffer-Filters GEÖFFNET, und die Ergebnisse dieser Operationen werden einer Bit-UND-Operation unterzogen, wie bei 146, um ein gefiltertes Rasterbild auf einer zweiten Ebene zu liefern, das sogar weniger diagonale Struktur und weniger vertikale und horizontale Struktur aufweist. Man vergleiche Fig. 13. Wenn es erwünscht ist, die EIN Pixelstruktur des gefilterten Bildes der zweiten Ebene (siehe Fig. 14) zu verringern, können ein oder mehrere zusatzliche Iterationen des Filterverfahrens der zweiten Ebene ausgeführt werden, wie es in Fig. 15 bei 151-156 gezeigt ist.
  • Wie es in Fig. 19 gezeigt ist, wird, um die Markenmittenpixel von Marken höherer Dichte (d.h. Dichten bis zu 3600 Marken/Inch² (ungefahr 5,6 Marken/mm²), wobei Markenzellen so klein wie 5 pel x 5 pel verwendet werden) zu lokalisieren, das Punktrasterbild der Markencodierung geeignet GEÖFFNET bei 161 und 162 nach Maßgabe des breiten, horizontalen und vertikalen Nur-Treffer-Filters, und die Ergebnisse dieser Verfahren werden dann einer Bit-UND-Operation bei 163 unterzogen, um ein Punktrasterbild zu konstruieren, das aus besser getrennten Marken zusammengesetzt ist.
  • Die Bit-UND-Operation 163 der Biid-ÖFFNUNGS-Operationen 161 und 162 können einige unbeabsichtigte Löcher bei den Markenmittenstellen in dem sich ergebenden Punktrasterbild erzeugen, wobei aber diese Löcher gefüllt werden können. Hierfür kann diese bestimmte Version des Transformationsverfahrens 63 (Fig. 5) des weiteren eine oder mehrere Iterationen eines Füll- und Reparaturverfahrens einschließen. Um dieses Füll- und Reparaturverfahren auszuführen, wird, wie es in Fig. 20 gezeigt ist, das gefilterte Punktrasterbild zuerst bei 171 und 172 nach Maßgabe des breiten, horizontalen bzw. vertikalen Nur-Treffer-Filters AUSGEDEHNT, und die ausgedehnten Bilder werden dann einer Bit-UND-Operation bei 173 unterzogen, um zu verhindern, daß sich das Punktrasterbild ausdehnt. Dieses Bild wiederum wird bei 174 und 175 nach Maßgabe entweder des breiten Nur-Treffer-Filters oder des breiten Treffer-Fehltreffer-Filters GEÖFFNET, und die Ergebnisse des ÖFFNUNGS-Operationen 174 und 175 werden dann einer Bit-UND-Operation 176 unterzogen.
  • Nach Abschluß des Füll und Reparaturverfahrens kann das Punktrasterbild mehrere Punktrasterbild EIN Pixel nahe wenigstens einiger Markenstellen aufweisen. Jedoch kann das Bild auf ungefähr ein Pixel pro Marke ausgedünnt werden, indem ein iteratives Ausdünnungsverfahren an ihm ausgeführt wird, bis die Ausdünnung anhält. Wie es in Fig. 22 gezeigt ist, wird dieses Ausdünnungsverfahren mit einer Kopie des Punktrasterbildes, das ausgedünnt werden soll, wie bei 190, bzw. mit der ersten einer Gruppe von vier Treffer-Fehler-Seen 191-194 begonnen. Diese Treffer-Fehltreffer-Filter 191-194 legen räumliche Folgen von zwei EIN Pixel und einem AUS Pixel unter Winkeln von 0º, 90º, 180º bzw. 270º fest. Während der Anfangsiteration dieses Ausdünnungsverfahrens wird das Punktrasterbild zuerst, wie bei 195, nach Maßgabe des ersten SE 191 ERODIERT, und das ERODIERTE Punktrasterbild wird dann bei 196 mit dem Bild 190 einer EXKLUSIV-ODER-Operation unterzogen, das ausgedünnt wird, wodurch ein einzelnes EIN Pixel von jeder Markenstelle ausgedünnt oder "beschnitten" wird, die eine Mehrzahl EIN Pixel bei der Ausrichtung des SE 191 enthält, wobei das Pixel, das beschnitten worden ist, dasjenige ist, das zu der Mittenposition des SE 191 ausgerichtet ist. Nach diesem anfänglichen Ausdünnen wird ein SE Index 197 erhöht, um die ERODIEREN und EXKLUSIV-ODER-Schritte 195 und 196 an dem ausgedünnten Bild zu wiederholen, wobei nacheinander die verbleibenden Strukturierungselemente 192-194 verwendet werden, so daß überschüssige EIN Pixel in einer vorbestimmten seitenweisen Reihenfolge für alle horizontal und/oder vertikal benachbarte Gruppen von EIN Pixeln beschnitten werden.
  • Nach jeder Iteration des Verdünnungsverfahrens wird, wie es bei 198 bestimmt wird, das ausgedünnte Punktrasterbild bitmäßig bei 199 mit dem Punktrasterbild 190 verglichen. Wenn die Bilder identisch sind, wird das Ausdünnen angehalten, wobei so das Verfahren abgeschlossen wird. Sonst wird das ausgedünnte Bild bei 190 kopiert, und das Verfahren wird dann mit einem Versuch wiederholt, um das Bild weiter auszudünnen.
  • Selbst Markencodierungen mit höherer Dichte, die räumliche Dichten von bis zu sagen wir 5625 Marke/Inch² (ungefähr 8,72 Marken/mm²) mit Markenzellen so klein wie sagen wir 4 pel x 4 pel haben, können transformiert werden, um die augenscheinlichen Mitten ihrer Marken zu lokalisieren, wobei im wesentlichen das gleiche Verfahren verwendet wird, wie es für die Transformation der Codierungen mittlerer Dichte beschrieben worden ist. Jedoch verlangt die Transformation jener Codierungen höherer Dichte im allgemeinen mehrere Iterationen des Füll und Reparaturverfahrens 171-176 (Fig. 20). Alternativ kann, wie es oben angegeben worden ist, das Transformationsverfahren 63 (Fig. 5) durch die Verwendung kleiner Treffer-Fehltreffer-Filter ausgeführt werden, die schwach zu den zulässigen Markengestalten passen. Um dies auszuführen, wird, wie es in Fig. 23 gezeigt ist, das Punktrasterbild der Markencodierung, wie bei 201 und 202, nach Maßgabe der kleinen SEe ERODIERT, die schwach zu den jeweiligen zulässigen Markengestaten passen, und die Ergebnisse dieser EROSIONEN werden dann einer Bit-ODER-Operation unterzogen, wie bei 203, um ein gefiltertes Punktrasterbild zu konstruieren, das aus kleineren Marken oder Pixelmustern gebildet ist. Beispielsweise erzeugt, wenn rotationsmäßig veränderliche Marken verwendet werden, die Bit-ODER- Operation 203 der Ergebnisse der EROSIONEN 201 und 202 ein gefiltertes Punktrasterbild, das aus kleineren, mehr kreisförmigen Bit- oder Pixelmustern gebildet ist. Vergleiche Fig. 16. Dieses gefilterte Punktrasterbild enthält im allgemeinen mehrere Pixel nahe der Mitte jeder Marke.
  • Demgemäß wird im allgemeinen ein Ausdünnungsverfahren der oben beschriebenen Art (siehe Fig. 22) zur Ausdünnu ng des gefilterten Punktrasterbildes auf ungefähr ein EIN Pixel pro Marke benötigt. Diesem Ausdünnungsverfahren kann eine Begrenzungskastertausdehnung der Pixelmarken an den Markenstellen vorausgehen, um zu ermöglichen, daß das Ausdünnen genauer das mittlerste EIN Pixel jeder Marke isoliert. Vergleiche Fig. 17 für ein Beispiel eines Punktrasterbildes, das durch eine solche Begrenzungskastenausdehnung erzeugt worden ist.
  • Das Ausdünnen des gefilterten Punktrasterbildes (Fig. 16) oder seines Gegenstücks mit ausgedehntem Begrenzungskasten kann anhalten, bevor alle Markenmitten durch ein einzelnes, isoliertes EIN Pixel gut definiert sind. In dem Fall von Codierungen höherer, räumlicher Dichte kann dies möglicherweise merkliche Etikettierungsfehler bewirken, die während des Sprung-, Such- und Etikettierungsverfahrens 71-73 auftreten (Fig. 5), wobei aber das wahlweise Kalibrierungsverfahren 81-83 (Fig. 5) üblicherweise fähig ist, die Markenmittenetiketten mit ausreichender Genauigkeit erneut zu kalibieren, um zu ermöglichen, die Markengestaltbestimmungsphase des Decodierverfahrens von Marke zu Marke zu verfolgen, wie bei 107 in Fig. 7.
  • 3. Decodierung durch Faltungsfilterung
  • Es wird sich nun der Fig. 24 zugewandt, in der ein Faltungsfilterverfahren zur Decodierung der Marken einer Codierung in Markengestalt von einem Punktrasterbild der Codierung ist, wie bei 211. Wie man sieht, hat kann dieses Verfahren ausgeführt werden, ohne daß die Marken geschrumpft werden müssen, um ihre augenscheinlichen Mittenpixel in dem X-Y Bild zu lokalisieren. Statt dessen wird das Punktrasterbild 211 getrennt bei 212 mit n verschiedenen Filtern gefaltet, von denen jedes stark zu einer entsprechenden der n zulässigen Markengestalten paßt. Die durch diese Faltungen erzeugten Bilder werden ihrerseits Marke um Marke, wie bei 213-218, zur Identifizierung ihrer X-Y Koordinatenstellen in dem Punktrasterbildraum verarbeitet, während sie im wesentlichen gleichzeitig durch ihre Gestalten zur Decodierung klassifiziert werden, wie bei 221-224. Alternativ könnte das Punktrasterbild Datenzelle um Datenzelle mit einer Gruppe von n passenden Filtern gefaltet werden. Des weiteren versteht sich, daß mehrere Faltungen für jede zulässige Markengestalt ausgeführt werden könnten, um eine ausgedehnte Gruppe gefalteter Bilder zu liefern, um eine zusätzliche Unterscheidung zwischen den verschiedenen Markengestalten bereitzustellen.
  • Wie es in den Fig. 25A und 25B gezeigt ist, können die Faltungsfilter ungewichtet oder gewichtet, wie bei 228 bzw. 229, sein. Ein ungewichtetes Filter ist aus binär positiven und negativen Werten gebildet, während ein gewichtetes Filter aus positiven und/oder negativen Grautonwerten gebildet ist. Wenn gewichtete Filter, wie das Filter 229, verwendet werden, werden sie vorteilhafterweise gewichtet, um die unterscheidenderen Merkmale der Markengestalten hervorzuheben, zu denen sie passen, und die unterscheidenderen Merkmale der anderen Markengestalten abzuschwächen.
  • Insbesondere befinden sich zur Decodierung einer Markencodierung nach Maßgabe des Verfahrens, das in Fig. 24 gezeigt ist, drei oder mehr nicht geradlinige Bezugspunkte bekannter, nominaler, räumlicher Beziehung zueinander in dem Punktrasterbildraum der Markencodierung, wie bei 231, um die Schiefe- und X und Y Skalierungskorrekturfaktoren zu berechnen, wie bei 232. Die X und Y Skalierungskorrekturfaktoren werden bei 233 zur Kalibrierung der durchschnittlichen Verschiebung der Marken von Mitte zur Mitte entlang der X-Achse bzw. Y-Achse des Punktrasterbildraums verwendet. Die Verschiebungswerte, bei denen diese Kalibrierungen ausgeführt werden, können entweder aus der vorherigen Kenntnis der räumlichen Dichte (Druckerpixel), mit der die Marken gedruckt wurden, oder aus der räumlichen Periodizität des Punktrasterbildes der Markencodierung berechnet werden, wie sie durch eine Frequenztransformation bestimmt wird, wie eine schnelle Fourier-Transfromation oder eine schnelle Walsh-Transformation. Der Schiefekorrekturfaktor wird andererseits bei 213 zum Festlegen der Winkel der X und Y Verschiebungsvektoren verwendet, die der Bildverarbeitung erlauben, von einer Markenposition zu der ähnlichen Position der nächsten Marke in dem Punktrasterbildraum mit ausreichender Genauigkeit zu springen, um zu ermöglichen, daß die Mitte der nächsten Marke lokalisiert wird, indem eine Suche über einen relativ kleinen, örtlichen Bereich ausgeführt wird. Diese örtliche Suche wird geeigneterweise nach Maßgabe eines sich ausdehnenden, rautenförmigen oder eines sich ausdehnenden Quadratring-Suchmusters ausgeführt. Kurz gesagt, ist es offensichtlich, daß es wesentliche Ähnlichkeiten zwischen den einleitenden Phasen dieses und des oben beschriebenen Decodierverfahrens gibt. Es ist jedoch auch offensichtlich, daß dieses Verfahren im wesentlichen weniger Vorverarbeitung des Punktrasterbildes der Markencodierung als bei jenen binären Decodierverfahren gibt.
  • Die Markencodierung wird markenweise decodiert, wobei bei 213 ungefähr in der Mitte von sagen wir der oberen, linken Eckenmarke begonnen wird (geeignete Verfahren sind schon zur Lokalisierung dieser Mitte beschrieben worden). Um die Decodierung durchzuführen, wird das Punktrasterbild bei 212 mit jedem dem an Marken angepassten Filter gefaltet. Dies erzeugt n Grautonbilder, von denen jedes die gefaltete Reaktion des Markencodierungsbilds auf ein Filter darstellt, das relativ stark an eine der entsprechenden der n zulässigen Markengestalten angepaßt ist. Eine örtliche Suche wird bei 214 in jedem dieser gefalteten Bilder von der ungefähren oder abgeschätzten Stelle der Marke durchgeführt, die decodiert wird, um die maximalen Faltungswerte, die die entsprechenden Bilder für diese bestimmte Marke enthalten, mit ihren X-Y Bildraumkooridinaten zu etikettieren, wie bei 215. Wie es bei Fig. 24 gezeigt ist, werden diese örtlichen, maximalen Faltungswerte von den gefalteten Bildern bei 214 ausgelesen und werden mit ihren X-Y Rasterbildraumkoordinaten bei 215 indexiert, wobei man aber sieht, daß die X-Y Koordinaten der Örtlichen Maxima bei einer alternativen Ausführungsform zur lndexierung der Summen der Faltungswerte aus einem kleinen, diese örtlichen Maxima umgebenden Bereich verwendet werden können.
  • Die indexierten Faltungswerte (d.h., Örtliche Maxima oder Summen) für die n gefalteten Bilder werden in Rangordnung nach dem Wert bei 216 sortiert, und die zwei höchsten Werte werden bei 217 verglichen. Wenn diese Werte ungleich sind, wie es bei 221 bestimmt wird, wird der Datenwert für die Marke, die verarbeitet wird, unter Bezugnahme auf die Faltung decodiert, die den größeren Wert erzeugt, und die X-Y Etikette für diese Faltung wird dem decodierten Datenwert zugeordnet, um ihn in dem Rasterblldraum zu indexieren. Vergleiche 222. Andererseits wird, wenn bei 221 bestimmt wird, daß die zwei größten Faltungswerte gleich sind, die X-Y Etikette für einen ausgewählten von ihnen aufgezeichnet, um einen Feherort zu kennzeichnen, und ein Feherzählwert wird erhöht, wie bei 223. Danach wird, wie es bei 224 angegeben ist, ein geschätzter, decodierter Datenwert durch Bezugnahme auf die Faltung vorgesehen, die den ausgewählten Faltungswert erzeugt, und die X-Y Etikette oder der Index für den ausgewählten Faltungswert wird dem decodierten Datenweg zugeordnet, um ihn in dem Punktrasterbildraum zu indexieren.
  • Das vorstehende Verfahren wird wiederholt, um die nächste Marke zu decodieren, wenn bei 218 bestimmt wird, daß es eine weitere Marke gibt, die decodiert werden soll. Immer wenn es eine weitere Marke gibt, die decodiert werden soll, verwendet das Decodierverfahren die X-Y Koordinaten des Rasterbildraums (d.h., lndexstelle) einer vorhergehend decodierten Nachbarmarke, um zu der nächsten Marke durch die Verwendung der oben beschriebenen Sprung- und Suchroutine weiterzugehen.
  • Bezugnehmend auf Fig. 26 kann, um die Rauschunempfindlichkeit dieses Decodierverfahrens zu erhöhen, jeder der Örtlichen maximalen Faltungswerte für die Marke, die decodiert wird, bei 231 zu nahen Faltungswerten für einen kleinen, umgebenden Bereich summiert werden. Beispielsweise können die Faltungswerte bildweise von einem kleinen rautenförmigen oder quadratischen Bereich aufaddiert werden, der zu dem Örtlichen Maximum der Marke zentriert ist, die in jedem der gefalteten Bilder analysiert wird. Die X-Y Orte dieser Örtlichen Maxima werden bei 233 bestimmt und werden dann zur Etikettierung der Summen der von den entsprechenden Bildern aufaddieren in Faltungswerte, wie bei 234, verwendet, und die Summen werden dann in Rangordnung nach dem Wert bei 235 summiert. Von diesem Punkt an ist das Decodierverfahren im wesentlichen das gleiche wie die vorhergehend beschriebene Fassung dieser Art Decodierung.
  • Schlußfolgerung
  • Im Hinblick auf das Vorstehende versteht es sich, daß die vorliegende Erfindung mehrere Bildverarbeitungstechniken zur Decodierung von Punktrasterbildraumdarstellungen von selbsttaktenden Codierungen in Markengestaltung und zum Verfolgen der Anzahl und Orte der Mehrdeutigkeiten (manchmal hier als "Fehler" bezeichnet) bereitstellt, die wahrend der Decodierung solcher Codierungen angetroffen werden. Des weiteren ist es offensichtlich, daß ein wesentlicher Teil der Bildverarbeitung durch die Verwendung morphologischer Filteroperationen ausgeführt werden kann, um die Parallelität zu nutzen, die durch. solche Operationen angeboten wird. Des weiteren ist es offensichtlich, daß die Feherbestimmung, die nach Maßgabe dieser Erfindung ausgeführt wird, mit Fehlerstatistiken von einem oder mehreren alternativen Decodierverfahren verbunden oder damit verglichen werden kann, wie dem Faltungsfilterverfahren von Stearns u.a., das hier geoffenbart ist, um die Zuverlässigkeit der Decodierung zu erhöhen, die erhalten wird.

Claims (9)

1. Ein Verfahren zur Decodierung codierter, digitaler Informationen, wobei die codierten Informationen in der Form einer Punktrasterbildraumdarstellung einer selbsttaktenden Codierung in Markengestalt sind, die aus Marken gebildet ist, die Gestalten haben, die digitale Datenwerte codieren, so daß jeder einzelne Datenwert, der durch die genannte Codierung codiert ist, durch die Gestalt einer entsprechenden Marke dargestellt ist; die genannten Marken aus einer Gruppe n zulässiger Markengestaten ausgewählt werden, wobei jede der genannten Markengestalten der Codierung eines vorbestimmten, digitalen Datenwerts im voraus zugeordnet ist; die genannten Marken räumlich in dem genannten Punktrasterbildraum im wesentlichen nach Maßgabe einer räumlichen Formatierungsregel verteilt sind; das genannte Verfahren die Schritte umfaßt
Lokalisieren von wenigstens drei nicht geradlinigen Bezugspunkten in dem genannten Punktrasterbildraum, wobei die genannten Bezugspunkte eine vorbestimmte, nominale, räumliche Beziehung zueinander haben;
Bestimmen der räumlichen Beziehung der genannten Bezugspunkte in dem genannten Punktrasterbildraum;
Berechnen eines Schiefekorrekturfaktors aus der räumlichen Beziehung der genannten Bezugspunkte im genannten Punktrasterbildraum;
Bestimmen eines X Skalierungskorrekturfaktors und eines Y Skalierungskorrekturfaktors für die genannte Punktrasterbildraumdarstellung der genannten Markencodierung;
Kalibrieren der genannten räumlichen Formatierungsregel nach Maßgabe der genannten Schiefe- und skalierungskorrekturfaktoren;
identifizieren einer ungefahren Mittenposition einer ersten der genannten Marken in dem genannten Punktrasterbildraum;
Filtern der genannten Punktrasterbildraumdarstellung der genannten Markencodierung nach Maßgabe wenigstens eines zu einer Gestalt passenden Unterscheidungsfilters für jedes der genannten n zulässigen Bilder, wodurch wenigstens n gefilterte Darstellungen der genannten Markencodierung bereitgestellt werden;
räumliches Abtasten aller genannter gefilterter Darstellungen der genannten Markencodierung im wesentlichen nach Maßgabe der genannten kalibrierten, räumlichen Formatierungsregel, um relative Stärkewerte der Filteranpassung für jede Marke der genannten Markencodierung zu erhalten, wie sie durch jedes der genannten Filter gefiltert wird, wobei die genannte Abtastung bei der ungefähren Mittenposition einer vorbestimmten der genannten Marken beginnt und sich von dort von ungefährer Markenmittenposition zu ungefährer Markenmittenposition im wesentlichen nach Maßgabe der genannten kalibrierten, räumlichen Formatierungsregel fortsetzt;
Vergleichen der Stärkewerte der Filteranpassung von jeder der genannten Marken, Marke um Marke, für alle genannten Filter, um die genannten Marken nach ihren Gestalten zu klassifizieren; und
Zuordnen decodierter Datenwerte zu den genannten nach der Gestalt klassifizierten Marken nach Maßgabe der Datenwerte, die den genannten Markengestalten im voraus zugeordnet worden sind.
2. Das Decodierverfahren des Anspruchs 1, das des weiteren den Schritt einschließt, positionsmäßig die genannte kalibrierte, räumliche Formatierungsregel bei jeder der genannten ungefähren Markenmittenposition mit der entsprechenden, ungefähren Markenmittenposition in Bezug zu setzen.
3. Das Decodierverfahren des Anspruchs 1 oder 2 worin der genannte X Skalierungs- und Y Skalierungskorrekturfaktor auch aus der räumlichen Beziehung der genannten Bezugspunkte in dem genannten Punktrasterbildraum berechnet werden.
4. Das Decodierverfahren nach irgendeinem der vorhergehenden Ansprüche, worin der genannte Filterschritt durch morphologisches ERODIEREN der genannten Punktrasterbildraumdarstellung der genannten Markencodierung nach Maßgabe von wenigstens n verschiedenen Treffer-Fehltreffer-Filtern ausgeführt wird, die an entsprechende der genannten Markengestaten angepaßt sind.
5. Das Decodierverfahren des Anspruchs 4, worin die genannten Bezugspunkte ungefähre Mitten der Marken sind, die an Ecken der genannten Punktsrasterbildraumdarstellung der genannten Markencodierung vorhanden sind.
6. Das Decodierverfahren nach irgendeinem der Ansprüche 1 bis 3, das des weiteren einschließt die Schritte der morphologischen ÖFFNUNG der genannten Punktrasterbildraumdarstellung der genannten Markencodierung mit einer Mehrzahl von Treffer-Fehltreffer-Filtern einschließt, von denen jeder schwach an eine entsprechende der genannten Markengestalten angepaßt ist, wodurch entsprechende ÖFFNUNG Fassungen der genannten Punktrasterbildraumdarstellung der genannten Markencodierung bereitgestellt werden;
einer Bit-ODER-Operation der ÖFFNUNG Fassungen der genannten Punktrasterbildraumdarstellung der genannten Markencodierung, um die genannten Marken zu schrumpfen; und
der Identifizierung eines einzelnen Pixeis nahe der Mitte von jeder der genannten Marken, um deren ungefähren Mittenposition herzustellen.
7. Das Decodierverfahren des Anspruchs 6, worin die genannten Bezugspunkte ungefähre Mitten der Marken sind, die sich an Ecken der genannten Punktrasterbildraumdarstellung der genannten Markencodierung befinden.
8. Das Decodierverfahren nach irgendeinem der Ansprüche 1 bis 31 worin die genannte Punktrasterbildraumdarstellung der genannten Markencodierung eine wesentliche räumliche, vertikale und horizontale Periodizität aufweist, wobei das genannte Verfahren des weiteren einschließt die Schritte einer morphologischen ÖFFNUNG der genannten Punktrasterbildraumdarstellung der genannten Markencodierung mit vertikal ausgerichteten und horizontal ausgerichteten Treffer-Fehltreffer-Filtern, die an die vertikale bzw. horizontale, räumliche Periodizität der genannten Punktrasterbildraumdarstellung der genannten Markencodierungen angepaßt sind, wodurch entsprechende ÖFFNUNG Fassungen der genannten Punktrasterbildraumdarstellung der genannten Markencodierungen bereitgestellt werden;
einer Bit-UND-Operation der ÖFFNUNG Fassungen der genannten Punktrasterbildraumdarstellung der genannten Markencodierung, um die genannten Codierungen zu schrumpfen; und
einer Identifizierung eines einzelnen Pixels nahe der Mitte jeder der genannten Marken, um deren ungefähre Mittenposition herzustellen.
9. Das Decodierverfahren des Anspruchs 8, worin die genannten Bezugspunkte ungefähre Mitten von Marken sind, die sich an Ecken der genannten Punktrasterbildraumdarstellüng der genannten Markencodierung befinden.
DE69129136T 1990-07-31 1991-07-30 Binärbildverarbeitung zur Dekodierung selbstaktierender Kodierungen in Markengestalt Expired - Lifetime DE69129136T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/560,659 US5168147A (en) 1990-07-31 1990-07-31 Binary image processing for decoding self-clocking glyph shape codes

Publications (2)

Publication Number Publication Date
DE69129136D1 DE69129136D1 (de) 1998-04-30
DE69129136T2 true DE69129136T2 (de) 1998-10-08

Family

ID=24238765

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69129136T Expired - Lifetime DE69129136T2 (de) 1990-07-31 1991-07-30 Binärbildverarbeitung zur Dekodierung selbstaktierender Kodierungen in Markengestalt

Country Status (5)

Country Link
US (1) US5168147A (de)
EP (1) EP0469868B1 (de)
JP (1) JPH0778818B2 (de)
CA (1) CA2044463C (de)
DE (1) DE69129136T2 (de)

Families Citing this family (188)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE38758E1 (en) * 1990-07-31 2005-07-19 Xerox Corporation Self-clocking glyph shape codes
JP2693292B2 (ja) * 1991-09-30 1997-12-24 三田工業株式会社 自己修復システムを有する画像形成装置
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
JPH05334470A (ja) * 1991-12-27 1993-12-17 Xerox Corp 自己クロッキング図形記号コード
JPH05290197A (ja) * 1992-04-06 1993-11-05 Teiriyou Sangyo Kk 二次元コ−ドシンボルマ−クの解読方法
US5721788A (en) 1992-07-31 1998-02-24 Corbis Corporation Method and system for digital image signatures
US7171016B1 (en) 1993-11-18 2007-01-30 Digimarc Corporation Method for monitoring internet dissemination of image, video and/or audio files
US5841886A (en) 1993-11-18 1998-11-24 Digimarc Corporation Security system for photographic identification
US6944298B1 (en) 1993-11-18 2005-09-13 Digimare Corporation Steganographic encoding and decoding of auxiliary codes in media signals
US6122403A (en) 1995-07-27 2000-09-19 Digimarc Corporation Computer system linked by using information in data objects
US6614914B1 (en) 1995-05-08 2003-09-02 Digimarc Corporation Watermark embedder and reader
US5822436A (en) 1996-04-25 1998-10-13 Digimarc Corporation Photographic products and methods employing embedded information
US6681029B1 (en) * 1993-11-18 2004-01-20 Digimarc Corporation Decoding steganographic messages embedded in media signals
US6516079B1 (en) 2000-02-14 2003-02-04 Digimarc Corporation Digital watermark screening and detecting strategies
US5748763A (en) 1993-11-18 1998-05-05 Digimarc Corporation Image steganography system featuring perceptually adaptive and globally scalable signal embedding
US20020009208A1 (en) * 1995-08-09 2002-01-24 Adnan Alattar Authentication of physical and electronic media objects using digital watermarks
US5768426A (en) 1993-11-18 1998-06-16 Digimarc Corporation Graphics processing system employing embedded code signals
US6983051B1 (en) 1993-11-18 2006-01-03 Digimarc Corporation Methods for audio watermarking and decoding
US6611607B1 (en) 1993-11-18 2003-08-26 Digimarc Corporation Integrating digital watermarks in multimedia content
US6449377B1 (en) 1995-05-08 2002-09-10 Digimarc Corporation Methods and systems for watermark processing of line art images
USRE40919E1 (en) * 1993-11-18 2009-09-22 Digimarc Corporation Methods for surveying dissemination of proprietary empirical data
US5459307A (en) * 1993-11-30 1995-10-17 Xerox Corporation System for storage and retrieval of digitally encoded information on a medium
US5449895A (en) * 1993-12-22 1995-09-12 Xerox Corporation Explicit synchronization for self-clocking glyph codes
JPH07220035A (ja) * 1993-12-22 1995-08-18 Xerox Corp 光学的読み取り可能レコード
US5453605A (en) * 1993-12-22 1995-09-26 Xerox Corporation Global addressability for self-clocking glyph codes
US6522770B1 (en) 1999-05-19 2003-02-18 Digimarc Corporation Management of documents and other objects using optical devices
GB2290137B (en) * 1994-03-18 1998-03-11 Rolls Royce Plc A method and apparatus for identifying the orientation of a dot matrix code marking of an article
GB2288476A (en) * 1994-04-05 1995-10-18 Ibm Authentication of printed documents.
US5718457A (en) * 1994-07-29 1998-02-17 Elpatronic Ag Method of marking objects with code symbols
US5517601A (en) * 1994-09-30 1996-05-14 Hewlett-Packard Company High speed apparatus and method for rasterization of font glyphs
US5492559A (en) * 1994-10-19 1996-02-20 Xerox Corporation Liquid crystalline microemulsion ink compositions
US6560349B1 (en) 1994-10-21 2003-05-06 Digimarc Corporation Audio monitoring using steganographic information
US5862269A (en) * 1994-11-23 1999-01-19 Trustees Of Boston University Apparatus and method for rapidly convergent parallel processed deconvolution
US5939703A (en) * 1995-01-03 1999-08-17 Xerox Corporation Distributed dimensional labeling for dimensional characterization of embedded data blocks
US7133846B1 (en) 1995-02-13 2006-11-07 Intertrust Technologies Corp. Digital certificate support system, methods and techniques for secure electronic commerce transaction and rights management
US6157721A (en) 1996-08-12 2000-12-05 Intertrust Technologies Corp. Systems and methods using cryptography to protect secure computing environments
CN101398871B (zh) 1995-02-13 2011-05-18 英特特拉斯特技术公司 用于安全交易管理和电子权利保护的系统和方法
US7133845B1 (en) 1995-02-13 2006-11-07 Intertrust Technologies Corp. System and methods for secure transaction management and electronic rights protection
US5892900A (en) 1996-08-30 1999-04-06 Intertrust Technologies Corp. Systems and methods for secure transaction management and electronic rights protection
US7124302B2 (en) 1995-02-13 2006-10-17 Intertrust Technologies Corp. Systems and methods for secure transaction management and electronic rights protection
US7095854B1 (en) 1995-02-13 2006-08-22 Intertrust Technologies Corp. Systems and methods for secure transaction management and electronic rights protection
US7165174B1 (en) 1995-02-13 2007-01-16 Intertrust Technologies Corp. Trusted infrastructure support systems, methods and techniques for secure electronic commerce transaction and rights management
US5943422A (en) 1996-08-12 1999-08-24 Intertrust Technologies Corp. Steganographic techniques for securely delivering electronic digital rights management control information over insecure communication channels
US7143290B1 (en) 1995-02-13 2006-11-28 Intertrust Technologies Corporation Trusted and secure techniques, systems and methods for item delivery and execution
US6948070B1 (en) 1995-02-13 2005-09-20 Intertrust Technologies Corporation Systems and methods for secure transaction management and electronic rights protection
US6658568B1 (en) 1995-02-13 2003-12-02 Intertrust Technologies Corporation Trusted infrastructure support system, methods and techniques for secure electronic commerce transaction and rights management
US7069451B1 (en) 1995-02-13 2006-06-27 Intertrust Technologies Corp. Systems and methods for secure transaction management and electronic rights protection
EP0735420B1 (de) * 1995-03-29 2003-07-16 Eastman Kodak Company Gerät zum Drucken, Speichern und Wiedergeben einer Bildaufzeichnung
US7486799B2 (en) 1995-05-08 2009-02-03 Digimarc Corporation Methods for monitoring audio and images on the internet
US6760463B2 (en) 1995-05-08 2004-07-06 Digimarc Corporation Watermarking methods and media
US6728390B2 (en) 1995-05-08 2004-04-27 Digimarc Corporation Methods and systems using multiple watermarks
US6965682B1 (en) 1999-05-19 2005-11-15 Digimarc Corp Data transmission by watermark proxy
US6788800B1 (en) 2000-07-25 2004-09-07 Digimarc Corporation Authenticating objects using embedded data
US5859920A (en) 1995-11-30 1999-01-12 Eastman Kodak Company Method for embedding digital information in an image
US5593486A (en) * 1995-12-05 1997-01-14 Xerox Corporation Photochromic hot melt ink compositions
US5710420A (en) * 1995-12-05 1998-01-20 Xerox Corporation Method for embedding and recovering machine-readable information
US5759729A (en) * 1995-12-05 1998-06-02 Xerox Corporation Photochromic electrostatic toner compositions
US5633109A (en) * 1995-12-05 1997-05-27 Xerox Corporation Ink compositions with liposomes containing photochromic compounds
US5862270A (en) * 1995-12-08 1999-01-19 Matsushita Electric Industrial Co., Ltd. Clock free two-dimensional barcode and method for printing and reading the same
US6000621A (en) * 1995-12-21 1999-12-14 Xerox Corporation Tilings of mono-code and dual-code embedded data pattern strips for robust asynchronous capture
US5905819A (en) * 1996-02-05 1999-05-18 Eastman Kodak Company Method and apparatus for hiding one image or pattern within another
US20010011253A1 (en) 1998-08-04 2001-08-02 Christopher D. Coley Automated system for management of licensed software
US6820807B1 (en) 1996-03-01 2004-11-23 Cobblestone Software, Inc. Variable formatting of digital data into a pattern
US6098882A (en) 1996-03-01 2000-08-08 Cobblestone Software, Inc. Variable formatting of digital data into a pattern
US5862255A (en) * 1996-06-18 1999-01-19 Xerox Corporation Broad bandwidth image domain communication channel with symbol interference suppression
US5761686A (en) * 1996-06-27 1998-06-02 Xerox Corporation Embedding encoded information in an iconic version of a text image
GB9614837D0 (en) * 1996-07-12 1996-09-04 Rank Xerox Ltd Interactive desktop system with multiple image capture and display modes
US5765176A (en) * 1996-09-06 1998-06-09 Xerox Corporation Performing document image management tasks using an iconic image having embedded encoded information
US5864127A (en) * 1996-10-10 1999-01-26 Xerox Corporation Analog glyph detector and detector arrays
US5960127A (en) * 1996-10-28 1999-09-28 Davis; Michael Efficient methods of performing morphological operations
US6327395B1 (en) 1996-12-20 2001-12-04 Xerox Parc Glyph address carpet methods and apparatus for providing location information in a multidimensional address space
US5937110A (en) 1996-12-20 1999-08-10 Xerox Corporation Parallel propagating embedded binary sequences for characterizing objects in N-dimensional address space
US5920861A (en) 1997-02-25 1999-07-06 Intertrust Technologies Corp. Techniques for defining using and manipulating rights management data structures
US7062500B1 (en) 1997-02-25 2006-06-13 Intertrust Technologies Corp. Techniques for defining, using and manipulating rights management data structures
US5951055A (en) * 1997-06-11 1999-09-14 The Standard Register Company Security document containing encoded data block
US7092914B1 (en) 1997-11-06 2006-08-15 Intertrust Technologies Corporation Methods for matching, selecting, narrowcasting, and/or classifying based on rights management and/or other information
US6112181A (en) 1997-11-06 2000-08-29 Intertrust Technologies Corporation Systems and methods for matching, selecting, narrowcasting, and/or classifying based on rights management and/or other information
US6804376B2 (en) 1998-01-20 2004-10-12 Digimarc Corporation Equipment employing watermark-based authentication function
US7233948B1 (en) 1998-03-16 2007-06-19 Intertrust Technologies Corp. Methods and apparatus for persistent control and protection of content
US6565003B1 (en) 1998-12-16 2003-05-20 Matsushita Electric Industrial Co., Ltd. Method for locating and reading a two-dimensional barcode
US6082619A (en) * 1998-12-16 2000-07-04 Matsushita Electric Industrial Co., Ltd. Method for locating and reading a two-dimensional barcode
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6209923B1 (en) 1999-04-14 2001-04-03 The Standard Register Company Security document and authentication scheme
US7394573B1 (en) * 1999-04-14 2008-07-01 Xerox Corporation System for authenticating hardcopy documents
KR101145534B1 (ko) * 1999-05-19 2012-06-01 디지맥 코포레이션 컴퓨터들을 제어하거나 물리적 및 전자적 객체들로부터 인터넷 리소스들에 링크하기 위한 방법들 및 시스템들
US6371373B1 (en) 1999-05-25 2002-04-16 Matsushita Electric Industrial Co., Ltd. Method for reading a two-dimensional barcode
US7243236B1 (en) 1999-07-29 2007-07-10 Intertrust Technologies Corp. Systems and methods for using cryptography to protect secure and insecure computing environments
US7430670B1 (en) 1999-07-29 2008-09-30 Intertrust Technologies Corp. Software self-defense systems and methods
SE517445C2 (sv) 1999-10-01 2002-06-04 Anoto Ab Positionsbestämning på en yta försedd med ett positionskodningsmönster
JP2001127983A (ja) 1999-10-29 2001-05-11 Fuji Xerox Co Ltd 画像処理装置
US6340118B1 (en) * 1999-12-16 2002-01-22 Xerox Corporation Exclusive or cross-coupled framing codes for self-clocking glyphs
US6714677B1 (en) * 1999-12-17 2004-03-30 Xerox Corporation Use of correlation histograms for improved glyph decoding
US6993655B1 (en) * 1999-12-20 2006-01-31 Xerox Corporation Record and related method for storing encoded information using overt code characteristics to identify covert code characteristics
US6625297B1 (en) 2000-02-10 2003-09-23 Digimarc Corporation Self-orienting watermarks
US7143952B2 (en) * 2000-03-21 2006-12-05 Anoto Ab Apparatus and methods relating to image coding
WO2001080169A1 (en) 2000-04-17 2001-10-25 Digimarc Corporation Authentication of physical and electronic media objects using digital watermarks
US7123768B2 (en) * 2000-04-26 2006-10-17 Minolta Co., Ltd. Apparatus and method for detecting a pattern
US7493250B2 (en) * 2000-12-18 2009-02-17 Xerox Corporation System and method for distributing multilingual documents
US7117512B1 (en) 2001-05-15 2006-10-03 Travel Tags, Inc. Scan activated optical storage article and methods thereof
US6365312B1 (en) 2001-05-24 2002-04-02 Xerox Corporation Marking particles
US6358655B1 (en) 2001-05-24 2002-03-19 Xerox Corporation Marking particles
US6814289B2 (en) * 2001-05-30 2004-11-09 Sandia Corporation Self-registering spread-spectrum barcode method
US7916124B1 (en) 2001-06-20 2011-03-29 Leapfrog Enterprises, Inc. Interactive apparatus using print media
US7175095B2 (en) * 2001-09-13 2007-02-13 Anoto Ab Coding pattern
SE520045C2 (sv) * 2001-09-13 2003-05-13 Anoto Ab Kodningsmönster
SE0103589L (sv) * 2001-10-29 2003-04-30 Anoto Ab Förfarande och anordning för avkodning av ett positionskodningsmönster
US7145556B2 (en) 2001-10-29 2006-12-05 Anoto Ab Method and device for decoding a position-coding pattern
US6694205B2 (en) * 2001-12-21 2004-02-17 Kimberly-Clark Worldwide, Inc. Binary registration mark detection using 3-state sensing and matched filtering
CN1653465A (zh) * 2002-03-14 2005-08-10 康坦夹德控股有限公司 用于运用调制信号来表达使用权利的系统和方法
US6886863B1 (en) 2002-12-19 2005-05-03 The Standard Register Company Secure document with self-authenticating, encryptable font
US20040229195A1 (en) * 2003-03-18 2004-11-18 Leapfrog Enterprises, Inc. Scanning apparatus
SE0301248D0 (sv) * 2003-04-29 2003-04-29 Anoto Ab Methods, apparatus, computer program and storage medium for position decoding
WO2004097723A1 (en) * 2003-04-29 2004-11-11 Anoto Ip Lic Hb Methods, apparatus, computer program and storage medium for position decoding
SK10072003A3 (sk) * 2003-08-08 2005-03-04 Dušan Kočiš Dátový kanál pozadia na papierovom alebo inom nosiči
US8181884B2 (en) * 2003-11-17 2012-05-22 Digimarc Corporation Machine-readable features for objects
US20050142263A1 (en) * 2003-12-30 2005-06-30 Lauren Keilbach Fish food flakes
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8799303B2 (en) 2004-02-15 2014-08-05 Google Inc. Establishing an interactive environment for rendered documents
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US20060041484A1 (en) 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US7831933B2 (en) 2004-03-17 2010-11-09 Leapfrog Enterprises, Inc. Method and system for implementing a user interface for a device employing written graphical elements
US20060067576A1 (en) * 2004-03-17 2006-03-30 James Marggraff Providing a user interface having interactive elements on a writable surface
US20060127872A1 (en) * 2004-03-17 2006-06-15 James Marggraff Method and device for associating a user writing with a user-writable element
US20060125805A1 (en) * 2004-03-17 2006-06-15 James Marggraff Method and system for conducting a transaction using recognized text
US7853193B2 (en) * 2004-03-17 2010-12-14 Leapfrog Enterprises, Inc. Method and device for audibly instructing a user to interact with a function
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US8793162B2 (en) 2004-04-01 2014-07-29 Google Inc. Adding information or functionality to a rendered document via association with an electronic counterpart
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20080313172A1 (en) 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
WO2008028674A2 (en) 2006-09-08 2008-03-13 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US8621349B2 (en) 2004-04-01 2013-12-31 Google Inc. Publishing techniques for adding value to a rendered document
US20070300142A1 (en) 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US9460346B2 (en) 2004-04-19 2016-10-04 Google Inc. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
SE0401647D0 (sv) * 2004-06-28 2004-06-28 Anoto Ab Coding and decoding of data
US7410750B2 (en) * 2004-06-30 2008-08-12 Xerox Corporation Multicolored photochromic display
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US7349554B2 (en) * 2004-09-02 2008-03-25 Microsoft Corporation Maze pattern analysis
ATE375561T1 (de) * 2005-06-09 2007-10-15 Pdflib Gmbh Verfahren zur identifizierung von redundantem text in elektronischen dokumenten
US8074891B2 (en) * 2005-06-17 2011-12-13 Anoto Ab Coding and decoding methods and apparatuses
US7922099B1 (en) 2005-07-29 2011-04-12 Leapfrog Enterprises, Inc. System and method for associating content with an image bearing surface
US7936339B2 (en) * 2005-11-01 2011-05-03 Leapfrog Enterprises, Inc. Method and system for invoking computer functionality by interaction with dynamically generated interface regions of a writing surface
CA2640153A1 (en) 2006-01-27 2007-08-09 Spyder Lynk, Llc Encoding and decoding data in an image
US7702182B2 (en) 2006-02-16 2010-04-20 Adobe Systems, Incorporated Method and apparatus for creating a high-fidelity glyph prototype from low-resolution glyph images
US20110096174A1 (en) * 2006-02-28 2011-04-28 King Martin T Accessing resources based on capturing information from a rendered document
US8261967B1 (en) 2006-07-19 2012-09-11 Leapfrog Enterprises, Inc. Techniques for interactively coupling electronic content with printed media
US8194914B1 (en) 2006-10-19 2012-06-05 Spyder Lynk, Llc Encoding and decoding data into an image using identifiable marks and encoded elements
US7549592B2 (en) * 2006-10-31 2009-06-23 Xerox Corporation Method for embedding machine-readable information with fluorescent materials
US7328851B1 (en) 2006-10-31 2008-02-12 Xerox Corporation Machine-readable code format
US7918485B2 (en) * 2006-11-28 2011-04-05 Xerox Corporation Security system using conductive and non-conductive regions
US7762473B2 (en) * 2006-11-28 2010-07-27 Xerox Corporation Machine-readable code format
JP4323511B2 (ja) * 2006-12-07 2009-09-02 シャープ株式会社 画像処理装置
US7913920B2 (en) 2006-12-20 2011-03-29 Palo Alto Research Center Incorporated Document processing devices, systems and methods thereof
US8340430B2 (en) * 2007-07-10 2012-12-25 Sharp Laboratories Of America, Inc. Methods and systems for identifying digital image characteristics
US20090045360A1 (en) * 2007-08-13 2009-02-19 Xerox Corporation Quantum dot-based luminescent marking material
JP5557419B2 (ja) * 2007-10-17 2014-07-23 スパンション エルエルシー 半導体装置
US8083264B2 (en) * 2008-02-11 2011-12-27 Xerox Corporation Document with invisible encoded information and method of making the same
US20090201321A1 (en) * 2008-02-11 2009-08-13 Xerox Corporation Inline printing of invisible information with an ink jet in a digital press system
DE09762149T1 (de) * 2008-06-12 2019-12-05 Vitan Kanev Grancharov Verschlüsselte markierung und verfahren zum sichern und zertifizieren der authentizität eines produkts
US8160365B2 (en) * 2008-06-30 2012-04-17 Sharp Laboratories Of America, Inc. Methods and systems for identifying digital image characteristics
US7991153B1 (en) 2008-08-26 2011-08-02 Nanoglyph, LLC Glyph encryption system and related methods
US20100055423A1 (en) 2008-09-04 2010-03-04 Xerox Corporation Machine Readable Code Comprising Ultra-Violet Curable Gellant Inks
US8962228B2 (en) 2008-09-19 2015-02-24 Xerox Corporation Low melt color toners with fluorescence agents
US8257897B2 (en) 2008-09-19 2012-09-04 Xerox Corporation Toners with fluorescence agent and toner sets including the toners
US7857900B2 (en) * 2008-09-19 2010-12-28 Xerox Corporation Solid phase change fluorescent ink and ink sets
WO2010096193A2 (en) 2009-02-18 2010-08-26 Exbiblio B.V. Identifying a document by performing spectral analysis on the contents of the document
WO2010105244A2 (en) 2009-03-12 2010-09-16 Exbiblio B.V. Performing actions based on capturing information from rendered documents, such as documents under copyright
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
US8453922B2 (en) * 2010-02-09 2013-06-04 Xerox Corporation Method for one-step document categorization and separation using stamped machine recognizable patterns
US8430315B2 (en) 2010-06-29 2013-04-30 SignaKey LLC Data encoding and decoding
US20140372469A1 (en) * 2013-06-14 2014-12-18 Walter Gerard Antognini Searching by use of machine-readable code content
EP3265998B1 (de) * 2015-07-09 2021-04-07 Hewlett-Packard Development Company, L.P. Multidimensionale zyklische symbole
EP3602350A4 (de) * 2017-03-19 2021-01-27 Ofek Eshkolot Research And Development Ltd. System und verfahren zur erzeugung von filtern für k-inkongruenzsuche
NL2018613B1 (en) * 2017-03-30 2018-10-10 Orbid Ltd Two-dimensional marker for marking an object, method and system for generating the marker, method and system for generating a marker code, and method and system for authenticating an object
CN115601772B (zh) * 2022-12-15 2023-05-02 南京邮电大学 一种基于多模态学习的美学质量评价模型和方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4115806A (en) * 1975-05-23 1978-09-19 Bausch & Lomb Incorporated Image analysis data transfer
JPS6033675A (ja) * 1983-08-04 1985-02-21 Fuji Electric Co Ltd 文字読取装置
EP0163377B1 (de) * 1984-04-10 1990-09-12 BRITISH TELECOMMUNICATIONS public limited company Mustererkennungseinrichtung
US4728783A (en) * 1985-11-15 1988-03-01 Cauzin Systems, Incorporated Method and apparatus for transforming digitally encoded data into printed data strips
US4905296A (en) * 1986-07-22 1990-02-27 Schlumberger Systems & Services, Inc. System for shape recognition
JPS63104185A (ja) * 1986-10-22 1988-05-09 Seiko Instr & Electronics Ltd 画像の膨張・縮小変換回路
US4924078A (en) * 1987-11-25 1990-05-08 Sant Anselmo Carl Identification symbol, system and method
EP0350933B1 (de) * 1988-07-13 1994-04-13 Matsushita Electric Industrial Co., Ltd. Bildsignalverarbeitungsvorrichtung für Strichkodebildsignale
US5073954A (en) * 1989-02-28 1991-12-17 Electrocom Automation, Inc. Bar code location and recognition processing system
US5091966A (en) * 1990-07-31 1992-02-25 Xerox Corporation Adaptive scaling for decoding spatially periodic self-clocking glyph shape codes

Also Published As

Publication number Publication date
US5168147A (en) 1992-12-01
EP0469868A2 (de) 1992-02-05
CA2044463C (en) 1998-04-14
JPH04233677A (ja) 1992-08-21
CA2044463A1 (en) 1992-02-01
EP0469868A3 (en) 1993-07-07
DE69129136D1 (de) 1998-04-30
JPH0778818B2 (ja) 1995-08-23
EP0469868B1 (de) 1998-03-25

Similar Documents

Publication Publication Date Title
DE69129136T2 (de) Binärbildverarbeitung zur Dekodierung selbstaktierender Kodierungen in Markengestalt
DE69130786T2 (de) Verfahren zum Kodieren digitaler Informationen
DE19960555B4 (de) Verfahren zum Auffinden und Lesen eines zweidimensionalen Strichcodes
US5091966A (en) Adaptive scaling for decoding spatially periodic self-clocking glyph shape codes
US5128525A (en) Convolution filtering for decoding self-clocking glyph shape codes
DE69835358T2 (de) Verfahren zur Korrektur der Verzerrung beim Abtasten eines optischen Codes
DE69226846T2 (de) Verfahren zur Bestimmung von Wortgrenzen im Text
DE69610478T2 (de) Zeichenerkennungssystembestimmung von abgetasteten und "echtzeit"-handgeschriebenen zeichen
DE10036110B4 (de) Verfahren zur Bestimmung des Schrägwinkels eines zweidimensionalen Barcodes
EP2417561B1 (de) Zweidimensionaler symbolcode und verfahren zum lesen des symbolcodes
DE3716787C2 (de)
DE69230632T2 (de) Optische Worterkennung durch Wortgestaltuntersuchung
DE68920229T2 (de) Verfahren zum Aufzeichnen bzw. Wiedergeben von Bildpunktmustern und Gerät hierfür.
DE69528809T2 (de) Informationsaufzeichnungsmedium und Informationswiedergabesystem
DE69033063T2 (de) Zweidimensionaler Zeichensatz mit hoher Dichte
DE60013101T2 (de) Zweidimensionales codemuster zum speichern biometrischer informationen und vorrichtung zum lesen dieser informationen
DE69421255T2 (de) Dokumentkopierabwehrverfahren
DE69635512T2 (de) Verfahren zum Lesen eines zweidimensionalen Strichcodes ohne Taktsignal
DE69131394T2 (de) Maschinenlesbares Zeichen mit Mehrfachauflösung
EP1260933A2 (de) Verfahren zum Erfassen von zweidimensionalen Codes
USRE38758E1 (en) Self-clocking glyph shape codes
CH708994B1 (de) Verfahren und Vorrichtung zum Identifizieren eines zweidimensionalen Punktcodes.
DE69734639T2 (de) Mehrdimensionale Adressräume
EP1333402A1 (de) Redundanter zweidimensionaler Code und Decodierverfahren
DE102009016598A1 (de) Zweidimensionaler Symbolcode und Verfahren zum Lesen des Symbolcodes

Legal Events

Date Code Title Description
8364 No opposition during term of opposition