DE69817973T2 - Gerät und Verfahren zur Bilderkennung - Google Patents

Gerät und Verfahren zur Bilderkennung Download PDF

Info

Publication number
DE69817973T2
DE69817973T2 DE69817973T DE69817973T DE69817973T2 DE 69817973 T2 DE69817973 T2 DE 69817973T2 DE 69817973 T DE69817973 T DE 69817973T DE 69817973 T DE69817973 T DE 69817973T DE 69817973 T2 DE69817973 T2 DE 69817973T2
Authority
DE
Germany
Prior art keywords
image
recognized
mask
processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69817973T
Other languages
English (en)
Other versions
DE69817973D1 (de
Inventor
Kenichi Ebina-shi Takahashi
Yoshinori Ebina-shi Awata
Manabu Ebina-shi Akamatsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Application granted granted Critical
Publication of DE69817973D1 publication Critical patent/DE69817973D1/de
Publication of DE69817973T2 publication Critical patent/DE69817973T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Diese Erfindung betrifft ein Verfahren zur Bilderkennung und eine Vorrichtung zur Bilderkennung zum Erkennen einer Vielzahl von zu erkennenden Bildern, einschließlich eines spezifischen Bilds und Bilder, die durch Drehen des spezifischen Bilds aus einem Eingangsbild entstehen, und ein Aufzeichnungsmedium, welches ein Programm zum Durchführen der Bilderkennung durch das Verfahren zur Bilderkennung speichert.
  • 2. Beschreibung des Stands der Technik
  • Ein Verfahren, bei welchem Muster in Übereinstimmung gebracht werden, ist weithin als Verfahren zum Erkennen eines spezifischen Bilds aus einem Eingangsbild bekannt. Ein allgemeines Verfahren, bei welchem Muster in Übereinstimmung gebracht werden, ist wie folgt:
  • Ein zu erkennendes spezifisches Bild wird als ein Referenzbild angegeben, ein Eingangsbild wird dem Referenzbild überlagert, anschließend erfolgt ein Vergleich zwischen den Bildern, wobei beide Bilder zu einem Zeitpunkt relativ zueinander um ein Pixel horizontal oder vertikal verschoben werden. Wenn alle Pixel oder eine gegebene Anzahl von Pixel übereinstimmen, wird bestimmt, dass das spezifische Bild in dem Eingangsbild enthalten ist.
  • Jedoch kann bei diesem Verfahren, zum Beispiel wenn das spezifische Bild gedreht ist, das mit dem Referenzbild übereinstimmende Bild nicht aus einem Eingangsbild, welches das gedrehte spezifische Bild enthält, erkannt werden. Das heißt, das Verfahren hat den Nachteil, dass, wenn sich das spezifische Bild in dem Eingangsbild von dem Referenzbild in der Orientierung unterscheidet, das spezifische Bild nicht erkannt werden kann.
  • Als ein konventionelles Verfahren zum Überwinden dieses Nachteils ist ein Verfahren zur Bilderkennung vorgeschlagen worden, das fähig ist, ein spezifisches Bild bei verschiedenen Drehwinkeln zu erkennen, bei welchem die Koordinaten eines Referenzmusters (entsprechend einem Referenzbild) in einem Speicher gespeichert werden, die angewendeten Koordinaten, wenn das Referenzmuster gedreht ist, basierend auf den in dem Speicher gespeicherten Koordinaten erzeugt werden, und die erzeugten Koordinaten und die in dem Speicher gespeicherten Koordinaten verglichen verwendet werden, wie in der japanischen Offenlegungsschrift Nr. Hei 5-12446 gezeigt ist.
  • Als ein weiteres Verfahren zum Überwinden dieses Nachteils beschreibt die japanische Offenlegungsschrift Nr. Hei 8-63604 ein Verfahren zur Bildverarbeitung, bei welchem der Schwerpunkt eines Bilds erfasst wird, die Konturen des Bilds durch Polarkoordinaten mit dem Schwerpunkt als Mitte dargestellt werden, und die durch die Polarkoordinaten dargestellte Funktion mit der von den Konturen eines Referenzbilds abhängigen Funktion verglichen wird, wodurch die Formähnlichkeit zwischen den beiden Bildern bestimmt wird. Dieses Verfahren kann auch ein gedrehtes spezifisches Bild erkennen, indem eine Funktionsphasenverschiebung als Drehung des spezifischen Bilds berücksichtigt wird.
  • Ferner beschreibt die japanische Offenlegungsschrift Nr. Hei 6-309461 ein Verfahren zur Bilderkennung, bei welchem ein spezifisches Bild durch Anwenden einer Fouriertransformation auf eine Kette aus hellen und dunklen Pixeldaten erkannt wird, die zum Auffinden eines Spektrummusters erhalten wird durch Abtasten eines Bilds auf dem Umfang eines kreisförmigen Fensters und Vergleichen des Spektrummusters mit einem Spektrummuster eines Referenzbilds. Dieses Verfahren wird auch mit einem gedrehten spezifischen Bild fertig, weil das erzeugte Spektrummuster nicht von der Startposition beim Abtasten (Drehwinkel des spezifischen Bilds) abhängt und identisch wird.
  • Wie jedoch aus der bisherigen Beschreibung ersichtlich ist, müssen die in den Gazetten offenbarten, oben beschriebenen Verfahren komplizierte Verarbeitungen zum Zeitpunkt der Bilderkennung durchführen und können nicht auf Anwendungen angewendet werden, die eine Hochgeschwindigkeitsverarbeitung erfordern. Wenn ein Versuch unternommen wird, jedes der oben beschriebenen Verfahren in einer Schaltung zu realisieren, nämlich Hardware zur Beschleunigung der Verarbeitung, wird die Konfiguration groß und kompliziert.
  • Insbesondere ist in den letzten Jahren ein System vorgeschlagen worden, um ein spezifisches Bild in ein Bild einzubetten als Kode-Information, welche eine Urheberrechtsinformation, Verteilungsweginformation usw. des Bilds darstellt, oder als Kode-Information, welche die für das Bild durchzuführende Bearbeitung spezifiziert, um die Kodeinformation zum Verarbeiten des Bilds zu verwenden; es zielt darauf ab, eine preiswerte Vorrichtung zur Bilderkennung bereitzustellen, die ein spezifisches Bild mit einer hohen Geschwindigkeit erkennen kann.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist deshalb eine Aufgabe der Erfindung ein Verfahren zur Bilderkennung und eine Vorrichtung zur Bilderkennung anzugeben, welche geeignet sind, ein spezifisches Bild mit hoher Geschwindigkeit in einer einfachen Konfiguration mit einer von der Orientierung (Drehwinkel) des spezifischen Bilds unabhängigen Erkennungsgenauigkeit zu erkennen, und ein Aufzeichnungsmedium, welches ein Programm zum Durchführen der Bilderkennung gemäß dem Verfahren zur Bilderkennung speichert.
  • Zu diesem Zweck wird gemäß einem ersten Aspekt der Erfindung ein Verfahren zur Bilderkennung bereitgestellt, zum Erkennen einer Vielzahl von Bildern aus einem Eingangsbild, wobei die Vielzahl von zu erkennenden Bildern wenigstens eines aus einem spezifischen Bild und der durch Drehen des spezifischen Bilds erzeugten Bilder einschließt, welches Verfahren die Schritte umfasst: Vorbereiten wenigstens einer Maskenfläche auf einer Fensterfläche für jedes zu erkennende Bild, wobei die Fensterfläche durch zweidimensional angeordnete Zellen strukturiert ist, eine Zelle aus wenigstens einem Pixel gebildet ist, die Maskenfläche durch wenigstens eine der Zellen strukturiert ist und einer Fläche entspricht, die ein Merkmal des zu erkennenden Bilds darstellt; erstens Bestimmen, ob das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der Verarbeitung von Pixeldichtewerten des Eingangsbilds in der Maskenfläche für jedes zu erkennende Bild; und zweitens Bestimmen, ob eines aus der Vielzahl der zu erkennenden Bilder in der Fensterfläche vorliegt, basierend auf dem Ergebnis der Bestimmung des ersten Bestimmungsschritts.
  • Ferner kann bestimmt werden, ob das zu erkennende Bild vorliegt, indem nicht nur das Ergebnis der an den Pixeldichtewer ten der Maskenflächen durchgeführten Verarbeitung, sondern auch das Ergebnis der an den Pixeldichtewerten in der Fensterfläche außerhalb der Maskenflächen durchgeführten Verarbeitung betrachtet wird, in welchem Fall die Erkennungsgenauigkeit verbessert werden kann. Alternativ kann bestimmt werden, ob die Möglichkeit besteht, dass eines der zu erkennenden Bilder in der Fensterfläche vorliegt, anstatt, ob eines der zu erkennenden Bilder in der Fensterfläche vorliegt.
  • Ferner können die zu erkennenden Bilder solche Bilder sein, die durch Drehen des spezifischen Bilds mit willkürlichen Winkeln mit der gleichen Mittelposition als Zentrum erzeugt werden, in welchem Fall das zu erkennende Bild nur aus dem entsprechenden Drehwinkel definiert werden kann. Ferner können die Maskenflächen mit der gleichen Mittelposition in Übereinstimmung mit der Mittelposition der Fensterfläche platziert werden, in welchem Fall das Einstellen der Maskenflächen erleichtert und die Größe der Fensterfläche minimalisiert werden kann.
  • Zusätzlich, unter Berücksichtigung, dass der Bewegungsabstand des Pixels groß wird, wenn das Pixel gedreht wird, da ein Pixel von der Mittelposition der Drehung beabstandet ist, kann, da jede Maskenfläche von der Mittelposition der Fensterfläche beabstandet ist, die Fensterfläche so geformt werden, dass die Zahl der die Maskenfläche bildenden Zellen zunimmt, wodurch die Wahrscheinlichkeit einer Falscherkennung verringert werden kann.
  • Ferner können die Maskenflächen für die zu erkennenden Bilder, basierend auf den Maskenflächen, die für eines der zu erkennenden Bilder eingestellt werden, und den Drehwinkeln der zu erkennenden Bilder, berechnet und eingestellt werden. Das heißt, die Maskenflächen können leicht eingestellt werden. Die Maskenflächen, entsprechend einer Vielzahl von zu erkennenden spezifischen Bildern und den zu erkennenden Bildern, die durch Drehen der spezifischen Bilder erzeugt werden, können auf eine einzelne Fensterfläche eingestellt werden. Das Eingangsbild kann ein binäres Bild sein, in welchem Fall die Durchführung der Verarbeitungen vereinfacht und die Systemgröße vermindert werden kann.
  • Gemäß einem zweiten Aspekt der Erfindung ist eine Vorrichtung zur Erkennung einer Vielzahl von Bildern aus einem Eingangsbild angegeben, wobei die Vielzahl der zu erkennenden Bilder wenigstens eines aus einem spezifischen Bild und der Bilder, die durch Drehen des spezifischen Bilds erzeugt werden, einschließt, welche Vorrichtung umfasst: eine Bilddatenspeichereinheit zum Speichern von das Eingangsbild darstellenden Bilddaten; eine Maskenflächenspeichereinheit zum Speichern von Einstellinformation, um wenigstens eine der Maskenflächen auf einer vorbestimmten Fensterfläche für jedes der zu erkennenden Bilder zu speichern; eine Maskenflächenverarbeitungseinheit zum Verarbeiten von Werten der Bilddaten in den Maskenflächen für jedes zu erkennende Bild; eine Bildbestimmungseinheit zum Bestimmen ob das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der Verarbeitung der Maskenflächenverarbeitungseinheit für jedes zu erkennende Bild; und eine spezifische Bilderkennungseinheit zum Bestimmen ob eines der zu erkennenden Bilder in der Fensterfläche vorliegt, basierend auf dem Ergebnis der Bestimmung der Bildbestimmungseinheit für jedes zu erkennende Bild. In diesem Fall wird die Maskenflächenspeichereinheit oder ein Speicherabschnitt ausgetauscht, wobei al-le zu erkennenden Bilder gehandhabt werden können.
  • Die Vorrichtung zur Bilderkennung kann ferner eine Außerhalb-Maskenflächenverarbeitungseinheit zum Durchführen einer Verarbeitung an den Werten der Bilddaten in der Fensterfläche außerhalb der Maskenflächen für jedes zu erkennende Bild umfassen, wobei die Bildbestimmungseinheit bestimmen kann, ob das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der Verarbeitung der Maskenflächenverarbeitungseinheit und dem Ergebnis der Verarbeitung der Außerhalb-Maskenflächenverarbeitungseinheit für jedes zu erkennende Bild. Alternativ kann die Bildbestimmungseinheit bestimmen, ob es eine Möglichkeit gibt, dass das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der Verarbeitung der Maskenflächeverarbeitungseinheit für jedes zu erkennende Bild, und die Erkennungseinheit für das spezifische Bild kann bestimmen, ob es eine Möglichkeit gibt, dass eines der zu erkennenden Bilder in der Fensterfläche vorliegt, basierend auf dem Ergebnis der Bestimmung der Bildbestimmungseinheit für jedes zu erkennende Bild.
  • Ferner, wenn der Speicherinhalt der Maskenflächenspeichereinheit willkürlich gelesen und geschrieben werden kann, kann die Maskenflächeneinstellinformation leicht geändert werden.
  • Im übrigen, um jedes zu erkennende Bild verlässlich zu erkennen, ist es notwendig Flächen zu extrahieren und Maskenflächen einzustellen, und zwar unter Berücksichtigung, dass die Dunkelwerte der das zu erkennende Bild bildenden Pixel aufgrund von verschiedenen Faktoren variieren. Jedoch, wenn die Variationen berücksichtigt werden, um breite Maskenflächen für alle Flächen einzustellen, wird die Möglichkeit, dass ein Bild, das dem zu erkennenden Bild ähnlich ist, fälschlicherweise als das zu erkennende Bild erkannt wird, insbesondere in dem Abschnitt nahe der Mittelposition groß. Dann wird die der Mittelposition der Fensterfläche nächstliegende Maskenfläche aus nur einer einzigen Zelle gebildet und andere Maskenflächen werden mit der Maskenfläche als Referenz eingestellt, wobei die Wahrscheinlichkeit der Falscherkennung vermindert wird.
  • Die Fensterfläche kann rechtwinklig oder kreisförmig sein, und die Maskenflächen können willkürlich eingestellt werden. Wenn die Fensterfläche rechtwinklig ist, können die Eingangsbilder, die im allgemeinen oft rechtwinklig sind, ohne Auslassung abgetastet werden, und der Abtastvorgang kann vereinfacht werden. Wenn die Fensterfläche kreisförmig ist, können die Pixelpositionen auf der Fensterfläche in Polarkoordinaten dargestellt werden, wodurch die erforderliche Kapazität zum Speichern der Maskenflächen vermindert werden kann. Ferner können die Maskenflächen willkürlich eingestellt werden, wodurch die Maskenflächen entsprechend den Eigenschaften eines Eingangsbilds eingestellt werden können, und die Erkennungsgenauigkeit kann verbessert werden. Natürlich können alle Typen von Bildern auch auf die zu erkennenden Bilder eingestellt werden.
  • Die in der Maskenflächenspeichereinheit gespeicherte Einstellinformation kann die Einstellinformation der Maskenflächen enthalten, die für eines der zu erkennenden Bilder und die Drehwinkel der zu erkennenden Bilder eingestellt wurden. In diesem Fall kann die erforderliche Kapazität zum Speichern der Maskenflächeneinstellinformation verringert werden. Natürlich können die Bilddaten binäre Daten sein, um die Komplexität der Schaltkreiskonfiguration und Vorrichtung zu vermeiden, oder die Verarbeitung für jedes zu erkennende Bild kann in dem gleichen Zyklus parallel durchgeführt werden, um eine Echtzeit-Verarbeitung zu realisieren.
  • Gemäß einem dritten Aspekt der Erfindung ist ein Aufzeichnungsmedium angegeben, welches ein Programm zum Erkennen einer Vielzahl von Bildern aus einem Eingangsbild speichert, wobei die Vielzahl der zu erkennenden Bilder wenigstens eines aus einem spezifischen Bild und der durch Drehen des spezifischen Bilds erzeugten Bilder einschließt, welches Programm die Schritt umfasst: Vorbereiten wenigstens einer von Maskenflächen auf einer Fensterfläche für jedes zu erkennende Bild, wobei die Fensterfläche durch Zellen strukturiert ist, die zweidimensional angeordnet sind, eine Zelle aus wenigstens einem Pixel gebildet ist, die Maskenfläche durch wenigstens eine der Zellen strukturiert ist und einer Fläche entspricht, die ein Merkmal des zu erkennenden Bilds darstellt; erstens Bestimmen, ob das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der Verarbeitung von Pixeldichtewerten des Eingangsbilds in der Maskenfläche für jedes zu erkennende Bild; und zweitens Bestimmen, ob eines der Vielzahl der zu erkennenden Bilder in der Fensterfläche vorliegt, basierend auf dem Ergebnis der Bestimmung des ersten Bestimmungsschritts.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • In den beigefügten Zeichnungen:
  • 1 ist ein Flussdiagramm, um den Ablauf eines Bildverarbeitungsverfahrens, das durch eine Vorrichtung zur Bildverarbeitung gemäß einer Ausführung der Erfindung bereitgestellt wird, zu zeigen.
  • 2 ist eine Abbildung, um ein Beispiel eines spezifischen Bilds in der Ausführung der Erfindung zu zeigen;
  • 3 ist eine Abbildung, um den Zusammenhang zwischen dem spezifischen Bild (zu erkennendes Bild) in 2 und einer Mittelposition davon zu zeigen;
  • 4A4C sind Abbildungen, um Beispiele von zu erkennenden Bildern, die durch Drehen des spezifischen Bilds in 2 erzeugt werden, zu zeigen;
  • 5A5D sind Abbildungen, um Beispiele von Merkmalsflächen von zu erkennenden Bildern, die in 2 und 4A4C gezeigt sind, zu zeigen;
  • 6 ist eine Abbildung, um ein Beispiel einer Fensterfläche in der Ausführung der Erfindung zu zeigen;
  • 7A7D sind Abbildungen, um Beispiele der zu erkennenden Bilder, die in 2 und 4A4C gezeigt sind, und Maskenflächen der Fensterfläche zu zeigen;
  • 8 ist eine Abbildung, um ein Beispiel eines Eingangsbilds in der Ausführung der Erfindung zu zeigen;
  • 9 ist eine Abbildung, um zu zeigen, wie das Eingangsbild mit der verschobenen Fensterfläche in der Ausführung der Erfindung abgetastet wird;
  • 10 ist ein Blockdiagramm, um ein Konfigurationsbeispiel der Bildverarbeitungsvorrichtung in der Ausführung der Erfindung zu zeigen;
  • 11 ist eine Abbildung, um ein Beispiel einer Schaltkreiskonfiguration eines Bilddatenhalteabschnitts der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 12 ist eine Abbildung, um eine Fensterfläche, die durch den Bilddatenhalteabschnitt in 11 eingestellt ist, zu zeigen;
  • 13A13D sind Abbildungen, um Beispiele von Maskenflächen zu zeigen, die in der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung eingestellt sind;
  • 14 ist ein Blockdiagramm, um ein Konfigurationsbeispiel eines Einstellabschnitt für die Maskenfläche der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 15 ist ein Blockdiagramm, um den Zusammenhang zwischen der Konfiguration des Maskenflächeneinstellabschnitt und der Konfiguration eines ersten Verarbeitungsabschnitt für die Maskenfläche der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 16 ist ein Blockdiagramm, um ein Konfigurationsbeispiel des ersten Verarbeitungsabschnitt für die Maskenfläche der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 17 ist ein Blockdiagramm, um ein Beispiel einer Schaltkreiskonfiguration des ersten Verarbeitungsabschnitts für die Maskenfläche der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 18 ist ein Blockdiagramm, um den Zusammenhang zwischen der Konfiguration des ersten Einstellabschnitts für die Maskenfläche und der Konfiguration eines zweiten Einstellab schnitts für die Maskenfläche der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 19 ist ein Diagramm, um ein Beispiel einer Schaltkreiskonfiguration des zweiten Verarbeitungsabschnitts für die Maskenfläche der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 20 ist ein Blockdiagramm, um den Zusammenhang zwischen der Konfiguration des Einstellabschnitts für die Maskenfläche und der Konfiguration eines Außerhalb-Maskenflächenverarbeitungsabschnitts der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 21 ist ein Blockdiagramm, um ein Beispiel einer Schaltkreiskonfiguration des Außerhalb-Maskenflächenverarbeitungsabschnitts der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 22 ist ein Blockdiagramm, um ein Beispiel einer Schaltkreiskonfiguration eines Bildbestimmungsabschnitts der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 23 ist ein Diagramm, um ein Beispiel einer Schaltkreiskonfiguration des Bildbestimmungsabschnitts der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 24 ist ein Diagramm, um ein Beispiel einer Schaltkreiskonfiguration eines Erkennungsabschnitts für das spezifische Bild der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 25 ist ein Diagramm, um ein weiteres Beispiel einer Schaltkreiskonfiguration des Erkennungsabschnitts für das spezifische Bild der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 26 ist eine Abbildung, um ein Datenbeispiel auf einer Fensterfläche des Bilddatenhalteabschnitts der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 27A27D sind Abbildungen, um Ausgangsdatenbeispiele des Einstellabschnitts für die Maskenfläche der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen, 27A zeigt Maskenflächenausgangsdaten des ersten Einstellabschnitts für die Maskenfläche, 27B zeigt die Maskenflächenausgangsdaten des zweiten Einstellabschnitts für die Maskenfläche, 27C zeigt die Maskenflächenausgangsdaten des dritten Einstellabschnitts für die Maskenfläche und 27D zeigt die Maskenflächenausgangsdaten des vierten Einstellabschnitts für die Maskenfläche;
  • 28 ist eine Abbildung, um ein Datenbeispiel auf einer Fensterfläche des Bilddatenhalteabschnitts der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
  • 29A29D sind Abbildungen, um Ausgangsdatenbeispiele des Einstellabschnitts für die Maskenfläche der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen, 29A zeigt Maskenflächenausgangsdaten des ersten Einstellabschnitts für die Maskenfläche, 29B zeigt die Maskenflächenausgangsdaten des zweiten Einstellabschnitts für die Maskenfläche, 29C zeigt die Maskenflächenausgangsdaten des dritten Einstellabschnitts für die Maskenfläche und 29D zeigt die Maskenflächenausgangsdaten des vierten zeigt die Maskenflächenausgangsdaten des vierten Einstellabschnitts für die Maskenfläche;
  • 30 ist eine Abbildung, um ein Beispiel eines Verarbeitungszyklus in der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen; und
  • 31 ist ein Blockdiagramm, um die Konfiguration einer modifizierten Ausführung der Vorrichtung zur Bildverarbeitung zu zeigen.
  • GENAUE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Es sei Bezug auf die beigefügten Zeichnungen genommen, wo eine Vorrichtung zur Bilderkennung gemäß einer Ausführung der Erfindung gezeigt ist.
  • I. Verfahren zur Bildverarbeitung
  • Zunächst wird ein Verfahren zur Bilderkennung (im weiteren als "ein Verfahren zur Bildverarbeitung" bezeichnet), welches von der Vorrichtung zur Bilderkennung gemäß der Ausführung der Erfindung bereitgestellt wird, diskutiert.
  • 1 ist ein Flussdiagramm, um den Ablauf des Verfahrens zur Bildverarbeitung zu zeigen. Wie in der Zeichnung gezeigt ist, wird zunächst in Schritt S1 ein spezifisches Bild bestimmt. Zu diesem Zeitpunkt können ein oder mehrere spezifische Bilder bestimmt werden. Als nächstes wird in Schritt S2 entsprechend einem Verfahren zur Bildeingabe bestimmt, bei welchem Winkel das spezifische Bild eingegeben wird. Wenn das spezifische Bild bei jedem Winkel eingegeben werden kann, wird eine Vielzahl von Winkel unter Berücksichtigung der Größe und Ein gangsauflösung des spezifischen Bilds entnommen. Als ein Ergebnis sind, wenn zum Beispiel n Bilder in Schritt S1 bestimmt werden und m Winkel in Schritt S2 entnommen werden, n x m Bilder zu erkennen.
  • In Schritt S3 wird die Mittelposition der Drehung des spezifischen Bilds bestimmt, und in Schritt S4 wird das zu erkennende Bild, das durch Drehen des spezifischen Bilds mit der Mittelposition als Zentrum erzeugt wird, in eine Vielzahl von Flächen geteilt. Als nächstes wird in Schritt S5 eine Fensterfläche unter Berücksichtigung der Größe und Eingangsauflösung des zu erkennende Bilds bereitgestellt. In Schritt S6 wird die Mittelposition der Fensterfläche in Übereinstimmung mit der Mittelposition der Drehung des zu erkennenden Bilds gebracht. In Schritt S7 wird eine Maskenfläche in der Fensterfläche eingestellt. Die oben beschriebene Verarbeitung wird mit einem spezifischen Beispiel diskutiert.
  • 2 ist eine Abbildung, welche ein spezifisches Bild 1 mit einer vorbestimmten Kodeinformation zeigt. In dem Verfahren zur Bildverarbeitung wird eine Mittelposition 2, die das Drehzentrum wird, auf dem spezifischen Bild 1 eingestellt, wie in 3 gezeigt ist, um nicht nur das spezifische Bild 1, sondern auch ein durch Drehen des spezifischen Bilds 1 erzeugtes Bild zu erkennen. Wenn das spezifische Bild um 90 Grad, 180 Grad und 270 Grad im Uhrzeigersinn gedreht wird, mit der Mittelposition 2 als Zentrum, werden die zu erkennenden Bilder 3 bis 5 in den 4A4C erzeugt. In dem Verfahren zur Bildverarbeitung sind die vier Bilder (erzeugt mit Drehwinkeln von 0 Grad, 90 Grad, 180 Grad und 270 Grad) zu erkennen. Zur einfachen Beschreibung wird auch auf das spezifische Bild 1 durch das zu erkennende Bild 1 Bezug genommen.
  • Als nächstes werden in dem Verfahren zur Bildverarbeitung Flächen, welche das Merkmal des zu erkennenden Bilds darstellen, für jedes der vier zu erkennenden Bilder eingestellt. In den in 2 und 4A4C gezeigten Beispielen, stellt das in schwarz dargestellte Beispiel (im weiteren als "schwarzes Bild" bezeichnet) das Merkmal des zu erkennenden Bilds dar; da das schwarze Bild aus sechs schwarzen Pixel besteht, werden sechs kreisförmige Flächen für jedes der vier zu erkennenden Bilder eingestellt, wie in 5A5D gezeigt ist.
  • In dem Verfahren zur Bildverarbeitung wird eine Fensterfläche 7 wie ein Gitter (siehe 6) bereitgestellt, um ein Eingangsbild abzutasten, und das zu erkennende Bild von dem Eingangsbild zu erkennen. Die Fensterfläche 7 wird auf eine Größe eingestellt, um es nur einem der zu erkennenden Bilder 1 und 35 zu ermöglichen einzugehen. In dem in 6 gezeigten Beispiel wird die Fensterfläche auf eine Größe von 11 × 11 Zellen eingestellt. Die Größe jeder Zelle in der Fensterfläche 7 (Auflösung) ist willkürlich entsprechend dem spezifischen Bild geeignet eingestellt.
  • Als nächstes werden in dem Verfahren zur Bildverarbeitung den Einstellflächen 6 entsprechende Maskenflächen 8 auf die Fensterfläche 7 für jedes der zu erkennenden Bilder 1 und 35 eingestellt, wie in 7A7D gezeigt ist. Zu diesem Zeitpunkt werden die Maskenflächen 8 so eingestellt, dass die Mittelposition 2 der Drehung jedes der zu erkennenden Bilder 1 und 35 in Übereinstimmung mit der Zentrum der Fensterfläche 7 ist. Die sechs Maskenflächen 8 für jedes der zu erkennenden Bilder 1 und 35 werden auf der gleichen Fensterfläche 7 eingestellt, und schließlich werden 24 Maskenflächen auf der einzigen Fensterfläche 7 eingestellt.
  • In dem Verfahren zur Bildverarbeitung wird die oben beschriebene Verarbeitung durchgeführt, bevor ein Eingangsbild abgetastet wird. Indem wieder Bezug auf 1 genommen wird, wird die darauffolgende Verarbeitung diskutiert.
  • In Schritt S8 wird ein Eingangsbild in der Fensterfläche abgetastet. In Schritt S9 wird bestimmt, ob das Eingangsbild voll-ständig abgetastet worden ist. Wenn das Eingangsbild nicht vollständig abgetastet worden ist, geht die Steuerung zu Schritt S10 über und vorbestimmte Verarbeitungen werden an Pixeldichtewerten für jede Maskenfläche durchgeführt. In Schritt S11 werden für jedes spezifische Bild vorbestimmte Verarbeitungen an den Pixeldichtewerten in anderen Flächen als den Maskenflächen durchgeführt, und es wird bestimmt, ob ein zu erkennendes Bild vorliegt oder vorliegen kann, basierend auf dem Ergebnis der Verarbeitung für jede Maskenfläche in Schritt S10. Ferner, wenn in Schritt S12 bestimmt wird, dass das zu erkennende Bild vorliegt, oder dass die Möglichkeit des Vorliegens des zu erkennenden Bilds hoch ist, geht die Kontrolle an Schritt S13 über, in welchem angenommen wird, dass das zu erkennende Bild erfasst ist; im anderen Falle geht die Kontrolle an Schritt S14 über, in welchem angenommen wird, dass das zu erkennende Bild nicht erfasst ist. Dann kehrt die Kontrolle zu Schritt S8 zurück, und die oben beschriebene Verarbeitung wird wiederholt, bis das ganze Eingangsbild vollständig abgetastet worden ist.
  • Die Verarbeitung wird mit dem oben beschriebenen spezifischen Beispiel diskutiert. Hier sei angenommen, dass das Eingangsbild das in 8 gezeigte Eingangsbild 9 ist, eine Abbildung ist, um ein Beispiel des Eingangsbilds 9 zu zeigen. Das Eingangsbild 9 scheint aus unregelmäßig angeordneten schwarzen Punkten aufgebaut zu sein, umfasst jedoch die zu erkennenden Bilder 1 und 35.
  • In dem Verfahren zur Bildverarbeitung wird das Eingangsbild 9 von der oberen linken Ecke zu der unteren rechten Ecke mit der Fensterfläche 7, auf welcher die Maskenflächen 8 eingestellt sind, abgetastet. Jedes Mal, wenn sich die Position der Fensterfläche 7 in Bezug auf das Eingangsbild 9 während des Abtastens ändert, werden Verarbeitungen an den Pixeldichtewerten auf dem Eingangsbild 9 entsprechend jeder Maskenfläche 8 durchgeführt. Als spezifisches Abtasten, wie in 9 gezeigt ist, wird eine wiederholte horizontale Abtastung durchgeführt, indem die Fensterfläche 7 von dem linken Ende des Eingangsbilds 9 um ein Pixel horizontal verschoben wird, bis das rechte Ende der Fensterfläche 7 das rechte Ende des Eingangsbilds 9 erreicht, wobei die Fensterfläche 7 zu einem Zeitpunkt um ein Pixel vertikal verschoben wird. Selbstverständlich hört das vertikale Abtasten auf, wenn das untere Ende der Fensterfläche 7 das untere Ende des Eingangsbilds 9 erreicht.
  • In dem Verfahren zur Bildverarbeitung wird, wenn die Verarbeitungen jedes Mal durchgeführt werden, wenn sich die Position der Fensterfläche 7 in Bezug auf das Eingangsbild 9 ändert, für jedes der zu erkennenden Bilder 1 und 35 eine logische OR-Funktion durchgeführt, wenn eine Maskenfläche 8 ein oder mehrere schwarze Pixel enthält, und die Maskenfläche 8 wird auf '1' eingestellt, eine logische AND-Funktion durchgeführt, welche '1' ausgibt, wenn das Ergebnis der Verarbeitung auf den sechs Maskenflächen 8 '1' ist, eine logische NOR-Funktion durchgeführt, welche '1' ausgibt, wenn die Fensterfläche mit Ausnahme der Maskenflächen 8 auf dem Eingangsbild 9 sämtlich weiße Pixel enthält, und bezüglich dem Ergebnis der logischen AND-Funktion wird eine logische AND-Funktion mit dem Ergebnis der logischen NOR-Funktion durchgeführt, dann wird das Ergebnis der Verarbeitung der logischen AND-Funktion als das Ergebnis der Bestimmung benutzt. Die Verarbeitungen werden für jedes der zu erkennenden Bilder 1 und 35 parallel durchgeführt.
  • Wie aus der Beschreibung ersichtlich ist, wird, wenn in dem Verfahren zur Bildverarbeitung als Position der Fensterfläche 7 eine Position wird, die ein spezifisches Bild auf dem Eingangsbild 9 vollständig enthält, nur eines der Ergebnisse der Bestimmung für die zu erkennenden Bilder 1 und 35 zu '1', und wenn die Fensterfläche 7 in einer anderen Position platziert wird, werden alle Ergebnisse der Bestimmung zu '0'. Für das in 8 gezeigte Eingangsbild 9 wird zuerst nur das Ergebnis der Bestimmung für das zu erkennende Bild 5, das um 270 Grad im Uhrzeigersinn gedreht ist, zu '1', und wenn das Abtasten fortschreitet, werden die Ergebnisse der Bestimmung für die zu erkennenden Bilder 3, 4 und 1, die um 90 Grad, 180 Grad und 0 Grad im Uhrzeigersinn gedreht sind, in der Reihenfolge '1'. Somit können in dem Verfahren zur Bildverarbeitung die vier zu erkennenden Bilder, die verschieden in der Ausrichtung sind, aus dem Eingangsbild 9 erkannt werden. Selbstverständlich können, wenn das Eingangsbild 9 selbst um 90 Grad, 180 Grad und 270 Grad im Uhrzeigersinn gedreht wird, die vier zu erkennenden Bilder, wie oben beschrieben ist, erkannt werden.
  • Bei der Verarbeitung auf jeder Maskenfläche 8 kann die folgende Verarbeitung verwendet werden, ohne die logische OR-Funktion durchzuführen: Die Pixeldichtewerte auf dem Eingangsbild 9, das in der Maskenfläche 8 positioniert ist, werden addiert, und wenn der Gesamtdichtewert einen vorbestimmten Schwellenwert übersteigt, wird '1' ausgegeben; im anderen Falle wird '0' ausgegeben. In Kürze können optimale Verarbeitungen entsprechend einem Fehler, der durch ein in ein spezifi sches Bild gemischtes Rauschen bewirkt wird, Erkennungsgenauigkeit usw. angenommen werden.
  • Im übrigen kann, um ein zweidimensionales Bild abzutasten und ein Eingangsbild zu bekommen, der Drehwinkel eines spezifischen Bilds abhängig von der Bildlesetechnik willkürlich sein (Winkel verschieden von 0, 90, 180 oder 270 Grad). In einem solchen Fall kann in dem Verfahren zur Bildverarbeitung die Maskenfläche 8 für jedes der spezifischen Bilder eingestellt werden, die in Folge durch Drehen dieses spezifischen Bilds mit hinreichend kleinen Winkeln bereitgestellt werden. Das heißt, die Zahl der zu erkennenden Bilder kann erhöht werden und die Maskenfläche 8 kann für jedes der zu erkennenden Bilder eingestellt werden.
  • Wenn in dem Verfahren zur Bildverarbeitung jede Maskenfläche 8 für die entsprechende Teilungsfläche 6 breit eingestellt wird, kann die Wahrscheinlichkeit erhöht werden, dass ein spezifisches Bild bei einem willkürlichen Drehwinkel, in dem das zu erkennende Bild nicht im voraus erzeugt wird, als das zu erkennende Bild erkannt wird, und die Auswirkung eines sich auf die Bestimmung auswirkenden Fehlers, der durch ein in das zu erkennende Bild gemischte Rauschen verursacht wird, kann vermindert werden, wodurch die Erkennungsgenauigkeit erhöht werden kann.
  • Ferner, wenn die zu erkennenden Bilder bestmöglich auf ein spezifisches Bild und die durch Drehen des spezifischen Bilds erzeugten Bilder beschränkt werden, kann die Erkennungsgenauigkeit des Verfahrens zur Bildverarbeitung verbessert werden. Zum Beispiel sei festgestellt, dass bei gleichem Drehwinkel dann, wenn ein Pixel weiter von der Mittelposition 2 beabstandet ist, der Bewegungsabstand größer ist, und die Maskenfläche 8, welche einer Fläche 6 entspricht, wird breit eingestellt wenn sie von der Mittelposition 2 beabstandet wird, wodurch die Erkennungsgenauigkeit verbessert werden kann.
  • Im übrigen, wenn alle Maskenflächen für die Flächen 6 breit eingestellt werden, ist zu befürchten, dass ein Pixel, das an einer Position vorliegt, die den Fehlerbereich übersteigt, auch als Pixel des zu erkennenden Bilds erkannt wird, insbesondere in einer Position nahe der Mittelposition 2, wo der die Drehung begleitende Pixelbewegungsabstand klein ist, und die Möglichkeit ein Bild analog zu dem zu erkennenden Bild falsch zu erkennen wird hoch. Wenn in dem Verfahren zur Bildverarbeitung somit die Maskenfläche an einer Position, in der der die Drehung begleitende Pixelbewegungsabstand bei einem gleichen Drehwinkel klein ist (nämlich die Position nächst der Mittelposition 2 und der Mittelposition der Fensterfläche 7), nur aus einer einzigen Zelle besteht und die Umfänge der anderen Maskenflächen basierend auf dem Abstand von der Mittelposition 2 und der Mittelposition der Fensterfläche 7 und der Auflösung der Fensterfläche 7 bestimmt werden, kann die Erkennungsgenauigkeit verbessert werden.
  • Die zu erkennenden Bilder sind ausschließlich ein spezifisches Bild und die Bilder, die durch Drehen des spezifischen Bilds erzeugt werden. Wenn somit die Fensterfläche wie ein Kreis geformt ist, kann die von der Fensterfläche eingenommene Fläche verengt werden. Wenn überdies die Fensterfläche kreisförmig ist, können die Positionen aller Maskenflächen in Polarkoordinaten angeben werden. Somit können durch Angeben eines Drehwinkels die Maskenflächenkoordinaten des spezifischen Bilds, das um den Drehwinkel gedreht ist, unter Verwendung eines bekannten einfachen Ausdrucks, basierend auf den Maskenflächen koordinaten eines nicht gedrehten spezifischen Bilds berechnet werden.
  • Wenn in dem Verfahren zur Bildverarbeitung Maskenflächen, anstatt festgelegt zu sein, in gewünschter Weise eingestellt werden können, können geeignete Maskenflächen entsprechend einer Änderung in den Eigenschaften eines Eingangsbilds und eines spezifischen Bilds oder dergleichen eingestellt werden. Deshalb kann die Erkennungsgenauigkeit verbessert werden. Selbstverständlich kann auch das zu erkennende spezifische Bild selbst geändert werden.
  • Wenn ferner das spezifische Bild als Erkennungsreferenz, oder das Eingangsbild oder beide, Farb- oder Graustufenbilder sind, wird die oben beschriebene Erkennungsverarbeitung durchgeführt, nachdem das Eingangsbild binärisiert ist, wobei das Verfahren zur Bildverarbeitung angewendet werden kann. Wenn zum Beispiel eine Vorrichtung für das Verfahren zur Bildverarbeitung eine Leseeinheit umfasst, die Farbinformation und Monochrom-Mehrfachwert-Information lesen kann, und das Eingangsbild ein Farb- oder Graustufenbild ist, kann sogar die normale Erkennungsverarbeitung durchgeführt werden, indem eine geeignete Bildverarbeitung, welche eine Binärisierung enthält, durchgeführt wird. Dies wird auch angewendet, wenn das als Erkennungsreferenz verwendete spezifische Bild ein Farb- oder Graustufenbild ist. Deshalb, wenn das spezifische Bild, oder das Eingangsbild oder beide, Farb- oder Graustufenbilder sind, kann das spezifische Bild erkannt werden, indem einfache Binärverarbeitungen durchgeführt werden, und in der Erkennungsverarbeitung des spezifischen Bilds kann eine Erkennungsverarbeitung, die unabhängig von einer von der Gestalt verschiedenen Merkmalsinformation ist, wie Farbe oder Dunkelheit, durchgeführt werden.
  • Selbstverständlich kann das spezifische Bild verglichen und als das intakte Farb- oder Graustufenbild erkannt werden, ohne die Merkmalsinformation zu konvertieren, obgleich die Verarbeitungen kompliziert werden. Ein spezifisches Beispiel wird später als eine zweite modifizierte Ausführung diskutiert.
  • In dem Verfahren zur Bildverarbeitung sind die Erkennung eines spezifischen Bilds und der durch Drehen des spezifischen Bilds erzeugten Bilder beschrieben worden. Jedoch, wenn Maskenflächen, die einem anderen spezifischen Bild und den Bildern, die durch Drehen des spezifischen Bilds erzeugt werden, entsprechen, in der Fensterfläche 7 eingestellt werden, und Verarbeitungen davon auch parallel durchgeführt werden, können mehr als ein spezifisches Bild und der durch Drehen des spezifischen Bilds erzeugten Bilder in einer Fensterfläche erkannt werden.
  • II. Vorrichtung zur Bilderkennung
  • Als nächstes wird die Vorrichtung zur Bilderkennung (im weiteren als "Vorrichtung zur Bildverarbeitung" bezeichnet) gemäß der Ausführung zum Durchführen des oben beschriebenen Verfahrens zur Bildverarbeitung diskutiert.
  • (1) Gesamtaufbau
  • 10 ist ein Grundblockdiagramm der Vorrichtung zur Bildverarbeitung. Wie hier gezeigt ist, nimmt die Vorrichtung zur Bildverarbeitung binäre Bilddaten auf, die ein Eingangsbild darstellen, welche im weiteren als Eingangsbilddaten bezeichnet werden, und gibt Erkennungsergebnisdaten aus, welche das Erkennungsergebnis von spezifischen Bildern für das Eingangs bild darstellen. In der unten gezeigten Beschreibung ist angenommen, dass der Bilddatenwert ein Pixeldichtewerte ist, und dass der Bilddatenwert (Pixeldichtewert) für ein weißes Pixel 0 ist und der Bilddatenwert (Pixeldichtewert) für ein schwarzes Pixel 1 ist.
  • In 10 bezeichnet die Bezugsziffer 10 einen Eingangsbildspeicherabschnitt zum sequenziellen Speichern von Eingangsbilddaten einer Vielzahl von Zeilen, die zum Erkennen eines spezifischen Bilds erforderlich sind, Bezugsziffer 11 bezeichnet einen Bilddatenhalteabschnitt zum Lesen von Bilddaten entsprechend einer voreingestellten Fensterfläche von dem Eingangsbildspeicherabschnitt 10 und zum zeitweiligen Zurückhalten der gelesenen Bilddaten, und Bezugsziffer 12 ist ein Maskenflächeneinstellabschnitt zum Extrahieren von Bilddaten, die in einer Vielzahl von voreingestellten Maskenflächen als Maskenflächendaten für jede Maskenfläche enthalten sind, aus den in dem Bilddatenhalteabschnitt 11 für jedes Bild aus einem voreingestellten spezifischen Bild und der spezifischen Bilder, die durch Drehen des voreingestellten spezifischen Bilds erzeugt werden, zurückgehaltenen Bilddaten, und zum Extrahieren von Bilddaten, die in der Fensterfläche außerhalb der Maskenflächen als Außerhalb-Maskenflächendaten für jedes der spezifischen Bilder enthalten sind.
  • Bezugsziffer 13 ist ein erster Maskenflächenverarbeitungsabschnitt zum Durchführen der oben beschriebenen logischen Funktion, wie OR, oder einer arithmetischen Verarbeitung der Werte der Maskenflächendaten, die in dem Maskenflächeneinstellabschnitt 12 extrahiert werden, und Ausgeben des Ergebnisses der Verarbeitung, Bezugsziffer 14 ist ein Außerhalb-Maskenflächenverarbeitungsabschnitt zum Durchführen der oben beschriebenen logischen Funktion, wie NOR, an den Werten der Außerhalb-Maskenflächendaten, die in dem Maskenflächeneinstellabschnitt 12 extrahiert werden, und zum Ausgeben des Ergebnisses der Verarbeitung, und Bezugsziffer 15 ist ein zweiter Maskenflächenverarbeitungsabschnitt zum Durchführen der oben beschriebenen logischen Funktion oder einer arithmetischen Verarbeitung an den Ergebnissen der Verarbeitung des ersten Maskenflächenverarbeitungsabschnitts 13 für jedes spezifische Bild und zum Ausgeben des Ergebnisses der Verarbeitung.
  • Bezugsziffer 16 ist ein Bildbestimmungsabschnitt zum Bestimmen, ob ein spezifisches Bild vorliegt, basierend auf den Ergebnissen der Verarbeitung des zweiten Maskenflächenverarbeitungsabschnitts 15 und des Außerhalb-Maskenflächenverarbeitungsabschnitts 14. Bezugsziffer 17 ist ein Erkennungsabschnitt für das spezifische Bild zum Bestimmen, ob das spezifische Bild oder eines der spezifischen Bilder, die durch Drehen des spezifischen Bilds erzeugt werden, in den Bilddaten vorliegen, die in dem Bilddatenhalteabschnitt 11 zurückgehalten werden, basierend auf dem Ergebnis der Bestimmung des Bildbestimmungsabschnitts 16, und gibt das Ergebnis der Bestimmung als Erkennungsergebnisdaten aus.
  • (2) Funktionen und Konfigurationen der Abschnitte
  • Als nächstes werden die Funktionen und Konfigurationen der in 10 gezeigten Abschnitte diskutiert. Die unten dargelegte Beschreibung nimmt an, dass das zu erkennende Bild das in 2 zu erkennende Bild ist, dass die Bilder, die durch Drehen des Bilds erzeugt werden, die zu erkennenden Bilder 3, 4 und 5 in 4A4C sind, und dass die Vorrichtung zur Bildverarbeitung die vier zu erkennenden Bilder aus einem Eingangsbild erkennt. Sie nimmt auch an, dass die Fensterfläche zum Erkennen der zu erkennenden Bilder auf eine Größe von 11 × 11 Zellen eingestellt wird, von denen jede einem Punkt entspricht. Ferner nimmt sie an, dass die Auflösung eines Eingangsbilds auf eine solche Auflösung eingestellt wird, die es erlaubt, dass die Zusammenhänge zwischen den zu erkennenden Bildern und dem Eingangsbild so werden, wie in 7A7D gezeigt ist.
  • Bei diesen Annahmen muss der Eingangsbildspeicherabschnitt 10 einen Speicher umfassen, der geeignet ist, wenigstens 10-Zeilen-Bilddaten zu speichern und zum Beispiel aus 10 Zeilenspeichern, von denen jeder eine Kapazität zum Speichern von 1-Zeilen-Bilddaten hat, einer Zeilenspeichersteuereinheit usw. aufgebaut ist. Beim Speichern der 10-Zeilen-Bilddaten gibt der Eingangsbildspeicherabschnitt 10 die 11-Zeilen-Eingangsbilddaten, welche den nächsten Eingangsbilddateneingang in Folge von der Außenseite enthalten, zu dem Bilddatenhalteabschnitt 11 in Folge aus. Die Ausgabeordnung sollte in Antwort auf die Funktion des Bilddatenhalteabschnitts 11, dem Eingangsbildspeicherabschnitt 10 folgend, geeignet gestaltet sein. Die Ausführung nimmt eine solche Ausgabeordnung an, in welcher die 11 Pixeldichtewerte, entsprechend den am weitesten links befindlichen Pixel, ausgegeben werden, dann werden die 11 Pixeldichtewerte, entsprechend den zweiten Pixel von der linken Seite der Zeilen, ausgegeben. In Einklang mit einem solchen Verfahren wiederholt der Eingangsbildspeicherabschnitt 10 das Verfahren bis er die 11-Zeilen-Eingangsbilddaten in Verbindung mit dem Eingangsbilddateneingang, welcher die letzte Zeile des Eingangsbilds darstellt, sequenziell ausgibt, wodurch das Eingangsbild vertikal abgetastet wird.
  • Der Bilddatenhalteabschnitt 11 umfasst eine Flip-Flop-Gruppe 18, die aus 11 × 11 Flip-Flops aufgebaut ist, wie in 11 gezeigt ist, um die jüngsten 11-Reihen-Bilddaten des 11-Zeilen Eingangsbilddateneingangs in Folge aus dem Eingangsbildspeicherabschnitt 10 zu halten. Das heißt, der Bilddatenhalteabschnitt 11 formt eine 11 × 11-Zellen Fensterfläche 19 der Flip-Flop-Gruppe 18, wie in 12 gezeigt ist, und hält die jüngsten 11-Reihen-Bilddaten, welche in der Fensterfläche 19 vorliegen, des Eingangsbilddateneingang in Folge zurück, wodurch das Eingangsbild mit der Fensterfläche 19 horizontal abgetastet wird. Jedes Mal, wenn sich die Zeile entsprechend dem Eingangsbilddatenausgang in Folge von dem Eingangsbildspeicherabschnitt 10 unterscheidet, nämlich, ein vertikales Abtasten durchgeführt wird, löscht der Bilddatenhalteabschnitt 11 die gehaltenen 11-Reihen-Bilddaten.
  • Der Maskenflächeneinstellabschnitt 12 extrahiert Maskenflächendaten und Außerhalb-Maskenflächendaten aus den Bilddaten, die in der Flip-Flop-Gruppe 18 des Bilddatenhalteabschnitts 11 gehalten werden, und ist zum Beispiel aus vier Maskenflächeneinstellteilen (erster Maskenflächeneinstellteil 20, zweiter Maskenflächeneinstellteil 21, dritter Maskenflächeneinstellteil 22 und vierter Maskenflächeneinstellteil 23) aufgebaut, wie in 14 gezeigt ist, um insgesamt vier spezifische Bilder zu erkennen. Die ersten bis vierten Maskenflächeneinstellteile 2023 entsprechen den zu erkennenden Bildern 1, 3, 4 bzw. 5.
  • Hier sei angenommen, dass die den spezifischen Bildern entsprechenden Maskenflächen auf der Fensterfläche 19 eingestellt sind, wie in 7A7D gezeigt ist, um das zu erkennende Bild 1 in 2 und die zu erkennenden Bilder 35 in 4 zu erkennen, nämlich, dass sechs Maskenflächen für jedes spezifische Bild auf der Fensterfläche 19 eingestellt werden, wie in 13A13D gezeigt ist.
  • In diesem Fall extrahiert jeder Maskenflächeneinstellteil Daten in der Fensterfläche 19 für alle sechs Maskenflächen entsprechend dem spezifischen Bild entsprechend dem Maskenflächeneinstellteil aus dem Bilddaten in der Fensterfläche 19 und gibt die extrahierten Daten zu dem ersten Maskenflächenverarbeitungsabschnitt 13 aus. Ebenso gibt jeder Maskenflächeneinstellteil die Bilddaten, die in der Fensterfläche außerhalb der sechs Maskenflächen vorliegen, welche entsprechend dem Maskenflächeneinstellteil aus den Bilddaten in der Fensterfläche 19 eingestellt sind, zu dem Außerhalb-Maskenflächenverarbeitungsabschnitt 14 als Außerhalb-Maskenflächendaten aus.
  • Jedoch führt der Maskenflächeneinstellabschnitt 12 nicht die Verarbeitung durch, während 11-Reihen-Bilddaten nicht in dem Bilddatenhalteabschnitt 11 gehalten werden.
  • Zum Beispiel, wie in 12 und in 13A ersichtlich ist, extrahiert der erste Maskenflächeneinstellteil 20 die Bilddaten auf Db2, Db3, Dc2 und Dc3 in der Fensterfläche 19 als Maskenflächendaten, die Bilddaten auf Dd9 und De9 als Maskenflächendaten, die Bilddaten auf De4 und De5 als Maskenflächendaten, die Bilddaten auf Dg2, Dg3, Dh2 und Dh3 als Maskenflächendaten, die Bilddaten auf Di6 und Di7 als Maskenflächendaten, und die Bilddaten auf Di10 und Di11 als Maskenflächendaten, und gibt die Maskenflächendaten an den ersten Maskenflächenverarbeitungsabschnitt 13 aus. Ebenso extrahiert er die Bilddaten in der Fensterfläche 19, die von den Maskenflächendaten verschieden sind, als Außerhalb-Maskenflächendaten und gibt die Daten an den Außerhalb-Maskenflächenverarbeitungsabschnitt 14 aus.
  • Die Datenextraktionsverarbeitung wird jedes Mal durchgeführt, wenn die in der Flip-Flop-Gruppe 18 gehaltenen Bilddaten verschoben werden.
  • Der erste Maskenflächenverarbeitungsabschnitt 13 führt eine logische Funktion oder eine arithmetische Verarbeitung auf der Vielzahl des Maskenflächeausgangsdaten aus dem Maskenflächeneinstellabschnitt 12 durch, und ist zum Beispiel aus vier ersten Maskenflächenverarbeitungsteilen (erster Maskenflächenverarbeitungsabschnitt A 24, erster Maskenflächenverarbeitungsabschnitt B 25, erster Maskenflächenverarbeitungsabschnitt C 26 und erster Maskenflächenverarbeitungsabschnitt D 27) aufgebaut, wie in 15 gezeigt ist. Die ersten Maskenflächenverarbeitungsteile A bis D sind entsprechend den zu erkennenden Bildern 1, 3, 4 bzw. 5 vorgesehen und diesen wird der Maskenflächendatenausgang aus dem ersten Maskenflächeneinstellteil, 20, dem zweiten Maskenflächeneinstellteil 21, dem dritten Maskenflächeneinstellteil 22 und dem vierten Maskenflächeneinstellteil 23 des Maskenflächeneinstellabschnitts 12 zugeführt. Hier sind die Maskenflächendatenstücke, die von den Maskenflächeneinstellteilen 20 bis 23 ausgegeben werden (nämlich die Maskenflächendatenstücke entsprechend den spezifischen Bildern 1 und 3 bis 5), Maskenflächendaten A, B, C und D, und die Namen werden in Antwort auf die verarbeiteten Daten an die ersten Maskenflächenverarbeitungsteile A bis D gegeben.
  • Jeder der vier ersten Maskenflächenverarbeitungsteile besteht aus sechs Flächendatenverarbeitungsteilen entsprechend den sechs Maskenflächen, die für jedes spezifische Bild eingestellt sind. Zum Beispiel besteht der erste Maskenflächenverarbeitungsteil A 24 aus einem Flächendaten-A-Verarbeitungsteil A 28, einem Flächendaten-A-Verarbeitungsteil B 29, ..., einem Flächendaten-A-Verarbeitungsteil F33, wie in 16 gezeigt ist, um die Verarbeitung an allen Maskenflächendaten durchzuführen.
  • Grundsätzlich kann die in jedem Flächendatenverarbeitungsteil durchgeführte Funktion eine logische AND- oder OR-Funktion der Daten oder eine Addition der Daten sein. Alle Flächendatenverarbeitungsteile müssen nicht den gleichen Typ von Verarbeitung durchführen, und ferner kann eine Anzahl von Verarbeitungen auf den Maskenflächendaten durchgeführt werden und eine Anzahl von Ergebnissen kann ausgegeben werden. Das heißt, welche Verarbeitungen durchgeführt werden sollen, sollte basierend auf den Eigenschaften eines Eingangsbilds und den zu erkennenden Bildern, dem Maskenflächeneinstellverfahren, der erforderlichen Erkennungsgenauigkeit usw. spezifiziert werden.
  • In der Ausführung ist die in jedem Flächendatenverarbeitungsteil durchgeführte Funktion eine OR-Funktion aller Datenwerte, die in den Maskenflächendaten aus dem Maskenflächeneinstellabschnitt 12 enthalten sind. Das heißt, wie in 17 gezeigt ist, jeder Flächendatenverarbeitungsteil führt eine Verarbeitung mit einem OR-Schaltkreis mit mehreren Eingängen und einem Ausgang durch. Als Ergebnis führt zum Beispiel der Flächendatenverarbeitungsteil A 28 eine logische OR-Verarbeitung von allen Datenwerten durch (nämlich, Db2, Db3, Dc2 und Dc3 in 12), welche in den Eingangsflächendaten A enthalten sind, und gibt das Ergebnis als ein 1-bit Signal R1AA aus. Der Flächendaten-A-Verarbeitungsteil B 29, der Flächendaten-A-Verarbeitungsteil C 30, der Flächendaten-A-Verarbeitungsteil D 31, der Flächendaten-A-Verarbeitungsteil E 32 und der Flächendaten-A-Verarbeitungsteil F 33 führen eine ähnliche Verarbeitung zu jener des Flächendaten- A-Verarbeitungsteils A 28 parallel durch und geben 1-bit Signale R1AB, R1AC, R1AE und R1AF aus.
  • Der erste Flächendatenverarbeitungsteil führt die oben beschriebene Verarbeitung parallel durch und jeder Teil gibt sechs Ergebnisse der Verarbeitung aus, welche die Signale darstellen. Das heißt, insgesamt werden 24 Signale ausgegeben.
  • Der zweite Flächendatenverarbeitungsabschnitt 15 führt eine logische Funktion oder eine arithmetische Verarbeitung an den Maskenflächendatenergebnissen der Verarbeitung aus dem ersten Maskenflächenverarbeitungsabschnitt 13 für jedes spezifische Bild durch. In der Ausführung, wie in 18 gezeigt ist, ist der zweite Maskenflächenverarbeitungsabschnitt 15 aus einem zweiten Maskenflächenverarbeitungsteil A 34, einem zweiten Maskenflächenverarbeitungsteil B 35, einem zweiten Maskenflächenverarbeitungsteil C 36 und einem zweiten Maskenflächenverarbeitungsteil D 37 aufgebaut. Wie in 18 ersichtlich ist, sind der zweite Maskenflächenverarbeitungsteil A34, der zweite Maskenflächenverarbeitungsteil B 35, der zweite Maskenflächenverarbeitungsteil C 36 und der zweite Maskenflächenverarbeitungsteil D 37 entsprechend den zu erkennenden Bildern 1, 3, 4 bzw. 5 vorgesehen und werden mit sechs Ausgängen aus dem ersten Maskenflächenverarbeitungsteil A 24, sechs Ausgängen aus dem ersten Maskenflächenverarbeitungsteil B 25, sechs Ausgängen aus dem ersten Maskenflächenverarbeitungsteil C 26 und sechs Ausgängen aus dem ersten Maskenflächenverarbeitungsteil D 27 gespeist.
  • In der Ausführung führt jeder aus dem zweiten Maskenflächenverarbeitungsteil A 34, dem zweiten Maskenflächenverarbeitungsteil B 35, dem zweiten Maskenflächenverarbeitungsteil C 36 und dem zweiten Maskenflächenverarbeitungsteil D 37 eine AND-Funktion von sechs Eingangsdatenstücken durch, und gibt das Ergebnis als ein 1-bit Signal R2A, R2B, R2C, R2D aus, wie in 19 gezeigt ist. Das heißt, der zweite Maskenflächenverarbeitungsabschnitt 15 gibt ein Signal aus, das angibt, ob schwarze Pixel auf dem Eingangsbild entsprechend allen sechs Maskenflächen für jedes spezifische Bild vorliegen.
  • Der Außerhalb-Maskenflächenverarbeitungsabschnitt 14 führt eine logische Verarbeitung oder eine arithmetische Verarbeitung auf einer Anzahl von Außerhalb-Maskenflächendatenstücken aus dem Maskenflächeneinstellabschnitt 12 durch, und ist aus einem Außerhalb-Maskenflächenverarbeitungsteil A 38, einem Außerhalb-Maskenflächenverarbeitungsteil B 39, einem Außerhalb-Maskenflächenverarbeitungsteil C 40 und einem Außerhalb-Maskenflächenverarbeitungsteil D 41 aufgebaut, wie in 20 gezeigt ist. Wie in 20 gezeigt ist, nehmen der Außerhalb-Maskenflächenverarbeitungsteil A 38, der Außerhalb-Maskenflächenverarbeitungsteil B 39, der Außerhalb-Maskenflächenverarbeitungsteil C 40 und der Außerhalb-Maskenflächenverarbeitungsteil D 41, die entsprechend den zu erkennenden Bildern 1, 3, 4 bzw. 5 vorgesehen sind, die Außerhalb-Maskenflächendaten aus dem ersten Maskenflächeneinstellteil 20, dem zweiten Maskenflächeneinstellteil 21, dem dritten Maskenflächeneinstellteil 22 und dem vierten Maskenflächeneinstellteil 23 auf, und führen eine vorbestimmte Verarbeitung auf den Eingangsdaten durch.
  • In der Ausführung sind der Außerhalb-Maskenflächenverarbeitungsteil A 38, der Außerhalb-Maskenflächenverarbeitungsteil B 39, der Außerhalb-Maskenflächenverarbeitungsteil C 40 und der Außerhalb-Maskenflächenverarbeitungsteil D 41 so geformt, das sie Schaltkreise realisieren, wie in 21 gezeigt sind. Das heißt, jeder aus dem Außerhalb-Maskenflächenverarbeitungsteil A 38, dem Außerhalb-Maskenflächenverarbeitungsteil B 39, dem Außerhalb-Maskenflächenverarbeitungsteil C 40 und dem Außerhalb-Maskenflächenverarbeitungsteil D 41 führt eine NOR-Verarbeitung der zugeführten Außerhalb-Maskenflächendatenstücke durch und gibt das Ergebnis als ein 1-bit Signal REA, REB, REC, RED aus.
  • Wie oben beschrieben ist, kann die in jedem zweiten Maskenflächenverarbeitungsteil durchgeführte Verarbeitung und die in jedem Außerhalb-Maskenflächenverarbeitungsteil durchgeführte Verarbeitung grundsätzlich eine logische AND- oder OR-Verarbeitung an den Eingangsdaten oder eine arithmetische Verarbeitung der Addition der Eingangsdaten durchführen. Grundsätzlich müssen die zweiten Maskenflächenverarbeitungsteile nicht die gleiche Art von Verarbeitung durchführen und ferner müssen die Außerhalb-Maskenflächenverarbeitungsteile auch nicht die gleiche Art von Verarbeitung durchführen. Das heißt, die Verarbeitungsinhalte der zweiten Maskenflächenverarbeitungsteile und der Außerhalb-Maskenflächenverarbeitungsteile sollten, basierend auf den Bildeigenschaften, dem Maskenflächeneinstellverfahren, der Erkennungsgenauigkeit usw. eingestellt werden.
  • Der Bildbestimmungsabschnitt 16 bestimmt ob ein spezifisches Bild vorliegt, basierend auf den Ausgängen (Ergebnisse der Verarbeitung) des zweiten Maskenflächenverarbeitungsabschnitts 15 und des Außerhalb-Maskenflächenverarbeitungsabschnitts 14, und ist aus einem Bildbestimmungsteil A 42, einem Bildbestimmungsteil B 43, einem Bildbestimmungsteil C 44 und einem Bildbestimmungsteil D 45 aufgebaut, wie in 22 gezeigt ist. Der Bildbestimmungsteil A 42, der Bildbestimmungsteil B 43, der Bildbestimmungsteil C 44 und der Bildbestimmungsteil D 45 sind entsprechend den zu erkennenden Bildern 1, 3, 4 bzw. 5 vorgesehen und nehmen das Ausgangssignal R2A des zweiten Mas kenflächenverarbeitungsabschnitts 15 und das Ausgangssignal REA des Außerhalb-Maskenflächenverarbeitungsabschnitts 14, das Ausgangssignal R2B des zweiten Maskenflächenverarbeitungsabschnitts 15 und das Ausgangssignal REB des Außerhalb-Maskenflächenverarbeitungsabschnitts 14, das Ausgangssignal R2C des zweiten Maskenflächenverarbeitungsabschnitts 15 und das Ausgangssignal REC des Außerhalb-Maskenflächenverarbeitungsabschnitts 14, und das Ausgangssignal R2D des zweiten Maskenflächenverarbeitungsabschnitts 15 und das Ausgangssignal RED des Außerhalb-Maskenflächenverarbeitungsabschnitts 14 auf.
  • Jeder aus dem Bildbestimmungsteil A 42, dem Bildbestimmungsteil B 43, dem Bildbestimmungsteil C 44 und dem Bildbestimmungsteil D 45 bestimmt dass ein "spezifisches Bild vorliegt", wenn die Eingangssignale einer vorbestimmten Bedingung genügen. In der Ausführung, wie in 23 gezeigt ist, führt jeder aus dem Bildbestimmungsteil A 42, dem Bildbestimmungsteil B 43, dem Bildbestimmungsteil C 44 und dem Bildbestimmungsteil D 45 eine AND-Verarbeitung von zwei Eingangsignalen durch, und gibt das Ergebnis als Ergebnis der Bestimmung JA, JB, JC, JD aus. Das heißt, wenn die Ausgangsignale des zweiten Maskenflächenverarbeitungsabschnitts 15 und des Außerhalb-Maskenflächenverarbeitungsabschnitts 14 beide hoch für jede spezifische Fläche sind, wird ein hohes Signal, welches angibt, dass das "spezifische Bild vorliegt" als das Ergebnis der Bestimmung ausgegeben. Der Bildbestimmungsteil A 42, der Bildbestimmungsteil B 43, der Bildbestimmungsteil C 44 und der Bildbestimmungsteil D 45 führen eine Bestimmung parallel in dem gleichen Zyklus durch.
  • Jeder Bildbestimmungsteil kann eine "Wahrscheinlichkeit eines spezifischen Bilds" basierend auf den Werten (Pegel) von zwei Eingangssignalen auffinden. Zum Beispiel können alle oder einige der Verarbeitungen in dem ersten Maskenflächenverarbeitungsabschnitt 13, dem Außerhalb-Maskenflächenverarbeitungsabschnitt 14 und dem zweiten Maskenflächenverarbeitungsabschnitt 15 Verarbeitungen sein, die ein Ergebnis haben, das ternär oder mehr ist (zum Beispiel arithmetische Verarbeitung), und die Ergebnisse der Verarbeitung werden mit einem voreingestellten Schwellwert verglichen, um die Wahrscheinlichkeit zu finden.
  • Der Erkennungsabschnitt 17 für das spezifische Bild bestimmt schließlich, ob das spezifische Bild vorliegt, basierend auf dem Ausgang des Bildbestimmungsabschnitts 16 (Ergebnis der Bestimmung JA, JB, JC, JD). Er kann eine OR-Funktion der Ergebnisse der Bestimmung JA, JB, JC und JD durchführen und das Ergebnis als das Ergebnis der Bestimmung ausgeben, wie in 24 gezeigt ist, oder kann nur ein hohes Signal als das Ergebnis der Bestimmung ausgeben, wenn nur eines der Ergebnisse der Bestimmung JA, JB, JC und JD hoch ist, wie in 25 gezeigt ist.
  • Wenn jeder Ausgang des Bildbestimmungsabschnitts 16 die "Wahrscheinlichkeit des spezifischen Bilds" ist, kann der Spezifisches-Bild-Erkennungsabschnitt 17 annehmen, dass er ein spezifisches Bild entsprechend dem Ausgang, welcher alleinig die höchste Wahrscheinlichkeit darstellt, erkennt, und bestimmen, dass das spezifische Bild vorliegt. Ferner ist ein Schwellwert für die Wahrscheinlichkeit angegeben, und es kann bestimmt werden, dass ein spezifisches Bild entsprechend dem Ausgang, welcher die höchste Wahrscheinlichkeit, die gleich oder höher als der Schwellwert ist, erkannt wird. Zusätzlich, wenn der Spezifisches-Bild-Erkennungsabschnitt 17 bestimmt, dass ein spezifisches Bild vorliegt, kann er die Erkennungsergebnisda ten, welche das Ergebnis der Bestimmung darstellen, und ein Signal mit einer Information, die angibt, welches spezifisches Bild vorliegt, ausgeben.
  • (3) Spezifisches Verarbeitungsbeispiel
  • Als nächstes wird der Verarbeitungsinhalt der beschriebenen Vorrichtung zur Bildverarbeitung mit einem spezifischen Beispiel beschrieben. Hier sein angenommen, dass die spezifischen Bilder die zu erkennenden Bilder 1, 3, 4 und 5 sind, welche in 5A5D gezeigt sind, dass ein Eingangsbild das in 8 gezeigte Eingangsbild ist, und dass Maskenflächen für die zu erkennenden Bilder 1, 3, 4 und 5 eingestellt sind, wie in 13A13D gezeigt ist. Es sei auch angenommen, dass das Eingangsbild 9 durch eine Leseeinheit in die Vorrichtung zur Bilderkennung eingelesen wird, oder durch eine Kommunikationseinheit in die Vorrichtung zur Bilderkennung eingegeben wird. Ferner sein angenommen, dass wenn das Eingangsbild 9 ein Farb- oder Graustufenbild ist, es in vorbestimmter Farbe und vorbestimmter Dichte binärisiert wird, und dann dem Eingangsbildspeicherabschnitt 10 in Folge als binäre Digitaldaten zugeführt wird. Es sei angenommen, dass der erste Maskenflächenverarbeitungsabschnitt 13 die in 16 und 17 gezeigte Konfiguration annimmt, der Außerhalb-Maskenflächenverarbeitungsabschnitt 14 die in 20 und 21 gezeigte Konfiguration annimmt, dass der zweite Maskenflächenverarbeitungsabschnitt 15 die in 18 und 19 gezeigte Konfiguration annimmt, und dass der Bildbestimmungsabschnitt 16 die in 22 und 23 gezeigte Konfiguration annimmt.
  • Wenn die ersten 10-Zeilen-Eingangsbilddaten des Eingangsbilds 9 in dem Eingangsbildspeicherabschnitt 10 gespeichert sind und die 11. Zeile-Eingangsbilddaten in Folge eingegeben sind, gibt der Eingangsbildspeicherabschnitt 10 die gespeicherten 10-Zeilen-Eingangsbilddaten plus die in Folge eingegebenen Eingangsbilddaten sequenziell aus. Das heißt, der Eingangsbildspeicherabschnitt 10 gibt die 11-Zeilen-Eingangsbilddaten, welche die in Folge eingegebenen Eingangsbilddaten enthalten, an den Bilddatenhalteabschnitt 11 sequenziell aus. Das Verfahren wird wiederholt, bis die 11-Zeilen-Eingangsbilddaten, welche die Letzte-Zeile-Eingangsbilddaten enthalten, an den Bilddatenrückhalteabschnitt 11 in Folge ausgegeben werden. Als Ergebnis wird, wie in 9 gezeigt ist, das Eingangsbild 9 in der Fensterfläche 19, welche aus der Flip-Flop-Gruppe 18 des Bilddatenhalteabschnitts 11 geformt ist, abgetastet. Die Erkennung des spezifischen Bilds wird während dem Abtasten wiederholt. Hier wird ein Beispiel für eine Erkennungsverarbeitung, die angewendet wird, wenn ein Bild in der Fensterfläche 19 nicht als ein spezifisches Bild erkannt wird, und ein Beispiel für eine Erkennungsverarbeitung, wenn ein Bild in der Fensterfläche 19 als ein spezifisches Bild erkannt wird, angegeben, und die Beschreibung ist vereinfacht.
  • (3-1) Wenn nicht als spezifisches Bild erkannt
  • Zuerst wird die Erkennungsverarbeitung, in welcher ein Bild in der Fensterfläche 19 nicht als ein spezifisches Bild erkannt wird, diskutiert.
  • Wenn Eingangsbilddaten, welche das Eingangsbild 9 darstellen, dem Bilddatenhalteabschnitt 11 Folge zugeführt werden, können die Bilddaten in der Fensterfläche 19 Bilddaten werden, wie in 26 gezeigt ist, wo jedes weiße Pixel als '0' dargestellt ist und jedes schwarze Pixel als '1' dargestellt ist.
  • Wenn unter solchen Umständen der Maskenflächeneinstellabschnitt 12 Bilddaten innerhalb und außerhalb der Maskenflächen aus den Bilddaten in der Fensterfläche 19 gemäß den Einstellungen der in 13A13D gezeigten Maskenflächen extrahiert, werden die extrahierten Daten in den ersten bis vierten Maskenflächeneinstellteilen 2023 Daten, wie in 27A27D gezeigt ist, und werden an den ersten Maskenflächenverarbeitungsabschnitt 13 ausgegeben. Die Bilddaten außerhalb der Maskenflächen werden von dem Maskenflächeneinstellabschnitt 12 an den Außerhalb-Maskenflächenverarbeitungsabschnitt 14 ausgegeben.
  • Der erste Maskenflächenverarbeitungsteil A 24 gibt [R1AA, R1AB, R1RC, R1AD, R1AE, R1AF] = [0, 0, 0, 0, 0, 0], der erste Maskenflächenverarbeitungsteil B 25 gibt [R1BA, R1BB, R1BC, R1BD, R1BE, R1BF] = [0, 0, 0, 1, 0, 1] , der erste Maskenflächenverarbeitungsteil C 26 gibt [R1CA, R1CB, R1CC, R1CD, R1CE, R1CF] = [0, 0, 0, 0, 0, 0], und der erste Maskenflächenverarbeitungsteil D 27 gibt [R1DA, R1DB, R1DC, R1DD, R1DE, R1DF] = [1, 0, 0, 0, 0, 0] an den zweiten Maskenflächenverarbeitungsabschnitt 15 aus. Ferner, wenn der zweite Maskenflächenverarbeitungsabschnitt 15 jeweils '0' ausgibt und der Bildbestimmungsabschnitt 16 jeweils '0' ausgibt, dann bestimmt der Spezifisches-Bild-Erkennungsabschnitt 17, dass die zu erkennenden Bilder nicht vorliegen, und gibt Erkennungsergebnisdaten aus, welche die Bestimmung darstellen.
  • (3-2) Wenn als spezifisches Bild erkannt
  • Zuerst wird die Erkennungsverarbeitung, in welcher ein Bild in der Fensterfläche 19 als ein spezifisches Bild erkannt wird, diskutiert.
  • Wenn Eingangsbilddaten, welche das Eingangsbild 9 darstellen, dem Bilddatenhalteabschnitt 11 in Folge zugeführt werden, können die Bilddaten in der Fensterfläche 19 Bilddaten werden, wie sie in 26 gezeigt sind. 28 ergibt sich aus dem Verschieben der in 26 gezeigten Fensterfläche 19 um einen Punkt nach rechts und um einen Punkt nach unten in der Figur; wenn das Abtasten von dem Zustand in 26 voranschreitet, ergibt sich die Situation in 28.
  • Unter solchen Umständen werden die extrahierten Daten in den ersten bis vierten Maskenflächeneinstellteilen 2023 Daten, wie sie in den 29A29D gezeigt sind, und werden an den ersten Maskenflächenverarbeitungsabschnitt 13 ausgegeben. Die Bilddaten außerhalb der Maskenflächen werden von dem Maskenflächeneinstellabschnitt 12 an den Außerhalb-Maskenflächenverarbeitungsabschnitt 14 ausgegeben.
  • Der erste Maskenflächenverarbeitungsteil A 24 gibt [R1AA, R1AB, R1AC, R1AD, R1AE, R1AF] = [0, 1, 0, 0, 0, 0] , der erste Maskenflächenverarbeitungsteil B 25 gibt [R1BA, R1BB, R1BC, R1BD, R1BE, R1BF] = [1, 0, 0, 0, 0, 0] , der erste Maskenflächenverarbeitungsteil C 26 gibt [R1CA, R1CB, R1CC, R1CD, R1CE, R1CF] = [1, 0, 0, 0, 0, 0] und der erste Maskenflächenverarbeitungsteil D 27 gibt [R1DA, R1DB, R1DC, R1DD, R1DE, R1DF] = [1, 1, 1, 1, 1, 1] aus. In dem Außerhalb-Maskenflächenverarbeitungsabschnitt 14 wird nur der Ausgang RED des Außerhalb-Maskenflächenverarbeitungsteils D41 '1'. In dem Bildbestimmungsabschnitt 16 wird nur der Ausgang JD '1', um hierdurch zu bestimmen, dass das zu erkennende Bild r vorliegt.
  • Wenn der Spezifisches-Bild-Erkennungsabschnitt 17 die in 24 oder 25 gezeigte Konfiguration annimmt, wird der Aus gang J '1' und die Erkennungsergebnisdaten, welche angeben, dass das spezifische Bild erkannt ist, werden ausgegeben.
  • (3-3) Ergebnis der Verarbeitung
  • Die oben beschriebene Erkennungsverarbeitung wird jedes Mal durchgeführt, wenn sich die Bilddaten in dem Eingangsbild 9 ändern. Schließlich werden die zu erkennenden Bilder 5, 3, 4 und 1 in der Reihenfolge erkannt.
  • (4) Ergänzende Bemerkungen
  • Wie oben beschrieben ist, können gemäß der Vorrichtung zur Bildverarbeitung ein spezifisches Bild und die Bilder, die durch Drehen des spezifischen Bilds erzeugt werden, parallel erkannt werden.
  • Wenn die Verarbeitung in jedem Abschnitt der Vorrichtung zur Bildverarbeitung in Synchronisierung mit dem Referenztakt CLK durchgeführt wird, werden die Verarbeitungszyklen wie in 30 gezeigt ist und eine Echtzeitverarbeitung kann durchgeführt werden. Selbstverständlich stellt keine Verarbeitungsgeschwindigkeit ein Problem dar, wobei eine Vielzahl von Verarbeitungsprozessen und Bestimmungsprozessen in einem Taktzyklus durchgeführt werden können.
  • III. Modifizierte Ausführungen
  • (1) Erste modifizierte Ausführung
  • 31 zeigt die Konfiguration einer ersten modifizierten Ausführung der beschriebenen Vorrichtung zur Bildverarbeitung. Die in der Figur gezeigte Konfiguration unterscheidet sich von jener, die in 10 gezeigt ist, nur darin, dass sie einen Maskenflächenspeicherabschnitt 46 umfasst. Teile, die identisch oder ähnlich zu jenen sind, die vorher im Zusammenhang mit 10 beschrieben wurden, werden in 31 mit den gleichen Bezugsziffern bezeichnet und nicht mehr diskutiert.
  • In 31 speichert der Maskenflächenspeicherabschnitt 46 Maskenflächeneinstellinformation (zum Beispiel Maskenflächenkoordinaten) und ein Maskenflächeneinstellabschnitt 12 stellt die Maskenflächen, basierend auf der Einstellinformation, die in dem Maskenflächenspeicherabschnitt 46 gespeichert ist, ein. Deshalb wird der Maskenflächenspeicherabschnitt 46 seinerseits austauschbar konfiguriert, wobei die Maskenflächen leicht geändert werden können; wenn ein zu erkennendes spezifisches Bild zu einen anderen Bild geändert wird, können die Maskenflächen für das Bild leicht eingestellt werden. Zusätzlich kann auch die Erkennungsgenauigkeit verbessert werden.
  • Natürlich kann die Datenerneuerung durch Konfigurieren des Maskenflächenspeicherabschnitts 46, derart, dass der Speicherinhalt von außerhalb gelesen und geschrieben werden kann, erleichtert werden. Maskenflächeninformation eines nicht gedrehten spezifischen Bilds und Informationen über Drehwinkel, mit welchen das spezifische Bild gedreht ist, um die zu erkennenden Bilder zu erzeugen, können in dem Maskenflächenspeicherabschnitt 46 gespeichert werden, und von der Information kann der Maskenflächeneinstellabschnitt 12 Maskenflächen für alle zu erkennenden Bilder berechnen und einstellen. In diesem Fall kann die erforderliche Speicherkapazität für den Maskenflächenspeicherabschnitt 46 verringert werden.
  • (2) Zweite modifiziert Ausführung
  • In einer zweiten modifizierten Ausführung der Vorrichtung zur Bildverarbeitung wird, wenn ein Eingangsbild ein Farbbild ist, die Erkennungsverarbeitung ohne Durchführen der Binärisierung durchgeführt. Die in 10 gezeigte Konfiguration kann als die Konfiguration der zweiten modifizierten Ausführung verwendet werden, und deshalb werden die Bezugsziffern in 10 zur Beschreibung der Abschnitte der zweiten modifizierten Ausführung so verwendet wie sie sind. Hier wird angenommen, dass ein Eingangsbild ein Farbbild mit R, G und B Farbsignalen ist, von denen jedes aus acht Bit besteht.
  • In diesem Fall werden Daten, die ein Pixel darstellen, zu 8 Bit × 3 Farben = 24 Bit, somit erfordert ein Eingangsbildspeicherabschnitt 10 einen Zeilenpuffer, der geeignet ist, eine Vielzahl von Zeilen von 8-Bit Pixeldaten für jedes der R, G und B Farbsignale zu speichern. Die aus dem Eingangsbildspeicherabschnitt 10 gelesenen Daten werden in einer aus einer Flip-Flop-Gruppe geformten Fensterfläche in einem Bilddatenrückhalteabschnitt 11 gehalten. Die Fensterfläche wird in Ebenen für jedes der R, G und B Farbsignale getrennt, und acht Flip-Flops, die fähig sind 8-Bit Daten zu speichern, werden jedem Pixel zugewiesen. Das heißt, angenommen, dass die Fensterfläche eine Größe von m × n hat, dann bilden m × n × 8 × 3 Flip-Flops die Flip-Flop-Gruppe.
  • Ein Maskenflächeneinstellabschnitt 12 extrahiert Bilddaten (Pixeldichtewerte) für Maskenflächen, die für jedes zu erkennende Bild eingestellt sind, aus den in dem Bilddatenhalteabschnitt 11 gehaltenen Bilddaten und extrahiert auch Bilddaten (Pixeldichtewerte) außerhalb der Maskenflächen für jedes zu erkennende Bild. Ein erster Maskenflächenverarbeitungsabschnitt 13 führt eine arithmetische Verarbeitung (zum Beispiel Addition) an den R, G und B Pixeldichtewerten der Bilddaten für jede Maskenfläche, die von dem Maskenflächeneinstellabschnitt 12 für jede Maskenfläche extrahiert ist, durch, vergleicht das Ergebnis der Verarbeitung mit einem vorbestimmten Wert, und gibt das Ergebnis der Verarbeitung für jede Maskenfläche basierend auf dem Vergleichsergebnis aus. Ein zweiter Maskenflächenverarbeitungsabschnitt 15 führt eine logische Verarbeitung oder arithmetische Verarbeitung an dem Ergebnis der Verarbeitung für jede Maskenfläche, die von dem ersten Maskenflächenverarbeitungsabschnitt 13 für jedes zu erkennende Bild bereitgestellt wird, durch, und gibt das Ergebnis der Verarbeitung für jedes zu erkennende Bild aus.
  • Andererseits, parallel mit der Verarbeitung des ersten Maskenflächenverarbeitungsabschnitts 13 und dem zweiten Maskenflächenverarbeitungsabschnitt 15, führt der Außerhalb-Maskenflächenverarbeitungsabschnitt 14 eine arithmetische Verarbeitung (zum Beispiel Addition) an den R, G und B Pixeldichtewerten der Außerhalb-Maskenflächedaten, die von dem Maskenflächeneinstellabschnitt 12 für jedes spezifische Bild extrahiert sind, durch, vergleicht das Ergebnis der Verarbeitung mit einem vorbestimmten Wert, und gibt das Ergebnis der Verarbeitung für jedes zu erkennende Bild basierend auf dem Vergleichsergebnis aus.
  • Ein Bildbestimmungsabschnitt 16 bestimmt, ob jedes zu erkennende Bild vorliegt, basierend auf den Ergebnissen der Verarbeitung des zweiten Maskenflächenverarbeitungsabschnitts 15 und dem Außerhalb-Maskenflächenverarbeitungsabschnitt 14, und gibt das Ergebnis der Bestimmung aus. Zuletzt bestimmt ein Spezifisches-Bild-Erkennungsabschnitt 17, ob die zu erkennenden Bilder in dem Eingangsbild vorliegen, aus dem Ergebnis der Bestimmung des Bildbestimmungsabschnitts 16 für jedes zu erkennende Bild.
  • IV. Ergänzende Bemerkungen
  • In den oben beschriebenen Ausführungen und modifizierten Ausführungen wird eine einfache Verarbeitung für einfache spezifische Bilder durchgeführt, jedoch kann die Erfindung auch leicht unter komplizierteren Bedingungen angewendet werden, was unnötig ist zu erwähnen. Insbesondere werden das Maskenflächeneinstellverfahren, die Verarbeitungsinhalte, die Bestimmungskriterien und dergleichen unter Berücksichtigung der Eigenschaften der Eingangsbilder, der Eingangsbildmittel usw. eingestellt, wobei die Erkennungsgenauigkeit verbessert werden kann, und somit kann die Erfindung auf jedes Bild angewendet werden. Es ist offensichtlich, dass die Erfindung angewendet werden kann, wenn der Drehwinkel eines spezifischen Bilds willkürlich ist, jedoch kann sie auch angewendet werden, wenn verschiedene Typen von Bildern gehandhabt werden. Ferner werden die Pixeldichtewerte außerhalb der Maskenflächen auch bei der Durchführung der Bestimmung berücksichtigt, jedoch ist die Erfindung hierauf nicht beschränkt; eine Bestimmung kann nur basierend auf den Pixeldichtewerten innerhalb der Maskenflächen abhängig von dem Eingangsbildseigenschaften durchgeführt werden. Von einem Aufzeichnungsmedium, welches ein Programm aufzeichnet, dass das Verfahren zur Bildverarbeitung beschreibt, wird das Programm gelesen und von einem Computersystem ausgeführt, wobei ein System entsprechend der Vorrichtung zur Bildverarbeitung auch verwendet werden kann.
  • Wie oben beschrieben ist, können gemäß der Erfindung eine Vielzahl von zu erkennenden Bildern, einschließlich einem spezifischen Bild und Bilder, die durch Drehen des spezifischen Bilds erzeugt werden, in Echtzeit mit einer hohen Genauigkeit gemäß einer einfachen Verarbeitung und Konfiguration erkannt werden. Ferner wird eine Anzahl von zu erkennenden Bildern unabhängig erkannt, welche somit in Konkurrenz erkannt werden, wobei die Erkennungsverarbeitung mit hoher Geschwindigkeit durchgeführt werden kann.
  • Obgleich nur bestimmte Ausführungen der Erfindung in spezifischer Weise beschrieben worden sind, ist es offensichtlich, dass zahlreiche Modifikationen daran vorgenommen werden können, ohne aus dem Umfang der Erfindung, wie sie in den beigefügten Ansprüchen definiert ist, zu gelangen.
  • Referenzliste zu 1
    • START = ANFANG
    • END = ENDE
    • YES = JA
    • NO = NEIN
    • S1 = BESTIMME SPEZIFISCHES BILD
    • S2 = BESTIMME DREHWINKEL DES SPEZIFISCHEN BILDS
    • S3 = BESTIMME MITTELPOSITION DER DREHUNG DES SPEZIFISCHEN BILDS
    • S4 = TEILE ZU ERKENNENDES BILD IN FLÄCHEN
    • S5 = BEREITSTELLEN FENSTERFLÄCHE
    • S6 = IN ÜBEREINSTIMMUNG BRINGEN VON FENSTERFLÄCHE MIT DER MITTELPOSITION DES ZU ERKENNENDEN BILDS
    • S7= EINSTELLEN MASKENFLÄCHEN IN FENSTERFLÄCHE
    • S8 = ABTASTEN EINGANGSBILD IN FENSTERFLÄCHE
    • S9 = ENDE DES BILDS?
    • S10 = DURCHFÜHREN VERARBEITUNG IN JEDER MASKENFLÄCHE
    • S11 = BERECHNE ERGEBNIS DER BESTIMMUNG VON JEDEM ZU ERKENNEN-DEN BILD (JEDE DREHUNG)
    • S12 = IST ES BESTIMMT, DASS ZU ERKENNENDES BILD VORLIEGT?
    • S13 = NEHME AN, DASS SPEZIFISCHES BILD ERFASST IST
    • S14 = NEHME AN, DASS SPEZIFISCHES BILD NICHT ERFASST IST
  • Referenzliste zu 2
    • SPECIFIC IMAGE = SPEZIFISCHES BILD
  • Referenzliste zu 3
    • SPECIFIC IMAGE = SPEZIFISCHES BILD
    • CENTER POSITION = MITTELPOSITION
  • Referenzliste zu 4A
    • SPECIFIC IMAGE = SPEZIFISCHES BILD
  • Referenzliste zu 4B
    • SPECIFIC IMAGE = SPEZIFISCHES BILD
  • Referenzliste zu 4C
    • SPECIFIC IMAGE = SPEZIFISCHES BILD
  • Referenzliste zu 5A
    • AREA = FLÄCHE
  • Referenzliste zu 6
    • WINDOW AREA = FENSTERFLÄCHE
  • Referenzliste zu 7A
    • MASK AREA = MASKENFLÄCHE
  • Referenzliste zu 8
    • INPUT IMAGE = EINGANGSBILD
  • Referenzliste zu 10
  • INPUT IMAGE DATA
    EINGANGSBILDDATEN
    10
    EINGANGSBILDSPEICHERABSCHNITT
    11
    BILDDATENHALTEABSCHNITT
    12
    MASKENFLÄCHENEINSTELLABSCHNITT
    13
    ERSTER MASKENFLÄCHENVERARBEITUNGSABSCHNITT
    14
    AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSABSCHNITT
    15
    ZWEITER MASKENFLÄCHENVERARBEITUNGSABSCHNITT
    16
    BILDBESTIMMUNGSABSCHNITT
    17
    SPEZIFISCHES-BILD-ERKENNUNGSABSCHNITT
    RECOGNITION RESULT DATA
    ERKENNUNGSERGEBNISDATEN
  • Referenzliste zu 11
    • FLIP-FLOP GROUP = FLIP-FLOP-GRUPPE
  • Referenzliste zu 12
    • WINDOW AREA = FENSTERFLÄCHE
  • Referenzliste zu 13A
    • MASK AREA OF FIRST MASK AREA SETTING PART = MASKENFLÄCHE DES ERSTEN MASKENFLÄCHENEINSTELLTEILS
  • Referenzliste zu 13B
    • MASK AREA OF SECOND MASK AREA SETTING PART = MASKENFLÄCHE DES ZWEITEN MASKENFLÄCHENEINSTELLTEILS
  • Referenzliste zu 13C
    • MASK AREA OF THIRD MASK AREA SETTING PART = MASKENFLÄCHE DES DRITTEN MASKENFLÄCHENEINSTELLTEILS
  • Referenzliste zu 13D
    • MASK AREA OF FOURTH MASK AREA SETTING PART = MASKENFLÄCHE DES VIERTEN MASKENFLÄCHENEINSTELLTEILS
  • Referenzliste zu 14
  • FROM IMAGE DATA RETENTION SECTION
    VOM BILDDATENHALTEABSCHNITT
    20
    ERSTER MASKENFLÄCHENEINSTELLTEIL
    21
    ZWEITER MASKENFLÄCHENEINSTELLTEIL
    22
    DRITTER MASKENFLÄCHENEINSTELLTEIL
    23
    VIERTER MASKENFLÄCHENEINSTELLTEIL
    TO FIRST MASK AREA OPERATION SECTION AND OUTSIDE-MASK-AREA OPERATION SECTION
    ZU DEM ERSTEN MASKENFLÄCHENVERARBEITUNGSABSCHNITT UND AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSABSCHNITT
  • Referenzliste zu 15
  • 20
    ERSTER MASKENFLÄCHENEINSTELLTEIL
    21
    ZWEITER MASKENFLÄCHENEINSTELLTEIL
    22
    DRITTER MASKENFLÄCHENEINSTELLTEIL
    23
    VIERTER MASKENFLÄCHENEINSTELLTEIL
    24
    ERSTER MASKENFLÄCHENVERARBEITUNGSTEIL A
    25
    ERSTER MASKENFLÄCHENVERARBEITUNGSTEIL B
    26
    ERSTER MASKENFLÄCHENVERARBEITUNGSTEIL C
    27
    ERSTER MASKENFLÄCHENVERARBEITUNGSTEIL D
  • Referenzliste zu 16
  • MASK AREA DATA
    MASKENFLÄCHENDATEN
    OPERATION RESULT
    ERGEBNIS DER VERARBEITUNG
    28
    FLÄCHENDATEN-A-VERARBEITUNGSTEIL A
    29
    FLÄCHENDATEN-A-VERARBEITUNGSTEIL B
    30
    FLÄCHENDATEN-A-VERARBEITUNGSTEIL C
    31
    FLÄCHENDATEN-A-VERARBEITUNGSTEIL D
    32
    FLÄCHENDATEN-A-VERARBEITUNGSTEIL E
    33
    FLÄCHENDATEN-A-VERARBEITUNGSTEIL F
  • Referenzliste zu 18
  • 24
    ERSTER MASKENFLÄCHENVERARBEITUNGSTEIL A
    25
    ERSTER MASKENFLÄCHENVERARBEITUNGSTEIL B
    26
    ERSTER MASKENFLÄCHENVERARBEITUNGSTEIL C
    27
    ERSTER MASKENFLÄCHENVERARBEITUNGSTEIL D
    34
    ZWEITER MASKENFLÄCHENVERARBEITUNGSTEIL A
    35
    ZWEITER MASKENFLÄCHENVERARBEITUNGSTEIL B
    36
    ZWEITER MASKENFLÄCHENVERARBEITUNGSTEIL C
    37
    ZWEITER MASKENFLÄCHENVERARBEITUNGSTEIL D
  • Referenzliste zu 20
  • 20
    ERSTER MASKENFLÄCHENEINSTELLTEIL
    21
    ZWEITER MASKENFLÄCHENEINSTELLTEIL
    22
    DRITTER MASKENFLÄCHENEINSTELLTEIL
    23
    VIERTER MASKENFLÄCHENEINSTELLTEIL
    38
    AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSTEIL A
    39
    AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSTEIL B
    40
    AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSTEIL C
    41
    AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSTEIL D
  • Referenzliste zu 22
  • 42
    BILDBESTIMMUNGSTEIL A
    43
    BILDBESTIMMUNGSTEIL B
    44
    BILDBESTIMMUNGSTEIL C
    45
    BILDBESTIMMUNGSTEIL D
  • Referenzliste zu 30
    • DATA INPUT TO INPUT IMAGE STORAGE SECTION = DATENEINGANG ZU EINGANGSBILDSPEICHERABSCHNITT
    • DATA INPUT TO IMAGE DATA RETENTION SECTION = DATENEINGANG ZU BILDDATENHALTEABSCHNITT
    • DATA INPUT TO MASK AREA SETTING SECTION = DATENEINGANG ZU MAS-KENFLÄCHENEINSTELLABSCHNITT
    • DATA INPUT TO FIRST MASK AREA OPERATION SECTION = DATENEINGANG ZU ERSTEM MASKENFLÄCHENVERARBEITUNGSABSCHNITT
    • DATA INPUT TO SECOND MASK AREA VERARBEITUNG SECTION = DATEN-EINGANG ZU ZWEITEM MASKENFLÄCHENVERARBEITUNGSABSCHNITT
    • DATA INPUT TO OUTSIDE-MASK-AREA VERARBEITUNG SECTION = DATEN-EINGANG ZU AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSABSCHNITT
    • DATA INPUT TO IMAGE DETERMINATON SECTION = DATENEINGANG ZU BILDBESTIMMUNGSABSCHNITT
    • DATA INPUT TO SPECIFIC IMAGE RECOGNITION SECTION = DATENEIN-GANG ZU SPEZIFISCHES-BILD-ERKENNUNGSABSCHNITT
    • RECOGNITION RESULT OUTPUT = ERKENNUNGSERGEBNISAUSGANG
    • DATA a = DATEN
    • AREA = FLÄCHE
    • DATA abc ... DENOTES DATA WIDTH 1 = DATA abc ... BEZEICHNET DATEN-BREITE 1
    • DATA ABC ... DENOTES DATA WIDTH 11 = DATA ABC ... BEZEICHNET DA-TENBREITE 11
    • AREA abc ... DENOTES PROCESSING RESULT FOR DATA IN WINDOW = Fläche abc ... BEZEICHNET ERGEBNIS DER VERARBEITUNG FÜR DATEN IN FENSTER
  • Referenzliste zu 31
  • INPUT IMAGE DATA
    INGABE BILDDATEN
    RECOGNITION RESULT DATA
    ERKENNUNGSERGEBNISDATEN
    10
    EINGANGSBILDSPEICHERABSCHNITT
    11
    BILDDATENHALTEABSCHNITT
    12
    MASKENFLÄCHENEINSTELLABSCHNITT
    13
    ERSTER MASKENFLÄCHENVERARBEITUNGSABSCHNITT
    14
    AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSABSCHNITT
    15
    ZWEITER MASKENFLÄCHENVERARBEITUNGSABSCHNITT
    16
    BILDBESTIMMUNGSABSCHNITT
    17
    SPEZIFISCHES-BILD-ERKENNUNGSABSCHNITT
    46
    MASKENFLÄCHENSPEICHERABSCHNITT

Claims (26)

  1. Verfahren zur Bilderkennung zum Erkennen ob eine Vielzahl von zu erkennenden Bildern ein Eingangsbild (9) enthält, wobei die Vielzahl von zu erkennenden Bildern wenigstens eines aus einem spezifischen Bild (1) und den Bildern, die durch Drehen des spezifischen Bilds erzeugt werden, enthält, welches Verfahren die Schritte umfasst: Vorbereiten wenigstens einer Maskenfläche (8) auf einer Fensterfläche (7, 19) für jedes zu erkennende Bild, wobei die Fensterfläche (7, 19) aus Zellen gebildet ist, die zweidimensional angeordnet sind, eine Zelle aus wenigstens einem Pixel gebildet ist, die Maskenfläche (8) aus wenigstens einer der Zellen gebildet ist und einer Fläche entspricht, die ein Merkmal des zu erkennende Bilds darstellt; erstens Bestimmen, ob eines der zu erkennenden Bilder vorliegt, basierend auf dem Ergebnis der Verarbeitung von Pixeldichtewerten des Eingangsbilds in der Maskenfläche (8) für jedes zu erkennende Bild; und zweitens Bestimmen, ob ein anderes der Vielzahl von zu erkennenden Bildern in der Fensterfläche (8) vorliegt, basierend auf Ergebnissen der Bestimmung, durch Wiederholen des ersten Bestimmungsschritts.
  2. Verfahren zur Bilderkennung nach Anspruch 1, bei welchem der erste Bestimmungsschritt bestimmt, ob das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der Verarbeitung von Pixeldichtewerten des Eingangsbilds (9) in der Maskenfläche (8) und dem Ergebnis der Verarbeitung von Pixeldichtewerten des Eingangsbilds (9) in der Fensterfläche (7, 19) außerhalb der Maskenflächen (8) für jedes zu erkennende Bild.
  3. Verfahren zur Bilderkennung nach Anspruch 1, bei welchem der erste Bestimmungsschritt bestimmt, ob eine Möglichkeit besteht, dass das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der Verarbeitung von Pixeldichtewerten in den Maskenflächen (8) auf dem Eingangsbild für jedes zu erkennende Bild, und der zweite Bestimmungsschritt bestimmt, ob eine Möglichkeit besteht, dass eines der zu erkennenden Bilder in der Fensterfläche (7, 19) vorliegt, basierend auf dem Ergebnis der Bestimmung von jedem zu erkennenden Bild.
  4. Verfahren zur Bilderkennung nach Anspruch 1, welches ferner den Schritt umfasst: Ändern einer relativen Position zwischen der Fensterfläche (7, 19) und dem Eingangsbild (9) nach dem zweiten Bestimmungsschritt.
  5. Verfahren zur Bilderkennung nach Anspruch 1, bei welchem die zu erkennenden Bilder bereitgestellt werden durch Drehen des spezifischen Bilds mit einem willkürlichen Winkel mit der gleichen Mittelposition (2) als ein Zentrum.
  6. Verfahren zur Bilderkennung nach Anspruch 5, bei welchem die Maskenflächen (8) mit der gleichen Mittelposition (2), die in Übereinstimmung mit der Mittelposition (2) der Fensterfläche (7, 19) ist, platziert werden.
  7. Verfahren zur Bilderkennung nach Anspruch 6, bei welchem die Fensterfläche (8) derart geformt ist, dass wenn jede Maskenfläche (8) von der Mittelposition (2) der Fensterfläche (7, 19) beabstandet ist, die Zahl der die Maskenfläche bildenden Zellen zunimmt.
  8. Verfahren zur Bilderkennung nach Anspruch 1, bei welchem in dem Vorbereitungsschritt die Maskenflächen (8) für die zu erkennenden Bilder berechnet und eingestellt werden, basierend auf den Maskenflächen (8), welche für eines der zu erkennenden Bilder eingestellt sind, und den Drehwinkeln der zu erkennenden Bilder.
  9. Vorrichtung zur Bilderkennung zum Erkennen, ob eine Vielzahl von zu erkennenden Bildern ein Eingangsbild (9) enthält, wobei die Vielzahl der zu erkennenden Bilder wenigstens eines aus einem spezifischen Bild (1) und den Bildern, die durch Drehen des spezifischen Bilds bereitgestellt werden, enthält, welche Vorrichtung umfasst: Bilddatenspeichermittel (10) zum Speichern von das Eingangsbild (9) darstellenden Bilddaten; Maskenflächenspeichermittel (46) zum Speichern von Einstellinformation, um wenigstens eine Maskenfläche (8) auf einer vorbestimmten Fensterfläche (7, 19) für jedes der zu erkennenden Bilder zu speichern; Maskenflächenverarbeitungsmittel (13) zum Verarbeiten von Werten der Bilddaten in den Maskenflächen (8) für jedes zu erkennende Bild; Bildbestimmungsmittel (16) zum Bestimmen ob das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der Verarbeitung des Maskenflächenverarbeitungsmittels für jedes zu erkennende Bild; und Erkennungsmittel (17) für das spezifische Bild zum Bestimmen ob eines der zu erkennenden Bilder in der Fensterfläche (7, 19) vorliegt, basierend auf dem Ergebnis der Bestimmung der Bildbestimmungsmittel (16) für jedes zu erkennende Bild.
  10. Vorrichtung zur Bilderkennung nach Anspruch 9, welche ferner umfasst: Maskenflächeneinstellmittel (12) zum Einstellen der gewünschten Maskenflächen (8) auf der Fensterfläche (7, 19) für jedes der zu erkennenden Bilder.
  11. Vorrichtung zur Bilderkennung nach Anspruch 9, welche ferner umfasst: Abtastmittel zum Platzieren der Bilddaten in der Fensterfläche (7, 19) in Folge.
  12. Vorrichtung zur Bilderkennung nach Anspruch 9, welche ferner umfasst: Außerhalb-Maskenflächenverarbeitungsmittel zum Verarbeiten von Werten der Bilddaten, die in der Fensterfläche (7, 19) außerhalb der Maskenflächen (8) für jedes zu erkennende Bild angeordnet sind, wobei das Bildbestimmungsmittel (16) bestimmt, ob das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der Ver arbeitung des Maskenflächenverarbeitungsmittels (13) und dem Ergebnis der Verarbeitung des Rußerhalb-Maskenflächenverarbeitungsmittels für jedes zu erkennende Bild.
  13. Vorrichtung zur Bilderkennung nach Anspruch 9, bei welcher das Bildbestimmungsmittel (16) bestimmt, ob es eine Möglichkeit gibt, dass das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der Verarbeitung des Maskenflächenverarbeitungsmittels (13) für jedes zu erkennende Bild, und bei welchem das Erkennungsmittel für das spezifische Bild bestimmt, ob es eine Möglichkeit gibt, dass eines der zu erkennenden Bilder in der Fensterfläche (7, 19) vorliegt, basierend auf dem Ergebnis der Bestimmung des Bildbestimmungsmittels (16) für jedes zu erkennende Bild.
  14. Vorrichtung zur Bilderkennung nach Anspruch 9, bei welcher der Speicherinhalt der Maskenflächenspeichermittel (46) willkürlich gelesen und geschrieben werden kann.
  15. Vorrichtung zur Bilderkennung nach Anspruch 9, bei welcher die in dem Maskenflächenspeichermittel (46) gespeicherte Einstellinformation die Einstellinformation der für eines der zu erkennenden Bilder eingestellten Maskenflächen (8) und Drehwinkel der zu erkennenden Bilder einschließt.
  16. Vorrichtung zur Bilderkennung nach Anspruch 9, bei welcher die zu erkennenden Bilder durch Drehen des spezifischen Bilds mit willkürlichen Winkeln mit der gleichen Mittelposition (2) als ein Zentrum bereitgestellt sind.
  17. Vorrichtung zur Bilderkennung nach Anspruch 16, bei welcher die Maskenflächen (8) mit der gleichen Mittelposition (2), die in Übereinstimmung mit der Mittelposition (2) der Fensterfläche (7, 19) ist, platziert sind.
  18. Vorrichtung zur Bilderkennung nach Anspruch 17, bei welcher die Fensterfläche (7, 19) so geformt ist, dass wenn jede Maskenfläche (8) von der Mittelposition (2) der Fensterfläche (7, 19) beabstandet ist, die Anzahl der Zellen, die die Maskenfläche (8) bilden, zunimmt.
  19. Vorrichtung zur Bilderkennung nach Anspruch 17, bei welcher die Maskenfläche (8), die der Mittelposition (2) der Fensterfläche (7, 19) am nächsten ist, nur aus einer Zelle geformt ist.
  20. Vorrichtung zur Bilderkennung nach Anspruch 9, bei welcher die Fensterfläche (7, 19) eine rechtwinklige Fläche ist.
  21. Vorrichtung zur Bilderkennung nach Anspruch 9, bei welcher die Fensterfläche (7, 19) eine kreisförmige Fläche ist.
  22. Vorrichtung zur Bilderkennung nach Anspruch 9, bei welcher die Maskenflächen (8) willkürlich eingestellt werden können.
  23. Vorrichtung zur Bilderkennung nach Anspruch 9, bei welcher die Maskenflächen (8), welche der Vielzahl von zu erkennenden Bildern entsprechen, auf einer einzelnen Fensterfläche (7, 19) eingestellt werden.
  24. Vorrichtung zur Bilderkennung nach Anspruch 9, bei welcher die Bilddaten binäre Daten sind.
  25. Vorrichtung zur Bilderkennung nach Anspruch 9, bei welcher die Verarbeitung für jedes zu erkennende Bild parallel in dem gleichen Zyklus durchgeführt wird.
  26. Aufzeichnungsmedium, welches ein Programm zum Erkennen, ob eine Vielzahl von zu erkennenden Bildern ein Eingangsbild (9) enthält, wobei die Vielzahl von zu erkennenden Bildern wenigstens eines aus einem spezifischen Bild (1) und der Bilder, die durch Drehen des spezifischen Bilds bereitgestellt werden, einschließt, welches Programm die Schritte umfasst: Vorbereiten wenigstens einer Maskenfläche (8) auf einer Fensterfläche (7, 19) für jedes zu erkennende Bild, wobei die Fensterfläche (7, 19) aus Zellen strukturiert ist, die zweidimensional angeordnet sind, eine Zelle aus wenigstens einem Pixel gebildet ist, die Maskenfläche (8) aus wenigstens einer der Zellen gebildet ist und einer Fläche entspricht, die ein Merkmal des zu erkennenden Bilds darstellt; erstens Bestimmen, ob eines der zu erkennenden Bilder vorliegt, basierend auf dem Ergebnis der Verarbeitung von Pixeldichtewerten des Eingangsbilds in der Maskenfläche für jedes zu erkennende Bild; und zweitens Bestimmen, ob eines aus der Vielzahl von zu erkennenden Bildern in der Fensterfläche vorliegt, basierend auf dem Ergebnis der Bestimmung durch Wiederholen des ersten Bestimmungsschritts.
DE69817973T 1997-11-06 1998-11-05 Gerät und Verfahren zur Bilderkennung Expired - Lifetime DE69817973T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP9304695A JPH11144054A (ja) 1997-11-06 1997-11-06 画像認識方法および画像認識装置ならびに記録媒体
JP30469597 1997-11-06

Publications (2)

Publication Number Publication Date
DE69817973D1 DE69817973D1 (de) 2003-10-16
DE69817973T2 true DE69817973T2 (de) 2004-05-19

Family

ID=17936114

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69817973T Expired - Lifetime DE69817973T2 (de) 1997-11-06 1998-11-05 Gerät und Verfahren zur Bilderkennung

Country Status (6)

Country Link
US (1) US6337926B2 (de)
EP (1) EP0915428B1 (de)
JP (1) JPH11144054A (de)
KR (1) KR100318413B1 (de)
DE (1) DE69817973T2 (de)
TW (1) TW388840B (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10156501B2 (en) 2001-11-05 2018-12-18 Life Technologies Corporation Automated microdissection instrument for determining a location of a laser beam projection on a worksurface area
US8722357B2 (en) * 2001-11-05 2014-05-13 Life Technologies Corporation Automated microdissection instrument
AU2003260047A1 (en) * 2002-08-29 2004-03-19 Paul Rudolf Associative memory device and method based on wave propagation
CA2500805A1 (en) * 2002-09-13 2004-03-25 Arcturus Bioscience, Inc. Interactive and automated tissue image analysis
CA2580025A1 (en) 2004-09-09 2006-03-23 Molecular Devices Corporation Laser microdissection apparatus and method
EP2003611A2 (de) * 2006-03-31 2008-12-17 Olympus Corporation System und endgerät zum präsentieren von informationen und server
JP2010230578A (ja) * 2009-03-27 2010-10-14 Fujifilm Corp 偏芯量測定方法
US10740901B2 (en) * 2018-12-17 2020-08-11 Nvidia Corporation Encoder regularization of a segmentation model

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4338626A (en) * 1963-03-11 1982-07-06 Lemelson Jerome H Scanning apparatus and method
US4225850A (en) * 1978-11-15 1980-09-30 Rockwell International Corporation Non-fingerprint region indicator
JPH01220075A (ja) 1988-02-29 1989-09-01 Nippon Taisanbin Kogyo Kk 表示部読取方法
JPH0762606B2 (ja) 1988-12-09 1995-07-05 松下電器産業株式会社 パターン位置認識装置
US5274714A (en) * 1990-06-04 1993-12-28 Neuristics, Inc. Method and apparatus for determining and organizing feature vectors for neural network recognition
DE4120676C2 (de) 1991-06-22 1994-09-08 Deutsche Aerospace Verfahren und Schaltungsanordnung zur Detektion von kleinen Objekten in natürlicher Umgebung
JPH0512446A (ja) 1991-07-02 1993-01-22 Omron Corp 画像認識装置
EP0521463A3 (en) 1991-07-04 1993-04-14 Hoechst Aktiengesellschaft Substituted cyclic cycloalkyltriols, process, intermediates for their preparation and their use as antiviral and antiparasitic agents
US5261010A (en) * 1991-09-27 1993-11-09 Hughes Aircraft Comany Automatic mask threshold
US5481621A (en) 1992-05-28 1996-01-02 Matsushita Electric Industrial Co., Ltd. Device and method for recognizing an image based on a feature indicating a relative positional relationship between patterns
JP3210767B2 (ja) 1993-04-23 2001-09-17 松下電工株式会社 画像認識方法
JPH0863604A (ja) 1994-08-23 1996-03-08 Sumitomo Metal Ind Ltd 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US6337926B2 (en) 2002-01-08
KR19990045078A (ko) 1999-06-25
DE69817973D1 (de) 2003-10-16
US20010016071A1 (en) 2001-08-23
EP0915428A2 (de) 1999-05-12
EP0915428A3 (de) 1999-06-16
JPH11144054A (ja) 1999-05-28
TW388840B (en) 2000-05-01
EP0915428B1 (de) 2003-09-10
KR100318413B1 (ko) 2002-06-20

Similar Documents

Publication Publication Date Title
DE3881392T2 (de) System und Verfahren für automatische Segmentierung.
DE3854996T2 (de) Anlage und Verfahren zur Zellbildverarbeitung
DE3886560T2 (de) Musterkonturen in Bildverarbeitung.
DE69432585T2 (de) Verfahren und Gerät zur Auswahl von Text und/oder Non-Text-Blöcken in einem gespeicherten Dokument
DE3633743C2 (de)
DE69625583T2 (de) Datenformleser
DE60129872T2 (de) Verfahren zur Extrahierung von Titeln aus numerischen Bildern
DE2801536C2 (de) Zeichenformkodiervorrichtung
DE3716787C2 (de)
DE69026041T2 (de) Identifikation, Kennzeichnung und Segmentierung der halbtongerasterten oder punktierten Bereiche eines Binärbildes
DE69822608T2 (de) Binarisierungsverfahren in einem Zeichenerkennungssystem
DE68914528T2 (de) Bildsignalverarbeitungsvorrichtung für Strichkodebildsignale.
DE3722444C2 (de) Verfahren und Vorrichtung zum Erzeugen von Entwurfsmusterdaten
DE69724755T2 (de) Auffinden von Titeln und Photos in abgetasteten Dokumentbildern
DE69032344T2 (de) Verfahren zum Messen von Neigungswinkeln
DE2909153C2 (de) Einrichtung zur digitalen Analyse von Bild- oder Zeichenmustern
DE69333694T2 (de) Verfahren und Anordnung zur Bildverarbeitung
DE19814075B4 (de) Verfahren zum Abtasten und Erkennen mehrerer Fotografien und zum Beseitigen von Randfehlern
DE3305710C2 (de) Schaltungsanordnung zur Merkmalserkennung bei auf einem Bildschirm darstellbaren Objekten
DE69029594T2 (de) Ermittlung von Linienabschnitten und von vorbestimmten Mustern in einem optisch abgetasteten Dokument
DE3210814A1 (de) Verfahren zum bestimmen einer optimalen schwelle, um ein binaeres abbildungssignal zur verwendung in einem mustererkennungssystem zu erhalten
DE2740483A1 (de) Merkmal-detektor
DE2703158A1 (de) Einrichtung zum erkennen einer zeichenposition
DE2557553A1 (de) Verfahren und anordnung zur bilddatenverdichtung und -reexpansion
DE2829808A1 (de) Verfahren und vorrichtung zum lesen von zeichen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition