-
HINTERGRUND DER ERFINDUNG
-
1. Gebiet der Erfindung
-
Diese Erfindung betrifft ein Verfahren
zur Bilderkennung und eine Vorrichtung zur Bilderkennung zum Erkennen
einer Vielzahl von zu erkennenden Bildern, einschließlich eines
spezifischen Bilds und Bilder, die durch Drehen des spezifischen
Bilds aus einem Eingangsbild entstehen, und ein Aufzeichnungsmedium,
welches ein Programm zum Durchführen
der Bilderkennung durch das Verfahren zur Bilderkennung speichert.
-
2. Beschreibung des Stands
der Technik
-
Ein Verfahren, bei welchem Muster
in Übereinstimmung
gebracht werden, ist weithin als Verfahren zum Erkennen eines spezifischen
Bilds aus einem Eingangsbild bekannt. Ein allgemeines Verfahren,
bei welchem Muster in Übereinstimmung
gebracht werden, ist wie folgt:
-
Ein zu erkennendes spezifisches Bild
wird als ein Referenzbild angegeben, ein Eingangsbild wird dem Referenzbild überlagert,
anschließend
erfolgt ein Vergleich zwischen den Bildern, wobei beide Bilder zu
einem Zeitpunkt relativ zueinander um ein Pixel horizontal oder
vertikal verschoben werden. Wenn alle Pixel oder eine gegebene Anzahl
von Pixel übereinstimmen,
wird bestimmt, dass das spezifische Bild in dem Eingangsbild enthalten
ist.
-
Jedoch kann bei diesem Verfahren,
zum Beispiel wenn das spezifische Bild gedreht ist, das mit dem
Referenzbild übereinstimmende
Bild nicht aus einem Eingangsbild, welches das gedrehte spezifische
Bild enthält,
erkannt werden. Das heißt,
das Verfahren hat den Nachteil, dass, wenn sich das spezifische
Bild in dem Eingangsbild von dem Referenzbild in der Orientierung
unterscheidet, das spezifische Bild nicht erkannt werden kann.
-
Als ein konventionelles Verfahren
zum Überwinden
dieses Nachteils ist ein Verfahren zur Bilderkennung vorgeschlagen
worden, das fähig
ist, ein spezifisches Bild bei verschiedenen Drehwinkeln zu erkennen,
bei welchem die Koordinaten eines Referenzmusters (entsprechend
einem Referenzbild) in einem Speicher gespeichert werden, die angewendeten
Koordinaten, wenn das Referenzmuster gedreht ist, basierend auf
den in dem Speicher gespeicherten Koordinaten erzeugt werden, und
die erzeugten Koordinaten und die in dem Speicher gespeicherten
Koordinaten verglichen verwendet werden, wie in der japanischen
Offenlegungsschrift Nr. Hei 5-12446 gezeigt ist.
-
Als ein weiteres Verfahren zum Überwinden dieses
Nachteils beschreibt die japanische Offenlegungsschrift Nr. Hei
8-63604 ein Verfahren zur Bildverarbeitung, bei welchem der Schwerpunkt
eines Bilds erfasst wird, die Konturen des Bilds durch Polarkoordinaten
mit dem Schwerpunkt als Mitte dargestellt werden, und die durch
die Polarkoordinaten dargestellte Funktion mit der von den Konturen
eines Referenzbilds abhängigen
Funktion verglichen wird, wodurch die Formähnlichkeit zwischen den beiden Bildern
bestimmt wird. Dieses Verfahren kann auch ein gedrehtes spezifisches
Bild erkennen, indem eine Funktionsphasenverschiebung als Drehung
des spezifischen Bilds berücksichtigt
wird.
-
Ferner beschreibt die japanische
Offenlegungsschrift Nr. Hei 6-309461 ein Verfahren zur Bilderkennung,
bei welchem ein spezifisches Bild durch Anwenden einer Fouriertransformation
auf eine Kette aus hellen und dunklen Pixeldaten erkannt wird, die zum
Auffinden eines Spektrummusters erhalten wird durch Abtasten eines
Bilds auf dem Umfang eines kreisförmigen Fensters und Vergleichen
des Spektrummusters mit einem Spektrummuster eines Referenzbilds.
Dieses Verfahren wird auch mit einem gedrehten spezifischen Bild
fertig, weil das erzeugte Spektrummuster nicht von der Startposition
beim Abtasten (Drehwinkel des spezifischen Bilds) abhängt und
identisch wird.
-
Wie jedoch aus der bisherigen Beschreibung ersichtlich
ist, müssen
die in den Gazetten offenbarten, oben beschriebenen Verfahren komplizierte
Verarbeitungen zum Zeitpunkt der Bilderkennung durchführen und
können
nicht auf Anwendungen angewendet werden, die eine Hochgeschwindigkeitsverarbeitung
erfordern. Wenn ein Versuch unternommen wird, jedes der oben beschriebenen
Verfahren in einer Schaltung zu realisieren, nämlich Hardware zur Beschleunigung
der Verarbeitung, wird die Konfiguration groß und kompliziert.
-
Insbesondere ist in den letzten Jahren
ein System vorgeschlagen worden, um ein spezifisches Bild in ein
Bild einzubetten als Kode-Information, welche eine Urheberrechtsinformation,
Verteilungsweginformation usw. des Bilds darstellt, oder als Kode-Information,
welche die für
das Bild durchzuführende Bearbeitung
spezifiziert, um die Kodeinformation zum Verarbeiten des Bilds zu
verwenden; es zielt darauf ab, eine preiswerte Vorrichtung zur Bilderkennung
bereitzustellen, die ein spezifisches Bild mit einer hohen Geschwindigkeit
erkennen kann.
-
ZUSAMMENFASSUNG
DER ERFINDUNG
-
Es ist deshalb eine Aufgabe der Erfindung ein
Verfahren zur Bilderkennung und eine Vorrichtung zur Bilderkennung
anzugeben, welche geeignet sind, ein spezifisches Bild mit hoher
Geschwindigkeit in einer einfachen Konfiguration mit einer von der
Orientierung (Drehwinkel) des spezifischen Bilds unabhängigen Erkennungsgenauigkeit
zu erkennen, und ein Aufzeichnungsmedium, welches ein Programm zum
Durchführen
der Bilderkennung gemäß dem Verfahren
zur Bilderkennung speichert.
-
Zu diesem Zweck wird gemäß einem
ersten Aspekt der Erfindung ein Verfahren zur Bilderkennung bereitgestellt,
zum Erkennen einer Vielzahl von Bildern aus einem Eingangsbild,
wobei die Vielzahl von zu erkennenden Bildern wenigstens eines aus
einem spezifischen Bild und der durch Drehen des spezifischen Bilds
erzeugten Bilder einschließt,
welches Verfahren die Schritte umfasst: Vorbereiten wenigstens einer
Maskenfläche
auf einer Fensterfläche
für jedes
zu erkennende Bild, wobei die Fensterfläche durch zweidimensional angeordnete
Zellen strukturiert ist, eine Zelle aus wenigstens einem Pixel gebildet
ist, die Maskenfläche
durch wenigstens eine der Zellen strukturiert ist und einer Fläche entspricht,
die ein Merkmal des zu erkennenden Bilds darstellt; erstens Bestimmen,
ob das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der
Verarbeitung von Pixeldichtewerten des Eingangsbilds in der Maskenfläche für jedes
zu erkennende Bild; und zweitens Bestimmen, ob eines aus der Vielzahl
der zu erkennenden Bilder in der Fensterfläche vorliegt, basierend auf dem
Ergebnis der Bestimmung des ersten Bestimmungsschritts.
-
Ferner kann bestimmt werden, ob das
zu erkennende Bild vorliegt, indem nicht nur das Ergebnis der an
den Pixeldichtewer ten der Maskenflächen durchgeführten Verarbeitung,
sondern auch das Ergebnis der an den Pixeldichtewerten in der Fensterfläche außerhalb
der Maskenflächen
durchgeführten Verarbeitung
betrachtet wird, in welchem Fall die Erkennungsgenauigkeit verbessert
werden kann. Alternativ kann bestimmt werden, ob die Möglichkeit
besteht, dass eines der zu erkennenden Bilder in der Fensterfläche vorliegt,
anstatt, ob eines der zu erkennenden Bilder in der Fensterfläche vorliegt.
-
Ferner können die zu erkennenden Bilder solche
Bilder sein, die durch Drehen des spezifischen Bilds mit willkürlichen
Winkeln mit der gleichen Mittelposition als Zentrum erzeugt werden,
in welchem Fall das zu erkennende Bild nur aus dem entsprechenden Drehwinkel
definiert werden kann. Ferner können
die Maskenflächen
mit der gleichen Mittelposition in Übereinstimmung mit der Mittelposition
der Fensterfläche
platziert werden, in welchem Fall das Einstellen der Maskenflächen erleichtert
und die Größe der Fensterfläche minimalisiert
werden kann.
-
Zusätzlich, unter Berücksichtigung,
dass der Bewegungsabstand des Pixels groß wird, wenn das Pixel gedreht
wird, da ein Pixel von der Mittelposition der Drehung beabstandet
ist, kann, da jede Maskenfläche
von der Mittelposition der Fensterfläche beabstandet ist, die Fensterfläche so geformt
werden, dass die Zahl der die Maskenfläche bildenden Zellen zunimmt,
wodurch die Wahrscheinlichkeit einer Falscherkennung verringert
werden kann.
-
Ferner können die Maskenflächen für die zu erkennenden
Bilder, basierend auf den Maskenflächen, die für eines der zu erkennenden
Bilder eingestellt werden, und den Drehwinkeln der zu erkennenden
Bilder, berechnet und eingestellt werden. Das heißt, die
Maskenflächen
können
leicht eingestellt werden. Die Maskenflächen, entsprechend einer Vielzahl
von zu erkennenden spezifischen Bildern und den zu erkennenden Bildern,
die durch Drehen der spezifischen Bilder erzeugt werden, können auf eine
einzelne Fensterfläche
eingestellt werden. Das Eingangsbild kann ein binäres Bild
sein, in welchem Fall die Durchführung
der Verarbeitungen vereinfacht und die Systemgröße vermindert werden kann.
-
Gemäß einem zweiten Aspekt der
Erfindung ist eine Vorrichtung zur Erkennung einer Vielzahl von Bildern
aus einem Eingangsbild angegeben, wobei die Vielzahl der zu erkennenden
Bilder wenigstens eines aus einem spezifischen Bild und der Bilder,
die durch Drehen des spezifischen Bilds erzeugt werden, einschließt, welche
Vorrichtung umfasst: eine Bilddatenspeichereinheit zum Speichern
von das Eingangsbild darstellenden Bilddaten; eine Maskenflächenspeichereinheit
zum Speichern von Einstellinformation, um wenigstens eine der Maskenflächen auf einer
vorbestimmten Fensterfläche
für jedes
der zu erkennenden Bilder zu speichern; eine Maskenflächenverarbeitungseinheit
zum Verarbeiten von Werten der Bilddaten in den Maskenflächen für jedes
zu erkennende Bild; eine Bildbestimmungseinheit zum Bestimmen ob
das zu erkennende Bild vorliegt, basierend auf dem Ergebnis der
Verarbeitung der Maskenflächenverarbeitungseinheit
für jedes
zu erkennende Bild; und eine spezifische Bilderkennungseinheit zum
Bestimmen ob eines der zu erkennenden Bilder in der Fensterfläche vorliegt,
basierend auf dem Ergebnis der Bestimmung der Bildbestimmungseinheit
für jedes
zu erkennende Bild. In diesem Fall wird die Maskenflächenspeichereinheit
oder ein Speicherabschnitt ausgetauscht, wobei al-le zu erkennenden
Bilder gehandhabt werden können.
-
Die Vorrichtung zur Bilderkennung
kann ferner eine Außerhalb-Maskenflächenverarbeitungseinheit
zum Durchführen
einer Verarbeitung an den Werten der Bilddaten in der Fensterfläche außerhalb der
Maskenflächen
für jedes
zu erkennende Bild umfassen, wobei die Bildbestimmungseinheit bestimmen
kann, ob das zu erkennende Bild vorliegt, basierend auf dem Ergebnis
der Verarbeitung der Maskenflächenverarbeitungseinheit
und dem Ergebnis der Verarbeitung der Außerhalb-Maskenflächenverarbeitungseinheit
für jedes
zu erkennende Bild. Alternativ kann die Bildbestimmungseinheit bestimmen,
ob es eine Möglichkeit
gibt, dass das zu erkennende Bild vorliegt, basierend auf dem Ergebnis
der Verarbeitung der Maskenflächeverarbeitungseinheit
für jedes zu
erkennende Bild, und die Erkennungseinheit für das spezifische Bild kann
bestimmen, ob es eine Möglichkeit
gibt, dass eines der zu erkennenden Bilder in der Fensterfläche vorliegt,
basierend auf dem Ergebnis der Bestimmung der Bildbestimmungseinheit
für jedes
zu erkennende Bild.
-
Ferner, wenn der Speicherinhalt der
Maskenflächenspeichereinheit
willkürlich
gelesen und geschrieben werden kann, kann die Maskenflächeneinstellinformation
leicht geändert
werden.
-
Im übrigen, um jedes zu erkennende
Bild verlässlich
zu erkennen, ist es notwendig Flächen
zu extrahieren und Maskenflächen
einzustellen, und zwar unter Berücksichtigung,
dass die Dunkelwerte der das zu erkennende Bild bildenden Pixel
aufgrund von verschiedenen Faktoren variieren. Jedoch, wenn die
Variationen berücksichtigt
werden, um breite Maskenflächen
für alle
Flächen
einzustellen, wird die Möglichkeit,
dass ein Bild, das dem zu erkennenden Bild ähnlich ist, fälschlicherweise
als das zu erkennende Bild erkannt wird, insbesondere in dem Abschnitt
nahe der Mittelposition groß.
Dann wird die der Mittelposition der Fensterfläche nächstliegende Maskenfläche aus
nur einer einzigen Zelle gebildet und andere Maskenflächen werden
mit der Maskenfläche
als Referenz eingestellt, wobei die Wahrscheinlichkeit der Falscherkennung
vermindert wird.
-
Die Fensterfläche kann rechtwinklig oder kreisförmig sein,
und die Maskenflächen
können
willkürlich
eingestellt werden. Wenn die Fensterfläche rechtwinklig ist, können die
Eingangsbilder, die im allgemeinen oft rechtwinklig sind, ohne Auslassung
abgetastet werden, und der Abtastvorgang kann vereinfacht werden.
Wenn die Fensterfläche
kreisförmig
ist, können
die Pixelpositionen auf der Fensterfläche in Polarkoordinaten dargestellt
werden, wodurch die erforderliche Kapazität zum Speichern der Maskenflächen vermindert
werden kann. Ferner können
die Maskenflächen
willkürlich
eingestellt werden, wodurch die Maskenflächen entsprechend den Eigenschaften
eines Eingangsbilds eingestellt werden können, und die Erkennungsgenauigkeit
kann verbessert werden. Natürlich
können
alle Typen von Bildern auch auf die zu erkennenden Bilder eingestellt
werden.
-
Die in der Maskenflächenspeichereinheit
gespeicherte Einstellinformation kann die Einstellinformation der
Maskenflächen
enthalten, die für
eines der zu erkennenden Bilder und die Drehwinkel der zu erkennenden
Bilder eingestellt wurden. In diesem Fall kann die erforderliche
Kapazität
zum Speichern der Maskenflächeneinstellinformation
verringert werden. Natürlich
können
die Bilddaten binäre
Daten sein, um die Komplexität
der Schaltkreiskonfiguration und Vorrichtung zu vermeiden, oder
die Verarbeitung für
jedes zu erkennende Bild kann in dem gleichen Zyklus parallel durchgeführt werden,
um eine Echtzeit-Verarbeitung zu realisieren.
-
Gemäß einem dritten Aspekt der
Erfindung ist ein Aufzeichnungsmedium angegeben, welches ein Programm
zum Erkennen einer Vielzahl von Bildern aus einem Eingangsbild speichert,
wobei die Vielzahl der zu erkennenden Bilder wenigstens eines aus
einem spezifischen Bild und der durch Drehen des spezifischen Bilds
erzeugten Bilder einschließt, welches
Programm die Schritt umfasst: Vorbereiten wenigstens einer von Maskenflächen auf
einer Fensterfläche
für jedes
zu erkennende Bild, wobei die Fensterfläche durch Zellen strukturiert
ist, die zweidimensional angeordnet sind, eine Zelle aus wenigstens
einem Pixel gebildet ist, die Maskenfläche durch wenigstens eine der
Zellen strukturiert ist und einer Fläche entspricht, die ein Merkmal
des zu erkennenden Bilds darstellt; erstens Bestimmen, ob das zu
erkennende Bild vorliegt, basierend auf dem Ergebnis der Verarbeitung
von Pixeldichtewerten des Eingangsbilds in der Maskenfläche für jedes
zu erkennende Bild; und zweitens Bestimmen, ob eines der Vielzahl
der zu erkennenden Bilder in der Fensterfläche vorliegt, basierend auf
dem Ergebnis der Bestimmung des ersten Bestimmungsschritts.
-
KURZE BESCHREIBUNG
DER ZEICHNUNGEN
-
In den beigefügten Zeichnungen:
-
1 ist
ein Flussdiagramm, um den Ablauf eines Bildverarbeitungsverfahrens,
das durch eine Vorrichtung zur Bildverarbeitung gemäß einer
Ausführung
der Erfindung bereitgestellt wird, zu zeigen.
-
2 ist
eine Abbildung, um ein Beispiel eines spezifischen Bilds in der
Ausführung
der Erfindung zu zeigen;
-
3 ist
eine Abbildung, um den Zusammenhang zwischen dem spezifischen Bild
(zu erkennendes Bild) in 2 und
einer Mittelposition davon zu zeigen;
-
4A–4C sind Abbildungen, um Beispiele von
zu erkennenden Bildern, die durch Drehen des spezifischen Bilds
in 2 erzeugt werden,
zu zeigen;
-
5A–5D sind Abbildungen, um Beispiele von
Merkmalsflächen
von zu erkennenden Bildern, die in 2 und 4A–4C gezeigt
sind, zu zeigen;
-
6 ist
eine Abbildung, um ein Beispiel einer Fensterfläche in der Ausführung der
Erfindung zu zeigen;
-
7A–7D sind Abbildungen, um Beispiele der
zu erkennenden Bilder, die in 2 und 4A–4C gezeigt
sind, und Maskenflächen
der Fensterfläche
zu zeigen;
-
8 ist
eine Abbildung, um ein Beispiel eines Eingangsbilds in der Ausführung der
Erfindung zu zeigen;
-
9 ist
eine Abbildung, um zu zeigen, wie das Eingangsbild mit der verschobenen
Fensterfläche
in der Ausführung
der Erfindung abgetastet wird;
-
10 ist
ein Blockdiagramm, um ein Konfigurationsbeispiel der Bildverarbeitungsvorrichtung
in der Ausführung
der Erfindung zu zeigen;
-
11 ist
eine Abbildung, um ein Beispiel einer Schaltkreiskonfiguration eines
Bilddatenhalteabschnitts der Vorrichtung zur Bildverarbeitung in
der Ausführung
der Erfindung zu zeigen;
-
12 ist
eine Abbildung, um eine Fensterfläche, die durch den Bilddatenhalteabschnitt
in 11 eingestellt ist,
zu zeigen;
-
13A–13D sind Abbildungen, um
Beispiele von Maskenflächen
zu zeigen, die in der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung
eingestellt sind;
-
14 ist
ein Blockdiagramm, um ein Konfigurationsbeispiel eines Einstellabschnitt
für die
Maskenfläche
der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
-
15 ist
ein Blockdiagramm, um den Zusammenhang zwischen der Konfiguration
des Maskenflächeneinstellabschnitt
und der Konfiguration eines ersten Verarbeitungsabschnitt für die Maskenfläche der
Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
-
16 ist
ein Blockdiagramm, um ein Konfigurationsbeispiel des ersten Verarbeitungsabschnitt für die Maskenfläche der
Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
-
17 ist
ein Blockdiagramm, um ein Beispiel einer Schaltkreiskonfiguration
des ersten Verarbeitungsabschnitts für die Maskenfläche der
Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
-
18 ist
ein Blockdiagramm, um den Zusammenhang zwischen der Konfiguration
des ersten Einstellabschnitts für
die Maskenfläche
und der Konfiguration eines zweiten Einstellab schnitts für die Maskenfläche der
Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
-
19 ist
ein Diagramm, um ein Beispiel einer Schaltkreiskonfiguration des
zweiten Verarbeitungsabschnitts für die Maskenfläche der
Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
-
20 ist
ein Blockdiagramm, um den Zusammenhang zwischen der Konfiguration
des Einstellabschnitts für
die Maskenfläche
und der Konfiguration eines Außerhalb-Maskenflächenverarbeitungsabschnitts
der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
-
21 ist
ein Blockdiagramm, um ein Beispiel einer Schaltkreiskonfiguration
des Außerhalb-Maskenflächenverarbeitungsabschnitts
der Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
-
22 ist
ein Blockdiagramm, um ein Beispiel einer Schaltkreiskonfiguration
eines Bildbestimmungsabschnitts der Vorrichtung zur Bildverarbeitung
in der Ausführung
der Erfindung zu zeigen;
-
23 ist
ein Diagramm, um ein Beispiel einer Schaltkreiskonfiguration des
Bildbestimmungsabschnitts der Vorrichtung zur Bildverarbeitung in
der Ausführung
der Erfindung zu zeigen;
-
24 ist
ein Diagramm, um ein Beispiel einer Schaltkreiskonfiguration eines
Erkennungsabschnitts für
das spezifische Bild der Vorrichtung zur Bildverarbeitung in der
Ausführung
der Erfindung zu zeigen;
-
25 ist
ein Diagramm, um ein weiteres Beispiel einer Schaltkreiskonfiguration
des Erkennungsabschnitts für
das spezifische Bild der Vorrichtung zur Bildverarbeitung in der
Ausführung
der Erfindung zu zeigen;
-
26 ist
eine Abbildung, um ein Datenbeispiel auf einer Fensterfläche des
Bilddatenhalteabschnitts der Vorrichtung zur Bildverarbeitung in
der Ausführung
der Erfindung zu zeigen;
-
27A–27D sind Abbildungen, um
Ausgangsdatenbeispiele des Einstellabschnitts für die Maskenfläche der
Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen, 27A zeigt Maskenflächenausgangsdaten
des ersten Einstellabschnitts für
die Maskenfläche, 27B zeigt die Maskenflächenausgangsdaten
des zweiten Einstellabschnitts für
die Maskenfläche, 27C zeigt die Maskenflächenausgangsdaten
des dritten Einstellabschnitts für
die Maskenfläche
und 27D zeigt die Maskenflächenausgangsdaten
des vierten Einstellabschnitts für
die Maskenfläche;
-
28 ist
eine Abbildung, um ein Datenbeispiel auf einer Fensterfläche des
Bilddatenhalteabschnitts der Vorrichtung zur Bildverarbeitung in
der Ausführung
der Erfindung zu zeigen;
-
29A–29D sind Abbildungen, um
Ausgangsdatenbeispiele des Einstellabschnitts für die Maskenfläche der
Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen, 29A zeigt Maskenflächenausgangsdaten
des ersten Einstellabschnitts für
die Maskenfläche, 29B zeigt die Maskenflächenausgangsdaten
des zweiten Einstellabschnitts für
die Maskenfläche, 29C zeigt die Maskenflächenausgangsdaten
des dritten Einstellabschnitts für
die Maskenfläche
und 29D zeigt die Maskenflächenausgangsdaten
des vierten zeigt die Maskenflächenausgangsdaten
des vierten Einstellabschnitts für
die Maskenfläche;
-
30 ist
eine Abbildung, um ein Beispiel eines Verarbeitungszyklus in der
Vorrichtung zur Bildverarbeitung in der Ausführung der Erfindung zu zeigen;
und
-
31 ist
ein Blockdiagramm, um die Konfiguration einer modifizierten Ausführung der
Vorrichtung zur Bildverarbeitung zu zeigen.
-
GENAUE BESCHREIBUNG
DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
-
Es sei Bezug auf die beigefügten Zeichnungen
genommen, wo eine Vorrichtung zur Bilderkennung gemäß einer
Ausführung
der Erfindung gezeigt ist.
-
I. Verfahren zur Bildverarbeitung
-
Zunächst wird ein Verfahren zur
Bilderkennung (im weiteren als "ein
Verfahren zur Bildverarbeitung" bezeichnet),
welches von der Vorrichtung zur Bilderkennung gemäß der Ausführung der
Erfindung bereitgestellt wird, diskutiert.
-
1 ist
ein Flussdiagramm, um den Ablauf des Verfahrens zur Bildverarbeitung
zu zeigen. Wie in der Zeichnung gezeigt ist, wird zunächst in
Schritt S1 ein spezifisches Bild bestimmt. Zu diesem Zeitpunkt können ein
oder mehrere spezifische Bilder bestimmt werden. Als nächstes wird
in Schritt S2 entsprechend einem Verfahren zur Bildeingabe bestimmt,
bei welchem Winkel das spezifische Bild eingegeben wird. Wenn das
spezifische Bild bei jedem Winkel eingegeben werden kann, wird eine
Vielzahl von Winkel unter Berücksichtigung
der Größe und Ein gangsauflösung des
spezifischen Bilds entnommen. Als ein Ergebnis sind, wenn zum Beispiel
n Bilder in Schritt S1 bestimmt werden und m Winkel in Schritt S2
entnommen werden, n x m Bilder zu erkennen.
-
In Schritt S3 wird die Mittelposition
der Drehung des spezifischen Bilds bestimmt, und in Schritt S4 wird
das zu erkennende Bild, das durch Drehen des spezifischen Bilds
mit der Mittelposition als Zentrum erzeugt wird, in eine Vielzahl
von Flächen
geteilt. Als nächstes
wird in Schritt S5 eine Fensterfläche unter Berücksichtigung
der Größe und Eingangsauflösung des
zu erkennende Bilds bereitgestellt. In Schritt S6 wird die Mittelposition
der Fensterfläche
in Übereinstimmung
mit der Mittelposition der Drehung des zu erkennenden Bilds gebracht.
In Schritt S7 wird eine Maskenfläche
in der Fensterfläche
eingestellt. Die oben beschriebene Verarbeitung wird mit einem spezifischen
Beispiel diskutiert.
-
2 ist
eine Abbildung, welche ein spezifisches Bild 1 mit einer vorbestimmten
Kodeinformation zeigt. In dem Verfahren zur Bildverarbeitung wird eine
Mittelposition 2, die das Drehzentrum wird, auf dem spezifischen
Bild 1 eingestellt, wie in 3 gezeigt
ist, um nicht nur das spezifische Bild 1, sondern auch
ein durch Drehen des spezifischen Bilds 1 erzeugtes Bild
zu erkennen. Wenn das spezifische Bild um 90 Grad, 180 Grad und
270 Grad im Uhrzeigersinn gedreht wird, mit der Mittelposition 2 als
Zentrum, werden die zu erkennenden Bilder 3 bis 5 in den 4A–4C erzeugt.
In dem Verfahren zur Bildverarbeitung sind die vier Bilder (erzeugt
mit Drehwinkeln von 0 Grad, 90 Grad, 180 Grad und 270 Grad) zu erkennen.
Zur einfachen Beschreibung wird auch auf das spezifische Bild 1 durch
das zu erkennende Bild 1 Bezug genommen.
-
Als nächstes werden in dem Verfahren
zur Bildverarbeitung Flächen,
welche das Merkmal des zu erkennenden Bilds darstellen, für jedes
der vier zu erkennenden Bilder eingestellt. In den in 2 und 4A–4C gezeigten Beispielen,
stellt das in schwarz dargestellte Beispiel (im weiteren als "schwarzes Bild" bezeichnet) das
Merkmal des zu erkennenden Bilds dar; da das schwarze Bild aus sechs
schwarzen Pixel besteht, werden sechs kreisförmige Flächen für jedes der vier zu erkennenden Bilder
eingestellt, wie in 5A–5D gezeigt ist.
-
In dem Verfahren zur Bildverarbeitung
wird eine Fensterfläche 7 wie
ein Gitter (siehe 6)
bereitgestellt, um ein Eingangsbild abzutasten, und das zu erkennende
Bild von dem Eingangsbild zu erkennen. Die Fensterfläche 7 wird
auf eine Größe eingestellt,
um es nur einem der zu erkennenden Bilder 1 und 3–5 zu
ermöglichen
einzugehen. In dem in 6 gezeigten
Beispiel wird die Fensterfläche
auf eine Größe von 11 × 11 Zellen
eingestellt. Die Größe jeder Zelle
in der Fensterfläche 7 (Auflösung) ist
willkürlich entsprechend
dem spezifischen Bild geeignet eingestellt.
-
Als nächstes werden in dem Verfahren
zur Bildverarbeitung den Einstellflächen 6 entsprechende
Maskenflächen 8 auf
die Fensterfläche 7 für jedes der
zu erkennenden Bilder 1 und 3–5 eingestellt, wie in 7A–7D gezeigt
ist. Zu diesem Zeitpunkt werden die Maskenflächen 8 so eingestellt,
dass die Mittelposition 2 der Drehung jedes der zu erkennenden Bilder 1 und 3–5 in Übereinstimmung
mit der Zentrum der Fensterfläche 7 ist.
Die sechs Maskenflächen 8 für jedes
der zu erkennenden Bilder 1 und 3–5 werden
auf der gleichen Fensterfläche 7 eingestellt,
und schließlich
werden 24 Maskenflächen
auf der einzigen Fensterfläche 7 eingestellt.
-
In dem Verfahren zur Bildverarbeitung
wird die oben beschriebene Verarbeitung durchgeführt, bevor ein Eingangsbild
abgetastet wird. Indem wieder Bezug auf 1 genommen wird, wird die darauffolgende
Verarbeitung diskutiert.
-
In Schritt S8 wird ein Eingangsbild
in der Fensterfläche
abgetastet. In Schritt S9 wird bestimmt, ob das Eingangsbild voll-ständig abgetastet worden
ist. Wenn das Eingangsbild nicht vollständig abgetastet worden ist,
geht die Steuerung zu Schritt S10 über und vorbestimmte Verarbeitungen
werden an Pixeldichtewerten für
jede Maskenfläche
durchgeführt.
In Schritt S11 werden für
jedes spezifische Bild vorbestimmte Verarbeitungen an den Pixeldichtewerten
in anderen Flächen
als den Maskenflächen durchgeführt, und
es wird bestimmt, ob ein zu erkennendes Bild vorliegt oder vorliegen
kann, basierend auf dem Ergebnis der Verarbeitung für jede Maskenfläche in Schritt
S10. Ferner, wenn in Schritt S12 bestimmt wird, dass das zu erkennende
Bild vorliegt, oder dass die Möglichkeit
des Vorliegens des zu erkennenden Bilds hoch ist, geht die Kontrolle
an Schritt S13 über,
in welchem angenommen wird, dass das zu erkennende Bild erfasst
ist; im anderen Falle geht die Kontrolle an Schritt S14 über, in
welchem angenommen wird, dass das zu erkennende Bild nicht erfasst
ist. Dann kehrt die Kontrolle zu Schritt S8 zurück, und die oben beschriebene
Verarbeitung wird wiederholt, bis das ganze Eingangsbild vollständig abgetastet
worden ist.
-
Die Verarbeitung wird mit dem oben
beschriebenen spezifischen Beispiel diskutiert. Hier sei angenommen,
dass das Eingangsbild das in 8 gezeigte
Eingangsbild 9 ist, eine Abbildung ist, um ein Beispiel
des Eingangsbilds 9 zu zeigen. Das Eingangsbild 9 scheint
aus unregelmäßig angeordneten schwarzen Punkten
aufgebaut zu sein, umfasst jedoch die zu erkennenden Bilder 1 und 3–5.
-
In dem Verfahren zur Bildverarbeitung
wird das Eingangsbild 9 von der oberen linken Ecke zu der
unteren rechten Ecke mit der Fensterfläche 7, auf welcher
die Maskenflächen 8 eingestellt
sind, abgetastet. Jedes Mal, wenn sich die Position der Fensterfläche 7 in
Bezug auf das Eingangsbild 9 während des Abtastens ändert, werden
Verarbeitungen an den Pixeldichtewerten auf dem Eingangsbild 9 entsprechend
jeder Maskenfläche 8 durchgeführt. Als spezifisches
Abtasten, wie in 9 gezeigt
ist, wird eine wiederholte horizontale Abtastung durchgeführt, indem
die Fensterfläche 7 von
dem linken Ende des Eingangsbilds 9 um ein Pixel horizontal
verschoben wird, bis das rechte Ende der Fensterfläche 7 das rechte
Ende des Eingangsbilds 9 erreicht, wobei die Fensterfläche 7 zu
einem Zeitpunkt um ein Pixel vertikal verschoben wird. Selbstverständlich hört das vertikale
Abtasten auf, wenn das untere Ende der Fensterfläche 7 das untere Ende
des Eingangsbilds 9 erreicht.
-
In dem Verfahren zur Bildverarbeitung
wird, wenn die Verarbeitungen jedes Mal durchgeführt werden, wenn sich die Position
der Fensterfläche 7 in Bezug
auf das Eingangsbild 9 ändert,
für jedes
der zu erkennenden Bilder 1 und 3–5 eine
logische OR-Funktion durchgeführt,
wenn eine Maskenfläche 8 ein
oder mehrere schwarze Pixel enthält,
und die Maskenfläche 8 wird
auf '1' eingestellt, eine
logische AND-Funktion durchgeführt,
welche '1' ausgibt, wenn das
Ergebnis der Verarbeitung auf den sechs Maskenflächen 8 '1' ist, eine logische NOR-Funktion durchgeführt, welche '1' ausgibt, wenn die Fensterfläche mit
Ausnahme der Maskenflächen 8 auf
dem Eingangsbild 9 sämtlich
weiße
Pixel enthält,
und bezüglich
dem Ergebnis der logischen AND-Funktion wird eine logische AND-Funktion
mit dem Ergebnis der logischen NOR-Funktion durchgeführt, dann
wird das Ergebnis der Verarbeitung der logischen AND-Funktion als
das Ergebnis der Bestimmung benutzt. Die Verarbeitungen werden für jedes
der zu erkennenden Bilder 1 und 3–5 parallel
durchgeführt.
-
Wie aus der Beschreibung ersichtlich
ist, wird, wenn in dem Verfahren zur Bildverarbeitung als Position
der Fensterfläche 7 eine
Position wird, die ein spezifisches Bild auf dem Eingangsbild 9 vollständig enthält, nur
eines der Ergebnisse der Bestimmung für die zu erkennenden Bilder 1 und 3–5 zu '1', und wenn die Fensterfläche 7 in
einer anderen Position platziert wird, werden alle Ergebnisse der
Bestimmung zu '0'. Für das in 8 gezeigte Eingangsbild 9 wird
zuerst nur das Ergebnis der Bestimmung für das zu erkennende Bild 5,
das um 270 Grad im Uhrzeigersinn gedreht ist, zu '1', und wenn das Abtasten fortschreitet,
werden die Ergebnisse der Bestimmung für die zu erkennenden Bilder 3, 4 und 1, die
um 90 Grad, 180 Grad und 0 Grad im Uhrzeigersinn gedreht sind, in
der Reihenfolge '1'. Somit können in
dem Verfahren zur Bildverarbeitung die vier zu erkennenden Bilder,
die verschieden in der Ausrichtung sind, aus dem Eingangsbild 9 erkannt
werden. Selbstverständlich
können,
wenn das Eingangsbild 9 selbst um 90 Grad, 180 Grad und
270 Grad im Uhrzeigersinn gedreht wird, die vier zu erkennenden
Bilder, wie oben beschrieben ist, erkannt werden.
-
Bei der Verarbeitung auf jeder Maskenfläche 8 kann
die folgende Verarbeitung verwendet werden, ohne die logische OR-Funktion durchzuführen: Die Pixeldichtewerte
auf dem Eingangsbild 9, das in der Maskenfläche 8 positioniert
ist, werden addiert, und wenn der Gesamtdichtewert einen vorbestimmten Schwellenwert übersteigt,
wird '1' ausgegeben; im anderen
Falle wird '0' ausgegeben. In Kürze können optimale
Verarbeitungen entsprechend einem Fehler, der durch ein in ein spezifi sches
Bild gemischtes Rauschen bewirkt wird, Erkennungsgenauigkeit usw. angenommen
werden.
-
Im übrigen kann, um ein zweidimensionales Bild
abzutasten und ein Eingangsbild zu bekommen, der Drehwinkel eines
spezifischen Bilds abhängig von
der Bildlesetechnik willkürlich
sein (Winkel verschieden von 0, 90, 180 oder 270 Grad). In einem solchen
Fall kann in dem Verfahren zur Bildverarbeitung die Maskenfläche 8 für jedes
der spezifischen Bilder eingestellt werden, die in Folge durch Drehen dieses
spezifischen Bilds mit hinreichend kleinen Winkeln bereitgestellt
werden. Das heißt,
die Zahl der zu erkennenden Bilder kann erhöht werden und die Maskenfläche 8 kann
für jedes
der zu erkennenden Bilder eingestellt werden.
-
Wenn in dem Verfahren zur Bildverarbeitung jede
Maskenfläche 8 für die entsprechende
Teilungsfläche 6 breit
eingestellt wird, kann die Wahrscheinlichkeit erhöht werden,
dass ein spezifisches Bild bei einem willkürlichen Drehwinkel, in dem
das zu erkennende Bild nicht im voraus erzeugt wird, als das zu erkennende
Bild erkannt wird, und die Auswirkung eines sich auf die Bestimmung
auswirkenden Fehlers, der durch ein in das zu erkennende Bild gemischte Rauschen
verursacht wird, kann vermindert werden, wodurch die Erkennungsgenauigkeit
erhöht
werden kann.
-
Ferner, wenn die zu erkennenden Bilder bestmöglich auf
ein spezifisches Bild und die durch Drehen des spezifischen Bilds
erzeugten Bilder beschränkt
werden, kann die Erkennungsgenauigkeit des Verfahrens zur Bildverarbeitung
verbessert werden. Zum Beispiel sei festgestellt, dass bei gleichem Drehwinkel
dann, wenn ein Pixel weiter von der Mittelposition 2 beabstandet
ist, der Bewegungsabstand größer ist,
und die Maskenfläche
8,
welche einer Fläche 6 entspricht,
wird breit eingestellt wenn sie von der Mittelposition 2 beabstandet
wird, wodurch die Erkennungsgenauigkeit verbessert werden kann.
-
Im übrigen, wenn alle Maskenflächen für die Flächen 6 breit
eingestellt werden, ist zu befürchten, dass
ein Pixel, das an einer Position vorliegt, die den Fehlerbereich übersteigt,
auch als Pixel des zu erkennenden Bilds erkannt wird, insbesondere
in einer Position nahe der Mittelposition 2, wo der die
Drehung begleitende Pixelbewegungsabstand klein ist, und die Möglichkeit
ein Bild analog zu dem zu erkennenden Bild falsch zu erkennen wird
hoch. Wenn in dem Verfahren zur Bildverarbeitung somit die Maskenfläche an einer
Position, in der der die Drehung begleitende Pixelbewegungsabstand
bei einem gleichen Drehwinkel klein ist (nämlich die Position nächst der
Mittelposition 2 und der Mittelposition der Fensterfläche 7),
nur aus einer einzigen Zelle besteht und die Umfänge der anderen Maskenflächen basierend auf
dem Abstand von der Mittelposition 2 und der Mittelposition
der Fensterfläche 7 und
der Auflösung
der Fensterfläche 7 bestimmt
werden, kann die Erkennungsgenauigkeit verbessert werden.
-
Die zu erkennenden Bilder sind ausschließlich ein
spezifisches Bild und die Bilder, die durch Drehen des spezifischen
Bilds erzeugt werden. Wenn somit die Fensterfläche wie ein Kreis geformt ist,
kann die von der Fensterfläche
eingenommene Fläche
verengt werden. Wenn überdies
die Fensterfläche
kreisförmig
ist, können
die Positionen aller Maskenflächen
in Polarkoordinaten angeben werden. Somit können durch Angeben eines Drehwinkels
die Maskenflächenkoordinaten
des spezifischen Bilds, das um den Drehwinkel gedreht ist, unter
Verwendung eines bekannten einfachen Ausdrucks, basierend auf den
Maskenflächen koordinaten
eines nicht gedrehten spezifischen Bilds berechnet werden.
-
Wenn in dem Verfahren zur Bildverarbeitung Maskenflächen, anstatt
festgelegt zu sein, in gewünschter
Weise eingestellt werden können,
können geeignete
Maskenflächen
entsprechend einer Änderung
in den Eigenschaften eines Eingangsbilds und eines spezifischen
Bilds oder dergleichen eingestellt werden. Deshalb kann die Erkennungsgenauigkeit verbessert
werden. Selbstverständlich
kann auch das zu erkennende spezifische Bild selbst geändert werden.
-
Wenn ferner das spezifische Bild
als Erkennungsreferenz, oder das Eingangsbild oder beide, Farb-
oder Graustufenbilder sind, wird die oben beschriebene Erkennungsverarbeitung
durchgeführt, nachdem
das Eingangsbild binärisiert
ist, wobei das Verfahren zur Bildverarbeitung angewendet werden kann.
Wenn zum Beispiel eine Vorrichtung für das Verfahren zur Bildverarbeitung
eine Leseeinheit umfasst, die Farbinformation und Monochrom-Mehrfachwert-Information
lesen kann, und das Eingangsbild ein Farb- oder Graustufenbild ist,
kann sogar die normale Erkennungsverarbeitung durchgeführt werden,
indem eine geeignete Bildverarbeitung, welche eine Binärisierung
enthält,
durchgeführt
wird. Dies wird auch angewendet, wenn das als Erkennungsreferenz
verwendete spezifische Bild ein Farb- oder Graustufenbild ist. Deshalb,
wenn das spezifische Bild, oder das Eingangsbild oder beide, Farb-
oder Graustufenbilder sind, kann das spezifische Bild erkannt werden,
indem einfache Binärverarbeitungen durchgeführt werden,
und in der Erkennungsverarbeitung des spezifischen Bilds kann eine
Erkennungsverarbeitung, die unabhängig von einer von der Gestalt
verschiedenen Merkmalsinformation ist, wie Farbe oder Dunkelheit,
durchgeführt
werden.
-
Selbstverständlich kann das spezifische
Bild verglichen und als das intakte Farb- oder Graustufenbild erkannt
werden, ohne die Merkmalsinformation zu konvertieren, obgleich die
Verarbeitungen kompliziert werden. Ein spezifisches Beispiel wird
später
als eine zweite modifizierte Ausführung diskutiert.
-
In dem Verfahren zur Bildverarbeitung
sind die Erkennung eines spezifischen Bilds und der durch Drehen
des spezifischen Bilds erzeugten Bilder beschrieben worden. Jedoch,
wenn Maskenflächen,
die einem anderen spezifischen Bild und den Bildern, die durch Drehen
des spezifischen Bilds erzeugt werden, entsprechen, in der Fensterfläche 7 eingestellt
werden, und Verarbeitungen davon auch parallel durchgeführt werden,
können
mehr als ein spezifisches Bild und der durch Drehen des spezifischen
Bilds erzeugten Bilder in einer Fensterfläche erkannt werden.
-
II. Vorrichtung zur Bilderkennung
-
Als nächstes wird die Vorrichtung
zur Bilderkennung (im weiteren als "Vorrichtung zur Bildverarbeitung" bezeichnet) gemäß der Ausführung zum Durchführen des
oben beschriebenen Verfahrens zur Bildverarbeitung diskutiert.
-
(1) Gesamtaufbau
-
10 ist
ein Grundblockdiagramm der Vorrichtung zur Bildverarbeitung. Wie
hier gezeigt ist, nimmt die Vorrichtung zur Bildverarbeitung binäre Bilddaten
auf, die ein Eingangsbild darstellen, welche im weiteren als Eingangsbilddaten
bezeichnet werden, und gibt Erkennungsergebnisdaten aus, welche das
Erkennungsergebnis von spezifischen Bildern für das Eingangs bild darstellen.
In der unten gezeigten Beschreibung ist angenommen, dass der Bilddatenwert
ein Pixeldichtewerte ist, und dass der Bilddatenwert (Pixeldichtewert)
für ein
weißes
Pixel 0 ist und der Bilddatenwert (Pixeldichtewert) für ein schwarzes Pixel
1 ist.
-
In 10 bezeichnet
die Bezugsziffer 10 einen Eingangsbildspeicherabschnitt
zum sequenziellen Speichern von Eingangsbilddaten einer Vielzahl von
Zeilen, die zum Erkennen eines spezifischen Bilds erforderlich sind,
Bezugsziffer 11 bezeichnet einen Bilddatenhalteabschnitt
zum Lesen von Bilddaten entsprechend einer voreingestellten Fensterfläche von
dem Eingangsbildspeicherabschnitt 10 und zum zeitweiligen
Zurückhalten
der gelesenen Bilddaten, und Bezugsziffer 12 ist ein Maskenflächeneinstellabschnitt
zum Extrahieren von Bilddaten, die in einer Vielzahl von voreingestellten
Maskenflächen als
Maskenflächendaten
für jede
Maskenfläche
enthalten sind, aus den in dem Bilddatenhalteabschnitt 11 für jedes
Bild aus einem voreingestellten spezifischen Bild und der spezifischen
Bilder, die durch Drehen des voreingestellten spezifischen Bilds
erzeugt werden, zurückgehaltenen
Bilddaten, und zum Extrahieren von Bilddaten, die in der Fensterfläche außerhalb
der Maskenflächen
als Außerhalb-Maskenflächendaten
für jedes
der spezifischen Bilder enthalten sind.
-
Bezugsziffer 13 ist ein
erster Maskenflächenverarbeitungsabschnitt
zum Durchführen
der oben beschriebenen logischen Funktion, wie OR, oder einer arithmetischen
Verarbeitung der Werte der Maskenflächendaten, die in dem Maskenflächeneinstellabschnitt 12 extrahiert
werden, und Ausgeben des Ergebnisses der Verarbeitung, Bezugsziffer 14 ist
ein Außerhalb-Maskenflächenverarbeitungsabschnitt zum
Durchführen
der oben beschriebenen logischen Funktion, wie NOR, an den Werten
der Außerhalb-Maskenflächendaten,
die in dem Maskenflächeneinstellabschnitt 12 extrahiert
werden, und zum Ausgeben des Ergebnisses der Verarbeitung, und Bezugsziffer 15 ist
ein zweiter Maskenflächenverarbeitungsabschnitt
zum Durchführen
der oben beschriebenen logischen Funktion oder einer arithmetischen
Verarbeitung an den Ergebnissen der Verarbeitung des ersten Maskenflächenverarbeitungsabschnitts 13 für jedes
spezifische Bild und zum Ausgeben des Ergebnisses der Verarbeitung.
-
Bezugsziffer 16 ist ein
Bildbestimmungsabschnitt zum Bestimmen, ob ein spezifisches Bild
vorliegt, basierend auf den Ergebnissen der Verarbeitung des zweiten
Maskenflächenverarbeitungsabschnitts 15 und
des Außerhalb-Maskenflächenverarbeitungsabschnitts 14.
Bezugsziffer 17 ist ein Erkennungsabschnitt für das spezifische
Bild zum Bestimmen, ob das spezifische Bild oder eines der spezifischen
Bilder, die durch Drehen des spezifischen Bilds erzeugt werden,
in den Bilddaten vorliegen, die in dem Bilddatenhalteabschnitt 11 zurückgehalten werden,
basierend auf dem Ergebnis der Bestimmung des Bildbestimmungsabschnitts 16,
und gibt das Ergebnis der Bestimmung als Erkennungsergebnisdaten
aus.
-
(2) Funktionen und Konfigurationen
der Abschnitte
-
Als nächstes werden die Funktionen
und Konfigurationen der in 10 gezeigten
Abschnitte diskutiert. Die unten dargelegte Beschreibung nimmt an,
dass das zu erkennende Bild das in 2 zu
erkennende Bild ist, dass die Bilder, die durch Drehen des Bilds
erzeugt werden, die zu erkennenden Bilder 3, 4 und 5 in 4A–4C sind,
und dass die Vorrichtung zur Bildverarbeitung die vier zu erkennenden Bilder
aus einem Eingangsbild erkennt. Sie nimmt auch an, dass die Fensterfläche zum
Erkennen der zu erkennenden Bilder auf eine Größe von 11 × 11 Zellen eingestellt wird,
von denen jede einem Punkt entspricht. Ferner nimmt sie an, dass
die Auflösung eines
Eingangsbilds auf eine solche Auflösung eingestellt wird, die
es erlaubt, dass die Zusammenhänge
zwischen den zu erkennenden Bildern und dem Eingangsbild so werden,
wie in 7A–7D gezeigt ist.
-
Bei diesen Annahmen muss der Eingangsbildspeicherabschnitt 10 einen
Speicher umfassen, der geeignet ist, wenigstens 10-Zeilen-Bilddaten
zu speichern und zum Beispiel aus 10 Zeilenspeichern, von denen
jeder eine Kapazität
zum Speichern von 1-Zeilen-Bilddaten
hat, einer Zeilenspeichersteuereinheit usw. aufgebaut ist. Beim
Speichern der 10-Zeilen-Bilddaten gibt der Eingangsbildspeicherabschnitt 10 die
11-Zeilen-Eingangsbilddaten,
welche den nächsten
Eingangsbilddateneingang in Folge von der Außenseite enthalten, zu dem
Bilddatenhalteabschnitt 11 in Folge aus. Die Ausgabeordnung sollte
in Antwort auf die Funktion des Bilddatenhalteabschnitts 11,
dem Eingangsbildspeicherabschnitt 10 folgend, geeignet
gestaltet sein. Die Ausführung nimmt
eine solche Ausgabeordnung an, in welcher die 11 Pixeldichtewerte,
entsprechend den am weitesten links befindlichen Pixel, ausgegeben
werden, dann werden die 11 Pixeldichtewerte, entsprechend den zweiten
Pixel von der linken Seite der Zeilen, ausgegeben. In Einklang mit
einem solchen Verfahren wiederholt der Eingangsbildspeicherabschnitt 10 das
Verfahren bis er die 11-Zeilen-Eingangsbilddaten in Verbindung mit
dem Eingangsbilddateneingang, welcher die letzte Zeile des Eingangsbilds
darstellt, sequenziell ausgibt, wodurch das Eingangsbild vertikal
abgetastet wird.
-
Der Bilddatenhalteabschnitt 11 umfasst
eine Flip-Flop-Gruppe 18, die aus 11 × 11 Flip-Flops aufgebaut ist,
wie in 11 gezeigt ist,
um die jüngsten 11-Reihen-Bilddaten
des 11-Zeilen Eingangsbilddateneingangs in Folge aus dem Eingangsbildspeicherabschnitt 10 zu
halten. Das heißt,
der Bilddatenhalteabschnitt 11 formt eine 11 × 11-Zellen
Fensterfläche 19 der
Flip-Flop-Gruppe 18, wie in 12 gezeigt
ist, und hält
die jüngsten
11-Reihen-Bilddaten, welche in der Fensterfläche 19 vorliegen,
des Eingangsbilddateneingang in Folge zurück, wodurch das Eingangsbild
mit der Fensterfläche 19 horizontal
abgetastet wird. Jedes Mal, wenn sich die Zeile entsprechend dem
Eingangsbilddatenausgang in Folge von dem Eingangsbildspeicherabschnitt 10 unterscheidet, nämlich, ein
vertikales Abtasten durchgeführt
wird, löscht
der Bilddatenhalteabschnitt 11 die gehaltenen 11-Reihen-Bilddaten.
-
Der Maskenflächeneinstellabschnitt 12 extrahiert
Maskenflächendaten
und Außerhalb-Maskenflächendaten
aus den Bilddaten, die in der Flip-Flop-Gruppe 18 des Bilddatenhalteabschnitts 11 gehalten
werden, und ist zum Beispiel aus vier Maskenflächeneinstellteilen (erster
Maskenflächeneinstellteil 20,
zweiter Maskenflächeneinstellteil 21,
dritter Maskenflächeneinstellteil 22 und
vierter Maskenflächeneinstellteil 23)
aufgebaut, wie in 14 gezeigt
ist, um insgesamt vier spezifische Bilder zu erkennen. Die ersten
bis vierten Maskenflächeneinstellteile 20–23 entsprechen
den zu erkennenden Bildern 1, 3, 4 bzw.
5.
-
Hier sei angenommen, dass die den
spezifischen Bildern entsprechenden Maskenflächen auf der Fensterfläche 19 eingestellt
sind, wie in 7A–7D gezeigt ist, um das zu
erkennende Bild 1 in 2 und
die zu erkennenden Bilder 3–5 in 4 zu erkennen, nämlich, dass sechs Maskenflächen für jedes
spezifische Bild auf der Fensterfläche 19 eingestellt
werden, wie in 13A–13D gezeigt ist.
-
In diesem Fall extrahiert jeder Maskenflächeneinstellteil
Daten in der Fensterfläche 19 für alle sechs
Maskenflächen
entsprechend dem spezifischen Bild entsprechend dem Maskenflächeneinstellteil
aus dem Bilddaten in der Fensterfläche 19 und gibt die
extrahierten Daten zu dem ersten Maskenflächenverarbeitungsabschnitt 13 aus.
Ebenso gibt jeder Maskenflächeneinstellteil
die Bilddaten, die in der Fensterfläche außerhalb der sechs Maskenflächen vorliegen,
welche entsprechend dem Maskenflächeneinstellteil
aus den Bilddaten in der Fensterfläche 19 eingestellt
sind, zu dem Außerhalb-Maskenflächenverarbeitungsabschnitt 14 als
Außerhalb-Maskenflächendaten
aus.
-
Jedoch führt der Maskenflächeneinstellabschnitt 12 nicht
die Verarbeitung durch, während 11-Reihen-Bilddaten
nicht in dem Bilddatenhalteabschnitt 11 gehalten werden.
-
Zum Beispiel, wie in 12 und in 13A ersichtlich
ist, extrahiert der erste Maskenflächeneinstellteil 20 die
Bilddaten auf Db2, Db3, Dc2 und Dc3 in der Fensterfläche 19 als
Maskenflächendaten,
die Bilddaten auf Dd9 und De9 als Maskenflächendaten, die Bilddaten auf
De4 und De5 als Maskenflächendaten,
die Bilddaten auf Dg2, Dg3, Dh2 und Dh3 als Maskenflächendaten,
die Bilddaten auf Di6 und Di7 als Maskenflächendaten, und die Bilddaten
auf Di10 und Di11 als Maskenflächendaten,
und gibt die Maskenflächendaten
an den ersten Maskenflächenverarbeitungsabschnitt 13 aus.
Ebenso extrahiert er die Bilddaten in der Fensterfläche 19,
die von den Maskenflächendaten
verschieden sind, als Außerhalb-Maskenflächendaten
und gibt die Daten an den Außerhalb-Maskenflächenverarbeitungsabschnitt 14 aus.
-
Die Datenextraktionsverarbeitung
wird jedes Mal durchgeführt,
wenn die in der Flip-Flop-Gruppe 18 gehaltenen Bilddaten
verschoben werden.
-
Der erste Maskenflächenverarbeitungsabschnitt 13 führt eine
logische Funktion oder eine arithmetische Verarbeitung auf der Vielzahl
des Maskenflächeausgangsdaten
aus dem Maskenflächeneinstellabschnitt 12 durch,
und ist zum Beispiel aus vier ersten Maskenflächenverarbeitungsteilen (erster Maskenflächenverarbeitungsabschnitt
A 24, erster Maskenflächenverarbeitungsabschnitt
B 25, erster Maskenflächenverarbeitungsabschnitt
C 26 und erster Maskenflächenverarbeitungsabschnitt
D 27) aufgebaut, wie in 15 gezeigt
ist. Die ersten Maskenflächenverarbeitungsteile
A bis D sind entsprechend den zu erkennenden Bildern 1, 3, 4 bzw. 5 vorgesehen
und diesen wird der Maskenflächendatenausgang
aus dem ersten Maskenflächeneinstellteil,
20, dem zweiten Maskenflächeneinstellteil 21,
dem dritten Maskenflächeneinstellteil 22 und
dem vierten Maskenflächeneinstellteil 23 des
Maskenflächeneinstellabschnitts 12 zugeführt. Hier
sind die Maskenflächendatenstücke, die
von den Maskenflächeneinstellteilen 20 bis 23 ausgegeben
werden (nämlich
die Maskenflächendatenstücke entsprechend
den spezifischen Bildern 1 und 3 bis 5),
Maskenflächendaten A,
B, C und D, und die Namen werden in Antwort auf die verarbeiteten
Daten an die ersten Maskenflächenverarbeitungsteile
A bis D gegeben.
-
Jeder der vier ersten Maskenflächenverarbeitungsteile
besteht aus sechs Flächendatenverarbeitungsteilen
entsprechend den sechs Maskenflächen,
die für
jedes spezifische Bild eingestellt sind. Zum Beispiel besteht der
erste Maskenflächenverarbeitungsteil
A 24 aus einem Flächendaten-A-Verarbeitungsteil
A 28, einem Flächendaten-A-Verarbeitungsteil
B 29, ..., einem Flächendaten-A-Verarbeitungsteil
F33, wie in 16 gezeigt ist,
um die Verarbeitung an allen Maskenflächendaten durchzuführen.
-
Grundsätzlich kann die in jedem Flächendatenverarbeitungsteil
durchgeführte
Funktion eine logische AND- oder OR-Funktion der Daten oder eine Addition
der Daten sein. Alle Flächendatenverarbeitungsteile
müssen
nicht den gleichen Typ von Verarbeitung durchführen, und ferner kann eine
Anzahl von Verarbeitungen auf den Maskenflächendaten durchgeführt werden
und eine Anzahl von Ergebnissen kann ausgegeben werden. Das heißt, welche Verarbeitungen
durchgeführt
werden sollen, sollte basierend auf den Eigenschaften eines Eingangsbilds
und den zu erkennenden Bildern, dem Maskenflächeneinstellverfahren, der
erforderlichen Erkennungsgenauigkeit usw. spezifiziert werden.
-
In der Ausführung ist die in jedem Flächendatenverarbeitungsteil
durchgeführte
Funktion eine OR-Funktion aller Datenwerte, die in den Maskenflächendaten
aus dem Maskenflächeneinstellabschnitt 12 enthalten
sind. Das heißt,
wie in 17 gezeigt ist,
jeder Flächendatenverarbeitungsteil
führt eine Verarbeitung
mit einem OR-Schaltkreis mit mehreren Eingängen und einem Ausgang durch.
Als Ergebnis führt
zum Beispiel der Flächendatenverarbeitungsteil A
28 eine logische OR-Verarbeitung von allen Datenwerten durch (nämlich, Db2,
Db3, Dc2 und Dc3 in 12),
welche in den Eingangsflächendaten
A enthalten sind, und gibt das Ergebnis als ein 1-bit Signal R1AA
aus. Der Flächendaten-A-Verarbeitungsteil
B 29, der Flächendaten-A-Verarbeitungsteil
C 30, der Flächendaten-A-Verarbeitungsteil
D 31, der Flächendaten-A-Verarbeitungsteil
E 32 und der Flächendaten-A-Verarbeitungsteil
F 33 führen
eine ähnliche Verarbeitung
zu jener des Flächendaten-
A-Verarbeitungsteils A 28 parallel durch und geben 1-bit Signale R1AB,
R1AC, R1AE und R1AF aus.
-
Der erste Flächendatenverarbeitungsteil führt die
oben beschriebene Verarbeitung parallel durch und jeder Teil gibt
sechs Ergebnisse der Verarbeitung aus, welche die Signale darstellen.
Das heißt,
insgesamt werden 24 Signale ausgegeben.
-
Der zweite Flächendatenverarbeitungsabschnitt 15 führt eine
logische Funktion oder eine arithmetische Verarbeitung an den Maskenflächendatenergebnissen
der Verarbeitung aus dem ersten Maskenflächenverarbeitungsabschnitt 13 für jedes
spezifische Bild durch. In der Ausführung, wie in 18 gezeigt ist, ist der zweite Maskenflächenverarbeitungsabschnitt 15 aus
einem zweiten Maskenflächenverarbeitungsteil
A 34, einem zweiten Maskenflächenverarbeitungsteil
B 35, einem zweiten Maskenflächenverarbeitungsteil
C 36 und einem zweiten Maskenflächenverarbeitungsteil
D 37 aufgebaut. Wie in 18 ersichtlich
ist, sind der zweite Maskenflächenverarbeitungsteil
A34, der zweite Maskenflächenverarbeitungsteil
B 35, der zweite Maskenflächenverarbeitungsteil
C 36 und der zweite Maskenflächenverarbeitungsteil
D 37 entsprechend den zu erkennenden Bildern 1, 3, 4 bzw. 5 vorgesehen
und werden mit sechs Ausgängen
aus dem ersten Maskenflächenverarbeitungsteil
A 24, sechs Ausgängen aus
dem ersten Maskenflächenverarbeitungsteil
B 25, sechs Ausgängen
aus dem ersten Maskenflächenverarbeitungsteil
C 26 und sechs Ausgängen aus
dem ersten Maskenflächenverarbeitungsteil
D 27 gespeist.
-
In der Ausführung führt jeder aus dem zweiten Maskenflächenverarbeitungsteil
A 34, dem zweiten Maskenflächenverarbeitungsteil
B 35, dem zweiten Maskenflächenverarbeitungsteil
C 36 und dem zweiten Maskenflächenverarbeitungsteil
D 37 eine AND-Funktion von sechs Eingangsdatenstücken durch, und gibt das Ergebnis
als ein 1-bit Signal R2A, R2B, R2C, R2D aus, wie in 19 gezeigt ist. Das heißt, der
zweite Maskenflächenverarbeitungsabschnitt 15 gibt
ein Signal aus, das angibt, ob schwarze Pixel auf dem Eingangsbild
entsprechend allen sechs Maskenflächen für jedes spezifische Bild vorliegen.
-
Der Außerhalb-Maskenflächenverarbeitungsabschnitt 14 führt eine
logische Verarbeitung oder eine arithmetische Verarbeitung auf einer
Anzahl von Außerhalb-Maskenflächendatenstücken aus
dem Maskenflächeneinstellabschnitt 12 durch, und
ist aus einem Außerhalb-Maskenflächenverarbeitungsteil
A 38, einem Außerhalb-Maskenflächenverarbeitungsteil
B 39, einem Außerhalb-Maskenflächenverarbeitungsteil
C 40 und einem Außerhalb-Maskenflächenverarbeitungsteil
D 41 aufgebaut, wie in 20 gezeigt
ist. Wie in 20 gezeigt ist,
nehmen der Außerhalb-Maskenflächenverarbeitungsteil
A 38, der Außerhalb-Maskenflächenverarbeitungsteil
B 39, der Außerhalb-Maskenflächenverarbeitungsteil
C 40 und der Außerhalb-Maskenflächenverarbeitungsteil
D 41, die entsprechend den zu erkennenden Bildern 1, 3, 4 bzw. 5 vorgesehen
sind, die Außerhalb-Maskenflächendaten
aus dem ersten Maskenflächeneinstellteil
20, dem zweiten Maskenflächeneinstellteil
21, dem dritten Maskenflächeneinstellteil 22 und
dem vierten Maskenflächeneinstellteil 23 auf,
und führen
eine vorbestimmte Verarbeitung auf den Eingangsdaten durch.
-
In der Ausführung sind der Außerhalb-Maskenflächenverarbeitungsteil
A 38, der Außerhalb-Maskenflächenverarbeitungsteil
B 39, der Außerhalb-Maskenflächenverarbeitungsteil
C 40 und der Außerhalb-Maskenflächenverarbeitungsteil
D 41 so geformt, das sie Schaltkreise realisieren, wie in 21 gezeigt sind. Das heißt, jeder
aus dem Außerhalb-Maskenflächenverarbeitungsteil
A 38, dem Außerhalb-Maskenflächenverarbeitungsteil
B 39, dem Außerhalb-Maskenflächenverarbeitungsteil
C 40 und dem Außerhalb-Maskenflächenverarbeitungsteil
D 41 führt
eine NOR-Verarbeitung
der zugeführten
Außerhalb-Maskenflächendatenstücke durch und
gibt das Ergebnis als ein 1-bit Signal REA, REB, REC, RED aus.
-
Wie oben beschrieben ist, kann die
in jedem zweiten Maskenflächenverarbeitungsteil
durchgeführte
Verarbeitung und die in jedem Außerhalb-Maskenflächenverarbeitungsteil
durchgeführte
Verarbeitung grundsätzlich
eine logische AND- oder OR-Verarbeitung
an den Eingangsdaten oder eine arithmetische Verarbeitung der Addition
der Eingangsdaten durchführen.
Grundsätzlich
müssen
die zweiten Maskenflächenverarbeitungsteile
nicht die gleiche Art von Verarbeitung durchführen und ferner müssen die Außerhalb-Maskenflächenverarbeitungsteile
auch nicht die gleiche Art von Verarbeitung durchführen. Das
heißt,
die Verarbeitungsinhalte der zweiten Maskenflächenverarbeitungsteile und
der Außerhalb-Maskenflächenverarbeitungsteile
sollten, basierend auf den Bildeigenschaften, dem Maskenflächeneinstellverfahren,
der Erkennungsgenauigkeit usw. eingestellt werden.
-
Der Bildbestimmungsabschnitt 16 bestimmt ob
ein spezifisches Bild vorliegt, basierend auf den Ausgängen (Ergebnisse
der Verarbeitung) des zweiten Maskenflächenverarbeitungsabschnitts 15 und des
Außerhalb-Maskenflächenverarbeitungsabschnitts 14,
und ist aus einem Bildbestimmungsteil A 42, einem Bildbestimmungsteil
B 43, einem Bildbestimmungsteil C 44 und einem Bildbestimmungsteil
D 45 aufgebaut, wie in 22 gezeigt
ist. Der Bildbestimmungsteil A 42, der Bildbestimmungsteil B 43, der
Bildbestimmungsteil C 44 und der Bildbestimmungsteil D 45 sind entsprechend
den zu erkennenden Bildern 1, 3, 4 bzw. 5 vorgesehen
und nehmen das Ausgangssignal R2A des zweiten Mas kenflächenverarbeitungsabschnitts 15 und
das Ausgangssignal REA des Außerhalb-Maskenflächenverarbeitungsabschnitts 14,
das Ausgangssignal R2B des zweiten Maskenflächenverarbeitungsabschnitts 15 und
das Ausgangssignal REB des Außerhalb-Maskenflächenverarbeitungsabschnitts 14,
das Ausgangssignal R2C des zweiten Maskenflächenverarbeitungsabschnitts 15 und
das Ausgangssignal REC des Außerhalb-Maskenflächenverarbeitungsabschnitts 14,
und das Ausgangssignal R2D des zweiten Maskenflächenverarbeitungsabschnitts 15 und das
Ausgangssignal RED des Außerhalb-Maskenflächenverarbeitungsabschnitts 14 auf.
-
Jeder aus dem Bildbestimmungsteil
A 42, dem Bildbestimmungsteil B 43, dem Bildbestimmungsteil C 44
und dem Bildbestimmungsteil D 45 bestimmt dass ein "spezifisches Bild
vorliegt", wenn die
Eingangssignale einer vorbestimmten Bedingung genügen. In
der Ausführung,
wie in 23 gezeigt ist,
führt jeder
aus dem Bildbestimmungsteil A 42, dem Bildbestimmungsteil B 43,
dem Bildbestimmungsteil C 44 und dem Bildbestimmungsteil D 45 eine
AND-Verarbeitung von zwei Eingangsignalen durch, und gibt das Ergebnis
als Ergebnis der Bestimmung JA, JB, JC, JD aus. Das heißt, wenn
die Ausgangsignale des zweiten Maskenflächenverarbeitungsabschnitts 15 und
des Außerhalb-Maskenflächenverarbeitungsabschnitts 14 beide
hoch für jede
spezifische Fläche
sind, wird ein hohes Signal, welches angibt, dass das "spezifische Bild
vorliegt" als das
Ergebnis der Bestimmung ausgegeben. Der Bildbestimmungsteil A 42,
der Bildbestimmungsteil B 43, der Bildbestimmungsteil C 44 und der
Bildbestimmungsteil D 45 führen
eine Bestimmung parallel in dem gleichen Zyklus durch.
-
Jeder Bildbestimmungsteil kann eine "Wahrscheinlichkeit
eines spezifischen Bilds" basierend
auf den Werten (Pegel) von zwei Eingangssignalen auffinden. Zum
Beispiel können
alle oder einige der Verarbeitungen in dem ersten Maskenflächenverarbeitungsabschnitt 13,
dem Außerhalb-Maskenflächenverarbeitungsabschnitt 14 und
dem zweiten Maskenflächenverarbeitungsabschnitt 15 Verarbeitungen sein,
die ein Ergebnis haben, das ternär
oder mehr ist (zum Beispiel arithmetische Verarbeitung), und die Ergebnisse
der Verarbeitung werden mit einem voreingestellten Schwellwert verglichen,
um die Wahrscheinlichkeit zu finden.
-
Der Erkennungsabschnitt 17 für das spezifische
Bild bestimmt schließlich,
ob das spezifische Bild vorliegt, basierend auf dem Ausgang des
Bildbestimmungsabschnitts 16 (Ergebnis der Bestimmung JA,
JB, JC, JD). Er kann eine OR-Funktion der Ergebnisse der Bestimmung
JA, JB, JC und JD durchführen
und das Ergebnis als das Ergebnis der Bestimmung ausgeben, wie in 24 gezeigt ist, oder kann
nur ein hohes Signal als das Ergebnis der Bestimmung ausgeben, wenn
nur eines der Ergebnisse der Bestimmung JA, JB, JC und JD hoch ist,
wie in 25 gezeigt ist.
-
Wenn jeder Ausgang des Bildbestimmungsabschnitts 16 die "Wahrscheinlichkeit
des spezifischen Bilds" ist,
kann der Spezifisches-Bild-Erkennungsabschnitt 17 annehmen,
dass er ein spezifisches Bild entsprechend dem Ausgang, welcher
alleinig die höchste
Wahrscheinlichkeit darstellt, erkennt, und bestimmen, dass das spezifische
Bild vorliegt. Ferner ist ein Schwellwert für die Wahrscheinlichkeit angegeben,
und es kann bestimmt werden, dass ein spezifisches Bild entsprechend
dem Ausgang, welcher die höchste
Wahrscheinlichkeit, die gleich oder höher als der Schwellwert ist,
erkannt wird. Zusätzlich,
wenn der Spezifisches-Bild-Erkennungsabschnitt 17 bestimmt,
dass ein spezifisches Bild vorliegt, kann er die Erkennungsergebnisda ten, welche
das Ergebnis der Bestimmung darstellen, und ein Signal mit einer
Information, die angibt, welches spezifisches Bild vorliegt, ausgeben.
-
(3) Spezifisches Verarbeitungsbeispiel
-
Als nächstes wird der Verarbeitungsinhalt der
beschriebenen Vorrichtung zur Bildverarbeitung mit einem spezifischen
Beispiel beschrieben. Hier sein angenommen, dass die spezifischen
Bilder die zu erkennenden Bilder 1, 3, 4 und 5 sind,
welche in 5A–5D gezeigt sind, dass ein
Eingangsbild das in 8 gezeigte
Eingangsbild ist, und dass Maskenflächen für die zu erkennenden Bilder 1, 3, 4 und 5 eingestellt
sind, wie in 13A–13D gezeigt ist. Es sei auch
angenommen, dass das Eingangsbild 9 durch eine Leseeinheit
in die Vorrichtung zur Bilderkennung eingelesen wird, oder durch
eine Kommunikationseinheit in die Vorrichtung zur Bilderkennung eingegeben
wird. Ferner sein angenommen, dass wenn das Eingangsbild 9 ein
Farb- oder Graustufenbild
ist, es in vorbestimmter Farbe und vorbestimmter Dichte binärisiert
wird, und dann dem Eingangsbildspeicherabschnitt 10 in
Folge als binäre
Digitaldaten zugeführt
wird. Es sei angenommen, dass der erste Maskenflächenverarbeitungsabschnitt 13 die
in 16 und 17 gezeigte Konfiguration
annimmt, der Außerhalb-Maskenflächenverarbeitungsabschnitt 14 die
in 20 und 21 gezeigte Konfiguration
annimmt, dass der zweite Maskenflächenverarbeitungsabschnitt 15 die
in 18 und 19 gezeigte Konfiguration
annimmt, und dass der Bildbestimmungsabschnitt 16 die in 22 und 23 gezeigte Konfiguration annimmt.
-
Wenn die ersten 10-Zeilen-Eingangsbilddaten
des Eingangsbilds 9 in dem Eingangsbildspeicherabschnitt 10 gespeichert
sind und die 11. Zeile-Eingangsbilddaten in Folge eingegeben sind,
gibt der Eingangsbildspeicherabschnitt 10 die gespeicherten
10-Zeilen-Eingangsbilddaten
plus die in Folge eingegebenen Eingangsbilddaten sequenziell aus.
Das heißt,
der Eingangsbildspeicherabschnitt 10 gibt die 11-Zeilen-Eingangsbilddaten,
welche die in Folge eingegebenen Eingangsbilddaten enthalten, an
den Bilddatenhalteabschnitt 11 sequenziell aus. Das Verfahren
wird wiederholt, bis die 11-Zeilen-Eingangsbilddaten, welche die
Letzte-Zeile-Eingangsbilddaten enthalten, an den Bilddatenrückhalteabschnitt 11 in
Folge ausgegeben werden. Als Ergebnis wird, wie in 9 gezeigt ist, das Eingangsbild 9 in der
Fensterfläche 19,
welche aus der Flip-Flop-Gruppe 18 des Bilddatenhalteabschnitts 11 geformt
ist, abgetastet. Die Erkennung des spezifischen Bilds wird während dem
Abtasten wiederholt. Hier wird ein Beispiel für eine Erkennungsverarbeitung,
die angewendet wird, wenn ein Bild in der Fensterfläche 19 nicht
als ein spezifisches Bild erkannt wird, und ein Beispiel für eine Erkennungsverarbeitung,
wenn ein Bild in der Fensterfläche 19 als
ein spezifisches Bild erkannt wird, angegeben, und die Beschreibung
ist vereinfacht.
-
(3-1) Wenn nicht als spezifisches
Bild erkannt
-
Zuerst wird die Erkennungsverarbeitung,
in welcher ein Bild in der Fensterfläche 19 nicht als ein spezifisches
Bild erkannt wird, diskutiert.
-
Wenn Eingangsbilddaten, welche das
Eingangsbild 9 darstellen, dem Bilddatenhalteabschnitt 11 Folge
zugeführt
werden, können
die Bilddaten in der Fensterfläche 19 Bilddaten
werden, wie in 26 gezeigt
ist, wo jedes weiße
Pixel als '0' dargestellt ist und
jedes schwarze Pixel als '1' dargestellt ist.
-
Wenn unter solchen Umständen der
Maskenflächeneinstellabschnitt 12 Bilddaten
innerhalb und außerhalb
der Maskenflächen
aus den Bilddaten in der Fensterfläche 19 gemäß den Einstellungen
der in 13A–13D gezeigten Maskenflächen extrahiert,
werden die extrahierten Daten in den ersten bis vierten Maskenflächeneinstellteilen 20–23 Daten,
wie in 27A–27D gezeigt ist, und werden
an den ersten Maskenflächenverarbeitungsabschnitt 13 ausgegeben.
Die Bilddaten außerhalb
der Maskenflächen werden
von dem Maskenflächeneinstellabschnitt 12 an
den Außerhalb-Maskenflächenverarbeitungsabschnitt 14 ausgegeben.
-
Der erste Maskenflächenverarbeitungsteil
A 24 gibt [R1AA, R1AB, R1RC, R1AD, R1AE, R1AF] = [0, 0, 0, 0, 0,
0], der erste Maskenflächenverarbeitungsteil
B 25 gibt [R1BA, R1BB, R1BC, R1BD, R1BE, R1BF] = [0, 0, 0, 1, 0,
1] , der erste Maskenflächenverarbeitungsteil
C 26 gibt [R1CA, R1CB, R1CC, R1CD, R1CE, R1CF] = [0, 0, 0, 0, 0,
0], und der erste Maskenflächenverarbeitungsteil
D 27 gibt [R1DA, R1DB, R1DC, R1DD, R1DE, R1DF] = [1, 0, 0, 0, 0,
0] an den zweiten Maskenflächenverarbeitungsabschnitt 15 aus.
Ferner, wenn der zweite Maskenflächenverarbeitungsabschnitt 15 jeweils '0' ausgibt und der Bildbestimmungsabschnitt 16 jeweils '0' ausgibt, dann bestimmt der Spezifisches-Bild-Erkennungsabschnitt 17,
dass die zu erkennenden Bilder nicht vorliegen, und gibt Erkennungsergebnisdaten aus,
welche die Bestimmung darstellen.
-
(3-2) Wenn als spezifisches
Bild erkannt
-
Zuerst wird die Erkennungsverarbeitung,
in welcher ein Bild in der Fensterfläche 19 als ein spezifisches
Bild erkannt wird, diskutiert.
-
Wenn Eingangsbilddaten, welche das
Eingangsbild 9 darstellen, dem Bilddatenhalteabschnitt 11 in
Folge zugeführt
werden, können
die Bilddaten in der Fensterfläche 19 Bilddaten
werden, wie sie in 26 gezeigt
sind. 28 ergibt sich
aus dem Verschieben der in 26 gezeigten
Fensterfläche
19 um einen Punkt nach rechts und um einen Punkt nach unten in der
Figur; wenn das Abtasten von dem Zustand in 26 voranschreitet, ergibt sich die Situation
in 28.
-
Unter solchen Umständen werden
die extrahierten Daten in den ersten bis vierten Maskenflächeneinstellteilen 20–23 Daten,
wie sie in den 29A–29D gezeigt sind, und werden
an den ersten Maskenflächenverarbeitungsabschnitt 13 ausgegeben.
Die Bilddaten außerhalb
der Maskenflächen werden
von dem Maskenflächeneinstellabschnitt 12 an
den Außerhalb-Maskenflächenverarbeitungsabschnitt 14 ausgegeben.
-
Der erste Maskenflächenverarbeitungsteil
A 24 gibt [R1AA, R1AB, R1AC, R1AD, R1AE, R1AF] = [0, 1, 0, 0, 0,
0] , der erste Maskenflächenverarbeitungsteil
B 25 gibt [R1BA, R1BB, R1BC, R1BD, R1BE, R1BF] = [1, 0, 0, 0, 0,
0] , der erste Maskenflächenverarbeitungsteil
C 26 gibt [R1CA, R1CB, R1CC, R1CD, R1CE, R1CF] = [1, 0, 0, 0, 0,
0] und der erste Maskenflächenverarbeitungsteil
D 27 gibt [R1DA, R1DB, R1DC, R1DD, R1DE, R1DF] = [1, 1, 1, 1, 1,
1] aus. In dem Außerhalb-Maskenflächenverarbeitungsabschnitt 14 wird
nur der Ausgang RED des Außerhalb-Maskenflächenverarbeitungsteils D41 '1'. In dem Bildbestimmungsabschnitt 16 wird nur
der Ausgang JD '1', um hierdurch zu
bestimmen, dass das zu erkennende Bild r vorliegt.
-
Wenn der Spezifisches-Bild-Erkennungsabschnitt 17 die
in 24 oder 25 gezeigte Konfiguration
annimmt, wird der Aus gang J '1' und die Erkennungsergebnisdaten,
welche angeben, dass das spezifische Bild erkannt ist, werden ausgegeben.
-
(3-3) Ergebnis der Verarbeitung
-
Die oben beschriebene Erkennungsverarbeitung
wird jedes Mal durchgeführt,
wenn sich die Bilddaten in dem Eingangsbild 9 ändern. Schließlich werden
die zu erkennenden Bilder 5, 3, 4 und 1 in
der Reihenfolge erkannt.
-
(4) Ergänzende Bemerkungen
-
Wie oben beschrieben ist, können gemäß der Vorrichtung
zur Bildverarbeitung ein spezifisches Bild und die Bilder, die durch
Drehen des spezifischen Bilds erzeugt werden, parallel erkannt werden.
-
Wenn die Verarbeitung in jedem Abschnitt der
Vorrichtung zur Bildverarbeitung in Synchronisierung mit dem Referenztakt
CLK durchgeführt
wird, werden die Verarbeitungszyklen wie in 30 gezeigt ist und eine Echtzeitverarbeitung
kann durchgeführt
werden. Selbstverständlich
stellt keine Verarbeitungsgeschwindigkeit ein Problem dar, wobei
eine Vielzahl von Verarbeitungsprozessen und Bestimmungsprozessen
in einem Taktzyklus durchgeführt werden
können.
-
III. Modifizierte Ausführungen
-
(1) Erste modifizierte
Ausführung
-
31 zeigt
die Konfiguration einer ersten modifizierten Ausführung der
beschriebenen Vorrichtung zur Bildverarbeitung. Die in der Figur
gezeigte Konfiguration unterscheidet sich von jener, die in 10 gezeigt ist, nur darin,
dass sie einen Maskenflächenspeicherabschnitt 46 umfasst.
Teile, die identisch oder ähnlich
zu jenen sind, die vorher im Zusammenhang mit 10 beschrieben wurden, werden in 31 mit den gleichen Bezugsziffern
bezeichnet und nicht mehr diskutiert.
-
In 31 speichert
der Maskenflächenspeicherabschnitt 46 Maskenflächeneinstellinformation (zum
Beispiel Maskenflächenkoordinaten)
und ein Maskenflächeneinstellabschnitt 12 stellt
die Maskenflächen,
basierend auf der Einstellinformation, die in dem Maskenflächenspeicherabschnitt 46 gespeichert
ist, ein. Deshalb wird der Maskenflächenspeicherabschnitt 46 seinerseits
austauschbar konfiguriert, wobei die Maskenflächen leicht geändert werden
können;
wenn ein zu erkennendes spezifisches Bild zu einen anderen Bild
geändert
wird, können
die Maskenflächen
für das
Bild leicht eingestellt werden. Zusätzlich kann auch die Erkennungsgenauigkeit verbessert
werden.
-
Natürlich kann die Datenerneuerung
durch Konfigurieren des Maskenflächenspeicherabschnitts 46,
derart, dass der Speicherinhalt von außerhalb gelesen und geschrieben
werden kann, erleichtert werden. Maskenflächeninformation eines nicht
gedrehten spezifischen Bilds und Informationen über Drehwinkel, mit welchen
das spezifische Bild gedreht ist, um die zu erkennenden Bilder zu
erzeugen, können in
dem Maskenflächenspeicherabschnitt 46 gespeichert
werden, und von der Information kann der Maskenflächeneinstellabschnitt 12 Maskenflächen für alle zu
erkennenden Bilder berechnen und einstellen. In diesem Fall kann
die erforderliche Speicherkapazität für den Maskenflächenspeicherabschnitt 46 verringert
werden.
-
(2) Zweite modifiziert
Ausführung
-
In einer zweiten modifizierten Ausführung der
Vorrichtung zur Bildverarbeitung wird, wenn ein Eingangsbild ein
Farbbild ist, die Erkennungsverarbeitung ohne Durchführen der
Binärisierung
durchgeführt.
Die in 10 gezeigte Konfiguration
kann als die Konfiguration der zweiten modifizierten Ausführung verwendet
werden, und deshalb werden die Bezugsziffern in 10 zur Beschreibung der Abschnitte der
zweiten modifizierten Ausführung
so verwendet wie sie sind. Hier wird angenommen, dass ein Eingangsbild
ein Farbbild mit R, G und B Farbsignalen ist, von denen jedes aus
acht Bit besteht.
-
In diesem Fall werden Daten, die
ein Pixel darstellen, zu 8 Bit × 3
Farben = 24 Bit, somit erfordert ein Eingangsbildspeicherabschnitt 10 einen
Zeilenpuffer, der geeignet ist, eine Vielzahl von Zeilen von 8-Bit
Pixeldaten für
jedes der R, G und B Farbsignale zu speichern. Die aus dem Eingangsbildspeicherabschnitt 10 gelesenen
Daten werden in einer aus einer Flip-Flop-Gruppe geformten Fensterfläche in einem
Bilddatenrückhalteabschnitt 11 gehalten. Die
Fensterfläche
wird in Ebenen für
jedes der R, G und B Farbsignale getrennt, und acht Flip-Flops,
die fähig
sind 8-Bit Daten zu speichern, werden jedem Pixel zugewiesen. Das
heißt,
angenommen, dass die Fensterfläche
eine Größe von m × n hat,
dann bilden m × n × 8 × 3 Flip-Flops
die Flip-Flop-Gruppe.
-
Ein Maskenflächeneinstellabschnitt 12 extrahiert
Bilddaten (Pixeldichtewerte) für
Maskenflächen, die
für jedes
zu erkennende Bild eingestellt sind, aus den in dem Bilddatenhalteabschnitt 11 gehaltenen Bilddaten
und extrahiert auch Bilddaten (Pixeldichtewerte) außerhalb
der Maskenflächen
für jedes
zu erkennende Bild. Ein erster Maskenflächenverarbeitungsabschnitt 13 führt eine
arithmetische Verarbeitung (zum Beispiel Addition) an den R, G und
B Pixeldichtewerten der Bilddaten für jede Maskenfläche, die
von dem Maskenflächeneinstellabschnitt 12 für jede Maskenfläche extrahiert
ist, durch, vergleicht das Ergebnis der Verarbeitung mit einem vorbestimmten
Wert, und gibt das Ergebnis der Verarbeitung für jede Maskenfläche basierend
auf dem Vergleichsergebnis aus. Ein zweiter Maskenflächenverarbeitungsabschnitt 15 führt eine
logische Verarbeitung oder arithmetische Verarbeitung an dem Ergebnis
der Verarbeitung für
jede Maskenfläche,
die von dem ersten Maskenflächenverarbeitungsabschnitt 13 für jedes
zu erkennende Bild bereitgestellt wird, durch, und gibt das Ergebnis
der Verarbeitung für
jedes zu erkennende Bild aus.
-
Andererseits, parallel mit der Verarbeitung des
ersten Maskenflächenverarbeitungsabschnitts 13 und
dem zweiten Maskenflächenverarbeitungsabschnitt 15,
führt der
Außerhalb-Maskenflächenverarbeitungsabschnitt 14 eine
arithmetische Verarbeitung (zum Beispiel Addition) an den R, G und
B Pixeldichtewerten der Außerhalb-Maskenflächedaten,
die von dem Maskenflächeneinstellabschnitt 12 für jedes spezifische
Bild extrahiert sind, durch, vergleicht das Ergebnis der Verarbeitung
mit einem vorbestimmten Wert, und gibt das Ergebnis der Verarbeitung
für jedes
zu erkennende Bild basierend auf dem Vergleichsergebnis aus.
-
Ein Bildbestimmungsabschnitt 16 bestimmt, ob
jedes zu erkennende Bild vorliegt, basierend auf den Ergebnissen
der Verarbeitung des zweiten Maskenflächenverarbeitungsabschnitts 15 und
dem Außerhalb-Maskenflächenverarbeitungsabschnitt 14, und
gibt das Ergebnis der Bestimmung aus. Zuletzt bestimmt ein Spezifisches-Bild-Erkennungsabschnitt 17,
ob die zu erkennenden Bilder in dem Eingangsbild vorliegen, aus
dem Ergebnis der Bestimmung des Bildbestimmungsabschnitts 16 für jedes
zu erkennende Bild.
-
IV. Ergänzende Bemerkungen
-
In den oben beschriebenen Ausführungen und
modifizierten Ausführungen
wird eine einfache Verarbeitung für einfache spezifische Bilder
durchgeführt,
jedoch kann die Erfindung auch leicht unter komplizierteren Bedingungen
angewendet werden, was unnötig
ist zu erwähnen.
Insbesondere werden das Maskenflächeneinstellverfahren,
die Verarbeitungsinhalte, die Bestimmungskriterien und dergleichen
unter Berücksichtigung
der Eigenschaften der Eingangsbilder, der Eingangsbildmittel usw.
eingestellt, wobei die Erkennungsgenauigkeit verbessert werden kann,
und somit kann die Erfindung auf jedes Bild angewendet werden. Es
ist offensichtlich, dass die Erfindung angewendet werden kann, wenn
der Drehwinkel eines spezifischen Bilds willkürlich ist, jedoch kann sie
auch angewendet werden, wenn verschiedene Typen von Bildern gehandhabt
werden. Ferner werden die Pixeldichtewerte außerhalb der Maskenflächen auch
bei der Durchführung
der Bestimmung berücksichtigt,
jedoch ist die Erfindung hierauf nicht beschränkt; eine Bestimmung kann nur basierend
auf den Pixeldichtewerten innerhalb der Maskenflächen abhängig von dem Eingangsbildseigenschaften
durchgeführt
werden. Von einem Aufzeichnungsmedium, welches ein Programm aufzeichnet,
dass das Verfahren zur Bildverarbeitung beschreibt, wird das Programm
gelesen und von einem Computersystem ausgeführt, wobei ein System entsprechend
der Vorrichtung zur Bildverarbeitung auch verwendet werden kann.
-
Wie oben beschrieben ist, können gemäß der Erfindung
eine Vielzahl von zu erkennenden Bildern, einschließlich einem
spezifischen Bild und Bilder, die durch Drehen des spezifischen
Bilds erzeugt werden, in Echtzeit mit einer hohen Genauigkeit gemäß einer
einfachen Verarbeitung und Konfiguration erkannt werden. Ferner
wird eine Anzahl von zu erkennenden Bildern unabhängig erkannt,
welche somit in Konkurrenz erkannt werden, wobei die Erkennungsverarbeitung
mit hoher Geschwindigkeit durchgeführt werden kann.
-
Obgleich nur bestimmte Ausführungen
der Erfindung in spezifischer Weise beschrieben worden sind, ist
es offensichtlich, dass zahlreiche Modifikationen daran vorgenommen
werden können,
ohne aus dem Umfang der Erfindung, wie sie in den beigefügten Ansprüchen definiert
ist, zu gelangen.
-
Referenzliste zu 1
-
- START = ANFANG
- END = ENDE
- YES = JA
- NO = NEIN
- S1 = BESTIMME SPEZIFISCHES BILD
- S2 = BESTIMME DREHWINKEL DES SPEZIFISCHEN BILDS
- S3 = BESTIMME MITTELPOSITION DER DREHUNG DES SPEZIFISCHEN BILDS
- S4 = TEILE ZU ERKENNENDES BILD IN FLÄCHEN
- S5 = BEREITSTELLEN FENSTERFLÄCHE
- S6 = IN ÜBEREINSTIMMUNG
BRINGEN VON FENSTERFLÄCHE
MIT DER MITTELPOSITION DES ZU ERKENNENDEN BILDS
- S7= EINSTELLEN MASKENFLÄCHEN
IN FENSTERFLÄCHE
- S8 = ABTASTEN EINGANGSBILD IN FENSTERFLÄCHE
- S9 = ENDE DES BILDS?
- S10 = DURCHFÜHREN
VERARBEITUNG IN JEDER MASKENFLÄCHE
- S11 = BERECHNE ERGEBNIS DER BESTIMMUNG VON JEDEM ZU ERKENNEN-DEN BILD (JEDE DREHUNG)
- S12 = IST ES BESTIMMT, DASS ZU ERKENNENDES BILD VORLIEGT?
- S13 = NEHME AN, DASS SPEZIFISCHES BILD ERFASST IST
- S14 = NEHME AN, DASS SPEZIFISCHES BILD NICHT ERFASST IST
-
Referenzliste zu 2
-
- SPECIFIC IMAGE = SPEZIFISCHES BILD
-
Referenzliste zu 3
-
- SPECIFIC IMAGE = SPEZIFISCHES BILD
- CENTER POSITION = MITTELPOSITION
-
Referenzliste zu 4A
-
- SPECIFIC IMAGE = SPEZIFISCHES BILD
-
Referenzliste zu 4B
-
- SPECIFIC IMAGE = SPEZIFISCHES BILD
-
Referenzliste zu 4C
-
- SPECIFIC IMAGE = SPEZIFISCHES BILD
-
Referenzliste zu 5A
-
-
Referenzliste zu 6
-
- WINDOW AREA = FENSTERFLÄCHE
-
Referenzliste zu 7A
-
-
Referenzliste zu 8
-
- INPUT IMAGE = EINGANGSBILD
-
Referenzliste zu 10
- INPUT
IMAGE DATA
- EINGANGSBILDDATEN
- 10
- EINGANGSBILDSPEICHERABSCHNITT
- 11
- BILDDATENHALTEABSCHNITT
- 12
- MASKENFLÄCHENEINSTELLABSCHNITT
- 13
- ERSTER
MASKENFLÄCHENVERARBEITUNGSABSCHNITT
- 14
- AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSABSCHNITT
- 15
- ZWEITER
MASKENFLÄCHENVERARBEITUNGSABSCHNITT
- 16
- BILDBESTIMMUNGSABSCHNITT
- 17
- SPEZIFISCHES-BILD-ERKENNUNGSABSCHNITT
- RECOGNITION
RESULT DATA
- ERKENNUNGSERGEBNISDATEN
-
Referenzliste zu 11
-
- FLIP-FLOP GROUP = FLIP-FLOP-GRUPPE
-
Referenzliste zu 12
-
- WINDOW AREA = FENSTERFLÄCHE
-
Referenzliste zu 13A
-
- MASK AREA OF FIRST MASK AREA SETTING PART = MASKENFLÄCHE DES
ERSTEN MASKENFLÄCHENEINSTELLTEILS
-
Referenzliste zu 13B
-
- MASK AREA OF SECOND MASK AREA SETTING PART = MASKENFLÄCHE DES
ZWEITEN MASKENFLÄCHENEINSTELLTEILS
-
Referenzliste zu 13C
-
- MASK AREA OF THIRD MASK AREA SETTING PART = MASKENFLÄCHE DES
DRITTEN MASKENFLÄCHENEINSTELLTEILS
-
Referenzliste zu 13D
-
- MASK AREA OF FOURTH MASK AREA SETTING PART = MASKENFLÄCHE DES
VIERTEN MASKENFLÄCHENEINSTELLTEILS
-
Referenzliste zu 14
- FROM
IMAGE DATA RETENTION SECTION
- VOM
BILDDATENHALTEABSCHNITT
- 20
- ERSTER
MASKENFLÄCHENEINSTELLTEIL
- 21
- ZWEITER
MASKENFLÄCHENEINSTELLTEIL
- 22
- DRITTER
MASKENFLÄCHENEINSTELLTEIL
- 23
- VIERTER
MASKENFLÄCHENEINSTELLTEIL
- TO
FIRST MASK AREA OPERATION SECTION AND OUTSIDE-MASK-AREA OPERATION
SECTION
- ZU
DEM ERSTEN MASKENFLÄCHENVERARBEITUNGSABSCHNITT UND
AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSABSCHNITT
-
Referenzliste zu 15
- 20
- ERSTER
MASKENFLÄCHENEINSTELLTEIL
- 21
- ZWEITER
MASKENFLÄCHENEINSTELLTEIL
- 22
- DRITTER
MASKENFLÄCHENEINSTELLTEIL
- 23
- VIERTER
MASKENFLÄCHENEINSTELLTEIL
- 24
- ERSTER
MASKENFLÄCHENVERARBEITUNGSTEIL
A
- 25
- ERSTER
MASKENFLÄCHENVERARBEITUNGSTEIL
B
- 26
- ERSTER
MASKENFLÄCHENVERARBEITUNGSTEIL
C
- 27
- ERSTER
MASKENFLÄCHENVERARBEITUNGSTEIL
D
-
Referenzliste zu 16
- MASK
AREA DATA
- MASKENFLÄCHENDATEN
- OPERATION
RESULT
- ERGEBNIS
DER VERARBEITUNG
- 28
- FLÄCHENDATEN-A-VERARBEITUNGSTEIL
A
- 29
- FLÄCHENDATEN-A-VERARBEITUNGSTEIL
B
- 30
- FLÄCHENDATEN-A-VERARBEITUNGSTEIL
C
- 31
- FLÄCHENDATEN-A-VERARBEITUNGSTEIL
D
- 32
- FLÄCHENDATEN-A-VERARBEITUNGSTEIL
E
- 33
- FLÄCHENDATEN-A-VERARBEITUNGSTEIL
F
-
Referenzliste zu 18
- 24
- ERSTER
MASKENFLÄCHENVERARBEITUNGSTEIL
A
- 25
- ERSTER
MASKENFLÄCHENVERARBEITUNGSTEIL
B
- 26
- ERSTER
MASKENFLÄCHENVERARBEITUNGSTEIL
C
- 27
- ERSTER
MASKENFLÄCHENVERARBEITUNGSTEIL
D
- 34
- ZWEITER
MASKENFLÄCHENVERARBEITUNGSTEIL
A
- 35
- ZWEITER
MASKENFLÄCHENVERARBEITUNGSTEIL
B
- 36
- ZWEITER
MASKENFLÄCHENVERARBEITUNGSTEIL
C
- 37
- ZWEITER
MASKENFLÄCHENVERARBEITUNGSTEIL
D
-
Referenzliste zu 20
- 20
- ERSTER
MASKENFLÄCHENEINSTELLTEIL
- 21
- ZWEITER
MASKENFLÄCHENEINSTELLTEIL
- 22
- DRITTER
MASKENFLÄCHENEINSTELLTEIL
- 23
- VIERTER
MASKENFLÄCHENEINSTELLTEIL
- 38
- AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSTEIL
A
- 39
- AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSTEIL
B
- 40
- AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSTEIL
C
- 41
- AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSTEIL
D
-
Referenzliste zu 22
- 42
- BILDBESTIMMUNGSTEIL
A
- 43
- BILDBESTIMMUNGSTEIL
B
- 44
- BILDBESTIMMUNGSTEIL
C
- 45
- BILDBESTIMMUNGSTEIL
D
-
Referenzliste zu 30
-
- DATA INPUT TO INPUT IMAGE STORAGE SECTION = DATENEINGANG
ZU EINGANGSBILDSPEICHERABSCHNITT
- DATA INPUT TO IMAGE DATA RETENTION SECTION = DATENEINGANG ZU
BILDDATENHALTEABSCHNITT
- DATA INPUT TO MASK AREA SETTING SECTION = DATENEINGANG ZU MAS-KENFLÄCHENEINSTELLABSCHNITT
- DATA INPUT TO FIRST MASK AREA OPERATION SECTION = DATENEINGANG
ZU ERSTEM MASKENFLÄCHENVERARBEITUNGSABSCHNITT
- DATA INPUT TO SECOND MASK AREA VERARBEITUNG SECTION = DATEN-EINGANG ZU ZWEITEM
MASKENFLÄCHENVERARBEITUNGSABSCHNITT
- DATA INPUT TO OUTSIDE-MASK-AREA VERARBEITUNG SECTION = DATEN-EINGANG ZU AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSABSCHNITT
- DATA INPUT TO IMAGE DETERMINATON SECTION = DATENEINGANG ZU BILDBESTIMMUNGSABSCHNITT
- DATA INPUT TO SPECIFIC IMAGE RECOGNITION SECTION = DATENEIN-GANG ZU SPEZIFISCHES-BILD-ERKENNUNGSABSCHNITT
- RECOGNITION RESULT OUTPUT = ERKENNUNGSERGEBNISAUSGANG
- DATA a = DATEN
- AREA = FLÄCHE
- DATA abc ... DENOTES DATA WIDTH 1 = DATA abc ... BEZEICHNET
DATEN-BREITE 1
- DATA ABC ... DENOTES DATA WIDTH 11 = DATA ABC ... BEZEICHNET
DA-TENBREITE 11
- AREA abc ... DENOTES PROCESSING RESULT FOR DATA IN WINDOW =
Fläche
abc ... BEZEICHNET ERGEBNIS DER VERARBEITUNG FÜR DATEN IN FENSTER
-
Referenzliste zu 31
- INPUT
IMAGE DATA
- INGABE
BILDDATEN
- RECOGNITION
RESULT DATA
- ERKENNUNGSERGEBNISDATEN
- 10
- EINGANGSBILDSPEICHERABSCHNITT
- 11
- BILDDATENHALTEABSCHNITT
- 12
- MASKENFLÄCHENEINSTELLABSCHNITT
- 13
- ERSTER
MASKENFLÄCHENVERARBEITUNGSABSCHNITT
- 14
- AUSSERHALB-MASKENFLÄCHENVERARBEITUNGSABSCHNITT
- 15
- ZWEITER
MASKENFLÄCHENVERARBEITUNGSABSCHNITT
- 16
- BILDBESTIMMUNGSABSCHNITT
- 17
- SPEZIFISCHES-BILD-ERKENNUNGSABSCHNITT
- 46
- MASKENFLÄCHENSPEICHERABSCHNITT