DE19521346C2 - Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür - Google Patents
Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafürInfo
- Publication number
- DE19521346C2 DE19521346C2 DE19521346A DE19521346A DE19521346C2 DE 19521346 C2 DE19521346 C2 DE 19521346C2 DE 19521346 A DE19521346 A DE 19521346A DE 19521346 A DE19521346 A DE 19521346A DE 19521346 C2 DE19521346 C2 DE 19521346C2
- Authority
- DE
- Germany
- Prior art keywords
- feature
- image
- images
- similarity
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/0006—Industrial image inspection using a design-rule based approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20061—Hough transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Description
Die vorliegende Erfindung betrifft ein Bilduntersuchungs/-erkennungs-Verfahren zur visuellen
Untersuchung von Objekten, beispielsweise auf Fehler, oder zu deren visueller Sortierung oder
Erkennung unter Verwendung ihrer Bilder. Die Erfindung betrifft außerdem eine Vorrichtung zur
Erzeugung von Referenzdaten zur Verwendung bei der visuellen Untersuchung oder Erkennung
von Objekten.
Es sollen zunächst typische Untersuchungsverfahren beschrieben werden, wie sie bislang
verwendet wurden.
Unter Bezugnahme auf Fig. 1 wird ein herkömmliches Untersuchungsverfahren beschrieben, das
eine Binärquantisierungsverarbeitung verwendet. Es sei angenommen, daß Fig. 1A ein projizier
tes Bild eines untersuchten Objekts darstellt, und davon ausgegangen, daß seine visuelle Unter
suchung der Bestimmung des Verschmutzungsgrades eines Chips oder Ausdehnung eines
zentralen rechteckigen Bereichs 11a des Bildes dient.
Gemäß Darstellung in Fig. 1A nimmt die Intensität des Bildes in der Reihenfolge der Bereiche
11b - 11c - 11d - 11a zu. Die Intensitätsvariation auf einer gestrichelten Linie 12, die durch die
Mitten der Bereiche 11a und 11d des Bildes verläuft, ist durch Kurve 15 in Fig. 1B dargestellt,
die durch Addition einer stufenartigen Variation, die durch Kurve 13 dargestellt ist, und einer
Variation nach Kurve 14 erhalten wurde. Die Kurve 15 wird dadurch binärquantisiert (gemu
stert), daß einzelne Intensitätswerte in jene unterhalb und jene oberhalb eines Schwellenwerts
16 aufgeteilt werden. Der Schwellenwert 16 für diese Binärquantisierung ist gemäß Darstellung
in Fig. 1C auf einen Intensitätswert entsprechend der minimalen Anzahl von Pixeln zwischen
Intensitätshistogrammkurven 17a und 17d in den Bereichen 11a und 11d eingestellt. Gewöhn
lich liegt solch ein stufenartiges Muster, wie es durch die Kurve 13 dargestellt ist, nicht vor. In
der Praxis bietet sich ein Muster, wie es durch die Kurve 15 dargestellt ist, das Intensitätsvaria
tionen enthält, welche von einem Fleck auf der Oberfläche des Objekts oder einer Änderung
seines Beleuchtungszustands hervorgerufen werden, und das Muster wird einer Binärquantisie
rungsverarbeitung unter Verwendung des Schwellenwerts 16 unterzogen. Die Binärquantisie
rungsverarbeitung wird über die gesamte Fläche des angegebenen rechteckigen Bereichs 11a
ausgeführt und das resultierende Intensitätsverteilungsmuster in binärer Darstellung wird
geprüft, um festzustellen, ob das untersuchte Objekt gut ist. Es ist wünschenswert, den
Schwellenwert 16 unter Vorwegnahme solch eines Intensitätsvariationsmusters 14 einzustellen,
was jedoch in vielen Fällen große Schwierigkeiten beinhaltet. Wenn der Schwellenwert 16 auf
einen falschen Wert eingestellt ist, werden Variationskomponenten 19, wie etwa die diagonal
schraffierten Flächen in Fig. 1D, unter dem direkten Einfluß einen Flecks oder von Änderungen
des Beleuchtungszustands erzeugt, und die Konfiguration des binärquantisierten Musters des
Rechteckbereichs 11a stimmt wegen dieser Variationskomponenten nicht mit seiner tatsächli
chen Konfiguration überein. Es ist damit unmöglich, Defekte des Objekts, wie etwa Chips, und
deren Ausdehnungen festzustellen und zu beurteilen.
Unter Bezugnahme auf Fig. 2 wird als nächstes ein anderes herkömmliches visuelles Untersu
chungsverfahren beschrieben, das von einem normierten Intensitätskorrelationsschema
Gebrauch macht. Die Intensitätsverteilung Mkl, wobei k = 1, . . ., K und l = 1, . . ., L ist, wird
über die gesamte Fläche eines Standardfensters 22 in einem in Fig. 2A gezeigten Standardbild
21 berechnet, bei dem es sich um das zu untersuchende Objekt handelt, und die Verteilung
wird als ein Intensitätsmuster registriert, wie es in Fig. 2B gezeigt ist. Ein Bereich 24 in einem
Untersuchungsbild 23, das in Fig. 2C gezeigt ist, und dem Standardfenster 22 entspricht, wird
von der linken oberen Ecke zur rechten unteren Ecke des Bereichs 24 abgetastet, und für jeden
Abtastpunkt (i, j) wird die folgende Berechnung ausgeführt, um einen Korrelationsfaktor γÿ zu
berechnen (wobei -1 γÿ 1).
wobei M₀ der Intensitätsmittelwert in dem Standardfenster 22 ist und T₀ der Intensitätsmittel
wert in dem Bereich 24 des Untersuchungsbildes ist.
Der Maximalwert γmax wird anhand dieser Korrelationsfaktoren γÿ ermittelt, die für einzelne
Abtastpunkte definiert sind. Je dichter der Maximalwert γmax bei 1 liegt desto mehr wird das
untersuchte Objekt als gut beurteilt. Der Korrelationsfaktor ändert sich nicht mit einer Versatz
variation der Intensität, unterliegt aber Änderungen entsprechend einem Fleck, einer Änderung
des Beleuchtungszustands oder einer ähnlichen ungleichmäßigen Intensitätsänderung, wie durch
die schraffierten Flächen 26′ dargestellt, die von einem Standardintensitätsmuster 25 und einem
untersuchten Intensitätsmuster 26 in Fig. 2D umgeben sind. D.h., der Korrelationsfaktor ändert
sich selbst bei einem guten Objekt stark, was dazu führt, daß das untersuchte Objekt fehlbeur
teilt wird.
Zum Implementierung der oben beschrieben Bild- oder visuellen Untersuchungsverfahren ist es
wichtig, welche Bildmerkmale extrahiert werden sollen (Bildmerkmalextraktionsverfahren)
welche Merkmale verwendet werden sollen (Bildmerkmalauswahlverfahren) und wie das ausge
wählte Bildmerkmal verwendet werden soll (Anpaß- oder Übereinstimmungsverfahren.
Merkmalsbildextraktionsverfahren sind beispielsweise in der JP 63-213085 A2, der JP
63-213093 A2 und der JP 63-226785 A2 offenbart. Bei dem Stand der Technik der JP
63-226785 A2 wird das Objektbild verarbeitet, um daraus ein Bereichsmerkmalbild und ein
Konturmerkmalbild zu extrahieren, von denen ersteres die Eigenschaften seines bezeichneten
Bereichs wie die Intensitätsstatistik, Komplexität und Ersteckung
des Bildes reflektieren, während letzteres die Eigenschaften seiner Kontur wie Kanten und ihre
Biegung reflektieren. Der oben erwähnte angegebene Bereich in dem Bereichsmerkmalbild ist ein
durch lokalisierte Filterung zu verarbeitender lokalisierter Bereich, nicht ein durch Segmentierung
erhaltener Bereich.
Die Intensitätsstatistik ist ein Merkmalswert eines Pixels, der durch die Varianz oder Streuung
des Intensitätswerts innerhalb eines bestimmten Extraktionsfeldradius von dem Pixel definiert
ist. Die Komplexität ist ein Merkmalswert jedes Pixels, der durch den Mittelwert der Gesamt
summe von Kanten akkumuliert auf jeweiligen radialen Abtastlinien von dem Pixel innerhalb
eines bestimmten Extraktionsfeldradius definiert ist. In diesem Fall gilt wt(r) =a/rk (wobei a und k
Konstante sind und r die Adresse der jeweiligen Abtastlinie ist), um die Ausgangsschärfe zu
erhöhen und, im Hinblick auf die Berechnung der wahren Kantendichte, wird keine einfache
akkumulierte Anzahl von Kanten verwendet, sondern es wird die Häufigkeit akkumuliert, mit der
jede Abtastlinie Kanten kreuzt. Die Erstreckung ist eine Größe entsprechend der Fläche des
Bereichs und ist ein Merkmalswert jedes Pixels, der durch den Mittelwert der Längen radialer
Abtastlinien von einem Pixel innerhalb eines bestimmten Extraktionsfeldradius jeweils zu Kanten
definiert ist, die die Abtastlinien das erste Mal treffen. Die Kantenbiegung wird als die Differenz
(eine quadratische Norm) zwischen der jeweiligen Richtung von jedem Pixel zur Kante innerhalb
eines bestimmten Extraktionsfeldradius und der jeweiligen Richtung der Kante von dem Nach
barpixel berechnet. Wegen des Integrationseffekts ist dieses Merkmal äußerst immun dagegen,
von einem Bruch in der Kante infolge einer externen Störung beeinflußt zu werden.
Das Bereichsmerkmalbild und das Konturmerkmalbild sind Bildmerkmale, die zueinander
komplementär sind. Das Bereichsmerkmal allein kann nicht ausreichend die Konfiguration des
Objekts repräsentieren, und das Konturmerkmal allein kann ebenso wenig ausreichend die Diffe
renz der Textur repräsentieren. Darüber hinaus unterscheiden sich das Bereichsmerkmalbild und
das Konturmerkmalbild in der Empfindlichkeit gegenüber Rauschen. Das Bereichsmerkmalbild
zeigt über einen weiten Bereich keine Streuung, selbst wenn aufgrund von Rauschen einige
Brüche in der Kontur vorhanden sind. Das Anwenden solcher Bildmerkmale verschiedener
Eigenschaften bei der Objektuntersuchung und -erkennung dient dazu, das Bild von verschie
denen Winkeln darzustellen, und die Verwendung vieler solcher komplementärer Merkmalsbilder
stellt eine hohe Zuverlässigkeit bei der Untersuchung und Erkennung von Objekten sicher.
Die Verwendung des Bildmerkmalextraktionsverfahrens und des Übereinstimmungsverfahrens
sind bereits in der JP 04-175885 A2 mit dem Titel "Bildmerkmalauswahlverfahren bei der
verallgemeinerten Hough-Transformation" vorgeschlagen worden. Fig. 3 zeigt ein Flußdiagramm
einer in dem vorgeschlagenen Bildmerkmalauswahlverfahren enthaltenen Prozedur.
Die Prozedur beginnt mit Schritt S1, in welchem Standardproben für jeweilige Kategorien
ausgewählt werden, d. h. gute und nicht gute (schlechte) Objekte bei einer Untersuchung, und
eine Vielzahl von einander zu unterscheidender Objekte bei einer Sortierung und Erkennung.
Merkmalsbilder unterschiedlicher Eigenschaften werden von den Probenbildern extrahiert und
als Standardmerkmalsbilder verwendet. Dann werden für jedes Standardmerkmalsbild Merkmals
punkte ausgewählt. Wenn das Merkmalsbild beispielsweise ein Kantenbild ist, wird jeder Pixel
an jedem Punkt (ein Merkmalspunkt), der jeweils eine Kante repräsentiert, aus dem Kantenbild
ausgewählt. Wenn das Merkmalsbild ein Intensitätsbild ist, wird jeder Pixel (ein Merkmalspunkt),
der einen jeweiligen quantisierten Intensitätswert annimmt (ein Merkmalswert), aus dem Intensi
tätsbild ausgewählt. Im Schritt S2 wird eine Referenztabelle für jedes Merkmal der jeweiligen
Kategorie entsprechend solch einem ausgewählten Merkmalspunkt vorbereitet. Die in Fig. 4 mit
27 bezeichnete Referenztabelle verwendet jeden Merkmalswert fi als einen Index zum Halten der
Position jedes Pixels des Merkmalswerts (d. h. des Merkmalspunkts in dem Merkmalsbild) als
einen Polarkoordinatenvektor (γi, αi), wobei i = 1 . . ., Np (Np ist die Anzahl von Merkmalspunk
ten), mit dem Ursprung als einem Referenzpunkt. Der Referenzpunkt ist im Prinzip kein besonde
rer Punkt, es ist aber im Stand der Technik bekannt, daß ein Transformationsfehler bei der
verallgemeinerten Hough-Transformation minimalisiert wird, wenn der Referenzpunkt an die
Stelle des Schwerpunkts eines Objekts gesetzt wird.
Im Schritt S3 wird ein Merkmalsbild jedes Merkmals für jede Kategorie von M Proben mit
verschiedenen externen Störungen extrahiert, und das Merkmalsbild und die Referenztabelle, die
im Schritt 2 vorbereitet wurde, werden zur Ausführung der verallgemeinerten Hough-Transfor
mation verwendet.
Unter Bezugnahme auf Fig. 4 wird das Prinzip der Ableitung der verallgemeinerten Hough-Trans
formation anhand einer Kante als Beispiel beschrieben. Ein Kantenbild (ein Standardmerkmals
bild) 28 eines Standardbildes stellt Konturpunkte eines Objekts dar. Also ist jeder Konturpunkt
ein Merkmalspunkt des Kantenbildes; sein Merkmalswert, d. h. ein Kantenwert ist "1" während
ein Kantenwert mit Ausnahme des Konturpunktes "0" ist. Folglich wird im Schritt S2 nur der
Wert "1" an dem Kantenpunkt als ein Index in einer Indexspalte des Merkmalspunktwerts fi der
Referenztabelle 27 gespeichert, und die Polarkoordinatenadresse (γi, αi) jedes Bildes (des
Merkmalspunktes) pi eines Konturbildes (eines Kantenbildes) 29 des Kantenbildes 28 des Stan
dardbildes, wobei i=1 . . ., Np (wobei Np die Anzahl von Konturpunkten, d. h. die Anzahl von
Merkmalspunkten ist) wird in einer Adressenspalte der Referenztabelle 27 gespeichert.
Als nächstes wird beschrieben, wie ein unbekanntes Eingangsbild 31 unter Verwendung der
Referenztabelle 27 in Schritt 3 verarbeitet wird. Die Parameter, deren Berechnung erwünscht
ist, sind in diesem Fall die Position und Lage (Rotationswinkel) des Objekts des Eingangsbildes
31. Die Position des Objekts ist die Position des Referenzpunkts (des Ursprungs der Polarkoor
dinaten), der bereits in dem Standardmerkmalsbild 28 bestimmt wurde, d. h. der Referenzpunkt
des Objekts in dem Eingangsbild 31. Für das Eingangsbild 31 wird ein Merkmalsbild, das mit
dem Standardmerkmalsbild identisch ist, d. h. ein Kantenbild 32 erzeugt, und nur, wenn der
Kanten wert jedes Pixels mit den orthogonalen Koordinaten (x, y) des Kantenbildes 32 "1" ist,
was der in der Referenztabelle 27 gespeicherte Wert (der Merkmalswert) ist, werden die Polar
koordinatenadressen (γi, αi) die in der Referenztabelle 27 entsprechend dem Merkmalswert
gespeichert sind, nacheinander ausgelesen, um die folgende Adressenübersetzung auszuführen:
xG = x + yicos (αi+Θ
yG = y + yisin (αi+Θ
yG = y + yisin (αi+Θ
wobei Θ der Rotationswinkel des Objekts ist. Es sei nun der Kürze halber angenommen, daß der
Rotationswinkel Θ des Objekts vorbekannt ist. Die so durch diese Adressenübersetzung errech
neten Koordinaten (xG, yG) stellen die Position dar, die wahrscheinlich der Referenzpunkt des
Objekts ist, der vorhergesagt wurde. Wie in Fig. 5 gezeigt wird jede Adresse (xG, yG), die für
eine Pixelposition (x, y) umgesetzt wurde, wo der Kantenwert "1" erhalten wurde, mit eins zu
dem Wert an der Position (xG, yG) auf einem Akkumulatorarray 34 "votiert", der einen Parame
terraum darstellt. D.h., alle in der Referenztabelle 27 gespeicherten Adressen werden der Reihe
nach aus dieser ausgelesen, und zwar entsprechend beispielsweise dem Punkt A in einem
unbekannten Kantenmerkmalsbild 32 und dann umgesetzt, und das aufeinanderfolgende "Votie
ren" dieser umgesetzten Adressen (xG, yG) zu dem Wert an der Position (xG, yG) auf dem
Akkumulatorarray 34 bedeutet, daß eine Ortskurve (des Werts "1") 35a, bei der es sich wahr
scheinlich um den Referenzpunkt handelt, physisch auf dem Akkumulatorarray 34 abgelegt
wird. Mittels Durchführen einer ähnlichen Verarbeitung für die Punkte B und C in dem unbe
kannten Kantenmerkmalsbild 32 werden Ortskurven 35b und 35c erhalten. Der Wert an jeder
Position (xG, yG) in dem Akkumulatorarray 34 ist ein votierter (akkumulierter) Wert. Wenn also
die Ortskurven 35b und 35c die Ortskurve 35a einmal schneiden, geht der Wert am Schnitt
punkt auf 2, und wenn sie die Ortskurve 35a zweimal schneiden, geht der Wert am Schnitt
punkt auf 3. Nimmt man an, daß die relative Position des Kantenbildes des unbekannten
Kantenmerkmalsbildes 32 zu dem Kantenbild 29 des Standardkantenmerkmalsbildes 28 wenig
stens an den Punkten A, B und C unverändert gehalten wird, schneiden sich die drei Ortskurven
35a, 35b und 35c in einem Punkt 36. Mittels Durchführung dieser Verarbeitung für alle Kanten
punkte auf dem unbekannten Kantenmerkmalsbild 32 sowie für die oben erwähnten drei Punkte,
schneiden sich Ortskurven, die wahrscheinlich der Referenzpunkt in dem Akkumulatorarray 34
sind, im selben Punkt Np Male, wenn das Objekt des Eingangsbildes 31 mit dem Objekt des
Standardbildes exakt übereinstimmt. Die Häufigkeit der Ortskurvenüberschneidung, d. h. die
akkumulierte Votierungsverteilung erhält man, wie beispielsweise durch die Kurve 37 in Fig. 4
dargestellt. Die Berechnung des maximalen Punkts (Position) und des maximalen Spitzenwerts
(maximalen Häufigkeits- bzw. Frequenzwerts) der Verteilung dient der Berechnung der Position
des Referenzpunkts in dem Eingangsbild 31 und seiner Kreisförmigkeit relativ zu dem Standard
bild 21. Wenn der Rotationswinkel Θ unbekannt ist, wird er mit einer Schrittweite ΔΘ über den
Bereich des Winkels Θ allein variiert und eine ähnliche Verarbeitung für jeden Rotationswinkel Θ
durchgeführt, wobei das Akkumulatorarray 34 als ein dreidimensionales (xG, yG, Θ), nicht als
das zweidimensionale (xG, yG) verwendet wird. Hierdurch wird die Position errechnet, wo der
maximale Spitzenwert (xG*, yG*, Θ*) der akkumulierten Votierungsverteilung auftritt. Dieser
Winkel Θ* ist der gesuchte Rotationswinkel des Objekts. Beispielsweise im Fall einer Objektun
tersuchung wird der Änderungsbereich des Rotationswinkels Θ des Objekts unter Berücksichti
gung der Genauigkeit einer bei der Fabrikation des Objekts benutzten Lehre als innerhalb von
± 10° liegend vorhergesagt. In diesem Fall braucht der Rotationswinkel Θ nur in kleinen
Stücken innerhalb des vorhergesagten Bereichs verändert zu werden.
In der Adresse (xG*, yG*, Θ*) wo der votierte Wert in dem Akkumulatorarray 34, der der
Parameterraum ist, maximal wird, geben die Parameter xG* und yG* die Position des Referenz
punkts an und Θ* den Rotationswinkel des Objekts, und der maximale votierte Wert (die maxi
male Häufigkeit) ist ehe Größe, die die Nähe des Eingangsbildes zum Standardbild repräsentiert.
Im Schritt S3 in Fig. 3 wird der Häufigkeitsmaximalwert für die jeweilige Probe in jeder Katego
rie berechnet, dann eine Häufigkeitsmaximalwertverteilung innerhalb der Kategorie erzeugt
sowie eine Häufigkeitsmaximalswertsverteilung zwischen Kategorien erzeugt, beispielsweise für
eine Bildprobe eines schlechten Objekts in bezug auf ein gutes Objekt. Dann wird für jedes
Merkmal in jeder Kategorie der Abstand zwischen der Häufigkeitsmaximalwertverteilung inner
halb der Kategorie und der Häufigkeitsmaximalwertverteilung zwischen den Kategorien errech
net. Der so errechnete Abstand wird zur Bestimmung des Gewichts jedes Merkmals in jeder
Kategorie verwendet. Im Schritt S4 werden die Merkmale in den jeweiligen Kategorien im
Hinblick auf das Gewicht sortiert, um die Rangfolge der Merkmale zu bestimmen. Im Schritt S5
wird die Anzahl von Referenztabellen zum Kombinieren der Merkmale in absteigender Ordnung
der Rangfolge für jede Kategorie erhöht, d. h. die Anzahl von Merkmalen, die kombiniert werden,
wird erhöht, und jede Kombination wird daraufhin bewertet, in welchem Ausmaß die Kategorien
voneinander unterschieden werden können. Im Schritt S6 wird die Auflösung des Eingangsbil
des geändert, und die Schritte S1 bis S5 werden wiederholt, bis die Fehlerrate ausreichend klein
wird, d. h. bis gute und nicht gute Objekte unterschieden werden können, oder bis die Anzahl
nicht unterscheidbarer Kategorien auf Null reduziert ist.
Durch eine Verarbeitung, wie sie oben beschrieben wurde, wird eine Vielzahl von Arten von
Merkmalsbildern, die von dem Eingangsbild ableitbar sind, der verallgemeinerten Hough-Trans
formation unterzogen, und zwar unter Verwendung der Referenztabellen der jeweiligen Merk
malsbilder. Ein Abstand, der von dem Zusammenhang zwischen einer Intravarianz und einer
Intervarianz der Häufigkeitsverteilung der Ausgabe der verallgemeinerten Hough-Transformation
auf den Akkumulatorarray abhängt, wird als das Gewicht für jedes Merkmal verwendet. Die
Merkmale werden in absteigender Reihenfolge des Gewichts kombiniert, und der Abstand
zwischen den Kategorien wird bewertet, und die Merkmale werden eines nach dem anderen
kombiniert, bis der gewichtete Abstand einen bestimmten Wert überschreitet, oder bis der
Zusammenhang zwischen dem Eingangsbild und dem Standardbild nicht mehr verbessert wird.
In der erwähnten JP 04-175885 A2 wird die Gewichtung von Merkmalssätzen und die
Auswahl von Kombinationen der Merkmalssätze vorgeschlagen.
Was hingegen das Merkmalspunktauswahlverfahren angeht, schlägt der Stand der Technik nicht
mehr vor, als die Auswahl von Merkmalspunkten, die am weitesten in dem von dem Standard
bild erhaltbaren Merkmalsbild von einander entfernt sind. Wenn bei diesem Merkmalspunktaus
wahlverfahren einige der auszuwählenden Merkmalspunkte des Standardbildes Flecke aufgrund
von Staub oder anderen Störungen aufweisen, wird das Untersuchungsvermögen verschlech
tert, da das Standardbild unvollständig ist. Selbst wenn darüber hinaus ein Bild manuell als
Standardbild gewählt wird, besteht keine Sicherheit, daß es sich um ein wahres Standardbild
handelt. Zur Beseitigung dieses Nachteiles werden gemäß dem Stand der Technik Gewichte
automatisch den Merkmalspunkten zugewiesen, die von einer Vielzahl von Bildfolgen guter
Objekte ausgewählt werden, und bei der Merkmalssatzauswahl und -anpassung wird ein größe
rer Einfluß auf die Merkmalspunkte großer Gewichte oder hoher Zuverlässigkeit ausgeübt,
während der Einfluß auf die Merkmalspunkte kleiner Gewichte oder niedriger Zuverlässigkeit
verringert wird.
Fig. 6 zeigt Beispiele von Bildern von Untersuchungsmustern. Verglichen mit einem idealen
Muster, wie es in Fig. 6A dargestellt ist, sind den Bildern tatsächlicher guter Objekte Rausch- oder
Störkomponenten infolge von Staub oder Flecken überlagert. Wie beispielsweise in den
Fig. 6B bis 6D gezeigt, sind die tatsächlichen Bilder relativ zu dem idealen Muster etwas
versetzt (verschoben) oder verdreht. Das Bild eines nicht guten Objekts, das in Fig. 6E gezeigt
ist, ist verglichen mit dem idealen Muster von Fig. 6A etwa flach. Ihm ist also Rauschen überla
gert, und es ist relativ zu dem idealen Muster versetzt/verdreht. Die guten und die nicht guten
Objekte müssen unter solchen Umständen unterscheidbar sein. Dieses Problem tritt auch bei der
Sortierung und Erkennung von Objekten unter Verwendung ihrer Bilder auf.
Die DE 41 33 590 A1 offenbart ein Verfahren zur Klassifikation von Signalen, das zum
Erkennen fehlerhafter Teile in einem Produktionsprozeß oder von Objekten in Bildern natürlicher
Szenen geeignet ist. Die Signale stellen jeweils einen von mehreren möglichen
Amplitudenwerten der Signale dar. Aus jeweils mehreren Abtastwerten werden Proben gebildet,
aus jeder Probe wird mindestens ein Merkmal extrahiert, und das Merkmal bzw. die Merkmale
jeder Probe werden als Adressen verwendet, um aus einer Tabelle gespeicherte
Auftrittswahrscheinlichkeiten auszulesen. Die Tabelle wird vorher in einem Lernprozeß erstellt.
Aus den Auftrittswahrscheinlichkeiten aller Proben wird eine Entscheidungsgröße berechnet und
mit einem Schwellenwert verglichen.
Die DE 44 38 278 A1 beschreibt ein automatisches optisches Prüfsystem für Leiterplatten, bei
dem ein Referenzmuster mit maximaler Toleranz und ein Referenzmuster mit minimale Toleranz
pixelweise mit einem Eingangsmuster einer zu prüfenden Leiterplatte verglichen werden.
Aus der US 4,446,531 A ist ein Verfahren zur Berechnung der Ähnlichkeit zwischen zwei
Mustern bekannt, bei dem beide Muster durch eine Folge von Merkmalsvektoren repräsentiert
sind. Die Ähnlichkeit wird auf der Basis des Abstands zwischen Merkmalsvektoren ermittelt.
Es ist eine Aufgabe der vorliegenden Erfindung, ein Untersuchungs/Erkennungsverfahren zu
schaffen, das die oben beschriebenen Fehler des Standes der Technik vermeidet und sicher
stellt, daß zwischen guten und nicht guten Objekten unterschieden werden kann, oder korrektes
Sortieren oder Erkennen von Objekten erlaubt, und zwar unabhängig von Intensitätsschwankun
gen guter Objekte oder Standardprobenbilder, die von einer Änderung der Beleuchtungsumge
bung oder der Reflexionseigenschaft der Probenoberfläche oder Staub und Flecken auf den
Objekten herrühren.
Diese Aufgabe wird erfindungsgemäß gelöst durch ein Bilduntersuchungs/-erkennungsverfahren
gemäß den Ansprüchen 1, 25 und 26, ein Verfahren zur Erzeugung von Referenzdaten für die
Bilduntersuchung/-erkennung gemäß Anspruch 19, sowie eine Vorrichtung zur Bilduntersu
chung/-erkennung gemäß Anspruch 23 bzw. eine Vorrichtung zur Erzeugung von Referenzdaten
gemäß Anspruch 24.
Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.
Gemäß der vorliegenden Erfindung werden in einem Bilduntersuchungs/-erkennungsverfahren,
welches einen ersten Schritt der Extraktion von Bildmerkmalen aus einem eingegebenen Bild
zum Erhalt eines Merkmalsbildes, einen zweiten Schritt der Quantisierung des Merkmalsbildes
zum Erhalt eines quantisierten Merkmalsbildes und einen dritten Schritt zum Erhalt der Ähnlich
keit von oder der Differenz zwischen Merkmalspunkten des quantisierten Merkmalsbildes und
der Verwendung von Lerndaten der entsprechenden Merkmale enthält, die von einer Vielzahl
von Lernbildern vorab extrahiert wurden, die Gewichte der Merkmalspunkte vorab berechnet,
wobei Merkmalswerthistogramme an den jeweiligen Merkmalspunkten in quantisierten Merk
malsbildern der Vielzahl von Lernbildern verwendet werden, und die vorab berechneten
Gewichte werden dazu verwendet, die Ähnlichkeit oder Differenz in dem dritten Schritt als
gewichtete Ähnlichkeit oder gewichtete Differenz zu erhalten. In dem dritten Schritt wird eine
Vielzahl verschiedener Merkmalsbilder einer Merkmalskombination mit Gewichten unterzogen,
um die gewichtete Ähnlichkeit oder die gewichtete Differenz zu erhalten.
Die gewichtete Ähnlichkeit in dem dritten Schritt wird durch die verallgemeinerte Hough-Trans
formationsoperation erhalten, die die Gewichte von Merkmalspunkten in den Parameterraum
votiert. Alternativ wird eine gewichtete normierte Korrelationsoperation eingesetzt, die eine
Merkmalspunktgewichtsfolge verwendet zum Erhalt normierter Korrelationsfaktoren zwischen
einer Merkmalspunktwertfolge des aus dem Eingangsbild erhaltenen Merkmalsbildes und einer
Merkmalspunktwertfolge des Merkmalsbildes von dem Lernbild. Die gewichtete Differenz in dem
dritten Schritt wird dadurch berechnet, daß eine Hough-Ebene gewonnen wird, indem das quan
tisierte Merkmalsbild einer gewichteten Hough-Transformationsoperation unterzogen wird, die
das Gewicht des Merkmalspunkts für jeden Quantisierungspegel in den Parameterraum votiert,
und durch Berechnen der Differenz zwischen der Hough-Ebene und einer Referenz-Hough-Ebene,
die von dem Merkmalsbild des Lernbildes erhalten wird.
Für ein Merkmalsbild wird die Gesamtsumme der Gewichte jeweiliger Merkmalspunkte auf die
Anzahl von Merkmalspunkten normiert. Wenn die Kontraste der Vielzahl von Lernbildern größer
sind als ein vorbestimmter Wert, wird ein Bereichsmerkmalsbild als ein Merkmalsbild in dem
ersten Schritt extrahiert, und eine normierte Korrelationsoperation in dem dritten Schritt ausge
führt. Wenn die Kontraste geringer sind als der vorbestimmte Wert, wird ein Konturmerkmals
bild in dem ersten Schritt extrahiert und eine gewichtete verallgemeinerte Hough-Transforma
tionsoperation in dem dritten Schritt ausgeführt. Alternativ werden für eine Vielzahl von Lernbil
dern unterschiedlicher Kategorien, wie guter und schlechter Objekte, die gewichtete verallge
meinerte Hough-Transformationsoperation und die gewichtete normierte Korrelationsoperation
ausgeführt und der Abstand oder die Entfernung zwischen Ähnlichkeitsverteilungen in jeder
Kategorie ermittelt; eine Operation findet für die Kategorie des größeren Interverteilungsab
stands statt.
Bei der Quantisierung des Merkmalsbildes wird eine Quantisiserungsbreite für die Vielzahl von
Lernbildern verwendet, die den Abstand zwischen den Ähnlichkeits- oder Differenzverteilungen
in jeder der Kategorien, wie gute und schlechte Objekte, maximiert, aber diese Quantisierungs
breite minimiert mittlere integrierte quadratische Fehler von Merkmalswerthistogrammen von
Merkmalspunkten in Merkmalsbildern der Vielzahl von Lernbildern.
Das Gewicht jedes Merkmalspunkts wird auf folgende Weise bestimmt. D.h., ein quantisiertes
Merkmalsbild wird aus einer Vielzahl von Lernbildern erhalten, und dann werden ein Histogramm
des Merkmalswert an jedem Merkmalspunkt des quantisierten Merkmalsbildes und das Gewicht
des Merkmalspunkts nach Maßgabe der Streuung des Histogramms bestimmt.
In einem anderen Bilduntersuchungs/-erkennungsverfahren gemäß der vorliegenden Erfindung
wird, wie im Fall des zuvor erwähnten Verfahrens, das quantisierte Merkmalsbild des Eingangs
bildes erhalten und die Ähnlichkeit oder Differenz jedes Merkmalspunkts des quantisierten
Merkmalsbildes unter Verwendung von Referenzdaten gewonnen, die von dem Lernbild abgelei
tet wurden. In diesem Fall wird jedoch eine Mehrfachbitebene erzeugt, die sich aus Bitebenen
zusammensetzt von denen jede einem von Quantisierungspegeln des quantisierten Merkmals
bildes entspricht, und jede Bitebene wird dann der verallgemeinerten Hough-Transformation oder
der Hough-Transformation unter Verwendung der Referenzdaten unterzogen, und die Ähnlich
keit wird aus der mittels der verallgemeinerten Hough-Transformation transformierten Bitebene
errechnet, oder es wird die Differenz durch Berechnen der Differenz zwischen der Hough-trans
formierten Bitebene und der Referenz-Mehrfach-Hough-Ebene errechnet. In beiden Fällen wird
die gewichtete Ähnlichkeitsberechnung oder die gewichtete Differenzoperation unter Verwen
dung des der Bitebenen zugewiesenen Gewichts durchgeführt.
Eine Vielzahl quantisierter Merkmalsbilder wird von einer Vielzahl von Lernbildern einer Vielzahl
jeweiliger Kategorien gewonnen. Die Lerndaten im dritten Schritt werden dazu verwendet,
gewichtet Ähnlichkeiten oder gewichtete Differenzen von Merkmalspunkten von Merkmalsbil
dern der Lernbilder nach derselben Methode wie der der im dritten Schritt verwendeten Berech
nung zu berechnen, und die berechneten Ergebnisse werden dazu verwendet, Ähnlichkeiten
oder Differenzen der jeweiligen Merkmalsbilder zu gewinnen, und diese Ähnlichkeiten oder
Differenzen werden dann dazu benutzt, die Gewichte der Merkmale zu berechnen. Die so
gewichteten Merkmale werden kombiniert und die Ähnlichkeit oder Differenz in jeder Kategorie
und der Abstand zwischen diesen Ähnlichkeiten oder Differenzen in den jeweiligen Kategorien
werden berechnet; die Kombination der gewichteten Merkmale wird geändert, bis der Abstand
eine vorbestimmte Bedingung erfüllt. Auf diese Weise wird die Kombination von Merkmalsbil
dern zur Verwendung bei der Berechnung in dem dritten Schritt bestimmt.
Zwischen der Ähnlichkeit oder Differenz in jeder Kategorie und der Ähnlichkeit oder Differenz
zwischen den Kategorien in der bestimmten Kombination von Merkmalsbildern wird ein
Schwellenwert zur Unterscheidung zwischen den Kategorien bestimmt. D.h., der Schwellenwert
dient dem Vergleich der Ähnlichkeit oder Differenz mit jenen, die im dritten Schritt erhalten
werden, zur Beurteilung, ob das betroffene Objekt gut oder schlecht ist, oder zur Beurteilung
von Objekten, um sie zu sortieren oder zu erkennen. Darüber hinaus wird der Betrag der
Verschiebung (Versatz), Rotation oder Maßstabsänderung des Ursprungs des untersuchten
Objekts, der die gewichtete Ähnlichkeit oder die gewichtete Differenz, die im dritten Schritt
erhalten wird, maximiert oder minimiert, berechnet, und der berechnete Betrag wird als ein
Untersuchungsmaß verwendet.
Die Bilduntersuchungs/-erkennungsvorrichtung gemäß der vorliegenden Erfindung umfaßt: eine
Bildspeicheranordnung zur Speicherung eines Eingangsbildes; eine Einrichtung zur Extraktion
von Merkmalsbildern des Eingangsbildes und zur Erzeugung eines Merkmalsbildes; eine Einrich
tung zum Quantisieren des Merkmalsbildes; eine Merkmalsbildspeichereinrichtung zum Spei
chern des quantisierten Merkmalsbildes; eine Referenztabellenspeichereinrichtung zum Spei
chern von Merkmalswerten, ihrer Punkte und Gewichte als eine Referenztabelle für jedes Merk
malsbild; eine Berechnungseinrichtung zur Berechnung der gewichteten Ähnlichkeit oder Diffe
renz für jedes quantisierte Merkmalsbild unter Verwendung der entsprechenden Referenztabelle,
die in der Referenztabellenspeichereinrichtung gespeichert ist; und eine Steuereinrichtung zur
Steuerung der jeweiligen Einrichtungen.
Die Referenzdatenerzeugungsvorrichtung zur Verwendung bei der Bilduntersuchung/-erkennung
gemäß der vorliegenden Erfindung umfaßt: eine Bildspeichereinrichtung zum Speichern eines
Eingangslernbildes; eine Einrichtung zur Extraktion von Bildmerkmalen aus dem Lernbild unter
Erzeugung eines Merkmalsbildes; eine Einrichtung zum Quantisieren des Merkmalsbildes; eine
Merkmalsbildspeichereinrichtung zum Speichern des quantisierten Merkmalsbildes; eine Einrich
tung zum Erhalt dem Merkmalspunktwertverteilung aus dem quantisierten Merkmalsbild; einen
Merkmalspunktwertverteilungsspeicher zum Speichern der Merkmalspunktwertverteilung für
jedes Merkmalsbild; eine Einrichtung zur Bestimmung des Gewichts jedes Merkmalspunkts auf
der Basis der Merkmalspunktwertverteilung; eine Referenztabellenspeichereinrichtung zum Spei
chern des Merkmalspunkts und seines Gewichts für jedes Merkmal; eine gewichtete Ähnlich
keits-(Differenz)-Berechnungseinrichtung zum Erhalt der gewichteten Ähnlichkeit oder Differenz
des Merkmalsbildes dadurch, daß für dieses eine Korrelationsoperation unter Verwendung des
Gewichts des Merkmalspunkts, das in der Referenztabellenspeichereinrichtung gespeichert ist,
durchgeführt wird; eine Ähnlichkeits-(Differenz)-Verteilungsspeichereinrichtung zum Speichern
der gewichteten Ähnlichkeits- oder Differenzverteilung; eine Einrichtung zum Erhalt der
Gewichte der jeweiligen Merkmale von der Ähnlichkeits- oder Differenzverteilung entsprechend
jeder Kategorie; eine Einrichtung zur Bestimmung einer Kombination von Merkmalen und zum
Erhalt des Abstand zwischen der gewichteten Ähnlichkeit oder Differenz in der Kategorie und
den gewichteten Ähnlichkeiten oder Differenzen zwischen verschiedenen Kategorien in der
Kombination von Merkmalen; und eine Einrichtung zur Änderung der Kombination von Merkma
len, bis der oben erwähnte Abstand eine vorbestimmte Bedingung erfüllt sowie zur Lieferung,
als Referenzdaten, der Merkmalspunkte und ihrer Gewichte in jedem der kombinierten Merk
malsbilder.
Zum Erhalt von Merkmalspunktgewichten, die auf der Basis der Streuung in Mehrfachzellen
merkmalen (Mehrfachauflösungsmerkmalen) einer Vielzahl von Lernbildproben bestimmt
werden, werden Versatze (Verschiebungen) von Merkmalspunkten in Lernmerkmalsbildern
korrigiert und dann die Streuung der Merkmalspunktwerte gemessen, und die Merkmalspunkt
gewichte werden auf der Basis der gemessenen Ergebnisse bestimmt. Die Merkmalspunktge
wichte werden für jedes Merkmal berechnet. Die so berechneten Merkmalspunktgewichte
werden als Koeffizienten zur Verwendung in der gewichteten Ähnlichkeitsberechnung und der
gewichteten Differenzberechnung geliefert. Der Abstand, der auf dem Zusammenhang zwischen
der Intra- und der Intervarianz der resultierenden Ähnlichkeits- oder Differenzverteilung abhängt,
wird als das Gewicht jedes Merkmals verwendet, und die Merkmale werden in abfallender
Reihenfolge der Gewichte kombiniert. Die Merkmale werden kombiniert, bis der Abstand einen
vorbestimmten Wert übersteigt oder bis die Beziehung des Eingangsbildes zu dem Standardbild
nicht länger verbessert wird.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnungen im einzelnen
erläutert. Es zeigen:
Fig. 1A ein Diagramm, das ein Beispiel eines untersuchten Bildes darstellt,
Fig. 1B eine ideale Intensitätsvariationskurve 13 und ein Beispiel der tatsächlichen Intensi
tätsvariationskurve 14 längs der gestrichelten Linie 12 in Fig. 1A sowie ihre kombi
nierte Kurve 15,
Fig. 1C eine Grafik, die ein Beispiel eines Intensitätshistogramms im Bereich 11a in Fig. 1A
darstellt,
Fig. 1D ein Diagramm, das die Extraktionsergebnisse des Bereichs 11a mittels eines
herkömmlichen Untersuchungsverfahrens darstellt,
Fig. 2A ein Diagramm, das ein Standardfenster in einem Standardbild darstellt,
Fig. 2B eine Grafik, die ein Beispiel eines Intensitätsmusters in dem Standardfenster von Fig.
2A zeigt,
Fig. 2C ein Diagramm, das einen Suchbereich in einem untersuchten Bild zeigt,
Fig. 2D ein Diagramm, das ein Beispiel des Zusammenhangs zwischen einem Intensitätsmu
ster in dem Suchbereich und einem Intensitätsmuster in dem entsprechenden Stan
dardfenster zeigt,
Fig. 3 ein Flußdiagramm, das die Prozedur in einem herkömmlichen Bilduntersuchungsver
fahren unter Verwendung des verallgemeinerten Hough-Transformationsschemas
benutzt,
Fig. 4 Diagramme zur Erläuterung einer herkömmlichen Hough-Transformation,
Fig. 5 ein Diagramm, das zeigt, wie auf einen Akkumulatorarray (einem Parameterraum) zum
Zeitpunkt der Durchführung der verallgemeinerten Hough-Transformation eines
Eingangskantenbildes in bezug auf ein Standardkantenbild votiert wird,
Fig. 6 ein Diagramm, das ein ideales Muster zeigt,
Fig. 6B bis 6D Diagramme, die gute Objekte zeigen, die jeweils ein wenig Rauschen und
Rotation verglichen mit dem idealen Muster von Fig. 6A enthalten,
Fig. 6E ein Diagramm des Musters eines schlechten Objekts,
Fig. 7 ein Flußdiagramm, das die in einer ersten Ausführungsform des Verfahrens gemäß
der Erfindung enthaltene Prozedur zeigt,
Fig. 8 ein Diagramm zur Erläuterung der Idee der Extraktion von Mehrfachzellenmerkmalen
aus einem Eingangsbild,
Fig. 9A bis 9D Diagramme, die Bilder von Ortsfrequenzen zeigen, die sich von denen der
Bilder unterscheiden, welche jeweils in den Fig. 6B bis 6E gezeigt sind,
Fig. 10 Beispiele von mit Lernmerkmalen korrigierten Bildern des in Fig. 9A gezeigten Bildes,
Fig. 11 ein Diagramm, das ein Beispiel der Merkmalspunktwertverteilung in einem Lern-Null
durchgangspunktbild zeigt,
Fig. 12A bis 12D Beispiele der Lernmerkmalspunktwertverteilung in einem Intensitätsbild,
Fig. 13 ein Diagramm eines Beispiels einer Referenztabelle für ein Nulldurchgangspunktbild
bei der ersten Ausführungsform,
Fig. 14 Beispiele der Referenztabelle zur Verwendung für den Fall der Behandlung von N
Merkmalen,
Fig. 15 ein Diagramm, das das Konzept des Unterschieds (Abstands) zwischen einer Ähnlich
keitsverteilung eines schlechten Objekts (die Interkategorieähnlichkeitsverteilung) und
der Ähnlichkeitsverteilung für ein gutes Objekt (die Intrakategorieähnlichkeitsvertei
lung) zeigt,
Fig. 16 Diagramme, die die Ausrichtung von Merkmalsgewichten auf Referenztabellen bei der
ersten Ausführungsform zeigen,
Fig. 17 ein Flußdiagramm, das die bei einer zweiten Ausführungsform der vorliegenden Erfin
dung enthaltene Prozedur darstellt,
Fig. 18 und 19 Beispiele von Referenztabellen bei der zweiten Ausführungsform,
Fig. 20 ein Flußdiagramm, das die Prozedur der Erzeugung von Referenzdaten bei einer drit
ten Ausführungsform der vorliegenden Erfindung zeigt,
Fig. 21 ein Diagramm, das die bei einer dritten Ausführungsform enthaltene Untersuchungs
prozedur zeigt,
Fig. 22 ein Diagramm, das ein Beispiel eines Erstreckungsmerkmals zeigt,
Fig. 23 konzeptionell den Zusammenhang zwischen einem Merkmalsbild und seinen Mehr
fachbitebenen und Referenztabellen,
Fig. 24 ein Flußdiagramm der in der Erzeugung von Referenzdaten bei einer vierten Ausfüh
rungsform der vorliegenden Erfindung enthaltenen Prozedur,
Fig. 25 ein Flußdiagramm der bei der vierten Ausführungsform enthaltenen Untersuchungs
prozedur,
Fig. 26 ein Blockdiagramm, das eine Ausführungsform einer Bilduntersuchungs/-erkennungs
vorrichtung gemäß der vorliegenden Erfindung darstellt,
Fig. 27 ein Blockdiagramm, das eine Ausführungsform der Referenzdatenerzeugungsvorrich
tung gemäß der vorliegenden Erfindung zeigt,
Fig. 28 ein Flußdiagramm, das die in einer fünften Ausführung der vorliegenden Erfindung
enthaltene Prozedur darstellt, und
Fig. 29A und 29B Flußdiagramme, die jeweils Prozeduren für die Auswahl von Merkmalsbildern
in Lernbildern zeigen.
Fig. 7 ist ein Flußdiagramm, das die bei einer ersten Ausführungsform dieser Erfindung enthal
tene Prozedur darstellt. Die Prozedur ist in eine Prozedur 100 zur Erzeugung von Referenzdaten
für die Verwendung zur Bilduntersuchung und eine Untersuchungsprozedur 200 unterteilt. Es
sollen nun konkret der Ablauf zur Berechnung einer gewichteten Ähnlichkeit und der Ablauf zur
Berechnung einer gewichteten Differenz beschrieben werden, die für die vorliegende Erfindung
charakteristisch sind. In Fig. 7 ist die gewichtete Ähnlichkeitsberechnung eine verallgemeinerte
Hough-Transformation mit Gewichten. Bei der ersten Ausführungsform sind ein Lernmerkmals
bilderstellungsschritt 102 bis zu einem Lerndatenspeicherschritt 107, ein Schritt 113 zur
gewichteten verallgemeinerten Hough-Transformation und ein Schritt 204 zur gewichteten
verallgemeinerten Hough-Transformation besonders charakteristisch für die vorliegende Erfin
dung. In einem Lernbildeingabeschritt 101 wird eine Vielzahl von Lernbildern guter Objekte
eingegeben. Es wird angenommen, daß die Lernbilder nach Quantisierung mit mehreren
Graustufen (normalerweise 256 Graustufen) eingegeben werden. Im Lernmerkmalsbilderstel
lungsschritt 102 werden aus den eingegebenen Lernbildern durch eine Mehrfachzellenmerkmal
sextraktionsverarbeitung Lernmerkmalsbilder erzeugt. Das Mehrfachzellenmerkmalsextraktions
schema ist in Fig. 8 gezeigt. D.h., vier grundlegende Darstellungen der eingegebenen Lernbilder
wie etwa eine Intensitätsverteilung 41, eine Richtungsverteilung 42, eine Kantendichteverteilung
43 und Kantenkonfigurationsverteilung 44 werden bezeichnet. Von der Intensitätsverteilung 41
wird ein Intensitätsvarianz- oder ähnliches Intensitätsstatistikbild 45 durch lokalisierte Filterung
extrahiert. Von der Richtungsverteilung 42 werden ein Krümmungsbild (ein Kantenbiegungsbild)
46 und ein die Parallelität anzeigendes Stabmerkmalsbild 47 extrahiert. Von dem Kantendichte
bild 43 wird ein Komplexitätsbild 48 extrahiert, das die Anzahl radialer Abtastlinien angibt, die
eine Kante kreuzen. Von der Kantenkonfigurationsverteilung 44 werden ein Erstreckungsbild 49,
welches die Entfernungen (radialen Entfernungen) zu den Punkten angibt, wo die radialen
Abtastlinien das erste Mal auf eine Kante treffen, und ein Fleckbild 50 extrahiert, welches die
"Zirkularität" angibt, die aus dem diagonalen Entfernungsverhältnis zwischen den jeweiligen
radialen Entfernungen errechnet wird. Die Verfahren zum Extrahieren dieser Merkmalsbilder 45
bis 50 sind beispielsweise in der JP 63-213085 A2, der JP 63-213093 A2 und der JP
63-226785 A2 offenbart. Die Merkmalsbilder 45 bis 50 werden in Bereichsmerkmalsbilder, die
Eigenschaften eines Bereichs reflektieren, wie etwa die Intensitätsstatistik, die Komplexität und
die Erstreckung sowie Konturmerkmalsbilder unterteilt, welche solche Eigenschaften einer
Kontur wie die Kante und die Krümmung reflektieren (Bereich ist dabei nicht ein von einer
Segmentierung resultierender Bereich, sondern ein durch lokalisierte Filterung zu verarbeitender
lokalisierter Bereich). Auf der Grundlage von Differenzen der Ortsfrequenz zur Filterung und der
Auflösung (der Differenz hinsichtlich der ein Muster repräsentierenden Zelle) zusätzlich zu der
oben erwähnten Merkmalssatzdifferenz der Merkmalsbilder einschließlich Originalintensitäts-
und Kantenbildern, werden für die oben bezeichneten Merkmale neue Bilder erzeugt.
Es sei nun der Fall betrachtet, daß Nulldurchgangspunktbilder, bei denen es sich um Kontur
merkmalsbilder handelt, von den untersuchten Musterbildern extrahiert werden, die in Fig. 6
gezeigt sind. Solch ein Nulldurchgangspunktbild erhält man durch Berechnung eines quadrati
schen Differentialbildes, durch Faltung des Originalbildes und ein Laplace′sches Gaus′sches
Filter und durch Berechnung von Nulldurchgangspunkten des quadratischen Differentialwerts
(entsprechend Wendepunkten, wo sich der Graustufenwert des Originalbildes ändert). Das
Laplace′sche Gaus′sche Filter ist definiert durch ein quadratisches Differential G′′ der Form
(G(x, y, σ) = (1/(2πσ²))exp(-(x² + y²)/(2σ²))). σ wird geändert, und die Nulldurchgangspunkte
werden für diese verschiedenen σ extrahiert.
Die Fig. 9A bis 9D zeigen Nulldurchgangspunktbilder, die jeweils von den Bildern 6B bis 6E
extrahiert wurden. Die obersten Merkmalsbilder in Fig. 9 sind Bilder, die für ein kleines σ erhal
ten wurden, in welchem Fall die Ortsfrequenz hoch ist und eine feine Konturstruktur extrahiert
werden kann, jedoch auch Rauschen erfaßt wird. Die untersten Merkmalsbilder sind Bilder, die
für ein großes σ erhalten wurden, in welchem Fall die Ortsfrequenz niedrig ist und kein
Rauschen erfaßt wird, aber nur eine rauhe Konturstruktur erhalten wird.
Derartige Mehrfachauflösungszellen (Mehrfachzellenmerkmal) werden kollektiv als eine Pyrami
den-mehrschichtmerkmalsebene 51 (Fig. 8) behandelt. Durch Extrahieren des Mehrfachzellen
merkmals, das auf der Grundlage der vier grundlegenden Darstellungen (41 bis 44 in Fig. 8)
geschaffen wird, und der Unterschiede in der Ortsfrequenz und in der Auflösung, ist es möglich
zwischen guten und schlechten Objekten zu unterscheiden, selbst wenn Rauschen vorhanden
ist. In dem Lernmerkmalsbilderstellungsschritt 102 in Fig. 7 wird ein Teil des Mehrfach
zellenmerkmals, welches im Hinblick auf die Effizienz des Systems als effektiv betrachtet wird,
gewöhnlich unter Berücksichtigung des untersuchten Objekts extrahiert.
In dem Lernmerkmalspunktversatzkorrekturschritt 103 wird die Vielzahl von Lernmerkmalsbil
dern, die im Schritt 102 erhalten wurden, hinsichtlich Versatz(Verschiebung)/Rotation/Maßstab
korrigiert. Der hier erwähnte Merkmalspunkt ist ein Pixelpunkt, der einfach die Eigenschaft des
Objekts in dem Merkmalsbild angibt. Beispielsweise im Nulldurchgangspunktbild ist der Pixel des
Werts 1 der Merkmalspunkt. Die Versatz/Rotations/Maßstabskorrektur ist eine einfache Korrek
tur im Hinblick auf die Position und kann damit beispielsweise erzielt werden durch Berechnung
der Verschiebung des Merkmalspunkts durch Anpassung mittels Abschätzung des kleinsten
quadratischen Fehlers und dann Durchführung einer affinen Transformation zur Korrektur des
Verschiebungsbetrags. Verschiedene bekannte Verfahren können eingesetzt werden, ein einfa
ches Verfahren ist jedoch vorzuziehen.
Bei dieser Ausführungsform wird ein die verallgemeinerte Hough-Transformation, die eine
Anpassungsverarbeitung ist, verwendendes Verfahren beschrieben. Irgendeines der Lernmerk
malsbilder wird als ein Standardmerkmalsbild verwendet, und die Positionen von Merkmalspunk
ten in dem Objekt (dem Objekt in dem Lernbild) und der Ursprung des Objekts (der Referenz
punkt), die zu korrigieren sind, werden spezifiziert. Um den Korrekturfehler zu minimieren, ist es
vorzuziehen, daß die Position des Ursprungs des zu korrigierenden Objekts das Zentrum des
Objekts ist. Wie in Schritt 2 in Fig. 3 werden die Positionen der Merkmalspunkte von dem
Ursprung des Objekts im Standardmerkmalsbild unter Verwendung ihrer Merkmalswerte als
Indizes in einer Referenztabelle gespeichert. Diese Referenztabelle wird zur Durchführung der
verallgemeinerten Hough-Transformation anderer Lernmerkmalsbilder verwendet. Da hierbei
noch kein Merkmalspunktgewicht w in der später beschriebenen gewichteten verallgemeinerten
Hough-Transformation bestimmt ist, wird der Wert w für die Merkmalspunkte übereinstimmend
gemacht. D.h., der Inkrementwert eines Akkumulationshistogramms ist nicht der Wert w,
sondern wie bei der herkömmlichen verallgemeinerten Hough-Transformation 1.
Wenn in der verallgemeinerten Hough-Transformation jeder Merkmalspunktwert in dem Lern
merkmalsbild mit dem entsprechenden Merkmalswertindex der Referenztabelle übereinstimmt,
wird eine Adressenübersetzung ausgeführt, wobei die Position des Merkmalspunkts verwendet
wird, der entsprechend dem übereinstimmenden Merkmalswertindex gespeichert ist, wie dies im
Fall von Fig. 4 der Fall ist. Dann findet ein Votieren in den Parameterraum des Posi
tions/Rotationswinkels des Ursprungs des Objekts statt, und Änderungen in Position/Rota
tionswinkel/Maßstab des Ursprungs des Objekts werden aufgrund einer Entscheidung nach dem
Mehrheitsprinzip berechnet. Die so bestimmten Positions/Rotationswinkel/Maßstabs-Änderun
gen des Ursprungs des Objekts werden dazu verwendet, das Lernmerkmalsbild durch affine
Transformation um seinen Betrag einer Verschiebung gegenüber dem Standardmerkmalsbild
hinsichtlich Position, Rotationswinkel und Maßstab zu korrigieren. Als Folge davon wird ein
korrigiertes Lernmerkmalsbild errechnet. In den Fig. 10A bis 10C sind Bilder gezeigt, die durch
Korrektur der jeweiligen Lernmerkmalsbilder hoher, mittlerer und niedriger Ortsfrequenzen, die in
den Fig. 9A bis 9D gezeigt sind, erhalten wurden.
Wenn das Merkmalsbild mehrere Graustufen als ein Merkmal aufweist, wird das Bildmerkmal
unter Verwendung einer bevorzugten Quantisierungsbreite in dem später beschriebenen Bild
merkmalquantisierungsschritt 104 quantisiert. Wenn F(x, y) das Bildmerkmal repräsentiert,
G(x, y) das quantisierte Bildmerkmal und Iq die Anzahl von Quantisierungspegeln, dann gilt
G(x, y) = ((F(x, y) - Fmin)/R × Iq
wobei 0 G(x, y) Iq-1.
Darin ist Fmin der Minimalwert des Bildmerkmals F und R ist sein Dynamikbereich. Die Quanti
sierungsbreite ist als R/Iq definiert. Bei dieser Quantisierung ist es vorzuziehen, eine Quantisie
rungsbreite zu verwenden, die den Abstand zwischen der Ähnlichkeitsverteilung eines guten
Objekts (der maximalen Intrakategorie-Häufigkeitsverteilung, auf die zuvor im Zusammenhang
mit Fig. 3 Bezug genommen wurde) und der Ähnlichkeitsverteilung eines schlechten Objekts
(der maximalen Interkategoriehäufigkeitsverteilung) minimiert. Wenn die Quantisierungsbreite
nicht optimal ist, sinkt die Trefferrate der verallgemeinerten Hough-Transformation, was dazu
führt, daß das Untersuchungsvermögen verschlechtert wird. Die optimale Quantisierungsbreite
kann dadurch akkurat berechnet werden, daß der Abstand zwischen den oben erwähnten
Ähnlichkeitsverteilungen bewertet wird, wobei jedoch zuviel Zeit dafür erforderlich ist, den
Optimalwert durch Änderung der Quantisierungsbreite in kleinen Stücken zu suchen. Daher ist
es im Hinblick auf die Effizienz des Lernsystems wünschenswert, den Bereich der optimalen
Quantisierungsbreite auf der Basis der Verteilung eines Bildmerkmals des guten Objekts ohne
Notwendigkeit der Berechnung des Abstands zwischen den Ähnlichkeitsverteilungen grob zu
beschränken.
Ein mittlerer integrierter quadratischer Fehler eines Merkmalswerthistogramms des Lernbildes
des guten Objekts wird als ein Maß zur Abschätzung des Bereichs der optimalen Quantisie
rungsbreite bezeichnet. Die Quantisierungsbreite, die diesen Fehler minimiert, wird als eine im
wesentlichen optimale Quantisierungsbreite verwendet, und nach der Quantisierungsbreite, die
den Abstand zwischen den Ähnlichkeitsverteilungen minimiert, wird in dem Bereich des
Vorhandenseins der im wesentlichen optimalen Quantisierungsbreite gesucht.
Der mittlere integrierte quadratische Fehler des Merkmalswerthistogramms ist durch folgenden
Ausdruck gegeben:
wobei H(k) das Merkmalswerthistogramm ist, k=1 . . ., Iq, und Hideal(k) ein Idealmerkmals
werthistogramm ist. Der so definierte mittlere integrierte quadratische Fehler wird minimiert. Da
das ideale Merkmalswerthistogramm Hideal(k) unbekannt ist, wird ein Erwartungswert des
obigen Fehlers, d. h. des mittleren integrierten quadratischen Fehlers mittels der folgenden Glei
chung unter Verwendung des Abschätzverfahrens größter Wahrscheinlichkeit (maximum likeli
hood) berechnet.
wobei n die Gesamtsumme der Häufigkeits- oder Frequenzwerte des Merkmalswerthistogramms
ist. Durch Berechnung der Anzahl von Quantisierungspegeln Iq, die den Fehler Eerror (Iq) mini
miert, ist es möglich, den Bereich des Vorhandenseins der optimalen Anzahl von Quantisie
rungspegeln (die Quantisierungsbreite) zu begrenzen.
Durch Setzen eines einfacheren Maßes
Iq * (2n)1/3
ist es ebenfalls möglich, den Bereich der optimalen Anzahl von Quantisierungspegeln (die Quan
tisierungsbreite) zu definieren.
Als nächstes wird in dem Lernmerkmalspunktwertverteilungsmeßschritt 105 ein Merkmals
werthistogramm für jeden Merkmalspunkt aus einer Folge korrigierter Lernmerkmalsbilder (quan
tisierter Bilder), die in jedem Merkmal gespeichert sind, erzeugt. Da in diesem Fall ein Versatz
korrekturfehler gewöhnlich vorhanden ist, wird das Merkmalswerthistogramm so erzeugt daß
es Pixel um den bezeichneten Merkmalspunkt in Übereinstimmung mit einem zugelassenen
Korrekturfehler abdeckt. Es ist auch möglich, das korrigierte Merkmalsbild in Bildblöcke zu
unterteilen, die sich entsprechend dem zugelassenen Korrekturfehler überlappen, und das Histo
gramm in jedem Block zu erzeugen. In Fig. 11 sind Merkmalswerthistogramme gezeigt die von
einer Folge von Nulldurchgangspunktmerkmalsbildern 52 (1 am Nulldurchgangspunkt und 0 an
anderen Punkten) abgeleitet wurden. Ein Merkmalswerthistogramm 54 nahe einer Grenze 53
weist eine große Häufigkeit des Nulldurchgangspunkts 1 auf, was eine hohe Wahrscheinlich
keit des Nulldurchgangspunkts anzeigt. Auf der anderen Seite weist ein Merkmalswerthisto
gramm 56 an einem Abschnitt 55 deutlich abseits von der Grenze eine geringe Häufigkeit des
Nulldurchgangspunkts 1 auf, was eine geringe Wahrscheinlichkeit des Nulldurchgangspunkts
anzeigt.
In dem Lernmerkmalspunktgewichtbestimmungsschritt 106 wird unter Berücksichtigung des
Zustands der Lernmerkmalspunktwerthistogrammverteilung für den Merkmalspunkt das Gewicht
jedes Merkmalspunkts, das die Größe seines Merkmals anzeigt eingestellt. Es sei nun ange
nommen, daß M die Anzahl von Lernproben ist. In dem Fall von Fig. 1 wird das Gewicht propor
tional zur Größe des Häufigkeitsverhältnisses R (Häufigkeit/M) von Nulldurchgangspunkten (die
Punkte, wo der Wert des Nulldurchgangspunktbildes 1 ist) bestimmt. Da die Punkte, wo der
Wert 0 ist, keine Nulldurchgangspunkte sind, werden sie nicht gewichtet. Im Hinblick auf den
Rechenaufwand ist es vorzuziehen, in dieser Stufe Punkte geringen Gewichts auszuschließen.
Wenn beispielsweise das Häufigkeitsverhältnis R über etwa 1/2 liegt dann wird angenommen,
daß eine Abnahme des Häufigkeitsverhältnisses von einem Quantisierungsfehler herrührt. Damit
kann der Merkmalspunkt als ein Nulldurchgangspunkt betrachtet werden. Wenn das Häufig
keitsverhältnis extrem niedrig ist, wird davon ausgegangen, daß es von einer Rauschkompo
nente herrührt, und der Merkmalspunkt braucht nicht als ein Nulldurchgangspunkt betrachtet zu
werden. Auf diese Weise werden die Merkmalspunkte einer Schwellenwertverarbeitung mit dem
Häufigkeitsverhältnis R unterzogen, wodurch Punkte eliminiert werden, die wahrscheinlich
Rauschen sind. Die übrigbleibenden Nulldurchgangspunkte werden mit dem Häufigkeitsverhält
nis R gewichtet. Die Gewichtsverteilung jeder der übrig gebliebenen Nulldurchgangspunkte wird
dazu benutzt, jedem Punkt (einem Merkmalspunkt) eines Standardnulldurchgangspunktsatzes
(eines Standardmerkmalspunktsatzes) ein Gewicht zuzuweisen. In einem speziellen Fall ist es
möglich, dasselbe Gewicht jedem der übriggebliebenen Nulldurchgangspunkte zuzuweisen. Der
Standardnulldurchgangspunktsatz kann mittels der unten erwähnten Verfahren erhalten werden.
- 1) Man stelle die Spitzen der Gewichtsverteilungen der Nulldurchgangspunkte fest und behandle sie neu als den Standardnulldurchgangsatz.
- 2) Man bezeichne das gemeinsamste der korrigierten Nulldurchgangspunktlernmerkmalsbilder (korrigierte Nulldurchgangspunktmerkmalsbilder) und verwende Nulldurchgangspunkte in dem bezeichneten Bild als den Standardnulldurchgangspunktsatz.
In beiden Fällen wird jedem Nulldurchgangspunkt des Standardnulldurchgangspunktsatzes ein
Gewichtswert wi der entsprechenden Nulldurchgangspunktgewichtsverteilung zugewiesen
(wobei i = 1 . . ., Np). Jeder Gewichtswert ist so normiert, daß die Gesamtsumme der Gewichte
der Nulldurchgangspunkte in dem Standardnulldurchgangspunktsatz gleich der Anzahl Np der
Standardnulldurchgangspunkte ist. Nimmt man an, daß die Gewichte alle gleich sind, ist folglich
jedes Gewicht 1/Np. Auf diese Weise werden die Gewichte der Merkmalspunkte unabhängig
von der Art verallgemeinert.
Es sei angenommen, daß die Merkmalswertverteilungen in einem Intensitätsbild so sind, wie es
in den Fig. 12A bis 12D gezeigt ist. Je mehr sich die Verteilung auf einen bestimmten Merk
malswert (Intensität) konzentriert, wie in Fig. 12B gezeigt, d. h. je kleiner die Streuung in der
Verteilung ist, umso größer ist das Gewicht. In diesem Fall kann das Häufigkeitsverhältnis R,
das durch Teilen der maximalen Häufigkeit durch die Anzahl M der Lernproben erhalten wird, als
ein Maß des Gewichts betrachtet werden. Es ist auch möglich, das Gewicht in ein umgekehrt
proportionales Verhältnis zur Größe der Varianz der Verteilung zu setzen. Dann werden die
Merkmalspunkte wie im obigen Fall einer Schwellenwertverarbeitung mit dem Häufigkeitsver
hältnis R oder dem Wert der Varianz der Verteilung unterzogen, um Punkte zu entfernen, die
wahrscheinlich Rauschen sind. Ein Satz übrigbleibender Merkmalspunkte wird als ein Standard
merkmalspunktsatz verwendet. Der Merkmalswert jedes Merkmalspunkts in dem Standard
merkmalspunktsatz wird auf einen Wert gesetzt, der zum Beispiel die maximale Häufigkeit oder
das Mittel der Verteilung liefert. Der Gewichtswert wi (i = 1, . . ., Np) für den Standardmerkmals
punktsatz wird so normiert, daß die Gesamtsumme der Gewichtswerte gleich dem Wert Np
wird. In einem speziellen Fall ist es auch möglich, jedem der übriggebliebenen Merkmalspunkte
dasselbe Gewicht zuzuweisen, so daß die Summe der Gewichte gleich dem Wert Np wird.
Darüberhinaus können Hintergrundbilder oder ähnliches, die nicht gewichtet werden sollen,
dadurch eliminiert werden, daß solche Merkmalspunkte direkt auf einem Anzeigeschirm von
einer Bedienungsperson unter Benutzung einer Maus, eines Cursors oder einer ähnlichen Einrich
tung spezifiziert werden. Alternativ können unnötige Flächen auf dem untersuchten Bild durch
Auslesen von CAD-(Computer Aided Design)-Daten des untersuchten Objekts entfernt werden.
Durch Bestimmen der Gewichte der Lernmerkmalspunkte unter Bevorzugung der von einer
Bedienungsperson auf dem Schirm oder mittels CAD-Daten spezifizierten Merkmalspunkte
können die Merkmalspunkte feiner gewichtet werden.
In dem Lerndatenspeicherschritt 107 in Fig. 7 wird der Ursprung CG (xG, yG) des in dem Merk
malsbild zu berechnenden Objekts bestimmt, und seine Positionsbeziehung zu jedem Merkmals
punkt Pi, der im Schritt 105 erhalten wurde, wird unter Verwendung von Polarkoordinaten (γi,
αi) (wobei i = 1, . . ., Np) dargestellt, wie in Fig. 13 gezeigt. Dann werden die Polarkoordinaten
(γi, αi) des Merkmalspunkts Pi, der den im Schritt 105 oder 106 erhaltenen Merkmalswert
aufweist, und das im Schritt 106 erhaltene Gewicht des Merkmalspunkts Pi in einer Referenzta
belle 61 gespeichert, wobei der Merkmalswert als Index verwendet wird. In Fig. 13 sind
Beispiele von Konfigurationen von Referenztabellen 61a, 61b und 61c gezeigt, die den Null
durchgangspunktbildern 52 hoher, mittlerer bzw. niedriger Ortsfrequenzen entsprechen. In dem
Nulldurchgangspunktmerkmalsbild 52 ist der Merkmalswert des Merkmalspunkts nur 1, weshalb
die Indexspalte in jeder der Tabellen 61a, 61b und 61c fortgelassen ist.
In Fig. 14 sind Beispiele von Referenztabellen 61 für N Merkmalsbilder gezeigt. Für ein Merk
malsbild f(1) werden Merkmalswerte I₀(1), I₁(1), . . . als Indizes zur Speicherung von Positionsin
formation und Gewichtsinformation von Merkmalspunkten in der Referenztabelle 61₁ verwen
det, welche die Merkmalswerte γi0(1) αi0(1) wi0(1) (wobei i=1, . . ., Np0(1)) und (γi1(1), αi1(1),
wi1(1) (wobei i=1, . . ., Np1(1)) aufweisen. Für die anderen Merkmalsbilder werden ebenfalls
Positionsinformation und Gewichtsinformation γi0(k), ai0(k), wi0(k), γi2(k), ai2(k), wi2(k), in
ähnlicher Weise in Referenztabellen 61 k gespeichert (wobei k=1, . . ., N), wobei jeweils die
Merkmalswerte I₀(k), I₁(k), . . . als Indizes verwendet werden. Als nächstes wird das Gewicht Wk
(wobei k=1, . . ., N) jedes Merkmalsbildes bestimmt, und es wird eine Merkmalskombinations
verarbeitung ausgeführt, um die optimale Kombination von Merkmalen zu bestimmen. Die
Merkmalsbildgewichtung bei dieser Merkmalskombinationsverarbeitung ist im einzelnen in der
JP-A-175885/92 beschrieben. Bei dieser Ausführungsform wird das Merkmalspunktgewicht (ein
analoger Wert) auf der Basis einer Vielzahl von Bildern bestimmt, wie zuvor erwähnt, und das
Gewicht wird für die Anwendung auf die verallgemeinerte Hough-Transformation bei der
zukünftigen Bildgewichtung erweitert.
Um dies durchzuführen werden in einem Lernbildeingabeschritt 109 in Fig. 7 Lernbilder sowohl
guter als auch schlechter Objekte eingegeben. In einer Lernmerkmalskombinationsprozedur 110
werden Lernmerkmalsbilder guter und schlechter Objekte in einem Lernmerkmalsbilderstellungs
schritt 111 mittels des Mehrfachzellenextraktionsverfahrens wie im Schritt 102 (Fig. 8) erstellt,
und in einem Bildmerkmalquantisierungsberechnungsschritt 112 werden quantisierte Lernmerk
malsbilder aus den obigen Merkmalsbildern erhalten. Die bei dieser Quantisierung verwendete
Quantisierungsbreite ist die gleiche wie die im Schritt 104 verwendete.
In dem Schritt 113 der gewichteten verallgemeinerten Hough-Transformation wird für jeden
Merkmalspunkt (x, y) des quantisierten Lernmerkmalsbildes eine gewichtete verallgemeinerte
Hough-Transformationsverarbeitung ausgeführt. In dem bereits hinsichtlich des Versatzes korri
gierten Bild des guten Objekts werden nur Folgen von Merkmalspunkten in einem umschriebe
nen Rechteck eines Standardobjekts der gewichteten verallgemeinerten Hough-Transformations
verarbeitung unterzogen. Der Rotationswinkel Θ und das Maßstabsänderungsverhältnis s
können fest auf "0" bzw. "1" gesetzt werden. Für ein hinsichtlich des Versatzes nicht korrigier
tes Bild eines guten Objekts und ein Bild eines schlechten Objekts sind die Folgen von zu verar
beitenden Merkmalspunkten alle Merkmalspunkte in den Lernbildern, und ihre Rotationswinkel
und Maßstabänderungsverhältnisse werden frei eingestellt. Die Bilder sowohl guter als auch
schlechter Objekte können hinsichtlich des Versatzes korrigiert werden, jedoch werden bei dem
Bild eines schlechten Objekts und bei Bildern mit überlagertem Rauschen Halbgrößenmerkmals
bilder wie Kantenbilder und Nulldurchgangspunktbilder leicht durch Rauschen beeinträchtigt und
ihre Bildqualität durch die Versatzkorrektur stark verschlechtert, abgesehen davon, daß das
Versatzkorrekturvermögen mit der Art des Bildmerkmals unterschiedlich ist. Daher ist das
Lernen mit der Versatzkorrektur allgemein schwierig. Aus diesem Grund wird bei dieser Ausfüh
rungsform keine Versatzkorrektur vorher ausgeführt. Bei der verallgemeinerten Hough-Trans
formation tritt jedoch eine Anpassung für den Versatz automatisch auf, wie zuvor beschrieben.
Nachfolgend wird ein allgemeiner Ausdruck für die gewichtete verallgemeinerte Hough-Trans
formation beschrieben.
Wenn der Merkmalswert jedes Punkts (x, y) in dem Merkmalsbild des im Schritt 109 eingege
benen Bildes zu dem Merkmalswertindex paßt, der in der Referenztabelle 61 gespeichert ist,
dann wird die unter dem Merkmalswertindex gespeicherte Merkmalslage (γ, α) zur Durchfüh
rung der folgenden Adressenübersetzung verwendet:
x′ = x + s × γ × cos (Θ+α)
y′ = y + s × γ × sin (Θ+α) (2)
y′ = y + s × γ × sin (Θ+α) (2)
wobei x′, y′ die vorhergesagte Lage des Ursprungs des Objekts (des Referenzpunkts) in dem
Lernbild ist, Θ ein vorhergesagter Rotationswinkel ist und s ein vorhergesagter Maßstab ist. Nur
das Gewicht w jedes Merkmalspunkt wird an der Adresse eines Parameterraums (x′, y′, Θ, s)
der von diesen vorhergesagten Parametern gebildet wird, akkumuliert. Das heißt, wenn A(x′, y′,
Θ, s) ein akkumuliertes Histogramm in dem Parameterraum (x′, y′, Θ, s) repräsentiert, gilt
A(x′, y′, Θ, s): = A(x′, y′, Θ, s) + w (3)
Die obige Verarbeitung wird wiederholt ausgeführt, wobei vorhergesagte Änderungsbereiche für
den Rotationswinkel Θ und das Maßstabsänderungsverhältnis s leicht verändert werden,
beispielsweise ein ± 10° Änderungsbereich, abhängig von der Genauigkeit der bei der Fabrika
tion des Objekts in dem Bild verwendeten Lehre, und ein ± 10% Maßstabsänderungsbereich.
Normalerweise ist das Maßstabsänderungsverhältnis s in vielen Fällen fixiert, und ein akkumu
liertes Histogramm A(x′, y′, Θ) wird in einem Parameterraum (x′, y′, Θ) gebildet.
In einem Ähnlichkeitsbestimmungsschritt 114 wird ein optimaler Ursprungs
lage/Rotationswinkel/Maßstab-Parameter (x*, y*, Θ*, s*) berechnet, der die maximale Häufig
keit für das akkumulierte Histogramm A(x′, y′, Θ, s) liefert, das durch die oben erwähnte
gewichtete verallgemeinerte Hough-Transformationsverarbeitung errechnet wurde. Die maximale
Häufigkeit Hm wird mit der Merkmalspunktanzahl Np zum Erhalt der Ähnlichkeit S normiert.
In einem Merkmalsgewicht-Meßschritt 115 wird für N Merkmalsbilder jeweils guter und schlech
ter Objekte die gewichtete verallgemeinerte Hough-Transformationsverarbeitung durchgeführt
und die Ähnlichkeit bestimmt. Nimmt man die Anzahl von Probenbildern des guten Objekts und
die Anzahl von Probenbildern des schlechten Objekts mit Mok bzw. Mng an, wird die Ähnlichkeit
zu einem k-ten Merkmalsbild durch eine Ähnlichkeitsfolge Sok(k, m) (wobei m = 1, . . ., Mok) im
Fall des guten Objekts und durch eine Ähnlichkeitsfolge Sng (k, m) (wobei m = 1, . . ., Mng) im
Fall des schlechten Objekts ausgedrückt. Auf diese Weise werden die Ähnlichkeitsverteilung des
guten Objekts und die Ähnlichkeitsverteilung des schlechten Objekts für das k-te Merkmalsbild
erzeugt, wie durch 63 und 64 in Fig. 15 dargestellt. Das Gewicht für das k-te Merkmalsbild
wird abhängig von der Differenz zwischen der Ähnlichkeitsverteilung 63 des guten Objekts und
der Ähnlichkeitsverteilung 64 des schlechten Objekts berechnet. Wenn die Anzahl von Proben
groß ist, werden Mittelwert und Varianz beider Verteilungen zur Berechnung der oben erwähn
ten Differenz im Hinblick auf einen Battacharyya-Abstand oder ein ähnliches Abstandsmaß
verwendet. Da ebenso erwartet wird, daß die Anzahl von Lernproben klein ist, wird ein einfa
ches statisches Maß eingesetzt, beispielsweise der Abstand W(k) zwischen dem schlechtesten
Wert im guten Objekt, das heißt dem Wert in dem guten Objekt, der am weitesten von dem
Standardmerkmalsbild entfernt ist, und dem besten Wert im schlechten Objekt, das heißt dem
Wert im schlechten Objekt, der dem Standardmerkmalsbild am nächsten ist, als die Differenz
zwischen den beiden Verteilungen benutzt, und diese Differenz wird als ein Gewichtungsfaktor
verwendet. Das heißt, der Gewichtungsfaktor W(k) für das k-te Merkmalsbild ist durch folgende
Gleichung gegeben:
W(k) = MIN(Sok(k, m)) - MAX(Sng (k, m))+c (4)
wobei c eine Einstellkonstante ist, die zu W(k) 0 führt. Die Gewichtungsfaktoren W(1), . . .,
W(N) sind in Vorspännen jeweiliger Merkmale in den Referenzdatentabellen 61₁ bis 61 N von Fig.
14 gespeichert, wie in Fig. 16 gezeigt.
In einem Merkmalskombinationsschritt 116 werden die Merkmale in absteigender Reihenfolge
des Gewichtungsfaktors W(k) kombiniert. Zunächst werden die Gewichtungsfaktoren W(k) in
absteigender Folge der Größe sortiert. Dann werden die Merkmale kombiniert, wobei mögliche
Verfahren sie zu kombinieren eine ODER-Verknüpfung und eine UND-Verknüpfung sind. Im Fall
der UND-Verknüpfung erfolgt nur dann, wenn die entsprechenden Merkmalspunkte der kombi
nierten Merkmalsbilder denselben Wert aufweisen, ein Inkrement in der gewichteten verallge
meinerten Hough-Transformation, das heißt eine gewichtete Akkumulation wird für den betrof
fenen Merkmalspunkt ausgeführt. Das in diesem Fall akkumulierte Merkmalspunktgewicht w ist
beispielsweise ein unter den betroffenen Merkmalen gemittelter Wert. Im Fall der
ODER-Verknüpfung wird das nachfolgende gewichtete Akkumulationshistogramm berechnet, wenn
man davon ausgeht, daß das Akkumulationshistogramm der verallgemeinerten Hough-Transfor
mation für das k-te Merkmalsbild durch A(k|x′, y′, Θ, s) dargestellt wird und daß die Merkmals
bilder, die in absteigender Folge der Größe des Gewichtungsfaktors neu geordnet sind, bis
hinauf zu solchen hoher Ordnung Nc kombiniert werden:
Acc(Nc|x′, y′, Θ, s) = ΣW(k)A(k|x′, y′, Θ, s) (5)
wobei Σ die Gesamtsumme der Nc Merkmale ist. In diesem Fall erfolgt die gewichtete Akkumu
lation des Akkumulationshistogramm nicht für alle Werte in dem Parameterraum, sondern nur
für Werte nahe dem Spitzenwert, womit beabsichtigt ist, die Effizienz zu steigern.
In einem Gut/Schlecht-Objektabstandsmeßschritt 117 wird der Grad der Trennung der oben
bezeichneten kombinierten Merkmale zwischen guten und schlechten Objekten (der Abstand
zwischen guten und schlechten Objekten) gemessen. Der Häufigkeitsmaximalwert S(Nc) wird
für das gewichtete Akkumulationshistogramm Acc(Nc|x′, y′, Θ, s) berechnet und auf die
Anzahl von Standardmerkmalspunkten Np(Nc) normiert, das heißt die Summe der Anzahl von
Merkmalspunkten in den Referenztabellen der kombinierten Merkmale (die Anzahl von Refe
renzmerkmalspunkten ist ebenfalls in absteigender Folge des Merkmalsgewichtungsfaktors neu
geordnet), um eine Ähnlichkeit S(Nc) zu erhalten. Das heißt, es gilt
s(Nc): = S(Nc)/(Np(Nc)ΣW(k)) (6)
wobei Σ die Gesamtsumme der Nc Merkmale ist. Nimmt man nun an, daß Sok(Nc, m), m=1, . . .,
Mok die normierte Ähnlichkeitsverteilung für die gute Objektprobe repräsentiert und Sng(Nc, m),
m=1, . . ., Mng die normierte Ähnlichkeitsverteilung für die schlechte Objektprobe repräsentiert,
dann wird die Differenz D(Nc) zwischen beiden Verteilungen berechnet, wobei als ein einfaches
statistisches Maß die Differenz zwischen dem Minimalwert der Verteilung Sok(Nc, m) und der
Maximalwert der Verteilung Sng(Nc, m) verwendet werden. Das heißt, es gilt
D(Nc) = MIN(Sok(Nc, m)) - MAX(Sng(Nc, m)) (7)
In einem Merkmalsauswahlstoppbeurteilungsschritt 118 erfolgt eine Prüfung zur Feststellung,
ob die beiden Verteilungen um eine Toleranz auseinanderliegen, das heißt ob die folgende
Bedingung zum Stoppen der Merkmalskombination erfüllt ist
D(Nc) - ε < 0 (8)
Dabei ist ε ( 0) ein Parameter zur Einstellung der Toleranz. Obwohl abhängig von jedem
behandelten Bild, wird der Parameter E auf einen Wert gesetzt, der das System stabilisiert, in
dem der Wert unter Erhöhung des Parameters in kleinen Schritten immer wieder ausgewertet
wird. Der Wert, der das System stabilisiert liegt gewöhnlich bei 0,1 oder 0,2.
Wenn die Bedingung zum Stoppen der Merkmalskombination erfüllt ist, wird der Schwellenwert
Th zum Trennen von guten und schlechten Objekten in einem Schwellenwertbestimmungsschritt
119 bestimmt. Nach Maßgabe der Strenge der Beurteilung kann der Schwellenwert Th auf den
Grenzwert des guten Objekts oder einen Wert in der Mitte zwischen dem Grenzwert
MIN(Sok(Nc, m)) des guten Objekts und dem Grenzwert MAX(Sng(Nc, m)) des schlechten
Objekts gesetzt werden. Wenn andererseits die Bedingung für das Stoppen der Merkmalskombi
nation nicht erfüllt ist, dann geht der Prozeß zurück zum Merkmalskombinationsschritt 116, in
welchem die Anzahl Nc kombinierter Merkmal um Eins erhöht wird, und die Merkmalskombina
tionsverarbeitung wird ausgeführt.
Als nächstes wird eine Untersuchungsprozedur 200 beschrieben.
In einem Untersuchungsbildeingabeschritt 201 wird ein Untersuchungsbild eingegeben. In einem
Untersuchungsmerkmalsbilderstellungsschritt 202 wird eine Mehrfachzellenmerkmalsextrak
tionsberechnung ausgeführt, um ein untersuchtes Merkmalsbild zu erstellen. Dieses untersuchte
Merkmal wird für die Merkmalskombination zu dem Zeitpunkt vorgesehen, wo die Bedingung
zum Stoppen der Merkmalskombination (Gleichung 8) in der Lernprozedur erfüllt ist. In einem
Bildmerkmalquantisierungsschritt 203 wird eine Merkmalsbildquantisierungsverarbeitung für
jedes Merkmal ausgeführt, wobei die in der Lernprozedur errechnete optimale Anzahl von
Quantisierungspegeln verwendet wird. In dem gewichteten verallgemeinerten
Hough-Transformationsschritt 204 werden die so errechneten untersuchten quantisierten
Merkmalsbilder je der gewichteten verallgemeinerten Hough-Transformationsverarbeitung
(Gleichung (3)) unterzogen, wobei die Referenztabelle 61 verwendet wird, in welcher die
Merkmalskombinations- und Merkmalspunktgewichtsinformation gespeichert ist, die in der
Lernprozedur bestimmt wurde.
In einem Ähnlichkeitsbestimmungsschritt 205 wird die Verarbeitung der Gleichungen (5) und (6)
ausgeführt, um eine Untersuchungsähnlichkeit St zu berechnen, wobei die Anzahl Nc
kombinierter Merkmale, die in der Lernprozedur bestimmt wurde, verwendet wird.
In einem Gut/Schlecht-Beurteilungsschritt 206 werden die untersuchten Objekte abhängig
davon, ob St Th oder St < Th als gut oder schlecht beurteilt.
Unter Bezugnahme auf Fig. 17 erfolgt als nächstes eine Beschreibung einer zweiten
Ausführungsform des erfindungsgemäßen Verfahrens. In Fig. 17 sind die Schritte, die solchen
in Fig. 7 entsprechen, mit denselben Bezugszahlen versehen, und die folgende Erörterung wird
sich auf die Schritte konzentrieren, die sich von denen der ersten Ausführungsform
unterscheiden.
Im Schritt 101 wird ein Lernbild eines guten Objekts eingegeben. In dem Lernmerkmalsbilder
stellungsschritt 102 wird, wie bei der Verarbeitung von Fig. 7, ein Lernmerkmalsbild erstellt und
dann im Lernmerkmalspunktversatzkorrekturschritt 103 im Hinblick auf Position, Rotations
winkel und Maßstab korrigiert. Diese Korrektur kann auch die gewichtete normierte Korrela
tionsberechnung einsetzten, die später beschrieben wird. Da das Merkmalspunktgewicht w
noch nicht bestimmt ist, wird es für alle Merkmalspunkte bei der gewichteten normierten
Korrelationsberechnung gleich gehalten, zum Beispiel wi(k) = 1, wobei i = 1, . . ., Np(k) Das
versatzkorrigierte Lernmerkmalsbild wird unter Verwendung der optimalen Quantisierungsbreite
wie im Schritt 104 in Fig. 7 quantisiert.
Darüberhinaus werden Merkmalswerthistogramme jeweiliger Merkmalspunkte erzeugt, und ihre
Verteilung wird dazu verwendet, die Merkmalspunktgewichte zu bestimmen.
Die Referenztabelle 71, in der Lerndaten im Lerndatenspeicherschritt 107 gespeichert werden,
unterscheidet sich in der Ausgestaltung von der bei der ersten Ausführungsform verwendeten
Referenztabelle. Wie in Fig. 18 gezeigt, ist beispielsweise eine Folge von x-y Koordinatenwert,
Merkmalswert f und Merkmalspunktgewicht w jedes Merkmalspunkts in jedem Merkmalsbild
gespeichert. Das heißt, für ein erstes Merkmalsbild f(1) ist eine Folge von Daten ((xi(1), yi(1),
fi(1), wi(1); i = 1, . . ., Np(1)) für jeden Merkmalspunkt in einer Referenztabelle 71₁ gespeichert
und für ein N-tes Merkmalsbild f(N) ist eine Folge von Daten ((xi(N), yi(N), fi(N), wi(N); i = 1, . . .,
Np(N)) für jeden Merkmalspunkt in einer Referenztabelle 71 N gespeichert.
Der Lernmerkmalsbilderstellungsschritt 111 in der Lernmerkmalskombinationsprozedur 110 ist
der gleiche wie bei der ersten Ausführungsform. Was die bereits versatzkorrigierten
Merkmalsbilder angeht, werden nur Folgen von Merkmalspunkten in einem umschriebenen
Rechteck eines Standardobjekts der gewichteten verallgemeinerten Hough-Transformationsver
arbeitung unterzogen. In diesem Fall können der Rotationswinkel e und das Maßstabsände
rungsverhältnis s fest auf "0" bzw. "1" eingestellt werden. Für ein nicht-versatzkorrigiertes Bild
eines guten Objekts und ein Bild eines schlechten Objekts sind die zu verarbeitenden Folgen von
Merkmalspunkten alle Merkmalspunkte in den Lernbildern, und ihre Rotationswinkel und
Maßstabsänderungsverhältnisse werden frei eingestellt. Die Bilder sowohl guter als auch
schlechter Objekte können versatzkorrigiert werden, jedoch ist bei dem Bild eines schlechten
Objekts und bei Bildern, denen Rauschen überlagert ist, die Versatzkorrekturfähigkeit allgemein
mit den Arten von Bildmer 47314 00070 552 001000280000000200012000285914720300040 0002019521346 00004 47195kmalen unterschiedlich. Somit ist es notwendig, Merkmale unter
Berücksichtigung eines Versatzkorrekturfehlers auszuwählen. Aus diesem Grund wird bei dieser
Ausführungsform keine Versatzkorrektur durchgeführt.
Das im Schritt 111 erstellte Lernmerkmalsbild wird mit der im Schritt 104 verwendeten
Quantisierungsbreite quantisiert, und das quantisierte Merkmalsbild wird im Schritt 309 einer
gewichteten normierten Korrelationsoperation unterzogen. Im Schritt 309 wird für jeden
Rotationswinkel Θ, jedes Maßstabsänderungsverhältnis s und jeden Punkt (x, y) die folgende
Verarbeitung ausgeführt. Geht man davon aus, daß jeder Punkt (x′, y′) eine vorhergesagte Lage
des Ursprungs des Objekts repräsentiert, dann wird die gewichtete normierte Korrelations
operation zwischen einer Folge von Lernmerkmalspunktwerten fi(k), i = 1 Np(k) k = 1, . . .,
N (einer Folge von Merkmalspunktgewichten: wi(k), i = 1, . . ., Np(k)) und Bildmerkmalswerten
gi(k), i = 1, . . ., Np(k) an denselben relativen Positionen (x′ + xi(k), y′ + yi(k)) von Probenbildern
guter und schlechter Objekte wie die Lernmerkmalspunkte ausgeführt. In diesem Fall ist die
benutzte Adresse xi(k), yi(k) des Lernmerkmalspunktwerts eine Adresse, die für die
vorhergesagten Werte des Rotationswinkels θ und des Maßstabs s transformiert (durch affine
Transformation) wurde. Bezeichnet man einen gewichteten normierten Korrelationsfaktor für
einen vorhergesagten Parameter (x′, y′, θ, s) mit A(k | x′, y′, θ, s), dann gilt
A(k|x′, y′, θ, s)
= Σ(w₁(k) (f₁(k) - f′m(k) × (g₁(k) - g′m(k)) (9)
/((Σw₁(k)) (Σ(f₁(k) - f′m(k))² × Σ(g₁(k) - g′m(k))²)1/2
= Σ(w₁(k) (f₁(k) - f′m(k) × (g₁(k) - g′m(k)) (9)
/((Σw₁(k)) (Σ(f₁(k) - f′m(k))² × Σ(g₁(k) - g′m(k))²)1/2
wobei f′m(k) und g′m(k) Mittelwerte von Merkmalswertfolgen sind, die wie folgt gegeben sind:
f′m(k) = (1/Np(k)) Σfi(k)
g′m(k) = (1/Np(k)) Σgi(k) (10)
g′m(k) = (1/Np(k)) Σgi(k) (10)
Darin ist Σ die Summe von i = 1 bis Np(k). Der errechnete Parameter A(k | x′, y′, θ, s) ist ein
Akkumulationshistogramm für den Parameterraum (x′, y′, θ, s) in der gewichteten verallge
meinerten Hough-Transformation; im Fall der gewichteten normierten Korrelation ist es jedoch
die normierte Korrelationsfaktorverteilung für den Parameterraum (x′, y′, Θ, s).
Die nachfolgende Verarbeitung des Parameters A(k | x′, y′, Θ, s) ist die gleiche wie bei der
ersten Ausführungsform.
In dem Merkmalsgewichtmeßschritt 115 werden Gewichtswerte für die Merkmalsbilder in
gleicher Weise wie bei der ersten Ausführungsform gespeichert. Wie in Fig. 1 9 gezeigt wird der
Gewichtswert W(k) in dem Vorspann jedes Merkmals in der Referenztabelle 71 von Fig. 18
gespeichert.
Die Untersuchungsprozedur 200 ist ebenfalls identisch mit derjenigen der ersten Ausführungs
form mit Ausnahme der Errechnung des gewichteten normierten Korrelationsfaktors durch
Gleichung (9) in einem gewichteten normierten Korrelationsoperationsschritt 310 anstelle des
gewichteten verallgemeinerten Hough-Transformationsschritts 204 bei der ersten Ausführungs
form.
Als nächstes wird vorab der Kontrast R/σ², der als das Verhältnis des Dynamikbereichs R eines
Intensitätsbildes zu seiner Varianz σ² definiert ist, für eine Vielzahl von Lernbildern eines guten
Objekts gemessen. Durch Auswahl des verwendeten Anpassungsverfahrens nach Maßgabe der
Größe des Kontrasts der Lernbilder eines guten Objekts ist es möglich, eine vergrößerte
Flexibilität bei der Verarbeitung von untersuchten Objekten zu erzielen. Das heißt die
gewichtete verallgemeinerte Hough-Transformation basierend auf einem Konturmerkmalsbild wie
einem Kantenbild erzeugt einen sehr exzellenten Effekt bei einem Bild mit hohem Rauschanteil
und geringem Kontrast. Andererseits eignet sich die gewichtete normierte Korrelation auf der
Basis eines Bereichsmerkmalsbildes wie eines Intensitätsmerkmalsbildes zur Anwendung bei
einem Bild mit geringem Rauschen und hohem Kontrast. Wie in Fig. 29A gezeigt, wird der
Kontrast jedes Lernbildes gemessen, und der Meßwert wird einer Schwellenwertverarbeitung
unterzogen. Wenn der Kontrast kleiner ist als der Schwellenwert, wird die gewichtete
verallgemeinerte Hough-Transformation nach Fig. 7 unter Verwendung des Konturmerkmals
bildes zur Erzeugung von Lerndaten ausgeführt. Wenn der Kontrast größer als der Schwellen
wert ist, wird die gewichtete normierte Korrelationsoperation nach Fig. 17 unter Verwendung
des Bereichsmerkmalsbildes zur Erzeugung von Lerndaten ausgeführt. Solch eine automatische
Auswahl des Anpassungsverfahrens erlaubt eine flexiblere Untersuchungssteuerung. In diesem
Fall ist der Schwellenwert bei jedem speziellen Bild des untersuchten Objekts anders und wird
daher experimentell bestimmt.
Wie in Fig. 29B gezeigt, wird alternativ die gewichtete verallgemeinerte Hough-Transformation
für das Konturmerkmalsbild des Lernbildes ausgeführt, und der Verteilungsabstand zwischen
den Ähnlichkeitsverteilungen guter und schlechter Objekte wird gemessen, während für das
Bereichsmerkmalsbild die gewichtete normierte Korrelationsoperation ausgeführt wird und der
Verteilungsabstand zwischen den Ähnlichkeitsverteilungen guter und schlechter Objekte
gemessen wird. Durch Wahl der Lerndaten des größeren Verteilungsabstandes kann das
optimale Anpassungsverfahren übernommen werden.
Unter Bezugnahme als nächstes auf die Fig. 20 und 21 wird eine Untersuchung auf der
Basis einer gewichteten Differenzoperation an Hough-Ebenen als ein Beispiel einer Untersuchung
beschrieben, die eine gewichtete Differenzoperation verwendet. Diese Ausführungsform
verwendet die Erstreckung als ein Merkmal einschließlich der Phasenbeziehung um einen
Kantenpunkt. Die Erstreckung ist ein Merkmalswert jedes Pixels, der durch den Mittelwert
von Längen radialer Abtastlinien von dem Pixel innerhalb eines bestimmten Extraktionsfeldradius
zu Kanten, welche die Abtastlinien jeweils zum ersten Mal treffen (s. Fig. 22). Auf der Kante ist
die Erstreckung Null und schließt Eigenschaften der Kante ebenso ein. Es sei hier angenommen,
daß der Kanten punkt ein Nulldurchgangspunkt ist, der von einer Intensitätsvariation nicht leicht
beeinflußt wird. Diese Ausführungsform zielt auf ein verbessertes Erkennungsvermögen durch
Ausnutzung von Merkmalssätzen sowohl der Erstreckungsverteilung als auch der Intensitäts
verteilung ab. Diese Bildmerkmale werden in dem Rahmen mehrfacher Auflösung (Mehrfachauf
lösungsebenen) beschrieben, so daß eine grob-zu-feine effiziente Erkennungsstrategie in der
Hough-Transformationsoperation übernommen werden kann.
Diese Ausführungsform ist auf die Untersuchungsverarbeitung auf der Basis einer "merkmals
multiplizierten Hough-Transformation" gerichtet. In einem Lernmerkmalsbilderstellungsschritt
102 wird eine Vielzahl von Lernmerkmalsbildern eines guten Objekts durch Glättungs- und
Wiederabtastungsverarbeitung komprimiert, wonach Merkmale für jeden spezifizierten
Auflösungspegel extrahiert und in einer Mehrfachauflösungs-Mehrschichtmerkmalsebene
gespeichert werden.
Ein für jede Auflösung extrahierter Satz von Merkmalen sei repräsentiert durch
Ω = ((Fk(x, y), x=1. . .Dx), Y=1. . .Dy), k=1. . .Nf
wobei Nf die Anzahl von Merkmalen und DxxDy die Auflösung ist.
Wie bei der ersten und der zweiten Ausführungsform erfolgt im Schritt 104 die Quantisierung von
Bildmerkmalen, und die Gewichte jeweiliger Merkmalspunkte werden auf der Basis von Merk
malswerthistogrammen von in den Schritten 105 und 106 erhaltenen Lernmerkmalspunkten
bestimmt. Die Gewichte werden so normiert, das die Gesamtsumme von Merkmalspunkten
gleich einer vorbestimmten Merkmalspunktanzahl Np wird. Gleichzeitig wird in einem
Standardbilderstellungsschritt 401 ein Merkmalswert oder Mittelwert, der den Häufigkeits
maximalwert liefert, aus dem Merkmalshistogramm jedes Lernmerkmalspunktes errechnet, und
der errechnete Wert wird dem Merkmalspunkt zugewiesen, wodurch ein Standardmerkmalsbild
erstellt wird.
Das Standardmerkmalsbild wird der unten beschriebenen Verarbeitung unterzogen.
Im Schritt 104 werden Bildmerkmale in dem Standardmerkmalsbild im Hinblick auf die Erhöhung
der Effizienz des Systems und der Effizienz der Anpassung durch die Hough-Transformations
operation quantisiert, wie zuvor im Hinblick auf die erste Ausführungsform beschrieben. Wenn
Gk(x, y) den durch Quantisieren des Merkmalswerts Fk(x, y) an jedem Merkmalspunkt (x, y) in
dem jeweiligen Standardmerkmalsbild k unter Verwendung der Anzahl Iq(k) von Quantisierungs
pegeln erhaltenen Merkmalswert repräsentiert, dann gilt
Gk(x, y) = ((Fk(x, y) - Fmin)/Rk) × Iq(k)
wobei
0 Gk(x, y) Iq(K)-1
Darin ist Fmin der Minimalwert des Merkmalswerts Fk, und Rk ist der Dynamikbereich des
Merkmalswerts Fk.
In einem Mehrfachbitebenenerstellungsschritt 402 wird der Merkmalswert Gk(x, y) auf eine
Mehrfachmerkmalsbitebene Bk abgebildet (gemapped), die EIN/AUS einer jedem Quantisierungspegel
(Merkmalswertpegel) entsprechenden (x, y)-Ebene ausdrückt. Das heißt,
Bk = [Bku(x, y), u = 0, . . ., Iq(k)-1]
Man nehme beispielsweise an, daß der quantisierte Merkmalswert Gk(x, y am Merkmalspunkt
(x, y) nach Quantisierung mit der Anzahl Iq(k)=4 von Quantisierungspegeln 2 ist. Auf der
Ebene Bku(x, y) ist das Bit nur dann EIN, wenn u=2, das heißt Bk2(x, y)=1. Wenn u≠2, ist
das Bit AUS, das heißt Bk0(x, y)=Bk1(x, y)=Bk3(x, y)=0. Beispielsweise wird ein
Merkmalsbild Gk(x, y) 73, das in drei Werte einer bestimmten Zelle quantisiert wurde, wie in
Fig. 23 gezeigt, auf eine Merkmalsbitebene (Bk0(x, y)) 74 eines quantisierten Werts (eines
Merkmalswertpegels 0, eine Merkmalsbitebene (Bk1(x, y) 75 eines quantisierten Werts
(Merkmalswertpegels) 1 und eine Merkmalsbitebene (Bk2(x, y) 76 eines quantisierten Werts
(Merkmalswertpegels) 2 abgebildet.
Dieses Abbilden findet für jedes Merkmal statt, und die Elemente werden dann in Kaskade
verkoppelt, wodurch eine Mehrfachmerkmalsbitebene B für alle Merkmale definiert wird. Das
heißt,
[(B1u(x, y), u = 0, . . ., Iq(1)-1),
. . .
[(Bku(x, y), u = 0, . . ., Iq(k)-1),
. . .
[(BNfu(x, y), u = 0, . . ., Iq(Nf)-1),
→ B = [Bvx, y), v = 0, . . ., V-1),
. . .
[(Bku(x, y), u = 0, . . ., Iq(k)-1),
. . .
[(BNfu(x, y), u = 0, . . ., Iq(Nf)-1),
→ B = [Bvx, y), v = 0, . . ., V-1),
wobei V die Mehrwertigkeit der Mehrfachmerkmalsbitebene B ist, die gegeben ist durch
Als nächstes wird in einem gewichteten Hough-Transformationsschritt 403 die gewichtete
Hough-Transformationsoperation ausgeführt. Das heißt, nur wenn das Bit an dem Punkt (x, y)
EIN ist,
Θ = (t-1) ΔΘ.
Für ΔΘ = π/DΘ, t=1, . . ., DΘ wird jedoch folgende Adressenübersetzung ausgeführt
ρ = (X-X₀) cos Θ + (y-y₀) sin Θ
und das Gewicht w an dem Punkt (x, y) wird zu einem Punkt (ρ, Θ) auf eine Hough-Ebene H
akkumuliert, die eine Votierungsebene ist, erhalten durch Quantisieren von (ρ, Θ) mit einer
Teilerzahl DρDΘ.
H = ((h(r,t), r=1, . . ., Dρ), t=1, . . ., DΘ)
Hierin ist
r = (ρ+ρ₀)/Δρ
wobei
(x₀, y₀): Koordinaten des Ursprungs.
Diese Operation wird für alle Punkte (x, y) (x=1, . . ., Dx, y=1, . . ., Dy) ausgeführt.
In einem Mehrfach-Hough-Ebenenerstellungsschritt 404 wird die oben beschriebene Operation
für jede Bitebene Bv (v=0, . . ., V-1) der Mehrfachmerkmalsbitebene durchgeführt, wodurch
eine Mehrfach-Hough-Ebene HM gebildet wird:
HM = (((hv(r,t), r=1, . . ., D(ρ)), t=1, . . ., D(Θ)), v=0, . . ., V-1)
Jede Merkmalspunktgewichtinformation und die Mehrfach-Hough-Ebeneninformation, die durch
die obige Operation errechnet wurde, werden für jedes Bildmerkmal im Schritt 107 in einer
Referenztabelle gespeichert. Ferner werden die Lage und das Gewicht jedes Merkmalspunkts auf
jeder Bitebene in einer solchen Referenztabelle gespeichert, wie sie in Fig. 14 gezeigt ist. In
diesem Fall kann das Merkmalspunktgewicht für die jeweiligen Bitebenen für dasselbe Merk
malsbild gemeinsam verwendet werden, oder das Merkmalspunktgewicht kann für jede Bitebene
errechnet werden. Fig. 23 zeigt den Fall der Verwendung einer Merkmalspunktsgewichtebene 74
gemeinsam für die mehreren Bitebenen 73. Diese Ebenen und eine Referenz-Mehr
fach-Hough-Ebene 75 werden in dem Referenzspeicher gespeichert.
Die Lernmerkmalskombinationsprozedur 110 beginnt mit Schritt 111, der Erstellung von Lern
merkmalsbildern aus Lernbildern guter und schlechter Objekte, gefolgt von Schritt 405, der
Korrektur der Lernmerkmalsbilder hinsichtlich Merkmalspunktversatzes. Der Grund für die
Durchführung der Versatzkorrektur in dieser Stufe ist es, die Erstellung einer Korrespondenz
zwischen den Lernmerkmalspunkten und Adressen von Merkmalspunkten in einem Standard
merkmalsbit zum Zeitpunkt der Durchführung der gewichteten Hough-Transformationsoperation
zu erleichtern.
Im Schritt 112 werden die versatzkorrigierten Merkmalsbilder quantisiert, worauf Schritt 406
folgt, in welchem eine Mehrfachbitebene erstellt wird. Daran schließt sich Schritt 407 an, in
welchem die gewichtete Hough-Transformationsoperation unter Verwendung von Merkmals
punktgewichten des Standardmerkmalsbildes ausgeführt wird. Als Resultat wird im Schritt 408
eine Mehrfach-Hough-Ebene gebildet, und im Schritt 409 die Differenz zwischen der Mehr
fach-Hough-Ebene und der für das Standardbild errechnet, welche in der Referenztabelle gespeichert
ist, wie unten beschrieben.
Da in diesem Fall der relative Versatz zwischen den mehreren Hough-Ebenen bereits korrigiert
wurde, ist die Differenz dist(v) zwischen den zwei Hough-Ebenen h und h′ in Relation zum
Merkmalswertpegel (dem quantisierten Wert v wie folgt definiert:
Wenn die Merkmalspunktgewichte des Standardbildes alle gleich sind, kann die Versatzkorrektur
auf der Basis der Verteilungen der mehreren Bitebenen erfolgen. Die Rotationskorrektur kann
dadurch erzielt werden, daß Element der Mehrfach-Hough-Ebenen in unterschiedlichen Reihen
folgen so geordnet werden, daß ihre Arrayelemente, die beispielsweise t betreffen, in Richtung
der maximalen Häufigkeit übereinstimmen bzw. zusammenpassen.
tMAX = MAX [t|hv(r,t),r=1,.,Dρ,t=1,.,DΘ]
Die Korrektur der Position des Schwerpunkts kann durch Berechnung des Betrages des
Versatzes erfolgen, der die Differenz minimiert.
In einem Bitebenengewichtsmeßschritt 410 wird die Differenz gewichtet. Dies wird ausgeführt,
indem der Merkmalswertpegel v gewichtet wird, das heißt indem die Bitebene gewichtet wird.
Ein statistischer Gewichtungsfaktor wie der Bhattacharyya-Abstand kann verwendet werden,
wenn die Intrakategorieverteilung (beispielsweise die Verteilung für ein gutes Objekt) und die
Interkategorieverteilung (die Verteilung von schlechtem Objekt zu gutem Objekt) hinsichtlich der
Differenz der normalen Verweilung folgen. Da jedoch die Anzahl von Lernproben in vielen Fällen
gering ist, ist ein anderes Maß erforderlich. Diese Ausführungsform verwendet als solch ein
Maß die Entfernung oder den Abstand zwischen der schlechtesten der einfachsten Intrakate
gorieverteilungen (das schlechteste unter guten Objekten beispielsweise) und dem besten der
Interkategorieverteilungen (das guten Objekten nächstkommende schlechte Objekt).
Wenn M die Anzahl von Lernproben für jede Kategorie repräsentiert, dann ist eine Folge von
Differenzverteilungen unter guten Objekten bis zu einem v-ten Merkmalspegel wie folgt
definiert:
distw(v) = {distw(1,v), . . ., distw(m,v), . . ., distw(M, v)}
Wenn N die Anzahl von Proben schlechter Objekte ist, dann ist die Folge von Differenz
verteilungen zwischen guten und schlechten Objekten bis zum v-ten Merkmalspegel wie folgt
definiert:
distB(v) = {distB(1,v), . . ., distw(n′,v), . . ., distB(N, v)}
Darin ist das Gewicht des v-ten Merkmalspegels wie folgt gegeben:
W(v) = MIN(diStB(v)) - MAX(distw(v)) + c
wobei c ein Versatzwert (Offsetwert) für W(v) 0 ist.
Allgemein sollte das Untersuchungsvermögen für alle Kombinationen an jedem Merkmalspegel
bewertet werden, im Hinblick auf ein Lernen hoher Effizienz wird jedoch eine sequentielle
Merkmalsauswahlprozedur der Kombination von Merkmalen in absteigender Folge des Merk
malspegels in einem Merkmalskombinationsschritt 411 eingesetzt. Das heißt, setzt man eine in
neue Reihenfolge gebrachte Gewichtsfolge auf
W(v) = SORT[v|W(v)]
dann ist die Differenzverteilung distw(m, vr) unter guten Objekten und die Differenzverteilung
distB(n′, Vr) zwischen guten und schlechten Objekten, die erzeugt werden, wenn Merkmale bis
hinunter zu einem Vr-ten in absteigender Folge des Gewichts kombiniert werden, wie folgt
gegeben:
Dann wird im Schritt 412 die Häufigkeit, mit der die Folge der Differenzverteilung zwischen
guten und schlechten Objekten die Folge der Differenzverteilung unter guten Objekten über
lappt, das heißt ein Überlappungszählwert (n, Vr) der Differenzverteilung zwischen guten und
schlechten Objekten distB(n, Vr), die unten definiert ist, als ein einfaches Maß berechnet, das
die Differenz zwischen der Verteilung distw(m, Vr) und der Verteilung distB(n′, Vr) liefert:
Allgemein nähert sich dieser Zählwert asymptotisch Null, wenn die Anzahl Vr kombinierter
Merkmale zunimmt. (ε ( 0) ist hierin ein Sicherheitsparameter, der die Anzahl von Überlappun
gen erhöht und eine Erhöhung der Anzahl kombinierter Merkmale bewirkt, was eine Sicherheit
des Systems bietet. Wenn der Zählwert nicht abnimmt, selbst wenn die Anzahl kombinierter
Merkmalspegel Vr erhöht wird, wird die Kombination von Merkmalspegeln im Schritt 413 abge
brochen. Die Anzahl der in diesem Moment kombinierten Merkmalspegel sei mit Lr* bezeichnet
und der Wert, der durch Teilen des Grenzzählwerts durch die Probenanzahl N schlechter Objekte
erhalten wird, sei mit Nu* bezeichnet (0 Nu* 1). Das heißt,
Lr *(n) = OPTMIN[Vr|overlap(Vr)]
Nu *(n) = overlap(Lr *)/N (13)
Nu *(n) = overlap(Lr *)/N (13)
Der Wert Nu* ist ein Bewertungsmaß; je kleiner der Wert, desto mehr nimmt das Untersu
chungsvermögen zu. Ein Maß ψ, das aus dem obigen Maß so abgeleitet ist, daß je größer sein
Wert, umso weiter nimmt das Untersuchungsvermögen zu, ist wie folgt definiert:
ψ = 1 - Nu * (14)
Im Schritt 414 wird ein Schwellenwert zur Beurteilung, ob das untersuchte Objekt gut oder
schlecht ist, auf einen Wert zwischen der Intrakategoriedifferenzverteilung (gutes Objekt) und
der Interkategoriedifferenzverteilung (zwischen guten und schlechten Objekten) oder auf den
Grenzwert eines guten Objekts (einen Grenzwert mit einer Toleranz des Sicherheitsparameters ε
gesetzt).
In der Untersuchungsprozedur wird im Schritt 201 ein Untersuchungsbild eingegeben, im Schritt
202 ein Untersuchungsmerksmalsbild erstellt, im Schritt 420 der Versatz korrigiert, im Schritt
203 das Untersuchungsmerkmalsbild quantisiert, im Schritt 421 eine Mehrfachbitebene erstellt,
im Schritt 422 eine gewichtete Hough-Transformation ausgeführt, im Schritt 423 eine Mehr
fach-Hough-Ebene gebildet und, wenn nötig, ein Versatz korrigiert, im Schritt 424 wird die
Differenz zwischen der Mehrfach-Hough-Ebene und der im Schritt 404 gebildeten Refe
renz-Mehrfach-Hough-Ebene durch Gleichung (11) errechnet, wobei die optimale Kombination von
Merkmalspunktgewichten und die optimale Kombination von Merkmalspegeln verwendet wird,
die in der Lernprozedur erhalten wurden, und im Schritt 206 ein Schwellenwert zur Beurteilung
benutzt, ob das untersuchte Objekt gut oder schlecht ist.
Obwohl bei der dritten Ausführungsform die gewichtete Hough-Transformation basierend auf
dem Merkmalspunktgewicht eingesetzt wird, ist es auch möglich, mit der einfachen
Hough-Transformation mit hoher Zuverlässigkeit zwischen guten und schlechten Objekten zu unter
scheiden, mit hoher Erkennungsrate Objekte zu erkennen und mit Sicherheit Objekte zu sortie
ren, und zwar in Umgebungen, wo die Bildintensität unter dem Einfluß von Rauschen oder einer
Änderung im Zustand der Beleuchtung variiert. Der Verarbeitungsfluß in diesem Fall ist in den
Fig. 24 und 25 gezeigt, wo die Schritte, die solchen in den Fig. 20 und 21 entsprechen, mit
denselben Bezugszahlen versehen sind. Da die Verarbeitung bei dieser Ausführungsform
weitestgehend die gleiche wie bei der dritten Ausführungsform ist, wird hauptsächlich der
Unterschied zwischen diesen Ausführungsformen beschrieben werden. Diese Ausführungsform
verwendet ebenfalls Merkmalssätze sowohl der Erstreckungsverteilung, die in Fig. 22 dargestellt
ist, als auch der Intensitätverteilung als das Merkmal, das die Phasenbeziehung um den Kanten
punkt einschließt. In dieser Ausführungsform wird das quantisierte Lernmerkmalsbild zur Erstel
lung der Mehrfachbitebene B in dem Mehrfachbitebenenerstellungsschritt 402 verarbeitet. In
einem Hough-Transformationsoperationsschritt 501 wird die Hough-Transformation für jede
Bitebene der Mehrfachbitebene B durchgeführt. Bei dem gewichteten Hough-Transformations
schritt 403, der in Fig. 20 gezeigt ist, wird das Merkmalspunktgewicht B des Punktes (x, y), wo
das Bit EIN geschaltet wird, zu dem entsprechendem Punkt (ρ, Θ) akkumuliert (votiert),
während im Schritt 501 "1" akkumuliert wird. Im Schritt 404 wird solch eine Mehrfach-Hough-Ebene
erzeugt und im Schritt 107 wird sie in der Referenztabelle gespeichert.
Im Versatzkorrekturschritt 405 der Lernmerkmalskombinationsprozedur 110 wird der Schwer
punkt des im Schritt 109 eingegebenen Merkmalsbildes auf den Koordinatenursprung (x₀, y₀)
gesetzt, und mögliche Maßnahmen für die Stellung sind i) die Hauptachsenrichtung durch eine
Momentenoperation, ii) Berechnung der mittleren Richtung und iii) Richtung der maximalen
Häufigkeit. Vom Gesichtspunkt der Robustheit und Affinität für die Hough-Transformation wird
jedoch die Richtung maximaler Häufigkeit zur Korrektur der Rotation der Stellung verwendet,
was die gleiche Korrektur ist, wie sie im Schritt 405 in Fig. 20 ausgeführt wird. Im Schritt 502
wird eine einfache Hough-Transformationsoperation, nicht eine gewichtete, für die im Schritt
406 erhaltene Mehrfachbitebene ausgeführt. Diese Hough-Transformationsoperation wird in
gleicher Weise wie im Schritt 501 ausgeführt. Auf diese Weise wird im Schritt 409 die Differenz
zwischen der Mehrfach-Hough-Ebene des im Schritt 109 eingegebenen Lernbildes und der Refe
renz-Hough-Ebene, die im Schritt 107 in die Referenztabelle gespeichert wurde, errechnet. Im
Schritt 410 werden die Gewichte der Bitebenen bestimmt. Im Schritt 411 werden die Merkmals
pegel kombiniert. Im Schritt 412 wird die Anzahl gezählt, bei der die Folge der Differenzvertei
lung zwischen guten und schlechten Objekten kleiner wird als der schlechteste Wert der Diffe
renzverteilung unter guten Objekten, das heißt die Anzahl von Überlappungen. Im Schritt 413
wird die Anzahl von kombinierten Merkmalspegeln erhöht, bis der Zählwert nicht weiter
abnimmt, und der in diesem Moment vorhandene Zählwert wird dazu verwendet, Maße für die
Bewertung des Untersuchungs- und Erkennungsvermögens zu erhalten. Im Schritt 141 wird der
Schwellenwert für die Beurteilung mittels der Verarbeitung wie bei der dritten Ausführungsform
bestimmt.
In der Untersuchungsprozedur 200 stimmt diese Ausführungsform mit der dritten Ausführungs
form in der Verarbeitung von Schritt 201 bis Schritt 412 überein. Bei dieser Ausführungsform
wird jedoch jede Bitebene der Mehrfachbitebene im Schritt 503 der Hough-Transformationsver
arbeitung unterzogen, das heißt die Hough-Transformationsverarbeitung im Schritt 422 in Fig.
21 wird durchgeführt, wobei das Merkmalspunktgewicht "1" ist. Im Schritt 423 wird die Mehr
fach-Hough-Ebene für einen vorbestimmten Merkmalspegel erzeugt. Im Schritt 424 wird die
Differenz zwischen dieser Mehrfach-Hough-Ebene und der Referenz-Mehrfach-Hough-Ebene, die
im Schritt 102 erhalten wird, errechnet, und im Schritt 206 wird auf gleiche Weise wie bei der
dritten Ausführungsform beurteilt, ob das Objekt gut oder schlecht ist.
Mit der Verwendung solch einer Mehrfach-Hough-Ebene ist es ebenso möglich, eine Bildunter
suchung/-erkennung unter Ausnutzung der Ähnlichkeit anstelle der Differenz vorzunehmen. Wie
in Fig. 28 gezeigt, in der Schritte, die solchen in den Fig. 7, 20 und 21 entsprechen, mit
denselben Bezugszahlen versehen sind, wird in diesem Fall das im Schritt 104 erhaltene quanti
sierte Merkmalsbild im Schritt 402 zu einer Mehrfachbitebene gemacht, und im Schritt 107 wird
eine Referenztabelle, in der Adressen von Merkmalspunkten gespeichert sind unter Verwendung
von Merkmalspegeln als Indizes für jede Bitebene erstellt und in einem Speicher gespeichert. In
der Lernmerkmalsbildkombinationsverarbeitung wird das im Schritt 112 quantisierte Merkmals
bild im Schritt 406 zu einer Mehrfachbitebene gemacht, und im Schritt 131 wird jede Bitebene
unter Verwendung der entsprechenden Referenztabelle der verallgemeinerten Hough-Transfor
mationsverarbeitung unterzogen. Das heißt, die Votierungsgröße (Vote) in der Verarbeitung von
Schritt 113 in Fig. 7 ist ständig auf "1" gesetzt, nicht auf das Merkmalspunktgewicht W. Im
Schritt 114 wird in gleicher Weise wie im Schritt 114 in Fig. 7 für jeden Merkmalspegel, das
heißt für jede Bitebene, die Ähnlichkeit berechnet. Im Schritt 115 wird das Gewicht jeder
Bitebene (jeder Merkmalspegel) mit derselben Verarbeitung wie im Schritt 115 in Fig. 7
bestimmt. Im Schritt 117 wird der Abstand zwischen guten und schlechten Objekten für
kombinierte Bitebenen (Merkmalspegel) mit derselben Verarbeitung wie im Schritt 117 in Fig. 7
berechnet. Im Schritt 118 wird wie im Fall von Fig. 7 die Kombination von Merkmalspegeln
bestimmt, und im Schritt 119 wird in ähnlicher Weise der Schwellenwert bestimmt. In der
Untersuchungsprozedur 200 wird das im Schritt 203 erhaltene quantisierte Merkmalsbild zur
Erstellung einer Mehrfachbitebene verarbeitet. Im Schritt 204 wird jede Bitebene der verallge
meinerten Hough-Transformationsverarbeitung unterzogen, wobei die Referenztabelle mit darin
im Schritt 107 eingespeicherten Lerndaten verwendet wird. Im Schritt 205 wird in ähnlicher
Weise wie im Schritt 205 in Fig. 7 die Ähnlichkeit berechnet. Im Schritt 206 werden die
Ähnlichkeit und ein Schwellenwert verglichen, um zu beurteilen, ob das untersuchte Objekt gut
oder schlecht ist.
Bei dem Voranstehenden ist das Maß der Beurteilung die Ähnlichkeit, aber im Fall der Untersu
chung einer Installationsposition sind der Betrag eines Versatzes (einer Verschiebung), einer
Rotationsänderung und einer Maßstabsänderung relativ zu Standardwerten wichtig. Die gewich
tete verallgemeinerte Hough-Transformationsoperation und die gewichtete normierte Korrela
tionsoperation erlauben beide die Berechnung des Versatzes und des Betrags der Rotation des
Ursprungs des Objekts die die maximale Häufigkeit liefern, und erlauben auch die Erfassung des
Betrags einer Maßstabsänderung. Diese Operationen können somit auf die Untersuchung einer
Installationsposition angewendet werden. Im Fall der Anwendung der oben beschriebenen
Ausführungsformen auf die Sortierung oder die Erkennung beispielsweise, ob ein Eingangsbild in
eine spezielle einer ersten bis n-ten Kategorie fällt, wird eine i-te Kategorie (wobei i = 1, 2, . . .,
n) als eine gute Objektkategorie und die anderen Kategorien als schlechte Objektkategorien
eingestellt. Lerndaten für die i-te Kategorie, das heißt die Referenztabelle (die Referenz-Hough-Ebene)
in den Ausführungsformen, werden dazu benutzt die Verteilung der Ähnlichkeit oder
Differenz in der i-ten Kategorie und die Verteilung der Ähnlichkeit oder Differenz zwischen der
i-ten Kategorie und jeder der anderen zu erhalten. Die optimale Kombination von Merkmalen
(Kombination von Merkmalspegeln) wird auf der Basis des Abstands zwischen den beiden
Verteilungen bestimmt, und das Eingangsbild wird als in die Kategorie fallend sortiert oder
erkannt, die der maximalen der n Ähnlichkeiten oder der minimalen der n Differenzen entspricht,
die für die erste bis n-te Kategorie erhalten wurden.
Auch im Fall der Berechnung der gewichteten normierten Korrelation, die in Fig. 17 gezeigt ist,
ist es möglich, die in Fig. 20 gezeigte Verarbeitung einzusetzen. Das heißt eine Mehrfachbit
ebene wird gebildet; die gewichtete normierte Korrelation zwischen ihren entsprechenden
Bitebenen wird berechnet; die Gewichte von Merkmalspegeln (in den Bitebenen) wird berechnet;
die Kombination von Merkmalspegeln wird bestimmt; und die gewichtete normierte Korrelation
zwischen der Mehrfachbitebene des Merkmalsbildes des Eingangsbildes und der Mehrfachbit
ebene des Merkmalsbildes der Lernbildes wird für die obige Kombination berechnet. Wie es
hinsichtlich des Zusammenhangs zwischen den Fig. 24 und 25 der Fall ist, ist es auch
möglich die Ähnlichkeit auf der Mehrfachbitebene in Fig. 20 zu berechnen, das heißt das
Schema von Fig. 7 auf die Mehrfachbitebene anzuwenden.
Im Fall der Erkennung von Objekten aus N Kategorien entsprechend der dritten Ausführungs
form wird das Bewertungsmaß MEAN (Nu*) zur gleichmäßigen Unterscheidung der N Kategorien
aus Gleichung (12) wie folgt abgeleitet:
Die folgende Gleichung kann dazu verwendet werden, dieses Bewertungsmaß zu einem Maß ψ
zu ändern, welches das Unterscheidungsvermögen mit einer Zunahme seines Werts erhöht:
ψ = 1 - MEAN(Nu*)
Die mittlere Anzahl von Merkmalspegelkombinationen in allen der N Kategorien sei MEAN(Lr*),
das heißt
Dieses Maß ψ wird zur Bewertung der Auswahl der Merkmalspegel-(Bitebenen)-Kombination
verwendet.
Die Differenz zwischen einem unbekannten Eingangsbild und jeder Kategorie kann auf der Basis
von Gleichung (11) durch die folgende Gleichung ausgedrückt werden, wobei die optimale
Merkmalspegelkombination verwendet wird, die durch Lernen bestimmt wurde:
dist(n, Lr*(n)) = Σ(W(n,v)dist(v))/ΣW(n,v)
wobei Σ die Summe von v = 1 bis Lr*(n) angibt. Die Kategorie n, die diese Differenz minimiert
ist das Ergebnis der Erkennung des unbekannten Eingangsbildes. Im Fall des Vergleiches dieser
Differenz unter den Kategorien, muß die Differenz jedoch vornormiert werden. Ein Wert Dm(n)
in der Mitte zwischen der Intrakategoriedifferenzverteilung (Gleichung 10) jeder Kategorie und
der Interkategoriedifferenzverteilung (Gleichung 11), die zum Zeitpunkt der Auswahl der Merk
malspegelkombinationen bestimmt werden, wird zur Definition einer Toleranz Va verwendet, die
durch folgende Gleichung gegeben ist:
In diesem Fall wird der Zwischenwert Dm(n) unter Berücksichtigung des Sicherheitsparameters
ε bestimmt. Die Kategorie mit der Toleranz Va größer als Null und am größten unter den betrof
fenen Kategorien wird als das Ergebnis der Erkennung beurteilt.
Als nächstes wird unter Bezugnahme auf Fig. 26 ein Beispiel einer Vorrichtung beschrieben, die
das oben beschriebene erfindungsgemäße Verfahren verkörpert. Mit einem gemeinsamen Bus
81 sind ein Rahmenspeicher 82, eine Bildmerkmalextraktionseinheit 83, ein Merkmalsbildspei
cher 84, eine Bildmerkmalquantisiereinheit 85, eine gewichtete Ähnlichkeits-(Differenz)-Berech
nungseinheit 86, ein Referenztabellenspeicher 87, eine Gut/Schlecht-Beurteilungseinheit 88 und
eine Steuereinheit 89, etwa ein Personalcomputer verbunden. Darüberhinaus sind die Speicher
82, 84 und 87 und die Einheiten 83, 85, 86 und 88 über einen dedizierten Bus 90 untereinan
der verbunden.
Das Bild eines untersuchten Objekts (nicht gezeigt) wird mittels einer Videokameraeinheit 91
aufgenommen, und das Eingangsbild (Untersuchungsbild) von dieser wird in dem Rahmenspei
cher 82 nach Umwandlung mittels eines A/D-Umsetzers in digitale Form gespeichert. In der
Merkmalsextraktionseinheit 83 wird ein Bild eines bestimmten Merkmals, das heißt ein Bild
jedes Merkmals einer von Referenztabellen, die in dem Referenztabellenspeicher 87 vorab
gespeichert sind, aus dem Eingangsbild mittels der Verarbeitung des vorher unter Bezugnahme
auf die Fig. 7, 17 und 20 beschriebenen Schritts 202 extrahiert. Das so extrahierte Merk
malsbild wird in dem Merkmalsbildspeicher 84 gespeichert. In der Bildmerkmalquantisiereinheit
85 wird das Merkmalsbild durch den zuvor erwähnten Schritt 203 in den Fig. 7, 17 und 20
quantisiert, und das quantisierte Merkmalsbild wird in dem Merkmalsbildspeicher 84 gespei
chert. Der gespeicherte Inhalt des Referenztabellenspeicher 87 ist: im Fall des Verfahrens von
Fig. 7 diejenige der in Fig. 16 gezeigten Referenztabellen, die dem im Schritt 118 ausgewählten
Merkmal entspricht; im Fall des Verfahrens von Fig. 17 diejenige der in Fig. 19 gezeigten Refe
renztabellen, welche dem in ähnlicher Weise in Schritt 118 ausgewählten Merkmal entspricht;
im Fall des Verfahrens von Fig. 20 diejenige der Referenztabellen, die dem im Schritt 413
ausgewählten Merkmalspunktgewicht entspricht, so wie die entsprechende Referenz-Mehrfach-
Hough-Ebene; im Fall des Verfahrens von Fig. 24 eine Referenz-Mehrfach-Hough-Ebene; und im
Fall des Verfahrens von Fig. 28 ein Merkmalspunkt und sein Gewicht. Ferner werden die
Schwellenwerte, die in den Schritten 119 der Fig. 7, 17 und 28 und den Schritten 414 der
Fig. 21 und 28 bestimmt werden, jeweils entsprechend den oben erwähnten Daten gespei
chert. In der gewichteten Ähnlichkeits-(Differenz)-Berechnungseinheit 86 werden das quanti
sierte Bild im Speicher 84 und die entsprechende Referenztabelle in dem Referenztabellenspei
cher 87 dazu verwendet, folgendes auszuführen: im Fall des Verfahrens von Fig. 7 die gewich
tete verallgemeinerte Hough-Transformationsoperation im Schritt 204; im Fall des Verfahrens
von Fig. 17 die gewichtete normierte Korrelationsberechnung im Schritt 310; im Fall des
Verfahrens von Fig. 28 die verallgemeinerte Hough-Transformationsoperation und die entspre
chende Ähnlichkeitsberechnung; im Fall des Verfahrens von Fig. 20 die Erstellung der Mehr
fachbitebene, ihre gewichtete Hough-Transformationoperation und die Differenzberechnung in
den Schritten 421, 422 und 424; und im Fall des Verfahrens von Fig. 24 die Erstellung der
Mehrfachbitebene, die Hough-Transformationsoperation und die Differenzberechnung in den
Schritten 421, 503 und 424. Das Ergebnis der Operation durch die gewichtete Ähnlichkeits-
(Differenz)-Berechnungseinheit 86 wird in der Beurteilungseinheit 88 mit dem entsprechenden
Schwellenwert verglichen, der in dem Referenztabellenspeicher 87 gespeichert ist. Das Ergebnis
der Beurteilung wird über die Steuereinheit 89 zur Anzeige auf einer nicht dargestellten Anzei
gevorrichtung nach außen gegeben. Nebenbei bemerkt kann die Beurteilungseinheit 88 auch
durch Ausnutzung der Funktionen in der Steuereinheit 89 gebildet werden.
Beispielsweise im Fall einer Untersuchung verschiedener Teile auf gut oder schlecht, wird eine
große Menge Referenzdaten benötigt die vorab in einem Speicher großer Kapazität, etwa einer
externen Magnetplatte, gespeichert sind, zusammen mit entsprechenden Schwellenwerten, und
wenn die Nummer des untersuchten Teils eingegeben wird, liest die Steuereinheit 89 von dem
Speicher großer Kapazität den entsprechenden Satz von Referenztabellen und den Schwellen
wert aus und lädt sie in den Referenztabellenspeicher 87, womit die Untersuchung beginnt. In
diesem Fall hält die Steuereinheit 89 den Schwellenwert und macht die endgültige Beurteilung
hinsichtlich gut und schlecht.
Unter Bezugnahme auf Fig. 27 wird nun ein Beispiel des Vorrichtungsaufbaus eines Referenzda
tengeneratorteiles beschrieben. Diese Vorrichtung weist die meisten Funktionen der in Fig. 26
gezeigten Bilduntersuchungsvorrichtung auf und wird oft auch als die Bilduntersuchungsvorrich
tung verwendet, weshalb die Teile in Fig. 27, die solchen in Fig. 26 entsprechen, mit denselben
Bezugszahlen versehen sind. Diese Vorrichtung umfaßt ferner einen Lernmerkmalspunktwertver
teilungsspeicher 93, eine Merkmalswertverteilungsmeßeinheit 94, eine Merkmalspunktgewicht
bestimmungseinheit 95, einen Ähnlichkeits-(Differenz)-Verteilungsspeicher 96, eine Merkmals
gewichtmeßeinheit 97, eine Merkmalskombinationseinheit 98 und eine Schwellenwertbestim
mungseinheit 99. Der Merkmalsbildspeicher 84, der Merkmalspunktwertverteilungsspeicher 93
und der Ähnlichkeits-(Differenz)-Verteilungsspeicher 96 haben je einen Aufbau mit mehreren
Platten zur Speicherung einer größeren Datenmenge als in der in Fig. 26 gezeigten Untersu
chungsvorrichtung.
Wie zuvor beschrieben, werden in diesem Fall Lernbilder in den Rahmenspeicher 82 eingegeben.
Dann werden verschiedene Merkmalsbilder mittels der Extraktionseinheit 83 aus jedem der
Lernbilder extrahiert und in dem Merkmalsbildspeicher 84 gespeichert. Diese Merkmalsbilder
werden durch die Quantisiereinheit 85 quantisiert und danach wieder in den Speicher 84
gespeichert. Für Bilder desselben Merkmals wird die Merkmalspunktwertverteilung des Schritts
105 in der Merkmalswertverteilungsmeßeinheit 94 errechnet und dann in den Speicher 93
gespeichert. Die Merkmalspunktgewichtbestimmungseinheit 95 verwendet die Merkmalspunkt
wertverteilung zur Bestimmung des Merkmalspunktgewichts im Schritt 106, und für jeden
Merkmalswert, wird die sich aus jedem Merkmalspunkt und seinem Gewicht zusammensetzende
Referenztabelle in dem Speicher 87 gespeichert. Bei dem Verfahren von Fig. 20 werden die
Bildung des Standardbildes im Schritt 401, die Bildung der Mehrfachbitebene im Schritt 402
und die gewichtete Hough-Transformationsoperation im Schritt 403 durchgeführt, um die Mehr
fach-Hough-Ebene zu erzeugen, die ebenfalls in dem Referenztabellenspeicher 87 gespeichert
wird.
Als nächstes wird eine Vielzahl von Lernbildern eines guten Objekts und Lernbildern eines
schlechten Objekts eingegeben, und ihre Merkmalsbilder werden erzeugt, quantisiert und im
Merkmalsbildspeicher 84 gespeichert. Für diese quantisierten Merkmalsbilder führt die gewich
tete Ähnlichkeits-(Differenz)-Berechnungseinheit 86 die gewichtete verallgemeinerte
Hough-Transformationsoperation im Schritt 113, die gewichtete normalisierte Korrelationsoperation im
Schritt 309 oder die Bildung der Mehrfachbitebene, die gewichtete Hough-Transformationsope
ration und die Bildung der Mehrfach-Hough-Ebene in den Schritten 406 bis 408 durch und
berechnet dann die Ähnlichkeiten (Differenzen) aus den Ergebnissen dieser Operationen und
ihrer Verteilungen in dem Speicher 96. Die Merkmalsgewichtmeßeinheit 97 führt im Schritt 115
die Merkmalsgewichtberechnung (im Schritt 410 die Bitebenengewichtsberechnung) durch und
speichert das berechnete Merkmalsgewicht in dem Speicher 96. Darüber hinaus kombiniert die
Merkmalskombinationseinheit 98 Merkmale (Bitebenen) im Schritt 117 (im Schritt 411) errech
net dann den Abstand zwischen Verteilungen guten und schlechten Objekts im Schritt 117 (im
Schritt 412) und setzt die Kombination von Merkmalen (Bitebenen) fort, bis der Abstand die
zuvor erwähnte Bedingung erfüllt. Danach wird der Schwellenwert durch die Einheit 99
bestimmt.
In beiden Vorrichtungen der Fig. 26 und 27 kann jede Einheit von einem digitalen Signalprozes
sor gebildet werden.
Gemäß der ersten Ausführungsform werden, wie in Fig. 9 gezeigt Nulldurchgangspunkte von
einem Konturbild wie einem Kantenbild extrahiert, wird die Ortsfrequenz der Kante variiert und
der optimale Nulldurchgangspunkt der verallgemeinerten Hough-Transformationsoperation
unterzogen. Hierdurch ist es möglich, eine Merkmalsextraktionsfunktion zu implemen
tieren, die im wesentlichen unempfindlich ist gegenüber Offsetänderung der Intensität und
einem relativen Abfall der Empfindlichkeit, sowie eine Anpassungsfunktion, die die Ähnlichkeit
mittels Mehrheitslogik selbst dann beibehält, wenn Rauschen vorhanden ist. Darüber hinaus
stellt das Lernen jedes Merkmalspunktgewichts für eine Vielzahl von Lernbildern eine stabile
Extraktion von Merkmalspunkten gegenüber Rauschen sicher, und eine Mehrfachzahlenextrak
tionsfunktion, die komplementäre Bereichs- und Konturmerkmale in Kombination verwendet und
außerdem eine Auflösungsänderung berücksichtigt, wird auf die gewichtete verallgemeinerte
Hough-Transformation angewandt, um eine automatische Bestimmung von Gewichten von
Merkmalen nach Maßgabe der Eigenschaft des Bildes durch Lernen zu erlauben. Durch Kombi
nation solcher Merkmale ist es möglich, eine sehr zuverlässige Bilduntersuchung mit einer nied
rigen Gut/Schlecht-Unterscheidungsfehlerrate in Umgebungen zu realisieren, wo Intensitätsva
riationen von Probenbildern guter Objekte durch Änderungen des Zustands der Beleuchtung und
der Reflexionseigenschaft der Probenoberflächen sowie Staub auf den Proben verursacht
werden. Es ist ebenfalls möglich, eine Bilderkennung mit einer hohen Erkennungsrate und eine
Bildsortierung mit einer niedrigen Fehlerrate zu implementieren.
Gemäß dem zweiten Ausführungsbeispiel stellt das Lernen jedes Merkmalspunktgewichts für
eine Vielzahl von Lernbildern eine stabile Extraktion von Merkmalspunkten gegenüber Rauschen
sicher und eine Mehrfachzellenextraktionsfunktion, die komplementäre Bereichs- und Kontur
merkmale in Kombinationen verwendet und ebenso eine Auflösungsänderung berücksichtigt
wird auf die gewichtete normierte Korrelationsoperation angewandt, um eine automatische
Bestimmung von Gewichten von Merkmalen nach Maßgabe der Eigenschaft des Bildes durch
Lernen zu ermöglichen. Durch Kombination dieser Merkmale ist es möglich, ein sehr zuverläs
siges Bilduntersuchungssystem mit einer niedrigen Gut/Schlecht-Unterscheidungsfehlerrate, ein
Bilderkennungssystem mit einer hohen Erkennungsrate und ein Bildsortiersystem mit einer nied
rigen Fehlerrate in Umgebungen zu realisieren, wo Intensitätsvariationen von Probenbildern
guter Objekte durch Änderungen des Zustands der Beleuchtung und der Reflexionseigenschaft
der Probenoberflächen sowie Staub auf den Proben verursacht werden.
Gemäß der dritten und der vierten Ausführungsform wird ein selektives Merkmalsextraktionssy
stem für eine Anzahl von Sätzen komplementärer Merkmale wie Erstreckung und ähnliches auf
die Haupttransformation angewandt, und die Erkennung erfolgt auf der Basis der Ähnlichkeit
oder Differenz für die resultierende Mehrfach-Hough-Ebene. Hierdurch ist es möglich, ein effi
zientes Bilderkennungs- oder Sortiersystem oder ein sehr zuverlässiges Untersuchungssystem
aufzubauen, das sein hohes Unterscheidungsvermögen selbst in Umgebungen beibehält, wo die
Bildintensität mit einer Änderung des Zustands der Beleuchtung variiert oder Rauschen vorhan
den ist.
Es ist ersichtlich, daß viele Modifikationen und Variationen ausgeführt werden können ohne den
Rahmen des neuen Konzepts der vorliegenden Erfindung zu verlassen.
Claims (28)
1. Bilduntersuchungs/-erkennungsverfahren umfassend:
einen ersten Schritt der Extraktion eines Bildmerkmals von einem Eingangsbild und der Bildung eines Merkmalsbildes,
einen zweiten Schritt der Quantisierung des Merkmalsbildes zum Erhalt eines quanti sierten Merkmalsbildes, und
einen dritten Schritt der Berechnung der Ähnlichkeit oder Differenz von Merkmalspunk ten des quantisierten Merkmalsbildes durch Verwendung von Referenzdaten der entsprechenden Merkmale, die vorab mit einer Vielzahl von Lernbildern gewonnen wurden,
wobei Merkmalswerthistogramme an jeweiligen Merkmalspunkten des quantisierten Merkmalsbildes der Vielzahl von Lernbildern dazu verwendet werden, vorweg Gewichte der jeweiligen Merkmalspunkte zu berechnen, und die Gewichte dazu verwendet werden, die Ähnlichkeit oder Differenz in dem dritten Schritt als gewichtete Ähnlichkeit oder Differenz zu erhalten.
einen ersten Schritt der Extraktion eines Bildmerkmals von einem Eingangsbild und der Bildung eines Merkmalsbildes,
einen zweiten Schritt der Quantisierung des Merkmalsbildes zum Erhalt eines quanti sierten Merkmalsbildes, und
einen dritten Schritt der Berechnung der Ähnlichkeit oder Differenz von Merkmalspunk ten des quantisierten Merkmalsbildes durch Verwendung von Referenzdaten der entsprechenden Merkmale, die vorab mit einer Vielzahl von Lernbildern gewonnen wurden,
wobei Merkmalswerthistogramme an jeweiligen Merkmalspunkten des quantisierten Merkmalsbildes der Vielzahl von Lernbildern dazu verwendet werden, vorweg Gewichte der jeweiligen Merkmalspunkte zu berechnen, und die Gewichte dazu verwendet werden, die Ähnlichkeit oder Differenz in dem dritten Schritt als gewichtete Ähnlichkeit oder Differenz zu erhalten.
2. Verfahren nach Anspruch 1, bei dem der dritte Schritt ein Schritt zum Erhalt der
gewichteten Ähnlichkeit oder Differenz für eine Vielzahl von Differenzmerkmalsbildern mittels
Durchführung einer Merkmalskombination mit Gewichten ist.
3. Verfahren nach Anspruch 2, bei dem der dritte Schritt ein Schritt zum Erhalt der
gewichteten Ähnlichkeit durch eine gewichtete verallgemeinerte Hough-Transformationsopera
tion des Votierens der Merkmalspunktgewichte zu einem Parameterraum ist.
4. Verfahren nach Anspruch 2, bei der dritte Schritt ein Schritt zum Erhalt der Ähnlich
keit durch eine gewichtete normierte Korrelationsoperation der Gewinnung eines normierten
Korrelationsfaktors zwischen einer Merkmalspunktwertfolge des Merkmalsbildes des Eingangs
bildes und einer Merkmalspunktwertfolge des quantisierten Merkmalsbildes jedes der Lernbilder
durch Gewichten derselben mit einer Folge von Gewichten der Merkmalspunkte ist.
5. Verfahren nach Anspruch 2, bei dem der dritte Schritt ein Schritt zum Erhalt der
gewichteten Differenz dadurch ist, daß das quantisierte Merkmalsbild einer gewichteten
Hough-Transformationsoperation des Votierens der Gewichte der Merkmalspunkte zu einem Parameter
raum für jeden Quantisierungspegel zum Erhalt einer Hough-Ebene unterzogen wird, und daß die
Differenz zwischen der Hough-Ebene und einer Referenz-Hough-Ebene berechnet wird, die von
den quantisierten Merkmalsbildern der Lernbilder erhalten wird.
6. Verfahren nach Anspruch 2, bei dem die Gesamtsumme der Gewichte der Merk
malspunkte in jedem der Merkmalsbilder auf die Anzahl von Merkmalspunkten normiert ist.
7. Verfahren nach Anspruch 2, bei dem Häufigkeitsverhältnisse von Merkmalswerten
an jeweiligen Pixeln von Merkmalsbildern derselben Art, die von der Vielzahl von Lernbildern
extrahiert sind, einer Schwellenwertverarbeitung unterzogen werden, um Pixel zu entfernen, bei
denen es sich wahrscheinlich um Rauschen handelt, während die übrigen Pixel als Merkmals
punkte der Merkmalswerte verwendet werden.
8. Verfahren nach einem der Ansprüche 2 bis 7, bei dem, wenn der Kontrast der Viel
zahl von Lernbildern derselben Kategorie höher ist als ein vorbestimmter Wert, ein Bereichs
merkmalsbild als das Merkmalsbild in dem ersten Schritt extrahiert wird und eine gewichtete
normierte Korrelationsoperation in dem dritten Schritt zum Erhalt der gewichteten Ähnlichkeit
ausgeführt wird, und bei dem, wenn der Kontrast niedriger als der vorbestimmte Wert ist, ein
Konturmerkmalsbild als das Merkmalsbild in dem ersten Schritt extrahiert wird und eine gewich
tete verallgemeinerte Hough-Transformationsoperation in dem dritten Schritt zum Erhalt der
gewichteten Ähnlichkeit ausgeführt wird.
9. Verfahren nach einem der Ansprüche 2 bis 7, bei dem eine gewichtete verallge
meinerte Hough-Transformationsoperation und eine gewichtete normierte Korrelationsoperation
jeweils für eine Vielzahl unterschiedlicher Kategorien ausgeführt werden, der Abstand zwischen
Intra- und Inter-Kategorie-Ähnlichkeitsverteilungen durch jede der Operationen errechnet wird
und wobei eine der Operationen, welche den größeren Abstand als die andere lieferte, in dem
dritten Schritt ausgeführt wird.
10. Verfahren nach einem der Ansprüche 2 bis 7, bei dem der zweite Schritt ein
Schritt zum Quantisieren der Vielzahl von Lernbildern durch Verwendung einer Quantisierungs
breite ist, welche den Abstand zwischen Intra- und Inter-Kategorie-Ähnlichkeits- oder -Diffe
renzverteilungen maximiert.
11. Verfahren nach einem der Ansprüche 2 bis 7, bei dem der zweite Schritt ein
Schritt zum Quantisieren des Merkmalsbildes durch Verwendung einer Quantisierungsbreite ist,
welche einen mittleren integrierten quadratischen Fehler von Merkmalswerthistogrammen der
Merkmalspunkte in den Merkmalsbildern der Vielzahl von Lernbildern einer Kategorie minimiert.
12. Verfahren nach Anspruch 10, bei dem die Lernbilder Bilder sind, die von einem
guten Objekt gewonnen wurden und der Verteilungsabstand der Abstand zwischen Verteilungen
von guten und schlechten Objekten ist, und welches ferner einen vierten Schritt des Vergleichs
der gewichteten Ähnlichkeit oder der gewichteten Differenz mit einem Schwellenwert umfaßt
zur Beurteilung, ob ein dem Eingangsbild entsprechendes Objekt gut oder schlecht ist.
13. Verfahren nach Anspruch 11, das ferner einen vierten Schritt umfaßt zum Erhalt,
als ein Untersuchungsmaß, des Betrags einer Verschiebung, Rotation oder Maßstabsänderung
des Ursprungs eines untersuchten Objekts, welcher die gewichtete Ähnlichkeit maximiert oder
die gewichtete Differenz minimiert.
14. Verfahren nach Anspruch 11, bei dem die Lernbilder Bilder sind, die von einem
guten Objekt gewonnen wurden, und der mittlere integrierte quadratische Fehler für das gute
Objekt gilt, und das ferner einen vierten Schritt umfaßt zum Vergleich der Ähnlichkeit oder
Differenz mit einem Schwellenwert zur Beurteilung, ob ein dem Eingangsbild entsprechendes
Objekt gut oder schlecht ist.
15. Verfahren nach Anspruch 14, ferner umfassend einen weiteren Schritt zum Erhalt
des Betrags einer Verschiebung, Rotation oder Maßstabsänderung
des Ursprungs eines untersuchten Objekts, welcher die gewichtete Ähnlichkeit maximiert oder
die gewichtete Differenz minimiert.
16. Verfahren nach einem der Ansprüche 2 bis 7, ferner umfassend:
einen fünften Schritt der Extraktion der Merkmalsbilder von der Vielzahl von Lernbil dern,
einen sechsten Schritt der Quantisierung der Merkmalsbilder,
einen siebten Schritt der Gewinnung eines Histogramms des Merkmalswerts an jedem Merkmalspunkt in jedem der quantisierten Lernmerkmalsbilder, und
einen achten Schritt zum Erhalt des Gewichts jedes der Merkmalspunkte nach Maßgabe der Schärfe der Streuung in dem Histogramm.
einen fünften Schritt der Extraktion der Merkmalsbilder von der Vielzahl von Lernbil dern,
einen sechsten Schritt der Quantisierung der Merkmalsbilder,
einen siebten Schritt der Gewinnung eines Histogramms des Merkmalswerts an jedem Merkmalspunkt in jedem der quantisierten Lernmerkmalsbilder, und
einen achten Schritt zum Erhalt des Gewichts jedes der Merkmalspunkte nach Maßgabe der Schärfe der Streuung in dem Histogramm.
17. Verfahren nach Anspruch 16, welches die Vielzahl verschiedener Merkmalsbilder in
dem dritten Schritt dadurch bestimmt, daß in Kombination ausgeführt werden:
ein neunter Schritt zum Erhalt einer Vielzahl quantisierter Merkmalsbilder von einer Vielzahl von Lernbildern einer Vielzahl von Kategorien,
ein zehnter Schritt zum Erhalt der gewichteten Ähnlichkeit oder Differenz von Merk malspunkten in jedem Merkmalsbild der Vielzahl von Lernbildern durch die gleiche Operation wie in dem dritten Schritt unter Verwendung der darin benutzten Referenzdaten,
ein elfter Schritt zum Erhalt der Ähnlichkeit oder Differenz für jedes Merkmalsbild von den Ergebnissen der Operation in dem zehnten Schritt,
ein zwölfter Schritt zum Erhalt des Merkmalsgewichts von der im elften Schritt gewonnenen Ähnlichkeit oder Differenz,
ein dreizehnter Schritt der Kombination der Merkmale zum Erhalt des Abstands zwischen der Ähnlichkeit oder Differenz in jeder der Kategorien und der Ähnlichkeit oder Diffe renz in einer anderen der Kategorien, und
ein vierzehnter Schritt der Änderung der Kombination von Merkmalen bis der Abstand eine vorbestimmte Bedingung erfüllt.
ein neunter Schritt zum Erhalt einer Vielzahl quantisierter Merkmalsbilder von einer Vielzahl von Lernbildern einer Vielzahl von Kategorien,
ein zehnter Schritt zum Erhalt der gewichteten Ähnlichkeit oder Differenz von Merk malspunkten in jedem Merkmalsbild der Vielzahl von Lernbildern durch die gleiche Operation wie in dem dritten Schritt unter Verwendung der darin benutzten Referenzdaten,
ein elfter Schritt zum Erhalt der Ähnlichkeit oder Differenz für jedes Merkmalsbild von den Ergebnissen der Operation in dem zehnten Schritt,
ein zwölfter Schritt zum Erhalt des Merkmalsgewichts von der im elften Schritt gewonnenen Ähnlichkeit oder Differenz,
ein dreizehnter Schritt der Kombination der Merkmale zum Erhalt des Abstands zwischen der Ähnlichkeit oder Differenz in jeder der Kategorien und der Ähnlichkeit oder Diffe renz in einer anderen der Kategorien, und
ein vierzehnter Schritt der Änderung der Kombination von Merkmalen bis der Abstand eine vorbestimmte Bedingung erfüllt.
19. Verfahren zur Erzeugung von Referenzdaten für eine Bilduntersuchung/-erkennung
umfassend:
einen ersten Schritt der Extraktion einer Vielzahl von Bildmerkmalen von einem Lernbild und der Bildung von Merkmalsbildern,
einen zweiten Schritt der Quantisierung der Merkmalsbilder zum Erhalt quantisierter Merkmalsbilder,
einen dritten Schritt zum Erhalt der Merkmalswertverteilung an jedem Merkmalspunkt in den quantisierten Merkmalsbildern jeder Art,
einen vierten Schritt der Bestimmung des Gewichts jedes Merkmalspunkts auf der Basis der Merkmalspunktwertverteilung,
einen fünften Schritt der Erzeugung quantisierter zweiter und dritter Merkmalsbilder von einem zweiten Lernbild derselben Kategorie wie das genannte Lernbild und eines dritten Lernbildes einer anderen Kategorie,
einen sechsten Schritt zum Erhalt der Ähnlichkeit oder Differenz zwischen jedem des zweiten und des dritten Merkmalsbildes und jedes der Merkmalsbilder von dem genannten Lern bild durch eine gewichtete Korrelationsverarbeitung für die Merkmalspunkte unter Verwendung ihrer Gewichte,
einen siebten Schritt der Bestimmung der Gewichte der Merkmale auf der Basis der Ähnlichkeiten oder Differenzen jeweils entsprechend den beiden Kategorien, einen achten Schritt zur Kombination der Merkmale und zum Erhalt des Abstands zwischen den Ähnlichkeiten oder Differenzen entsprechend den beiden Kategorien, und
einen neunten Schritt der Änderung der Kombination der Merkmale, bis der Abstand ausreichend groß wird, und der Bestimmung des Merkmalspunkts und seines Gewichts entspre chend einer letzten Merkmalskombination als Referenzdaten.
einen ersten Schritt der Extraktion einer Vielzahl von Bildmerkmalen von einem Lernbild und der Bildung von Merkmalsbildern,
einen zweiten Schritt der Quantisierung der Merkmalsbilder zum Erhalt quantisierter Merkmalsbilder,
einen dritten Schritt zum Erhalt der Merkmalswertverteilung an jedem Merkmalspunkt in den quantisierten Merkmalsbildern jeder Art,
einen vierten Schritt der Bestimmung des Gewichts jedes Merkmalspunkts auf der Basis der Merkmalspunktwertverteilung,
einen fünften Schritt der Erzeugung quantisierter zweiter und dritter Merkmalsbilder von einem zweiten Lernbild derselben Kategorie wie das genannte Lernbild und eines dritten Lernbildes einer anderen Kategorie,
einen sechsten Schritt zum Erhalt der Ähnlichkeit oder Differenz zwischen jedem des zweiten und des dritten Merkmalsbildes und jedes der Merkmalsbilder von dem genannten Lern bild durch eine gewichtete Korrelationsverarbeitung für die Merkmalspunkte unter Verwendung ihrer Gewichte,
einen siebten Schritt der Bestimmung der Gewichte der Merkmale auf der Basis der Ähnlichkeiten oder Differenzen jeweils entsprechend den beiden Kategorien, einen achten Schritt zur Kombination der Merkmale und zum Erhalt des Abstands zwischen den Ähnlichkeiten oder Differenzen entsprechend den beiden Kategorien, und
einen neunten Schritt der Änderung der Kombination der Merkmale, bis der Abstand ausreichend groß wird, und der Bestimmung des Merkmalspunkts und seines Gewichts entspre chend einer letzten Merkmalskombination als Referenzdaten.
20. Verfahren nach Anspruch 19, bei dem die Korrelationsoperation in dem sechsten
Schritt eine gewichtete verallgemeinerte Hough-Transformationsoperation des Votierens des
Merkmalspunktgewichts zu einem Parameterraum ist.
21. Verfahren nach Anspruch 19, bei dem die Korrelationsoperation in dem sechsten
Schritt eine gewichtete normierte Korrelationsoperation ist, die als Gewichte eine Folge der
Merkmalsbilder, eine Folge der zweiten oder dritten Merkmalsbilder und eine Folge von Gewich
ten der Merkmalspunkte verwendet.
22. Verfahren nach Anspruch 19, bei dem die Korrelationsoperation in dem sechsten
Schritt dadurch ausgeführt wird, daß das quantisierte Merkmalsbild einer gewichteten
Hough-Transformationsoperation des Votierens der Gewichte der Merkmalspunkte zu einem Parameter
raum für jeden Quantisierungspegel zum Erhalt von Hough-Ebenen unterzogen wird und die
Differenz zwischen einander entsprechenden Merkmalsbildern auf den Hough-Ebenen berech
net wird.
23. Bilduntersuchungs/-erkennungsvorrichtung, umfassend:
einen Bildspeicher (82) zum Speichern eines Eingangsbildes,
eine Einrichtung (83) zum Extrahieren von Bildmerkmalen von dem Eingangsbild und zum Erstellen von Merkmalsbildern,
eine Einrichtung (85) zum Quantisieren der Merkmalsbilder,
einen Merkmalsbildspeicher (84) zum Speichern der quantisierten Merkmalsbilder,
einen Referenztabellenspeicher (87) zum Speichern des Merkmalswerts und seines Merkmalspunkts und des Gewichts für jedes der Merkmalsbilder,
eine Berechnungseinrichtung (86) zur Berechnung, für jedes der quantisierten Merk malsbilder, einer gewichteten Ähnlichkeit oder Differenz durch Benutzung der entsprechenden in dem Referenztabellenspeicher (87) gespeicherten Referenztabellen, und eine Steuerungseinrichtung (89) zur Steuerung jeder dieser Einrichtungen.
einen Bildspeicher (82) zum Speichern eines Eingangsbildes,
eine Einrichtung (83) zum Extrahieren von Bildmerkmalen von dem Eingangsbild und zum Erstellen von Merkmalsbildern,
eine Einrichtung (85) zum Quantisieren der Merkmalsbilder,
einen Merkmalsbildspeicher (84) zum Speichern der quantisierten Merkmalsbilder,
einen Referenztabellenspeicher (87) zum Speichern des Merkmalswerts und seines Merkmalspunkts und des Gewichts für jedes der Merkmalsbilder,
eine Berechnungseinrichtung (86) zur Berechnung, für jedes der quantisierten Merk malsbilder, einer gewichteten Ähnlichkeit oder Differenz durch Benutzung der entsprechenden in dem Referenztabellenspeicher (87) gespeicherten Referenztabellen, und eine Steuerungseinrichtung (89) zur Steuerung jeder dieser Einrichtungen.
24. Vorrichtung zur Erzeugung von Referenzdaten für eine Bilduntersuchung/-erken
nung, umfassend:
einen Bildspeicher (82) zum Speichern eines Eingangslernbildes,
eine Einrichtung (83) zum Extrahieren von Bildmerkmalen von dem Lernbild und zur Erstellung von Merkmalsbildern,
eine Einrichtung (85) zum Quantisieren der Merkmalsbilder,
einen Merkmalsbildspeicher (84) zum Speichern der quantisierten Merkmalsbilder,
eine Einrichtung (94) zum Erhalt ihrer Punktwertverteilungen von den quantisierten Merkmalsbildern,
einen Merkmalspunktwertverteilungsspeicher (93) zum Speichern der Merkmalspunkt wertverteilung jedes der Merkmalsbilder,
eine Einrichtung (95) zur Bestimmung des Gewichts jedes Merkmalspunkts aus jeder Merkmalspunktwertverteilung,
einen Referenztabellenspeicher (87) zum Speichern des Merkmalspunkts und seines Gewichts für jedes Merkmalsbild,
eine Berechnungseinrichtung (86) für gewichtete Ähnlichkeit (Differenz) zur Durchfüh rung einer Korrelationsoperation für die Merkmalsbilder durch Benutzung der Merkmalspunkte und ihrer Gewichte, die in dem Referenztabellenspeicher (87) gespeichert sind, zum Erhalt einer gewichteten Ähnlichkeit oder Differenz,
einen Ähnlichkeits-(Differenz)-Verteilungsspeicher (96) zum Speichern der Verteilung der gewichteten Ähnlichkeit oder Differenz,
eine Einrichtung (97) zum Erhalt des Merkmalsgewichts von der Ähnlichkeits- oder Differenzverteilung entsprechend jeder Kategorie,
eine Einrichtung (98) zur Bestimmung der Kombination von Merkmalen verschiedener Kategorien und zum Erhalt des Abstands zwischen der gewichteten Ähnlichkeit oder Differenz in jeder Kategorie und der gewichteten Ähnlichkeit oder Differenz zwischen der Kategorie und einer anderen der Kategorien, wenn die Merkmalskombination bestimmt wird, und
eine Einrichtung zur Änderung der Kombination bis der Abstand eine vorbestimmte Bedingung erfüllt und zur Bestimmung von Merkmalspunkten und ihren Gewichten in jedem Merkmalsbild entsprechend einer letzten Merkmalskombination als Referenzdaten.
einen Bildspeicher (82) zum Speichern eines Eingangslernbildes,
eine Einrichtung (83) zum Extrahieren von Bildmerkmalen von dem Lernbild und zur Erstellung von Merkmalsbildern,
eine Einrichtung (85) zum Quantisieren der Merkmalsbilder,
einen Merkmalsbildspeicher (84) zum Speichern der quantisierten Merkmalsbilder,
eine Einrichtung (94) zum Erhalt ihrer Punktwertverteilungen von den quantisierten Merkmalsbildern,
einen Merkmalspunktwertverteilungsspeicher (93) zum Speichern der Merkmalspunkt wertverteilung jedes der Merkmalsbilder,
eine Einrichtung (95) zur Bestimmung des Gewichts jedes Merkmalspunkts aus jeder Merkmalspunktwertverteilung,
einen Referenztabellenspeicher (87) zum Speichern des Merkmalspunkts und seines Gewichts für jedes Merkmalsbild,
eine Berechnungseinrichtung (86) für gewichtete Ähnlichkeit (Differenz) zur Durchfüh rung einer Korrelationsoperation für die Merkmalsbilder durch Benutzung der Merkmalspunkte und ihrer Gewichte, die in dem Referenztabellenspeicher (87) gespeichert sind, zum Erhalt einer gewichteten Ähnlichkeit oder Differenz,
einen Ähnlichkeits-(Differenz)-Verteilungsspeicher (96) zum Speichern der Verteilung der gewichteten Ähnlichkeit oder Differenz,
eine Einrichtung (97) zum Erhalt des Merkmalsgewichts von der Ähnlichkeits- oder Differenzverteilung entsprechend jeder Kategorie,
eine Einrichtung (98) zur Bestimmung der Kombination von Merkmalen verschiedener Kategorien und zum Erhalt des Abstands zwischen der gewichteten Ähnlichkeit oder Differenz in jeder Kategorie und der gewichteten Ähnlichkeit oder Differenz zwischen der Kategorie und einer anderen der Kategorien, wenn die Merkmalskombination bestimmt wird, und
eine Einrichtung zur Änderung der Kombination bis der Abstand eine vorbestimmte Bedingung erfüllt und zur Bestimmung von Merkmalspunkten und ihren Gewichten in jedem Merkmalsbild entsprechend einer letzten Merkmalskombination als Referenzdaten.
25. Bilduntersuchungs/-erkennungsverfahren, umfassend:
einen ersten Schritt der Extraktion eines Bildmerkmals aus einem Eingangsbild und der Bildung eines Merkmalsbildes,
einen zweiten Schritt der Quantisierung des Merkmalsbildes zum Erhalt eines quanti sierten Merkmalsbildes, und
einen dritten Schritt der Berechnung der Ähnlichkeit jedes Merkmalspunkts in dem quantisierten Merkmalsbild unter Verwendung von Referenzdaten des entsprechenden Merk mals, die vorab mit einem Lernbild gewonnen wurden,
wobei der dritte Schritt umfaßt:
einen vierten Schritt zur Erzeugung einer Mehrfachbitebene, die sich aus Bitebenen entsprechend jeweiligen Quantisierungspegeln der quantisierten Merkmalsbilder zusammensetzt aus dem quantisierten Merkmalsbild,
einen fünften Schritt, bei dem jede Bitebene der Mehrfachbitebene einer Hough-Trans formationsoperation zur Bildung einer Mehrfach-Hough-Ebene unterzogen wird, und
einen sechsten Schritt zum Erhalt der Differenz durch Berech nung der Differenz zwischen der Mehrfach-Hough-Ebene und einer Referenz-Mehrfach-Hough-Ebene, als Referenzdatum.
einen ersten Schritt der Extraktion eines Bildmerkmals aus einem Eingangsbild und der Bildung eines Merkmalsbildes,
einen zweiten Schritt der Quantisierung des Merkmalsbildes zum Erhalt eines quanti sierten Merkmalsbildes, und
einen dritten Schritt der Berechnung der Ähnlichkeit jedes Merkmalspunkts in dem quantisierten Merkmalsbild unter Verwendung von Referenzdaten des entsprechenden Merk mals, die vorab mit einem Lernbild gewonnen wurden,
wobei der dritte Schritt umfaßt:
einen vierten Schritt zur Erzeugung einer Mehrfachbitebene, die sich aus Bitebenen entsprechend jeweiligen Quantisierungspegeln der quantisierten Merkmalsbilder zusammensetzt aus dem quantisierten Merkmalsbild,
einen fünften Schritt, bei dem jede Bitebene der Mehrfachbitebene einer Hough-Trans formationsoperation zur Bildung einer Mehrfach-Hough-Ebene unterzogen wird, und
einen sechsten Schritt zum Erhalt der Differenz durch Berech nung der Differenz zwischen der Mehrfach-Hough-Ebene und einer Referenz-Mehrfach-Hough-Ebene, als Referenzdatum.
26. Bilduntersuchungs/-erkennungsverfahren, umfassend:
einen ersten Schritt der Extraktion eines Bildmerkmals aus einem Eingangsbild und der Bildung eines Merkmalsbildes,
einen zweiten Schritt der Quantisierung des Merkmalsbildes zum Erhalt eines quanti sierten Merkmalsbildes, und
einen dritten Schritt der Berechnung der Ähnlichkeit jedes Merkmalspunkts in dem quantisierten Merkmalsbild unter Verwendung von Referenzdaten des entsprechenden Merk mals, die vorab mit einem Lernbild gewonnen wurden,
wobei der dritte Schritt umfaßt:
einen vierten Schritt zur Erzeugung einer Mehrfachbitebene, die sich aus Bitebenen entsprechend jeweiligen Quantisierungspegeln der quantisierten Merkmalsbilder zusammensetzt, aus dem quantisierten Merkmalsbild,
einen fünften Schritt, bei dem vorbestimmte Bitebenen einer verallgemeinerten Hough-Transformationsoperation unter Verwendung der Referenzdaten unterzogen werden, und
einen sechsten Schritt der Berechnung der Ähnlichkeit von den Hough-transformierten Bitebenen.
einen ersten Schritt der Extraktion eines Bildmerkmals aus einem Eingangsbild und der Bildung eines Merkmalsbildes,
einen zweiten Schritt der Quantisierung des Merkmalsbildes zum Erhalt eines quanti sierten Merkmalsbildes, und
einen dritten Schritt der Berechnung der Ähnlichkeit jedes Merkmalspunkts in dem quantisierten Merkmalsbild unter Verwendung von Referenzdaten des entsprechenden Merk mals, die vorab mit einem Lernbild gewonnen wurden,
wobei der dritte Schritt umfaßt:
einen vierten Schritt zur Erzeugung einer Mehrfachbitebene, die sich aus Bitebenen entsprechend jeweiligen Quantisierungspegeln der quantisierten Merkmalsbilder zusammensetzt, aus dem quantisierten Merkmalsbild,
einen fünften Schritt, bei dem vorbestimmte Bitebenen einer verallgemeinerten Hough-Transformationsoperation unter Verwendung der Referenzdaten unterzogen werden, und
einen sechsten Schritt der Berechnung der Ähnlichkeit von den Hough-transformierten Bitebenen.
27. Verfahren nach Anspruch 25 oder 26, bei dem das Merkmalsbild mehrfach ist und
die Berechnung für vorbestimmte Bitebenen jeder der Mehrfachbitebenen ausgeführt wird, die
von den mehreren Merkmalsbildern durch eine gewichtete Berechnung unter Verwendung der
Gewichte zu den vorbestimmten Bitebenen erhalten werden.
28. Verfahren nach Anspruch 27, welches die in dem dritten Schritt zuverwendenden
Bitebenen dadurch bestimmt, daß in Kombination ausgeführt werden:
ein siebter Schritt zum Erhalt einer Vielzahl von quantisierten Merkmalsbildern von einer Vielzahl von Lernbildern einer Vielzahl von Kategorien,
ein achter Schritt der Erzeugung einer Mehrfachbitebene von jedem der quantisierten Merkmalsbilder,
ein neunter Schritt zur Ermittlung der Ähnlichkeit oder Differenz jeder der Bitebenen der Vielzahl von Mehrfachbitebenen durch dieselbe Operation wie in dem dritten Schritt unter Benutzung der darin verwendeten Lerndaten,
ein zehnter Schritt zum Erhalt des Gewichts jeder Bitebene an einem Merkmalswertpe gel aus der Ähnlichkeit oder Differenz,
ein elfter Schritt zum Kombinieren der Bitebene und zum Erhalt des Abstands zwischen der Ähnlichkeit oder Differenz in jeder Kategorie und der Ähnlichkeit oder Differenz zwischen jeder Kategorie und einer anderen, und
ein zwölfter Schritt der Änderung der Kombination von Bitebenen, bis der Abstand eine vorbestimmte Bedingung erfüllt.
ein siebter Schritt zum Erhalt einer Vielzahl von quantisierten Merkmalsbildern von einer Vielzahl von Lernbildern einer Vielzahl von Kategorien,
ein achter Schritt der Erzeugung einer Mehrfachbitebene von jedem der quantisierten Merkmalsbilder,
ein neunter Schritt zur Ermittlung der Ähnlichkeit oder Differenz jeder der Bitebenen der Vielzahl von Mehrfachbitebenen durch dieselbe Operation wie in dem dritten Schritt unter Benutzung der darin verwendeten Lerndaten,
ein zehnter Schritt zum Erhalt des Gewichts jeder Bitebene an einem Merkmalswertpe gel aus der Ähnlichkeit oder Differenz,
ein elfter Schritt zum Kombinieren der Bitebene und zum Erhalt des Abstands zwischen der Ähnlichkeit oder Differenz in jeder Kategorie und der Ähnlichkeit oder Differenz zwischen jeder Kategorie und einer anderen, und
ein zwölfter Schritt der Änderung der Kombination von Bitebenen, bis der Abstand eine vorbestimmte Bedingung erfüllt.
18. Verfahren nach Anspruch 17 ferner umfassend einen fünfzehnten Schritt zur
Bestimmung eines Schwellenwerts zwischen der Ähnlichkeit oder Differenz in jeder der
Kategorien und der Ähnlichkeit oder Differenz in der anderen Kategorie zur Unterscheidung
zwischen den Kategorien, wenn die Kombination der Merkmale im vierzehnten Schritt bestimmt
wird.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13164994 | 1994-06-14 | ||
JP13621094 | 1994-06-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19521346A1 DE19521346A1 (de) | 1995-12-21 |
DE19521346C2 true DE19521346C2 (de) | 1997-07-10 |
Family
ID=26466424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19521346A Expired - Fee Related DE19521346C2 (de) | 1994-06-14 | 1995-06-12 | Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür |
Country Status (2)
Country | Link |
---|---|
US (1) | US5638465A (de) |
DE (1) | DE19521346C2 (de) |
Families Citing this family (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2172791C (en) * | 1995-03-31 | 2000-11-14 | Teruyoshi Washizawa | Method and apparatus for processing visual information |
US6625317B1 (en) * | 1995-09-12 | 2003-09-23 | Art Gaffin | Visual imaging system and method |
JP3276547B2 (ja) * | 1995-12-01 | 2002-04-22 | シャープ株式会社 | 画像認識方法 |
JP3764773B2 (ja) * | 1996-02-29 | 2006-04-12 | 富士通株式会社 | 注視点を用いた頑健な認識装置 |
US6154566A (en) * | 1996-05-15 | 2000-11-28 | Omron Corporation | Method and apparatus for determining image similarity and position |
US5949905A (en) * | 1996-10-23 | 1999-09-07 | Nichani; Sanjay | Model-based adaptive segmentation |
US7304670B1 (en) * | 1997-03-28 | 2007-12-04 | Hand Held Products, Inc. | Method and apparatus for compensating for fixed pattern noise in an imaging system |
US6104835A (en) * | 1997-11-14 | 2000-08-15 | Kla-Tencor Corporation | Automatic knowledge database generation for classifying objects and systems therefor |
DE19812749B4 (de) * | 1998-03-24 | 2006-05-24 | Perner, Petra, Dr.-Ing. | Verfahren und Anordnung zur automatischen Bestimmung von Objekten und/oder Strukturen in medizinischen Schnittaufnahmen |
JP2000048036A (ja) * | 1998-07-28 | 2000-02-18 | Canon Inc | 画像処理装置およびその方法 |
US6463432B1 (en) * | 1998-08-03 | 2002-10-08 | Minolta Co., Ltd. | Apparatus for and method of retrieving images |
US6577757B1 (en) | 1999-07-28 | 2003-06-10 | Intelligent Reasoning Systems, Inc. | System and method for dynamic image recognition |
US6912304B1 (en) * | 1999-08-02 | 2005-06-28 | Applied Materials, Inc. | Two-dimensional scatter plot technique for defect inspection |
US6614924B1 (en) * | 1999-08-02 | 2003-09-02 | Applied Materials, Inc. | Adaptive mask technique for defect inspection |
US6674880B1 (en) | 1999-11-24 | 2004-01-06 | Confirma, Inc. | Convolution filtering of similarity data for visual display of enhanced image |
US6393143B1 (en) | 1999-12-08 | 2002-05-21 | The United States Of America As Represented By The Secretary Of The Navy | Technique for estimating the pose of surface shapes using tripod operators |
US6807286B1 (en) * | 2000-04-13 | 2004-10-19 | Microsoft Corporation | Object recognition using binary image quantization and hough kernels |
DE10026301A1 (de) * | 2000-05-26 | 2001-11-29 | Sick Ag | Verfahren und Vorrichtung zur Bildverarbeitung |
US6760471B1 (en) * | 2000-06-23 | 2004-07-06 | Teradyne, Inc. | Compensation system and related techniques for use in a printed circuit board inspection system |
CA2313803A1 (en) * | 2000-07-11 | 2002-01-11 | Dong-Chan He | Automatic extraction of linear features from digital imagery |
DE10054124A1 (de) * | 2000-10-31 | 2002-05-08 | Peter Linssen | Verfahren zur Ermittlung von Ähnlichkeiten zwischen Ereignisfolgen |
EP1220141B1 (de) * | 2000-12-14 | 2010-06-02 | Gigaset Communications GmbH | Verfahren zur Erstellung von Referenzen sowie zum Vergleich von Fingerabdrücken |
SE520533C2 (sv) * | 2001-03-13 | 2003-07-22 | Picsearch Ab | Metod, datorprogram och system för indexering av digitaliserade enheter |
US7203361B1 (en) | 2001-03-16 | 2007-04-10 | Hand Held Products, Inc. | Adaptive digitizer for optical reader |
US7331523B2 (en) | 2001-07-13 | 2008-02-19 | Hand Held Products, Inc. | Adaptive optical image reader |
US20030015355A1 (en) * | 2001-07-18 | 2003-01-23 | Chi-Ti Kao | Method for modifying handwriting locus of handwriting-input device |
US7155043B2 (en) * | 2001-11-21 | 2006-12-26 | Confirma, Incorporated | User interface having analysis status indicators |
US7283659B1 (en) * | 2002-01-09 | 2007-10-16 | Kla-Tencor Technologies Corporation | Apparatus and methods for searching through and analyzing defect images and wafer maps |
JP4008291B2 (ja) * | 2002-06-10 | 2007-11-14 | 大日本スクリーン製造株式会社 | パターン検査装置、パターン検査方法およびプログラム |
EP1591960A1 (de) * | 2002-07-01 | 2005-11-02 | Mitsubishi Electric Information Technology Centre Europe B.V. | Verfahren und Gerät zur Bildverarbeitung |
US20040047497A1 (en) * | 2002-09-10 | 2004-03-11 | Confirma, Inc. | User interface for viewing medical images |
US7260249B2 (en) | 2002-09-27 | 2007-08-21 | Confirma Incorporated | Rules-based approach for processing medical images |
US20040061889A1 (en) * | 2002-09-27 | 2004-04-01 | Confirma, Inc. | System and method for distributing centrally located pre-processed medical image data to remote terminals |
US20040134988A1 (en) * | 2003-01-09 | 2004-07-15 | Hand Held Products, Inc. | Analog-to-digital converter with automatic range and sensitivity adjustment |
US7274831B2 (en) * | 2003-04-03 | 2007-09-25 | Microsoft Corporation | High quality anti-aliasing |
US6816109B1 (en) | 2003-08-04 | 2004-11-09 | Northrop Grumman Corporation | Method for automatic association of moving target indications from entities traveling along known route |
JP4351522B2 (ja) * | 2003-11-28 | 2009-10-28 | 株式会社日立ハイテクノロジーズ | パターン欠陥検査装置およびパターン欠陥検査方法 |
US20080031400A1 (en) * | 2004-05-06 | 2008-02-07 | Luc Beaulieu | 3D Localization Of Objects From Tomography Data |
US7508545B2 (en) * | 2004-09-27 | 2009-03-24 | Eastman Kodak Company | Color contour detection and correction |
US7400784B2 (en) * | 2004-10-19 | 2008-07-15 | Institut National De L'audiovisuel-Ina | Search of similar features representing objects in a large reference database |
WO2006081437A2 (en) * | 2005-01-27 | 2006-08-03 | Tandent Vision Science, Inc. | Method and system for identifying illumination flux in an image |
JP4284288B2 (ja) * | 2005-03-10 | 2009-06-24 | 株式会社東芝 | パターン認識装置及びその方法 |
JP4042780B2 (ja) * | 2005-11-04 | 2008-02-06 | オムロン株式会社 | 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 |
US7668337B2 (en) * | 2005-12-14 | 2010-02-23 | Denso Corporation | Ellipsoid detecting method, figure center detecting method, image recognizing device, and controller based on image |
US7852519B2 (en) | 2007-02-05 | 2010-12-14 | Hand Held Products, Inc. | Dual-tasking decoder for improved symbol reading |
DE102007021130A1 (de) * | 2007-05-03 | 2008-11-13 | Panasonic Electric Works Europe Ag | Verfahren zur automatischen Ermittlung von Prüfbereichen, Prüfverfahren und Prüfsystem |
US8244057B2 (en) * | 2007-06-06 | 2012-08-14 | Microsoft Corporation | Removal of image artifacts from sensor dust |
US8496177B2 (en) | 2007-06-28 | 2013-07-30 | Hand Held Products, Inc. | Bar code reading terminal with video capturing mode |
KR101192053B1 (ko) * | 2007-08-31 | 2012-10-17 | 아이코스 비젼 시스템스 엔파우 | 반도체 기판 이상들을 검출하기 위한 장치 및 방법 |
WO2009050618A2 (en) * | 2007-10-15 | 2009-04-23 | Koninklijke Philips Electronics N.V. | Visualization of temporal data |
US8396296B2 (en) * | 2007-12-31 | 2013-03-12 | Intel Corporation | Brand image detection |
US8150211B2 (en) * | 2008-03-12 | 2012-04-03 | Intel Corporation | Identifying patterns in data |
US8175390B2 (en) * | 2008-03-28 | 2012-05-08 | Tandent Vision Science, Inc. | System and method for illumination invariant image segmentation |
US8628015B2 (en) | 2008-10-31 | 2014-01-14 | Hand Held Products, Inc. | Indicia reading terminal including frame quality evaluation processing |
US10210179B2 (en) * | 2008-11-18 | 2019-02-19 | Excalibur Ip, Llc | Dynamic feature weighting |
JP5104743B2 (ja) * | 2008-12-16 | 2012-12-19 | 富士通株式会社 | 画像検索プログラム、画像検索方法及び記録媒体 |
WO2010083235A1 (en) * | 2009-01-13 | 2010-07-22 | Futurewei Technologies, Inc. | Image processing system and method for object tracking |
CN102576412B (zh) * | 2009-01-13 | 2014-11-05 | 华为技术有限公司 | 图像处理以为图像中的对象进行分类的方法和系统 |
US8587595B2 (en) | 2009-10-01 | 2013-11-19 | Hand Held Products, Inc. | Low power multi-core decoder system and method |
JP5759161B2 (ja) | 2010-12-16 | 2015-08-05 | キヤノン株式会社 | 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム |
JP2013003686A (ja) * | 2011-06-13 | 2013-01-07 | Sony Corp | 認識装置および方法、プログラム、並びに記録媒体 |
US9286547B2 (en) * | 2011-06-26 | 2016-03-15 | UNIVERSITé LAVAL | Quality control and assurance of images |
GB2496834B (en) * | 2011-08-23 | 2015-07-22 | Toshiba Res Europ Ltd | Object location method and system |
EP2752817A4 (de) | 2011-08-30 | 2016-11-09 | Megachips Corp | Vorrichtung zur erkennung von leitungssegmenten und -bögen |
US20130080111A1 (en) * | 2011-09-23 | 2013-03-28 | Honeywell International Inc. | Systems and methods for evaluating plane similarity |
CN103714337A (zh) * | 2012-10-09 | 2014-04-09 | 鸿富锦精密工业(深圳)有限公司 | 物体特征识别系统及方法 |
US9075847B2 (en) * | 2012-11-28 | 2015-07-07 | Sap Se | Methods, apparatus and system for identifying a document |
CN103971133B (zh) * | 2014-04-13 | 2017-06-09 | 北京工业大学 | 基于案例推理的钢板表面缺陷的自动识别方法 |
US10255703B2 (en) | 2015-12-18 | 2019-04-09 | Ebay Inc. | Original image generation system |
CN105868772A (zh) * | 2016-03-23 | 2016-08-17 | 百度在线网络技术(北京)有限公司 | 图像识别方法及装置 |
US10863660B2 (en) * | 2016-11-14 | 2020-12-08 | Fuji Corporation | Stored image reclassification system and reclassification method |
US10282827B2 (en) | 2017-08-10 | 2019-05-07 | Wipro Limited | Method and system for removal of rain streak distortion from a video |
CN109815971B (zh) * | 2017-11-20 | 2023-03-10 | 富士通株式会社 | 信息处理方法和信息处理装置 |
CN108108738B (zh) * | 2017-11-28 | 2018-11-16 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置及终端 |
JP6863946B2 (ja) * | 2018-10-31 | 2021-04-21 | ファナック株式会社 | 画像処理装置 |
JP7357454B2 (ja) * | 2019-03-25 | 2023-10-06 | 三菱電機株式会社 | 特徴特定装置、特徴特定方法及び特徴特定プログラム |
CN110188813B (zh) * | 2019-05-24 | 2022-08-23 | 上海联影智能医疗科技有限公司 | 图像特征分类方法、计算机设备和存储介质 |
CN113723207A (zh) * | 2021-08-03 | 2021-11-30 | 上海海事大学 | 一种基于直方图距离的突变信号检测方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6024994B2 (ja) * | 1980-04-21 | 1985-06-15 | シャープ株式会社 | パタ−ン類似度計算方式 |
US4567610A (en) * | 1982-07-22 | 1986-01-28 | Wayland Research Inc. | Method of and apparatus for pattern recognition |
JPS59133414A (ja) * | 1983-01-21 | 1984-07-31 | Agency Of Ind Science & Technol | 楕円形状検出方法とその装置 |
US4613269A (en) * | 1984-02-28 | 1986-09-23 | Object Recognition Systems, Inc. | Robotic acquisition of objects by means including histogram techniques |
US5097517A (en) * | 1987-03-17 | 1992-03-17 | Holt Arthur W | Method and apparatus for processing bank checks, drafts and like financial documents |
US5208869A (en) * | 1986-09-19 | 1993-05-04 | Holt Arthur W | Character and pattern recognition machine and method |
JPH083848B2 (ja) * | 1987-03-02 | 1996-01-17 | 日本電信電話株式会社 | 画像特徴抽出演算装置 |
JP2557872B2 (ja) * | 1987-03-02 | 1996-11-27 | 日本電信電話株式会社 | 画像特徴抽出方法 |
JP2532086B2 (ja) * | 1987-03-16 | 1996-09-11 | 日本電信電話株式会社 | 画像特徴抽出装置 |
JP2856539B2 (ja) * | 1990-11-02 | 1999-02-10 | 日本電信電話株式会社 | 一般化ハフ変換における画像特徴選択処理方法 |
US5231580A (en) * | 1991-04-01 | 1993-07-27 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Automated method and apparatus for determining characteristics of nerve fibers |
DE4133590A1 (de) * | 1991-07-03 | 1993-01-14 | Bosch Gmbh Robert | Verfahren zur klassifikation von signalen |
US5517234A (en) * | 1993-10-26 | 1996-05-14 | Gerber Systems Corporation | Automatic optical inspection system having a weighted transition database |
-
1995
- 1995-06-09 US US08/488,892 patent/US5638465A/en not_active Expired - Fee Related
- 1995-06-12 DE DE19521346A patent/DE19521346C2/de not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US5638465A (en) | 1997-06-10 |
DE19521346A1 (de) | 1995-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19521346C2 (de) | Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür | |
DE60307583T2 (de) | Auswertung der Schärfe eines Bildes der Iris eines Auges | |
DE2831582C2 (de) | Verfahren zur Identifizierung einer Person und Vorrichtung zur Durchführung des Verfahrens | |
DE60307967T2 (de) | Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes | |
DE4416801C2 (de) | Verfahren zur Mustererkennung | |
DE10346690B4 (de) | Verfahren und Vorrichtung zum Detektieren eines Linearobjekts | |
DE4418217A1 (de) | Formerkennungsverfahren | |
DE3937950A1 (de) | Verfahren zum pruefen optischer oberflaechen | |
DE102008056600A1 (de) | Verfahren und Vorrichtung zum Erkennen von Objekten | |
DE19928231C2 (de) | Verfahren und Vorrichtung zur Segmentierung einer Punkteverteilung | |
DE102005025220B4 (de) | Gerät, Verfahren und Programm zum Beseitigen von Poren | |
WO2006133974A1 (de) | Verfahren und vorrichtung zur erkennung einer münze unter verwendung ihres prägebildes | |
WO2008034599A2 (de) | Verfahren und vorrichtung zur bildverarbeitung | |
DE102020132106A1 (de) | System und verfahren zum betrieb eines gaussschen bildqualitätsanalysesystems | |
DE19947557B4 (de) | Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren | |
EP2096578A2 (de) | Verfahren und Vorrichtung zur Charakterisierung der Formation von Papier | |
EP0996924B1 (de) | Verfahren zur ermittlung eines identifikationscodes aus fingerabdruckbildern | |
WO2003034327A1 (de) | Automatische ermittlung von geometrischen modellen für optische teilerkennungen | |
EP1525554A1 (de) | Verfahren zur signalauswertung eines elektronischen bildsensors bei der mustererkennung von bildinhalten eines pr fk rpe rs | |
WO2000028470A2 (de) | Erzeugen eines abgerollten fingerabdruckbildes aus einer serie von einzelbildern | |
EP1139285B1 (de) | Verfahren und Vorrichtung zur Prüfung bzw. Untersuchung von Gegenständen | |
DE10024559B4 (de) | Verfahren zur Erkennung von Objekten | |
DD298158A5 (de) | Verfahren zur schnellen automatischen erkennung von fehlern in unifarbenen, ungemusterten oder schwach gemusterten warenbahnen | |
DE19810162C2 (de) | Verfahren zur Bildanalyse nach stochastischen Eigenschaften | |
DE102005039424B4 (de) | Verfahren und Vorrichtung zum Erkennen und zur Größenvermessung von Bereichen gleicher Textur in einem Digitalbild |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8125 | Change of the main classification |
Ipc: G06K 9/03 |
|
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |