DE19837004C1 - Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen - Google Patents
Verfahren zum Erkennen von Objekten in digitalisierten AbbildungenInfo
- Publication number
- DE19837004C1 DE19837004C1 DE19837004A DE19837004A DE19837004C1 DE 19837004 C1 DE19837004 C1 DE 19837004C1 DE 19837004 A DE19837004 A DE 19837004A DE 19837004 A DE19837004 A DE 19837004A DE 19837004 C1 DE19837004 C1 DE 19837004C1
- Authority
- DE
- Germany
- Prior art keywords
- graph
- bundle
- jets
- graphs
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/754—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
Die Erfindung betrifft ein Verfahren zum automatisierten Erkennen einer oder mehrerer Strukturen in digitalisierten Bilddaten. Das erfindungsgemäße Verfahren umfaßt die Schritte (a) Zurverfügungstellen wenigstens eines Referenzgraphen aus digitalisierten Referenzbilddaten entsprechender Referenzbilder, wobei der oder jeder Referenzgraph eine netzartige Struktur, die jeweils dadurch definiert wird, daß bestimmten Referenzbilddaten Knoten. die durch Links in vorbestimmter Weise miteinander verbunden sind, zugewiesen werden, und Jets, wobei jedem Knoten ein Jet zugeordet ist und jeder Jet wenigstens einen Teiljet umfaßt, der durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit den Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit farbsegmentierten Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Farbinformation über die Referenzbilddaten an dem bestimmten Knoten oder durch mit statistischen Verfahren gewonnenen Texturbeschreibungen des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch aus zeitlich aufeinanderfolgenden Referenzbildern extrahierten Bewegungsvektoren an dem bestimmten Knoten ermittelt wird, (b) Ermitteln eines optimalen Bildgraphen aus den digitalisierten Bilddaten für jeden Referenzgraphen, wobei der ...
Description
Die Erfindung betrifft ein Verfahren zum automatisierten Erkennen einer oder meh
rerer Strukturen bzw. eines oder mehrerer Objekte in digitalisierten Bilddaten.
Verfahren zum automatisierten Erkennen eines Objekts in digitalisierten Bilddaten
sind im Stand der Technik bekannt.
So ist beispielsweise aus der DE 44 06 020 ein Verfahren zur Gesichtserkennung
bekannt. Gemäß diesem Verfahren werden aus einem digitalisierten Bild mit Gabor
filtern verschiedener Größe und Orientierung, sogenannte Jets extrahiert, die an
den Knoten eines verschiebbaren, skalierbaren und deformierbaren Gitters ange
ordnet werden. Dieser Graph, d. h. die Struktur des Gitters und die mit den Knoten
des Gitters assoziierten Jets, werden mit einem Referenzgraphen, der die zu erken
nende Struktur umfaßt, verglichen. Hierzu wird die optimale Form des Gitters durch
eine zweistufige Optimierung einer Graphenvergleichsfunktion bestimmt. In der er
sten Phase werden Größe und Position des Graphen simultan optimiert; in der
zweiten Phase wird die intrinsische Form des Graphen optimiert.
Es hat sich allerdings gezeigt, daß ein erfolgreiches Erkennen einer Struktur oder
eines Objekts mit diesem Verfahren sehr stark von der Qualität, insbesondere der
Beschaffenheit des Hintergrunds, der Bilddaten, welche die zu erkennende Struktur
beinhalten, abhängt. So können mit diesem Verfahren zwar gute Ergebnisse erzielt
werden, wenn die Struktur und das Objekt vor einen neutralen Hintergrund aufge
nommen worden sind. In Anwendungen, in denen es jedoch nicht möglich ist, die
Bilddaten vor einem neutralen Hintergrund aufzunehmen, können bei dem bekann
ten Verfahren allerdings Probleme auftreten, die letztlich dazu führen können, daß
Strukturen und Objekte nur mangelhaft erkannt werden.
Aus dem Gebiet der Gesichtserkennung, ist ein weiteres Verfahren bekannt, bei
dem der Vergleich zwischen dem mit einer Videokamera aufgenommenen Bild eines
Kopfes und mehreren in einer Datenbank in gespeicherten Bildern von Köpfen
durch einen flexiblen Abbildungsmechanismus realisiert wird, wobei die bestmögli
che Abbildung durch ein Optimierungsverfahren bestimmt wird (siehe Lades et al.,
IEEE Transactions on Computers, Vol. 42, No. 3, March 1993, 300-311).
Ein Nachteil dieses Verfahrens, ist es allerdings, daß das Verfahren nicht zur Bear
beitung großer Datenmengen geeignet scheint. So konnten Lades et al. zwar ein
Bild eines Kopfes aus einer Datenbank, die aus Bildern von 87 Personen bestand,
erkennen; bei einer Vielzahl von Anwendungen ist allerdings mit wesentlich größe
ren Referenzdatenbanken zu rechnen.
Darüber hinaus wurde das Verfahren von Lades et al. nur mit einer speziellen
Hardware-Konfiguration, nämlich mit Transputern, d. h. mit mehreren in vorbestimm
ter Weise miteinander verschalteten Mikroprozessoren, realisiert.
Aus den Veröffentlichungen "Learning Weights in Discrimination Functions using a
priori Constraints" von Norbert Krüger in Mustererkennung 1995, 17. DAGM-
Symposium, Bielefeld, Springer-Verlag, Seiten 110-117, und in "Size and Distortion
Invariant Object Recognition by Hierarchical Graph Matching" von J. Buhmann, M.
Lades, C. v. d. Malsburg in IJCNN II, San Diego 1990, Seiten 411-416, sind außer
dem Verfahren offenbart, in denen zum Vergleich von Referenzbilddaten mit digita
lisierten Bilddaten diesen von Beginn an Referenzgraphen bzw. ein Bildgraph zu
gewiesen werden, und der Vergleich zwischen digitalisierten Bilddaten und den
Referenzbilddaten mittels einer Graphenvergleichsfunktion aufgrund der von den
Referenzbilddaten von vorneherein zugewiesenen Referenzgraphen und den digi
talisierten Bilddaten von vorneherein zugewiesenen Bildgraphen durchgeführt wird.
Die DE 197 26 226 A1, die am 22.06.1997 angemeldet und am 24.12.1998 offenge
legt worden ist, offenbart ein Verfahren zum automatisierten Erkennen einer oder
mehrerer Strukturen in einem Schnitt durch biologisches Material, insbesondere
zum Einsatz in der medizinischen Diagnostik mit den Schritten: (1) Zurverfü
gungstellen von Referenzgraphen, die aus digitalisierten Bilddaten entsprechender
Referenzschnittbilder resultieren, wobei jeder Referenzgraph eine netzartige Struk
tur, die dadurch definiert wird, daß bestimmten Bilddaten Knoten, die durch Links in
vorbestimmter Weise miteinander verbunden sind, zugewiesen werden, und Jets
aufweist, wobei jedem Knoten ein Jet zugeordnet ist und wobei der einem bestimm
ten Knoten zugeordnete Jet durch Faltungen einer einzigen Klasse von Filterfunk
tionen mit verschiedenen Größen und Orientierungen mit den Bilddaten des ent
sprechenden Referenzschnitts an dem bestimmten Knoten ermittelt wird; (2) Erstel
len des Bildes des Schnitts, der jede zu erkennende Struktur umfaßt, derart, daß die
Bilddaten in digitalisierter Form vorliegt; (3) Ermitteln eines optimalen Schnittgra
phen für jeden Referenzgraphen, wobei der optimale Schnittgraph für einen be
stimmten Referenzgraphen die optimale Anpassung an diesen darstellt und ermittelt
wird durch: Projizieren der netzartigen Struktur des bestimmten Referenzgraphen in
das Bild des Schnitts, wodurch die Struktur des Schnittgraphen definiert wird, und
Ermitteln von Jets des Schnittgraphen an den durch seine Struktur definierten Kno
ten durch Faltungen der Klasse von Filterfunktionen mit den Größen und den Ori
entierungen, die zur Ermittlung der Jets des bestimmten Referenzgraphen verwen
det worden sind, mit den Bilddaten des Schnitts, wobei die Projektion der netzarti
gen Struktur des bestimmten Referenzgraphen solange variiert wird, bis eine Gra
phenvergleichsfunktion, welche die Jets des Schnittgraphen mit den entsprechen
den Jets des bestimmten Referenzgraphen vergleicht, optimal wird; und (4) Zuord
nen jeder Struktur zu dem Referenzschnittbild, welches dem Referenzgraphen ent
spricht, für den die Graphenvergleichsfunktion in bezug auf den für ihn ermittelten
optimalen Schnittgraphen optimal ist.
Angesichts dieser Nachteile der Verfahren gemäß dem Stand der Technik liegt der
Erfindung die Aufgabe zugrunde, die bekannten Verfahren dahingehend zu verbes
sern, daß ihre Robustheit gegenüber weniger optimalen Bilddaten im Vergleich zum
bekannten Verfahren erhöht wird, wobei zusätzlich gewährleistet sein soll, daß das
Verfahren mit herkömmlichen Mitteln realisiert werden kann.
Diese oben stehende Aufgabe wird gelöst durch ein Verfahren zum automatisierten
Erkennen einer oder mehrerer Strukturen in digitalisierten Bilddaten mit den Schrit
ten:
- a) Zurverfügungstellen wenigstens eines Referenzgraphen aus digitalisierten Referenzbilddaten entsprechender Referenzbilder, wobei der oder jeder Referenz graph eine netzartige Struktur, die jeweils dadurch definiert wird, daß bestimmten Referenzbilddaten Knoten, die durch Links in vorbestimmter Weise miteinander verbunden sind, zugewiesen werden, und Jets umfaßt, wobei jedem Knoten ein Jet zugeordnet ist und jeder Jet wenigstens einen Teiljet umfaßt, der durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit den Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Faltungen wenigstens einer Klasse von Filter funktionen mit verschiedenen Größen und/oder Orientierungen mit farbsegmentier ten Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Farbinformation über die Referenzbilddaten an dem bestimmten Knoten oder durch mit statistischen Verfahren gewonnenen Texturbeschreibungen der Referenzbilddaten an dem bestimmten Knoten oder durch aus zeitlich aufeinan derfolgenden Referenzabbildungen extrahierten Bewegungsvektoren an dem be stimmten Knoten ermittelt wird, und wobei solche Jets ausgeschlossen sind, die nur einen einzigen Teiljet, der durch Faltungen einer Klasse von Filterfunktionen mit verschiedenen Größen und Orientierungen mit den Referenzbilddaten des entspre chenden Referenzbildes an dem bestimmten Knoten, ermittelt worden ist, umfassen
- b) Ermitteln eines optimalen Bildgraphen aus den digitalisierten Bilddaten für jeden Referenzgraphen, wobei der optimale Bildgraph für einen bestimmten Refe renzgraphen die optimale Anpassung an diesen darstellt und ermittelt wird durch ein Projizieren der netzartigen Struktur des bestimmten Referenzgraphen in die Bildda ten, wodurch die Struktur des Bildgraphen definiert wird, und Ermitteln von Teiljets des Bildgraphen an den durch seine Struktur definierten Knoten, wobei die Teiljets mindestens einem Teil der ermittelten Teiljets des bestimmten Referenzgraphen entsprechen, und wobei die Projektion der netzartigen Struktur des bestimmten Re ferenzgraphen, so lange variiert wird, bis eine Graphenvergleichsfunktion, welche die Jets des Bildgraphen mit den entsprechenden Jets des bestimmten Referenz graphen vergleicht, optimal wird,
- c) Zuordnen der oder jeder Struktur zu dem Referenzbild, das dem Referenzgra phen entspricht, für den die Graphenvergleichsfunktion in Bezug auf den für ihn er mittelten optimalen Bildgraphen optimal ist.
Durch dieses Verfahren kann gleichzeitig qualitativ unterschiedliche Bildinformati
on, wie sie beispielsweise Faltungen der Klasse/Klassen von Filterfunktionen mit
beliebigen Größen und/oder Orientierungen mit den Bilddaten und/oder Faltungen
der Klasse/Klassen von Filterfunktionen mit beliebigen Größen und/oder Orientie
rungen mit farbsegmentierten Bilddaten und/oder Farbinformation über die Bilddaten
und/oder durch mit statistischen Verfahren gewonnenen Texturbeschreibungen der
Bilddaten und/oder durch aus zeitlich aufeinanderfolgenden Abbildungen extrahier
ten Bewegungsvektoren darstellen, genutzt werden. Dies führt dazu, daß gegenüber
dem Stand der Technik eine verbesserte Strukturerkennungsrate verwirklicht wer
den kann.
Außerdem läßt sich durch die Kombination qualitativ unterschiedlicher Bildinformati
on eine höhere Robustheit gegenüber den aus dem Stand der Technik bekannten
Verfahren erzielen.
Gemäß einer Weiterbildung der Erfindung können weiterhin mehrere Referenzgra
phen zur Verfügung gestellt werden, und diejenigen Referenzgraphen, welche netz
artige Strukturen aufweisen, die topologisch identisch sind, d. h. sich nur durch die
Längen einander entsprechender Links unterscheiden, können zu einem Referenz
bündelgraphen zusammengefaßt werden. Ein derartiger Referenzbündelgraph um
faßt hierbei eine netzartige Struktur, die durch Knoten, welche den Knoten der Refe
renzgraphen entsprechen, und durch Links, die durch Mittelung der entsprechenden
Links der Referenzgraphen ermittelt werden, definiert wird, und Bündeljets, wobei
jeder Bündeljet aus den Teiljets, die den Jets an den jeweiligen Knoten der in dem
Referenzbündelgraphen zusammengefaßten Referenzgraphen entsprechen, zu
sammengesetzt wird. Weiterhin wird gemäß dieser Weiterbildung ein optimaler Bild
graph für den oder jeden Referenzbündelgraphen ermittelt. Hierbei stellt der opti
male Bildgraph für einen bestimmten Referenzbündelgraphen die optimale Anpas
sung an diesen dar und wird ermittelt durch ein Projizieren der netzartigen Struktur
des bestimmten Referenzbündelgraphen in die Bilddaten, wodurch die Struktur des
Bildgraphen definiert wird, und ein Ermitteln von Teiljets, die mindestens einem Teil
der Teiljets entsprechen, die zur Ermittlung der Teiljets der dem bestimmten Refe
renzbündelgraphen zugrunde liegenden Referenzgraphen verwendet worden sind.
Weiterhin wird die Projektion der netzartigen Struktur des bestimmten Referenzbün
delgraphen, so lange variiert, bis eine Graphenvergleichsfunktion, welche die Jets
des Bildgraphen mit den entsprechenden Bündeljets des bestimmten Referenzbün
delgraphen vergleicht, optimal wird, wobei Teiljets des Bildgraphen mit Teiljets in
dem entsprechenden Bündeljet des bestimmten Referenzbündelgraphen verglichen
wird. Schließlich wird jede Struktur dem Referenzbild zugeordnet, das dem Refe
renzgraphen bzw. dem Referenzgraphen aus dem oder den Referenzbündelgra
phen entspricht, für den die Graphenvergleichsfunktion in Bezug auf den für ihn er
mittelten optimalen Bildgraphen optimal ist.
Durch die Verwendung von Referenzbündelgraphen können bei gleicher Anzahl von
Referenzbildern die Menge der für den Vergleich zur Verfügung stehenden Struktu
ren erhöht werden, oder anders ausgedrückt erlaubt es ein Referenzbündelgraph
eine komplexe Strukturobjektklasse mit wenigen Beispielen zu repräsentieren. Au
ßerdem können durch Referenzbündelgraphen solche Strukturobjektklassen durch
Beispiele von Individuen modelliert werden.
Hierbei kann, in Abhängigkeit von der jeweiligen Anwendung, also von den zu er
kennenden Strukturen, lediglich ein Teil der zur Verfügung gestellten Referenzgra
phen zu einem oder zu mehreren Referenzbündelgraphen zusammengefaßt wer
den. Hierdurch können Sonderfälle innerhalb einer Objektklasse separat behandelt
werden oder unberücksichtigt bleiben.
Alternativ lassen sich auch alle zur Verfügung gestellten Referenzgraphen zu einem
oder zu mehreren Referenzbündelgraphen zusammenfassen.
Die vorstehend beschriebenen Verfahren können derart weitergebildet werden, daß
die Struktur der den Knoten zugeordneten Jets, die durch die Teiljets bestimmt ist,
vom jeweiligen Knoten abhängig ist.
Hierdurch läßt sich ein a priori Wissen über die zu erkennenden Strukturen ausnüt
zen. So kann beispielsweise bestimmte Bildinformation nur in einem Bereich, in dem
sie tatsächlich signifikant ist, ausgewertet werden. Weiterhin können beispielsweise
Kantenfilter am Strukturrand eingesetzt werden.
Alternativ kann die Struktur der den Knoten zugeordneten Jets, die durch die Teiljets
bestimmt ist, für alle Knoten identisch sein.
Diese Weiterbildung zeichnet sich insbesondere dadurch aus, daß sie eine homo
gene Datenstruktur aufweist. Demnach kann das Verfahren durch eine relativ einfa
che Hard- und/oder Softwareimplementierung realisiert werden.
In den zuvor beschriebenen Verfahren läßt sich vorteilhafterweise eine Graphenver
gleichsfunktion einsetzen, die eine Jetvergleichsfunktion umfaßt, welche die Ähn
lichkeit der einander entsprechenden Jets berücksichtigt.
Darüber hinaus kann die Graphenvergleichsfunktion eine Vergleichsfunktion für die
netzartige Struktur umfassen, welche die metrische Ähnlichkeit des Bildgraphen mit
dem entsprechenden Referenzgraphen bzw. dem entsprechenden Referenzbündel
graphen berücksichtigt. Zweckmäßigerweise wird die Graphenvergleichsfunktion in
diesem Fall als gewichtete Summe der Jetvergleichsfunktion und der Vergleichs
funktion für die netzartige Struktur definiert.
Die Jetvergleichsfunktion kann als Funktion von Einzeljetvergleichsfunktionen ein
ander entsprechender Jets definiert werden.
Hierzu kann die Jetvergleichsfunktion vorteilhafterweise als gewichtete Summe aus
den Einzeljetvergleichsfunktionen und/oder als gewichtetes Produkt aus den Ein
zeljetvergleichsfunktionen definiert werden.
Zweckmäßigerweise lassen sich zur Ermittlung eines Einzeljetvergleichs Teiljets der
entsprechenden Jets berücksichtigen, und eine Einzeljetvergleichsfunktion als
Funktion von Teiljetvergleichsfunktionen definieren.
Vorteilhafterweise kann die Einzeljetvergleichsfunktion als gewichtete Summe der
Teiljetvergleichsfunktionen und/oder als gewichtetes Produkt der Teiljetvergleichs
funktionen.
Insbesondere können auch unterschiedliche, knotenabhängige bzw. Einzeljetver
gleichsfunktionen bzw. Teiljetvergleichsfunktionen eingesetzt werden.
Im Zusammenhang mit den obenbeschriebenen Referenzbündelgraphen können
die Bündeljets des Referenzbündelgraphen BM in Teilbündeljets j M|n geteilt werden,
und die Jetvergleichsfunktion zwischen den Teilbündeljets j M|n des Referenzbündel
graphen und den entsprechenden Teiljets jn' des Bildgraphen G' für n Knoten für m
Rekursionen gemäß folgender Formeln berechnet werden:
wn ein Wichtungsfaktor für den n-ten Knoten n ist und die Vergleichsfunk
tion Sn(B M|n, Jn') für den n-ten Knoten des Referenzbündelgraphen mit
dem n-ten Knoten des Bildgraphen gegeben ist durch:
In diesem Fall können die Teilbündeljets des oder der Referenzbündelgraphen nur
Merkmale enthalten, die durch Faltungen wenigstens einer Klasse von Filterfunktio
nen mit verschiedenen Größen und/oder Orientierungen mit den Referenzbilddaten
des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Faltun
gen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen
und/oder Orientierungen mit farbsegmentierten Referenzbilddaten des entspre
chenden Referenzbildes an dem bestimmten Knoten oder durch Farbinformation
über die Referenzbilddaten an dem bestimmten Knoten oder durch mit statistischen
Verfahren gewonnenen Texturbeschreibungen des entsprechenden Referenzbildes
an dem bestimmten Knoten oder durch aus zeitlich aufeinanderfolgenden Referenz
bildern extrahierten Bewegungsvektoren an dem bestimmten Knoten ermittelt wor
den sind.
Alternativ können die Teilbündeljets des oder der Referenzbündelgraphen nur
Merkmale enthalten, die aus einem Referenzgraphen resultieren.
Darüber hinaus können die Teilbündeljets des oder der Referenzgraphenbündel
auch Mischungen aus diesen beiden zuvor genannten Merkmalen umfassen.
Diese unterschiedlichen Vergleichsfunktionen ermöglichen es, das Verfahren an
wendungsorientiert so zu optimieren, daß eine möglichst hohe Erkennungsrate und
eine möglichst hohe Geschwindigkeit erzielt wird.
Gemäß einer bevorzugten Weiterbildung der oben beschriebenen Verfahren kann
nach dem Erkennen jeder Struktur ein Schritt zur Ermittlung der Signifikanz des Er
kennung vorgesehen werden. Hierzu kann beispielsweise ein Schätzer verwendet
werden, der sowohl die optimale Graphenvergleichsfunktion als auch die nicht opti
malen Graphenvergleichsfunktionen berücksichtigt.
Besonders zeichnet sich hierbei ein Schätzer aus, bei dem der Abstand der Werte
der nicht optimalen Graphenvergleichsfunktionen von dem Wert der optimalen Gra
phenvergleichsfunktion ermittelt wird.
Durch diese Maßnahmen erhält man neben der Objekt- bzw. Strukturerkennung
auch eine Angabe über die Qualität der Strukturerkennung.
Gemäß einer weiteren vorteilhaften Weiterbildung der zuvor genannten Verfahren,
kann jede Struktur den Referenzbildern zugeordnet werden, die den Referenzgra
phen bzw. den Referenzgraphen aus den Referenzbündelgraphen entsprechen, für
die die Werte der Graphenvergleichsfunktionen in einem vorbestimmten Bereich
liegen. Falls die Werte nicht in dem vorbestimmten Bereich liegen, bedeutet dies,
daß eine Struktur nicht hinreichend identifiziert werden kann. Demnach eignet sich
diese Weiterbildung für Anwendungen, in denen aufgrund des Erkennungsvorgangs
Entscheidungen getroffen werden sollen, wie beispielsweise bei einer Zugangskon
trolle.
Vorteilhafterweise kann in den vorstehend beschriebenen Verfahren die Farbinfor
mation aus den Referenzbilddaten bzw. den Bilddaten ermittelte Farbtonwerte
und/oder Farbsättigungswerte und/oder Helligkeitswerte umfassen.
Obwohl die Referenzgraphen bzw. die Referenzbündelgraphen vor jeder Anwen
dung neu berechnet werden können, was bei Anwendungen zweckmäßig ist, in den
sich die Referenzdaten häufig ändern, insbesondere aktualisiert werden, ist es in
den meisten Anwendungen zweckmäßig, daß der Schritt des Zurverfügungstellens
der Referenzgraphen bzw. der Referenzbündelgraphen das Abrufen der Referenz
graphen bzw. der Referenzbündelgraphen aus einer zentralen Datenbank und/oder
einer dezentralen Datenbank, wie beispielsweise von Chipkarten, umfaßt.
In den oben beschriebenen Verfahren kann gemäß einer bevorzugten Weiterbildung
die netzartige Struktur des Referenzgraphen in Form eines regelmäßigen Gitters
verwendet werden, dessen Knoten und Links rechtwinklige Maschen bilden.
Alternativ kann als netzartige Struktur des Referenzgraphen ein unregelmäßiges
Gitter verwendet wird, dessen Knoten und Links an die zu erkennende Struktur an
gepaßt sind. Hierbei können den Knoten charakteristische Punkte, sogenannten
Landmarken, der zu erkennenden Struktur zugeordnet werden.
In dieser Weiterbildung werden die Jets demnach an den charakteristischen Punk
ten der Struktur ermittelt. Dadurch werden in erster Linie die charakteristischen
Punkte beim Vergleich der Bilddaten mit den Referenzdaten berücksichtigt, wodurch
die Signifikanz, mit der eine Struktur erkannt wird, erhöht werden kann.
Vorzugsweise können in den oben beschriebenen Verfahren als Klasse der Filter
funktionen zur Faltung mit den Referenzbilddaten bzw. Bilddaten und/oder als Klas
se der Filterfunktionen zur Faltung mit den farbsegmentierten Referenzbilddaten
bzw. Bilddaten Gabor-Filterfunktionen und/oder Mallat-Filterfunktionen verwendet
werden.
Gemäß einer bevorzugten Weiterbildung der beschriebenen Verfahren kann die
Projektion der netzartigen Struktur des bestimmten Referenzgraphen bzw. des be
stimmten Referenzbündelgraphen eine Zentrierung des Referenzgraphen bzw. des
bestimmten Referenzbündelgraphen in der Abbildung umfassen.
Es hat sich weiterhin als vorteilhaft erwiesen, wenn die Projektion der netzartigen
Struktur des bestimmten Referenzgraphen bzw. des bestimmten Referenzbündel
graphen eine Verschiebung und/oder eine Drehung des zentrierten Referenzgra
phen bzw. des zentrierten Referenzbündelgraphen umfaßt.
Hierdurch kann ein Erkennen der Struktur beschleunigt werden.
Insbesondere kann die Projektion der netzartigen Struktur des bestimmten Refe
renzgraphen bzw. des bestimmten Referenzbündelgraphen eine Skalierung des
zentrierten Referenzgraphen bzw. des zentrierten Referenzbündelgraphen umfas
sen. Hierdurch kann insbesondere die Signifikanz und Geschwindigkeit eines Er
kennens erhöht werden, wenn die zu erkennende Struktur in den Bilddaten und den
Referenzdaten eine unterschiedliche Größe aufweist.
Die Verschiebung und/oder die Drehung sowie die Skalierung des zentrierten Refe
renzgraphen bzw. des zentrierten Referenzbündelgraphen können hierbei simultan
durchgeführt werden, wodurch das Erkennen einer Struktur beschleunigt werden
kann.
Weiterhin kann die Projektion der netzartigen Struktur lokale Verzerrungen des zen
trierten Referenzgraphen umfassen. Diese Ausführung eignet sich insbesondere,
wenn Bilddaten und Referenzdaten unter verschiedenen Aufnahmewinkeln aufge
nommen worden sind.
Eine derartige lokale Verzerrung kann zweckmäßigerweise durch eine lokale Ver
schiebung eines entsprechenden Knotens des zentrierten Referenzgraphen bewirkt
werden.
Vorteilhafterweise können die Verschiebung bzw. die Skalierung bzw. die Drehung
aus dem Vergleich des Bildgraphen mit dem entsprechenden Referenzgraphen bzw.
dem entsprechenden Referenzbündelgraphen ermittelt werden. Dies führt zu einer
wesentlichen Erhöhung der Geschwindigkeit des Erkennens.
Weitere bevorzugte Ausgestaltungen ergeben sich aus den Unteransprüchen sowie
aus der Beschreibung bevorzugter Ausführungsformen des erfindungsgemäßen
Verfahrens, die im folgenden unter Bezugnahme auf die Zeichnung beschrieben
werden.
In der Zeichnung zeigen:
Fig. 1 eine Abbildung einer Handstellung mit einem Referenzgraphen zur Er
läuterung einer Ausführungsform der Erfindung;
Fig. 2 den Referenzgraphen von Fig. 1;
Fig. 3 eine schematische Darstellung zur Ermittlung eines Graphen aus einer
Referenzabbildung gemäß einer Ausführungsform der Erfindung;
Fig. 4 eine schematische Darstellung zur Erläuterung einer weiteren Ausfüh
rungsform der Erfindung;
Fig. 5 Abbildungen von Handstellungen, aus denen eine Referenzgraphen-
Datenbank ermittelt wurde;
Fig. 6 Beispiele von Abbildungen einer Handstellung mit verschiedenen Hin
tergründen, die mit den Abbildungen von Fig. 4 mittels einer Ausführung
des erfindungsgemäßen Verfahrens verglichen wurde.
Im folgenden werden die verschiedenen Ausführungsformen der Erfindung an
hand eines Verfahrens zum Erkennen der Stellung einer Hand, im folgenden als
Handstellung bezeichnet, beschrieben. Diese Beschreibung ist allerdings nicht als
Einschränkung zu verstehen, sondern nur als ein Beispiel eines Verfahrens zum
Erkennen von Strukturen bzw. Objekten in Abbildungen.
In Fig. 1 ist als Beispiel eine Abb. 20 einer Hand in einer bestimmten Stel
lung dargestellt.
Zur Durchführung des erfindungsgemäßen Verfahrens muß die Abb. 20 in
digitalisierter Form vorliegen. Die digitalisierte Form kann hierbei entweder aus
dem verwendeten Aufnahmeverfahren direkt resultieren, beispielsweise bei Ver
wendung einer CCD-Kamera, oder muß durch Konvertierung eines analogen Bil
des, wie beispielsweise einer herkömmlichen Fotografie, digitalisiert werden.
Ein digitalisiertes Bild liegt typischerweise in der Form eines Pixelfeldes einer
vorbestimmten Größe vor. Jedem Pixel ist hierbei eine horizontale und eine verti
kale Position zugeordnet. Deshalb wird im folgenden unter dem Pixel das
Pixel verstanden, dem die Position zugeordnet worden ist. Weiterhin ist jedem
Pixel ein Grauwert und/oder Farbinformationswert, wie beispielsweise ein HSI-
Wert zugewiesen.
Aus der digitalisierten Abb. 20 bzw. den der digitalisierten Abbildung ent
sprechenden Bilddaten wird nun im Rahmen des erfindungsgemäßen Verfahrens
an vorbestimmten Pixeln lokale Bildinformation, sogenannte Merkmale, die ihrer
seits zu sogenannten Jets zusammengefaßt werden, extrahiert. Diese extrahier
ten Merkmale werden in Form eines Graphen angeordnet.
Die vorbestimmten Pixel werden dadurch erhalten, daß zunächst eine netzförmi
ge Struktur 21, die im folgenden der Einfachheit halber als Gitter bezeichnet wird,
in die Abb. 20 projiziert wird.
Wie aus Fig. 2, welche dieses Gitter 21 im Detail zeigt, ersichtlich, umfaßt das in
der ersten Ausführungsform verwendete Gitter 15 Knotenpunkte 22a, 22b, 22c, ...
und 19 Links, d. h. Verbindungen zwischen jeweils zwei Knotenpunkten. In Fig. 2
sind die Links zwischen den Knotenpunkten 22a und 22b bzw. 22b und 22c mit
den Bezugszeichen 23ab und 23bc versehen.
Schließlich werden die vorbestimmten Pixel dadurch erhalten, daß die Pixel, die
der Projektion der Knotenpunkte entsprechen, bestimmt werden.
In der ersten Ausführungsform wird ein objektangepaßtes Gitter verwendet, d. h.
die Knotenpunkte werden charakteristischen Punkten in der Abbildung zugeord
net. Zum Erkennen der Stellung einer Hand sind die Knotenpunkte, wie in Fig. 1
zu sehen ist, demnach den beiden Fingern und dem Handrücken zugeteilt.
Die Erfindung ist allerdings nicht auf derartige objektangepaßte Gitter beschränkt.
Es lassen sich vielmehr auch Gitter im eigentlichen Sinn, also regelmäßige Gitter
verwenden. Die Entscheidung, welche Gitterform zweckmäßig ist, hängt von der
jeweiligen Anwendung ab. Objektangepaßte Gitterformen führen gegenüber re
gelmäßigen Gittern in der Regel zu einer signifikanteren Erkennung, sind aller
dings in ihrer Handhabung komplizierter.
In Fig. 3 ist eine schematische Darstellung gegeben, anhand der erklärt wird, wie
man aus der Abb. 20 eine Darstellung in Graphenform erhält, die, wie noch
erläutert wird, mit anderen Graphen, insbesondere mit Referenzgraphen, vergli
chen ωerden kann.
Nachdem durch das Gitter bestimmte Pixel festgelegt sind, wie in Fig. 3(a) ge
zeigt, wird die Extraktion der Merkmale in diesen Pixeln wie folgt durchgeführt.
In der ersten Ausführungsform werden zwei verschiedene Klassen 28 und 29 von
Merkmalen zum Vergleich der Abbildung mit einer Referenzabbildung verwendet.
Die erste Klasse von Merkmalen 28a, ..., 28i ist als das Ergebnis einer Faltung
der Abbildung an einem vorbestimmten Pixel mit einer gegebenen Filterfunktion
definiert.
Gemäß der ersten Ausführungsform werden hierbei sogenannte komplexe Ga
bor-Filter als Filterfunktionen verwendet. Diese Filter lassen sich durch folgende
Formel darstellen:
Die durch Gleichung (1) dargestellten Gabor-Filter haben die Form einer durch
einen Wellenvektor j beschriebenen ebenen Welle, die durch eine Gauß-
Funktion mit einer Breite σ/k beschränkt ist, wobei σ = 2π. Durch Wahl des
Wellenvektors j kann die Größe und die Orientierung der Filterfunktion bestimmt
werden.
Darüber hinaus erfüllen die Filterfunktionen die Bedingung:
In Fig. 3(c) sind mit 24a und 24b die Realteile zweier derartiger verschiedener
Filterfunktionen dargestellt. Der Wert 0 ist hierbei durch ein mittleres Grau darge
stellt; positive Werte sind heller und negative Werte sind dunkler. Die in Fig. 3(c)
dargestellte Filterfunktion 24a hat hierbei eine niedrige Frequenz bzw. einen klei
nen Wellenvektor j mit einer Orientierung von ungefähr 60 Grad gegenüber der
Horizontalen. Die Filterfunktion 24b hat eine größere Frequenz bzw. einen größe
ren Wellenvektor j mit einer Orientierung von ungefähr 90 Grad gegenüber der
Horizontalen.
Für einen vorgegebenen Wellenvektor j, d. h. durch Wahl der Größe und der
Orientierung der Filterfunktion, läßt sich somit das Merkmal Jj() an einem vor
bestimmten Pixel berechnen durch:
I() bezeichnet hierin die Intensität.
In Abhängigkeit von dem Wellenvektor j können nun für jedes Pixel verschie
dene Merkmale Jj() berechnet werden, die in der ersten Ausführungsform in ei
nem Teiljet für das Pixel zusammengefaßt werden.
In den Abbildungen in Fig. 3(d), die mit 26a bzw. 26b bezeichnet sind, sind die
Ergebnisse der Faltungen der Abb. 20 mit den Filterfunktionen 24a bzw. 24b
für alle Pixel gezeigt.
Stellt man den Wellenvektor j dar durch:
wobei ν der Größenindex und µ der Orientierungsindex der Filterfunktion sind,
werden entsprechend der ersten Ausführungsform die Merkmale für die Indizes
µ ∈ {0, ..., 7} und ν ∈ {0, ..., 4} in einem Teiljet 28 des Jets 27 zusammengefaßt.
Insgesamt umfaßt der Teiljet 28 für das Pixel somit n = 40 Merkmale.
In Fig. 3 ist ein Teil dieser Merkmale schematisch in dem Teiljet 28 dargestellt.
Hierbei sind die Merkmale 28a, 28b und 28c durch eine Filterfunktionen mit kon
stanter Größe und, wie durch die Schraffur dargestellt, mit unterschiedlicher Ori
entierung erhalten worden. Gleiches gilt für die Merkmale 28d, 28e und 28f sowie
28g, 28h und 28i. Im Vergleich zu den Merkmalen 28a, 28b und 28c resultieren
die Merkmale 28d, 28e und 28f sowie 28g, 28h und 28i aus einer Faltung mit ei
ner kleineren Filterfunktion.
Neben den oben beschriebenen Gabor-Filterfunktionen lassen sich auch beliebi
ge andere Filterfunktionen einsetzen. Als ein weiteres Beispiel einer Filterfunkti
onsklasse werden entsprechend einer weiteren Ausführungsform der Erfindung
sogenannte Mallat-Filter verwendet werden.
Die Faltung der Abbildung mit diesen Mallat-Filtern läßt sich durch folgende For
mel darstellen:
wobei * die Faltungsoperation bezeichnet, h und v für horizontal und vertikal
stehen und si(si = s02i,i ∈ N) die Breite einer Gauß-Funktion darstellt, deren Ab
leitungen als Filterfunktionen verwendet werden.
Die zweite Klasse von Merkmalen 29a, ..., 29i ist als Ergebnis einer Faltung an
einem vorbestimmten Pixel von Daten, die aus einer herkömmlichen Farbraum
segmentierung der Bilddaten resultieren, mit einer gegebenen Filterfunktion defi
niert. Im vorliegenden Fall wurde die Farbraumsegmentierung bezüglich der
Hautfarbe durchgeführt. Selbstverständlich kann die Farbraumsegmentierung, in
Abhängigkeit von der Anwendung bezüglich anderer Farben durchgeführt wer
den. In Fig. 3(b) sind die Bilddaten 22 nach der Farbraumsegmentierung darge
stellt.
In der vorliegenden Ausführungsform wurde die Faltung der farbraumsegmen
tierten Daten analog zur Faltung der Bilddaten, d. h. mit denselben Gabor-Filtern
gleicher Größe und Orientierung durchgeführt. Daher erübrigt sich eine detaillierte
Beschreibung dieser Faltungsoperation und es wird in diesem Zusammenhang
auf die entsprechenden Abschnitte zur Faltung der Bilddaten mit den Gabor-
Filtern verwiesen.
In diesem Zusammenhang bleibt noch anzumerken, daß in Fig. 3(e) die mit den
Filterfunktionen gefalteten farbraumsegmentierten Bilddaten dargestellt sind. Die
Abb. 25a und 25b in Fig. 3(e) stellen hierbei die Realteile einer Faltung
der farbsegmentierten Bilddaten mit den Filtern dar, deren Realteile in Fig. 3(c)
mit 24a und 24b bezeichnet sind.
Analog zu den durch Faltung der Bilddaten mit den Gabor-Filtern resultierenden
Merkmale werden auch die durch Faltung der farbraumsegmentierten Bilddaten
mit den Gabor-Filtern erhaltenen Merkmale in einem Teiljet 29 zusammengefaßt.
Da der Größenindex und der Orientierungsindex der Filterfunktionen in dieser
Ausführungsform wie oben beschrieben gewählt worden ist, enthält der Teiljet 29
ebenfalls n = 40 Merkmale für das Pixel , von denen die Merkmale 29a, ..., 29i
repräsentativ dargestellt sind.
Selbstverständlich können auch in diesem Fall anstelle der Gabor-Filter andere
Filterfunktionen, wie beispielsweise die bereits genannten Mallat-Filter eingesetzt
werden.
Die Teiljets 28 und 29 bilden den Jet 27 in der ersten Ausführungsform. Der Jet
27 umfaßt in dieser Ausführungsform schließlich 80 Merkmale.
Führt man die Extraktion der Merkmale an allen Gitterpunkten durch, erhält man
schließlich den erwünschten Graphen, der die Struktur des Gitters 21 widerspie
gelt und die Jets an den Punkten, die den Gitterpunkten entsprechen, aufweist.
Gemäß einer weiteren Ausführungsform werden als zweite Klasse nicht die Fal
tungen der Filterfunktionen mit den farbsegmentierten Daten sondern aus den
Bilddaten erhaltene Farbinformation, wie beispielsweise Farbton, Farbsättigung
und Intensität (HSI) für das Pixel verwendet. Ein einzelner Jet setzt sich gemäß
dieser Ausführungsform demnach aus 40 Merkmalen, die aus der oben beschrie
benen Faltung der Bilddaten mit den Gaborfilterfunktionen resultieren und aus
dem HSI-Tripel zusammen und umfaßt somit 43 Merkmale.
Als Vergleichsfunktion zwischen zwei HSI-Tripeln wird zweckmäßigerweise ein
gewichteter euklid'scher Abstand im HSI-Farbraum verwendet.
Darüber hinaus setzt sich in einer weiteren Ausführungsform ein Jet aus drei
Klassen zusammen. Die erste Klasse umfaßt die Merkmale, die aus der Faltung
der Bilddaten mit den Gabor-Filtern resultieren (Gabor-Merkmale); die zweite
Klasse umfaßt die Merkmale, die aus der Faltung der farbraumsegmentierten
Bilddaten mit den Gabor-Filtern resultieren (Farbgabor-Merkmale); und die dritte
Klasse umfaßt die aus den Bilddaten gewonnenen HSI-Tripel (Farbinformation).
Gemäß einer weiteren Ausführungsform kann alternativ oder zusätzlich zu den oben
beschriebenen Klassen eine Texturbeschreibung, die durch statistische Verfahren
gewonnen wird, verwendet werden. Derartige Texturbeschreibungen sind beispiels
weise der mittlere Grauwert, die Varianz der Grauwertverteilung, die Kovarianzma
trix der Grauwertverteilung, die Entropie, die Orientierung der Grauwertstruktur,
mittlere Skalen der Struktur in verschiedenen Richtungen, die Variationsbreite der
lokalen Orientierung, die Variationsbreite der räumlichen Skalen, die Reihenfolge
und die Anordnung verschiedener Strukturelemente.
Darüber hinaus, wiederum alternativ oder zusätzlich zu den oben beschriebenen
Klassen werden in einer weiteren Ausführungsform Bewegungsvektoren
(Verschiebungsvektoren) als Klasse definiert. Derartige Bewegungsvektoren lassen
sich durch differentialgeometrische Methoden (differentielle Verfahren), Korrelati
onsverfahren und Filterverfahren aus zwei aufeinanderfolgenden Abbildungen be
rechnen. Darüber hinaus ist es auch möglich, Bewegungsvektoren aus zwei Gabor-
Jets zu berechnen.
Neben den im Detail beschriebenen Ausführungsformen sind, in Abhängigkeit
von dem Anwendungsgebiet, d. h. von der Struktur, der Qualität und der Komple
xität des Inhalts der zu vergleichenden Bilddaten, eine Vielzahl von Kombinati
onsmöglichkeiten der oben beschriebenen Klassen möglich. So können insbe
sondere auch die Merkmale von lediglich einer der oben beschriebenen fünf
Klassen zum Vergleich verwendet werden. Es ist insbesondere auch möglich,
daß Merkmale, die aus Faltungen der Bilddaten mit einer ersten Filterklasse re
sultieren, die erste Klasse definieren, und Merkmale, die aus Faltungen der Bild
daten mit einer zweiten Filterklasse resultieren, die zweite Klasse definieren.
Im folgenden wird beschrieben, wie eine Abbildung mit einer Referenzabbildung
verglichen wird. Hierbei bezieht sich das Präfix "Vergleichs-" jeweils auf die auf
genommene Abbildung, in der die Struktur oder das Objekt erkannt werden soll.
Zunächst muß eine Referenzabbildung in Form eines Graphen, d. h. in Form ei
nes Referenzgraphen, zur Verfügung gestellt werden. Dies kann beispielsweise
durch Abrufen des Referenzgraphen aus einer zentralen Datenbank oder einer
dezentralen Datenbank, beispielsweise von Chipkarten, geschehen.
Beim Erstellen der Datenbank wird dieser Referenzgraph G nach einem der oben
beschriebenen Verfahren ermittelt. Im vorliegenden Fall wird demnach ein Gitter,
wie es beispielsweise in Fig. 2 dargestellt ist, in die Referenzabbildung projiziert.
An den Knotenpunkten des Gitters werden, wie ebenfalls bereits oben erläutert,
die Jets ermittelt. Hierbei sollten die Jets der Referenzgraphen zumindest die
Merkmalsklassen enthalten, die auch für den Vergleichgraphen ermittelt werden
sollen.
Im nächsten Schritt projiziert man das Gitter der Referenzabbildung
(Referenzgitter) in die Vergleichsabbildung und berechnet die diesem Gitter ent
sprechenden Jets für das Vergleichsbild. Hierbei sind zumindest teilweise Filter
funktionen, d. h. dieselbe Klasse von Filterfunktionen, dieselben Größen und/oder
dieselben Orientierungen, mit denen der Referenzgraph erstellt worden ist, zu
verwenden. Die derart berechneten Jets bilden zusammen mit der Struktur des
projizierten Gitters schließlich den Vergleichsgraphen G'.
Zur Projektion des Referenzgitters in die Vergleichsabbildung lassen sich in Ab
hängigkeit von den zu erwartenden Unterschieden zwischen Referenzabbildun
gen und Vergleichsabbildungen verschiedene Abbildungen einsetzen.
Die einfachste Projektion, nämlich eine Zentrierung des Referenzgitters in der
Vergleichsabbildung, eignet sich beispielsweise, wenn Referenzabbildung und
Vergleichsabbildung dieselbe Größe und Position in bezug auf das Bildzentrum
haben und unter demselben Winkel aufgenommen worden sind.
Zu dieser einfachen Projektion können wahlweise die folgenden Projektionen
ausgeführt werden.
Eine Verschiebung des Referenzgitter in seiner Gesamtheit:
Diese Abbildung eignet sich, wenn die Positionen von Referenzabbildung und
Vergleichsabbildung in bezug auf das Bildzentrum unterschiedlich sind.
Eine Skalierung des Referenzgitters:
Diese Abbildung kann vorgesehen werden, wenn die Größen von Referenzabbil
dung und Vergleichsabbildung unterschiedlich sind.
Eine Drehung des Referenzgitters:
Ein Drehung läßt sich in dem Fall einsetzen, in dem Referenzabbildung und Ver
gleichsabbildung gegeneinander verdreht sind.
Eine lokale Verzerrung des Referenzgitters:
Bei dieser Abbildung werden jeweils einzelne Gitterpunkte gegenüber ihrer Posi
tion im Referenzgitter verschoben. Diese Abbildung eignet sich insbesondere,
wenn zu erwarten ist, daß die Vergleichsabbildung gegenüber der Referenzabbil
dung lokale Verzerrungen aufweist.
Selbstverständlich sind auch beliebige Kombinationen der oben beschriebenen
Projektionen möglich.
Die Bewertung der Ähnlichkeit beider Graphen, wird mittels einer Graphenver
gleichsfunktion durchgeführt, die folgende allgemeine Form aufweist:
S = SJet + λSMetrik. (6)
SJet bezeichnet hierbei die Jetvergleichsfunktion, d. h. eine geeignete Funktion,
welche die Ähnlichkeit der Jets an korrespondierenden Punkten der beiden Gra
phen bewertet, und SMetrik bezeichnet eine geeignete Funktion, welche die Ähn
lichkeit der Metrik der beiden Gitter miteinander vergleicht. SMetrik hängt hierbei
stark von der verwendeten Projektion ab.
λ(λ ≧ 0) bezeichnet die Gewichtung der beiden Vergleichsfunktion zueinander.
λ kann auch gleich Null gesetzt werden; dies bedeutet, daß die Ähnlichkeit der
Metrik der Graphen nicht berücksichtigt wird. Dieser Wert bietet sich insbesonde
re an, wenn lediglich Zentrierung oder Verschiebung als Projektion gewählt wer
den, oder anders ausgedrückt, wenn die Topologie von Referenzgraph und Ver
gleichsgraph identisch ist.
Zur Berechnung der Jetvergleichsfunktion SJet sind zunächst die Vergleichsfunk
tionen der Teiljets für die jeweiligen Klassen k zu berechnen. Im Fall der ersten
Ausführungsform, deren Merkmale aus einer Faltung der Bilddaten und der im
Farbraum segmentierten Bilddaten mit Gabor-Filtern resultieren, wäre k = 2.
Zur Bewertung der Ähnlichkeit zweier korrespondierender Teiljets jk und jk' der
Jets j bzw. j' des Referenzgraphen G bzw. des Vergleichsgraphen G', wird eine
Teiljetvergleichsfunktion verwendet, d. h. eine Funktion, die von den Amplituden
aj und aj' der beiden Teiljets abhängt und die folgende Form hat:
Die vorliegende Erfindung ist allerdings nicht auf diese Vergleichsfunktion be
schränkt, es kann auch eine phasenempfindliche Vergleichsfunktion eingesetzt
werden, beispielsweise mit folgender Form:
wobei j der Wellenvektor der entsprechenden Gabor-Filter ist und ein ge
schätzter Verschiebungsvektor ist, der schnelle Phasenverschiebungen kompen
siert. wird dadurch bestimmt, daß Sϕ in seiner Taylorentwicklung innerhalb ei
nes kleinen Quadrats, daß in = 0 zentriert ist, maximiert wird. Der Term . j
mit dem geschätzten Verschiebungsvektor kompensiert schließlich schnelle
Phasenverschiebungen aufgrund kleiner Variationen in den Positionen und '
der zwei Jets, die miteinander verglichen werden.
aj() und ϕj()ergeben sich hierbei aus Jj() = aj()exp(iϕj()).
Aus den Teiljetvergleichsfunktionen für die einander entsprechenden Teiljets, al
so für die Merkmale einer Klasse, läßt sich eine Einzeljetvergleichsfunktion für
entsprechende einzelne Jets bilden:
S(J, J') = Ω({Sk(jk, jk')}). (9)
In Abhängigkeit von der Anwendung lassen sich verschiedene Funktionen Ω
verwenden, beispielsweise
Sk(jk, jk') sind hierbei die Teiljetvergleichsfunktionen, die sich gemäß der Glei
chungen (7) oder (8) berechnen lassen; ωk sind Wichtungskoeffizienten, die den
Beitrag eines einzelnen Teiljets zu der Einzeljetvergleichsfunktion S(j, j') be
schreiben.
Aus den Einzeljetvergleichsfunktionen für die einzelnen Jets wird schließlich die
Jetvergleichsfunktion SJet für alle entsprechenden Jets eines Referenzgraphen G
und eines Vergleichsgraphen SJet gebildet. Hierzu können ebenfalls in Abhängig
keit von der Anwendung verschiedene Funktionen eingesetzt werden. Beispiels
weise kann die Vergleichsfunktion für n Jets gebildet werden nach:
Sn(Jn, Jn') sind hierbei die Einzeljetvergleichsfunktionen, die sich gemäß der
Gleichungen (10) bis (13) berechnen lassen; ωn sind Wichtungskoeffizienten, die
den Beitrag eines einzelnen Jets zu der Jetvergleichsfunktion SJet beschreiben.
Als Funktion zum Vergleichen der Metrik der beiden Graphen können beispiels
weise die Beträge der Differenzvektoren zweier einander entsprechender Links,
d. h. der Verbindungen zweier einander entsprechender Knoten, aufsummiert
werden; für Graphen mit E Links, die mit Δe bzw. Δe' bezeichnet werden, er
gibt sich somit eine Metrikvergleichsfunktion:
Welche der Vergleichsfunktionen im Detail verwendet und insbesondere welcher
Faktor für λ gewählt wird, hängt im wesentlichen von der Struktur der Referenz
graphen und der Vergleichsgraphen, also letztendlich von der Struktur der Ver
gleichsabbildungen und der Referenzabbildungen, ab.
Die Auswahl der geeigneten Vergleichsfunktion für eine gegebene Struktur der
Vergleichsabbildungen und der Referenzabbildungen kann hierbei durch Ver
gleichsversuche mit den Vergleichsabbildungen und den Referenzabbildungen
ermittelt werden und liegt somit im Bereich des durchschnittlichen Könnens eines
Fachmanns.
Mit Hilfe der Graphenvergleichsfunktion (6) kann nun der Vergleichsgraph an den
Referenzgraphen optimal angepaßt werden. Hierzu wird die Projektion des Refe
renzgitters in die Vergleichsabbildung solange variiert, bis die Graphenver
gleichsfunktion einen optimalen Wert (im Fall der oben beschriebenen Ver
gleichsfunktionen ist dies ein Minimum) annimmt.
Mit der Vergleichsabbildung lassen sich selbstverständlich auch mehrere Refe
renzabbildungen vergleichen.
Diese Referenzabbildungen können in Form einer Datenbank vorliegen. In die
sem Fall müssen dann allerdings bei jedem Vergleich die Referenzgraphen er
neut berechnet werden.
Zweckmäßiger ist es deshalb, die Datenbank gleich in Form einer Referenzgraph-
Datenbank vorzusehen, in denen die Referenzgitter mit ihren entsprechenden
Jets gespeichert sind und lediglich abgerufen werden müssen. Allerdings ist eine
solche Referenzgraph-Datenbank nicht so flexibel wie eine Referenzabbildungs-
Datenbank, da diese für jede Änderung bei der Berechnung der Jets neu kompi
liert werden muß.
Zum Vergleich der Vergleichsabbildung mit einer beliebigen Anzahl von Refe
renzabbildungen ermittelt man für die Vergleichsabbildung mit dem oben be
schriebenen Verfahren die optimale Anpassung an jede Referenzabbildung und
die Graphenvergleichsfunktion für diese optimale Anpassung.
Aufgrund eines Vergleichs der Graphenvergleichsfunktionen, die jeweils den be
sten Anpassungen der Referenzabbildungen an die Vergleichsabbildung entspre
chen, kann die Referenzabbildung ermittelt werden, welche die größte Ähnlichkeit
mit der Vergleichsabbildung aufweist.
Darüber hinaus kann durch Auswertung der Graphenvergleichsfunktionen für alle
Referenzabbildungen ein Maß der Signifikanz der Ähnlichkeit ermittelt werden.
Hierzu lassen sich, entsprechend dem erforderlichen Grad an Ähnlichkeit, ver
schiedene Definitionen für eine signifikante Erkennung verwenden.
Beispielsweise können aus allen Graphenvergleichsfunktionen für die nicht opti
malen Referenzgraphen der Mittelwert S und die Varianz σS gebildet werden.
Eine signifikante Ähnlichkeit könnte dann angenommen werden, wenn
oder
erfüllt ist, wobei s ein fest gewählter Parameter ist und S2 der zweitkleinste Wert
aller Graphenvergleichsfunktionen ist.
In Fig. 4 ist eine weitere Ausführungsform der vorliegenden Erfindung dargestellt.
Diese Ausführungsform unterscheidet sich von den bisher beschriebenen Ausfüh
rungsformen durch den Aufbau der Referenzgraphen, die mit dem Vergleichsgra
phen verglichen werden.
Während in den bisher beschriebenen Ausführungsformen ein Referenzgraph
aus einer einzelnen Referenzabbildung erstellt worden ist, resultiert in dieser
Ausführungsform ein Referenzbündelgraph aus mehreren Referenzabbildungen.
Hierzu werden aus M Abbildungen M Modellgraphen erstellt, die in einem soge
nannten Referenzbündelgraph zusammengefaßt werden.
Alle M Modellgraphen haben qualitativ dieselbe Struktur, d. h. sie haben jeweils
N Knoten, die durch ein vorbestimmtes Gitter miteinander verbunden sind. Hier
bei ist es allerdings zulässig, daß die Längen zweier einander entsprechender
Links unterschiedlich sind. Es ist demnach lediglich topologische Identität der
Modellgraphen gefordert. Die Struktur des Gitters kann eine reguläre Form, wie
hier gezeigt, oder ein irreguläre Form aufweisen.
Insbesondere können demnach die in den zuvor diskutierten Ausführungsformen
eingesetzten Gitter, also ein reguläres n × m-Gitter oder ein irreguläres objektan
gepaßtes Gitter, verwendet werden.
Neben den Längen zweier entsprechender Links unterscheiden sich außerdem
die einander entsprechenden Jets der M Modellgraphen.
Die M Modellgraphen werden schließlich, wie im folgenden erläutert, zu einem
Bündelgraphen zusammengefaßt.
Zuerst werden die mittleren Entfernungsvektoren Δij zwischen den Knoten i und
j in dem Bündelgraphen ermittelt durch:
wobei Δ m|ij der Entfernungsvektor zwischen den Knoten i und j in dem Modell
graphen m ist.
Diese Entfernungsvektoren bestimmen nun die Struktur des Bündelgraphen, die
zum Vergleich schließlich im folgenden in die Vergleichsabbildung projiziert wird.
Den Knoten des Bündelgraphen werden außerdem noch Bündeljets der M Mo
dellgraphen zugewiesen. Diese Bündeljets umfassen alle Teiljets, die bei der je
weiligen Erstellung der Referenzgraphen ermittelt worden sind. Demnach umfaßt
ein Jet des Bündelgraphen die M einander entsprechenden Jets der M Modell
graphen. Anders ausgedrückt, ist ein Jet des Referenzbündelgraphen aus den
Teiljets, die jeweils den Teiljets der Modellgraphen entsprechen, aufgebaut.
Die derart erhaltenen Struktur ist in Fig. 4 schematisch dargestellt. Mit G1, ..., GM
sind hierin die M Modellgraphen bezeichnet, die zu dem Bündelgraphen BM 40
zusammengefaßt sind.
Zur Durchführung des Vergleichs werden die Bündeljets Teilbündeljets zugeord
net. Als Zuordnungskriterium lassen sich beispielsweise die Merkmalsklassen, die
Referenzabbildungen oder Mischformen der beiden einsetzen. Bei einer Zuord
nung nach Merkmalsklassen, umfassen die Teilbündeljets lediglich die Merkmale
einer einzigen Merkmalsklasse.
Zum Vergleich eines auf diese Weise erhaltenen derart erhaltenen Bündelgra
phen BM 40 mit einem aus einer Abb. 42 resultierenden Vergleichsgraphen
G' 45 wird gemäß dieser Ausführungsform eine zu Gleichung (6) analoge Bün
delgraphenvergleichsfunktion verwendet.
Die Jetvergleichsfunktion SJet wird hierbei, wie im folgenden ausgeführt wird, be
stimmt.
Zuerst wird eine Vergleichsfunktion zwischen einem Teiljets j' der Abbildung und
den entsprechenden Teilbündeljets bM ermittelt. Hierbei können beispielsweise
die folgenden, zu Gleichungen (10) bis (13) analogen Gleichungen verwendet
werden:
j' ist hierbei ein Teiljet der Abbildung und j M|n der entsprechende Teilbündeljet; die
Sn(j M|n, j') bestimmen sich beispielsweise nach Gleichung (7) oder (8).
Die Vergleiche der Teiljets mit den Teilbündeljets stehen mit der Vergleichsfunktion
für den Jet J mit dem Bündelgraphen BM in funktionalem Zusammenhang Ω:
Die Funktion Ω kann hierbei nach folgender Rekursion ermittelt werden:
Die Rekursion kann, in Abhängigkeit von der Anwendung solange durchgeführt
werden, bis für M(m) die folgende Bedingung erfüllt ist:
|M(m)| = 1.
|M(m)| = 1.
Aus den Vergleichsfunktionen für den Jet J mit dem Bündelgraphen BM für die
einzelnen Jets wird schließlich die Jetvergleichsfunktion SJet für alle entspre
chenden Jets eines Referenzbündelgraphen BM und eines Vergleichsgraphen G'
gebildet. Hierzu können ebenfalls in Abhängigkeit von der Anwendung verschie
dene Funktionen eingesetzt werden. Beispielsweise kann die Vergleichsfunktion
für n Knoten gebildet werden nach:
Diese Vergleichsfunktion kann zur Ermittlung der Graphenvergleichsfunktion
schließlich in Gleichung (6) eingesetzt werden.
In Worten ausgedrückt, werden bei dem Vergleich des Bündelgraphen BM mit ei
nem Vergleichsgraphen G also die Jets mit der maximalen Ähnlichkeit aus dem
Bündelgraphen ausgewählt.
In Fig. 4 ist diese Tatsache dadurch dargestellt, daß Pfeile, die von dem entspre
chenden Knoten des Vergleichsgraphen G ausgehen, an verschiedenen Modell
graphen enden.
Neben der oben angegebenen Bündelgraphenvergleichsfunktion lassen sich
auch andere geeignete Vergleichsfunktionen einsetzen.
Wie bei einem Vergleich mit einem einzelnen Referenzgraphen, wird auch im Fall
eines Bündelgraphen dieser zuerst in die Abbildung des Vergleichsgraphen proji
ziert, und anschließend wird die optimale Projektion durch Auswertung der Bün
delgraphenvergleichsfunktion bestimmt.
Da ein Bündelgraph wie ein einzelner Graph behandelt werden kann, ist es auch
möglich, mehrere Referenzbündelgraphen, einen Referenzbündelgraphen und
einen oder mehrere Referenzgraphen in einer Datenbank, mit der die Vergleichs
graphen verglichen werden sollen, zusammenzufassen.
Unter Bezugnahme auf Fig. 4 und Fig. 5 wird im folgenden ein konkretes Beispiel
einer Handstellungserkennung vor komplexem Hintergrund gemäß dem zuvor
beschriebenen Verfahren, in dem Merkmale, die aus einer Faltung der Bilddaten
mit Gabor-Filtern (Gabor-Merkmale), einer Faltung farbsegmentierter Bilddaten
mit Gaborfiltern (Farbgabor-Merkmale) und aus der HSI-Information (HSI-
Merkmal) resultieren, verwendet werden. Dieses Beispiel wird mit einem Erken
nungsverfahren verglichen, in dem jeweils nur eine einzelne Klasse berücksichtigt
ist, d. h. die entsprechenden Wichtungskoeffizienten ωk sind gleich Null.
In Fig. 5 sind die repräsentative Referenzabbildungen dargestellt, aus denen
nach dem oben beschriebenen Verfahren Referenzgraphen erstellt worden sind.
Jeder Referenzgraph umfaßt 15 Knoten und 20 Links bzw. Verbindungen. Die
Knoten wurden manuell an anatomisch signifikanten Punkten verteilt.
In Fig. 6 sind verschiedene Beispiele einer Handstellung vor verschiedenen Hin
tergründen dargestellt. Insgesamt wurden 29 Hintergründe verwendet, von denen
fünf ein hohes Maß an Hautfarbe, elf ein mittleres Maß an Hautfarbe und acht ein
geringes Maß an Hautfarbe enthielten.
Mit diesen Hintergründen wurden 1000 verschiedene Vergleichsgraphen erstellt.
Aus den Referenzdaten wurden 18 Referenzgraphen für jede der in Fig. 5 darge
stellten Handstellungen ermittelt, die Gabor-Merkmale oder Farbgabor-Merkmale
oder HSI-Information enthalten haben. Für die Faltung wurden Gabor-Filter mit
drei verschiedenen Größen und acht verschiedenen Richtungen verwendet.
Aus den jeweils 18 Referenzgraphen wurden drei Bündelgraphen mit jeweils
sechs Modellen gebildet. Als Kriterium für die Zuordnung der Teiljets zu den Re
ferenzgraphen wurden die Merkmale der Teiljets verwendet. Demnach enthielt
der erste Referenzbündelgraph alle Gabor-Merkmale, der zweite Referenzbün
delgraph alle Farbgabor-Merkmale und der dritte Referenzbündelgraph alle HSI-
Merkmale.
Bei der Projektion der Referenzbündelgraphen wurde eine Drehung bis zu 15°,
eine Skalierung von bis zu 20% und eine lokale Verzerrung um maximal ein Pixel
zugelassen.
Die Graphenvergleichsfunktion wurde mittels der Gleichungen (6; λ = 0), (33; mit
gleichen ωn), (24), (25; mit ωGabor = 0,25, ωFarbgabor = 0,25, ωHSI = 0.5), (33; mit glei
chen ωn), (8) für die Gabor- und Farbgabor-Merkmale und einem gewichteten
euklid'schen Abstand für die HSI-Farbinformation berechnet.
Die Ergebnisse des Vergleichs der 1000 Vergleichsabbildungen ist in folgender
Tabelle zusammengefaßt:
Claims (35)
1. Verfahren zum automatisierten Erkennen einer oder mehrerer Strukturen
in digitalisierten Bilddaten, umfassend die Schritte:
Zurverfügungstellen wenigstens eines Referenzgraphen aus digitalisierten Referenzbilddaten entsprechender Referenzbilder, wobei der oder jeder Refe renzgraph umfaßt:eine netzartige Struktur, die jeweils dadurch definiert wird, daß bestimmten Referenzbilddaten Knoten, die durch Links in vorbestimmter Weise mitein ander verbunden sind, zugewiesen werden, und
Jets, wobei jedem Knoten ein Jet zugeordnet ist und jeder Jet wenigstens einen Teiljet umfaßt, der durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit den Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit farbsegmentierten Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Farbinformation über die Referenzbilddaten an dem bestimmten Knoten oder durch mit statistischen Verfahren gewonnenen Texturbeschreibungen des entsprechenden Referenzbildes an dem be stimmten Knoten oder durch aus zeitlich aufeinanderfolgenden Referenzbil dern extrahierten Bewegungsvektoren an dem bestimmten Knoten ermittelt wird, und
wobei solche Jets ausgeschlossen sind, die nur einen einzigen Teiljet, der durch Faltungen einer Klasse von Filterfunktionen mit verschiedenen Grö ßen und Orientierungen mit den Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten ermittelt worden ist, umfassen,Ermitteln eines optimalen Bildgraphen aus den digitalisierten Bilddaten für je den Referenzgraphen, wobei der optimale Bildgraph für einen bestimmten Referenzgraphen die optimale Anpassung an diesen darstellt und ermittelt wird durch:Projizieren der netzartigen Struktur des bestimmten Referenzgraphen in die Bilddaten, wodurch die Struktur des Bildgraphen definiert wird, und
Ermitteln von Teiljets des Bildgraphen an den durch seine Struktur definier ten Knoten, wobei die Teiljets mindestens einem Teil der ermittelten Teiljets des bestimmten Referenzgraphen entsprechen, und wobei
die Projektion der netzartigen Struktur des bestimmten Referenzgraphen, so lange variiert wird, bis eine Graphenvergleichsfunktion, welche die Jets des Bildgraphen mit den entsprechenden Jets des bestimmten Referenzgraphen vergleicht, optimal wird,Zuordnen der oder jeder Struktur zu dem Referenzbild, das dem Referenzgra phen entspricht, für den die Graphenvergleichsfunktion in Bezug auf den für ihn ermittelten optimalen Bildgraphen optimal ist.
Zurverfügungstellen wenigstens eines Referenzgraphen aus digitalisierten Referenzbilddaten entsprechender Referenzbilder, wobei der oder jeder Refe renzgraph umfaßt:eine netzartige Struktur, die jeweils dadurch definiert wird, daß bestimmten Referenzbilddaten Knoten, die durch Links in vorbestimmter Weise mitein ander verbunden sind, zugewiesen werden, und
Jets, wobei jedem Knoten ein Jet zugeordnet ist und jeder Jet wenigstens einen Teiljet umfaßt, der durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit den Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit farbsegmentierten Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Farbinformation über die Referenzbilddaten an dem bestimmten Knoten oder durch mit statistischen Verfahren gewonnenen Texturbeschreibungen des entsprechenden Referenzbildes an dem be stimmten Knoten oder durch aus zeitlich aufeinanderfolgenden Referenzbil dern extrahierten Bewegungsvektoren an dem bestimmten Knoten ermittelt wird, und
wobei solche Jets ausgeschlossen sind, die nur einen einzigen Teiljet, der durch Faltungen einer Klasse von Filterfunktionen mit verschiedenen Grö ßen und Orientierungen mit den Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten ermittelt worden ist, umfassen,Ermitteln eines optimalen Bildgraphen aus den digitalisierten Bilddaten für je den Referenzgraphen, wobei der optimale Bildgraph für einen bestimmten Referenzgraphen die optimale Anpassung an diesen darstellt und ermittelt wird durch:Projizieren der netzartigen Struktur des bestimmten Referenzgraphen in die Bilddaten, wodurch die Struktur des Bildgraphen definiert wird, und
Ermitteln von Teiljets des Bildgraphen an den durch seine Struktur definier ten Knoten, wobei die Teiljets mindestens einem Teil der ermittelten Teiljets des bestimmten Referenzgraphen entsprechen, und wobei
die Projektion der netzartigen Struktur des bestimmten Referenzgraphen, so lange variiert wird, bis eine Graphenvergleichsfunktion, welche die Jets des Bildgraphen mit den entsprechenden Jets des bestimmten Referenzgraphen vergleicht, optimal wird,Zuordnen der oder jeder Struktur zu dem Referenzbild, das dem Referenzgra phen entspricht, für den die Graphenvergleichsfunktion in Bezug auf den für ihn ermittelten optimalen Bildgraphen optimal ist.
2. Verfahren nach Anspruch 1, in welchem weiterhin
mehrere Referenzgraphen zur Verfügung gestellt werden, und
die Referenzgraphen, welche netzartige Strukturen aufweisen, die topologisch identisch sind, zu einem Referenzbündelgraphen zusammengefaßt werden, wobei der Referenzbündelgraph umfaßt:
eine netzartige Struktur, die durch Knoten, welche den Knoten der Refe renzgraphen entsprechen, und durch Links, die durch Mittelung der entspre chenden Links der Referenzgraphen ermittelt werden, definiert wird, und Bündeljets, wobei jeder Bündeljet aus den Teiljets, die den Teiljets an den jeweiligen Knoten der in dem Referenzbündelgraphen zusammengefaßten Referenzgraphen entsprechen, zusammengesetzt wird; und
ein optimaler Bildgraph für den oder jeden Referenzbündelgraphen ermittelt wird, wobei der optimale Bildgraph für einen bestimmten Referenzbündelgra phen die optimale Anpassung an diesen darstellt und ermittelt wird durch:
Projizieren der netzartigen Struktur des bestimmten Referenzbündelgraphen in die Bilddaten, wodurch die Struktur des Bildgraphen definiert wird, und
Ermitteln von Teiljets, die mindestens einem Teil der Teiljets entsprechen, die zur Ermittlung der Teiljets der dem bestimmten Referenzbündelgraphen zugrunde liegenden Referenzgraphen verwendet worden sind, und wobei
die Projektion der netzartigen Struktur des bestimmten Referenzbündelgra phen, so lange variiert wird, bis eine Graphenvergleichsfunktion, welche die Jets des Bildgraphen mit den entsprechenden Bündeljets des bestimmten Referenzbündelgraphen vergleicht, optimal wird, wobei jeder Teiljet des Bildgraphen mit den Teiljets in dem entsprechenden Bündeljet des be stimmten Referenzbündelgraphen verglichen wird;
und in welchem schließlich
jede Struktur dem Referenzbild zugeordnet wird, das dem Referenzgraphen bzw. dem Referenzgraphen aus dem oder den Referenzbündelgraphen ent spricht, für den die Graphenvergleichsfunktion in Bezug auf den für ihn ermit telten optimalen Bildgraphen optimal ist.
mehrere Referenzgraphen zur Verfügung gestellt werden, und
die Referenzgraphen, welche netzartige Strukturen aufweisen, die topologisch identisch sind, zu einem Referenzbündelgraphen zusammengefaßt werden, wobei der Referenzbündelgraph umfaßt:
eine netzartige Struktur, die durch Knoten, welche den Knoten der Refe renzgraphen entsprechen, und durch Links, die durch Mittelung der entspre chenden Links der Referenzgraphen ermittelt werden, definiert wird, und Bündeljets, wobei jeder Bündeljet aus den Teiljets, die den Teiljets an den jeweiligen Knoten der in dem Referenzbündelgraphen zusammengefaßten Referenzgraphen entsprechen, zusammengesetzt wird; und
ein optimaler Bildgraph für den oder jeden Referenzbündelgraphen ermittelt wird, wobei der optimale Bildgraph für einen bestimmten Referenzbündelgra phen die optimale Anpassung an diesen darstellt und ermittelt wird durch:
Projizieren der netzartigen Struktur des bestimmten Referenzbündelgraphen in die Bilddaten, wodurch die Struktur des Bildgraphen definiert wird, und
Ermitteln von Teiljets, die mindestens einem Teil der Teiljets entsprechen, die zur Ermittlung der Teiljets der dem bestimmten Referenzbündelgraphen zugrunde liegenden Referenzgraphen verwendet worden sind, und wobei
die Projektion der netzartigen Struktur des bestimmten Referenzbündelgra phen, so lange variiert wird, bis eine Graphenvergleichsfunktion, welche die Jets des Bildgraphen mit den entsprechenden Bündeljets des bestimmten Referenzbündelgraphen vergleicht, optimal wird, wobei jeder Teiljet des Bildgraphen mit den Teiljets in dem entsprechenden Bündeljet des be stimmten Referenzbündelgraphen verglichen wird;
und in welchem schließlich
jede Struktur dem Referenzbild zugeordnet wird, das dem Referenzgraphen bzw. dem Referenzgraphen aus dem oder den Referenzbündelgraphen ent spricht, für den die Graphenvergleichsfunktion in Bezug auf den für ihn ermit telten optimalen Bildgraphen optimal ist.
3. Verfahren nach Anspruch 2, in welchem lediglich ein Teil der zur Verfü
gung gestellten Referenzgraphen zu einem oder zu mehreren Referenzbün
delgraphen zusammengefaßt wird.
4. Verfahren nach Anspruch 2, in welchem alle zur Verfügung gestellten
Referenzgraphen zu einem oder zu mehreren Referenzbündelgraphen zu
sammengefaßt werden.
5. Verfahren nach einem der vorangegangenen Ansprüche, in welchem die
Struktur der den Knoten zugeordneten Jets, die durch die Teiljets bestimmt ist,
vom jeweiligen Knoten abhängig ist.
6. Verfahren nach einem der Ansprüche 1 bis 4, in welchem die Struktur der
den Knoten zugeordneten Jets, die durch die Teiljets bestimmt ist, für alle
Knoten identisch ist.
7. Verfahren nach einem der vorangegangenen Ansprüche, in welchem eine
Graphenvergleichsfunktion verwendet wird, die eine Jetvergleichsfunktion um
faßt, welche die Ähnlichkeit der einander entsprechenden Jets berücksichtigt.
8. Verfahren nach Anspruch 7, in welchem die Graphenvergleichsfunktion
weiterhin eine Vergleichsfunktion für die netzartige Struktur umfaßt, welche die
metrische Ähnlichkeit des Bildgraphen mit dem entsprechenden Referenzgra
phen bzw. dem entsprechenden Referenzbündelgraphen berücksichtigt.
9. Verfahren nach Anspruch 8, in welchem die Graphenvergleichsfunktion
als gewichtete Summe der Jetvergleichsfunktion und der Vergleichsfunktion für
die netzartige Struktur definiert wird.
10. Verfahren nach einem der Ansprüche 7 bis 9, in welchem die Jetver
gleichsfunktion als Funktion von Einzeljetvergleichsfunktionen einander ent
sprechender Jets definiert wird.
11. Verfahren nach Anspruch 10, in welchem die Jetvergleichsfunktion als
gewichtete Summe aus den Einzeljetvergleichsfunktionen und/oder als ge
wichtetes Produkt aus den Einzeljetvergleichsfunktionen definiert wird.
12. Verfahren nach Anspruch 10 oder 11, in welchem zur Ermittlung eines
Einzeljetvergleichs Teiljets der entsprechenden Jets berücksichtigt werden,
und eine Einzeljetvergleichsfunktion als Funktion von Teiljetvergleichsfunktio
nen definiert ist.
13. Verfahren nach Anspruch 12, in welchem die Einzeljetvergleichsfunktio
nen als gewichtete Summe der Teiljetvergleichsfunktionen und/oder als ge
wichtetes Produkt der Teiljetvergleichsfunktionen und/oder als Extremalwert
der Teiljetvergleichsfunktionen definiert sind.
14. Verfahren nach einem der Ansprüche 7 bis 13, in welchem unterschiedli
che, knotenabhängige Jetvergleichsfunktionen bzw. Einzeljetvergleichsfunktio
nen bzw. Teiljetvergleichsfunktionen verwendet werden.
15. Verfahren nach einem der Ansprüche 7 bis 9 in Verbindung mit Anspruch
2, in welchem die Bündeljets des Referenzbündelgraphen BM in Teilbündeljets
bM k geteilt werden, und die Jetvergleichsfunktion zwischen den Teilbündeljets
bM k des Referenzbündelgraphen und den entsprechenden Teiljets jI' des Bild
graphen G' für n Knoten für m Rekursionen gemäß folgender Formeln berech
net wird:
wobei ωn ein Wichtungsfaktor für den n-ten Knoten n ist und die Vergleichsfunktion Sn(BM n, Jn') für den n-ten Knoten des Referenzbündelgraphen mit dem n-ten Knoten des Bildgraphen gegeben ist durch:
wobei ωn ein Wichtungsfaktor für den n-ten Knoten n ist und die Vergleichsfunktion Sn(BM n, Jn') für den n-ten Knoten des Referenzbündelgraphen mit dem n-ten Knoten des Bildgraphen gegeben ist durch:
16. Verfahren nach Anspruch 15, in welchem die Teilbündeljets des oder der
Referenzbündelgraphen nur Merkmale enthalten, die durch Faltungen wenig
stens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder
Orientierungen mit den Referenzbilddaten des entsprechenden Referenzbildes
an dem bestimmten Knoten oder durch Faltungen wenigstens einer Klasse von
Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit farb
segmentierten Referenzbilddaten des entsprechenden Referenzbildes an dem
bestimmten Knoten oder durch Farbinformation über die Referenzbilddaten an
dem bestimmten Knoten oder durch mit statistischen Verfahren gewonnenen
Texturbeschreibungen des entsprechenden Referenzbildes an dem bestimm
ten Knoten oder durch aus zeitlich aufeinanderfolgenden Referenzbildern ex
trahierten Bewegungsvektoren an dem bestimmten Knoten ermittelt worden
sind.
17. Verfahren nach Anspruch 15, in welchem die Teilbündeljets des oder der
Referenzbündelgraphen nur Merkmale enthalten, die aus einem Referenzgra
phen resultieren.
18. Verfahren nach einem der vorangegangenen Ansprüche, in welchem nach
dem Erkennen jeder Struktur ein Schritt zur Ermittlung der Signifikanz des Er
kennens vorgesehen ist.
19. Verfahren nach Anspruch 18, in welchem zur Ermittlung der Signifikanz
ein Schätzer verwendet wird, der sowohl die optimale Graphenvergleichsfunk
tion als auch die nicht optimalen Graphenvergleichsfunktionen berücksichtigt.
20. Verfahren nach Anspruch 19, in welchem der Abstand der Werte der nicht
optimalen Graphenvergleichsfunktionen von dem Wert der optimalen Gra
phenvergleichsfunktion als Schätzer verwendet wird.
21. Verfahren nach einem der vorangegangenen Ansprüche, in welchem
weiterhin jede Struktur den Referenzbildern zugeordnet wird, die den Refe
renzgraphen bzw. den Referenzgraphen aus den Referenzbündelgraphen ent
sprechen, für die die Werte der Graphenvergleichsfunktionen in einem vorbe
stimmten Bereich liegen.
22. Verfahren nach einem der vorangegangenen Ansprüche, in welchem die
Farbinformation aus den Referenzbilddaten bzw. den Bilddaten ermittelte
Farbtonwerte und/oder Farbsättigungswerte und/oder Helligkeitswerte umfaßt.
23. Verfahren nach einem der Ansprüche 1 bis 22, in welchem der Schritt des
Zurverfügungstellens der Referenzgraphen bzw. der Referenzbündelgraphen
das Abrufen der Referenzgraphen bzw. der Referenzbündelgraphen aus einer
zentralen und/oder dezentralen Datenbank umfaßt.
24. Verfahren nach einem der vorangegangenen Ansprüche, in welchem als
netzartige Struktur des Referenzgraphen ein regelmäßiges Gitter verwendet
wird, dessen Knoten und Links rechtwinklige Maschen bilden.
25. Verfahren nach einem der Ansprüche 1 bis 23, in welchem als netzartige
Struktur des Referenzgraphen ein unregelmäßiges Gitter verwendet wird, des
sen Knoten und Links an die zu erkennende Struktur angepaßt sind.
26. Verfahren nach Anspruch 25, in welchem die Knoten charakteristischen
Punkten, sogenannten Landmarken, der zu erkennenden Struktur zugeordnet
werden.
27. Verfahren nach einem der vorangegangenen Ansprüche, in welchem als
Klasse der Filterfunktionen zur Faltung mit den Referenzbilddaten bzw. Bild
daten Gabor-Filterfunktionen und/oder Mallat-Filterfunktionen verwendet wer
den.
28. Verfahren nach einem der vorangegangenen Ansprüche, in welchem als
Klasse der Filterfunktionen zur Faltung mit den farbsegmentierten Referenz
bilddaten bzw. Bilddaten Gabor-Filterfunktionen und/oder Mallat-Filterfunk
tionen verwendet werden.
29. Verfahren nach einem der vorangegangenen Ansprüche, in welchem die
Projektion der netzartigen Struktur des bestimmten Referenzgraphen bzw. des
bestimmten Referenzbündelgraphen eine Zentrierung des Referenzgraphen
bzw. des bestimmten Referenzbündelgraphen in der Abbildung umfaßt.
30. Verfahren nach Anspruch 29, in welchem die Projektion der netzartigen
Struktur des bestimmten Referenzgraphen bzw. des bestimmten Referenzbün
delgraphen eine Verschiebung und/oder Drehung des zentrierten Referenz
graphen bzw. des zentrierten Referenzbündelgraphen umfaßt.
31. Verfahren nach Anspruch 29 oder 30, in welchem die Projektion der netz
artigen Struktur des bestimmten Referenzgraphen bzw. des bestimmten Refe
renzbündelgraphen eine Skalierung des zentrierten Referenzgraphen bzw. des
zentrierten Referenzbündelgraphen umfaßt.
32. Verfahren nach Anspruch 31 in Verbindung mit Anspruch 30, in welchem
die Verschiebung und die Skalierung und die Drehung des zentrierten Refe
renzgraphen bzw. des zentrierten Referenzbündelgraphen simultan durchge
führt werden.
33. Verfahren nach einem der Ansprüche 29 bis 32, in welchem die Projektion
der netzartigen Struktur lokale Verzerrungen des zentrierten Referenzgraphen
umfaßt.
34. Verfahren nach Anspruch 33, in welchem eine lokale Verzerrung durch
lokale Verschiebung eines entsprechenden Knoten des zentrierten Referenz
graphen bewirkt wird.
35. Verfahren nach einem der Ansprüche 30 bis 34, in welchem die Verschie
bung bzw. die Skalierung bzw. die Drehung aus dem Vergleich des Bildgra
phen mit dem entsprechenden Referenzgraphen bzw. dem entsprechenden
Referenzbündelgraphen ermittelt wird.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19837004A DE19837004C1 (de) | 1998-08-14 | 1998-08-14 | Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen |
PCT/EP1999/005946 WO2000010119A1 (de) | 1998-08-14 | 1999-08-13 | Verfahren zum erkennen von objekten in digitalisierten abbildungen |
AU58519/99A AU5851999A (en) | 1998-08-14 | 1999-08-13 | Method for recognizing objects in digitized images |
EP99945979A EP1104570A1 (de) | 1998-08-14 | 1999-08-13 | Verfahren zum erkennen von objekten in digitalisierten abbildungen |
US09/762,806 US7113641B1 (en) | 1998-08-14 | 1999-08-13 | Method for recognizing objects in digitized images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19837004A DE19837004C1 (de) | 1998-08-14 | 1998-08-14 | Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19837004C1 true DE19837004C1 (de) | 2000-03-09 |
Family
ID=7877611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19837004A Expired - Lifetime DE19837004C1 (de) | 1998-08-14 | 1998-08-14 | Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen |
Country Status (5)
Country | Link |
---|---|
US (1) | US7113641B1 (de) |
EP (1) | EP1104570A1 (de) |
AU (1) | AU5851999A (de) |
DE (1) | DE19837004C1 (de) |
WO (1) | WO2000010119A1 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10022570A1 (de) * | 2000-05-09 | 2001-11-15 | Giesecke & Devrient Gmbh | Verfahren und System zur Generierung eines Schlüsseldatensatzes |
WO2005038700A1 (en) * | 2003-10-09 | 2005-04-28 | University Of York | Image recognition |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE265069T1 (de) * | 2001-08-01 | 2004-05-15 | Zn Vision Technologies Ag | Hierarchische bildmodellanpassung |
GB2384095B (en) * | 2001-12-10 | 2004-04-28 | Cybula Ltd | Image recognition |
US8363951B2 (en) | 2007-03-05 | 2013-01-29 | DigitalOptics Corporation Europe Limited | Face recognition training method and apparatus |
US8330831B2 (en) | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
US7792970B2 (en) | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US7844076B2 (en) | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US8553949B2 (en) | 2004-01-22 | 2013-10-08 | DigitalOptics Corporation Europe Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US8498452B2 (en) | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US8989453B2 (en) | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
US8593542B2 (en) | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US7565030B2 (en) | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
US9129381B2 (en) | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8948468B2 (en) | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US7792335B2 (en) | 2006-02-24 | 2010-09-07 | Fotonation Vision Limited | Method and apparatus for selective disqualification of digital images |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US7269292B2 (en) | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
US7620218B2 (en) | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US8155397B2 (en) | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US7471846B2 (en) | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8682097B2 (en) | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
US7440593B1 (en) * | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US7564994B1 (en) | 2004-01-22 | 2009-07-21 | Fotonation Vision Limited | Classification system for consumer digital images using automatic workflow and face detection and recognition |
US8320641B2 (en) | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
US8488023B2 (en) * | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
US8503800B2 (en) | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
US7715597B2 (en) | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
US7315631B1 (en) | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7804983B2 (en) | 2006-02-24 | 2010-09-28 | Fotonation Vision Limited | Digital image acquisition control and correction method and apparatus |
ATE497218T1 (de) | 2006-06-12 | 2011-02-15 | Tessera Tech Ireland Ltd | Fortschritte bei der erweiterung der aam- techniken aus grauskalen- zu farbbildern |
US7515740B2 (en) | 2006-08-02 | 2009-04-07 | Fotonation Vision Limited | Face recognition with combined PCA-based datasets |
US7403643B2 (en) | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
EP2115662B1 (de) | 2007-02-28 | 2010-06-23 | Fotonation Vision Limited | Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen |
KR101247147B1 (ko) | 2007-03-05 | 2013-03-29 | 디지털옵틱스 코포레이션 유럽 리미티드 | 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출 |
WO2008109622A1 (en) | 2007-03-05 | 2008-09-12 | Fotonation Vision Limited | Face categorization and annotation of a mobile phone contact list |
US7916971B2 (en) | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
US8750578B2 (en) * | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
US20090200467A1 (en) * | 2008-02-12 | 2009-08-13 | Gray Paul C | Automatic image-based volumetric detection of an object in a space |
US7855737B2 (en) | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
CN106919911A (zh) | 2008-07-30 | 2017-07-04 | 快图有限公司 | 使用脸部检测的自动脸部和皮肤修饰 |
WO2010063463A2 (en) | 2008-12-05 | 2010-06-10 | Fotonation Ireland Limited | Face recognition using face tracker classifier data |
US8379917B2 (en) | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
US9064185B2 (en) | 2011-12-28 | 2015-06-23 | Empire Technology Development Llc | Preventing classification of object contextual information |
US9036044B1 (en) * | 2013-07-22 | 2015-05-19 | Google Inc. | Adjusting camera parameters associated with a plurality of images |
CN105095923B (zh) * | 2014-05-21 | 2018-09-11 | 华为技术有限公司 | 一种图像处理方法及装置 |
EP3564847A1 (de) | 2018-05-02 | 2019-11-06 | IDEMIA Identity & Security Germany AG | Objektidentifikation |
EP3570207B1 (de) | 2018-05-15 | 2023-08-16 | IDEMIA Identity & Security Germany AG | Videocookies |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4406020C1 (de) * | 1994-02-24 | 1995-06-29 | Zentrum Fuer Neuroinformatik G | Verfahren zur automatisierten Erkennung von Objekten |
DE19726226A1 (de) * | 1997-06-22 | 1998-12-24 | Zentrum Fuer Neuroinformatik G | Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222939B1 (en) * | 1996-06-25 | 2001-04-24 | Eyematic Interfaces, Inc. | Labeled bunch graphs for image analysis |
KR100530812B1 (ko) * | 1998-04-13 | 2005-11-28 | 네브엔지니어링 인코포레이티드 | 아바타 애니메이션을 위한 웨이브렛-기반 얼굴 움직임 캡쳐 |
US6301370B1 (en) * | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
US6714661B2 (en) * | 1998-11-06 | 2004-03-30 | Nevengineering, Inc. | Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image |
US6580821B1 (en) * | 2000-03-30 | 2003-06-17 | Nec Corporation | Method for computing the location and orientation of an object in three dimensional space |
-
1998
- 1998-08-14 DE DE19837004A patent/DE19837004C1/de not_active Expired - Lifetime
-
1999
- 1999-08-13 AU AU58519/99A patent/AU5851999A/en not_active Abandoned
- 1999-08-13 WO PCT/EP1999/005946 patent/WO2000010119A1/de not_active Application Discontinuation
- 1999-08-13 EP EP99945979A patent/EP1104570A1/de not_active Withdrawn
- 1999-08-13 US US09/762,806 patent/US7113641B1/en not_active Expired - Lifetime
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4406020C1 (de) * | 1994-02-24 | 1995-06-29 | Zentrum Fuer Neuroinformatik G | Verfahren zur automatisierten Erkennung von Objekten |
DE19726226A1 (de) * | 1997-06-22 | 1998-12-24 | Zentrum Fuer Neuroinformatik G | Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe |
Non-Patent Citations (3)
Title |
---|
J. BUHMANN, M. LADES, Ch.v.d. MALSBURG:" Size and Distortion Invariant Object Recognition by Hier- archical Graph Matching", IJCNN II, San Diego, 1990, S. 411-416 * |
M. LADES, J.C. VORBRÜGGEN, J. BUHMANN, J. LANGE, Ch.v.d. MALSBURG, R.P. WÜRTZ, W. KONEN: "Distortion Invariant Object Recognition in the Dynamic Link Architecture", IEEE Transaction on Computers, 42, 1993, S. 300-311 * |
N. KRÜGER: "Learning weights in discrimination functions using a priori constraints", Musterer- kennung 1995, 17. DAGM-Symposium, Bielefeld, Springer-Verlag, S. 110-117 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10022570A1 (de) * | 2000-05-09 | 2001-11-15 | Giesecke & Devrient Gmbh | Verfahren und System zur Generierung eines Schlüsseldatensatzes |
WO2005038700A1 (en) * | 2003-10-09 | 2005-04-28 | University Of York | Image recognition |
Also Published As
Publication number | Publication date |
---|---|
EP1104570A1 (de) | 2001-06-06 |
US7113641B1 (en) | 2006-09-26 |
WO2000010119A1 (de) | 2000-02-24 |
AU5851999A (en) | 2000-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19837004C1 (de) | Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen | |
DE69938173T2 (de) | Automatische voreingestellte teilnehmerpositionsbestimmung für videokonferenzsysteme | |
DE4406020C1 (de) | Verfahren zur automatisierten Erkennung von Objekten | |
DE60215743T2 (de) | Verfahren und Rechnerprogrammprodukt zur Lagebestimmung von Gesichtsmerkmalen | |
DE60203871T2 (de) | Verfahren und system zum selektiven anwenden eines bildverbesserungsprozesses auf ein bild | |
EP1316057B1 (de) | Auswerten von kantenrichtungsinformation | |
EP0721631B1 (de) | Verfahren zur segmentation von digitalen farbbildern | |
WO1992008204A2 (de) | Verfahren zur erkennung und schätzung der räumlichen lage von objekten aus einer zweidimensionalen abbildung | |
DE102007013971B4 (de) | Verfahren und Vorrichtung zur Ermittlung einer Zellkontur einer Zelle | |
DE10354752A1 (de) | Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern | |
DE69733965T2 (de) | Intelligentes hypersensorisches verarbeitungssystem | |
DE69333215T2 (de) | Trainingsverfahren und Gerät zur Einstellung eines Neurons | |
DE60217748T2 (de) | Verfahren und Gerät zur Anzeige eines Bildraumes | |
DE19928231C2 (de) | Verfahren und Vorrichtung zur Segmentierung einer Punkteverteilung | |
DE60036138T2 (de) | Nichtlineares datenabbildungs- und dimensionalitätsreduktionssystem | |
WO2008034599A2 (de) | Verfahren und vorrichtung zur bildverarbeitung | |
DE3923914A1 (de) | Verfahren zum extrahieren eines zeichenmerkmals | |
EP1282070B1 (de) | Hierarchische Bildmodellanpassung | |
DE102005049017B4 (de) | Verfahren zur Segmentierung in einem n-dimensionalen Merkmalsraum und Verfahren zur Klassifikation auf Grundlage von geometrischen Eigenschaften segmentierter Objekte in einem n-dimensionalen Datenraum | |
DE19834718C2 (de) | Digitale Bildverarbeitung für ein Qualitätskontrollsystem | |
DE10234085A1 (de) | Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor | |
DE19726226C2 (de) | Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe | |
DE10126375B4 (de) | Verfahren und System zur Erkennung von Objekten | |
DE10361838B3 (de) | Verfahren zur Bewertung von Ähnlichkeiten realer Objekte | |
WO1997041529A1 (de) | Verfahren zum klassifizieren und wiedererkennen von mustern, wobei eine signatur durch das glätten eines polygonzugs erzeugt wird |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8100 | Publication of patent without earlier publication of application | ||
D1 | Grant (no unexamined application published) patent law 81 | ||
8364 | No opposition during term of opposition | ||
R071 | Expiry of right |