DE4406020C1 - Verfahren zur automatisierten Erkennung von Objekten - Google Patents
Verfahren zur automatisierten Erkennung von ObjektenInfo
- Publication number
- DE4406020C1 DE4406020C1 DE4406020A DE4406020A DE4406020C1 DE 4406020 C1 DE4406020 C1 DE 4406020C1 DE 4406020 A DE4406020 A DE 4406020A DE 4406020 A DE4406020 A DE 4406020A DE 4406020 C1 DE4406020 C1 DE 4406020C1
- Authority
- DE
- Germany
- Prior art keywords
- graph
- stored
- images
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
- A61B5/1176—Recognition of faces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/754—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/30—Individual registration on entry or exit not involving the use of a pass
- G07C9/32—Individual registration on entry or exit not involving the use of a pass in combination with an identity check
- G07C9/37—Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Animal Behavior & Ethology (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
Description
Die Erfindung betrifft ein automatisiertes bildverarbeitendes Verfahren zur größen- und
lageinvarianten Erkennung von intrinsisch deformierbaren Objekten, insbesondere Gesich
tern.
Seit einigen Jahren sind auf dem Gebiet der Bildverarbeitung Verfahren bekannt, die
eine Erkennung von Objekten aus einzelnen Ansichten (Bildern) dieser Objekte erlauben.
Diese Verfahren zeichnen sich durch eine mehr oder weniger starke Robustheit gegenüber
Variationen der Objektansichten (Lage, Orientierung im Raum, Größe, objektintrinsische
Verzerrungen, Beleuchtung) aus. Insbesondere beschäftigen sich zahlreiche Arbeiten mit
dem schwierigen Problem der Erkennung von Gesichtern, welche eine Klasse von Objekten
mit zahlreichen intrinsischen Deformationsfreiheitsgraden (Mimik) darstellen.
In den zahlreichen Arbeiten in einschlägigen Fachzeitschriften, die sich mit der Erken
nung von Gesichtern beschäftigen und die in einschlägigen Fachzeitschriften publiziert
sind, werden folgende Lösungsansätze vorgeschlagen:
- 1. Bichsel und Seitz, DAGM, S. 106-113, Springer-Verlag 1990 haben vorgeschlagen, aus Bildern extrahierte Merkmale einem Neuronalen Netz (Mehrlagen-Perzeptron) zu zuführen. Ein sehr ähnlicher Ansatz wird in Bouattour, Fogelman-Soulie et al., Artificial Neural Networks 2, S. 456, Elsevier-Verlag 1992 gewählt. In Lampinen, Artificial Neural Networks, S. 328, Elsevier- Verlag 1991 wird zur Merkmalsklassifi kation die Faktorenanalyse und ein neuronales Kohonen-Netz benutzt. Der Nachteil all dieser Verfahren ist, daß für jede neu zu erkennende Person eine ganze Reihe von Ansichten aufgenommen werden muß und daß die Neuronalen Netze sodann erneut trainiert werden müssen. Außerdem werden Ergebnisse dieser Verfahren in Form von Erkennungsraten nur für kleine Datenbanken (3-20 Personen) berichtet. Es muß davon ausgegangen werden, daß die Erkennungsrate mit steigender Personen zahl abnimmt.
- 2. Aus Lades et al., IEEE Transaction on Computers, 42, 300-311, 1993 [Lades′93] ist ein Ansatz bekannt, bei dem der Vergleich zwischen zu erkennendem und ge speichertem Bild durch einen flexiblen Abbildungsmechanismus realisiert wird, wo bei die bestmögliche Abbildung durch ein Optimierungsverfahren bestimmt wird. Dieses Verfahren ist sehr leistungsfähig in bezug auf Lage, Orientierung im Raum und objektintrinsische Verzerrungen, ferner werden auch bei großen Personenzahlen (< 100) hohe Erkennungsraten erreicht. Es hat jedoch den Nachteil, daß es keine größeninvariante Erkennung erlaubt.
- 3. Ein interessantes Verfahren, das ebenfalls eine Abbildung zwischen Bildern durch ein Optimierungsverfahren realisiert, wird von M. Shackelton, Patentschrift WO 93/15475, 1993 [Shackelton′93] beschrieben. Das Verfahren findet in Bildern auto matisch hervorspringende Merkmale und verbindet diese zu einer netzartigen Struk tur (Template). Solche Templates können prinzipiell dazu benutzt werden, ähnliche Bilder miteinander zu vergleichen und können somit auch zum Vergleich von Gesich tern herangezogen werden. Es werden allerdings in [Shackelton′93] keine weiteren Angaben dazu gemacht, wie ein solcher Vergleich verschiedener Bilder gleicher Ob jekte im Detail aussehen kann und welche Güte der Klassifizierung damit erreicht werden kann.
Bezogen auf Personenzugangskontrollen gibt es im Stand der Technik keine gewerbli
chen Anwendungen, die die automatisierte, lage- und größeninvariante Erkennung von
Gesichtern als Kontrollmerkmal einsetzen.
Zum besseren Verständnis der hier vorliegenden Erfindung wird im folgenden der Stand
der Technik, wie er durch [Lades′93] vorgegeben ist, detaillierter dargestellt. Dazu wer
den zunächst einige für die Erfindung wesentlichen Begriffe und Bezeichnungsweisen
zusammengefaßt:
Es ist Stand der Technik, wie er beispielsweise in der Arbeit von D. J. Field, Journal
Opt. Soc. Am. A4, S. 2379-2394, 1987 dargestellt ist, daß zur Merkmalsextraktion aus Bildern
Filteroperationen (mathematisch: Faltungen) mit bestimmten Filtermasken verwendet
werden. Eine bestimmte Klasse von Filtermasken sind die Gabor-Filter. Verschiedene
Gabor-Filter unterscheiden sich in Größe und Orientierung in der Bildebene:
- - Ein Gabor-Merkmal bezeichnet das Ergebnis einer Faltung des Bildes an einem be stimmten Pixel mit einem bestimmten Gabor-Filter.
- - Ferner bezeichnet, wenn ein Bild mit k verschiedenen Gabor-Filter gefaltet wurde, ein Jet die Gesamtheit aller Gabor-Merkmale an einem bestimmten Pixel, die in dem Jet zu einem k-komponentigen Vektor zusammengefaßt werden.
- - Ein regulärer Graph ist die Zusammenfassung von m × n Jets in einer zweidimen sionalen, gitterförmigen Anordnung (s. Bild 1a). Jeder Jet ist einem der Knoten des Gitters zugeordnet; benachbarte Knoten werden durch horizontale und verti kale Verbindungen miteinander verknüpft. Für zu speichernde Objektbilder wird die Information über ein Objektbild in Form von regulären Graphen abgelegt.
- - Ein irregulärer Graph besteht ebenfalls aus m × n Knoten, die in gleicher Topologie wie beim regulären Graphen verknüpft sind, jedoch liegen hier die Knoten nicht notwendigerweise auf einem rechteckigen Gitter, sondern sind beliebig in der Bild ebene angeordnet (s. Bild 1b). Es werden den Knoten jeweils die Jets zugeordnet, die zu dem Pixel gehören, auf dem der Knoten zu liegen kommt.
- - Die horizontalen und vertikalen Verbindungen zwischen benachbarten Knoten wer den auch als Links bezeichnet.
- - Zur Bewertung der Ähnlichkeit zweier Graphen (regulär oder irregulär) wird eine Graphen-Vergleichsfunktion E eingeführt: E = Esim + λEtop (1)Diese Funktion nimmt um so niedrigere Werte an, je ähnlicher zwei Graphen sind. Der erste Term Esim bewertet die Ähnlichkeit der Jets an jeweils korrespondie renden Knoten der beiden Graphen, indem die jeweils korrespondierenden Gabor- Merkmale miteinander verglichen werden (negativer Kosinus des Winkels zwischen beiden Jets); hohe Ähnlichkeit bedeutet dabei niedrige Werte von Esim. Der zweite Term Etop bewertet die topologische Ähnlichkeit beider Graphen, indem die Beträge der Differenzvektoren jeweils korrespondierender Links aufsummiert werden. (Ein anschauliches Modell besteht darin, sich die Links als mechanische Federn vorzu stellen, die in ihren Ruhelagen den ersten der beiden Graphen bilden. Etop ist dann proportional zur Arbeit, die gegen die Federkräfte aufgebracht werden muß, um die Links mit der Topologie des zweiten Graphen zur Deckung zu bringen.)
- - Werden beim Vergleich eines neuen Objektbildes mit N gespeicherten Objek ten N Werte der Graphen-Vergleichsfunktion E₁<E₂< . . . <EN ermittelt, so bezeichnen und σE den Mittelwert und die Standardabweichung der Da ten (E₂, . . . , EN), und Objekt 1 ist im Sinne der Vergleichsfunktion das ähnlich ste Objekt. Die Ähnlichkeit wird als signifikant bezeichnet und wir sprechen von signifikanter Erkennung, wenn für fest gewählte Parameter s₁, s₂ mindestens eines der Kriterien (E₁-)/σE<s₁ oder (E₁-E₂)/σE<s₂ erfüllt ist. Andernfalls spre chen wir von insignifikanter Erkennung, und das neue Objekt wird als unähnlich zu allen gespeicherten Objekten zurückgewiesen.
In [Lades′93] wird nun ein Verfahren beschrieben, das Gabor-Merkmale verschiedener
Orientierung und Skalierung aus einem Bild extrahiert und diese für jedes Pixel in Form
von Jets zusammenfaßt. Für ein zu speicherndes Objektbild werden die Jets in einem
regulären Graphen, der auf das Objekt zentriert ist, zusammengefaßt. In einem neuen
Bild wird ein optimal zu dem gespeicherten Graphen passender Graph gesucht. Dabei
enthält der neue Graph an seinen Knoten jeweils die Jets, die zu dem Pixel am Ort des
Knoten gehören. Seine Position und Form wird in einem Zweiphasenverfahren optimiert:
- 1. Verschiebung des Graphen als Ganzes (Global Move), bis ein Optimalzustand gefun den wird.
- 2. Ausgehend vom Optimalzustand aus 1. werden einzelne Knoten des Graphen ver schoben (lokale Verzerrung).
In beiden Phasen läuft die Optimierung folgendermaßen ab: Es wird ein zufälliger
Verschiebungsvektor ausgewählt und auf den Graphen bzw. einen Knoten des Gra
phen angewendet. Der Zustand des so veränderten Graphen wird mittels der Graphen-
Vergleichsfunktion E bewertet. Nur wenn der neue Zustand eine günstigeren Wert für E
hat, wird die Verschiebung akzeptiert.
Beide Phasen terminieren, wenn in Vmax aufeinanderfolgenden Verschiebungsschritten
keine Verbesserung gefunden wird. Das Ergebnis der Optimierung ist der finale Wert
der Graphen-Vergleichsfunktion E. Die Optimierung wird für alle gespeicherten Graphen
wiederholt, und man erhält eine Sequenz von Werten E₁ < E₂ < E₃ < . . . anhand welcher
bestimmt werden kann, ob eine signifikante Erkennung von Objekt 1 vorliegt.
Das beschriebene Verfahren hat jedoch folgende Nachteile:
- - Es ist nicht größeninvariant, da der Graph nur verschoben, nicht skaliert wird. Es wurde bisher in der Literatur (Buhmann et al., IJCNN II, 411-416, IEEE, San Diego, 1990) davon ausgegangen, daß bei Skalierung des Graphen auch die Fil terkoeffizienten entsprechend inter- bzw. extrapoliert werden müssen. Ein solches Verfahren ist rechenaufwendig, da nach jedem Optimierungsschritt interpoliert wer den muß. Ferner wurde bisher davon ausgegangen, daß die Größenbestimmung nur durch ein hierarchisches Verfahren, das von groben zu feinen Auflösungsstufen fortschreitet, gelingt. Die hier beschriebene Erfindung löst die Aufgabe der größen invarianten Erkennung durch ein deutlich vereinfachtes Verfahren.
- - Der Suchaufwand wächst linear mit der Anzahl der gespeicherten Objekte. Ferner wird die korrekte Erkennung mit zunehmender Objektanzahl immer schwieriger. Damit wird der Einsatz in großen Datenbanken problematisch. Die hier darge stellte Erfindung beschreibt ein neues Verfahren, die Verifikation, welches die obigen Nachteile vermeidet. Dieses Verfahren läßt sich darüber hinaus besonders gut mit der größeninvarianten Erkennung kombinieren.
Die aus dem Stand der Technik bereits bekannten Verfahren weisen eine Reihe von
Nachteilen auf und vermögen nicht, in jeder Hinsicht zu befriedigen. Es besteht daher
ein ständiger Bedarf an verbesserten Verfahren zur Erkennung intrinsisch deformierbarer
Objekte.
Aufgabe der vorliegenden Erfindung war es, ein gegenüber dem bekannten Stand der
Technik verbessertes Verfahren zur Erkennung von Objekten zur Verfügung zu stellen.
Dabei war angestrebt, eine Möglichkeit zur Differenzierung dahingehend zu schaffen, daß
verschiedene Bilder desselben Objektes (mit Unterschieden in Lage, Ansicht und Größe
des Objektes) als ähnlich erkannt werden, während Bilder von verschiedenen Objekten
als unähnlich klassifiziert werden.
Eine weitere Zielsetzung bestand darin, eine technische Verwendung dieses Verfahrens
als Personenzugangskontrollsystem zu entwickeln, das auf einem verbesserten Verfahren
zur Erkennung von Gesichtern basiert. Dabei besteht die Aufgabe insbesondere darin, die
Überprüfung der Zugangsberechtigung auch bei einem großen Kreis berechtigter Personen
schnell und sicher durchführen zu können.
Überraschenderweise wurde gefunden, daß man die größeninvariante Objekterkennung
einfach dadurch deutlich verbessern kann, daß man den Global Move simultan mit einem
Global Scale verbindet, indem man den Graphen in jedem Optimierungsschritt sowohl
verschiebt als auch mit einem Faktor nahe 1 skaliert. Eine Interpolation der Filterko
effizienten ist entgegen der Erwartung für einen weiten Bereich von Objektgrößen (von
etwa 60% bis 140% der Originalgröße) nicht notwendig. Damit hat man eine gegenüber
bestehenden Lösungen beschleunigte Anpassung auf Größenänderungen, wie sie für viele
Anwendungen von besonderer Bedeutung sind.
Gegenstand der vorliegenden Erfindung ist ein Verfahren zur automatisierten Erkennung
von Objekten aus Bildern dieser Objekte, wobei man aus einem digitalen Bild mit Gabor-
Filtern verschiedener Größe und Orientierung Gabor-Merkmale extrahiert, die in einem
verschieb-, skalier- und deformierbarem Graphen G zusammengefaßt werden. Für jeden
der gespeicherten Graphen optimiert man die Form und Lage des Graphen G dahingehend,
daß die Graphen-Vergleichsfunktion E optimale Werte annimmt. Die Auffindung des
optimalen Graphen G führt man dabei für jeden der gespeicherten Graphen in zwei Phasen
durch.
Auswahl eines zufälligen Verschiebungsvektors und Skalierungsfaktors für den
gesamten Graphen. Der so veränderte Graph im neuen Bild wird über die Graphen-
Vergleichsfunktion E mit dem gespeicherten Graphen verglichen, wobei die Links des
gespeicherten Graphen zuvor mit dem Skalierungsfaktor multipliziert werden. Nur
wenn der neue Zustand einen günstigeren Wert für E hat, wird die Veränderung des
Graphen akzeptiert.
Alle Links des gespeicherten Graphen werden mit dem in Phase 1 ermittel
ten optimalen Skalierungsfaktor multipliziert. Ausgehend vom in Phase 1 ermit
telten Optimalzustand des neuen Graphen werden einzelne Knoten dieses Graphen
verschoben (lokale Verzerrung), bis ein optimaler irregulärer Graph gefunden wird
(Bild 2).
In einer bevorzugten Ausführungsform der vorliegenden Erfindung wird in jedem Opti
mierungsschritt der Phase 1, ausgehend von der momentanen Graphen-Lage und -Größe,
zufällig eine Verschiebung von bis zu 3% der Bildgröße und gleichzeitig eine Skalierung
des Graphen von bis zu 10% der Graphengröße gewählt. Allerdings liefert das Verfahren
bei den untersuchten Bildern in einem weiten Bereich von Parametern annähernd gleich
gute Ergebnisse.
Mit dieser Ausführungsform werden für Bilder, die gespeicherte Objekte in einer um
75% kleineren Skalierung zeigen, die richtigen Skalierungsfaktoren mit einer Genauigkeit
von ±2% ermittelt. Dies zeigten Versuche, in denen man 12 Gabor-Filter (4 äquidistante
Orientierungen mit je 3 verschiedenen Größen, gekennzeichnet durch ihre Optimalfre
quenzen f, die, beginnend bei der höchsten Frequenz von f=π/2, im Abstand von
halben Oktaven aufeinanderfolgen) verwendet. Die 12-komponentigen Jets werden in ei
nem 7×10-Graphen angeordnet und als Bildmaterial werden Gesichtsbilder (128×128
Pixel) von Personen vor weißem Hintergrund verwendet, wie sie in [Lades′93] dargestellt
sind. Unter diesen Voraussetzungen wird von verschiedenen Anfangslagen und -größen
des Graphen G aus die optimale Graphengröße (also hier um 75% kleiner) mit einer
Reproduzierbarkeit von ±2% angefahren.
In einer weiteren Ausführungsform der Erfindung wird die Optimierung des Graphen
G nur einmal in Hinblick auf einen der gespeicherten Graphen (Referenzgraph) durch
geführt und bleibt dabei auf die Phase 1 beschränkt. Der so ermittelte optimale Graph
G wird dann ohne weitere Optimierungsschritte mit allen gespeicherten Graphen
verglichen. Überraschenderweise wurde gefunden, daß trotz des drastisch reduzierten Op
timierungsaufwand fast gleichbleibend gute Erkennungsleistungen erzielt werden. Diese
Ausführungsform hat den Vorteil, daß sie bedeutend schneller durchgeführt werden kann
und damit auch in der Anwendung auf große Datenbanken gespeicherter Graphen geeignet
ist.
Neben der Erkennung (Suchen eines Objektes unter einer Anzahl gespeicherter Objekt
bilder) eignet sich das Verfahren auch besonders gut zur Verifikation, d. h. zur Entschei
dung, ob ein vorgegebenes Objektbild mit einem bestimmten gespeicherten Objektbild
B (dessen Graph als Referenzgraph benutzt wird) übereinstimmt. Dazu wird das vor
gegebene Bild O außer mit dem gespeicherten Bild B auch mit N zufällig ausgewählten
anderen gespeicherten Bildern verglichen, um zu entscheiden, ob die Ähnlichkeit zwischen
B und O signifikant ist. Dabei ist N eine feste, nicht von der Gesamtgröße der Datenbank
abhängige Zahl, so daß in diesem Verfahren der Rechenaufwand unabhängig von der Größe
der Datenbank ist. Der Vergleich mit N weiteren gespeicherten Bildern bietet den Vorteil,
daß Unterschiede, die durch eine geänderte Aufnahmesituation beim vorgegebenen Bild
(z. B. durch andere Beleuchtung) entstehen, getrennt werden von Unterschieden in den
Objekten selbst.
Gerade für diese Verifikationsaufgabe eignet sich die oben beschriebene Ausführungs
form, bei der zur Reduktion des Rechenaufwandes die Optimierung nur mit einem Re
ferenzgraphen (nämlich B) durchgeführt und bereits nach Phase 1 abgebrochen wird,
besonders gut.
Dies zeigen die folgenden Versuchsergebnisse: 88 Objektbilder von Gesichtern mit ca. 20°
zur Seite gedrehtem Kopf werden mit 100 gespeicherten Bildern von geradeaus blickenden
Personen verglichen. In einer Ausführungsform der Erfindung werden 40 Gabor-Filter
(8 äquidistante Orientierungen mit je 5 verschiedenen Größen, gekennzeichnet durch ihre
Optimalfrequenzen f, die, beginnend bei der höchsten Frequenz von f=π/2, im Abstand
von halben Oktaven aufeinanderfolgen) und 7×10-Graphen verwendet. Die Schwellen s₁
und s₂ werden so eingestellt, daß Objektbilder zu 100% zurückgewiesen werden, wenn das
zugehörige gespeicherte Bild (temporär) aus der Datenbank entfernt ist. Wird nun das
zugehörige gespeicherte Bild wieder eingefügt, so ergeben sich mit den gleichen Schwellen
folgende Raten der korrekten und signifikanten Erkennung (N=100):
Erkennung, mit Phase 1 und 2|84% | |
Verifikation, mit Phase 1 und 2 | 93% |
Verifikation, nur Phase 1 | 91% |
Bei einem Versuch zur größeninvarianten Verifikation, in dem 88 Objektbilder mit 20°
Kopfdrehung durch 89 Bilder von Gesichtern in reduzierter Größe (75%) ersetzt werden,
ergibt sich eine Verifikationsrate (nur Phase 1) von 83%.
Insgesamt erlaubt das Verfahren somit eine automatisierte Erkennung oder Verifika
tion von Objekten aus digitalen Bildern dieser Objekte unter Benutzung von Gabor-
Merkmalen, welche auf einem verschieb-, skalier- und deformierbarem Gitter, dem Gra
phen, angeordnet sind, dessen optimale Form durch die zweiphasige Minimierung der
Graphen-Vergleichsfunktion bestimmt wird. In der ersten Phase werden sowohl Größe als
auch Position des Graphen simultan optimiert.
Für viele Anwendungen der visuellen Objekterkennung spielt die Invarianz gegen Größen-
und Positionsänderungen von Objekten eine besonderer Rolle. Beispielsweise sind
Personen-Zugangskontrollen mit automatischer Kamera ("elektronischer Pförtner") nur
dann in der Praxis einsetzbar, wenn Abstand und Position der Person vor der Kamera in
bestimmten Grenzen variabel sind. Das hier beschriebene Verfahren eignet sich besonders
gut für eine solche Anwendung, zumal auch eine Unterscheidung bei einer großen Zahl von
Personen möglich ist. Gegenüber einem menschlichen Pförtner bietet das automatisierte
Verfahren die Vorteile größerer Objektivität, Reproduzierbarkeit und Ermüdungsfreiheit.
Für Personen-Zugangskontrollen müssen hohe Sicherheitsstandards eingehalten werden.
Das hier beschriebene Verfahren bietet den Vorteil einer hohen Sicherheit bei der Zurück-
Weisung unberechtigter Personen (100% auf dem Testdatenmaterial). Das hier beschrie
bene Verfahren eignet sich auch dann besonders gut, wenn es in Verbindung mit anderen
Zugangskontroll-Maßnahmen (z. B. Codekarten) eingesetzt wird. Durch diese Kombina
tion entstehen folgende Vorteile:
- - Eine Person, die unberechtigterweise in den Besitz einer Codekarte gelangt oder eine solche fälscht, kann alleine durch die Codekarte noch keinen Zugang erlangen. Dies führt zu einer Erhöhung der Sicherheit.
- - Durch die Codekarteninformation kann vorgegeben werden, welches der gespeicher ten Gesichter zu erkennen ist. Die automatische Erkennung wird reduziert auf die Aufgabe der automatischen Verifikation, ob das aktuelle Bild eine signifikante Ähn lichkeit mit dem gespeicherten Bild aufweist. Im Gegensatz zur Erkennung ist der Rechenaufwand für die Verifikation unabhängig von der Größe der Datenbank; das Verfahren kann somit auch für sehr große Datenbanken eingesetzt werden.
Personen-Zugangskontrollen sind nur ein Beispiel für die technische Anwendbarkeit des
Gesichtserkennungsverfahrens. Allgemeiner kann ein Verfahren, bei dem mit einer Ka
mera ein Gesichtsbild aufgenommen und mit gespeicherten Bildern verglichen wird, zur
berührungslosen Identitätsüberprüfung einsetzen. Diese kann dazu benutzt werden, per
sonenbezogene Einstellungen an einem technischen Gerät vorzunehmen (beispielsweise
Fahrersitz-Einstellung im Auto) oder personenbezogene Zugangsrechte an einem techni
schen Gerät einzuräumen.
Besonders vorteilhaft läßt sich ein solches berührungsloses Kontrollverfahren in Kombi
nation mit anderen Identifikationsmerkmalen zur Verifikation einsetzen. Es gelten sinn
gemäß die gleichen Vorteile wie bei der Verifikation in Personen-Zugangskontrollen.
Das beschriebene Verfahren läßt sich auch vorteilhaft für die Bestimmung der Ähnlich
keit zwischen Objektbildern heranziehen. Als Ähnlichkeitsmaß dient der am Ende der
Optimierung erhaltene Wert der Graphen-Vergleichsfunktion. Damit lassen sich große
Datenbanken automatisch nach ähnlichen Objekten durchsuchen. Da nur diese für eine
weitere (menschliche) Begutachtung herangezogen werden müssen, bedeutet dies einen
erheblichen Zeitgewinn. Besonders geeignet ist das Verfahren auch dazu, die Ähnlich
keit zwischen Phantombildern von Gesichtern und gespeicherten Gesichtsfotografien zu
ermitteln.
Schließlich läßt sich das Verfahren auch zur automatisierten visuellen Qualitätskontrolle
einsetzen. In Produktionsprozessen steht man oft vor der Aufgabe, daß die Übereinstim
mung aktuell vorliegender Teile mit den Sollangaben abgeprüft werden muß (Beispiel
Bestückung elektronischer Platinen). Oft scheitert die Automatisierung der visuellen
Prüfung an der mangelnden Robustheit der eingesetzten Verfahren. Das hier beschriebene
Verfahren läßt sich besonders dann vorteilhaft einsetzen, wenn in ihrer grundsätzlichen
Struktur ähnliche Produktionsteile sicher auseinandergehalten werden müssen.
Claims (9)
1. Verfahren zur automatisierten Erkennung von Objekten aus Bildern die
ser Objekte, wobei man aus einem digitalen Bild mit Gabor-Filtern ver
schiedener Größe und Orientierung Gabor-Merkmale extrahiert, die in einem
verschieb-, skalier- und deformierbarem Graphen G zusammengefaßt sind und
mit gespeicherten Graphen von anderen Bildern verglichen werden, indem
eine Graphen-Vergleichsfunktion E, bestehend aus einem die Ähnlichkeit der
Gabor-Merkmale bewertenden Anteil und einem die Formerhaltung des Gra
phen bewertenden Anteil, berechnet wird, dadurch gekennzeichnet, daß
man durch schrittweise und simultane Veränderungen von Lage und Größe des
Graphen G diesen im Vergleich zu einem gespeicherten Referenzgraph optimal
einstellt (Phase 1) und mit diesem G die Werte von E für jeden der gespeicher
ten Graphen ermittelt, wobei der Abstand des besten Wertes von den übrigen
E-Werten eine Entscheidung darüber erlaubt, ob eine signifikante Erkennung
vorliegt.
2. Verfahren nach Anspruch 1, wobei man die Optimierung des Graphen G
in Phase 1 dahingehend erweitert, daß für jeden der gespeicherten Graphen
schrittweise Formveränderungen (lokale Verzerrungen), die zu einer Verbesse
rung der Graphen-Vergleichsfunktion E führen, angewandt werden (Phase 2).
3. Verfahren nach Anspruch 1 oder 2, wobei man in jedem Optimierungsschritt
der Phase 1 zufällig eine Verschiebung von bis zu 3% der Bildgröße und eine
Skalierung des Graphen von bis zu 10% einstellt.
4. Verfahren nach einem der Ansprüche 1 bis 3, wobei man die Größen der einge
setzten Gabor-Filter so wählt, daß ihre jeweiligen Bestfrequenzen im Abstand
von Halboktaven aufeinanderfolgen und mindestens drei verschiedene Größen
verwendet.
5. Gerät zur berührungslosen Identitätsüberprüfung, bestehend aus Kamera und
Computer, dadurch gekennzeichnet, daß ein durch die Kamera aufgenommenes
Gesichtsbild durch eines der in den Ansprüchen 1 bis 4 genannten Verfahren
mit allen gespeicherten Gesichtsbildern von Personen automatisch verglichen
wird, und bei einer signifikanten Erkennung einer der gespeicherten Personen
eine personenbezogene Aktion ausgelöst wird.
6. Personen-Zugangskontrolle, bestehend aus Kamera, Computer und elektrischer
Zugangsentriegelung, dadurch gekennzeichnet, daß ein durch die Kamera auf
genommenes Gesichtsbild durch eines der in den Ansprüchen 1 bis 4 genann
ten Verfahren mit allen gespeicherten Gesichtsbildern von zugangsberechtigten
Personen automatisch verglichen wird, und bei einer signifikanten Erkennung
eines der gespeicherten Gesichter die Zugangsentriegelung betätigt wird.
7. Personen-Zugangskontrolle, bestehend aus Kamera, Computer, elektrischer
Zugangsentriegelung und einem davon unabhängigen weiteren Kontrollgerät,
durch das die Identität der zu erkennenden Person vorgegeben wird, dadurch
gekennzeichnet, daß diese Identität verifiziert wird, indem das zugehörige ge
speicherte Gesichtsbild B mit einem durch die Kamera aufgenommenen aktuel
len Gesichtsbild nach einem der in den Ansprüchen 1 bis 4 genannten Verfahren
verglichen wird und bei positiver Signifikanz die Zugangsentriegelung betätigt
wird.
8. Verfahren zur Datenbanksuche in Bilddatenbanken, dadurch gekennzeichnet,
daß zu einem vorgelegten Bild nach einem der in den Ansprüchen 1 bis 4
beschriebenen Verfahren alle hinreichend ähnlichen Bilder in der Datenbank
gefunden werden, welche sich dadurch auszeichnen, daß für sie die Graphen-
Vergleichsfunktion niedrigere Werte als für alle anderen Bilder annimmt.
9. Automatisierte visuelle Qualitätskontrolle im Produktionsprozeß, bestehend
aus Kamera, Computer und Aussonderungsmechanismus, dadurch gekenn
zeichnet, daß die aktuell produzierten Teile über eines der in den Ansprüchen
1 bis 4 beschriebenen Verfahren mit Sollangaben verglichen werden und bei
Vorliegen einer Diskrepanz der Aussonderungsmechanismus betätigt wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4406020A DE4406020C1 (de) | 1994-02-24 | 1994-02-24 | Verfahren zur automatisierten Erkennung von Objekten |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4406020A DE4406020C1 (de) | 1994-02-24 | 1994-02-24 | Verfahren zur automatisierten Erkennung von Objekten |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4406020C1 true DE4406020C1 (de) | 1995-06-29 |
Family
ID=6511121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4406020A Expired - Fee Related DE4406020C1 (de) | 1994-02-24 | 1994-02-24 | Verfahren zur automatisierten Erkennung von Objekten |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4406020C1 (de) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19610066C1 (de) * | 1996-03-14 | 1997-09-18 | Siemens Nixdorf Advanced Techn | Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen |
WO1999046737A1 (de) | 1998-03-12 | 1999-09-16 | Zentrum Für Neuroinformatik Gmbh | Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes |
WO1999053427A1 (en) * | 1998-04-13 | 1999-10-21 | Eyematic Interfaces, Inc. | Face recognition from video images |
WO2000010119A1 (de) * | 1998-08-14 | 2000-02-24 | Christian Eckes | Verfahren zum erkennen von objekten in digitalisierten abbildungen |
US6192150B1 (en) | 1998-11-16 | 2001-02-20 | National University Of Singapore | Invariant texture matching method for image retrieval |
US6222939B1 (en) | 1996-06-25 | 2001-04-24 | Eyematic Interfaces, Inc. | Labeled bunch graphs for image analysis |
DE19726226C2 (de) * | 1997-06-22 | 2001-07-26 | Zentrum Fuer Neuroinformatik G | Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe |
US6272231B1 (en) | 1998-11-06 | 2001-08-07 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
EP1472645A2 (de) * | 2001-12-10 | 2004-11-03 | University of York | Bilderkennung |
US6834115B2 (en) | 2001-08-13 | 2004-12-21 | Nevengineering, Inc. | Method for optimizing off-line facial feature tracking |
WO2005010803A2 (en) * | 2003-07-22 | 2005-02-03 | Cognex Corporation | Methods for finding and characterizing a deformed pattern in an image |
US6853379B2 (en) | 2001-08-13 | 2005-02-08 | Vidiator Enterprises Inc. | Method for mapping facial animation values to head mesh positions |
US6876364B2 (en) | 2001-08-13 | 2005-04-05 | Vidiator Enterprises Inc. | Method for mapping facial animation values to head mesh positions |
DE10361838B3 (de) * | 2003-12-30 | 2005-05-25 | RUHR-UNIVERSITäT BOCHUM | Verfahren zur Bewertung von Ähnlichkeiten realer Objekte |
US6917703B1 (en) | 2001-02-28 | 2005-07-12 | Nevengineering, Inc. | Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network |
AU2004212509B2 (en) * | 1998-04-13 | 2005-09-08 | Google Llc | Face recognition from video images |
EP1580684A1 (de) * | 1998-04-13 | 2005-09-28 | Nevenengineering, Inc. | Gesichtserkennung aus Videobildern |
US7050655B2 (en) | 1998-11-06 | 2006-05-23 | Nevengineering, Inc. | Method for generating an animated three-dimensional video head |
US7050624B2 (en) | 1998-12-04 | 2006-05-23 | Nevengineering, Inc. | System and method for feature location and tracking in multiple dimensions including depth |
CN1459761B (zh) * | 2002-05-24 | 2010-04-21 | 清华大学 | 基于Gabor滤波器组的字符识别技术 |
US8081820B2 (en) | 2003-07-22 | 2011-12-20 | Cognex Technology And Investment Corporation | Method for partitioning a pattern into optimized sub-patterns |
US8103085B1 (en) | 2007-09-25 | 2012-01-24 | Cognex Corporation | System and method for detecting flaws in objects using machine vision |
US8229222B1 (en) | 1998-07-13 | 2012-07-24 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8437502B1 (en) | 2004-09-25 | 2013-05-07 | Cognex Technology And Investment Corporation | General pose refinement and tracking tool |
US9659236B2 (en) | 2013-06-28 | 2017-05-23 | Cognex Corporation | Semi-supervised method for training multiple pattern recognition and registration tool models |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1993015475A1 (en) * | 1992-01-29 | 1993-08-05 | British Telecommunications Public Limited Company | Method of forming a template |
-
1994
- 1994-02-24 DE DE4406020A patent/DE4406020C1/de not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1993015475A1 (en) * | 1992-01-29 | 1993-08-05 | British Telecommunications Public Limited Company | Method of forming a template |
Non-Patent Citations (3)
Title |
---|
BICHSEL, M., SEITZ, P.: DAGM, Springer-Verlag 1990, S. 106-113 * |
BUHMANN et al.: IJCNN II, San Diego 1990, pp. 411-416 * |
LODES et al.: IEEE Transaction on Computers, 42, 1993, pp. 300-311 * |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19610066C1 (de) * | 1996-03-14 | 1997-09-18 | Siemens Nixdorf Advanced Techn | Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen |
US6222939B1 (en) | 1996-06-25 | 2001-04-24 | Eyematic Interfaces, Inc. | Labeled bunch graphs for image analysis |
DE19726226C2 (de) * | 1997-06-22 | 2001-07-26 | Zentrum Fuer Neuroinformatik G | Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe |
WO1999046737A1 (de) | 1998-03-12 | 1999-09-16 | Zentrum Für Neuroinformatik Gmbh | Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes |
DE19810792A1 (de) * | 1998-03-12 | 1999-09-16 | Zentrum Fuer Neuroinformatik G | Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes |
US6301370B1 (en) | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
WO1999053427A1 (en) * | 1998-04-13 | 1999-10-21 | Eyematic Interfaces, Inc. | Face recognition from video images |
EP1580684A1 (de) * | 1998-04-13 | 2005-09-28 | Nevenengineering, Inc. | Gesichtserkennung aus Videobildern |
AU2004212509B2 (en) * | 1998-04-13 | 2005-09-08 | Google Llc | Face recognition from video images |
US8363956B1 (en) | 1998-07-13 | 2013-01-29 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8265395B1 (en) | 1998-07-13 | 2012-09-11 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8363972B1 (en) | 1998-07-13 | 2013-01-29 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8229222B1 (en) | 1998-07-13 | 2012-07-24 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8335380B1 (en) | 1998-07-13 | 2012-12-18 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8331673B1 (en) | 1998-07-13 | 2012-12-11 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8320675B1 (en) | 1998-07-13 | 2012-11-27 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8295613B1 (en) | 1998-07-13 | 2012-10-23 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8270748B1 (en) | 1998-07-13 | 2012-09-18 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8363942B1 (en) | 1998-07-13 | 2013-01-29 | Cognex Technology And Investment Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8254695B1 (en) | 1998-07-13 | 2012-08-28 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8867847B2 (en) | 1998-07-13 | 2014-10-21 | Cognex Technology And Investment Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8244041B1 (en) | 1998-07-13 | 2012-08-14 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
US8249362B1 (en) | 1998-07-13 | 2012-08-21 | Cognex Corporation | Method for fast, robust, multi-dimensional pattern recognition |
WO2000010119A1 (de) * | 1998-08-14 | 2000-02-24 | Christian Eckes | Verfahren zum erkennen von objekten in digitalisierten abbildungen |
US7113641B1 (en) | 1998-08-14 | 2006-09-26 | Christian Eckes | Method for recognizing objects in digitized images |
DE19837004C1 (de) * | 1998-08-14 | 2000-03-09 | Christian Eckes | Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen |
US7050655B2 (en) | 1998-11-06 | 2006-05-23 | Nevengineering, Inc. | Method for generating an animated three-dimensional video head |
US6272231B1 (en) | 1998-11-06 | 2001-08-07 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
US6192150B1 (en) | 1998-11-16 | 2001-02-20 | National University Of Singapore | Invariant texture matching method for image retrieval |
US7050624B2 (en) | 1998-12-04 | 2006-05-23 | Nevengineering, Inc. | System and method for feature location and tracking in multiple dimensions including depth |
US6917703B1 (en) | 2001-02-28 | 2005-07-12 | Nevengineering, Inc. | Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network |
US6876364B2 (en) | 2001-08-13 | 2005-04-05 | Vidiator Enterprises Inc. | Method for mapping facial animation values to head mesh positions |
US6853379B2 (en) | 2001-08-13 | 2005-02-08 | Vidiator Enterprises Inc. | Method for mapping facial animation values to head mesh positions |
US6834115B2 (en) | 2001-08-13 | 2004-12-21 | Nevengineering, Inc. | Method for optimizing off-line facial feature tracking |
EP1472645A2 (de) * | 2001-12-10 | 2004-11-03 | University of York | Bilderkennung |
CN1459761B (zh) * | 2002-05-24 | 2010-04-21 | 清华大学 | 基于Gabor滤波器组的字符识别技术 |
US8081820B2 (en) | 2003-07-22 | 2011-12-20 | Cognex Technology And Investment Corporation | Method for partitioning a pattern into optimized sub-patterns |
US7190834B2 (en) | 2003-07-22 | 2007-03-13 | Cognex Technology And Investment Corporation | Methods for finding and characterizing a deformed pattern in an image |
WO2005010803A3 (en) * | 2003-07-22 | 2005-06-23 | Cognex Corp | Methods for finding and characterizing a deformed pattern in an image |
US9147252B2 (en) | 2003-07-22 | 2015-09-29 | Cognex Technology And Investment Llc | Method for partitioning a pattern into optimized sub-patterns |
WO2005010803A2 (en) * | 2003-07-22 | 2005-02-03 | Cognex Corporation | Methods for finding and characterizing a deformed pattern in an image |
WO2005064526A1 (de) * | 2003-12-30 | 2005-07-14 | RUHR-UNIVERSITäT BOCHUM | Verfahren zur bewertung von ähnlichkeiten realer objekte |
DE10361838B3 (de) * | 2003-12-30 | 2005-05-25 | RUHR-UNIVERSITäT BOCHUM | Verfahren zur Bewertung von Ähnlichkeiten realer Objekte |
US8437502B1 (en) | 2004-09-25 | 2013-05-07 | Cognex Technology And Investment Corporation | General pose refinement and tracking tool |
US8103085B1 (en) | 2007-09-25 | 2012-01-24 | Cognex Corporation | System and method for detecting flaws in objects using machine vision |
US9659236B2 (en) | 2013-06-28 | 2017-05-23 | Cognex Corporation | Semi-supervised method for training multiple pattern recognition and registration tool models |
US9679224B2 (en) | 2013-06-28 | 2017-06-13 | Cognex Corporation | Semi-supervised method for training multiple pattern recognition and registration tool models |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4406020C1 (de) | Verfahren zur automatisierten Erkennung von Objekten | |
DE69333094T2 (de) | Vorrichtung zum Extrahieren von Merkmalen eines Gesichtsbildes | |
DE19837004C1 (de) | Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen | |
DE60037919T2 (de) | Verfahren zum Wiederauffinden von Bildtexturen und Vorrichtung dafür | |
DE60016589T2 (de) | Verfahren und vorrichtung zur erzeugung eines zusammengesetzten fingerabdruckbildes | |
DE69623581T4 (de) | Merkmalextrahierung zur Fingerabdruckerkennung | |
EP2584493B1 (de) | Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess | |
DE19614975A1 (de) | Gesichtsbildverarbeitungssystem | |
DE102006010607A1 (de) | Wahrscheinlichkeitstheoretischer Verstärkungsbaum-Rahmen zum Lernen von Unterscheidungsmodellen | |
DE102009038364A1 (de) | Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform | |
DE602004002837T2 (de) | Objekterkennung | |
WO1999046737A1 (de) | Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes | |
DE102007035884A1 (de) | Linienrauschunterdrückungsvorrichtung, -verfahren und -programm | |
DE102007050568A1 (de) | Verfahren und Einrichtung zur Objekterkennung in einem Bild | |
DE102017220752A1 (de) | Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm | |
EP0886833B1 (de) | Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen | |
DE102006045828B4 (de) | Verfahren und Vorrichtung zum Erkennen eines Gesichts sowie ein Gesichtserkennungsmodul | |
EP2622540A1 (de) | Verfahren zur klassifizierung von mustern in bilddatensätzen | |
EP1282070A1 (de) | Hierarchische Bildmodellanpassung | |
EP1281157A1 (de) | Verfahren und anordnung zum ermitteln eines objekts in einem bild | |
EP1402460B1 (de) | Automatische identifikation und/oder verifikation linienhafter texturen wie fingerabdrücke | |
DE3238300A1 (de) | Verfahren und vorrichtung zur muster- oder zeichenerkennung | |
DE10126375B4 (de) | Verfahren und System zur Erkennung von Objekten | |
DE10361838B3 (de) | Verfahren zur Bewertung von Ähnlichkeiten realer Objekte | |
DE4404775C1 (de) | Verfahren zum Betrieb eines hybriden neuronalen Netzwerks zur automatischen Objekterkennung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8100 | Publication of patent without earlier publication of application | ||
D1 | Grant (no unexamined application published) patent law 81 | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: ZN VISION TECHNOLOGIES AG, 44801 BOCHUM, DE |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: VIISAGE TECHNOLOGY AG, 44801 BOCHUM, DE |
|
8339 | Ceased/non-payment of the annual fee |