DE4406020C1 - Verfahren zur automatisierten Erkennung von Objekten - Google Patents

Verfahren zur automatisierten Erkennung von Objekten

Info

Publication number
DE4406020C1
DE4406020C1 DE4406020A DE4406020A DE4406020C1 DE 4406020 C1 DE4406020 C1 DE 4406020C1 DE 4406020 A DE4406020 A DE 4406020A DE 4406020 A DE4406020 A DE 4406020A DE 4406020 C1 DE4406020 C1 DE 4406020C1
Authority
DE
Germany
Prior art keywords
graph
stored
images
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4406020A
Other languages
English (en)
Inventor
Wolfgang Dr Konen
Jan C Vorbrueggen
Rolf P Wuertz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security Germany AG
Original Assignee
ZENTRUM fur NEUROINFORMATIK G
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZENTRUM fur NEUROINFORMATIK G filed Critical ZENTRUM fur NEUROINFORMATIK G
Priority to DE4406020A priority Critical patent/DE4406020C1/de
Application granted granted Critical
Publication of DE4406020C1 publication Critical patent/DE4406020C1/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • Image Analysis (AREA)

Description

Die Erfindung betrifft ein automatisiertes bildverarbeitendes Verfahren zur größen- und lageinvarianten Erkennung von intrinsisch deformierbaren Objekten, insbesondere Gesich­ tern.
Seit einigen Jahren sind auf dem Gebiet der Bildverarbeitung Verfahren bekannt, die eine Erkennung von Objekten aus einzelnen Ansichten (Bildern) dieser Objekte erlauben. Diese Verfahren zeichnen sich durch eine mehr oder weniger starke Robustheit gegenüber Variationen der Objektansichten (Lage, Orientierung im Raum, Größe, objektintrinsische Verzerrungen, Beleuchtung) aus. Insbesondere beschäftigen sich zahlreiche Arbeiten mit dem schwierigen Problem der Erkennung von Gesichtern, welche eine Klasse von Objekten mit zahlreichen intrinsischen Deformationsfreiheitsgraden (Mimik) darstellen.
In den zahlreichen Arbeiten in einschlägigen Fachzeitschriften, die sich mit der Erken­ nung von Gesichtern beschäftigen und die in einschlägigen Fachzeitschriften publiziert sind, werden folgende Lösungsansätze vorgeschlagen:
  • 1. Bichsel und Seitz, DAGM, S. 106-113, Springer-Verlag 1990 haben vorgeschlagen, aus Bildern extrahierte Merkmale einem Neuronalen Netz (Mehrlagen-Perzeptron) zu­ zuführen. Ein sehr ähnlicher Ansatz wird in Bouattour, Fogelman-Soulie et al., Artificial Neural Networks 2, S. 456, Elsevier-Verlag 1992 gewählt. In Lampinen, Artificial Neural Networks, S. 328, Elsevier- Verlag 1991 wird zur Merkmalsklassifi­ kation die Faktorenanalyse und ein neuronales Kohonen-Netz benutzt. Der Nachteil all dieser Verfahren ist, daß für jede neu zu erkennende Person eine ganze Reihe von Ansichten aufgenommen werden muß und daß die Neuronalen Netze sodann erneut trainiert werden müssen. Außerdem werden Ergebnisse dieser Verfahren in Form von Erkennungsraten nur für kleine Datenbanken (3-20 Personen) berichtet. Es muß davon ausgegangen werden, daß die Erkennungsrate mit steigender Personen­ zahl abnimmt.
  • 2. Aus Lades et al., IEEE Transaction on Computers, 42, 300-311, 1993 [Lades′93] ist ein Ansatz bekannt, bei dem der Vergleich zwischen zu erkennendem und ge­ speichertem Bild durch einen flexiblen Abbildungsmechanismus realisiert wird, wo­ bei die bestmögliche Abbildung durch ein Optimierungsverfahren bestimmt wird. Dieses Verfahren ist sehr leistungsfähig in bezug auf Lage, Orientierung im Raum und objektintrinsische Verzerrungen, ferner werden auch bei großen Personenzahlen (< 100) hohe Erkennungsraten erreicht. Es hat jedoch den Nachteil, daß es keine größeninvariante Erkennung erlaubt.
  • 3. Ein interessantes Verfahren, das ebenfalls eine Abbildung zwischen Bildern durch ein Optimierungsverfahren realisiert, wird von M. Shackelton, Patentschrift WO 93/15475, 1993 [Shackelton′93] beschrieben. Das Verfahren findet in Bildern auto­ matisch hervorspringende Merkmale und verbindet diese zu einer netzartigen Struk­ tur (Template). Solche Templates können prinzipiell dazu benutzt werden, ähnliche Bilder miteinander zu vergleichen und können somit auch zum Vergleich von Gesich­ tern herangezogen werden. Es werden allerdings in [Shackelton′93] keine weiteren Angaben dazu gemacht, wie ein solcher Vergleich verschiedener Bilder gleicher Ob­ jekte im Detail aussehen kann und welche Güte der Klassifizierung damit erreicht werden kann.
Bezogen auf Personenzugangskontrollen gibt es im Stand der Technik keine gewerbli­ chen Anwendungen, die die automatisierte, lage- und größeninvariante Erkennung von Gesichtern als Kontrollmerkmal einsetzen.
Zum besseren Verständnis der hier vorliegenden Erfindung wird im folgenden der Stand der Technik, wie er durch [Lades′93] vorgegeben ist, detaillierter dargestellt. Dazu wer­ den zunächst einige für die Erfindung wesentlichen Begriffe und Bezeichnungsweisen zusammengefaßt:
Es ist Stand der Technik, wie er beispielsweise in der Arbeit von D. J. Field, Journal Opt. Soc. Am. A4, S. 2379-2394, 1987 dargestellt ist, daß zur Merkmalsextraktion aus Bildern Filteroperationen (mathematisch: Faltungen) mit bestimmten Filtermasken verwendet werden. Eine bestimmte Klasse von Filtermasken sind die Gabor-Filter. Verschiedene Gabor-Filter unterscheiden sich in Größe und Orientierung in der Bildebene:
  • - Ein Gabor-Merkmal bezeichnet das Ergebnis einer Faltung des Bildes an einem be­ stimmten Pixel mit einem bestimmten Gabor-Filter.
  • - Ferner bezeichnet, wenn ein Bild mit k verschiedenen Gabor-Filter gefaltet wurde, ein Jet die Gesamtheit aller Gabor-Merkmale an einem bestimmten Pixel, die in dem Jet zu einem k-komponentigen Vektor zusammengefaßt werden.
  • - Ein regulärer Graph ist die Zusammenfassung von m × n Jets in einer zweidimen­ sionalen, gitterförmigen Anordnung (s. Bild 1a). Jeder Jet ist einem der Knoten des Gitters zugeordnet; benachbarte Knoten werden durch horizontale und verti­ kale Verbindungen miteinander verknüpft. Für zu speichernde Objektbilder wird die Information über ein Objektbild in Form von regulären Graphen abgelegt.
  • - Ein irregulärer Graph besteht ebenfalls aus m × n Knoten, die in gleicher Topologie wie beim regulären Graphen verknüpft sind, jedoch liegen hier die Knoten nicht notwendigerweise auf einem rechteckigen Gitter, sondern sind beliebig in der Bild­ ebene angeordnet (s. Bild 1b). Es werden den Knoten jeweils die Jets zugeordnet, die zu dem Pixel gehören, auf dem der Knoten zu liegen kommt.
  • - Die horizontalen und vertikalen Verbindungen zwischen benachbarten Knoten wer­ den auch als Links bezeichnet.
  • - Zur Bewertung der Ähnlichkeit zweier Graphen (regulär oder irregulär) wird eine Graphen-Vergleichsfunktion E eingeführt: E = Esim + λEtop (1)Diese Funktion nimmt um so niedrigere Werte an, je ähnlicher zwei Graphen sind. Der erste Term Esim bewertet die Ähnlichkeit der Jets an jeweils korrespondie­ renden Knoten der beiden Graphen, indem die jeweils korrespondierenden Gabor- Merkmale miteinander verglichen werden (negativer Kosinus des Winkels zwischen beiden Jets); hohe Ähnlichkeit bedeutet dabei niedrige Werte von Esim. Der zweite Term Etop bewertet die topologische Ähnlichkeit beider Graphen, indem die Beträge der Differenzvektoren jeweils korrespondierender Links aufsummiert werden. (Ein anschauliches Modell besteht darin, sich die Links als mechanische Federn vorzu­ stellen, die in ihren Ruhelagen den ersten der beiden Graphen bilden. Etop ist dann proportional zur Arbeit, die gegen die Federkräfte aufgebracht werden muß, um die Links mit der Topologie des zweiten Graphen zur Deckung zu bringen.)
  • - Werden beim Vergleich eines neuen Objektbildes mit N gespeicherten Objek­ ten N Werte der Graphen-Vergleichsfunktion E₁<E₂< . . . <EN ermittelt, so bezeichnen und σE den Mittelwert und die Standardabweichung der Da­ ten (E₂, . . . , EN), und Objekt 1 ist im Sinne der Vergleichsfunktion das ähnlich­ ste Objekt. Die Ähnlichkeit wird als signifikant bezeichnet und wir sprechen von signifikanter Erkennung, wenn für fest gewählte Parameter s₁, s₂ mindestens eines der Kriterien (E₁-)/σE<s₁ oder (E₁-E₂)/σE<s₂ erfüllt ist. Andernfalls spre­ chen wir von insignifikanter Erkennung, und das neue Objekt wird als unähnlich zu allen gespeicherten Objekten zurückgewiesen.
In [Lades′93] wird nun ein Verfahren beschrieben, das Gabor-Merkmale verschiedener Orientierung und Skalierung aus einem Bild extrahiert und diese für jedes Pixel in Form von Jets zusammenfaßt. Für ein zu speicherndes Objektbild werden die Jets in einem regulären Graphen, der auf das Objekt zentriert ist, zusammengefaßt. In einem neuen Bild wird ein optimal zu dem gespeicherten Graphen passender Graph gesucht. Dabei enthält der neue Graph an seinen Knoten jeweils die Jets, die zu dem Pixel am Ort des Knoten gehören. Seine Position und Form wird in einem Zweiphasenverfahren optimiert:
  • 1. Verschiebung des Graphen als Ganzes (Global Move), bis ein Optimalzustand gefun­ den wird.
  • 2. Ausgehend vom Optimalzustand aus 1. werden einzelne Knoten des Graphen ver­ schoben (lokale Verzerrung).
In beiden Phasen läuft die Optimierung folgendermaßen ab: Es wird ein zufälliger Verschiebungsvektor ausgewählt und auf den Graphen bzw. einen Knoten des Gra­ phen angewendet. Der Zustand des so veränderten Graphen wird mittels der Graphen- Vergleichsfunktion E bewertet. Nur wenn der neue Zustand eine günstigeren Wert für E hat, wird die Verschiebung akzeptiert.
Beide Phasen terminieren, wenn in Vmax aufeinanderfolgenden Verschiebungsschritten keine Verbesserung gefunden wird. Das Ergebnis der Optimierung ist der finale Wert der Graphen-Vergleichsfunktion E. Die Optimierung wird für alle gespeicherten Graphen wiederholt, und man erhält eine Sequenz von Werten E₁ < E₂ < E₃ < . . . anhand welcher bestimmt werden kann, ob eine signifikante Erkennung von Objekt 1 vorliegt.
Das beschriebene Verfahren hat jedoch folgende Nachteile:
  • - Es ist nicht größeninvariant, da der Graph nur verschoben, nicht skaliert wird. Es wurde bisher in der Literatur (Buhmann et al., IJCNN II, 411-416, IEEE, San Diego, 1990) davon ausgegangen, daß bei Skalierung des Graphen auch die Fil­ terkoeffizienten entsprechend inter- bzw. extrapoliert werden müssen. Ein solches Verfahren ist rechenaufwendig, da nach jedem Optimierungsschritt interpoliert wer­ den muß. Ferner wurde bisher davon ausgegangen, daß die Größenbestimmung nur durch ein hierarchisches Verfahren, das von groben zu feinen Auflösungsstufen fortschreitet, gelingt. Die hier beschriebene Erfindung löst die Aufgabe der größen­ invarianten Erkennung durch ein deutlich vereinfachtes Verfahren.
  • - Der Suchaufwand wächst linear mit der Anzahl der gespeicherten Objekte. Ferner wird die korrekte Erkennung mit zunehmender Objektanzahl immer schwieriger. Damit wird der Einsatz in großen Datenbanken problematisch. Die hier darge­ stellte Erfindung beschreibt ein neues Verfahren, die Verifikation, welches die obigen Nachteile vermeidet. Dieses Verfahren läßt sich darüber hinaus besonders gut mit der größeninvarianten Erkennung kombinieren.
Die aus dem Stand der Technik bereits bekannten Verfahren weisen eine Reihe von Nachteilen auf und vermögen nicht, in jeder Hinsicht zu befriedigen. Es besteht daher ein ständiger Bedarf an verbesserten Verfahren zur Erkennung intrinsisch deformierbarer Objekte.
Aufgabe der vorliegenden Erfindung war es, ein gegenüber dem bekannten Stand der Technik verbessertes Verfahren zur Erkennung von Objekten zur Verfügung zu stellen. Dabei war angestrebt, eine Möglichkeit zur Differenzierung dahingehend zu schaffen, daß verschiedene Bilder desselben Objektes (mit Unterschieden in Lage, Ansicht und Größe des Objektes) als ähnlich erkannt werden, während Bilder von verschiedenen Objekten als unähnlich klassifiziert werden.
Eine weitere Zielsetzung bestand darin, eine technische Verwendung dieses Verfahrens als Personenzugangskontrollsystem zu entwickeln, das auf einem verbesserten Verfahren zur Erkennung von Gesichtern basiert. Dabei besteht die Aufgabe insbesondere darin, die Überprüfung der Zugangsberechtigung auch bei einem großen Kreis berechtigter Personen schnell und sicher durchführen zu können.
Überraschenderweise wurde gefunden, daß man die größeninvariante Objekterkennung einfach dadurch deutlich verbessern kann, daß man den Global Move simultan mit einem Global Scale verbindet, indem man den Graphen in jedem Optimierungsschritt sowohl verschiebt als auch mit einem Faktor nahe 1 skaliert. Eine Interpolation der Filterko­ effizienten ist entgegen der Erwartung für einen weiten Bereich von Objektgrößen (von etwa 60% bis 140% der Originalgröße) nicht notwendig. Damit hat man eine gegenüber bestehenden Lösungen beschleunigte Anpassung auf Größenänderungen, wie sie für viele Anwendungen von besonderer Bedeutung sind.
Gegenstand der vorliegenden Erfindung ist ein Verfahren zur automatisierten Erkennung von Objekten aus Bildern dieser Objekte, wobei man aus einem digitalen Bild mit Gabor- Filtern verschiedener Größe und Orientierung Gabor-Merkmale extrahiert, die in einem verschieb-, skalier- und deformierbarem Graphen G zusammengefaßt werden. Für jeden der gespeicherten Graphen optimiert man die Form und Lage des Graphen G dahingehend, daß die Graphen-Vergleichsfunktion E optimale Werte annimmt. Die Auffindung des optimalen Graphen G führt man dabei für jeden der gespeicherten Graphen in zwei Phasen durch.
Phase 1
Auswahl eines zufälligen Verschiebungsvektors und Skalierungsfaktors für den gesamten Graphen. Der so veränderte Graph im neuen Bild wird über die Graphen- Vergleichsfunktion E mit dem gespeicherten Graphen verglichen, wobei die Links des gespeicherten Graphen zuvor mit dem Skalierungsfaktor multipliziert werden. Nur wenn der neue Zustand einen günstigeren Wert für E hat, wird die Veränderung des Graphen akzeptiert.
Phase 2
Alle Links des gespeicherten Graphen werden mit dem in Phase 1 ermittel­ ten optimalen Skalierungsfaktor multipliziert. Ausgehend vom in Phase 1 ermit­ telten Optimalzustand des neuen Graphen werden einzelne Knoten dieses Graphen verschoben (lokale Verzerrung), bis ein optimaler irregulärer Graph gefunden wird (Bild 2).
In einer bevorzugten Ausführungsform der vorliegenden Erfindung wird in jedem Opti­ mierungsschritt der Phase 1, ausgehend von der momentanen Graphen-Lage und -Größe, zufällig eine Verschiebung von bis zu 3% der Bildgröße und gleichzeitig eine Skalierung des Graphen von bis zu 10% der Graphengröße gewählt. Allerdings liefert das Verfahren bei den untersuchten Bildern in einem weiten Bereich von Parametern annähernd gleich gute Ergebnisse.
Mit dieser Ausführungsform werden für Bilder, die gespeicherte Objekte in einer um 75% kleineren Skalierung zeigen, die richtigen Skalierungsfaktoren mit einer Genauigkeit von ±2% ermittelt. Dies zeigten Versuche, in denen man 12 Gabor-Filter (4 äquidistante Orientierungen mit je 3 verschiedenen Größen, gekennzeichnet durch ihre Optimalfre­ quenzen f, die, beginnend bei der höchsten Frequenz von f=π/2, im Abstand von halben Oktaven aufeinanderfolgen) verwendet. Die 12-komponentigen Jets werden in ei­ nem 7×10-Graphen angeordnet und als Bildmaterial werden Gesichtsbilder (128×128 Pixel) von Personen vor weißem Hintergrund verwendet, wie sie in [Lades′93] dargestellt sind. Unter diesen Voraussetzungen wird von verschiedenen Anfangslagen und -größen des Graphen G aus die optimale Graphengröße (also hier um 75% kleiner) mit einer Reproduzierbarkeit von ±2% angefahren.
In einer weiteren Ausführungsform der Erfindung wird die Optimierung des Graphen G nur einmal in Hinblick auf einen der gespeicherten Graphen (Referenzgraph) durch­ geführt und bleibt dabei auf die Phase 1 beschränkt. Der so ermittelte optimale Graph G wird dann ohne weitere Optimierungsschritte mit allen gespeicherten Graphen verglichen. Überraschenderweise wurde gefunden, daß trotz des drastisch reduzierten Op­ timierungsaufwand fast gleichbleibend gute Erkennungsleistungen erzielt werden. Diese Ausführungsform hat den Vorteil, daß sie bedeutend schneller durchgeführt werden kann und damit auch in der Anwendung auf große Datenbanken gespeicherter Graphen geeignet ist.
Neben der Erkennung (Suchen eines Objektes unter einer Anzahl gespeicherter Objekt­ bilder) eignet sich das Verfahren auch besonders gut zur Verifikation, d. h. zur Entschei­ dung, ob ein vorgegebenes Objektbild mit einem bestimmten gespeicherten Objektbild B (dessen Graph als Referenzgraph benutzt wird) übereinstimmt. Dazu wird das vor­ gegebene Bild O außer mit dem gespeicherten Bild B auch mit N zufällig ausgewählten anderen gespeicherten Bildern verglichen, um zu entscheiden, ob die Ähnlichkeit zwischen B und O signifikant ist. Dabei ist N eine feste, nicht von der Gesamtgröße der Datenbank abhängige Zahl, so daß in diesem Verfahren der Rechenaufwand unabhängig von der Größe der Datenbank ist. Der Vergleich mit N weiteren gespeicherten Bildern bietet den Vorteil, daß Unterschiede, die durch eine geänderte Aufnahmesituation beim vorgegebenen Bild (z. B. durch andere Beleuchtung) entstehen, getrennt werden von Unterschieden in den Objekten selbst.
Gerade für diese Verifikationsaufgabe eignet sich die oben beschriebene Ausführungs­ form, bei der zur Reduktion des Rechenaufwandes die Optimierung nur mit einem Re­ ferenzgraphen (nämlich B) durchgeführt und bereits nach Phase 1 abgebrochen wird, besonders gut.
Dies zeigen die folgenden Versuchsergebnisse: 88 Objektbilder von Gesichtern mit ca. 20° zur Seite gedrehtem Kopf werden mit 100 gespeicherten Bildern von geradeaus blickenden Personen verglichen. In einer Ausführungsform der Erfindung werden 40 Gabor-Filter (8 äquidistante Orientierungen mit je 5 verschiedenen Größen, gekennzeichnet durch ihre Optimalfrequenzen f, die, beginnend bei der höchsten Frequenz von f=π/2, im Abstand von halben Oktaven aufeinanderfolgen) und 7×10-Graphen verwendet. Die Schwellen s₁ und s₂ werden so eingestellt, daß Objektbilder zu 100% zurückgewiesen werden, wenn das zugehörige gespeicherte Bild (temporär) aus der Datenbank entfernt ist. Wird nun das zugehörige gespeicherte Bild wieder eingefügt, so ergeben sich mit den gleichen Schwellen folgende Raten der korrekten und signifikanten Erkennung (N=100):
Erkennung, mit Phase 1 und 2|84%
Verifikation, mit Phase 1 und 2 93%
Verifikation, nur Phase 1 91%
Bei einem Versuch zur größeninvarianten Verifikation, in dem 88 Objektbilder mit 20° Kopfdrehung durch 89 Bilder von Gesichtern in reduzierter Größe (75%) ersetzt werden, ergibt sich eine Verifikationsrate (nur Phase 1) von 83%.
Insgesamt erlaubt das Verfahren somit eine automatisierte Erkennung oder Verifika­ tion von Objekten aus digitalen Bildern dieser Objekte unter Benutzung von Gabor- Merkmalen, welche auf einem verschieb-, skalier- und deformierbarem Gitter, dem Gra­ phen, angeordnet sind, dessen optimale Form durch die zweiphasige Minimierung der Graphen-Vergleichsfunktion bestimmt wird. In der ersten Phase werden sowohl Größe als auch Position des Graphen simultan optimiert.
Für viele Anwendungen der visuellen Objekterkennung spielt die Invarianz gegen Größen- und Positionsänderungen von Objekten eine besonderer Rolle. Beispielsweise sind Personen-Zugangskontrollen mit automatischer Kamera ("elektronischer Pförtner") nur dann in der Praxis einsetzbar, wenn Abstand und Position der Person vor der Kamera in bestimmten Grenzen variabel sind. Das hier beschriebene Verfahren eignet sich besonders gut für eine solche Anwendung, zumal auch eine Unterscheidung bei einer großen Zahl von Personen möglich ist. Gegenüber einem menschlichen Pförtner bietet das automatisierte Verfahren die Vorteile größerer Objektivität, Reproduzierbarkeit und Ermüdungsfreiheit.
Für Personen-Zugangskontrollen müssen hohe Sicherheitsstandards eingehalten werden. Das hier beschriebene Verfahren bietet den Vorteil einer hohen Sicherheit bei der Zurück- Weisung unberechtigter Personen (100% auf dem Testdatenmaterial). Das hier beschrie­ bene Verfahren eignet sich auch dann besonders gut, wenn es in Verbindung mit anderen Zugangskontroll-Maßnahmen (z. B. Codekarten) eingesetzt wird. Durch diese Kombina­ tion entstehen folgende Vorteile:
  • - Eine Person, die unberechtigterweise in den Besitz einer Codekarte gelangt oder eine solche fälscht, kann alleine durch die Codekarte noch keinen Zugang erlangen. Dies führt zu einer Erhöhung der Sicherheit.
  • - Durch die Codekarteninformation kann vorgegeben werden, welches der gespeicher­ ten Gesichter zu erkennen ist. Die automatische Erkennung wird reduziert auf die Aufgabe der automatischen Verifikation, ob das aktuelle Bild eine signifikante Ähn­ lichkeit mit dem gespeicherten Bild aufweist. Im Gegensatz zur Erkennung ist der Rechenaufwand für die Verifikation unabhängig von der Größe der Datenbank; das Verfahren kann somit auch für sehr große Datenbanken eingesetzt werden.
Personen-Zugangskontrollen sind nur ein Beispiel für die technische Anwendbarkeit des Gesichtserkennungsverfahrens. Allgemeiner kann ein Verfahren, bei dem mit einer Ka­ mera ein Gesichtsbild aufgenommen und mit gespeicherten Bildern verglichen wird, zur berührungslosen Identitätsüberprüfung einsetzen. Diese kann dazu benutzt werden, per­ sonenbezogene Einstellungen an einem technischen Gerät vorzunehmen (beispielsweise Fahrersitz-Einstellung im Auto) oder personenbezogene Zugangsrechte an einem techni­ schen Gerät einzuräumen.
Besonders vorteilhaft läßt sich ein solches berührungsloses Kontrollverfahren in Kombi­ nation mit anderen Identifikationsmerkmalen zur Verifikation einsetzen. Es gelten sinn­ gemäß die gleichen Vorteile wie bei der Verifikation in Personen-Zugangskontrollen.
Das beschriebene Verfahren läßt sich auch vorteilhaft für die Bestimmung der Ähnlich­ keit zwischen Objektbildern heranziehen. Als Ähnlichkeitsmaß dient der am Ende der Optimierung erhaltene Wert der Graphen-Vergleichsfunktion. Damit lassen sich große Datenbanken automatisch nach ähnlichen Objekten durchsuchen. Da nur diese für eine weitere (menschliche) Begutachtung herangezogen werden müssen, bedeutet dies einen erheblichen Zeitgewinn. Besonders geeignet ist das Verfahren auch dazu, die Ähnlich­ keit zwischen Phantombildern von Gesichtern und gespeicherten Gesichtsfotografien zu ermitteln.
Schließlich läßt sich das Verfahren auch zur automatisierten visuellen Qualitätskontrolle einsetzen. In Produktionsprozessen steht man oft vor der Aufgabe, daß die Übereinstim­ mung aktuell vorliegender Teile mit den Sollangaben abgeprüft werden muß (Beispiel Bestückung elektronischer Platinen). Oft scheitert die Automatisierung der visuellen Prüfung an der mangelnden Robustheit der eingesetzten Verfahren. Das hier beschriebene Verfahren läßt sich besonders dann vorteilhaft einsetzen, wenn in ihrer grundsätzlichen Struktur ähnliche Produktionsteile sicher auseinandergehalten werden müssen.

Claims (9)

1. Verfahren zur automatisierten Erkennung von Objekten aus Bildern die­ ser Objekte, wobei man aus einem digitalen Bild mit Gabor-Filtern ver­ schiedener Größe und Orientierung Gabor-Merkmale extrahiert, die in einem verschieb-, skalier- und deformierbarem Graphen G zusammengefaßt sind und mit gespeicherten Graphen von anderen Bildern verglichen werden, indem eine Graphen-Vergleichsfunktion E, bestehend aus einem die Ähnlichkeit der Gabor-Merkmale bewertenden Anteil und einem die Formerhaltung des Gra­ phen bewertenden Anteil, berechnet wird, dadurch gekennzeichnet, daß man durch schrittweise und simultane Veränderungen von Lage und Größe des Graphen G diesen im Vergleich zu einem gespeicherten Referenzgraph optimal einstellt (Phase 1) und mit diesem G die Werte von E für jeden der gespeicher­ ten Graphen ermittelt, wobei der Abstand des besten Wertes von den übrigen E-Werten eine Entscheidung darüber erlaubt, ob eine signifikante Erkennung vorliegt.
2. Verfahren nach Anspruch 1, wobei man die Optimierung des Graphen G in Phase 1 dahingehend erweitert, daß für jeden der gespeicherten Graphen schrittweise Formveränderungen (lokale Verzerrungen), die zu einer Verbesse­ rung der Graphen-Vergleichsfunktion E führen, angewandt werden (Phase 2).
3. Verfahren nach Anspruch 1 oder 2, wobei man in jedem Optimierungsschritt der Phase 1 zufällig eine Verschiebung von bis zu 3% der Bildgröße und eine Skalierung des Graphen von bis zu 10% einstellt.
4. Verfahren nach einem der Ansprüche 1 bis 3, wobei man die Größen der einge­ setzten Gabor-Filter so wählt, daß ihre jeweiligen Bestfrequenzen im Abstand von Halboktaven aufeinanderfolgen und mindestens drei verschiedene Größen verwendet.
5. Gerät zur berührungslosen Identitätsüberprüfung, bestehend aus Kamera und Computer, dadurch gekennzeichnet, daß ein durch die Kamera aufgenommenes Gesichtsbild durch eines der in den Ansprüchen 1 bis 4 genannten Verfahren mit allen gespeicherten Gesichtsbildern von Personen automatisch verglichen wird, und bei einer signifikanten Erkennung einer der gespeicherten Personen eine personenbezogene Aktion ausgelöst wird.
6. Personen-Zugangskontrolle, bestehend aus Kamera, Computer und elektrischer Zugangsentriegelung, dadurch gekennzeichnet, daß ein durch die Kamera auf­ genommenes Gesichtsbild durch eines der in den Ansprüchen 1 bis 4 genann­ ten Verfahren mit allen gespeicherten Gesichtsbildern von zugangsberechtigten Personen automatisch verglichen wird, und bei einer signifikanten Erkennung eines der gespeicherten Gesichter die Zugangsentriegelung betätigt wird.
7. Personen-Zugangskontrolle, bestehend aus Kamera, Computer, elektrischer Zugangsentriegelung und einem davon unabhängigen weiteren Kontrollgerät, durch das die Identität der zu erkennenden Person vorgegeben wird, dadurch gekennzeichnet, daß diese Identität verifiziert wird, indem das zugehörige ge­ speicherte Gesichtsbild B mit einem durch die Kamera aufgenommenen aktuel­ len Gesichtsbild nach einem der in den Ansprüchen 1 bis 4 genannten Verfahren verglichen wird und bei positiver Signifikanz die Zugangsentriegelung betätigt wird.
8. Verfahren zur Datenbanksuche in Bilddatenbanken, dadurch gekennzeichnet, daß zu einem vorgelegten Bild nach einem der in den Ansprüchen 1 bis 4 beschriebenen Verfahren alle hinreichend ähnlichen Bilder in der Datenbank gefunden werden, welche sich dadurch auszeichnen, daß für sie die Graphen- Vergleichsfunktion niedrigere Werte als für alle anderen Bilder annimmt.
9. Automatisierte visuelle Qualitätskontrolle im Produktionsprozeß, bestehend aus Kamera, Computer und Aussonderungsmechanismus, dadurch gekenn­ zeichnet, daß die aktuell produzierten Teile über eines der in den Ansprüchen 1 bis 4 beschriebenen Verfahren mit Sollangaben verglichen werden und bei Vorliegen einer Diskrepanz der Aussonderungsmechanismus betätigt wird.
DE4406020A 1994-02-24 1994-02-24 Verfahren zur automatisierten Erkennung von Objekten Expired - Fee Related DE4406020C1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4406020A DE4406020C1 (de) 1994-02-24 1994-02-24 Verfahren zur automatisierten Erkennung von Objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4406020A DE4406020C1 (de) 1994-02-24 1994-02-24 Verfahren zur automatisierten Erkennung von Objekten

Publications (1)

Publication Number Publication Date
DE4406020C1 true DE4406020C1 (de) 1995-06-29

Family

ID=6511121

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4406020A Expired - Fee Related DE4406020C1 (de) 1994-02-24 1994-02-24 Verfahren zur automatisierten Erkennung von Objekten

Country Status (1)

Country Link
DE (1) DE4406020C1 (de)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19610066C1 (de) * 1996-03-14 1997-09-18 Siemens Nixdorf Advanced Techn Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen
WO1999046737A1 (de) 1998-03-12 1999-09-16 Zentrum Für Neuroinformatik Gmbh Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes
WO1999053427A1 (en) * 1998-04-13 1999-10-21 Eyematic Interfaces, Inc. Face recognition from video images
WO2000010119A1 (de) * 1998-08-14 2000-02-24 Christian Eckes Verfahren zum erkennen von objekten in digitalisierten abbildungen
US6192150B1 (en) 1998-11-16 2001-02-20 National University Of Singapore Invariant texture matching method for image retrieval
US6222939B1 (en) 1996-06-25 2001-04-24 Eyematic Interfaces, Inc. Labeled bunch graphs for image analysis
DE19726226C2 (de) * 1997-06-22 2001-07-26 Zentrum Fuer Neuroinformatik G Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe
US6272231B1 (en) 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
EP1472645A2 (de) * 2001-12-10 2004-11-03 University of York Bilderkennung
US6834115B2 (en) 2001-08-13 2004-12-21 Nevengineering, Inc. Method for optimizing off-line facial feature tracking
WO2005010803A2 (en) * 2003-07-22 2005-02-03 Cognex Corporation Methods for finding and characterizing a deformed pattern in an image
US6853379B2 (en) 2001-08-13 2005-02-08 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6876364B2 (en) 2001-08-13 2005-04-05 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
DE10361838B3 (de) * 2003-12-30 2005-05-25 RUHR-UNIVERSITäT BOCHUM Verfahren zur Bewertung von Ähnlichkeiten realer Objekte
US6917703B1 (en) 2001-02-28 2005-07-12 Nevengineering, Inc. Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network
AU2004212509B2 (en) * 1998-04-13 2005-09-08 Google Llc Face recognition from video images
EP1580684A1 (de) * 1998-04-13 2005-09-28 Nevenengineering, Inc. Gesichtserkennung aus Videobildern
US7050655B2 (en) 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
US7050624B2 (en) 1998-12-04 2006-05-23 Nevengineering, Inc. System and method for feature location and tracking in multiple dimensions including depth
CN1459761B (zh) * 2002-05-24 2010-04-21 清华大学 基于Gabor滤波器组的字符识别技术
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US8103085B1 (en) 2007-09-25 2012-01-24 Cognex Corporation System and method for detecting flaws in objects using machine vision
US8229222B1 (en) 1998-07-13 2012-07-24 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8437502B1 (en) 2004-09-25 2013-05-07 Cognex Technology And Investment Corporation General pose refinement and tracking tool
US9659236B2 (en) 2013-06-28 2017-05-23 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993015475A1 (en) * 1992-01-29 1993-08-05 British Telecommunications Public Limited Company Method of forming a template

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993015475A1 (en) * 1992-01-29 1993-08-05 British Telecommunications Public Limited Company Method of forming a template

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BICHSEL, M., SEITZ, P.: DAGM, Springer-Verlag 1990, S. 106-113 *
BUHMANN et al.: IJCNN II, San Diego 1990, pp. 411-416 *
LODES et al.: IEEE Transaction on Computers, 42, 1993, pp. 300-311 *

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19610066C1 (de) * 1996-03-14 1997-09-18 Siemens Nixdorf Advanced Techn Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen
US6222939B1 (en) 1996-06-25 2001-04-24 Eyematic Interfaces, Inc. Labeled bunch graphs for image analysis
DE19726226C2 (de) * 1997-06-22 2001-07-26 Zentrum Fuer Neuroinformatik G Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe
WO1999046737A1 (de) 1998-03-12 1999-09-16 Zentrum Für Neuroinformatik Gmbh Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes
DE19810792A1 (de) * 1998-03-12 1999-09-16 Zentrum Fuer Neuroinformatik G Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
WO1999053427A1 (en) * 1998-04-13 1999-10-21 Eyematic Interfaces, Inc. Face recognition from video images
EP1580684A1 (de) * 1998-04-13 2005-09-28 Nevenengineering, Inc. Gesichtserkennung aus Videobildern
AU2004212509B2 (en) * 1998-04-13 2005-09-08 Google Llc Face recognition from video images
US8363956B1 (en) 1998-07-13 2013-01-29 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8265395B1 (en) 1998-07-13 2012-09-11 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8363972B1 (en) 1998-07-13 2013-01-29 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8229222B1 (en) 1998-07-13 2012-07-24 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8335380B1 (en) 1998-07-13 2012-12-18 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8331673B1 (en) 1998-07-13 2012-12-11 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8320675B1 (en) 1998-07-13 2012-11-27 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8295613B1 (en) 1998-07-13 2012-10-23 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8270748B1 (en) 1998-07-13 2012-09-18 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8363942B1 (en) 1998-07-13 2013-01-29 Cognex Technology And Investment Corporation Method for fast, robust, multi-dimensional pattern recognition
US8254695B1 (en) 1998-07-13 2012-08-28 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8867847B2 (en) 1998-07-13 2014-10-21 Cognex Technology And Investment Corporation Method for fast, robust, multi-dimensional pattern recognition
US8244041B1 (en) 1998-07-13 2012-08-14 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8249362B1 (en) 1998-07-13 2012-08-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
WO2000010119A1 (de) * 1998-08-14 2000-02-24 Christian Eckes Verfahren zum erkennen von objekten in digitalisierten abbildungen
US7113641B1 (en) 1998-08-14 2006-09-26 Christian Eckes Method for recognizing objects in digitized images
DE19837004C1 (de) * 1998-08-14 2000-03-09 Christian Eckes Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen
US7050655B2 (en) 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
US6272231B1 (en) 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6192150B1 (en) 1998-11-16 2001-02-20 National University Of Singapore Invariant texture matching method for image retrieval
US7050624B2 (en) 1998-12-04 2006-05-23 Nevengineering, Inc. System and method for feature location and tracking in multiple dimensions including depth
US6917703B1 (en) 2001-02-28 2005-07-12 Nevengineering, Inc. Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network
US6876364B2 (en) 2001-08-13 2005-04-05 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6853379B2 (en) 2001-08-13 2005-02-08 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6834115B2 (en) 2001-08-13 2004-12-21 Nevengineering, Inc. Method for optimizing off-line facial feature tracking
EP1472645A2 (de) * 2001-12-10 2004-11-03 University of York Bilderkennung
CN1459761B (zh) * 2002-05-24 2010-04-21 清华大学 基于Gabor滤波器组的字符识别技术
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US7190834B2 (en) 2003-07-22 2007-03-13 Cognex Technology And Investment Corporation Methods for finding and characterizing a deformed pattern in an image
WO2005010803A3 (en) * 2003-07-22 2005-06-23 Cognex Corp Methods for finding and characterizing a deformed pattern in an image
US9147252B2 (en) 2003-07-22 2015-09-29 Cognex Technology And Investment Llc Method for partitioning a pattern into optimized sub-patterns
WO2005010803A2 (en) * 2003-07-22 2005-02-03 Cognex Corporation Methods for finding and characterizing a deformed pattern in an image
WO2005064526A1 (de) * 2003-12-30 2005-07-14 RUHR-UNIVERSITäT BOCHUM Verfahren zur bewertung von ähnlichkeiten realer objekte
DE10361838B3 (de) * 2003-12-30 2005-05-25 RUHR-UNIVERSITäT BOCHUM Verfahren zur Bewertung von Ähnlichkeiten realer Objekte
US8437502B1 (en) 2004-09-25 2013-05-07 Cognex Technology And Investment Corporation General pose refinement and tracking tool
US8103085B1 (en) 2007-09-25 2012-01-24 Cognex Corporation System and method for detecting flaws in objects using machine vision
US9659236B2 (en) 2013-06-28 2017-05-23 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
US9679224B2 (en) 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models

Similar Documents

Publication Publication Date Title
DE4406020C1 (de) Verfahren zur automatisierten Erkennung von Objekten
DE69333094T2 (de) Vorrichtung zum Extrahieren von Merkmalen eines Gesichtsbildes
DE19837004C1 (de) Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen
DE60037919T2 (de) Verfahren zum Wiederauffinden von Bildtexturen und Vorrichtung dafür
DE60016589T2 (de) Verfahren und vorrichtung zur erzeugung eines zusammengesetzten fingerabdruckbildes
DE69623581T4 (de) Merkmalextrahierung zur Fingerabdruckerkennung
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
DE19614975A1 (de) Gesichtsbildverarbeitungssystem
DE102006010607A1 (de) Wahrscheinlichkeitstheoretischer Verstärkungsbaum-Rahmen zum Lernen von Unterscheidungsmodellen
DE102009038364A1 (de) Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform
DE602004002837T2 (de) Objekterkennung
WO1999046737A1 (de) Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes
DE102007035884A1 (de) Linienrauschunterdrückungsvorrichtung, -verfahren und -programm
DE102007050568A1 (de) Verfahren und Einrichtung zur Objekterkennung in einem Bild
DE102017220752A1 (de) Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm
EP0886833B1 (de) Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen
DE102006045828B4 (de) Verfahren und Vorrichtung zum Erkennen eines Gesichts sowie ein Gesichtserkennungsmodul
EP2622540A1 (de) Verfahren zur klassifizierung von mustern in bilddatensätzen
EP1282070A1 (de) Hierarchische Bildmodellanpassung
EP1281157A1 (de) Verfahren und anordnung zum ermitteln eines objekts in einem bild
EP1402460B1 (de) Automatische identifikation und/oder verifikation linienhafter texturen wie fingerabdrücke
DE3238300A1 (de) Verfahren und vorrichtung zur muster- oder zeichenerkennung
DE10126375B4 (de) Verfahren und System zur Erkennung von Objekten
DE10361838B3 (de) Verfahren zur Bewertung von Ähnlichkeiten realer Objekte
DE4404775C1 (de) Verfahren zum Betrieb eines hybriden neuronalen Netzwerks zur automatischen Objekterkennung

Legal Events

Date Code Title Description
8100 Publication of patent without earlier publication of application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: ZN VISION TECHNOLOGIES AG, 44801 BOCHUM, DE

8327 Change in the person/name/address of the patent owner

Owner name: VIISAGE TECHNOLOGY AG, 44801 BOCHUM, DE

8339 Ceased/non-payment of the annual fee