DE19610066C1 - Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen - Google Patents
Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von PersonenInfo
- Publication number
- DE19610066C1 DE19610066C1 DE19610066A DE19610066A DE19610066C1 DE 19610066 C1 DE19610066 C1 DE 19610066C1 DE 19610066 A DE19610066 A DE 19610066A DE 19610066 A DE19610066 A DE 19610066A DE 19610066 C1 DE19610066 C1 DE 19610066C1
- Authority
- DE
- Germany
- Prior art keywords
- face
- person
- data
- images
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/30—Individual registration on entry or exit not involving the use of a pass
- G07C9/32—Individual registration on entry or exit not involving the use of a pass in combination with an identity check
- G07C9/37—Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Collating Specific Patterns (AREA)
Description
Auf dem Gebiet der Sicherheitstechnik ist es üblich, Personen
an Hand von persönlichen Merkmalen zu identifizieren oder zu
verifizieren, um ihnen Zugang zu sicherheitsrelevanten Ein
richtungen zu gewähren.
Zu diesen persönlichen Merkmalen gehört auch das Gesicht, das
zur Erfassung von gesichtsbezogenen Daten von einer Kamera
aufgenommen wird. Die digitalen Bilddaten werden dann auf be
sondere Merkmale hin untersucht und ein entsprechender Graph
gebildet, der in einer Datenbank abgespeichert wird und damit
zum Vergleich mit einem jeweils neugebildeten Graphen zur
Verfügung steht. Stimmt ein von einer Person neu abgeleiteter
Graph mit einem abgespeicherten überein, erhält die Person
den gewünschten Zugang.
Es ist bereit s eine Reihe von Gesichtserkennungssystemen be
kannt, wobei die nachfolgende Numerierung sich auf das Lite
raturverzeichnis am Ende der Beschreibung bezieht.
Zu 1:
Der hierin dargestellte Ansatz verwendet zur Erkennung von Gesichtern deren Darstellung in einem Raum von Eigenfaces. Diese Darstellung ist die sogenannte Karhunen-Lo´ve- Transformation (KLT). Sie erfordert eine große Menge von Trainingsmustern. Es seien diese für Bilder der Größe N×N als N²-dimensionale Vektoren - gegeben. Die Basisfunktionen der KLT erhält man dann durch Lösen des Eigenwertproblems
Der hierin dargestellte Ansatz verwendet zur Erkennung von Gesichtern deren Darstellung in einem Raum von Eigenfaces. Diese Darstellung ist die sogenannte Karhunen-Lo´ve- Transformation (KLT). Sie erfordert eine große Menge von Trainingsmustern. Es seien diese für Bilder der Größe N×N als N²-dimensionale Vektoren - gegeben. Die Basisfunktionen der KLT erhält man dann durch Lösen des Eigenwertproblems
Λ = ΦTΣΦ
wobei Σ die Kovarianzmatrix der Datenvektoren, Φ die Eigen
vektor-Matrix von Σ und Λ die Diagonalmatrix der Eigenwerte
ist. Man erhält die neue Darstellung von als
wobei den Mittelwert aller bezeichnet. ΦM ist eine Sub
matrix von Φ, die die führenden M Eigenvektoren, d. h. die
Eigenvektoren zu den M größten Eigenwerten, enthält. In einer
derartigen teilweisen KLT beträgt der Rekonstruktionsfehler
für ein bestimmtes Muster gerade
Diese Größe wird als "distance from feature space" bezeichnet
und zur Lokalisierung des Gesichts innerhalb eines Bildes
verwendet.
Solch ein Eigenface-basiertes System kann durch lokale Varia
tion getäuscht werden. Weiterhin erfordert das System eine
Normalisierungsstufe, die das Gesicht auf eine Standardgröße
bringt. Da das Verfahren auch zur effizienten Kodierung von
Gesichtern für die Videoübertragung verwendet wird, ist eine
Erfassung mehrerer Bilder eines Gesichts mit nur einem Merk
malssatz prinzipiell nicht möglich.
Es werden daher zwei Erweiterungen vorgeschlagen, die diese
Defizite teilweise beheben:
Einerseits wird das Schema der Eigenfaces auf beliebige ande re Merkmale, wie z. B. Augen, Nase, Mund etc., des Gesichts ausgedehnt. Werden diese modularen Eigenvektor-Darstellungen mit den Eigenfaces kombiniert, ergibt sich zwar eine bessere Erkennungsleistung, jedoch wird der bei jeder abbrechenden Eigenvektorentwicklung sich ergebende Nachteil, nämlich daß die erneute Berechnung der Eigenvektoren erforderlich wird, sobald neue Gesichter hinzukommen, nicht aufgehoben.
Einerseits wird das Schema der Eigenfaces auf beliebige ande re Merkmale, wie z. B. Augen, Nase, Mund etc., des Gesichts ausgedehnt. Werden diese modularen Eigenvektor-Darstellungen mit den Eigenfaces kombiniert, ergibt sich zwar eine bessere Erkennungsleistung, jedoch wird der bei jeder abbrechenden Eigenvektorentwicklung sich ergebende Nachteil, nämlich daß die erneute Berechnung der Eigenvektoren erforderlich wird, sobald neue Gesichter hinzukommen, nicht aufgehoben.
Andererseits wird versucht, mit Hilfe multipler Beobachter
eine Erkennung zu realisieren, die von der Kopfrotation der
Person unabhängig ist. In dem verwendeten formalen Rahmen be
deutet dies, daß für jeden dieser Beobachter die Koeffizien
ten der Entwicklung in dem zugehörigen Vektorraum bekannt
sein müssen. Multiple Beobachter erfordern also multiple KLT
und multiple Kodierungen. Für eine zu erfassende Person sind
daher mehrere Datensätze zu speichern, was einen entsprechen
den Aufwand an Speicherkapazität und Verarbeitungszeit erfor
dert.
Zu 2:
Das hierin beschriebene Verfahren zur Gesichtserkennung ba siert im wesentlichen auf der Verwendung eines 2-Kamera- Systems zur Segmentierung. Als Merkmalsdetektoren werden Richtungsableitungen der zweidimensionalen Gaußfunktion ver wendet. Der Startpunkt für die Definition und Konstruktion der Merkmalsdetektoren ist die bekannte Gaußfunktion
Das hierin beschriebene Verfahren zur Gesichtserkennung ba siert im wesentlichen auf der Verwendung eines 2-Kamera- Systems zur Segmentierung. Als Merkmalsdetektoren werden Richtungsableitungen der zweidimensionalen Gaußfunktion ver wendet. Der Startpunkt für die Definition und Konstruktion der Merkmalsdetektoren ist die bekannte Gaußfunktion
Sie ist um x=0 mit einer Varianz σ² lokalisiert. Die ein
zelnen Detektoren sind Richtungsableitungen von G(x)G(y), dem
2-dimensionalen Analogon von G(x). Man bezeichnet sie übli
cherweise mit wobei n die Ordnung der Ableitung und
θk=kπ/(n+1) mit k=0, . . ., n ihre Richtung bezeichnet. Es werden
Ableitungen der Ordnung 1 bis 3 verwendet.
Das System arbeitet als Identifikationssystem und die Asso
ziationsleistung wird von einem spärlich besetzten verteilten
topographischen Speicher (SDM) erbracht. Zwar werden zum
Training des SDM mehrere Bilder für jede Person verwendet,
jedoch ist die erfaßte Information nicht nach Personen sepa
rierbar. Daher gibt es keine kompakte Darstellung des Ausse
hens einer einzelnen Person, wie es in einem Verifikationssy
stem erforderlich wäre.
Zu 3:
Das dargestellte System kann nur Folgen von Videobildern bei der Erkennung verarbeiten. Weiterhin werden als die Gesichter unterscheidende Merkmale die Koeffizienten einer Entwicklung der Oberfläche der Gesichter in 3-dimensionale Eigenköpfe verwendet. Somit zeigt das Verfahren die von den Eigenfaces bekannten Vor- und Nachteile.
Das dargestellte System kann nur Folgen von Videobildern bei der Erkennung verarbeiten. Weiterhin werden als die Gesichter unterscheidende Merkmale die Koeffizienten einer Entwicklung der Oberfläche der Gesichter in 3-dimensionale Eigenköpfe verwendet. Somit zeigt das Verfahren die von den Eigenfaces bekannten Vor- und Nachteile.
Zu 4:
Bei diesem System wird der Vergleich zwischen dem zu erken nenden Bild und dem gespeicherten Bild durch einen flexiblen Abbildungsmechanismus realisiert. Zum Vergleich werden durch unspezifische Merkmalsdetektoren extrahierte lokale Merkmale des Gesichts verwendet. Die Gitterpositionen, an denen die Merkmale extrahiert werden, sind nicht explizit festgelegt, sondern variabel, wobei die Gitterverzerrung in der Ver gleichsfunktion enthalten ist.
Bei diesem System wird der Vergleich zwischen dem zu erken nenden Bild und dem gespeicherten Bild durch einen flexiblen Abbildungsmechanismus realisiert. Zum Vergleich werden durch unspezifische Merkmalsdetektoren extrahierte lokale Merkmale des Gesichts verwendet. Die Gitterpositionen, an denen die Merkmale extrahiert werden, sind nicht explizit festgelegt, sondern variabel, wobei die Gitterverzerrung in der Ver gleichsfunktion enthalten ist.
Die Positionierung der Gitterpunkte ergibt sich als Resultat
eines globalen Optimierungsprozesses mit der Kostenfunktion
E = Esim + λEtop,
wobei der erste Term Esim die Ähnlichkeit extrahierter Merk
malsvektoren (Jets) an jeweils korrespondierenden Gitterposi
tionen und der zweite Term Etop die Gitterverzerrungskosten
quantifiziert. Hier wird also ein bewegliches Gitter verwen
det.
Dieses Verfahren hat daher folgende Nachteile:
Es funktioniert nicht bei komplexen Hintergründen, da das Gitter mit den Merkmalsdetektoren nicht ausschließlich das Gesicht überdeckt. Auch besteht innerhalb des formalen Rah mens keine Möglichkeit, mehrere Bilder mit nur einem Merk malssatz zu erfassen. Weiterhin kann wegen der Vernach lässigung von Phaseninformation in der Konstruktion der Jets der Referenzdatensatz nicht zur Rekonstruktion des Gesichts verwendet werden.
Es funktioniert nicht bei komplexen Hintergründen, da das Gitter mit den Merkmalsdetektoren nicht ausschließlich das Gesicht überdeckt. Auch besteht innerhalb des formalen Rah mens keine Möglichkeit, mehrere Bilder mit nur einem Merk malssatz zu erfassen. Weiterhin kann wegen der Vernach lässigung von Phaseninformation in der Konstruktion der Jets der Referenzdatensatz nicht zur Rekonstruktion des Gesichts verwendet werden.
Zu 5:
Das in der Patentschrift erwähnte Verfahren zur Erfassung und Wiedererkennung von Gesichtern basiert ebenso wie (1) auf dem Eigenface-Ansatz und ist somit ebenso nicht zur Erfassung mehrerer Bilder einer Person in einem kompakten Code geeig net. Als "Merkmale" gelten hier wie auch im modularen Ansatz von (1) tatsächliche, für den Menschen sichtbare und klar de finierte Teile des Gesichts, wie z. B. Augen oder Augenbrauen. Außerdem wird ein dualer Code verwendet, der einerseits die absolute Position eines Merkmals ("off set") andererseits de ren spezifisches Aussehen ("reference vertex") beschreibt. Um diese Merkmale zu finden, werden "intelligente" Mustererken nungstechniken (Stichwort "snake") angewandt.
Das in der Patentschrift erwähnte Verfahren zur Erfassung und Wiedererkennung von Gesichtern basiert ebenso wie (1) auf dem Eigenface-Ansatz und ist somit ebenso nicht zur Erfassung mehrerer Bilder einer Person in einem kompakten Code geeig net. Als "Merkmale" gelten hier wie auch im modularen Ansatz von (1) tatsächliche, für den Menschen sichtbare und klar de finierte Teile des Gesichts, wie z. B. Augen oder Augenbrauen. Außerdem wird ein dualer Code verwendet, der einerseits die absolute Position eines Merkmals ("off set") andererseits de ren spezifisches Aussehen ("reference vertex") beschreibt. Um diese Merkmale zu finden, werden "intelligente" Mustererken nungstechniken (Stichwort "snake") angewandt.
Zu 6:
Das hier beschriebene Verfahren erweitert den in (4) be schriebenen Ansatz um eine Gewichtung der Gitterpositionen. Diese Gewichtung ist eindeutig für eine bestimmte Aufgabe und modifiziert die bisherige Ähnlichkeitsfunktion. Die Gewichte sind daher nicht Bestandteil des Referenzdatensatzes für eine erfaßte Person. Weiterhin erfolgt keine Spezifikation der Qualitätsfunktion Q zur Optimierung der Gewichte. Es ist le diglich angegeben, daß die Datenmenge T, die der Optimierung zugrunde liegt, nur jeweils Paare von Bildern verschiedener Personen enthält. Damit kann allenfalls ein konventionelles Erkennungsexperiment durchgeführt werden, und die Berücksich tigung mehrerer Bilder bei der Erfassung ist ausgeschlossen.
Das hier beschriebene Verfahren erweitert den in (4) be schriebenen Ansatz um eine Gewichtung der Gitterpositionen. Diese Gewichtung ist eindeutig für eine bestimmte Aufgabe und modifiziert die bisherige Ähnlichkeitsfunktion. Die Gewichte sind daher nicht Bestandteil des Referenzdatensatzes für eine erfaßte Person. Weiterhin erfolgt keine Spezifikation der Qualitätsfunktion Q zur Optimierung der Gewichte. Es ist le diglich angegeben, daß die Datenmenge T, die der Optimierung zugrunde liegt, nur jeweils Paare von Bildern verschiedener Personen enthält. Damit kann allenfalls ein konventionelles Erkennungsexperiment durchgeführt werden, und die Berücksich tigung mehrerer Bilder bei der Erfassung ist ausgeschlossen.
Die Gitterpositionen selbst ergeben sich vergleichbar dem
Verfahren nach (4) als Resultat eines globalen Optimierungs
prozesses, der das gesamte Gitter umfaßt. Die Lage eines ein
zelnen Gitterpunktes ist also nicht Resultat eines expliziten
Detektionsprozesses und somit an die Existenz eines lokalen
Merkmals gebunden, sondern ergibt sich aus dem kooperativen
Verhalten des beweglichen Gitters.
Die Erfindung hat ein Verfahren zur Erfassung
von gesichtsbezogenen Personendaten und deren Verwendung zur
Identifizierung oder Verifikation in Zugangskontrollsystemen
zum Gegenstand, das Merkmale der vorangehend genannten Syste
me aufgreift und wesentlich erweitert, sowie eine schnelle
und robuste Erkennung von menschlichen Gesichtern aus Stand
bildern unter natürlicher Beleuchtung ermöglicht.
Ein entsprechendes Verfahren ergibt sich aus den Merkmalen
des Anspruches 1.
Danach werden die gesichtsbezogenen Daten nicht von einem
einzigen Bild, sondern von einer Reihe von Bildern der zu er
fassenden Person abgeleitet, und das zu überlagernde Gitter
orientiert sich mit seinen Gitterpunkten an der Lage der Au
gen, die am einfachsten von den Gesichtsmerkmalen zu lokali
sieren sind.
Anhand der extrahierten Merkmale je Gitterpunkt werden dann
ein repräsentativer Merkmalssatz für alle Bilder sowie opti
mierte Gewichte für jeden Gitterpunkt berechnet, um die
Gleichfehlerrate möglichst klein zu halten. Das bedeutet im
Einzelnen:
Für jedes aufgenommene Bild i werden dabei d bestimmte Merk malsdetektoren, z. B. solche wie in (2), an jedem Gitterpunkt g und für jede Auflösungsstufe k einer festen Menge von Auflö sungsstufen des Bildes angewandt, so daß sich d-dimensionale Vektoren i (g, k) ergeben. Ein Merkmal ist hier eine Komponente eines solchen Vektors und daher im Gegensatz zu (5) die Ant wort eines unspezifischen Merkmalsdetektors. Damit sind die Merkmale im Gesicht nicht klar lokalisiert, sondern man könnte sie statt dessen als delokalisiert bezeichnen.
Für jedes aufgenommene Bild i werden dabei d bestimmte Merk malsdetektoren, z. B. solche wie in (2), an jedem Gitterpunkt g und für jede Auflösungsstufe k einer festen Menge von Auflö sungsstufen des Bildes angewandt, so daß sich d-dimensionale Vektoren i (g, k) ergeben. Ein Merkmal ist hier eine Komponente eines solchen Vektors und daher im Gegensatz zu (5) die Ant wort eines unspezifischen Merkmalsdetektors. Damit sind die Merkmale im Gesicht nicht klar lokalisiert, sondern man könnte sie statt dessen als delokalisiert bezeichnen.
Im nächsten Schritt werden jeweils mehrere Vektoren i (g, k) zu
neuen Vektoren zusammengefaßt, die im folgenden als Merk
malsvektoren bezeichnet werden. Hierbei gibt es verschiedene
Möglichkeiten: Beispielsweise kann die Zusammenfassung für
jeden Gitterpunkt über mehrere Auflösungsstufen oder für je
de Auflösungsstufe über mehrere Gitterpunkte erfolgen; denk
bar ist auch eine Kombination dieser beiden Techniken. Die
einfachste Möglichkeit ist, als Merkmalsvektoren die Vekto
ren i (g, k) selbst zu verwenden.
In jedem Falle existieren nach der Zusammenfassung Merkmals
vektoren i q, q=1,. . .,Nq wobei Nq die Zahl der Merkmalsvektoren
bezeichnet. Vor der weiteren Verarbeitung sind die Merk
malsvektoren auf Länge 1 zu normieren; im folgenden wird da
her angenommen, daß i -q)² = 1 gilt.
In einem Mittelungsprozeß werden diese Sätze von Merkmalen
aller aufgenommenen Bilder zu einem repräsentativen Referenz
merkmalssatz zusammengefaßt. Dieser repräsentative Referenz
merkmalssatz kann durch unterschiedliche Mittelungsschemata er
zeugt werden. Betrachtet man nämlich i q als Satz normierter
Merkmalsvektoren einer festen Person für die unterschiedli
chen Trainingsbilder i=1, . . ., N und für ein festes q, so erhält
man (im Folgenden ist zur Vereinfachung der Notation der In
dex q weggelassen) einen repräsentativen Datensatz = Σiλi i
durch die Minimierung einer Funktion V, die die Breite der
Selbstähnlichkeit pÿ = -i · j aller Merkmalsvektoren quantifi
ziert, wobei die Normalisierungsnebenbedingung ² = 1 eingehal
ten werden muß. Im Fall V=Σi · i ergibt sich ∝ Σi i, während
sich für V=Σi · i)² die Koeffizienten als Eigenvektor der
Matrix P=(pÿ) ergeben, der zum größten Eigenwert gehört. Diese
Art Eigenvektor hat aber nichts mit einer KLT zu tun.
Alternativ kann derjenige Merkmalssatz unter den Merkmalssät
zen der aufgenommenen Bilder als neuer repräsentativer Refe
renzmerkmalssatz bestimmt und verwendet werden, der den
kleinsten Abstand, z. B. den kleinsten euklidischen Abstand,
zu dem nach einer der vorhergehend beschriebenen Methoden er
mittelt wurde.
Die Gesamtähnlichkeit eines Referenzmerkmalssatzes zu dem
Merkmalssatz aus Bild i ergibt sich als gewichtete Summe der
einzelnen Ähnlichkeiten
pi q = i q · q
zum jeweiligen Referenzmerkmalsvektor q) in der Form
Die einzelnen Gewichte sind nicht negativ und ihre Summe be
trägt 1.
Zusätzlich können auch die einzelnen Merkmale gewichtet wer
den. Dazu wird jedem Referenzmerkmalsvektor q eine Diago
nalmatrix Cq zugeordnet, deren Diagonalelemente die Gewichte
für jede Komponente von q und damit für jedes einzelne
Merkmal darstellen. Die Gewichtung erfolgt dann durch Multi
plikation der Matrix mit dem Referenzmerkmalsvektor.
Auch der gewichtete Referenzmerkmalsvektor muß auf Länge 1
normiert sein, d. h. es muß (Cq q)²=1 gelten. Die einzelnen
Ähnlichkeiten pi q ergeben sich dann nach folgender Gleichung:
pi q = i q · Cq q.
Die Berechnung von personenabhängigen Gewichten, die eben
falls Teil der später abgespeicherten gesichtsbezogenen Daten
sind, ist auf die spezielle Aufgabe zugeschnitten und berück
sichtigt Informationen aus den aufgenommenen Bildern und ei
ner Hintergrunddatenbank von Merkmalssätzen, was im Folgenden
beschrieben wird.
Das Ziel jeden Verifikations- oder Identifikationssystems
ist, gleichzeitig die Rate der falschen Zurückweisungen
(false rejection rate, FRR, χ(1)) und die Rate der falschen
Akzeptierungen (false acceptance rate, FAR, χ(2)) möglichst
gering zu halten. In unserem System sind beides Funktionen
der Akzeptanzschwelle λ und definiert als
mit θ(x) als Heavisidesche Stufenfunktion. Hier ist NA die
Anzahl der unterschiedlichen Bilder von Person A, die bei
der Erfassung aufgenommen werden, während NB die Anzahl der
Merkmalssätze von Bildern anderer Personen in der Hinter
grunddatenbank ist. pi q bezeichnet die Ähnlichkeit des Merk
malsvektors i q des Bildes i von Person A zum Referenzmerk
malsvektor q und rj q den entsprechenden Wert für eine Person
B≠A.
Das oben genannte Ziel kann durch Bestimmung solcher perso
nenabhängigen Gewichte erreicht werden, die eine geeignete
Zielfunktion optimieren. Sinnvolle Zielfunktionen sind bei
spielsweise die Summe der beiden Fehlerraten (FAR und FRR)
oder die Gleichfehlerrate (equal error rate, EER), der Funk
tionswert also, für dessen Argument FAR und FRR gleich sind.
Eine andere Zielfunktion geht direkt aus von der Menge der
Gesamtähnlichkeiten zwischen dem Referenzmerkmalssatz von
Person A und den Bildern von A (pi=Σqwqpi q) sowie von der
Menge der Gesamtähnlichkeiten zwischen diesem Referenzmerk
malssatz und den Merkmalssätzen aus der Hintergrunddatenbank
(rj=Σqwqrj q) und quantifiziert das Ausmaß der Trennung dieser
Mengen:
Hierbei bezeichnen i und j die jeweiligen Mittelwerte der
Gesamtähnlichkeiten über alle i bzw. j sowie Var(pi) und
Var(rj) die jeweiligen Varianzen.
Alle drei genannten Zielfunktionen ergeben sich bei gegebenen
p und r als Funktionen der Gewichte. Zusätzlich zu den Ge
wichten muß noch der optimale Schwellwert bestimmt werden:
Bei den beiden erstgenannten Zielfunktionen ergibt er sich bei der Optimierung der Gewichte, bei der dritten Zielfunkti on kann er nach der Gewichtsoptimierung z. B. als Ort der Gleichfehlerrate gewählt werden.
Bei den beiden erstgenannten Zielfunktionen ergibt er sich bei der Optimierung der Gewichte, bei der dritten Zielfunkti on kann er nach der Gewichtsoptimierung z. B. als Ort der Gleichfehlerrate gewählt werden.
Optimierungsverfahren mit Bestimmung von Gewichten sind be
kannt, z. B. als stochastische Suche im Raum der möglichen Ge
wichte, siehe z. B. "Numerical Recepis in C" von Press et al,
Cambridge University Press, 2. Auflage 1993.
Weiterbildungen der Erfindung ergeben sich aus den Unteran
sprüchen, die sich u. a. auf die unterschiedlichen Möglichkei
ten für die Berechnung repräsentativer Referenzmerkmalssätze
und auf die zusätzliche Verwendung der Nasenlage für die Be
stimmung der Gitterpunktpositionen beziehen.
Einzelheiten der Erfindung seien nachfolgend an Hand von in
der Zeichnung dargestellten Verfahrensabläufen näher erläu
tert. Im einzelnen zeigen
Fig. 1A das Flußdiagramm eines Bilderfassungsprozesses,
Fig. 1B das Flußdiagramm eines anschließenden Optimierungs
prozesses und
Fig. 2 das Flußdiagramm für eine Verifikation.
In diesen Flußdiagrammen sind die einzelnen Verfahrensschrit
te fortlaufend numeriert und die nachfolgende Erläuterung ist
entsprechend dieser Numerierung gegliedert.
Mit Bezug auf Fig. 1A sind das folgende Verfahrensschritte:
- 1. Innerhalb der durch das System vorgegebenen Zeit von 10 Sekunden werden 8 Bilder aufgenommen. Für jedes zweite Bild werden dabei sofort die Augen lokalisiert. Bei den übrigen Bildern wird nur das Gesicht lokalisiert.
- 2. Die extrahierten Augenpositionen dienen dann zur Beurtei lung, ob der Erfassungsprozeß erfolgreich war. Ein Erfas sungsprozeß ist erfolgreich, falls die Augen in mindestens 3 der 4 Bilder gefunden wurden und gleichzeitig die Varianz der extrahierten Augenpositionen eine Schwelle überschreitet.
- 3. Sollte dies der Fall sein, ist die Erfassung beendet.
- 4. Im anderen Fall werden alle Bilder gespeichert, außer den jenigen, bei denen keine Augen lokalisiert werden konnten.
- 5. Wiederum werden 8 Bilder aufgenommen, von denen 4 der Au genfindung unterworfen werden. Wie bei der ersten Gruppe von 8 Bildern wird die Varianz der Augenpositionen berechnet.
- 6. Diese gilt zusammen mit der Anzahl der Bilder, bei denen der Augenfinder erfolgreich war, als Kriterium, ob die Erfas sung erfolgreich war.
- 7. Im positiven Fall ist die Erfassung beendet.
- 8. Sollte dies nicht der Fall sein, so werden die Bilder mit lokalisierten Augen gespeichert.
- 9. siehe 5.
- 10. siehe 6.
- 11. siehe 7.
- 12. Falls die in 2. erwähnten Bedingungen nach keinem der drei Erfassungsschritte erfüllt wurde, gilt die Erfassung als nicht erfolgreich, und der Benutzer wird entsprechend infor miert.
Bei erfolgreich abgeschlossener Erfassung der vorgegebenen
Anzahl von Bildern wird auf den Optimierungsprozeß von Fig. 1B
übergeleitet:
- 13. Bei den abgespeicherten Bildern, bei denen bisher keiner
lei Verarbeitung durchgeführt wurde, wird nun versucht, das
Gesicht und dann die Augen zu lokalisieren. Bilder, bei denen
dieses nicht möglich ist, werden verworfen, und es werden die
Augenpositionen zu den übrigen Bildern abgespeichert.
Bei allen danach gültigen Bildern werden die Position und die Skalierung des Gesichts bezüglich der Augenpositionen norma lisiert, indem das jeweilige Bild rotiert und skaliert wird, bis die Augen innerhalb des Bildes auf einer horizontalen Li nie liegen und einen vorgegebenen Abstand aufweisen. Für Bilder, bei denen die Augen gefunden wurden, werden auf verschiedenen Auflösungsstufen die Merkmalssätze bestimmt. - 14. Auf jeder Auflösungsstufe werden an jedem Gitterpunkt die Referenzmerkmale durch Mittelung über die Merkmale der ein zelnen Bilder bestimmt.
- 15. Zu Beginn des Optimierungsprozesses werden die relativen Gewichte der Gitterpunkte mit dem Kehrwert der Anzahl der Gitterpunkte initialisiert. Der Zähler i für die Optimie rungsschritte wird auf 0 gesetzt.
- 16. Für alle Auflösungsstufen wird die EER (equal error rate, Kreuzungspunkt der Kurven für falsche Akzeptanz und falsche Zurückweisung) des Referenzmerkmalssatzes berechnet und unter EER(i) abgespeichert. Die Datenbank für diese Berechnung be steht aus den Merkmalssätzen aller bei der Erfassung akzep tierten Bilder und einer Datenbank von Merkmalen für andere Personen.
- 17. Wahl einer zufälligen Kombinationen von Gewichten für die Gitterpunkte. Der Schleifenzähler i wird um 1 erhöht.
- 18. Sollte die maximale Anzahl von Schleifendurchläufen über schritten sein, ist die Optimierung beendet und es wird mit Schritt 22 fortgesetzt.
- 19. Die neuen Merkmale mit geringster EER, sowie die Schwel len für jede Auflösungsstufe werden gespeichert.
- 20. Für die zufällige Wahl der Gewichte werden die EERs und die Schwellwerte auf allen Auflösungsstufen berechnet. Die jeweiligen Resultate werden als EER(i) abgespeichert.
- 21. Falls die neuen Fehlerraten geringer sind als die alten als beste gespeicherten, so wird mit Schritt 19 fortgesetzt. Im anderen Falle folgt Schritt 17.
- 22. Nach Beendigung der Optimierung werden die Gewichte der Gitterpunkte für die niedrigste EER gespeichert. Ebenfalls gespeichert wird die Auflösungsstufe, auf der diese niedrig ste Rate auftrat, sowie der zugehörige personenabhängige Schwellwert.
Das Verfahren für die Verifikation einer Person umfaßt gemäß
dem Flußdiagramm von Fig. 2 folgende Schritte:
- 31. Die PIN (personal identification number, persönliche Identifikationsnummer) der Person wird eingelesen.
- 32. Es wird kontrolliert, ob es sich um eine gültige Benut zernummer handelt.
- 33. Falls die Nummer dem System nicht bekannt ist, wird die Person zurückgewiesen.
- 34. Es wird kontrolliert, ob die eingegebenen Nummer zu einer autorisierten Person gehört.
- 35. Sollte das nicht der Fall sein, wird die Person abgewie sen.
- 36. Die Kamera nimmt ein Bild der Person auf, das über einen Framegrabber an den Computer weitergegeben wird.
- 37. Im aufgenommenen Bild wird versucht, ein Gesicht zu loka lisieren.
- 38. Die Ausgabe der Gesichtslokalisierung wird bewertet.
- 39. Wenn kein Gesicht gefunden wurde, wird die Person abge wiesen.
- 40. Der Augenfinder versucht, innerhalb des Bildes Augen zu finden.
- 41. Die Ausgabe der Augenfindung wird bewertet.
- 42. Falls keine Augen gefunden wurden, wird die Person abge wiesen.
- 43. Die Position und die Skalierung des Gesichts werden be züglich der Augenpositionen normalisiert. Nach der Normali sierung liegen die Augen innerhalb des Bildes auf einer hori zontalen Linie und haben einen festen, vorgegebenen Abstand. Dazu wird das Bild rotiert und skaliert.
- 44. Die Merkmale werden auf der Auflösungsstufe extrahiert, die für die entsprechende Person während der Erfassung als optimal ermittelt wurde.
- 45. Zwischen dem Satz der Referenzmerkmale und den aus dem aktuellen Bild extrahierten Merkmalen wird die Ähnlichkeit berechnet. Dabei werden die als optimal bestimmten Gewichte der Gitterpunkte berücksichtigt.
- 46. Die ermittelte Ähnlichkeit wird mit der personenspezifi schen Schwelle verglichen.
- 47. Falls die Ähnlichkeit unterhalb der erforderlichen Schwelle liegt, wird die Person zurückgewiesen.
- 48. Falls die Ähnlichkeit über der Schwelle liegt, wird die Person akzeptiert.
Analoges gilt für die Identifizierung des Gesichts einer un
bekannten Person mit Bezug darauf, ob die Person in der Da
tenbank für erfaßte Personen enthalten ist oder nicht.
Literaturverzeichnis:
Literaturverzeichnis:
- 1. B. Moghaddam und A. Pentland, Face Recognition using View- Based and Modular Eigenspaces, Automatic Systems for the Identification and Inspection of Humans, SPIE Vol. 2277, Juli 1994;
- 2. R. P. N. Rao und D. H. Ballard: "Natural Basis Functions and Topographic Memory for Face Recognition", Proceedings of the International Joint Conference on Artificial Intelligence (IJCAI), 1995, pp. 10-17;
- 3. J. J. Atick, P. A. Griffin, A. N. Redlich: "Statistical Ap proach to Shape from Shading: Reconstruction of 3D Face Sur faces from Single 2D Images", Neural Computation 8, pp. 1321-1340, 1996;
- 4. W. Konen, E. Schulze Krüger: "ZN-Face: A system for access control using automated face recognition", International Workshop on automatic Face- and Gesture-Recognition, Zürich, June 26.-28., 1995, pp. 18-23. Dazu auch DE 44 06 020 C1;
- 5. PCT-Anmeldung Wo 92/02000 A1;
- 6. Mustererkennung 1995, Informatik aktuell, Springer Verlag, S. 110-117.
Claims (6)
1. Verfahren zur Erfassung gesichtsbezogener Personendaten,
gekennzeichnet durch folgende Verfah
rensschritte:
- - Aufnahme mehrerer Bilder von der zu erfassenden Person,
- - Lokalisieren des Gesichtes in den aufgenommenen Bildern,
- - Lokalisieren der Augen im lokalisierten Gesicht,
- - Normalisieren des Gesichts durch Rotieren und Skalieren des jeweiligen Bildes, bis die Augen innerhalb des Bildes auf einer horizontalen Linie mit vorgegebenem Abstand liegen,
- - Extraktion von Merkmalen durch Merkmalsdetektoren mit Bezug auf Gitterpunkte eines Gitters, wobei die Positionen der Gitterpunkte durch die Lage der Augen bestimmt sind, mit Zusammenfassung der Merkmale zu einem Merkmalssatz für das jeweilige Bild,
- - Berechnung eines repräsentativen Referenzmerkmalssatzes, der die Merkmalssätze aller aufgenommenen Bilder auf kom pakte Weise zusammenfaßt,
- - Optimierung von personenabhängigen Gewichten für jeden Re ferenzmerkmalssatz zwecks Optimierung einer Zielfunktion, die eine Funktion dieser Gewichte sowie der Ähnlichkeits werte zwischen dem Referenzmerkmalssatz und denjenigen Merkmalssätzen darstellt, die aus den aufgenommenen Bildern derselben Person und den Bildern anderer Personen aus einer Hintergrunddatenbank gewonnen wurden, mit Bestimmung einer optimalen Akzeptanzschwelle,
- - Abspeicherung der so ermittelten gesichtsbezogenen Daten der erfaßten Person.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet, daß die Be
rechnung eines repräsentativen Referenzmerkmalssatzes mittels
Durchschnittsbildung und Normalisierung mit Bezug auf alle
Bilder der zu erfassenden Person erfolgt.
3. Verfahren nach Anspruch 1,
dadurch gekennzeichnet, daß die Be
rechnung eines repräsentativen Referenzmerkmalssatzes mittels
Ableitung des Eigenvektors zum größten Eigenwert der Ähnlich
keitsmatrix erfolgt.
4. Verfahren nach einem der Ansprüche 1 bis 3,
dadurch gekennzeichnet, daß die Posi
tionen der Gitterpunkte zusätzlich durch die Lage der Nase
bestimmt werden.
5. Verfahren nach einem der Ansprüche 1 bis 4,
gekennzeichnet durch die Verwendung der
erfaßten und abgespeicherten gesichtsbezogenen Personendaten
zur Personenidentifizierung, indem jeweils neu erfaßte Merk
malsdaten mit den gespeicherten Referenzdaten verglichen wer
den.
6. Verfahren nach einem der Ansprüche 1 bis 4,
gekennzeichnet durch die Verwendung der
erfaßten und abgespeicherten gesichtsbezogenen Personendaten
zur Personenverifizierung, indem jeweils neu erfaßte Merk
malsdaten mit den durch eine zusätzliche persönliche Kennung
ausgezeichneten gespeicherten Referenzdaten verglichen wer
den.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19610066A DE19610066C1 (de) | 1996-03-14 | 1996-03-14 | Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen |
PCT/DE1997/000488 WO1997034251A1 (de) | 1996-03-14 | 1997-03-12 | Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen |
EP97916342A EP0886833B1 (de) | 1996-03-14 | 1997-03-12 | Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen |
DE59700974T DE59700974D1 (de) | 1996-03-14 | 1997-03-12 | Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19610066A DE19610066C1 (de) | 1996-03-14 | 1996-03-14 | Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19610066C1 true DE19610066C1 (de) | 1997-09-18 |
Family
ID=7788288
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19610066A Expired - Lifetime DE19610066C1 (de) | 1996-03-14 | 1996-03-14 | Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen |
DE59700974T Expired - Fee Related DE59700974D1 (de) | 1996-03-14 | 1997-03-12 | Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE59700974T Expired - Fee Related DE59700974D1 (de) | 1996-03-14 | 1997-03-12 | Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP0886833B1 (de) |
DE (2) | DE19610066C1 (de) |
WO (1) | WO1997034251A1 (de) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998022913A2 (de) * | 1996-11-19 | 1998-05-28 | Fingerpin Ag | Verfahren und vorrichtung zur identifikation und wiedererkennung von lebewesen und/oder gegenständen |
DE19810792A1 (de) * | 1998-03-12 | 1999-09-16 | Zentrum Fuer Neuroinformatik G | Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes |
DE19921387A1 (de) * | 1999-05-10 | 2000-11-23 | Siemens Ag | Anordnung und Verfahren zum Vergleich von Biometrik-Daten |
DE19936097A1 (de) * | 1999-07-30 | 2001-02-08 | Giesecke & Devrient Gmbh | Verfahren, Vorrichtung und System zur biometrischen Authentisierung einer Person |
DE19936400A1 (de) * | 1999-08-03 | 2001-03-01 | Infineon Technologies Ag | Verfahren zur biometrischen Erkennung |
DE10022570A1 (de) * | 2000-05-09 | 2001-11-15 | Giesecke & Devrient Gmbh | Verfahren und System zur Generierung eines Schlüsseldatensatzes |
DE10037742A1 (de) * | 2000-08-02 | 2002-02-14 | Gunter Ritter | System zur Erkennung und Klassifizierung von Objekten |
EP1350231A1 (de) * | 2000-12-08 | 2003-10-08 | Igt | Casino-spielsystem mit biometrischer zugangssteuerung |
WO2007090727A1 (de) | 2006-02-06 | 2007-08-16 | Bundesdruckerei Gmbh | Verfahren zur bewertung der qualität eines bildes, verfahren zur herstellung eines dokuments computerprogrammprodukt, nutzer-schnittstelle, datei und elektronisches gerät |
DE102006021518A1 (de) * | 2006-05-04 | 2007-11-15 | LÜTH & DÜMCHEN Automatisierungsprojekt GmbH | Räumlich und zeitlich verteilte Einrichtungen und Verfahren zur Gesichtserkennung zwecks Identifikation oder Verifikation |
DE202023104167U1 (de) | 2023-07-25 | 2023-08-07 | Ulrich Wennemann | Identifikationselement zum Digitalisieren und Identifizieren eines Menschen oder eines Tieres |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101130817B1 (ko) * | 2011-09-27 | 2012-04-16 | (주)올라웍스 | 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체 |
US11238684B2 (en) | 2017-04-10 | 2022-02-01 | Inventio Ag | Access control system for radio and facial recognition |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1992002000A1 (en) * | 1990-07-17 | 1992-02-06 | British Telecommunications Public Limited Company | A method of processing an image |
DE4406020C1 (de) * | 1994-02-24 | 1995-06-29 | Zentrum Fuer Neuroinformatik G | Verfahren zur automatisierten Erkennung von Objekten |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5164992A (en) * | 1990-11-01 | 1992-11-17 | Massachusetts Institute Of Technology | Face recognition system |
-
1996
- 1996-03-14 DE DE19610066A patent/DE19610066C1/de not_active Expired - Lifetime
-
1997
- 1997-03-12 EP EP97916342A patent/EP0886833B1/de not_active Expired - Lifetime
- 1997-03-12 DE DE59700974T patent/DE59700974D1/de not_active Expired - Fee Related
- 1997-03-12 WO PCT/DE1997/000488 patent/WO1997034251A1/de active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1992002000A1 (en) * | 1990-07-17 | 1992-02-06 | British Telecommunications Public Limited Company | A method of processing an image |
DE4406020C1 (de) * | 1994-02-24 | 1995-06-29 | Zentrum Fuer Neuroinformatik G | Verfahren zur automatisierten Erkennung von Objekten |
Non-Patent Citations (5)
Title |
---|
ATICK, J.J., GRIFFIN, P.A., REDLICH, A.N.: "Statistical Approach to Shape from Shading: Reconstruction of 3D Face Surfaces from Single 2D Images" Computational Neuroscience Laboratory, The Rockefeller University, NY 10021-6399 * |
KONEN, W., SCHULZE-KRÜGER, E.: "ZN Face: A system for access control using automated face recogni- tion" Intern. Workshop on Automatic Face- and Gesture-Recognition, Zurich, June 26-28, 1995, Proc., S. 18-23 * |
MOGHADDAM, B., PENTLAND, A.: "Face Recognition using View- Based and Modular Eigenspaces", Automatic Systems for the Identification and Inspection of Humans, SPIE Vol. 2277, Juli 1994 * |
Mustererkennung 1995, Informatik aktuell, Springer Verlag, S. 110-117 * |
RAO, R.P.N., BALLARD, D.H.: "Natural Basis Functions and Topographic Memory for Face Recognition", Proc. of the Joint Conference on Artificial Intelligence, 1995, S. 10-17 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998022913A3 (de) * | 1996-11-19 | 1998-08-27 | Fingerpin Ag | Verfahren und vorrichtung zur identifikation und wiedererkennung von lebewesen und/oder gegenständen |
WO1998022913A2 (de) * | 1996-11-19 | 1998-05-28 | Fingerpin Ag | Verfahren und vorrichtung zur identifikation und wiedererkennung von lebewesen und/oder gegenständen |
DE19810792A1 (de) * | 1998-03-12 | 1999-09-16 | Zentrum Fuer Neuroinformatik G | Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes |
DE19921387C2 (de) * | 1999-05-10 | 2001-07-19 | Infineon Technologies Ag | Anordnung und Verfahren zum Vergleich von Biometrik-Daten |
DE19921387A1 (de) * | 1999-05-10 | 2000-11-23 | Siemens Ag | Anordnung und Verfahren zum Vergleich von Biometrik-Daten |
US7165716B1 (en) | 1999-07-30 | 2007-01-23 | Giesecke & Devrient Gmbh | Method, device and system for biometrically authenticating a person |
EP1208539B2 (de) † | 1999-07-30 | 2005-12-28 | Giesecke & Devrient GmbH | Verfahren, vorrichtung und system zur biometrischen authentisierung einer person |
DE19936097A1 (de) * | 1999-07-30 | 2001-02-08 | Giesecke & Devrient Gmbh | Verfahren, Vorrichtung und System zur biometrischen Authentisierung einer Person |
DE19936400A1 (de) * | 1999-08-03 | 2001-03-01 | Infineon Technologies Ag | Verfahren zur biometrischen Erkennung |
DE10022570A1 (de) * | 2000-05-09 | 2001-11-15 | Giesecke & Devrient Gmbh | Verfahren und System zur Generierung eines Schlüsseldatensatzes |
DE10037742A1 (de) * | 2000-08-02 | 2002-02-14 | Gunter Ritter | System zur Erkennung und Klassifizierung von Objekten |
DE10037742C2 (de) * | 2000-08-02 | 2003-03-27 | Gunter Ritter | System zur Erkennung und Klassifizierung von Objekten |
EP1350231A1 (de) * | 2000-12-08 | 2003-10-08 | Igt | Casino-spielsystem mit biometrischer zugangssteuerung |
US7871329B2 (en) | 2000-12-08 | 2011-01-18 | Igt | Casino gambling system with biometric access control |
WO2007090727A1 (de) | 2006-02-06 | 2007-08-16 | Bundesdruckerei Gmbh | Verfahren zur bewertung der qualität eines bildes, verfahren zur herstellung eines dokuments computerprogrammprodukt, nutzer-schnittstelle, datei und elektronisches gerät |
DE102006005617B4 (de) | 2006-02-06 | 2023-10-12 | Bundesdruckerei Gmbh | Verfahren zur Bewertung der Qualität eines Bildes, Verfahren zur Herstellung eines Dokuments, Computerprogrammprodukt und elektronisches Gerät |
DE102006021518A1 (de) * | 2006-05-04 | 2007-11-15 | LÜTH & DÜMCHEN Automatisierungsprojekt GmbH | Räumlich und zeitlich verteilte Einrichtungen und Verfahren zur Gesichtserkennung zwecks Identifikation oder Verifikation |
DE202023104167U1 (de) | 2023-07-25 | 2023-08-07 | Ulrich Wennemann | Identifikationselement zum Digitalisieren und Identifizieren eines Menschen oder eines Tieres |
Also Published As
Publication number | Publication date |
---|---|
WO1997034251A1 (de) | 1997-09-18 |
EP0886833A1 (de) | 1998-12-30 |
EP0886833B1 (de) | 2000-01-05 |
DE59700974D1 (de) | 2000-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60201867T2 (de) | Gerät zur Gesichtserkennung | |
DE69914370T2 (de) | Bestimmung von gesichtsunterräumen | |
EP2584493B1 (de) | Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess | |
DE19610066C1 (de) | Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen | |
DE60215743T2 (de) | Verfahren und Rechnerprogrammprodukt zur Lagebestimmung von Gesichtsmerkmalen | |
DE69511620T2 (de) | Videoverarbeitungssystem | |
Zhao et al. | Discriminant analysis of principal components for face recognition | |
DE69718553T2 (de) | Gesichtserkennung unter der Verwendung von dct-gestützten Merkmalsvektoren | |
DE69833999T2 (de) | Verfahren zur automatischen erkennung menschlicher augen in digitalbildern | |
DE602004009960T2 (de) | System und verfahren zum erkennen und vergleichen anatomischer strukturen unter verwendung von erscheinungsbild und form | |
DE4406020C1 (de) | Verfahren zur automatisierten Erkennung von Objekten | |
DE69529210T2 (de) | Verfahren zum paaren von fingerabdrückminutiae mittels attribut-verhältnissgraphen | |
DE102017220896A1 (de) | Verfahren und Vorrichtung zur Sicherheitskontrolle | |
DE69920296T2 (de) | Verfahren und Vorrichtung zum Registrieren und Vergleichen von Handflächenabdrücken | |
DE69623581T4 (de) | Merkmalextrahierung zur Fingerabdruckerkennung | |
WO2002071333A2 (de) | Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen | |
DE102017216821A1 (de) | Verfahren zur Erkennung einer Objektinstanz und/oder Orientierung eines Objekts | |
DE102006045828B4 (de) | Verfahren und Vorrichtung zum Erkennen eines Gesichts sowie ein Gesichtserkennungsmodul | |
DE10251787A1 (de) | Verfahren, Vorrichtung und Computerprogramm zur Erfassung von Punktkorrespondenzen in Punktmengen | |
WO2012052106A1 (de) | Verfahren zur klassifizierung von mustern in bilddatensätzen | |
DE10260638B4 (de) | Verfahren zur Bestimmung einer Anzahl von übereinstimmenden Minutien zweier Fingerprints | |
Karungaru et al. | Face recognition in colour images using neural networks and genetic algorithms | |
DE60310766T2 (de) | Beleuchtungsunabhängige gesichtserkennung | |
Ekenel | A robust face recognition algorithm for real-world applications | |
EP0996924B1 (de) | Verfahren zur ermittlung eines identifikationscodes aus fingerabdruckbildern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8100 | Publication of the examined application without publication of unexamined application | ||
D1 | Grant (no unexamined application published) patent law 81 | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: PLETTAC ELECTRONIC SECURITY GMBH, 90766 FUERTH, DE |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: PLETTAC AG, 58840 PLETTENBERG, DE |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: COGNITEC SOFTWARE VISION AG I. INS., 01139 DRESDEN |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: COGNITEC SYSTEMS GMBH, 01139 DRESDEN, DE |
|
R071 | Expiry of right |