DE60317025T2 - Vorrichtung und Verfahren zur Gesichtserkennung - Google Patents

Vorrichtung und Verfahren zur Gesichtserkennung Download PDF

Info

Publication number
DE60317025T2
DE60317025T2 DE60317025T DE60317025T DE60317025T2 DE 60317025 T2 DE60317025 T2 DE 60317025T2 DE 60317025 T DE60317025 T DE 60317025T DE 60317025 T DE60317025 T DE 60317025T DE 60317025 T2 DE60317025 T2 DE 60317025T2
Authority
DE
Germany
Prior art keywords
image
facial
eigenvectors
face
weights
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60317025T
Other languages
English (en)
Other versions
DE60317025D1 (de
Inventor
Sang-min c/o Dormitor Yoon
Seok-Cheol Kee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of DE60317025D1 publication Critical patent/DE60317025D1/de
Application granted granted Critical
Publication of DE60317025T2 publication Critical patent/DE60317025T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Description

  • Die vorliegende Erfindung betrifft ein System und ein Verfahren zum Detektieren eines Gesichtes und insbesondere ein System und ein Verfahren zum Detektieren eines Gesichtes, die in der Lage sind, unter Verwendung eines Algorithmus zum Bestimmen, ob ein Gesicht verdeckt ist, rasch und richtig zu entscheiden, ob ein eingegebenes Gesichtsbild verdeckt ist.
  • Mit dem Voranschreiten der Informationsgesellschaft sind Geldautomaten rasch weit verbreitet in Gebrauch genommen worden. Das organisierte Verbrechen, bei dem Geld unter Verwendung von Kreditkarten oder Passwörtern anderer Personen unrechtmäßig abgehoben wird, hat sich ebenfalls erhöht. Um dieses organisierte Verbrechen abzuschrecken, wird Kabelfernsehen zu Überwachungszwecken in die Geldautomaten eingebaut, um Gesetzesbrecher zu identifizieren. Gesetzesbrecher begehen jedoch Straftaten häufig, während sie Sonnenbrillen oder Mützen tragen, um von dem Überwachungsfernsehen nicht aufgenommen zu werden, und somit ist es schwierig, die Gesichter der Gesetzesbrecher zu identifizieren.
  • Das Koreanische Patent Nr. 0306355 (unter dem Titel „User identification system and automatic teller machine using the same" (Benutzer-Identifizierungssystem und Geldautomat, der selbiges nutzt – nicht autorisierte Übersetzung – d. Übers.)) beschreibt ein Benutzer-Identifizierungssystem zum Identifizieren des Gesichtes eines Benutzers durch Erfassen eines Gesichtsbildes, Erfassen eines Gesichtsbereiches durch Filtern eines Hautfarbenbereiches, Extrahieren einer Augenposition aus dem erfassten Bereich, Einstellen eines Bereiches eines Mundes und einer Nase auf Basis der Augenposition und Prüfen, ob bestätigbare charakteristische Merkmale vorhanden sind. Jedoch wird die Augenposition extrahiert und die Mund- und Nasenpositionen werden danach auf Basis der extrahierten Augenpositionen extrahiert. Wenn somit die Augenpositionen nicht extrahiert werden, ist es schwierig, die Mund- und Nasenpositionen zu extrahieren. Weiterhin werden Bilddaten des Benutzers nicht gesucht, sondern es wird lediglich das Vorliegen von Gesichtskomponenten (wie zum Beispiel Augen, Nase, Mund und ähnli ches) zur Identifizierung des Benutzers überprüft. Somit kann die Gesichtsdetektierung eines Benutzers nicht korrekt durchgeführt werden.
  • Zusätzlich beschreibt das Koreanische Patent Nr. 0293897 (unter dem Titel „Method for recognizing face of use of bank transaction system" (Verfahren zum Erkennen des Gesichtes eines Benutzers eines Banktransaktionssystems – nicht autorisierte Übersetzung – d. Übers.)) ein Verfahren zum Erkennen des Gesichtes eines Benutzers, das die Schritte des Bestimmens von Gesichts-Kandidateneinheiten-Übereinstimmung mit einem eingegebenen Benutzerbild unter Verwendung von Kettenverfolgung, Extrahieren von Konturpunkten und Vergleichen von Helligkeitswerten der Konturpunkte zum Suchen von Grafiken, die den Augen und dem Mund des Benutzers entsprechen, Berechnen eines Erkennungsindex für das Gesicht, Extrahieren von lediglich einer einzelnen Gesichtskandidateneinheit und Vergleichen des Erkennungsindex für das Gesicht der extrahierten Gesichtskandidateneinheit mit einem Bezugs-Erkennungsindex für das Gesicht umfasst. Das Vorliegen der Augen und des Mundes wird jedoch danach bestimmt, ob die Konturpunkte der Augen oder des Mundes extrahiert worden sind. Somit besteht die Möglichkeit der Fehlerkennung von Sonnenbrillen als Augen in einem Fall, in dem die Sonnenbrille, die ein Benutzer trägt, den Augen des Benutzers in ihrer Form und Größe ähnlich sind.
  • Da weiterhin die herkömmliche Gesichtserkennungstechnologie Farbbilder verwendet, ist es schwierig, Merkmalspunkte für die Nase und den Mund des Benutzers aufgrund von Beleuchtung zu detektieren. Demzufolge werden die Merkmalspunkte der Nase und des Mundes des Benutzers gegebenenfalls nicht detektiert. Daher besteht weiterhin ein Problem dahingehend, dass der rechtmäßige Benutzer gegebenenfalls als unrechtmäßiger Benutzer erkannt wird.
  • Kim, Tae-Kyun et al.: „Component-based IDA Face Descriptor for Image Retrieval", Tagungsband der Konferenz 13th British Machine Vision Conference, 2. bis 5. September 2002, Cardiff University, S. 507–516, beschreibt einen komponentenbasierten Gesichtsdeskriptor. In dieser Literaturstelle wird ausgesagt, dass Sonnenbrillen- oder Maskenmuster gelernt und mit Gesichtskomponenten verglichen werden können, die Augen oder Mund zur Unterscheidung entsprechen.
  • Oziem, David J.: „Face Recognition Techniques and the Implications of Facial Transformations", Bachelor Thesis (Bachelor-Abschlussarbeit), 2000, S. 17–34, beschreibt Grundkomponentenanalyse (PCA-Analyse). Darin wird ausgeführt, dass die Möglichkeit, in der Lage zu sein, zu detektieren, ob eine Person eine Sonnenbrille oder einen Schal oder ein Tuch trägt, in einem Gesichtserkennungssystem hilfreich sein kann.
  • Mota, G. A. et al.: "Face Detector Combining Eigenfaces, Neural Network and Bootstrap", Tagungsband des Symposiums Brazilian Symposium an Neural Networks, 22. November 2000, S.290, beschreibt zusammenfassend ein Verfahren zum Detektieren eines Gesichtes.
  • Die vorliegende Erfindung wird in den unabhängigen Patentansprüchen 1 und 7 definiert und stellt ein System und ein Verfahren zum Detektieren eines Gesichtes eines Benutzers bereit, wobei bestimmt werden kann, ob ein Gesichtsbild verdeckt ist, indem Eigenvektoren und Gewichte aus einem eingegebenen Gesichtsbild eines Benutzers, der PCA-Analyse (Principal Component Analysis) verwendet, extrahiert werden und indem die SVM (Support Vector Machines) einem Algorithmus zum Bestimmen, ob das Bild verdeckt wird, zugeordnet werden.
  • Die Erfindung stellt ein Verfahren zum Authentifizieren eines Gesichtsbildes bereit, das das oben genannte Verfahren umfasst.
  • Die vorliegende Erfindung stellt somit ein System und ein Verfahren zum Detektieren eines Gesichtes eines Benutzers bereit, das in der Lage ist, rasch und richtig zu entscheiden, ob ein eingegebenes Gesichtsbild verdeckt ist, obwohl eine Vielzahl von Gesichtsbildern unter unterschiedlichen Bedingungen eingegeben werden.
  • Die oben genannten und weitere Merkmale der vorliegenden Erfindung werden aus der folgenden Beschreibung eines Ausführungsbeispieles in Verbindung mit den anhängenden Zeichnungen ersichtlich werden.
  • Kurze Beschreibung der Zeichnungen.
  • 1 ist ein Blockschema eines Systems zum Detektieren des Gesichtes eines Benutzers gemäß der vorliegenden Erfindung.
  • 2 ist ein Fließbild und veranschaulicht ein Verfahren zum Detektieren des Gesichtes eines Benutzers gemäß der vorliegenden Erfindung.
  • 3 ist ein Fließbild und veranschaulicht ein Verfahren zum Authentifizieren eines Gesichtsbildes, auf das das Verfahren zum Detektieren des Gesichtes gemäß der vorliegenden Erfindung angewendet wird.
  • 4 ist ein Schema und veranschaulicht ein Ausführungsbeispiel der vorliegenden Erfindung, bei dem die Größe des Gesichtsbildes normalisiert wird; und
  • Die 5a und 5b sind Bilder und veranschaulichen Beispiele einer Vielzahl von Trainingsbildern.
  • Ein Ausführungsbeispiel der vorliegenden Erfindung wird nunmehr unter Bezugnahme auf die anhängenden Zeichnungen beschrieben werden.
  • 1 ist ein Blockschema eines Systems zum Detektieren des Gesichtes eines Benutzers gemäß der vorliegenden Erfindung. Das System zum Detektieren des Gesichtes eines Benutzers umfasst eine Speichereinheit 100, eine Gesichtsbild-Erkennungseinheit 200 und eine Gesichtsbild-Bestimmungseinheit 300.
  • Die Speichereinheit 100 speichert Eigenvektoren und Gewichte, die aus einer Vielzahl von Trainingsbildern extrahiert worden sind, die in eine normale Gesichtsbildklasse und eine verdeckte Gesichtsbildklasse eingeteilt werden. Die normale Gesichtsbildklasse wird gewonnen, indem Eigenvektoren und Gewichte aus normalen Gesichtsbildern extrahiert werden, auf die Beleuchtungsänderungen, Änderungen des Gesichtsausdruckes, Größenverschiebungen und Drehänderungen angewendet werden, und durch Speichern der extrahierten Eigenvektoren und Gewichte, und die verdeckte Gesichtsbildklasse wird gewonnen, indem Eigenvektoren und Gewichte aus den teilweise verdeckten Gesichtsbildern extrahiert werden, auf die Beleuchtungsänderungen, Änderungen des Gesichtsausdruckes, Größenverschiebungen und Drehänderungen angewendet werden, und durch Speichern der extrahierten Eigenvektoren und Gewichte. Das heißt, die normalen Gesichtsbilder sind identifizierbare Gesichtsbilder, und die verdeckten Gesichtsbilder sind nicht identifizierbare Gesichtsbilder, da die Gesichter teilweise durch Sonnenbrillen, Masken, dicke Schals oder Tücher oder ähnliches verdeckt sind. Hierbei werden die normale und die verdeckte Gesichtsbildklasse verwendet, um einen Verdeckungs-Bestimmungsalgorithmus abzuleiten, um zu entscheiden, ob die Benutzer-Gesichtsbilder verdeckt worden sind. Die normale Gesichtsbildklasse hat einen Wert von 1, wohingegen die verdeckte Gesichtsbildklasse einen Wert von –1 hat. Ein Verfahren des Ableitens eines Algorithmus zum Entscheiden, ob Gesichtsbilder verdeckt sind, wird ausführlich unter Bezugnahme auf die folgenden mathematischen Ausdrücke erläutert werden.
  • Die Gesichtsbild-Erkennungseinheit 200 extrahiert Eigenvektoren und Gewichte aus dem eingegebenen Gesichtsbild unter Verwendung von PCA-Analyse (Hauptkomponenten-Analyse), um das normale und das verdeckte Gesicht unter Verwendung von Support Vector Machines zu unterteilen, und umfasst einen monochromen Teil 210, einen Gesichtsbild-Detektionsteil 220, einen Gesichtsbild-Normalisierungsteil 230, einen Gesichtsbild-Aufteilungsteil 240 und einen Eigenvektor-/Gewichts-Extraktionsteil 250, der SVM verwendet.
  • Der monochrome Teil 210 wandelt ein eingegebenes Farbbild in ein monochromes Bild um. Der Grund dafür liegt darin, dass da die Farb- und Helligkeitskomponenten in dem in einem RGB-Modus (Rot/Grün/Blau-Modus) konfigurierten Farbbild gemischt werden, Fehler aufgrund von Helligkeitsänderungen bei dem Extrahieren der Eigenvektoren erzeugt werden können.
  • Der Gesichtsbilddetektor 220 verwendet ein Verfahren zum Aufteilen des eingegebenen Bildes in Hintergrund- und Gesichtsbereiche und detektiert den Gesichtsbereich anhand des eingegebenen Bildes unter Verwendung von Gabor-Filtern (lineares, komplexes Bandpassfilter, das auf die lokale Phase von Bildpunkten besser reagiert). Hierbei wird ein Verfahren des Detektierens eines Gesichtsbereiches unter Verwendung der Gabor-Filter durchgeführt, indem Gruppen von Gabor-Filtern, die unterschiedliche Richtwirkungen und Frequenzen aufweisen, in das eingegebene Bild eingebracht werden und danach der Gesichtsbereich entsprechend den Antwortwerten derselben detektiert wird.
  • Der Gesichtsbild-Normalisierungsteil 230 führt Korrekturen an der Bildhelligkeit aufgrund von Beleuchtung, an der Gesichtsbildgröße aufgrund des Abstandes zu der Kamera, an der Neigung des Gesichtsbildes und ähnlichem durch, um den Gesichtsbereich zu normalisieren.
  • Der Gesichtsbild-Aufteilungsteil 240 unterteilt den normalisierten Gesichtsbereich in einen oberen Bereich, der auf die Augen zentriert ist, und in einen unteren Bereich, der auf die Nase und den Mund zentriert ist. Hierbei besteht der Grund dafür, dass der Gesichtsbereich in den oberen Bereich und den unteren Bereich aufgeteilt wird, die Eigenvektoren der jeweiligen Gesichtskomponenten rasch und genau zu extrahieren, indem die Größe des Suchbereiches für eine jede Gesichtskomponente eingeschränkt wird, da Eigenvektoren aus dem falschen Bereich extrahiert werden können, wenn der Suchbereich zu breit oder groß ist, um die jeweiligen Gesichtskomponenten zu extrahieren. Da weiterhin periphere Bereiche eliminiert werden, können Rauschkomponenten reduziert werden.
  • Der Eigenvektor-/Gewichtsextraktionsteil 250 extrahiert Eigenvektoren und Gewichte der Augen, der Nase und des Mundes, welches wichtige Komponenten des Gesichtes sind, unter Verwendung der PCA-Analyse entsprechend den aufgeteilten Gesichtsbereichen. Hierbei können die Eigenvektoren der Augen, der Nase und des Mundes gleichzeitig extrahiert werden, da der Gesichtsbereich, in dem sich die Augen, die Nase und der Mund befinden, bei der Extrahierung der Eigenvektoren beschränkt ist.
  • Nachfolgend werden die mathematischen Ausdrücke, die verwendet werden, um die Eigenvektoren und Gewichte unter Verwendung der PCA-Analyse zu extrahieren, beschrieben werden. Γ = [r1, r2, r3, ..., r1J-1, r1J] (1) Γ' = [r'1, r'2, r'3, ..., r'1J-1, r'1J] (2) [Formel 1]
    Figure 00060001
    Figure 00070001
    wobei Γ in Gleichung (1) Gesichtsbilder darstellt, die eine Größe von 1 × J aufweisen, die in der normalen Gesichtsbildklasse der Speichereinheit 100 gespeichert sind, und wobei Γ' in Gleichung (2) Gesichtsbilder darstellt, die eine Größe von 1 × J aufweisen, die in der verdeckten Gesichtsbildklasse der Speichereinheit 100 gespeichert sind.
  • Die Formel 1 wird verwendet, um ein Durchschnitts-Gesichtsbild der normalen Gesichtsbilder beziehungsweise ein Durchschnitts-Gesichtsbild der verdeckten Gesichtsbilder zu erhalten. Hierbei ist N die Gesamtzahl von normalen Gesichtsbildern, und M ist die Gesamtzahl von verdeckten Gesichtsbildern.
  • Zuerst wird ein Verfahren des Extrahierens von Eigenvektoren und Gewichten auf Basis der normalen Gesichtsbilder erläutert werden.
  • Γ wird in der Formel 1 auf ψ angesetzt, um das Durchschnitts-Gesichtsbild zu erhalten, und danach wird ein Vektor Φ1 berechnet, indem das Durchschnitts-Gesichtsbild (ψ) von den Gesichtsbildern (Γ) subtrahiert wird.
  • Das bedeutet, es gilt Φi = Γ – Ψ.
  • Unter Verwendung des Vektors Φi, der als solches berechnet wird, wird eine Kovarianzmatrix entsprechend der Formel 2 unten erzeugt. [Formel 2]
    Figure 00070002
  • Eigenwerte (λi) und Eigenvektoren (ui) können unter Verwendung der Formel 2 berechnet werden. In einem solchen Fall werden zuerst die Eigenwerte unter Verwendung der Gleichung Cx = λx berechnet, und danach werden die Eigenvektoren berechnet.
  • Danach können Gewichte unter Verwendung der Eigenvektoren, die als solches entsprechend der folgenden Formel 3 berechnet werden, berechnet werden.
  • [Formel 3]
    • wf = (Γ – Ψ)xui
  • Unter Verwendung der Formel 3 werden die Gewichte (wf) berechnet.
  • Wenngleich nur ein Verfahren des Extrahierens von Eigenvektoren und Gewichten aus den normalen Gesichtsbildern oben beschrieben worden ist, wird ein Verfahren des Extrahierens von Eigenvektoren und Gewichten aus den teilweise verdeckten Gesichtsbildern auf die gleiche Art und Weise wie das Verfahren des Extrahierens von Eigenvektoren und Gewichten aus den normalen Gesichtsbildern durchgeführt. Weiterhin werden Eigenvektoren und Gewichte aus dem oberen Bereich beziehungsweise dem unteren Bereich in dem Gesichtsbereich extrahiert.
  • Die Gesichtsbild-Bestimmungseinheit 300 entscheidet durch den Verdeckungs-Bestimmungsalgorithmus, der aus den in der Speichereinheit 100 gespeicherten Trainingsbildern gewonnen worden ist, ob das eingegebene Gesichtsbild verdeckt ist. Der Verdeckungs-Bestimmungsalgorithmus, Support Vector Machines, wird als die folgende Formel 4 ausgedrückt. [Formel 4]
    Figure 00080001
  • Wenn ein Wert, der aus dem Verdeckungs-Bestimmungsalgorithmus in Formel 4 ermittelt wird, 1 ist, ist das zu bestimmende Gesichtsbild ein normales. Wenn andererseits der Wert aus dem Algorithmus –1 ist, ist das zu bestimmende Gesichtsbild ein teilweise verdecktes. Dies ist darauf zurückzuführen, dass der Algorithmus zum Bestimmen, ob das Gesichtsbild verdeckt ist, konfiguriert worden ist, nachdem das normale und das teilweise verdeckte Gesichtsbild, die in der Speichereinheit 100 gespeichert sind, auf die Klassenwerte 1 und –1 eingestellt worden sind, und danach gelernt worden sind.
  • In der Formel 4 oben werden yi, αi und b eingestellt, indem eine Menge der Klassenwerte (in der vorliegenden Erfindung 1) des normalen Trainingsbildes, der Eigenvektoren und der Gewichte, die in der Speichereinheit 100 gespeichert werden, beziehungsweise eine andere Menge der Klassenwerte (in der vorliegenden Erfindung –1) der teilweise verdeckten Gesichtsbilder, Eigenvektoren und Gewichte in die Formel 4 eingesetzt werden. Diese Werte können sich verändern, wenn die in der Speichereinheit 100 gespeicherten Trainingsbilder aktualisiert werden.
  • Die Formel zum Berechnen des Polynomkerns K wird wie folgt ausgedrückt: K(x, xi) = (<x·xi>)d wobei K durch ein Innenprodukt aus x und xi berechnet werden kann (d. h. x·xi = |x||xi|cos(θ), x die Gewichte ist, xi die Eigenvektoren ist und d eine Konstante ist.
  • Somit kann der Klassenwert f(x) der Gesichtsbilder, der bestimmen wird, ob die Gesichtsbilder verdeckt sind, ermittelt werden, indem yl, αl und b auf den Polynomkern K(x, xi) angesetzt werden, wobei die Eigenvektoren und Gewichte der Trainingsbilder verwendet werden, und danach die Eigenvektoren und Gewichte auf den Polynomkern K(x, xi) angesetzt werden.
  • Nachfolgend wird ein Verfahren der Berechnung von yl, αl und b des Verdeckungs-Bestimmungsalgorithmus beispielhaft beschrieben werden.
  • In einem Fall, in dem fünf Einzelbilder normaler Gesichtsbilder und acht Einzelbilder teilweise verdeckter Gesichtsbilder in der Speichereinheit 100 gespeichert wer den, wird ein Verfahren der Ableitung der Faktoren (yl, αl und b) des Algorithmus in der Formel 4 wie folgt ausgedrückt:
    Figure 00100001
    erstes Bild des normalen Gesichtsbildes
    Figure 00100002
    zweites Bild des normalen Gesichtsbildes
    Figure 00100003
    fünftes Bild des normalen Gesichtsbildes
    Figure 00100004
    erstes Bild des teilweise verdeckten Gesichtsbildes
    Figure 00100005
    zweites Bild des teilweise verdeckten Gesichtsbildes
    Figure 00100006
    achtes Bild des teilweise verdeckten Gesichtsbildes
  • Wie weiter oben beschrieben worden ist, wird der Klassenwert f(x) auf 1 und –1 für die normalen Gesichtsbilder beziehungsweise die teilweise verdeckten Gesichtsbilder eingestellt, und danach werden Eigenvektoren und Gewichte auf K(x, xi) angesetzt, um yi, λi und b zu berechnen, die die Formeln erfüllen.
  • Daher kann richtig bestimmt werden, ob die Gesichtsbilder verdeckt sind, indem Eigenvektoren und Gewichte aus den eingegebenen Gesichtsbildern extrahiert werden und die extrahierten Eigenvektoren und Gewichte dem Verdeckungs-Bestimmungsalgorithmus zugeordnet werden.
  • 2 ist ein Fließbild und veranschaulicht ein Verfahren zum Detektieren eines Gesichtes gemäß der vorliegenden Erfindung. Unter Bezugnahme auf die Figur werden unten zunächst die Schritte S150 bis S158 des Herleitens eines Algorithmus zum Bestimmen, ob ein Gesicht verdeckt ist, beschrieben werden.
  • Ein Gesichtsbereich wird anhand eines eingegebenen Trainingsbildes detektiert (S150). Hierbei umfasst das eingegebene Trainingsbild normale Gesichtsbilder, auf die Beleuchtungsänderungen, Änderungen des Gesichtsausdruckes, Größenverschiebungen und Drehänderungen angewendet werden, sowie teilweise verdeckte Gesichtsbilder, auf die Beleuchtungsänderungen, Änderungen des Gesichtsausdruckes, Größenverschiebungen und Drehänderungen angewendet werden.
  • Der detektierte Gesichtsbereich wird normalisiert (S152), und das normalisierte Gesichtsbereich wird danach in einen oberen Bereich, der auf die Augen zentriert ist, und in einen unteren Bereich, der auf die Nase und den Mund zentriert ist, aufgeteilt (S154). Eigenvektoren und Gewichte der jeweiligen Gesichtskomponenten werden unter Verwendung der PCA-Analyse gemäß den aufgeteilten Gesichtsbereichen extrahiert und in der Speichereinheit 100 gespeichert (S156). Da die Detektion der Eigenvektoren und der Gewichte in dem Gesichtsbereich unter Bezugnahme auf die Formeln 1 bis 3 ausführlich erläutert worden ist, wird eine ausführliche Erläuterung an dieser Stelle ausgelassen.
  • Als Nächstes werden die Faktoren des Algorithmus zum Bestimmen, ob das Gesicht verdeckt ist, auf Basis der gespeicherten Eigenvektoren und der Gewichte bestimmt (S158).
  • Die Schritte S150 bis S158 dienen der Ableitung des Algorithmus zum Bestimmen, ob das Gesicht verdeckt ist. Nachdem der Verdeckungs-Bestimmungsalgorithmus hergeleitet worden ist, werden die Schritte S100 bis S120 des Herleitens des Verdeckungs-Bestimmungsalgorithmus nicht mehr durchgeführt.
  • Nachfolgend wird das Verfahren des Bestimmens, ob ein eingegebenes Benutzerbild verdeckt ist, wie folgt diskutiert werden.
  • Wenn ein Benutzerbild eingegeben wird (S100), wird das eingegebene Farbbild in ein monochromes Bild umgewandelt (S102) und danach wird ein Gesichtsbereich anhand des monochromen Bildes unter Verwendung der Gabor-Filterantwort detektiert (S104). Somit kann die Verwendung des monochromen Gesichtsbildes Probleme von Fehlerkennung in Verbindung mit der Gesichtsfarbe aufgrund von Gesichtsschminke oder Makeup, Hautfarbe u. s. w. reduzieren.
  • Danach werden die Größe, die Helligkeit, die Neigung und ähnliches des Gesichtsbildes korrigiert und danach wird der Gesichtsbereich normalisiert (S106). Der normalisierte Gesichtsbereich wird in einen oberen Bereich, der auf die Augen zentriert ist, und in einen unteren Bereich, der auf die Nase und den Mund zentriert ist, normalisiert (S108). Demzufolge werden die Größen der Suchbereiche in den jeweiligen Gesichtskomponenten (die Augen, die Nase und der Mund) eingeschränkt (4).
  • Vorzugsweise wird der gesamte Gesichtsbereich (320·240) in 60·60 normalisiert, und ein Augenbereich wird in dem normalisierten Gesichtsbild auf (0,5) bis (60,30) eingestellt, d. h. auf 60·25, und ein Nasenbereich und ein Mundbereich werden auf (0,25) bis (60,60) eingestellt, d. h. auf 60·35, wie in 4 gezeigt wird. Wenn der Augenbereich sowie der Nasen- und Mundbereich entsprechend der oben genannten Größe eingestellt werden, überlappt ein Bereich, der (0,25) bis (60,30) entspricht, um etwa zehn Prozent. Dies ist darauf zurückzuführen, dass die Größe und die Position der Augen, der Nase und des Mundes entsprechend dem eingegebenen Gesichtsbild unterschiedlich sein können, und die Bilder der Augen, der Nase und des Mundes, die in den entsprechenden Bereichen detektiert werden, können unterbrochen werden, wenn der Augenbereich und der Nasen- und Mundbereich zu klein sind.
  • Da weiterhin die jeweiligen Gesichtskomponenten aus dem eingeschränkten Bereich extrahiert werden, ist die Größe des Suchbereiches eingeschränkt. Somit kann die Zeit, die zum Extrahieren der Eigenvektoren der Gesichtskomponenten benötigt wird, reduziert werden, und Rauschkomponenten, wie zum Beispiel die Haare und der Hintergrund, können ebenfalls reduziert werden.
  • Unter Verwendung der PCA-Analyse auf Basis der aufgeteilten Gesichtsbereiche werden die Eigenvektoren und Gewichte der Augen in dem oberen Bereich extrahiert, und die Eigenvektoren und Gewichte der Nase und des Mundes in dem unteren Bereich werden analog dazu extrahiert (S110).
  • Als Nächstes werden die extrahierten Eigenvektoren und Gewichte des Benutzerbildes auf den Verdeckungs-Bestimmungsalgorithmus, der aus den Schritten S150 bis S158 (S112) hergeleitet worden ist, angewendet. Das heißt, die detektierten Eigenvektoren und Gewichte des Benutzerbildes werden auf K(x, xi) angesetzt, und die Klassenwerte f(x) werden danach unter Verwendung der Werte von yi, αl und b, die durch die Eigenvektoren und Gewichte des Trainingsbildes ermittelt wurden, berechnet. Hierbei kann der Klassenwert f(x) jeweils entsprechend dem oberen Bereich und dem unteren Bereich ermittelt werden.
  • Danach wird bestimmt, ob die Klassenwerte f(x) des oberen Bereiches und des unteren Bereiches 1 oder –1 sind, um zu entscheiden, ob das Gesichtsbild verdeckt ist (S114 und S118). Wenn somit der durch den Verdeckungs-Bestimmungsalgorithmus ermittelte Wert 1 ist, wird entschieden, dass das Gesichtsbild normal ist (S116). Wenn andererseits der durch den Algorithmus ermittelte Wert –1 ist, wird entschieden, dass das Gesichtsbild teilweise verdeckt ist (S120).
  • Zwischenzeitlich wird die Bestimmung, ob der Gesichtsbereich verdeckt ist, gleichzeitig in dem oberen Bereich und in dem unteren Bereich des Benutzerbildes durchgeführt. Wenn in einem solchen Fall bestimmt wird, dass entweder der obere Bereich oder der untere Bereich ein verdecktes Gesichtsbild ist, muss entschieden werden, dass das Gesichtsbild des Benutzers verdeckt ist. Da hierbei gleichzeitig bestimmt wird, ob die Gesichtsbilder in dem oberen Bereich und in dem unteren Bereich verdeckt sind, kann schneller entschieden werden, dass das Gesichtsbild verdeckt ist.
  • 3 ist ein Fließbild und veranschaulicht ein Verfahren der Authentifizierung eines Gesichtsbildes, auf das das Verfahren zum Detektieren eines Gesichtes gemäß der vorliegenden Erfindung angewendet wird. Zuerst wird bestimmt, ob ein eingegebenes Gesichtsbild des Benutzers verdeckt ist (S200). Hierbei kann die Bestimmung, ob das eingegebene Gesichtsbild des Benutzers verdeckt ist, auf die gleiche Art und Weise durchgeführt werden wie in den in 2 gezeigten Schritten S100 bis S120.
  • Wenn dementsprechend das Gesichtsbild des Benutzers als normal bestimmt wird, wird Benutzerauthentifizierung durchgeführt (S202). Wenn entschieden wird, dass das Gesichtsbild des Benutzers verdeckt ist, wird eine Warnnachricht an den Benutzer gesendet (S206). Danach werden Operationen des Detektierens des Gesichtsbildes und des Entscheidens, ob das Gesichtsbild verdeckt ist, erneut durchgeführt (S200). Wenn an dieser Stelle drei oder mehr Mal bestimmt wird, dass das Gesichtsbild des Benutzers verdeckt gewesen ist (S208), wird die Benutzerauthentifizierung abgelehnt (S210).
  • Die 5a und 5b sind Bilder und veranschaulichen Beispiele einer Vielzahl von Trainingsbildern. Insbesondere zeigt die 5a eine normale Gesichtsbildklasse mit Bildern unter unterschiedlichen Beleuchtungsbedingungen, Bildern mit voneinander unterschiedlichen Gesichtsausdrücken, Bildern mit Bärten sowie Bildern mit Größenverschiebung oder Drehänderung. Hierbei werden die Eigenvektoren und Gewichte der Gesichtsbilder, bei denen Merkmale der Gesichtskomponenten (die Augen, die Nase, der Mund u. s. w.), die gemäß Änderungen der Beleuchtungsbedingungen, Änderungen des Gesichtsausdruckes, von Bärten und Gesichtsneigungen veränderlich sind, umfassend berücksichtigt werden, in der normalen Gesichtsbildklasse gespeichert. Andererseits zeigt die 5b eine verdeckte Gesichtsbildklasse, die Bilder von Benutzern beinhaltet, die Sonnebrillen, dicke Schals oder Tücher u. s. w. tragen. Die Eigenvektoren und die Gewichte der Gesichtsbilder, bei denen Merkmale der Gesichtskomponenten, die gemäß Sonnenbrillen, dicken Schals oder Tüchern, Masken, Beleuchtungsänderungen, Änderungen des Gesichtsausdruckes, Größenverschiebung, Drehänderung u. s. w. veränderlich sind, umfassend berücksichtigt werden, werden in der verdeckten Gesichtsbildklasse gespeichert. Daher und da die Gesichtsbilder unter allen Bedingungen in Form der Trainingsbilder in der Klasse beinhaltet sind, kann richtig entschieden werden, ob die eingegebenen Gesichtsbilder verdeckt sind.
  • Die Tabellen 1 und 2 unten zeigen Beispiele, bei denen die Durchführung des erfindungsgemäßen Algorithmus zum Bestimmen, ob ein Gesichtsbild verdeckt ist, unter Verwendung der Speichereinheit 100, in der 3200 normale Gesichtsbilder, 2900 Gesichtsbilder von Benutzern, die Sonnenbrillen tragen, 4500 Gesichtsbilder von Benut zern, die Masken und dicke Schals oder Tücher tragen, und zusätzliche Bilder ohne Gesichtsbilder etc. gespeichert sind, erprobt wird.
  • Tabelle 1 zeigt die Versuchsergebnisse der Versuche, die durchgeführt wurden, indem 100 Eigenvektoren jeweils von der normalen Gesichtsbildklasse und der verdeckten Gesichtsbildklasse extrahiert wurden. Tabelle 1
    Anzahl der Support-Vektoren Anzahl der aufgetretenen Fehler
    Oberer Bereich 250 0
    Unterer Bereich 266 1
  • Das heißt, die Bestimmung, ob ein Gesichtsbild verdeckt ist, ist auf Basis der extrahierten Eigenvektoren wenigstens 200 Mal durchgeführt worden. Demzufolge ist ersichtlich, dass eine geringe Fehlerrate auftritt.
  • Die Tabelle 2 unten zeigt die Ergebnisse des gleichen Versuches für verdeckte Gesichtsbilder wie desselben für normale Gesichtsbilder, wobei die erhaltenen Ergebnisse bei der Bestimmung für den normalen Gesichtsbereich, ob das Bild verdeckt ist, eine Suchrate von 98% zeigen. Tabelle 2 zeigt die Versuchsergebnisse für 370 Gesichtsbilder von Benutzern, die Sonnenbrillen tragen (das heißt, in dem oberen Bereich), und für 390 Gesichtsbilder von Benutzern, die dicke Schals oder Tücher tragen (das heißt, in dem unteren Bereich). Tabelle 2
    Suchrate Fehlerkennungsrate
    Oberer Bereich 95,2% 2,4%
    Unterer Bereich 98,8% 0%
  • Als Ergebnis des Versuches ist ersichtlich, dass die Bestimmung, ob der Gesichtsbereich des Benutzers verdeckt ist, mit einer Suchrate von 95% oder mehr durch geführt wird und dass Fehlerkennung aufgrund des Versteckens der Gesichtsmerkmale des Benutzers äußerst gering ist.
  • Da Gesichtsbilder, die unter allen Bedingungen oder Umständen mit den Trainingsbildern hergestellt werden können, beinhaltet sind, kann der Verdeckungs-Bestimmungsalgorithmus, der für alle Gesichtsbilder unter unterschiedlichen Bedingungen und Umständen verwendet werden kann, hergeleitet werden. Somit kann eine sehr erfolgreiche Suchrate erzielt werden, wenn bestimmt wird, ob das Gesichtsbild des Benutzers verdeckt ist.
  • Gemäß der vorliegenden Erfindung als solche besteht ein Vorteil dahingehend, dass durch den Verdeckungs-Bestimmungsalgorithmus richtig und rasch bestimmt werden kann, ob eingegebene Gesichtsbilder des Benutzers verdeckt sind, selbst wenn eine Vielzahl unterschiedlicher Gesichtsbilder eingegeben wird.
  • Weiterhin bestehen Vorteile dahingehend, dass da das eingegebene Gesichtsbild in einen oberen Bereich und in einen unteren Bereich aufgeteilt wird, um die Suchbereiche der jeweiligen Gesichtskomponenten einzuschränken, die Verarbeitungszeit, die benötigt wird, um Eigenvektoren und Gewichte der jeweiligen Gesichtskomponenten zu extrahieren, reduziert werden kann, dass Rauschkomponenten, wie zum Beispiel die Haare und der Hintergrund in den Bildern, ebenfalls reduziert werden können und dass die Eigenvektoren und Gewichte der Augen, der Nase und des Mundes in den jeweiligen relevanten Bereichen gleichzeitig extrahiert werden können.
  • Darüber hinaus besteht ein weiterer Vorteil darin, dass jeglicher Einfluss des Hintergrundes oder der Beleuchtung aufgrund der Verwendung monochromer Bilder reduziert werden kann und dass somit Fehlerkennungsprobleme, die bei der Extrahierung der Eigenvektoren auftreten können, ebenfalls reduziert werden können.
  • Wenngleich die vorliegende Erfindung in Verbindung mit dem bevorzugten Ausführungsbeispiel, das in den anhängenden Zeichnungen gezeigt wird, beschrieben worden ist, handelt es sich hierbei lediglich um Beispiele der vorliegenden Erfindung. Der Durchschnittsfachmann wird erkennen, dass verschiedene Änderungen und Modifizierungen daran vorgenommen werden können, ohne von dem durch die Patentansprüche definierten Erfindungsbereich abzuweichen. Daher soll der wahre Erfindungsbereich der vorliegenden Erfindung durch die anhängenden Patentansprüche definiert werden.

Claims (13)

  1. System zum Detektieren eines Gesichts, umfassend: eine Speichereinheit (100) zum Speichern von Eigenvektoren und Gewichten, die aus einer Vielzahl von Trainingsbildern extrahiert sind und in einem Zustand gespeichert sind, in dem sie in eine verdeckte Gesichtsbildklasse klassifiziert werden, eine Gesichtsbild-Erkennungseinheit (200) zum Extrahieren von Eigenvektoren und Gewichten von jeweiligen Gesichtskomponenten aus einem eingegebenen Gesichtsbild und eine Gesichtsbild-Bestimmungseinheit (300) zum Ableiten eines Algorithmus zum Bestimmen, ob das Gesichtsbild verdeckt ist, mit Hilfe der Eigenvektoren und Gewichte der in der Speichereinheit (100) gespeicherten Trainingsbilder, und zum Bestimmen, ob das eingegebene Gesichtsbild verdeckt ist, durch Zuordnen der Eigenvektoren und Gewichte der jeweiligen Gesichtskomponenten des in die Gesichtsbild-Erkennungseinheit extrahierten eingegebenen Gesichtsbildes (200) in dem abgeleiteten Algorithmus, dadurch gekennzeichnet, dass eine Speichereinheit (100) des Weiteren zum Speichern von Eigenvektoren und Gewichten ist, die aus einer weiteren Vielzahl von Trainingsbildern extrahiert sind und in einem Zustand gespeichert sind, in dem sie in eine normale Gesichtsbildklasse klassifiziert sind, wobei die Gesichtsbild-Bestimmungseinheit (300) konfiguriert ist, um die Werte der normalen und der verdeckten Gesichtsbildklassen so einzurichten, dass sie verschieden voneinander sind, und um den Bestimmungsalgorithmus mit Hilfe der eingerichteten Werte der Klassen und der Eigenvektoren und Gewichte der Trainingsbilder abzuleiten, wobei der abgeleitete Algorithmus durch die folgende Gleichung ausgedrückt wird:
    Figure 00190001
    wobei y, αi und b Faktoren sind, die aus den Trainingsbildern gewonnen wurden, x und xi Gewichte und Eigenvektoren sind, die aus dem eingegebenen Gesichtsbild extrahiert wurden, und d eine Konstante ist und wobei die Gesichtsbild-Bestimmungseinheit (300) konfiguriert ist, um zu bestimmen, dass das eingegebene Gesichtsbild normal ist, wenn ein durch Ersetzen der Eigenvektoren und Gewichte in dem Bestimmungsalgorithmus erhaltener Ergebniswert gleich dem Wert der normalen Gesichtsbildklasse ist, und um zu bestimmen, dass das eingegebene Gesichtsbild verdeckt ist, wenn der Ergebniswert gleich dem Wert der verdeckten Gesichtsbildklasse ist.
  2. System nach Anspruch 1, wobei die Gesichtsbild-Erkennungseinheit (200) konfiguriert ist, um Eigenvektoren und Gewichte der jeweiligen Gesichtskomponenten aus den Trainingsbildern zu extrahieren.
  3. System nach Anspruch 1 oder 2, wobei die Gesichtsbild-Erkennungseinheit (200) umfasst: einen monochromen Teil (210) zum Umwandeln eines eingegebenen Farbbildes in ein monochromes Bild, einen Gesichtsbild-Detektionsteil (220) zum Detektieren eines Gesichtsbereichs aus dem umgewandelten monochromen Bild, einen Gesichtsbild-Normalisierungsteil (230) zum Normalisieren des detektierten Gesichtsbereichs, einen Gesichtsbild Aufteilungsteil (240) zum Aufteilen des normalisierten Gesichtsbereichs in obere und untere Bereiche und einen Eigenvektor-/Gewichtsextraktionsteil (250) zum Extrahieren der Eigenvektoren und Gewichte der jeweiligen Gesichtskomponenten mit Hilfe einer Hauptkomponentenanalyse entsprechend den aufgeteilten Gesichtsbereichen.
  4. System nach Anspruch 3, wobei der Gesichtsbild Aufteilungsteil (240) so konfiguriert ist, um einen ganzen Gesichtsbereich in den oberen Bereich, zentriert auf die Augen, und einen unteren Bereich, zentriert auf Nase und Mund, zu unterteilen.
  5. System nach Anspruch 4, wobei der Eigenvektor-/Gewichtsextraktionsteil (250) konfiguriert ist, um die Eigenvektoren und Gewichte aus den auf die Augen und auf die Nase und den Mund zentrierten aufgeteilten Bereichen, die in dem Gesichtsbild-Aufteilungsteil (240) vorab eingerichtet werden, zu extrahieren.
  6. System nach Anspruch 4, wobei die Gesichtsbild-Bestimmungseinheit konfiguriert ist, um einen Prozess des gleichzeitigen Bestimmens durchzuführen, ob das Gesichtsbild in den oberen und unteren Bereichen verdeckt ist.
  7. Verfahren zum Detektieren eines Gesichts, die folgenden Schritte umfassend: a. Extrahieren von Eigenvektoren und Gewichten aus einer Vielzahl von Trainingsbildern, wobei die Eigenvektoren und Gewichte in eine normale Gesichtsbildklasse und in eine verdeckte Gesichtsbildklasse klassifiziert werden (S156), b. Ableiten eines Verdeckungs-Bestimmungsalgorithmus mit Hilfe der aus den Trainingsbildern extrahierten Eigenvektoren und Gewichte (S158), c. Extrahieren von Eigenvektoren und Gewichten von jeweiligen Gesichtskomponenten aus einem eingegebenen Gesichtsbild (S110) und d. Bestimmen, ob das Gesichtsbild verdeckt ist, durch Ersetzen der extrahierten Eigenvektoren und Gewichte der jeweiligen Gesichtskomponenten des eingegebenen Gesichtsbildes in dem Verdeckungs-Bestimmungsalgorithmus (S112), wobei Werte der normalen und der verdeckten Gesichtsbildklasse eingerichtet werden, um verschieden voneinander zu sein, und der Bestimmungsalgorithmus mit Hilfe der eingerichteten Werte der Klassen und der Eigenvektoren und Gewichte der Trainingsbilder abgeleitet wird, wobei der Verdeckungs-Bestimmungsalgorithmus durch die folgende Gleichung ausgedrückt wird:
    Figure 00210001
    wobei y, αi und b Faktoren sind, die aus den Trainingsbildern gewonnen wurden, x und xi Gewichte und Eigenvektoren sind, die aus dem eingegebenen Gesichtsbild extrahiert wurden, und d eine Konstante ist und wobei das eingegebene Gesichtsbild als normal bestimmt wird, wenn ein durch Ersetzen der Eigenvektoren und Gewichte in dem Bestimmungsalgorithmus erhaltener Ergebniswert gleich dem Wert der normalen Gesichtsbildklasse ist, und als verdeckt bestimmt wird, wenn der Ergebniswert gleich dem Wert der verdeckten Gesichtsbildklasse ist.
  8. Verfahren nach Anspruch 7, wobei Schritt c die folgenden Schritte umfasst: c1. Umwandeln eines eingegebenen Gesichtsbildes in ein monochromes Bild (S102), c2. Detektieren eines Gesichtsbereichs aus dem umgewandelten monochromen Bild (S104), c3. Normalisieren des detektierten Gesichtsbereichs (S106), c4. Aufteilen des normalisieren Gesichtsbereichs in obere und untere Bereiche (S108) und c5. Extrahieren der Eigenvektoren und Gewichte der jeweiligen Gesichtskomponenten mit Hilfe von Hauptkomponentenanalyse entsprechend den aufgeteilten Gesichtsbereichen (S110).
  9. Verfahren nach einem der Ansprüche 7 oder 8, wobei die Trainingsbilder Gesichtsbilder sind, auf die Größenverschiebung oder Drehänderung angewendet wird.
  10. Verfahren nach Anspruch 8, wobei in Schritt c4 ein ganzer Gesichtsbereich in den oberen Bereich, zentriert auf die Augen, und den unteren Bereich, zentriert auf Nase und Mund, aufgeteilt wird.
  11. Verfahren nach Anspruch 8, wobei in Schritt c5 jeweils die Eigenvektoren und Gewichte aus den auf die Augen und auf die Nase und den Mund zentrierten aufgeteilten Bereichen, die den Gesichtsbereichen entsprechend vorab eingerichtet werden, extrahiert werden.
  12. Verfahren nach Anspruch 10, wobei in Schritt d gleichzeitig bestimmt wird, ob das Gesichtsbild in den oberen und in den unteren Bereichen verdeckt ist.
  13. Verfahren zum Authentifizieren eines Gesichtsbildes, das die Schritte des Verfahrens nach Anspruch 7, gefolgt von den folgenden Schritten umfasst: Übertragen einer Warnmeldung, wenn festgestellt ist, dass das eingegebene Gesichtsbild verdeckt ist (S206), und Neubestimmen, ob das Gesichtsbild verdeckt ist (S202), Zurückweisen von Authentifizierung, wenn festgestellt ist, dass das eingegebene Gesichtsbild drei Mal oder öfter verdeckt ist (S210).
DE60317025T 2002-11-04 2003-11-04 Vorrichtung und Verfahren zur Gesichtserkennung Expired - Lifetime DE60317025T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2002-0067974A KR100473598B1 (ko) 2002-11-04 2002-11-04 가려진 얼굴영상을 판단하는 시스템 및 방법
KR2002067974 2002-11-04

Publications (2)

Publication Number Publication Date
DE60317025D1 DE60317025D1 (de) 2007-12-06
DE60317025T2 true DE60317025T2 (de) 2008-07-31

Family

ID=32089791

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60317025T Expired - Lifetime DE60317025T2 (de) 2002-11-04 2003-11-04 Vorrichtung und Verfahren zur Gesichtserkennung

Country Status (5)

Country Link
US (1) US7321670B2 (de)
EP (1) EP1416425B1 (de)
JP (1) JP2004158013A (de)
KR (1) KR100473598B1 (de)
DE (1) DE60317025T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013010492A1 (de) 2013-06-25 2015-01-08 Modi Modular Digits Gmbh Einrichtung und Verfahren zum Erkennen eines Fälschungsversuchs bei einer Personenidentifikation sowie Kontrollstation zur automatisierten Personenkontrolle

Families Citing this family (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100442835B1 (ko) * 2002-08-13 2004-08-02 삼성전자주식회사 인공 신경망을 이용한 얼굴 인식 방법 및 장치
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8155397B2 (en) * 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8989453B2 (en) * 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US7620218B2 (en) * 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7792970B2 (en) * 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8498452B2 (en) * 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US8330831B2 (en) * 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7643684B2 (en) * 2003-07-15 2010-01-05 Samsung Electronics Co., Ltd. Apparatus for and method of constructing multi-view face database, and apparatus for and method of generating multi-view face descriptor
JP4507679B2 (ja) * 2004-04-21 2010-07-21 富士ゼロックス株式会社 画像認識装置、画像抽出装置、画像抽出方法及びプログラム
GB2414328A (en) * 2004-05-17 2005-11-23 Mitsubishi Electric Inf Tech Discrimination transforms applied to frequency domain derived feature vectors
US8320641B2 (en) * 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
KR100590572B1 (ko) * 2004-12-15 2006-06-19 삼성전자주식회사 눈 위치 검출 방법 및 장치
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
KR100695155B1 (ko) * 2005-06-18 2007-03-14 삼성전자주식회사 가리어진 얼굴 검출장치 및 방법과 이를 이용한 부정거래자식별장치 및 방법
GB2430735A (en) * 2005-09-30 2007-04-04 Sony Uk Ltd Object detection
KR100734849B1 (ko) 2005-11-26 2007-07-03 한국전자통신연구원 얼굴 인식 방법 및 그 장치
JP2007148872A (ja) * 2005-11-29 2007-06-14 Mitsubishi Electric Corp 画像認証装置
EP2033142B1 (de) * 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
US7830550B2 (en) * 2006-08-07 2010-11-09 Samsung Electronics Co., Ltd. Image converting method and apparatus, and image forming apparatus having the same
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
CN100447807C (zh) * 2006-11-09 2008-12-31 上海大学 基于有限多幅人脸图像的人脸匹配方法
US8055067B2 (en) * 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
KR101428715B1 (ko) 2007-07-24 2014-08-11 삼성전자 주식회사 인물 별로 디지털 컨텐츠를 분류하여 저장하는 시스템 및방법
KR100815291B1 (ko) * 2007-07-31 2008-03-25 (주)올라웍스 사용자의 피드백을 이용하여, 얼굴 인식기 또는 얼굴검출기의 파라미터를 최적화하는 방법 및 시스템
WO2009026156A1 (en) * 2007-08-17 2009-02-26 Bell Helicopter Textron, Inc. System for optical recognition, interpretation, and digitization of human readable instruments, annunciators, and controls
US8406525B2 (en) * 2008-01-31 2013-03-26 The Regents Of The University Of California Recognition via high-dimensional data classification
JP4228031B1 (ja) * 2008-06-09 2009-02-25 株式会社リミックスポイント 画像解析装置、画像登録装置および画像検索装置
JP5127583B2 (ja) * 2008-06-20 2013-01-23 株式会社豊田中央研究所 対象物判定装置及びプログラム
JP5127582B2 (ja) * 2008-06-20 2013-01-23 株式会社豊田中央研究所 対象物判定装置及びプログラム
US9405995B2 (en) * 2008-07-14 2016-08-02 Lockheed Martin Corporation Method and apparatus for facial identification
US8131063B2 (en) * 2008-07-16 2012-03-06 Seiko Epson Corporation Model-based object image processing
CN106919911A (zh) * 2008-07-30 2017-07-04 快图有限公司 使用脸部检测的自动脸部和皮肤修饰
US8208717B2 (en) * 2009-02-25 2012-06-26 Seiko Epson Corporation Combining subcomponent models for object image modeling
US8260038B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Subdivision weighting for robust object model fitting
US8204301B2 (en) * 2009-02-25 2012-06-19 Seiko Epson Corporation Iterative data reweighting for balanced model learning
US8260039B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Object model fitting using manifold constraints
US8379917B2 (en) * 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
CN102436636B (zh) * 2010-09-29 2013-09-25 中国科学院计算技术研究所 自动分割头发的方法及其系统
CN102436637B (zh) * 2010-09-29 2013-08-21 中国科学院计算技术研究所 从头部图像中自动分割头发的方法及其系统
US8380711B2 (en) * 2011-03-10 2013-02-19 International Business Machines Corporation Hierarchical ranking of facial attributes
KR101308347B1 (ko) * 2011-04-06 2013-09-17 아주대학교산학협력단 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법
KR101280439B1 (ko) * 2011-09-30 2013-06-28 아이포콤 주식회사 현금인출기 카메라에서 취득된 얼굴 영상에 대한 얼굴 인식 가능성 판단 방법
US9202033B2 (en) 2011-12-14 2015-12-01 Intel Corporation Techniques for skin tone activation
US10248848B2 (en) * 2012-03-13 2019-04-02 Nokia Technologies Oy Method and apparatus for improved facial recognition
US9177130B2 (en) * 2012-03-15 2015-11-03 Google Inc. Facial feature detection
US8515139B1 (en) * 2012-03-15 2013-08-20 Google Inc. Facial feature detection
KR101310885B1 (ko) * 2012-05-31 2013-09-25 주식회사 에스원 영역 분할을 토대로 하는 얼굴 인식 방법 및 그 장치
CN102902971A (zh) * 2012-08-31 2013-01-30 电子科技大学 基于智能视觉感知的电梯人流量统计方法及系统
JP5652886B2 (ja) 2012-11-28 2015-01-14 Necカシオモバイルコミュニケーションズ株式会社 顔認証装置、認証方法とそのプログラム、情報機器
CN103064985B (zh) * 2013-01-28 2015-07-22 北京理工大学 基于先验知识的图像检索方法
CN103310415A (zh) * 2013-03-15 2013-09-18 清华大学 基于人脸的图像缺损补绘方法及系统
CN103245713B (zh) * 2013-03-25 2016-01-20 江苏易谱恒科技有限公司 基于支持向量机和离子迁移谱的中草药产地鉴别方法
US9558396B2 (en) 2013-10-22 2017-01-31 Samsung Electronics Co., Ltd. Apparatuses and methods for face tracking based on calculated occlusion probabilities
KR101515928B1 (ko) * 2013-11-29 2015-05-06 재단법인대구경북과학기술원 가변 가중치 결합을 이용하는 얼굴 인식 장치 및 방법
CN103679156A (zh) * 2013-12-31 2014-03-26 武汉理工大学 一种多类运动目标自动识别与跟踪的方法
EP2919142B1 (de) * 2014-03-14 2023-02-22 Samsung Electronics Co., Ltd. Elektronische vorrichtung und verfahren zur bereitstellung von gesundheitsstatusinformationen
US9510196B2 (en) 2014-03-17 2016-11-29 Qualcomm Incorporated Method and apparatus for authenticating a user on a mobile device
JP6630999B2 (ja) * 2014-10-15 2020-01-15 日本電気株式会社 画像認識装置、画像認識方法、および、画像認識プログラム
KR101956071B1 (ko) 2015-01-13 2019-03-08 삼성전자주식회사 사용자 인증 방법 및 장치
US9430697B1 (en) * 2015-07-03 2016-08-30 TCL Research America Inc. Method and system for face recognition using deep collaborative representation-based classification
CN107004073B (zh) * 2015-10-31 2021-03-05 华为技术有限公司 一种面部验证的方法和电子设备
CN105787432B (zh) * 2016-01-15 2019-02-05 浙江工业大学 基于结构感知的人脸遮挡检测方法
KR200482268Y1 (ko) 2016-02-04 2017-01-05 이길순 백팩과 결합되어 음이온이 나오는 미세먼지 방지용 마스크
US10452071B1 (en) * 2016-02-29 2019-10-22 AI Incorporated Obstacle recognition method for autonomous robots
US11023712B2 (en) 2017-01-05 2021-06-01 Nec Corporation Suspiciousness degree estimation model generation device
CN108932458B (zh) * 2017-05-24 2020-09-11 恒睿(重庆)人工智能技术研究院有限公司 恢复眼镜遮挡区域的人脸重建方法及装置
US11169661B2 (en) * 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
WO2019100436A1 (en) * 2017-11-22 2019-05-31 Zhejiang Dahua Technology Co., Ltd. Methods and systems for face recognition
CN109446893A (zh) * 2018-09-14 2019-03-08 百度在线网络技术(北京)有限公司 人脸识别方法、装置、计算机设备及存储介质
JP7232008B2 (ja) * 2018-09-27 2023-03-02 株式会社アイシン 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム
US11042727B2 (en) * 2019-09-30 2021-06-22 Lenovo (Singapore) Pte. Ltd. Facial recognition using time-variant user characteristics
JP6852779B2 (ja) * 2019-12-12 2021-03-31 日本電気株式会社 画像認識装置、画像認識方法、および、画像認識プログラム
JP7409172B2 (ja) 2020-03-12 2024-01-09 大日本印刷株式会社 画像生成システム
CN111914748B (zh) * 2020-07-31 2023-10-27 平安科技(深圳)有限公司 人脸识别方法、装置、电子设备及计算机可读存储介质
CN112784795B (zh) * 2021-01-30 2022-02-01 深圳市心和未来教育科技有限公司 一种人脸快速识别分析设备及系统
CN114886404B (zh) * 2022-07-13 2022-10-28 西南民族大学 一种电子设备、装置及存储介质
CN116700408A (zh) * 2023-07-31 2023-09-05 济南深蓝动物保健品有限公司 一种基于人工智能的水量自动控制方法及相关设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2648054B2 (ja) * 1991-07-26 1997-08-27 シャープ株式会社 警報装置
US5438629A (en) * 1992-06-19 1995-08-01 United Parcel Service Of America, Inc. Method and apparatus for input classification using non-spherical neurons
JPH0883341A (ja) 1994-09-12 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> 物体領域抽出方法とその装置及び物体認識装置
WO1996029674A1 (en) * 1995-03-20 1996-09-26 Lau Technologies Systems and methods for identifying images
US5710833A (en) * 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
JPH1082154A (ja) 1996-09-04 1998-03-31 Toto Ltd 手摺り
JP3621245B2 (ja) * 1997-12-12 2005-02-16 株式会社東芝 人物認識装置、人物認識方法、および、人物認識プログラムの記録媒体
JP2000061100A (ja) 1998-08-21 2000-02-29 Daiman:Kk パチンコ機における自動出玉補償装置
KR100293897B1 (ko) * 1999-03-23 2001-06-15 박광소 은행거래시스템의 거래자 안면인식방법
JP4395970B2 (ja) 1999-03-31 2010-01-13 沖電気工業株式会社 撮影装置及び取引処理装置
US6944319B1 (en) * 1999-09-13 2005-09-13 Microsoft Corporation Pose-invariant face recognition system and process
KR20000023915A (ko) * 1999-09-22 2000-05-06 이칠기 표정변화와 주변환경에 독립적인 얼굴인식을 위한 학습 및인식방법.
JP4426029B2 (ja) 1999-09-27 2010-03-03 富士通株式会社 画像照合方法および装置
EP1260935B1 (de) * 2001-05-22 2006-07-12 Matsushita Electric Industrial Co., Ltd. Gerät zur Gesichtsdetektion, Gerät zur Detektion der Gesichtspose, Gerät zur Extraktion von Teilbildern und Verfahren für diese Geräte
KR100873809B1 (ko) * 2002-06-27 2008-12-11 주식회사 케이티 얼굴 정보 추출 방법 및 그를 이용한 얼굴 인식 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013010492A1 (de) 2013-06-25 2015-01-08 Modi Modular Digits Gmbh Einrichtung und Verfahren zum Erkennen eines Fälschungsversuchs bei einer Personenidentifikation sowie Kontrollstation zur automatisierten Personenkontrolle

Also Published As

Publication number Publication date
KR100473598B1 (ko) 2005-03-11
EP1416425B1 (de) 2007-10-24
US20040091137A1 (en) 2004-05-13
JP2004158013A (ja) 2004-06-03
KR20040039788A (ko) 2004-05-12
EP1416425A1 (de) 2004-05-06
DE60317025D1 (de) 2007-12-06
US7321670B2 (en) 2008-01-22

Similar Documents

Publication Publication Date Title
DE60317025T2 (de) Vorrichtung und Verfahren zur Gesichtserkennung
Ejaz et al. Implementation of principal component analysis on masked and non-masked face recognition
DE60312427T2 (de) Verfahren zum Überprüfen eines Benutzers und zum Aktualisieren einer Datenbank, und dieses Verfahren benutzendes Gesichtsprüfungssystem
EP3367279B1 (de) Verfahren und vorrichtung zur authentifizierung der identität mittels fusion mehrerer biologischer eigenschaften
DE69833999T2 (de) Verfahren zur automatischen erkennung menschlicher augen in digitalbildern
DE69815291T2 (de) Sicherheitsgerät und verfahren
Heseltine et al. Face recognition: A comparison of appearance-based approaches
EP3047424B1 (de) Vorrichtung, system und verfahren zum identifizieren einer person
EP1062640B1 (de) Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes
Heseltine et al. Evaluation of image preprocessing techniques for eigenface-based face recognition
DE10132013B4 (de) Multimodale Biometrie
DE60207863T2 (de) Vorrichtung und Verfahren zur Gesichtserkennung
US20070122005A1 (en) Image authentication apparatus
CN108829900A (zh) 一种基于深度学习的人脸图像检索方法、装置及终端
DE112010003796B4 (de) System und Verfahren zur Erzeugung und Verwendung von Iriscodes geringer Länge
DE60030739T2 (de) Überprüfung der zugangsberechtigung
Hernandez-Diaz et al. Cross spectral periocular matching using resnet features
Rana et al. Iris recognition system using PCA based on DWT
DE102023125422A1 (de) Hybrides Objekterkennungsverfahren auf der Basis von Wärmebildern in Kombination mit YOLO-Modellen und Objektverfolgungstechniken
EP0886833B1 (de) Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen
CN116311467A (zh) 一种基于人脸识别的身份验证处理方法及装置
Ekenel A robust face recognition algorithm for real-world applications
EP2551788A1 (de) Verfahren zur biometrischen gesichtserkennung
JPH02187866A (ja) 個人照合方法および装置
Feitosa et al. Comparing the performance of the discriminant analysis and RBF neural network for face recognition

Legal Events

Date Code Title Description
8364 No opposition during term of opposition