DE102011001319B4 - Gesichts-Identifikationsverfahren zur Unterdrückung eines Rauschens bzw. einer Umgebungsauswirkung - Google Patents

Gesichts-Identifikationsverfahren zur Unterdrückung eines Rauschens bzw. einer Umgebungsauswirkung Download PDF

Info

Publication number
DE102011001319B4
DE102011001319B4 DE102011001319A DE102011001319A DE102011001319B4 DE 102011001319 B4 DE102011001319 B4 DE 102011001319B4 DE 102011001319 A DE102011001319 A DE 102011001319A DE 102011001319 A DE102011001319 A DE 102011001319A DE 102011001319 B4 DE102011001319 B4 DE 102011001319B4
Authority
DE
Germany
Prior art keywords
face image
sub
preliminary
feature vector
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102011001319A
Other languages
English (en)
Other versions
DE102011001319A1 (de
Inventor
Wei-Ting Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Micro Star International Co Ltd
Original Assignee
Micro Star International Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Micro Star International Co Ltd filed Critical Micro Star International Co Ltd
Publication of DE102011001319A1 publication Critical patent/DE102011001319A1/de
Application granted granted Critical
Publication of DE102011001319B4 publication Critical patent/DE102011001319B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Ein Gesichts-Identifikationsverfahren, welches ein Rauschen bzw. eine Umgebungsauswirkung unterdrücken kann und das durch eine Datenverarbeitungsvorrichtung zum Identifizieren der Übereinstimmung eines vorläufigen Gesichtsbilds mit einem Bezugsgesichtsbild ausgeführt wird Bei diesem Verfahren werden das vorläufige Gesichtsbild und das Bezugsgesichtsbild zunächst durch die Geräuschreduzierung mittels Gaußscher Weichzeichner verarbeitet und daraufhin in mehrere Sektionen unterteilt, um die jeweiligen Merkmalsvektorgruppen für das vorläufige Gesichtsbild und für das Bezugsgesichtsbild zu gewinnen. Anschließend wird ein entsprechender Dynamikschwellenwert je nach Zustand der Umgebung ausgewählt, der Unterschied zwischen den Merkmalsvektorgruppen verglichen sowie beurteilt, ob das vorläufige Gesichtsbild mit dem Bezugsgesichtsbild übereinstimmt.

Description

  • Die Erfindung betrifft ein Gesichts-Identifikationsverfahren, insbesondere ein solches Verfahren, das ein Rauschen bzw. eine Umgebungsauswirkung unterdrücken kann.
  • Im Stand der Technik ist zum Erwerb der Zugangsbefugnis beispielsweise in das Zutrittskontrollsystem oder Computersystem die Eingabe der ID und des Passworts erforderlich.
  • Die Eingabe der ID und des Passworts kann entweder durch manuelles Eintippen oder durch automatisches Auslesen der Kennkarte, z. B. der Tastkennkarte oder RFID-Karte, erfolgen. Beim manuellen Eintippen passiert doch nicht selten, dass die ID und das Passwort unterschlagen oder vergessen werden, beim Einsatz der Kennkarten können Veruntreuungen oder illegale Piraterien auch nicht ausgeschlossen werden.
  • Um diese Probleme zu lösen, wird die Gesichtsidentifikationstechnik heutzutage zum Erkennen persönlicher Identität bzw. zum Erwerb einer bestimmten Zugangsbefugnis zunehmend verwendet.
  • Die Gesichtsidentifikationstechnik umfasst im Wesentlichen zwei Phasen, nämlich die Gesichtsstudiephase und die Gesichtsidentifizierungsphase. In der Gesichtsstudiephase wird das Gesicht eines Benutzers aufgenommen, das resultierende Bild nach einem vorgesehenen Datenverarbeitungsvorgang in bestimmte Daten modifiziert, über welche die Bildmerkmale interpretiert werden. In der Gesichtsidentifizierungsphase wird auch ein zu identifizierendes Gesicht aufgenommen und das resultierende Bild nach einem vorgesehenen Datenverarbeitungsvorgang in bestimmte Daten modifiziert, über welche die Bildmerkmale interpretiert werden. Zuletzt werden die beiden Datengruppen verglichen bzw. die Ähnlichkeit ihrer Merkmale beurteilt, um zu entscheiden, ob das zu identifizierende Gesicht in Einklang mit dem Bezugsgesichtsbild steht.
  • Auf die oben genannte Gesichtsidentifikationstechnik ist beispielsweise die PCT Patentoffenlegung Nr. WO 97/021190 bezogen, laut deren Patentverfahren sich die Daten der aufgezeichneten oder eingegebenen Bilder auf eine bestimmte Weise auswerten lassen, damit die signalbedingt präsentierten Bildmerkmale erstellt oder mit den vorhandenen Daten auf der Datenbank verglichen werden. Darauf ist die amerikalische Patentoffenlegung Nr. US2007/0172099 ebenfalls bezogen, laut deren Patentverfahren das Gesicht eines Benutzers abgebildet wird und daraufhin die Daten der Abbildung auf eine bestimmte Weise ausgewertet werden, um mehrere Gesichtsbildmerkmale zu gewinnen. Die gewonnenen Gesichtsbildmerkmale werden anschließend zum Sortieren der Gesichtsbilder verglichen und zusammengefasst. Darauf ist auch die amerikanische Patentoffenlegung Nr. US2009/0074259 bezogen, laut deren Patentverfahren das Gesicht eines Benutzers abgebildet wird und daraufhin die Daten der Abbildung auf eine bestimmte Weise ausgewertet werden. Auf der Grundlage der Auswertungsergebnisse werden die Bioparameter des Benutzers mittels eines einfach unterstützten Vektorgeräts (OC-SVM) erstellt bzw. abgespeichert, wobei die Vereinzelungsergebnisse zum schnelleren bzw. genaueren Erkennen der Konformität des Benutzers mit den gespeicherten Daten wirken.
  • Die Technologie, die das Gesichtsbild in bestimmte Kenndaten zum Identifizieren modifizieren kann, umfasst viele Verfahren, wie die Hauptkomponentenanalyse (Principal Components Analysis), 3D-Gesichtsidentifikation, auf fünf Sinnesorganen basierende Gesichtsidentifikation, Submerkmalsvektorvergleich usw. Die oben genannten Verfahren haben zwar verschiedene Nachteile bzw. Vorteile, stehen aber einem gleichen Problem entgegen: die Umgebung während der Gesichtsidentifizierungsphase unterscheidet sich oft erheblich von derjenigen während der Gesichtsstudiephase, oder das Bild des zu identifizierenden Gesichts beinhaltet Rauschen, und diese Umgebungsunterschiede und Rauschen stellen bei der Gesichtsidentifikation eine Störung oder Hemmnis dar. Um die Peinlichkeit, dass viele angemeldeten Benutzer oft nicht erfolgreich identifiziert worden waren, zu vermeiden, wurde inzwischen versucht, die Vergleichskriterien für die Gesichtsidentifizierungsphase zu minimieren. Aber mit den minimierten Vergleichskriterien konnte die erforderliche Sicherheit nicht gewährleistet werden, d. h. manche Fremden können die Gesichtsprüfung auch bestehen.
  • Angesichts der oben genannten Probleme liegt der vorläufigen Erfindung die Aufgabe zugrunde, ein auf dem Submerkmalsvektorvergleich basierendes Gesichts-Identifikationsverfahren zu entwickeln, um die Rausch- bzw. Umgebungsstörungen, die sich auf die Zuverlässigkeit der Gesichtsidentifikation auswirken können, zu unterdrücken.
  • Die Erfindung bietet ein Gesichts-Identifikationsverfahren, welches ein Rauschen bzw. eine Umgebungsauswirkung unterdrücken kann, das durch eine Datenverarbeitungsvorrichtung zum Identifizieren der Übereinstimmung eines vorläufigen Gesichtsbilds mit einem Bezugsgesichtsbild ausgeführt wird, mit folgenden Schritten:
    Bereitstellen einer Merkmalsvektordatenbank, auf der eine Referenz-Submerkmalsvektorgruppe, ein Referenz-Umgebungsstatusvektor und eine Dynamikschwellenwertliste des Bezugsgesichtsbilds gespeichert werden,
    Aufzeichnen des vorläufigen Gesichtsbilds,
    Bestimmen der vorläufigen Submerkmalsvektorgruppe des vorläufigen Gesichtsbilds,
    Vergleichen jedes Submerkmalsvektors der vorläufigen Submerkmalsvektorgruppe mit dem jeweiligen Submerkmalsvektor der Referenz-Submerkmalsvektorgruppe, und daraufhin Ermitteln der Submerkmalsvektorabweichungen jeder Sektion des vorläufigen Gesichtsbilds,
    Rangieren der Submerkmalsvektorabweichungen in einer aufsteigenden Reihenfolge,
    Summieren der ausgewählten Submerkmalsvektorabweichungen, nachdem eine bestimmte Anzahl aus den kleineren Submerkmalsvektorabweichungen ausgewählt ist,
    Bestimmen des vorläufigen Umgebungsstatusvektors des vorläufigen Gesichtsbilds,
    Ermitteln der euklidischen Abweichung des Referenz-Umgebungsstatusvektors vom vorläufigen Umgebungsstatusvektor,
    Auswählen eines entsprechenden Dynamikschwellenwerts aus der Dynamikschwellenwertliste nach der euklidischen Abweichung des Referenz-Umgebungsstatusvektors vom vorläufigen Umgebungsstatusvektor, wobei in der Dynamikschwellenwertliste mehrere Dynamikschwellenwerte aufgezeichnet sind und jeder Dynamikschwellenwert von einem bestimmten euklidischen Abweichungsbereich abhängig bleibt, und
    Beurteilen, ob die Gesamtabweichung den Dynamikschwellenwert übertrifft, und, falls nicht übertroffen, Bestätigen, dass das vorläufige Gesichtsbild mit dem Bezugsgesichtsbild identisch ist.
  • Mit dem oben genannten Gesichts-Identifikationsverfahren wird das Rauschen jedes Gesichtsbilds vor dem Bestimmen der Submerkmalsvektorgruppe reduziert. Nachdem die Abweichungen zwischen den Submerkmalsvektorgruppen ermittelt wurden, werden die Schwellenwerte für diese Abweichungen dynamisch ausgewählt bzw. verglichen, damit sich jeder ausgewählte Dynamikschwellenwert zum Verbessern der Zuverlässigkeit der Gesichtsidentifikation an die Änderung des Umgebungsstatus anpasst.
  • 1 Ansicht der Datenverarbeitungsvorrichtung gemäß dem vorliegenden Gesichts-Identifikationsverfahren.
  • 2 Prozessdiagramm I des vorliegenden Gesichts-Identifikationsverfahrens.
  • 3 Diagramm der Modifikation des Bezugsgesichtsbilds in die Referenz-Submerkmalsvektorgruppe.
  • 4 Prozessdiagramm II des vorliegenden Gesichts-Identifikationsverfahrens.
  • 5 Diagramm der Ermittlung der Referenz-Umgebungsstatusvektoren.
  • 6 Prozessdiagramm III des vorliegenden Gesichts-Identifikationsverfahrens.
  • 7 Diagramm der Modifikation des vorläufigen Gesichtsbilds in die vorläufige Submerkmalsvektorgruppe.
  • 8 Prozessdiagramm IV des vorliegenden Gesichts-Identifikationsverfahrens.
  • 9 Diagramm für den adaptiven Vergleich.
  • 10 Prozessdiagramm V des vorliegenden Gesichts-Identifikationsverfahrens.
  • 11 Prozessdiagramm VI des vorliegenden Gesichts-Identifikationsverfahrens.
  • 12 Diagramm der Ermittlung der euklidischen Abweichungen zum Erwerb der Dynamikschwellenwerte.
  • 13 Prozessdiagramm VII des vorliegenden Gesichts-Identifikationsverfahrens.
  • 14 Diagramm der mehrstufigen Probenahme.
  • 15 Prozessdiagramm VIII des vorliegenden Gesichts-Identifikationsverfahrens.
  • 16 Diagramm der mehrdimensionalen Probenahme.
  • 17 Prozessdiagramm IX des vorliegenden Gesichts-Identifikationsverfahrens.
  • In den 1 und 2 ist das vorliegende Gesichts-Identifikationsverfahren schematisch dargestellt, das durch eine Datenverarbeitungsvorrichtung (20) zum Identifizieren der Übereinstimmung eines vorläufigen Gesichtsbilds (C) mit einem Bezugsgesichtsbild (R) ausgeführt wird. Das resultierende Identifikationsergebnis und die entsprechende Identität können die zum Einloggen in die Datenverarbeitungsvorrichtung (20) erforderliche ID und das Passwort ersetzen, wodurch das Verfahren zum Erwerb der Zugangsbefugnis der Datenverarbeitungsvorrichtung (20) vereinfacht wird.
  • Auf der Datenverarbeitungsvorrichtung (20) (z. B. ein PC oder ein Laptop) ist ein Gesichtsidentifikationsprogramm zum Ausführen des Gesichts-Identifikationsverfahrens installiert, welches ein Rauschen bzw eine Umgebungsauswirkung unterdrücken kann. Die Datenverarbeitungsvorrichtung (20) ist ferner an eine Merkmalsvektordatenbank (40) angeschlossen oder damit integriert, um ein vorläufiges Gesichtsbild (C) oder Bezugsgesichtsbild (R) über eine Aufnahmevorrichtung (30) aufzuzeichnen.
  • Das vorliegende Gesichts-Identifikationsverfahren enthält ein Verarbeitungsverfahren für die Gesichtsbildmerkmalsvektoren, welches nicht nur von der Gesichtsstudiephase, sondern auch von der Gesichtsidentifizierungsphase anwendbar ist.
  • In 1 wird gezeigt, dass das vorliegende Gesichts-Identifikationsverfahren das vorläufige Gesichtsbild (C) oder Bezugsgesichtsbild (R) eines Benutzers über die Aufnahmevorrichtung (30) aufzeichnet und es daraufhin auf die Datenverarbeitungsvorrichtung (20) überträgt. Die Aufnahmevorrichtung (30) kann eine Kamera sein, die an die Datenverarbeitungsvorrichtung (20) angeschlossen oder darin integriert ist.
  • In den 2 und 3 sind die einzelnen Schritte der Gesichtsstudiephase dargestellt. Die Gesichtsstudiephase enthält tatsächlich ein Verarbeitungsverfahren für die Gesichtsbildmerkmalsvektoren, in dem eine Merkmalsvektordatenbank (40) zur Verfügung steht.
  • Wie in den 2 und 3 dargestellt ist, wird die Aufnahmevorrichtung (30) im Schritt des Verarbeitungsverfahrens für die Gesichtsbildmerkmalsvektoren zunächst auf das Gesicht des Benutzers gerichtet, um ein Bezugsgesichtsbild (R) über die Aufnahmevorrichtung (30) aufzuzeichnen bzw es anschließend auf die Datenverarbeitungsvorrichtung (20) zu übertragen (siehe Schritt 110).
  • Wie in den 2 und 3 ferner dargestellt ist, wird das Bezugsgesichtsbild (R) anschließend von der Datenverarbeitungsvorrichtung (20) durch die Rauschreduzierung mittels Gaußscher Weichzeichner (Gaussian Blur Noise Reduction) verarbeitet, um das Rauschen des Bezugsgesichtsbilds (R) zu unterdrücken (siehe Schritt 120).
  • Die Rauschreduzierung mittels Gaußscher Weichzeichner dient dem Reduzieren des Rauschens, kann jedoch durch ein anderes Rauschreduzierungsverfahren ersetzt werden. Falls ausreichend Licht zum Aufzeichnen des Bezugsgesichtsbilds (R) vorhanden ist und daher sichergestellt werden kann, dass das Bezugsgesichtsbild (R) mit geringem Rauschen aufgezeichnet wird, kann Schritt 120 (Rauschreduzierung mittels Gaußscher Weichzeichner) entfallen.
  • Wie in den 2 und 3 ferner dargestellt ist, wird das Bezugsgesichtsbild (R) durch die Datenverarbeitungsvorrichtung (20) in N × N Sektionen unterteilt, wobei jeder Sektion ein Sektionscode (Block_ID) zugewiesen ist (siehe Schritt 130).
  • Wie in den 2 und 3 ferner dargestellt ist, wird durch die Datenverarbeitungsvorrichtung (20) jeder Pixelwert jeder Sektion analysiert und jede Sektion durch die lokale binäre Mustererkennung (Local Binary Pattern, LBP) verarbeitet. Die Datenverarbeitungsvorrichtung (20) kann jede Sektion je nach Änderung des Pixelwerts auf einen Submerkmalsvektor mit mehreren Dimensionalitäten modifizieren (siehe Schritt 140).
  • Wie in den 2 und 3 ferner dargestellt ist, hat das Bezugsgesichtsbild (R) insgesamt N × N Submerkmalsvektoren gewonnen, welche durch die Datenverarbeitungsvorrichtung (20) zu einer Referenz-Submerkmalsvektorgruppe kombiniert werden, die in der Merkmalsvektordatenbank (40) abgelegt wird (siehe Schritt 150).
  • Wie in den 2 und 3 ferner dargestellt ist, wird die Referenz-Submerkmalsvektorgruppe durch die Datenverarbeitungsvorrichtung (20) in die Merkmalsvektordatenbank (40) übertragen (siehe Schritt 160).
  • Die obigen Schritte sind zum Erstellen einer Referenz-Submerkmalsvektorgruppe für den nachfolgenden Vergleichsablauf vorgesehen. Während der Erstellung der Referenz-Submerkmalsvektorgruppe kann die Datenverarbeitungsvorrichtung (20) gleichzeitig die Eingabe der Identitätsdaten empfangen, damit die Referenz-Submerkmalsvektorgruppe mit der entsprechenden Identität verbunden wird.
  • Nach den obigen Schritten wird eine Merkmalsvektordatenbank (40) generiert, wo mindestens eine Referenz-Submerkmalsvektorgruppe abgelegt wird, die in Zusammenhang mit der entsprechenden Identität gebunden ist.
  • Daraufhin wird ein Referenz-Umgebungsstatusvektor für das Bezugsgesichtsbild (R) folgendermaßen ermittelt:
    Wie in den 4 und 5 dargestellt ist, wird das Bezugsgesichtsbild (R) durch die Datenverarbeitungsvorrichtung (20) in vier Äquivalenzsektoren aufgeteilt, nämlich den ersten Äquivalenzsektor (1), den zweiten Äquivalenzsektor (2), den dritten Äquivalenzsektor (3) und den vierten Äquivalenzsektor (4), welche alle von dem Äquivalenzsektor (1) links oben entgegen dem Uhrzeigersinn angeordnet sind (Siehe auch Schritt 170).
  • Wie in den 4 und 5 ferner dargestellt ist, werden anschließend die mittleren Graustufen m1, m2, m3 und m4 jeweils von dem Äquivalenzsektor (1), (2), (3) und (4) durch die Datenverarbeitungsvorrichtung (20) berechnet (siehe Schritt 181).
  • Wie in den 4 und 5 sowie in Schritt 182 dargestellt ist, werden anschließend durch die Datenverarbeitungsvorrichtung (20) vier Graustufenabweichungen (m1–m4), (m2–m3), (m1–m2) und (m4–m3) ermittelt, und zwar durch Subtrahieren der mittleren Graustufen der sich links befindenden Äquivalenzsektoren von den mittleren Graustufen der sich rechts befindenden Äquivalenzsektoren sowie Subtrahieren der mittleren Graustufen der sich oben befindenden Äquivalenzsektoren von den mittleren Graustufen der sich unten befindenden Äquivalenzsektoren. Dieses Berechnungsprinzip dient dem Ermitteln der Abweichung jeder mittleren Graustufe von den anderen mittleren Graustufen. Es kann aber dafür auch ein anderes Prinzip verwendet werden. Darüber hinaus ist die Anzahl der Äquivalenzsektoren nicht unbedingt auf vier (2 × 2) beschränkt und kann 3 × 3, 4 × 4 oder dergleichen sein.
  • Wie in Schritt 190 dargestellt ist, werden anschließend die mittleren Graustufen m1, m2, m3 und m4 sowie die vier Graustufenabweichungen (m1–m4), (m2–m3), (m1–m2) und (m4–m3) als die wesentlichen Daten jeder Dimensionalität zu einem Referenz-Umgebungsstatusvektor kombiniert und dann in der Merkmalsvektordatenbank (40) abgelegt.
  • In den folgenden Abschnitten wird die Gesichtsidentifizierungsphase des vorliegenden Gesichts-Identifikationsverfahrens beschrieben. Während der Gesichtsidentifizierungsphase wird ebenfalls zunächst eine vorläufige Submerkmalsvektorgruppe über das Verarbeitungsverfahren für die Gesichtsbildmerkmalsvektoren erworben. Daraufhin wird die vorläufige Submerkmalsvektorgruppe mit den jeweiligen Referenz-Submerkmalsvektorgruppen in der Merkmalsvektordatenbank (40) nacheinander verglichen.
  • Wie in den 6 und 7 dargestellt ist, wird die Aufnahmevorrichtung (30) zunächst auf das Gesicht des Benutzers gerichtet, um ein vorläufiges Gesichtsbild (C) über die Aufnahmevorrichtung (30) aufzuzeichnen und es anschließend zur Datenverarbeitungsvorrichtung (20) zu übertragen (siehe Schritt 210).
  • Wie in den 6 und 7 ferner dargestellt ist, wird das vorläufige Gesichtsbild (C) von der Datenverarbeitungsvorrichtung (20) durch die Rauschreduzierung mittels Gaußscher Weichzeichner verarbeitet, um das Rauschen des vorläufigen Gesichtsbilds (C) zu unterdrücken (siehe Schritt 220). Ähnlich wie in Schritt 120 dient die Rauschreduzierung mittels Gaußscher Weichzeichner dem Reduzieren des Rauschens, sie kann jedoch durch ein anderes Rauschreduzierungsverfahren ersetzt werden. Falls ausreichend Licht zum Aufzeichnen des vorläufigen Gesichtsbilds (C) vorhanden ist und daher sichergestellt werden kann, dass das vorläufige Gesichtsbild (C) mit geringem Rauschen aufgezeichnet wird, kann Schritt 220 (Rauschreduzierung mittels Gaußscher Weichzeichner) entfallen.
  • Wie in den 6 und 7 ferner dargestellt ist, wird das vorläufige Gesichtsbild (C) durch die Datenverarbeitungsvorrichtung (20) in N × N Sektionen unterteilt, wobei jeder Sektion ein Sektionscode (Block_ID) zugewiesen ist (siehe Schritt 230).
  • Wie in den 6 und 7 ferner dargestellt ist, wird durch die Datenverarbeitungsvorrichtung (20) jeder Pixelwert jeder Sektion analysiert und jede Sektion durch die lokale binäre Mustererkennung verarbeitet. Die Datenverarbeitungsvorrichtung (20) kann jede Sektion des vorläufigen Gesichtsbilds (C) je nach Änderung des Pixelwerts auf einen Submerkmalsvektor mit mehreren Dimensionalitäten modifizieren (siehe Schritt 240).
  • Wie in den 6 und 7 ferner dargestellt ist, hat das vorläufige Gesichtsbild (C) insgesamt N × N Submerkmalsvektoren gewonnen, welche durch die Datenverarbeitungsvorrichtung (20) zu einer vorläufigen Submerkmalsvektorgruppe kombiniert werden (siehe Schritt 250).
  • Wie in den 8 und 9 dargestellt ist, wird jeder Submerkmalsvektor der vorläufigen Submerkmalsvektorgruppe des vorläufigen Gesichtsbilds (C) durch die Datenverarbeitungsvorrichtung (20) mit dem Submerkmalsvektor der Referenz-Submerkmalsvektorgruppe des Bezugsgesichtsbilds (R) verglichen und daraufhin die Submerkmalsvektorabweichung jeder Sektion des vorläufigen Gesichtsbilds (C) ermittelt (siehe Schritt 300).
  • Wie in 10 dargestellt ist, wird der adaptive Vergleich in Schritt 300 folgendermaßen ausgeführt:
    Zunächst wird eine Referenz-Submerkmalsvektorgruppe über die Merkmalsvektordatenbank (40) durch die Datenverarbeitungsvorrichtung (20) aufgeladen (siehe auch Schritt 310).
  • Anschließend werden die einander entsprechenden Submerkmalsvektoren mit einem identischen Sektionscode (Block_ID) jeweils von der Referenz-Submerkmalsvektorgruppe und der vorläufigen Submerkmalsvektorgruppe verglichen, woraus sich N × N Submerkmalsvektorabweichungen ergeben (siehe noch Schritt 320).
  • Durch die Datenverarbeitungsvorrichtung (20) werden die Submerkmalsvektorabweichungen in einer aufsteigenden Reihenfolge angeordnet und eine bestimmte Anzahl nur aus den kleineren Submerkmalsvektorabweichungen, LB. den vom rangierten 65% von allen, ausgewählt, wobei die größeren Submerkmalsvektorabweichungen entfallen (siehe Schritt 330).
  • Wie Schritt 340 zeigt, werden die ausgewählten Submerkmalsvektorabweichungen durch die Datenverarbeitungsvorrichtung (20) summiert.
  • In Schritt 330 entfallen die größeren Submerkmalsvektorabweichungen, weil die Submerkmalsvektoren jeder Sektion ausnahmslos durch Rauschen beeinträchtigt werden, während die lokale binäre Mustererkennung (LBP) in Schritt 140 und Schritt 240 ausgeführt wird. Die entfallenden Sektionen, die den entfallenden größeren Submerkmalsvektorabweichungen zugeordnet sind, sind tatsächlich diejenigen, die durch Rauschen, insbesondere durch kornartiges Rauschen, wie Schatten, Pony oder glatte Gesichtsfläche, beeinflusst werden. Bei diesem Entfallen werden nahezu keine wichtigen Gesichtsmerkmale gelöscht.
  • Darüber hinaus können sich manche schlecht identifizierbaren Sektionen trotz einer normalen Beleuchtung und geringem Rauschen hervorheben, z. B. das sich aus einem starken Licht ergebende kornartige Rauschen an einer glatten Stirn oder Wange. Solche Sektionen haben nicht nur geringe identifizierbare Merkmale, sondern ihre Submerkmalsvektoren werden auch wegen der Auswirkung einer normalen Beleuchtung bei der Kombination der Merkmalsvektoren hervorgehoben, was dazu (ihren kann, dass die zugehörigen Submerkmalsvektorabweichungen größer werden. In diesem Zusammenhang passiert es bei einer normalen Beleuchtung nicht, dass die wichtigen Gesichtsmerkmale beim Entfallen der größeren Submerkmalsvektorabweichungen nicht gelöscht, sondern verstärkt werden.
  • Anschließend wird ein Dynamikschwellenwert zur Überprüfung durch die Datenverarbeitungsvorrichtung (20) bestimmt (siehe Schritt 400). Mittels des Dynamikschwellenwerts wird kontrolliert, ob dieser Dynamikschwellenwert durch die Gesamt-Submerkmalsvektorabweichung des vorläufigen Gesichtsbilds (C) von dem Bezugsgesichtsbild (R) auf der Merkmalsvektordatenbank (40) übertroffen wird, d. h. ob der Dynamikschwellenwert durch die Abweichung der vorläufigen Submerkmalsvektorgruppe von der Referenz-Submerkmalsvektorgruppe übertroffen wird.
  • In den 11 und 12 wird Schritt 400 folgendermaßen erläutert:
    Wie in den 11 und 12 dargestellt ist, wird das vorläufige Gesichtsbild (C) durch die Datenverarbeitungsvorrichtung (20) in vier Äquivalenzsektoren aufgeteilt, nämlich den ersten Äquivalenzsektor (1), den zweiten Äquivalenzsektor (2), den dritten Äquivalenzsektor (3) und den vierten Äquivalenzsektor (4), welche alle von dem Äquivalenzsektor (1) links oben entgegen dem Uhrzeigersinn angeordnet sind (siehe Schritt 410).
  • Wie in den 11 und 12 ferner dargestellt ist, werden die mittleren Graustufen m1, m2, m3 und m4 jeweils von dem Äquivalenzsektor (1), (2), (3) und (4) durch die Datenverarbeitungsvorrichtung (20) berechnet (siehe Schritt 420).
  • Wie in den 11 und 12 sowie in Schritt 430 dargestellt ist, werden anschließend durch die Datenverarbeitungsvorrichtung (20) die Graustufenabweichungen (m1–m4), (m2–m3), (m1–m2) und (m4–m3) jeder Graustufe von den anderen ermittelt.
  • Wie in Schritt 440 dargestellt ist, werden anschließend die mittleren Graustufen m1, m2, m3 und m4 sowie die vier Graustufenabweichungen (m1–m4), (m2–m3), (m1–m2) und (m4–m3) als die wesentlichen Daten jeder Dimensionalität zu einem vorläufigen Umgebungsstatusvektor zusammengesetzt.
  • Die Schritte in den Schritten 410 bis 440 sind ähnlich wie die Schritte in den Schritten 160 bis 190, wobei der einzige Unterschied darin besteht, ob es sich um das Bezugsgesichtsbild (R) oder ob es sich um das vorläufige Gesichtsbild (C) handelt.
  • Wie in Schritt 450 dargestellt ist, wird die euklidische Abweichung (Euclidean distance) des Referenz-Umgebungsstatusvektors vom vorläufigen Umgebungsstatusvektor durch die Datenverarbeitungsvorrichtung (20) berechnet.
  • Wie in Schritt 460 dargestellt ist, wird eine Dynamikschwellenwertliste durch die Datenverarbeitungsvorrichtung (20) über die Merkmalsvektordatenbank (40) aufgeladen. In der Dynamikschwellenwertliste sind mehrere Dynamikschwellenwerte aufgezeichnet, wobei jeder Dynamikschwellenwert von einem bestimmten euklidischen Abweichungsbereich abhängig bleibt. Anhand der Dynamikschwellenwertliste wird ein Zusammenhang jedes Dynamikschwellenwerts mit einem bestimmten euklidischen Abweichungsbereich durch Tests in verschiedenen Umgebungen erstellt.
  • Wie in Schritt 470 dargestellt ist, wird ein Dynamikschwellenwert basierend auf der euklidischen Abweichung des Referenz-Umgebungsstatusvektors vom vorläufigen Umgebungsstatusvektor durch die Datenverarbeitungsvorrichtung (20) ermittelt.
  • Wie in 8 und in Schritt 500 dargestellt ist, beurteilt die Datenverarbeitungsvorrichtung (20), ob die Gesamtabweichung den Dynamikschwellenwert übertrifft.
  • Sollte die Gesamtabweichung der vorläufigen Submerkmalsvektorgruppe von der Referenz-Submerkmalsvektorgruppe den Dynamikschwellenwert übertroffen haben, wird beurteilt, ob das vorläufige Gesichtsbild (C) mit dem Bezugsgesichtsbild (R) nicht übereinstimmt. Dies bedeutet, dass das aufgezeichnete Gesicht das Gesicht eines Fremden ist (siehe Schritt 510).
  • Sollte die Gesamtabweichung der vorläufigen Submerkmalsvektorgruppe von der Referenz-Submerkmalsvektorgruppe den Dynamikschwellenwert nicht übertroffen haben, wird beurteilt, ob das vorläufige Gesichtsbild (C) mit dem Bezugsgesichtsbild (R) übereinstimmt. Dies bedeutet, dass das aufgezeichnete Gesicht das Gesicht eines autorisierten Benutzers ist (siehe Schritt 520).
  • Das genannte Identifikationsergebnis und die der Referenz-Submerkmalsvektorgruppe entsprechende Identität können die zum Einloggen in die Datenverarbeitungsvorrichtung (20) erforderliche ID und das Passwort ersetzen, wodurch das Verfahren zum Erwerb der Zugangsbefugnis der Datenverarbeitungsvorrichtung (20) vereinfacht wird.
  • Die Dynamikschwellenwerte spiegeln die bei der Aufzeichnung des vorläufigen Gesichtsbilds (C) bzw. des Bezugsgesichtsbilds (R) vorhandenen Umgebungseinflüsse wider. Auf diese Weise kann durch Vergleichen und ggf. Einstellen der Schwellenwerte je nach Umgebungseinfluss vermieden werden, dass entweder die Erkennungsschwelle des Gesichts-Identifikationsverfahrens zu streng angesetzt ist oder ein Fremder die Identitätskontrolle leicht besteht.
  • Um die Zuverlässigkeit der Gesichtsidentifikation zu erhöhen, stellt das vorliegende Gesichts-Identifikationsverfahren zwei folgende Korrekturverfahren zur Verfügung.
  • Bei dem ersten Korrekturverfahren wird eine mehrstufige Probenahme durchgeführt, wobei die Anzahl der Submerkmalsvektoren jeweils von der vorläufigen Submerkmalsvektorgruppe und der Referenz-Submerkmalsvektorgruppe vermehrt wird, um wirksame Vergleichsproben zu vermehren.
  • Wie in den 13 und 14 dargestellt ist, kann das mehrstufige Probenahmeverfahren die Schritte der Schritte 130 bis 140 oder der Schritte 230 bis 240 ersetzen. In den folgenden Vorgängen werden das vorläufige Gesichtsbild (C) und Bezugsgesichtsbild (R) zum Gesichtsbild (F) zusammengefasst.
  • Wie in den 13 und 14 dargestellt ist, wird, nachdem das gewonnene Gesichtsbild (F) bezüglich des Rauschens bearbeitet worden ist (nach der Phase der Schritte 110 bis 120 oder der Schritte 210 bis 220), das Gesichtsbild (F) durch die Datenverarbeitungsvorrichtung (20) in Bildstufe I (F1) und Bildstufe II (F2) aufgeteilt, wobei die Bildstufe I (F1) als das originale Gesichtsbild (F) gilt, während die Bildstufe II (F2) jedoch als ein Sektor des originalen Gesichtsbilds (F), insbesondere eine Gesichtsmittelzone mit klaren Merkmalen, gilt (siehe auch Schritt 610).
  • Wie in den 13 und 14 ferner dargestellt ist, werden durch die Datenverarbeitungsvorrichtung (20) die Bildstufe I (F1) und Bildstufe II (F2) jeweils in mehrere Sektionen aufgeteilt, z. B. die Bildstufe I (F1) in N × N Sektionen und die Bildstufe II (F2) in L × L Sektionen. Anschließend wird jeder Sektion ein Sektionscode (Block_ID) zugewiesen (siehe Schritt 620).
  • Wie in den 13 und 14 ferner dargestellt ist, wird durch die Datenverarbeitungsvorrichtung (20) jeder Pixelwert jeder Sektion analysiert und jede Sektion durch die lokale binäre Mustererkennung verarbeitet. Die Datenverarbeitungsvorrichtung (20) kann jede Sektion je nach Änderung des Pixelwerts auf einen Submerkmalsvektor mit mehreren Dimensionalitäten modifizieren (siehe Schritt 630).
  • Wie in den 13 und 14 ferner dargestellt ist, kann das Bezugsgesichtsbild (R) insgesamt N × N + L × L Submerkmalsvektoren gewinnen, unter denen L × L Submerkmalsvektoren sich aus den Sektionen mit erkennbaren Gesichtsmerkmalen ergeben bzw. die Bewertung der Gesichtsmerkmale verstärken können. Diese Submerkmalsvektoren werden anschließend durch die Datenverarbeitungsvorrichtung (20) zu einer Referenz-Submerkmalsvektorgruppe zusammengefasst und daraufhin in der Merkmalsvektordatenbank (40) abgelegt, wie in Schritt 640 dargestellt ist. Das Gesichtsbild (F) kann insgesamt N × N + L × L Submerkmalsvektoren, zusammengefasst in eine Referenz-Submerkmalsvektorgruppe, gewinnen.
  • In diesem Zusammenhang werden N × N Submerkmalsvektoren zusätzlich mit L × L addiert, wobei die L × L Submerkmalsvektoren sich aus den Sektionen mit erkennbaren Gesichtsmerkmalen ergeben bzw. die Bewertung der Gesichtsmerkmale verstärken können.
  • Beim zweiten Korrekturverfahren wird eine mehrdimensionale Probenahme durchgeführt, wobei die euklidische Abweichung des vorläufigen Gesichtsbilds (C) vom Bezugsgesichtsbild (R) in der Merkmalsvektordatenbank (40) zum Vermindern des Rauschens korrigiert wird.
  • Wie in den 15 und 16 dargestellt ist, kann das mehrdimensionale Probenahmeverfahren die Schritte der Schritte 130 bis 140 oder der Schritte 230 bis 240 ersetzen.
  • Wie in den 15 und 16 dargestellt ist, wird das gewonnene (nach der Phase der Schritte 110 bis 120 oder der Schritte 210 bis 220) Bezugsgesichtsbild (R) oder das vorläufige Gesichtsbild (C) durch die Datenverarbeitungsvorrichtung (20) weiterhin auflösungsbezüglich eingestellt, woraus sich ein Kleinbezugsgesichtsbild (Rs) und ein vorläufiges Kleingesichtsbild (Cs) ergeben, wie in Schritt 710 dargestellt ist. Während ein Kleingesichtsbild generiert wird, reduziert sich die Bewertung der Gesichtsmerkmale zugleich mit dem Löschen des Rauschens. Aus diesem Grund findet das originale Gesichtsbild (F) in den nachfolgenden Schritten noch weitere Anwendung.
  • Wie in 15 dargestellt ist, wird anschließend durch die Datenverarbeitungsvorrichtung (20) das Bezugsgesichtsbild (R), das vorläufige Gesichtsbild (C), das Kleinbezugsgesichtsbild (Rs) oder das vorläufige Kleingesichtsbild (Cs) jeweils in mehrere Sektionen aufgeteilt, wobei jeder Sektion ein Sektionscode (Block_ID) zugewiesen ist (siehe Schritt 720).
  • Wie in 15 ferner dargestellt ist, wird durch die Datenverarbeitungsvorrichtung (20) jeder Pixelwert jeder Sektion analysiert und jede Sektion durch die lokale binäre Mustererkennung verarbeitet. Die Datenverarbeitungsvorrichtung (20) kann jede Sektion je nach Änderung des Pixelwerts auf einen Submerkmalsvektor mit mehreren Dimensionalitäten modifizieren (siehe Schritt 730).
  • Wie in den 15 und 16 dargestellt ist, wird durch die Datenverarbeitungsvorrichtung (20) die Submerkmalsvektorgruppe jeweils durch das Kleinbezugsgesichtsbild (Rs) und das vorläufige Kleingesichtsbild (Cs) festgelegt, um die Submerkmalsvektorabweichung jeder Sektion des vorläufigen Kleingesichtsbilds (Cs) zu ermitteln (siehe Schritt 740).
  • Wie in den 16 und 17 dargestellt ist, kann der ursprüngliche Schritt 300, nämlich der adaptive Vergleich der vorläufigen Submerkmalsvektorgruppe des vorläufigen Gesichtsbilds (C) mit jeder Referenz-Submerkmalsvektorgruppe in der Merkmalsvektordatenbank (40), nun durch zwei gleichzeitige Schritte, nämlich Schritt 300' und Schritt 300'', ersetzt werden.
  • Wie in den 16 und 17 ferner dargestellt ist, wird in Schritt 300' ebenfalls die Submerkmalsvektorabweichung jeder Sektion des vorläufigen Gesichtsbilds (C) ermittelt, d. h. der Vorgang der Schritte 310' bis 340' ist identisch mit dem Vorgang der Schritte 310 bis 340.
  • Wie in den 16 und 17 ferner dargestellt ist, wird in Schritt 300'' die Submerkmalsvektorabweichung jeder Sektion des vorläufigen Kleingesichtsbilds (Cs) ermittelt, d. h. der Vorgang der Schritte 310'' bis 340'' ist identisch mit dem Vorgang der Schritte 310 bis 340, wobei die Vergleichsgegenstände jedoch das vorläufige Kleingesichtsbild (Cs) und Kleinbezugsgesichtsbild (Rs) sind.
  • Zuletzt werden die Submerkmalsvektorabweichungen aller Sektionen des vorläufigen Kleingesichtsbilds (Cs) zur Gesamtabweichung des vorläufigen Gesichtsbilds (C) hinzugefügt, woraus sich eine Gesamtabweichung ergibt, die mit dem Dynamikschwellenwert in Schritt 500 verglichen werden soll.
  • Von dem vorliegenden Gesichts-Identifikationsverfahren werden vorwiegend die Änderungen der Umgebungsumstände berücksichtigt. Damit verbessert sich die Zuverlässigkeit der Gesichtsidentifikation, indem der aus jedem Vergleich ergebene Dynamikschwellenwert je nach Änderung der Umgebungsumstände angepasst wird.
  • Bezugszeichenliste
  • 20
    Datenverarbeitungsvorrichtung
    40
    Merkmalsvektordatenbank
    30
    Aufnahmevorrichtung
    C
    vorläufiges Gesichtsbild
    Cs
    vorläufiges Kleingesichtsbild
    F
    Gesichtsbild
    F1
    Bildstufe I
    F2
    Bildstufe II
    R
    Bezugsgesichtsbild
    Rs
    Referenz-Kleingesichtsbild

Claims (9)

  1. Gesichts-Identifikationsverfahren, welches ein Rauschen bzw. eine Umgebungsauswirkung unterdrücken kann, das durch eine Datenverarbeitungsvorrichtung zum Identifizieren der Übereinstimmung eines vorläufigen Gesichtsbilds mit einem Bezugsgesichtsbild ausgefürt wird, mit den folgenden Schritten: • Bereitstellen einer Merkmalsvektordatenbank, auf der eine Referenz-Submerkmalsvektorgruppe, ein Referenz-Umgebungsstatusvektor und eine Dynamikschwellenwertliste des Bezugsgesichtsbilds gespeichert werden, • Aufzeichnen des vorläufigen Gesichtsbilds, • Bestimmen der vorläufigen Submerkmalsvektorgruppe des vorläufigen Gesichtsbilds, • Vergleichen jedes Submerkmalsvektors der vorläufigen Submerkmalsvektorgruppe mit dem jeweiligen Submerkmalsvektor der Referenz-Submerkmalsvektorgruppe, und daraufhin Ermitteln der Submerkmalsvektorabweichungen jeder Sektion des vorläufigen Gesichtsbilds, • Anordnen dieser Submerkmalsvektorabweichungen in einer aufsteigenden Reihenfolge, • Summieren der ausgewählten Submerkmalsvektorabweichungen, nachdem eine bestimmte Anzahl aus den kleineren Submerkmalsvektorabweichungen ausgewählt ist, • Bestimmen des vorläufigen Umgebungsstatusvektors des vorläufigen Gesichtsbilds, • Ermitteln der euklidischen Abweichung des Referenz-Umgebungsstatusvektors vom vorläufigen Umgebungsstatusvektor, • Auswählen eines entsprechenden Dynamikschwellenwerts aus der Dynamikschwellenwertliste nach der euklidischen Abweichung des Referenz-Umgebungsstatusvektors vom vorläufigen Umgebungsstatusvektor, wobei in der Dynamikschwellenwertliste mehrere Dynamikschwellenwerte aufgezeichnet sind und jeder Dynamikschwellenwert von einem bestimmten euklidischen Abweichungsbereich abhängig bleibt, und • Beurteilen, ob die Gesamtabweichung den Dynamikschwellenwert übertrifft, und, falls nicht übertroffen, Bestätigen, dass das vorläufige Gesichtsbild mit dem Bezugsgesichtsbild identisch ist.
  2. Gesichts-Identifikationsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Referenz-Submerkmalsvektorgruppe oder eine vorläufige Submerkmalsvektorgruppe folgendermaßen bestimmt wird: • Aufzeichnen eines Bezugsgesichtsbilds oder eines vorläufigen Gesichtsbilds über eine Aufnahmevorrichtung, • Übertragen des Bezugsgesichtsbilds oder des vorläufigen Gesichtsbilds zur Datenverarbeitungsvorrichtung, • Unterdrücken des Rauschens im Bezugsgesichtsbild oder im vorläufigen Gesichtsbild durch die Datenverarbeitungsvorrichtung, • Aufteilen des Bezugsgesichtsbilds oder des vorläufigen Gesichtsbilds in mehrere Sektionen durch die Datenverarbeitungsvorrichtung, und • Verarbeiten jeder Sektion durch die lokale binäre Mustererkennung über die Datenverarbeitungsvorrichtung und Modifizieren jeder Sektion in mehrere Submerkmalsvektoren, die weiterhin zu einer Submerkmalsvektorgruppe zusammengefasst werden.
  3. Gesichts-Identifikationsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verfahren nach dem Aufzeichnen des Bezugsgesichtsbilds oder des vorläufigen Gesichtsbilds noch folgende Schritte aufweist: • Unterteilen des Bezugsgesichtsbilds oder des vorläufigen Gesichtsbilds in Bildstufe I und Bildstufe II durch die Datenverarbeitungsvorrichtung, wobei die Bildstufe I als das Bezugsgesichtsbild oder das vorläufige Gesichtsbild gilt, während die Bildstufe II als ein Sektor im Bezugsgesichtsbild oder vorläufigen Gesichtsbild gilt, und • Aufteilen der Bildstufe I und der Bildstufe II jeweils in mehrere Sektionen.
  4. Gesichts-Identifikationsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass zum Reduzieren des Rauschens die Rauschreduzierung mittels Gaußscher Weichzeichner (Gaussian Blur Noise Reduction) verwendet wird.
  5. Gesichts-Identifikationsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Verfahren nach dem Aufzeichnen des Bezugsgesichtsbilds oder des vorläufigen Gesichtsbilds noch folgende Schritte aufweist: • Einstellen der jeweiligen Auflösung des Bezugsgesichtsbilds und des vorläufigen Gesichtsbilds, woraus sich ein Kleinbezugsgesichtsbild (Rs) und ein vorläufiges Kleingesichtsbild (Cs) ergeben, • Bestimmen der Submerkmalsvektorgruppe jeweils von dem Kleinbezugsgesichtsbild und dem vorläufigen Kleingesichtsbild, um die Submerkmalsvektorabweichung jeder Sektion des vorläufigen Kleingesichtsbilds zu ermitteln, und • Hinzufügen der Submerkmalsvektorabweichungen aller Sektionen des vorläufigen Kleingesichtsbilds in die Gesamtabweichung des vorläufigen Gesichtsbilds.
  6. Gesichts-Identifikationsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Referenz-Submerkmalsvektorgruppe mit einer entsprechenden Identität zusammenhängt.
  7. Gesichts-Identifikationsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Referenz-Umgebungsstatusvektor oder der vorläufige Umgebungsstatusvektor folgendermaßen bestimmt werden: • Aufteilen des Bezugsgesichtsbilds oder des vorläufigen Gesichtsbilds in mehrere Äquivalenzsektoren, • Berechnen der mittleren Graustufe jedes Äquivalenzsektors, • Ermitteln der jeweiligen Abweichungen jeder mittleren Graustufe von den anderen mittleren Graustufen, und • Zusammensetzen der mittleren Graustufen und der vier Graustufenabweichungen als die wesentlichen Daten jeder Dimensionalität zu einem Umgebungsstatusvektor.
  8. Gesichts-Identifikationsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Submerkmalsvektorabweichungen jeweils von dem vorläufigen Gesichtsbild und dem Bezugsgesichtsbild folgendermaßen bestimmt werden: • Aufladen der Referenz-Submerkmalsvektorgruppe durch die Datenverarbeitungsvorrichtung bzw. über die Merkmalsvektordatenbank, und • Bestimmen der Submerkmalsvektorabweichungen durch Vergleich der Submerkmalsvektoren der gleichen Sektionen von der Referenz-Submerkmalsvektorgruppe und der vorläufigen Submerkmalsvektorgruppe.
  9. Gesichts-Identifikationsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass von allen Submerkmalsvektorabweichungen nur die kleineren vom rangierten 65% ausgewählt sind.
DE102011001319A 2010-10-08 2011-03-16 Gesichts-Identifikationsverfahren zur Unterdrückung eines Rauschens bzw. einer Umgebungsauswirkung Active DE102011001319B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW99134449 2010-10-08
TW099134449A TWI453680B (zh) 2010-10-08 2010-10-08 可抑制雜訊及環境影響之臉部辨識方法

Publications (2)

Publication Number Publication Date
DE102011001319A1 DE102011001319A1 (de) 2012-05-16
DE102011001319B4 true DE102011001319B4 (de) 2013-07-25

Family

ID=45925170

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011001319A Active DE102011001319B4 (de) 2010-10-08 2011-03-16 Gesichts-Identifikationsverfahren zur Unterdrückung eines Rauschens bzw. einer Umgebungsauswirkung

Country Status (4)

Country Link
US (1) US8588481B2 (de)
JP (1) JP5272215B2 (de)
DE (1) DE102011001319B4 (de)
TW (1) TWI453680B (de)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2228583A1 (de) 2009-03-13 2010-09-15 Giga-Byte Technology Co., Ltd. Multifunktioneller Ständer
EP2453383A1 (de) * 2010-11-12 2012-05-16 ST-Ericsson SA Erkennung von Gesichtszügen
US9135410B2 (en) 2011-12-21 2015-09-15 At&T Intellectual Property I, L.P. Digital rights management using a digital agent
US8989515B2 (en) 2012-01-12 2015-03-24 Kofax, Inc. Systems and methods for mobile image capture and processing
US11321772B2 (en) 2012-01-12 2022-05-03 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US10783615B2 (en) * 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
CN103150561A (zh) 2013-03-19 2013-06-12 华为技术有限公司 人脸识别方法和设备
JP2015018400A (ja) * 2013-07-10 2015-01-29 グローリー株式会社 顔照合装置、顔照合方法及び顔照合プログラム
US9667575B1 (en) * 2013-11-04 2017-05-30 Symantec Corporation Systems and methods for detecting webpages belonging to spam campaigns
CN104598872B (zh) * 2014-12-23 2018-07-06 深圳市君利信达科技有限公司 一种面部比对的方法、设备及一种面部识别的方法、系统
CN105447441B (zh) * 2015-03-19 2019-03-29 北京眼神智能科技有限公司 人脸认证方法和装置
EP3274909A4 (de) * 2015-03-27 2018-11-21 Intel Corporation Kostengünstige gesichtserkennung unter verwendung von merkmalen des gaussschen rezeptiven feldes
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
US9536337B1 (en) * 2015-10-26 2017-01-03 Adobe Systems Incorporated Restoring digital image noise lost in a blur
CN106599813A (zh) * 2016-12-05 2017-04-26 中兴智能视觉大数据技术(湖北)有限公司 一种基于人脸识别的铁路安检安防管理系统
WO2019017079A1 (ja) * 2017-07-19 2019-01-24 パナソニックIpマネジメント株式会社 照合装置及び照合方法
US11227170B2 (en) * 2017-07-20 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. Collation device and collation method
US11062176B2 (en) 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
US10747989B2 (en) * 2018-08-21 2020-08-18 Software Ag Systems and/or methods for accelerating facial feature vector matching with supervised machine learning
CN109086739A (zh) * 2018-08-23 2018-12-25 成都睿码科技有限责任公司 一种无人脸数据训练的人脸识别方法和系统
CN109886293B (zh) * 2019-01-10 2020-09-08 华中科技大学 一种基于融合空间和特征信息的均匀gmm的图像匹配方法
TWI717008B (zh) * 2019-09-09 2021-01-21 訊連科技股份有限公司 生物特徵資料庫的建立方法、臉部識別方法與系統
KR102326254B1 (ko) * 2020-02-25 2021-11-15 (주)아이티 노매즈 패턴인식 기반 도장날인 유사도 판별 방법 및 시스템
CN111507917B (zh) * 2020-04-15 2022-11-01 杭州小影创新科技股份有限公司 一种基于卷积神经网络的无参智能磨皮方法
US11985411B2 (en) * 2022-06-24 2024-05-14 Dell Products L.P. Detection of image sensor shutter state

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997021190A1 (en) * 1995-12-06 1997-06-12 Fpr Corporation Fast pattern recognizer
US20070172099A1 (en) * 2006-01-13 2007-07-26 Samsung Electronics Co., Ltd. Scalable face recognition method and apparatus based on complementary features of face image
US20090074259A1 (en) * 2005-07-29 2009-03-19 Madalina Baltatu Automatic biometric identification based on face recognition and support vector machines

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3671691B2 (ja) * 1998-09-09 2005-07-13 コニカミノルタビジネステクノロジーズ株式会社 類似画像検索装置、類似画像検索方法及び記録媒体
US7127087B2 (en) * 2000-03-27 2006-10-24 Microsoft Corporation Pose-invariant face recognition system and process
JP4161659B2 (ja) 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
AU2002951473A0 (en) * 2002-09-18 2002-10-03 Canon Kabushiki Kaisha Method for tracking facial features in video sequence
TW201023055A (en) * 2008-12-12 2010-06-16 Moredna Technology Co Ltd Highly efficient method for processing fingerprint images
TWI453679B (zh) * 2009-01-16 2014-09-21 Hon Hai Prec Ind Co Ltd 圖像匹配系統及方法
JP2010176304A (ja) 2009-01-28 2010-08-12 Toshiba Corp 人物認証装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997021190A1 (en) * 1995-12-06 1997-06-12 Fpr Corporation Fast pattern recognizer
US20090074259A1 (en) * 2005-07-29 2009-03-19 Madalina Baltatu Automatic biometric identification based on face recognition and support vector machines
US20070172099A1 (en) * 2006-01-13 2007-07-26 Samsung Electronics Co., Ltd. Scalable face recognition method and apparatus based on complementary features of face image

Also Published As

Publication number Publication date
JP5272215B2 (ja) 2013-08-28
TWI453680B (zh) 2014-09-21
TW201216175A (en) 2012-04-16
DE102011001319A1 (de) 2012-05-16
US8588481B2 (en) 2013-11-19
US20120087552A1 (en) 2012-04-12
JP2012084112A (ja) 2012-04-26

Similar Documents

Publication Publication Date Title
DE102011001319B4 (de) Gesichts-Identifikationsverfahren zur Unterdrückung eines Rauschens bzw. einer Umgebungsauswirkung
DE10132013B4 (de) Multimodale Biometrie
DE69920296T2 (de) Verfahren und Vorrichtung zum Registrieren und Vergleichen von Handflächenabdrücken
EP0964390A2 (de) Vorrichtung zur Verifizierung von Signalen
DE102005025220B4 (de) Gerät, Verfahren und Programm zum Beseitigen von Poren
DE112016006921T5 (de) Schätzung der menschlichen Ausrichtung in Bildern unter Verwendung von Tiefeninformationen
DE60017088T2 (de) System und verfahren zur überprüfung von fingerabdrücken
EP2070010A1 (de) Verfahren und vorrichtung zum erkennen eines gesichts sowie ein gesichtserkennungsmodul
CH717006B1 (de) Verfahren zur Benutzeridentifikation.
DE10260642A1 (de) Verfahren zur Erstellung einer Referenz für Fingerprints und zum Vergleich von Fingerprints
EP1402460B1 (de) Automatische identifikation und/oder verifikation linienhafter texturen wie fingerabdrücke
EP3629232A1 (de) Vorrichtung zum erkennen einer bildmanipulation in einem digitalen referenzgesichtsbild einer person
DE102005028252A1 (de) Verfahren zur rechnergestützten Verarbeitung von digitalen Daten
DE19921387C2 (de) Anordnung und Verfahren zum Vergleich von Biometrik-Daten
WO1999004358A1 (de) Verfahren zur ermittlung eines identifikationscodes aus fingerabdruckbildern
EP3531357A1 (de) Kassensystem, verfahren zur authentifizierung an einem kassensystem, computerprogramm sowie computerlesbares medium
DE10066189B4 (de) Verfahren zur Erkennung von Objekten
DE10126375B4 (de) Verfahren und System zur Erkennung von Objekten
DE10024559B4 (de) Verfahren zur Erkennung von Objekten
EP0964391A2 (de) Vorrichtung zur Verifizierung von Signalen
DE102008025213A1 (de) Verfahren zur Segmentierung von Fingerabdruckbildern
DE102020206350A1 (de) Verfahren zur Detektion von Vergleichspersonen zu einer Suchperson, Überwachungsanordnung, insbesondere zur Umsetzung des Verfahrens, sowie Computerprogramm und computerlesbares Medium
WO1999008223A1 (de) Verfahren zur bestimmung eines abstandsmasses zwischen einem schriftzug und einem referenzschriftzug
DE4422016C2 (de) Verfahren zur automatischen Überprüfung von Magnetkarten
EP2338130A1 (de) Verfahren zur automatischen optischen zeichenerfassung, computerprogrammprodukt, datenverarbeitunssystem und scanner

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20131026

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000