DE202022107266U1 - Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern - Google Patents

Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern Download PDF

Info

Publication number
DE202022107266U1
DE202022107266U1 DE202022107266.3U DE202022107266U DE202022107266U1 DE 202022107266 U1 DE202022107266 U1 DE 202022107266U1 DE 202022107266 U DE202022107266 U DE 202022107266U DE 202022107266 U1 DE202022107266 U1 DE 202022107266U1
Authority
DE
Germany
Prior art keywords
face
width
nose
distance
faces
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202022107266.3U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE202022107266.3U priority Critical patent/DE202022107266U1/de
Publication of DE202022107266U1 publication Critical patent/DE202022107266U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

Ein Gesichtserkennungssystem, das System umfasst:
eine Eingabeeinheit zum Empfangen eines Eingabebildes eines Benutzers unter Verwendung einer Kamera oder durch Hochladen über eine grafische Benutzeroberfläche;
eine Gesichtserkennungseinheit zur Identifizierung des menschlichen Gesichts aus dem Eingangsbild;
eine Vorverarbeitungseinheit zur Entfernung von Rauschen und zur Normalisierung jedes Gesichts durch die Erkennung von Orientierungspunkten;
eine Merkmalsextraktionseinheit zum Extrahieren eines Satzes von Merkmalen einschließlich digitaler Details, Figuren oder Einzelheiten aus der Eingabeeinheit unter Verwendung des euklidischen Abstands;
eine Klassifikationsverarbeitungseinheit zum Sortieren von Daten in gekennzeichnete Klassen durch einen Klassifikator, um die Unterscheidungsmerkmale zu lernen, die die forensische Untersuchung unterstützen und verbessern; und
eine Steuereinheit zur Identifizierung und Unterscheidung ähnlicher Gesichter, um eine authentische Identifizierung ähnlicher Gesichter, wie z.B. gleich aussehende und eineiige Zwillinge, die forensisch relevante Betrügereien und Verbrechen begehen, zu bestimmen.

Description

  • BEREICH DER ERFINDUNG
  • Die vorliegende Offenbarung bezieht sich auf Gesichtserkennungssysteme zur Erforschung der Beziehung zwischen Gesichtsproportionen und Goldenem Schnitt zur Identifizierung einer Person, insbesondere auf ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern.
  • HINTERGRUND DER ERFINDUNG
  • Biometrische Signaturen beruhen auf der Überlegung, dass jeder Mensch einzigartig ist. Bei der Bestimmung der physischen Erscheinung ist das Gesicht der wichtigste individuelle Faktor. Das Erkennen eines Gesichts ist eine natürliche Fähigkeit des menschlichen Sehvermögens. Die Erfassung von Gesichtern, die natürlich und unaufdringlich ist, hat sich als eine der besten biometrischen Methoden zur Gesichtserkennung erwiesen. Der biometrische Abdruck von Gesichtern eineiiger Zwillinge ist sehr ähnlich. Heutzutage scheinen Straftaten in hohem Maße von ähnlich aussehenden Gesichtern begangen zu werden, z. B. von gleich aussehenden und einengen Zwillingen. Wenn eines der ähnlich aussehenden Gesichter/Zwillinge ein schweres Verbrechen begeht, führt seine unsichere Persönlichkeit zu einer unsicheren Entscheidung bei Gerichtsverfahren. Bei der Verwendung biometrischer Hilfsmittel zur Identifizierung dürfen daher keine falschen Identifizierungen vorgenommen werden, um zu vermeiden, dass versehentlich eine unschuldige Person schuldig gesprochen wird. Im Laufe der Jahre wurden bemerkenswerte Ansätze mit den besten Algorithmen und Datenbanken vorgestellt, die sowohl günstige als auch ungünstige Bedingungen für die Erkennung von Gesichtern berücksichtigen, aber nicht den Erwartungen entsprechen. Die Computer Vision hat versucht, die Fähigkeit des menschlichen Sehens nachzubilden, ohne dass die Ergebnisse überzeugend waren. Die bekanntesten Identifizierungssysteme in der forensischen Wissenschaft sind die DNA-Identifizierung und der Fingerabdruck. Die Gesichtserkennung als eine Kategorie der biometrischen Identifizierung wird anstelle anderer biometrischer Modalitäten verwendet, wenn sie nicht anwendbar ist. Die Gesichtserkennung ist jedoch ein wertvolles und praktisches Instrument, das von Kriminaltechnikern bei der Untersuchung von Straftaten eingesetzt wird.
  • Bei der Gesichtserkennung in der Forensik geht es um die Erkennung von Gesichtsbildern in einer nicht idealen und uneingeschränkten Umgebung, wie z. B. Beleuchtung, Gesichtshaltung, Ausdruck und Okklusionsvariationen. Die Erkennungsleistung wird durch die vorgenannten Bedingungen stark beeinflusst.
  • In Anbetracht der vorangegangenen Diskussion wird deutlich, dass ein Gesichtserkennungssystem benötigt wird, das die Eigenschaft des Goldenen Schnitts in einem menschlichen Gesicht erforscht und ein Ensemble-Klassifikatormodell zur Entscheidungsfindung verwendet.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Offenlegung zielt darauf ab, ein Gesichtserkennungssystem bereitzustellen, indem die Eigenschaft des Goldenen Schnitts in einem menschlichen Gesicht erforscht und ein Ensemble-Klassifikatormodell zur Entscheidungsfindung verwendet wird.
  • In einer Ausführungsform wird ein Gesichtserkennungssystem offenbart. Das System umfasst eine Eingabeeinheit zum Empfangen eines Eingabebildes eines Benutzers unter Verwendung einer Kamera oder durch Hochladen über eine grafische Benutzeroberfläche. Das System umfasst ferner eine Gesichtserkennungseinheit zur Identifizierung des menschlichen Gesichts aus dem Eingangsbild. Das System umfasst ferner eine Vorverarbeitungseinheit zum Entfernen von Rauschen und zum Normalisieren jedes Gesichts unter Verwendung der Landmarkenerkennung. Das System enthält ferner eine Merkmalsextraktionseinheit zum Extrahieren eines Satzes von Merkmalen einschließlich digitaler Details, Figuren oder Einzelheiten aus der Eingabeeinheit unter Verwendung des euklidischen Abstands. Das System umfasst ferner eine Klassifikationsverarbeitungseinheit zum Sortieren von Daten in gekennzeichnete Klassen durch einen Klassifikator, um die Unterscheidungsmerkmale zu erlernen, die die forensische Untersuchung unterstützen und verbessern. Das System enthält außerdem eine Steuereinheit zur Identifizierung und Unterscheidung ähnlicher Gesichter, um die authentische Identifizierung ähnlicher Gesichter, wie z. B. gleich aussehender und eineiiger Zwillinge, die in forensisch relevante Betrügereien und Verbrechen verwickelt sind, zu bestimmen.
  • In einer anderen Ausführungsform ermöglicht die Landmarkenerkennung eine zuverlässige und genaue Identifizierung von Landmarken des Gesichts.
  • In einer anderen Ausführungsform ist die Steuereinheit über eine Kommunikationseinheit mit einem Cloud-Server verbunden, um vorgespeicherte Daten mit den extrahierten Merkmalen zu vergleichen und die ähnlichen Gesichter zu identifizieren und zu unterscheiden, um die authentische Identifizierung ähnlicher Gesichter zu bestimmen.
  • In einer anderen Ausführungsform erfolgt die Merkmalsextraktion unter Verwendung anthropometrischer Messungen für die Gesichtsbildanalyse auf der Grundlage des Goldenen Schnitts und des Bildverhältnisses, die um die Gesichtskurve herum aufgenommen wurden und die lokalen Merkmale betreffen.
  • In einer anderen Ausführungsform wird der Klassifikator aus einer Gruppe von KNN, Random Forest, SVM und logistischer Regression ausgewählt, um ähnliche Gesichter (ähnlich aussehende Gesichter) und unterschiedliche Gesichter zu klassifizieren und die Genauigkeit des Gesichtserkennungssystems zu verbessern.
  • In einer anderen Ausführungsform wird der Satz von Merkmalen aus einer Gruppe von Umgebung, Beleuchtung, Bewegung, Orientierung und Gesichtsausdruck ausgewählt, wobei der Merkmalsextraktionsprozess unter Verwendung des euklidischen Abstands für bereits lokalisierte anthropometrische Punkte durchgeführt wird und dann verschiedene Verhältnisse gemessen und mit dem goldenen Schnitt verglichen werden, um die Unterscheidungsinformation zu finden, die als extrahierte Merkmale betrachtet wird.
  • In einer anderen Ausführungsform ist die Gesichtserkennungseinheit so konfiguriert, dass sie das Gesicht des Menschen in einem Bild lokalisiert und es als Bounding-Box- oder Rechteck-Box-Wert zurückgibt und die Landmarken lokalisiert.
  • In einer anderen Ausführungsform werden die Abstände der Merkmale gemessen, z. B. Breite der linken Augenbraue, Breite der rechten Augenbraue, Breite des linken Auges, Breite des rechten Auges, Breite des Mundes, Breite der Nase, Breite der Augen, Höhe der linken Nase, Höhe der rechten Nase, Höhe der Lippen, Höhe des Kinns, Abstand zwischen Nase und Mund, Mundhöhe, Höhe des linken Auges, Höhe des rechten Auges usw.
  • In einer anderen Ausführungsform werden die goldenen Verhältnisse im menschlichen Gesicht ausgewählt aus Länge des Gesichts/Breite des Gesichts, Länge des Mundes/Breite der Nase, Abstand zwischen den Pupillen/Abstand zwischen den Augenbrauen, Abstand zwischen den Lippen und der Stelle, an der sich die Augenbrauen treffen/Nasenlänge, Breite der Nase/Abstand zwischen den Nasenlöchern, Abstand zwischen Lippenkinn/Breite der Nase und Abstand zwischen den Augen/Breite der Nase.
  • In einer anderen Ausführungsform ist die grafische Benutzeroberfläche mit einem Computergerät des Benutzers gekoppelt, um das Eingabebild mit Hilfe des Computergeräts hochzuladen, wobei die Klassifikatoren darauf trainiert sind, den einzigartigen Abdruck jedes Gesichts anhand seiner charakteristischen Merkmale zu erkennen.
  • Ein Ziel der vorliegenden Offenbarung ist es, ähnliche Gesichter und eineiige Zwillinge zu unterscheiden.
  • Ein weiteres Ziel der vorliegenden Offenbarung ist es, einen neuen Datensatz zur Überprüfung der Gesichtsdifferenzierung für die Klassifizierung ähnlicher Gesichter vorzuschlagen.
  • Ein weiteres Ziel der vorliegenden Erfindung ist es, ein schnelles und kostengünstiges Verfahren zur Gesichtserkennung bereitzustellen, indem die Eigenschaft des Goldenen Schnitts in einem menschlichen Gesicht erforscht und ein Ensemble-Klassifikatormodell zur Entscheidungsfindung verwendet wird.
  • Zur weiteren Verdeutlichung der Vorteile und Merkmale der vorliegenden Offenbarung wird eine genauere Beschreibung der Erfindung durch Bezugnahme auf bestimmte Ausführungsformen gegeben, die in den beigefügten Figuren dargestellt sind. Es wird davon ausgegangen, dass diese Figuren nur typische Ausführungsformen der Erfindung darstellen und daher nicht als Einschränkung des Umfangs der Erfindung zu betrachten sind. Die Erfindung wird mit zusätzlicher Spezifität und Detail mit den beigefügten Figuren beschrieben und erläutert werden.
  • Figurenliste
  • Diese und andere Merkmale, Aspekte und Vorteile der vorliegenden Offenbarung werden besser verstanden, wenn die folgende detaillierte Beschreibung unter Bezugnahme auf die beigefügten Figuren gelesen wird, in denen gleiche Zeichen gleiche Teile in den Figuren darstellen, wobei:
    • 1 zeigt ein Blockdiagramm eines Gesichtserkennungssystems in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung;
    • 2 zeigt den Arbeitsablauf des Gesichtserkennungssystems in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung;
    • 3 veranschaulicht die in Tabelle 1 dargestellte Definition der anthropometrischen Orientierungspunkte gemäß einer Ausführungsform der vorliegenden Offenbarung;
    • 4 zeigt die Gesichtsbildanalyse unter Verwendung des Goldenen Schnitts gemäß einer Ausführungsform der vorliegenden Offenbarung;
    • 5 veranschaulicht die Analyse der Gesichtskurve durch Messung der Verhältnisse in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung;
    • 6 veranschaulicht Tabelle 2 zeigt die Gesichtsbildanalyse unter Verwendung verschiedener Verhältnisse zum Vergleich mit dem Goldenen Schnitt gemäß einer Ausführungsform der vorliegenden Offenbarung;
    • 7 zeigt ein Blockdiagramm des Ensemble-Lernmodells in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung;
    • 8 zeigt in Tabelle 3 einen Vergleich der Klassifizierungsgenauigkeit für ähnliche Gesichter in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung;
    • 9 zeigt einen Vergleich der Klassifizierungsgenauigkeit für ähnliche Gesichter in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung;
    • 10 veranschaulicht Tabelle 4 zeigt den Vergleich der Klassifizierungsgenauigkeit für gleiche/unterschiedliche Gesichter gemäß einer Ausführungsform der vorliegenden Offenbarung; und
    • 11 zeigt den Vergleich der Klassifizierungsgenauigkeit für gleiche/unterschiedliche Gesichter gemäß einer Ausführungsform der vorliegenden Offenbarung.
  • Der Fachmann wird verstehen, dass die Elemente in den Figuren der Einfachheit halber dargestellt sind und nicht unbedingt maßstabsgetreu gezeichnet wurden. Die Flussdiagramme veranschaulichen beispielsweise das Verfahren anhand der wichtigsten Schritte, um das Verständnis der Aspekte der vorliegenden Offenbarung zu verbessern. Darüber hinaus kann es sein, dass eine oder mehrere Komponenten der Vorrichtung in den Figuren durch herkömmliche Symbole dargestellt sind, und dass die Figuren nur die spezifischen Details zeigen, die für das Verständnis der Ausführungsformen der vorliegenden Offenbarung relevant sind, um die Figuren nicht mit Details zu überfrachten, die für Fachleute, die mit der vorliegenden Beschreibung vertraut sind, leicht erkennbar sind.
  • DETAILLIERTE BESCHREIBUNG
  • Um das Verständnis der Erfindung zu fördern, wird nun auf die in den Figuren dargestellte Ausführungsform Bezug genommen und diese mit bestimmten Worten beschrieben. Es versteht sich jedoch von selbst, dass damit keine Einschränkung des Umfangs der Erfindung beabsichtigt ist, wobei solche Änderungen und weitere Modifikationen des dargestellten Systems und solche weiteren Anwendungen der darin dargestellten Grundsätze der Erfindung in Betracht gezogen werden, wie sie einem Fachmann auf dem Gebiet der Erfindung normalerweise einfallen würden.
  • Es versteht sich für den Fachmann von selbst, dass die vorstehende allgemeine Beschreibung und die folgende detaillierte Beschreibung beispielhaft und erläuternd für die Erfindung sind und diese nicht einschränken sollen.
  • Wenn in dieser Beschreibung von „einem Aspekt“, „einem anderen Aspekt“ oder ähnlichem die Rede ist, bedeutet dies, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft, die im Zusammenhang mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform der vorliegenden Offenbarung enthalten ist. Daher können sich die Ausdrücke „in einer Ausführungsform“, „in einer anderen Ausführungsform“ und ähnliche Ausdrücke in dieser Beschreibung alle auf dieselbe Ausführungsform beziehen, müssen es aber nicht.
  • Die Ausdrücke „umfassen“, „enthaltend“ oder andere Variationen davon sollen eine nicht ausschließliche Einbeziehung abdecken, so dass ein Verfahren oder eine Methode, die eine Liste von Schritten umfasst, nicht nur diese Schritte umfasst, sondern auch andere Schritte enthalten kann, die nicht ausdrücklich aufgeführt sind oder zu einem solchen Verfahren oder einer solchen Methode gehören. Ebenso schließen eine oder mehrere Vorrichtungen oder Teilsysteme oder Elemente oder Strukturen oder Komponenten, die mit „umfasst...a“ eingeleitet werden, nicht ohne weitere Einschränkungen die Existenz anderer Vorrichtungen oder anderer Teilsysteme oder anderer Elemente oder anderer Strukturen oder anderer Komponenten oder zusätzlicher Vorrichtungen oder zusätzlicher Teilsysteme oder zusätzlicher Elemente oder zusätzlicher Strukturen oder zusätzlicher Komponenten aus.
  • Sofern nicht anders definiert, haben alle hierin verwendeten technischen und wissenschaftlichen Begriffe die gleiche Bedeutung, wie sie von einem Fachmann auf dem Gebiet, zu dem diese Erfindung gehört, allgemein verstanden wird. Das System, die Methoden und die Beispiele, die hier angegeben werden, dienen nur der Veranschaulichung und sind nicht als Einschränkung gedacht.
  • Ausführungsformen der vorliegenden Offenbarung werden im Folgenden unter Bezugnahme auf die beigefügten Figuren im Detail beschrieben.
  • 1 zeigt ein Blockdiagramm eines Gesichtserkennungssystems gemäß einer Ausführungsform der vorliegenden Offenbarung. Das System 100 umfasst eine Eingabeeinheit 102 zum Empfangen eines Eingabebildes eines Benutzers mithilfe einer Kamera oder durch Hochladen über eine grafische Benutzeroberfläche.
  • In einer Ausführungsform ist eine Gesichtserkennungseinheit 104 mit der Eingabeeinheit 102 verbunden, um das menschliche Gesicht aus dem Eingabebild zu erkennen.
  • In einer Ausführungsform ist eine Vorverarbeitungseinheit 106 mit der Gesichtserkennungseinheit 104 verbunden, um Rauschen zu entfernen und jedes Gesicht mithilfe der Landmarkenerkennung zu normalisieren.
  • In einer Ausführungsform ist eine Merkmalsextraktionseinheit 108 mit der Vorverarbeitungseinheit 106 verbunden, um einen Satz von Merkmalen einschließlich digitaler Details, Figuren oder Einzelheiten aus der Eingabeeinheit unter Verwendung des euklidischen Abstands zu extrahieren.
  • In einer Ausführungsform ist eine Klassifizierungsverarbeitungseinheit 110 mit der Merkmalsextraktionseinheit 108 verbunden, um die Daten mit Hilfe eines Klassifizierers in beschriftete Klassen zu sortieren und die Unterscheidungsmerkmale zu erlernen, die die forensische Untersuchung unterstützen und verbessern.
  • In einer Ausführungsform ist eine Steuereinheit 112 mit der Klassifizierungsverarbeitungseinheit 110 verbunden, um die ähnlichen Gesichter zu identifizieren und zu unterscheiden, um die authentische Identifizierung ähnlicher Gesichter, wie z. B. gleich aussehende und eineiige Zwillinge, die kriminalistische Betrügereien und Verbrechen begehen, zu bestimmen.
  • In einer anderen Ausführungsform ermöglicht die Landmarkenerkennung eine zuverlässige und genaue Identifizierung von Landmarken des Gesichts.
  • In einer anderen Ausführungsform ist die Steuereinheit 112 über eine Kommunikationseinheit mit einem Cloud-Server verbunden, um vorgespeicherte Daten mit den extrahierten Merkmalen zu vergleichen und die ähnlichen Gesichter zu identifizieren und zu unterscheiden, um die authentische Identifizierung ähnlicher Gesichter zu bestimmen.
  • In einer anderen Ausführungsform erfolgt die Merkmalsextraktion unter Verwendung anthropometrischer Messungen für die Gesichtsbildanalyse auf der Grundlage des Goldenen Schnitts und des Bildverhältnisses, die um die Gesichtskurve herum aufgenommen wurden und die lokalen Merkmale betreffen.
  • In einer anderen Ausführungsform wird der Klassifikator aus einer Gruppe von KNN, Random Forest, SVM und logistischer Regression ausgewählt, um ähnliche Gesichter (ähnlich aussehende Gesichter) und unterschiedliche Gesichter zu klassifizieren und die Genauigkeit des Gesichtserkennungssystems zu verbessern.
  • In einer anderen Ausführungsform wird der Satz von Merkmalen aus einer Gruppe von Umgebung, Beleuchtung, Bewegung, Orientierung und Gesichtsausdruck ausgewählt, wobei der Merkmalsextraktionsprozess unter Verwendung des euklidischen Abstands für bereits lokalisierte anthropometrische Punkte durchgeführt wird und dann verschiedene Verhältnisse gemessen und mit dem goldenen Schnitt verglichen werden, um die Unterscheidungsinformation zu finden, die als extrahierte Merkmale betrachtet wird.
  • In einer anderen Ausführungsform ist die Gesichtserkennungseinheit 104 so konfiguriert, dass sie das Gesicht des Menschen in einem Bild lokalisiert und es als Bounding-Box- oder Rechteckbox-Wert zurückgibt und die Landmarken lokalisiert.
  • In einer anderen Ausführungsform werden die Abstände der Merkmale gemessen, z. B. Breite der linken Augenbraue, Breite der rechten Augenbraue, Breite des linken Auges, Breite des rechten Auges, Breite des Mundes, Breite der Nase, Breite der Augen, Höhe der linken Nase, Höhe der rechten Nase, Höhe der Lippen, Höhe des Kinns, Abstand zwischen Nase und Mund, Mundhöhe, Höhe des linken Auges, Höhe des rechten Auges usw.
  • In einer anderen Ausführungsform werden die goldenen Verhältnisse im menschlichen Gesicht ausgewählt aus Länge des Gesichts/Breite des Gesichts, Länge des Mundes/Breite der Nase, Abstand zwischen den Pupillen/Abstand zwischen den Augenbrauen, Abstand zwischen den Lippen und der Stelle, an der sich die Augenbrauen treffen/Nasenlänge, Breite der Nase/Abstand zwischen den Nasenlöchern, Abstand zwischen Lippenkinn/Breite der Nase und Abstand zwischen den Augen/Breite der Nase.
  • In einer anderen Ausführungsform ist die grafische Benutzeroberfläche mit einem Computergerät des Benutzers gekoppelt, um das Eingabebild mit Hilfe des Computergeräts hochzuladen, wobei die Klassifikatoren darauf trainiert sind, den einzigartigen Abdruck jedes Gesichts anhand seiner charakteristischen Merkmale zu erkennen.
  • 2 zeigt den Arbeitsablauf des Gesichtserkennungssystems in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung. Zu Beginn wird aus dem Datensatz ein Gesichtsbild ausgewählt. Jedes ausgewählte Bild des Datensatzes wird einer Vorverarbeitung zur Erkennung und Normalisierung des Gesichts unterzogen. Das Gesichtserkennungssystem wird verwendet, um automatisch genaue Orientierungspunkte zu lokalisieren und eine Merkmalsextraktion unter Verwendung anthropometrischer Messungen für die Gesichtsbildanalyse auf der Grundlage des Goldenen Schnitts und des Bildverhältnisses, die um die Gesichtskurve herum aufgenommen wurden, bezüglich der lokalen Merkmale durchzuführen, deren Ergebnisse an Ensemble-Klassifikatoren wie KNN, Random Forest, SVM und logistische Regression zur Klassifizierung ähnlicher Gesichter (ähnlich aussehende Gesichter) und unterschiedlicher Gesichter gegeben werden, um die Genauigkeit des Gesichtserkennungssystems zu verbessern.
  • Zum Abschluss der Leistungsbewertung werden die Leistungsergebnisse dieses Rahmens hinsichtlich Genauigkeit, Fehlerrate, Rückruf, Präzision und F-Maß bewertet. Das Hauptziel des Systems ist es, eine geringe Komplexität, hohe Genauigkeit und schnelle Identifizierung durch die Entwicklung einer sehr effizienten Technik mit einer möglichst ähnlichen Gesichtserkennung zu erreichen. Der Prozess kann in vier Stufen unterteilt werden, nämlich Gesichtserkennung, Vorverarbeitung und Landmarkenerkennung, Merkmalsextraktion und Klassifizierung, wie in dargestellt.
  • Gesichtserkennung: Es geht darum, ein menschliches Gesicht in einem Bild zu erkennen. Da die Erkennungsergebnisse von zahlreichen Faktoren wie Umgebung, Beleuchtung, Bewegung, Ausrichtung und Gesichtsausdruck abhängen, ist es eine Herausforderung, das Gesicht in Bildern zu erkennen.
  • Vorverarbeitung und Erkennung von Orientierungspunkten: Das Gesichtsbild wird erfasst und dann vorverarbeitet, um „saubere“ Gesichter zu erhalten. Das ausgewählte Bild wird einer Vorverarbeitung unterzogen, um die einzelnen Gesichter zu erkennen und zu normalisieren. Die Landmarkenerkennung ermöglicht eine zuverlässige und genaue Identifizierung der Landmarken des Gesichts. Das Gesichtserkennungssystem wird zur automatischen Lokalisierung von Orientierungspunkten und zur Merkmalsextraktion verwendet. Auf den einzelnen Gesichtsbildern müssen einige bestimmte Punkte, die so genannten Landmarken, eingezeichnet werden, um die erforderlichen Messungen zu erhalten.
  • Merkmalsextraktion und Vergleich: Der Prozess der Extraktion von digitalen Details, Zahlen oder Einzelheiten aus den Rohdaten wird als „Merkmalsextraktion“ bezeichnet. Die extrahierten Merkmale enthalten nur diskriminierende Informationen. Der Prozess der Merkmalsextraktion wird unter Verwendung des euklidischen Abstands für bereits lokalisierte anthropometrische Punkte durchgeführt. Anschließend werden verschiedene Verhältnisse gemessen und mit dem Goldenen Schnitt verglichen, um die Unterscheidungsinformationen zu finden, die als extrahierte Merkmale gelten.
  • Klassifizierung: Der Prozess des Sortierens von Daten in gekennzeichnete Klassen durch einen Klassifikator, der eine Technik ist, wird Klassifizierung genannt. Hier werden mehrere Klassifikatoren wie SVM, Bayesian, KNN, Entscheidungsbaum und logistische Regression usw. verwendet, um die Unterscheidungsmerkmale zu lernen, die die forensische Untersuchung unterstützen und verbessern.
  • Leistungsbewertung: Das Gesichtserkennungssystem wird anhand eines selbst erstellten Datensatzes aus dem Labor für Rechtsmedizin und Toxikologie und der Google-Suchmaschine getestet und bewertet.
  • Datenerhebung und Validierung
  • Die Datenerhebung wird aus vielen Quellen stammen. Einige der Daten, die in Betracht gezogen wurden, und einige, die für die Studie verwendet werden sollen, werden hier erwähnt. Die Studie wurde durch die Erstellung einer Datenbank unterstützt, die einen ausgewogenen Satz von 500 Bildern von Prominenten enthält, die von der Google-Suchmaschine gesammelt wurden, sowie Fotos von indischen Gesichtern aus dem Labor der Abteilung für Gerichtsmedizin und Toxikologie, die individuelle Gesichter von Männern und Frauen, Doppelgänger usw. enthalten.
  • Anthropometrie des Gesichts
  • Anthropometrie ist die wissenschaftliche Untersuchung der Maße und Proportionen des menschlichen Körpers. Die Morphometrie bezieht sich auf die quantitative Analyse von Größe und Form und ist eine Verschmelzung von Geometrie und Biologie, die sich mit der Untersuchung von Formen im zwei- oder dreidimensionalen Raum befasst. Im 18. Jahrhundert entwickelte Alphonse Bertillon, ein französischer Polizeibeamter und biometrischer Forscher, ein revolutionäres System, das die anthropologische Technik der Anthropometrie zur Identifizierung von Kriminellen einsetzte und auf dessen Grundlage ein System zur Gesichtserkennung existiert. Die anthropometrische Bewertung von Gesichtern beginnt mit der Identifizierung bestimmter Stellen auf einer Person, die als Orientierungspunkte bezeichnet werden. Landmarken werden automatisch lokalisiert, indem das Dilib-Paket in Python importiert und über Visual Studio Code zusammen mit der Power-Shell-Erweiterung ausgeführt wird. Tabelle 1 enthält die Definitionen für diese Punkte. Der Gesichtsdetektor ist die Methode, die das Gesicht eines Menschen in einem Bild lokalisiert und es als Bounding-Box- oder Rechteckbox-Wert zurückgibt. Nach der Erkennung der Gesichtsposition in einem Bild besteht der nächste Prozess darin, die Landmarken zu lokalisieren. Das 68-Punkte-Modell von Dilib zur Erkennung von Gesichtsmerkmalen zeigt alle erforderlichen Punkte eines menschlichen Gesichts. Beispiele für anthropometrische Orientierungspunkte auf dem Gesicht sind in 2 dargestellt. Mithilfe dieses Modells werden insgesamt 68 Orientierungspunkte als wichtige Merkmale erfasst und anschließend die Längenmessungen zwischen den Orientierungspunkten gesammelt.
  • Extraktion von Merkmalen
  • Die Merkmalsextraktion kann manuell oder automatisch durchgeführt werden. Dabei werden verschiedene Abstände gemessen, wie z. B. Breite der linken Augenbraue, Breite der rechten Augenbraue, Breite des linken Auges, Breite des rechten Auges, Breite des Mundes, Breite der Nase, Breite der Augen, Höhe der linken Nase, Höhe der rechten Nase, Höhe der Lippen, Höhe des Kinns, Nase zum Mund, Höhe des Mundes, Höhe des linken Auges, Höhe des rechten Auges usw.
  • Analyse von Gesichtsbildern mit Hilfe des Goldenen Schnitts und des Bildverhältnisses
  • Der Goldene Schnitt, der manchmal auch als „göttliche Proportion“ bezeichnet wird, ist ein mathematischer Ausdruck der göttlichen Schöpfung, der aufgrund seiner Häufigkeit bei der Manifestation jeder Art von Form in der natürlichen Welt hier als Referenzmaßstab verwendet wird. Daher kann jede Form und ihre Merkmale mit ihren verschiedenen Proportionen mit diesem einzigen göttlichen goldenen Schnitt als Referenzmaßstab verglichen werden.
  • Im Folgenden sind einige der goldenen Verhältnisse im menschlichen Gesicht aufgeführt: Länge des Gesichts/Breite des Gesichts, Länge des Mundes/Breite der Nase, Abstand zwischen den Pupillen/Abstand zwischen den Augenbrauen, Abstand zwischen den Lippen und der Stelle, an der sich die Augenbrauen treffen/Länge der Nase, Breite der Nase/Abstand zwischen den Nasenlöchern, Abstand zwischen dem Lippenkinn/Breite der Nase und Abstand zwischen den Augen/Breite der Nase.
  • Neben den oben genannten Verhältnissen gibt es noch weitere Bildverhältnisse, die im System enthalten sind. Der „Goldene Schnitt“ wird hier als Referenzmaßstab verwendet, so dass man verschiedene vertikal oder horizontal ermittelte Bildverhältnisse mit dem Wert des Goldenen Schnittes vergleichen kann. Diese Verhältnisse werden dann als prozentualer Wert des Goldenen Schnitts berechnet. Hier werden verschiedene Verhältnisse gemessen, indem vertikal-vertikale Messungen und horizontal-horizontale Messungen berücksichtigt werden, die dann als Prozentwert des Goldenen Schnitts berechnet werden. Zusätzlich zu den horizontalen und vertikalen Verhältnissen werden die Verhältnisse entlang der Gesichtskurve in Bezug auf das lokale Merkmal bestimmt. Diese Verhältnisse werden dann mit dem Goldenen Schnitt verglichen.
  • 3 veranschaulicht die in Tabelle 1 dargestellte Definition der anthropometrischen Orientierungspunkte in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung.
  • 4 zeigt die Gesichtsbildanalyse mit Hilfe des Goldenen Schnitts gemäß einer Ausführungsform der vorliegenden Offenbarung. Die und zeigen eine auf dem Goldenen Schnitt und dem Bildverhältnis basierende Gesichtsbild- und Gesichtskurvenanalyse unter Verwendung bereits extrahierter anthropometrischer Orientierungspunkte. Durch Berücksichtigung der Punkte auf der Gesichtskurve und anderer Orientierungspunkte können die verschiedenen Verhältnisse gemessen werden.
  • 5 veranschaulicht die Analyse von Gesichtskurven durch Messung von Verhältnissen gemäß einer Ausführungsform der vorliegenden Offenbarung. Zwölf Beispiel-Verhältnisse, die mit dem Goldenen Schnitt für die Gesichtsbildanalyse verglichen werden können, sind hier dargestellt.
  • Unter Verwendung der vorgenannten Messungen werden insgesamt 35 Verhältnisse zum Vergleich mit dem phi-Verhältnis für die Gesichtsbildanalyse berücksichtigt.
  • 6 veranschaulicht Tabelle 2 zeigt die Gesichtsbildanalyse unter Verwendung verschiedener Verhältnisse zum Vergleich mit dem Goldenen Schnitt gemäß einer Ausführungsform der vorliegenden Offenbarung.
  • 7 zeigt ein Blockdiagramm des Ensemble-Lernmodells in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung. Eine Technik des maschinellen Lernens, die als Ensemble-Methode bekannt ist, nutzt die kombinierten Vorhersagen vieler anderer maschineller Lernmodelle (Basismodelle/Schätzer) in einem Vorhersagemodell. Dadurch lassen sich sehr genaue Vorhersagen treffen, als wenn man ein einzelnes Modell verwendet, um die Gesamtleistung zu verbessern. Bei Ensemble-Methoden werden mehrere ML-Techniken wie SVM, KNN, Entscheidungsbaum, Random Forest, Extrabaum-Klassifikator und logistische Regression usw. miteinander kombiniert, um eine Vorhersage zu treffen.
  • Die Techniken werden mit Python 3.8 im VS-Code-Framework und Power-Shell-Fenster implementiert. Für die automatische Erkennung von Gesichtern und Landmarken werden bestehende Modelle verwendet, die in OpenCV und Dlib verfügbar sind.
  • 8 veranschaulicht Tabelle 3 zeigt den Vergleich der Klassifizierungsgenauigkeit für ähnliche Gesichter in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung. Das Klassifizierungsergebnis wird durch das Ensemble-Lernmodell mit KNN, SVM, Random Forest und logistischer Regression erzielt, das anhand eines selbst erstellten Datensatzes getestet wurde. Die Tabellen zeigen den Vergleich der Ergebnisse, die zwischen den verschiedenen maschinellen Lerntechniken wie oben erwähnt auf der Konfusionsmatrix getestet wurden. Das Endergebnis ist ein Vergleich der Modellklassifizierung, um festzustellen, welche Technik die beste Genauigkeit aufweist und die Leistung des Modells verbessert. Tabelle 3 zeigt den Vergleich der Genauigkeit der Klassifizierungsmodelle für ähnliche Gesichter (Look-Alike). Die Genauigkeit des Modell-Ensembles beträgt (74 %), was durch die Berücksichtigung einer größeren Anzahl von Bildern für den Vergleich ähnlicher Gesichter noch gesteigert werden kann.
  • 9 zeigt den Vergleich der Klassifizierungsgenauigkeit für ähnliche Gesichter in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung. zeigt die Vergleichsgrafik der Klassifizierungsgenauigkeit für die ähnlichen Gesichter. Das Extrabaum-Klassifizierungsmodell ist das beste Klassifizierungsmodell, das die beste Genauigkeit bei der Vorhersage ähnlicher Gesichter (74 %) im Vergleich zu KNN (70 %), SVM (71 %), Naive Bayes (73 %) und logistischer Regression (72 %) bietet.
  • 10 zeigt Tabelle 4, die einen Vergleich der Klassifizierungsgenauigkeit für gleiche/unterschiedliche Gesichter gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt.
  • 11 zeigt einen Vergleich der Klassifizierungsgenauigkeit für gleiche/verschiedene Gesichter gemäß einer Ausführungsform der vorliegenden Offenlegung. Das Naive-Bayes-Klassifizierungsmodell ist das beste Klassifizierungsmodell, das die beste Genauigkeit bei der Vorhersage verschiedener Gesichter (85 %) im Vergleich zu KNN (82 %), SVM (82 %), Random Forest (84 %) und logistischer Regression (80 %) bietet. Die Genauigkeit des Modell-Ensembles beträgt (85%), was durch die Berücksichtigung einer größeren Anzahl von Bildern für den Vergleich verschiedener Gesichter noch gesteigert werden kann.
  • In einer Ausführungsform werden anhand des Konzepts des Goldenen Schnitts die Beziehungen zwischen verschiedenen Verhältnissen in Bezug auf die Gesichtsmerkmale und die Gesichtskurve effektiv analysiert. Des Weiteren wird der Ensemble-Learning-Klassifikator wie SVM, Random Forest usw. verwendet, um verschiedene Kategorien von Gesichtern zu erkennen, wie z. B. gleiche, ähnliche und unterschiedliche Gesichter, um bei der Identifizierung von Kriminellen eingesetzt werden zu können. Die Ergebnisse dieses Ansatzes lassen den Schluss zu, dass von den fünf maschinellen Lernverfahren SVM und logistische Regression die beste Leistung in Bezug auf die Genauigkeit erbringen. In zukünftigen Arbeiten kann die Gesichtserkennung für eineiige Zwillinge in Betracht gezogen werden, was eine noch offene Herausforderung darstellt.
  • Die in dieser Spezifikation beschriebenen Funktionseinheiten sind als Geräte bezeichnet worden. Zu den Funktionseinheiten gehören die Eingabeeinheit 102, die Gesichtserkennungseinheit 104, die Vorverarbeitungseinheit 106, die Merkmalsextraktionseinheit 108, die Klassifikationsverarbeitungseinheit 110 und die Steuereinheit 112. Eine Vorrichtung kann in programmierbaren Hardwarevorrichtungen wie Prozessoren, digitalen Signalprozessoren, zentralen Verarbeitungseinheiten, feldprogrammierbaren Gate-Arrays, programmierbaren Array-Logikvorrichtungen, programmierbaren Logikvorrichtungen, Cloud-Verarbeitungssystemen oder dergleichen implementiert sein. Die Geräte können auch in Software für die Ausführung durch verschiedene Arten von Prozessoren implementiert werden. Ein identifiziertes Gerät kann einen ausführbaren Code enthalten und kann beispielsweise einen oder mehrere physische oder logische Blöcke von Computeranweisungen umfassen, die beispielsweise als Objekt, Prozedur, Funktion oder anderes Konstrukt organisiert sein können. Die ausführbare Datei eines identifizierten Geräts muss jedoch nicht physisch an einem Ort liegen, sondern kann aus verschiedenen, an unterschiedlichen Orten gespeicherten Anweisungen bestehen, die, wenn sie logisch zusammengefügt werden, das Gerät bilden und den angegebenen Zweck des Geräts erfüllen.
  • Der ausführbare Code eines Geräts oder Moduls kann ein einzelner Befehl oder eine Vielzahl von Befehlen sein und kann sogar über mehrere verschiedene Codesegmente, verschiedene Anwendungen und mehrere Speichergeräte verteilt sein. In ähnlicher Weise können Betriebsdaten innerhalb des Geräts identifiziert und dargestellt werden, wobei sie in jeder geeigneten Form vorliegen und in jeder geeigneten Art von Datenstruktur organisiert sein können. Die Betriebsdaten können als ein einziger Datensatz gesammelt werden oder über verschiedene Orte, einschließlich verschiedener Speichergeräte, verteilt sein und können zumindest teilweise als elektronische Signale in einem System oder Netzwerk vorliegen.
  • Gemäß den beispielhaften Ausführungsformen können die offengelegten Computerprogramme oder -module auf viele beispielhafte Arten ausgeführt werden, beispielsweise als Anwendung, die im Speicher eines Geräts resident ist, oder als gehostete Anwendung, die auf einem Server ausgeführt wird und mit der Geräteanwendung oder dem Browser über eine Reihe von Standardprotokollen wie TCP/IP, HTTP, XML, SOAP, REST, JSON und anderen ausreichenden Protokollen kommuniziert. Die offengelegten Computerprogramme können in beispielhaften Programmiersprachen geschrieben werden, die vom Speicher auf dem Gerät oder von einem gehosteten Server ausgeführt werden, wie BASIC, COBOL, C, C++, Java, Pascal oder Skriptsprachen wie JavaScript, Python, Ruby, PHP, Perl oder andere ausreichende Programmiersprachen.
  • Einige der offengelegten Ausführungsformen umfassen oder beinhalten die Datenübertragung über ein Netzwerk, z. B. die Übermittlung verschiedener Eingaben oder Dateien über das Netzwerk. Das Netzwerk kann beispielsweise das Internet, Wide Area Networks (WANs), Local Area Networks (LANs), analoge oder digitale drahtgebundene und drahtlose Telefonnetzwerke (z. B. PSTN, Integrated Services Digital Network (ISDN), ein zellulares Netzwerk und Digital Subscriber Line (xDSL)), Radio, Fernsehen, Kabel, Satellit und/oder andere Übertragungs- oder Tunnelmechanismen zur Übertragung von Daten umfassen. Das Netz kann mehrere Netze oder Teilnetze umfassen, von denen jedes z. B. einen drahtgebundenen oder drahtlosen Datenpfad enthalten kann. Das Netz kann ein leitungsvermitteltes Sprachnetz, ein paketvermitteltes Datennetz oder ein beliebiges anderes Netz für die Übertragung elektronischer Kommunikation umfassen. Das Netzwerk kann beispielsweise Netzwerke umfassen, die auf dem Internet-Protokoll (IP) oder dem asynchronen Übertragungsmodus (ATM) basieren, und es kann Sprache unterstützen, indem es z. B. VoIP, Voice-over-ATM oder andere vergleichbare Protokolle für die Sprachdatenkommunikation verwendet. In einer Implementierung umfasst das Netzwerk ein zellulares Telefonnetz, das so konfiguriert ist, dass es den Austausch von Text- oder SMS-Nachrichten ermöglicht.
  • Beispiele für ein Netzwerk sind unter anderem ein Personal Area Network (PAN), ein Storage Area Network (SAN), ein Home Area Network (HAN), ein Campus Area Network (CAN), ein Local Area Network (LAN), ein Wide Area Network (WAN), ein Metropolitan Area Network (MAN), ein Virtual Private Network (VPN), ein Enterprise Private Network (EPN), das Internet, ein Global Area Network (GAN) und so weiter.
  • Die Figuren und die vorangehende Beschreibung geben Beispiele für Ausführungsformen. Der Fachmann wird verstehen, dass eines oder mehrere der beschriebenen Elemente durchaus zu einem einzigen Funktionselement kombiniert werden können. Alternativ dazu können bestimmte Elemente in mehrere Funktionselemente aufgeteilt werden. Elemente aus einer Ausführungsform können einer anderen Ausführungsform hinzugefügt werden. So kann beispielsweise die Reihenfolge der hier beschriebenen Prozesse geändert werden und ist nicht auf die hier beschriebene Weise beschränkt. Darüber hinaus müssen die Aktionen eines Flussdiagramms nicht in der gezeigten Reihenfolge ausgeführt werden; auch müssen nicht unbedingt alle Aktionen durchgeführt werden. Auch können die Handlungen, die nicht von anderen Handlungen abhängig sind, parallel zu den anderen Handlungen ausgeführt werden. Der Umfang der Ausführungsformen ist durch diese spezifischen Beispiele keineswegs begrenzt. Zahlreiche Variationen sind möglich, unabhängig davon, ob sie in der Beschreibung explizit aufgeführt sind oder nicht, wie z. B. Unterschiede in der Struktur, den Abmessungen und der Verwendung von Materialien. Der Umfang der Ausführungsformen ist mindestens so groß wie in den folgenden Ansprüchen angegeben.
  • Vorteile, andere Vorzüge und Problemlösungen wurden oben im Hinblick auf bestimmte Ausführungsformen beschrieben. Die Vorteile, Vorzüge, Problemlösungen und Komponenten, die dazu führen können, dass ein Vorteil, ein Nutzen oder eine Lösung auftritt oder ausgeprägter wird, sind jedoch nicht als kritisches, erforderliches oder wesentliches Merkmal oder Komponente eines oder aller Ansprüche zu verstehen.
  • Bezugszeichenliste
  • 100
    Ein Gesichtserkennungssystem in Übereinstimmung mit einer Ausführungsform der vorliegenden Offenbarung.
    102
    Eingabeeinheit
    104
    Gesichtserkennungseinheit
    106
    Vorverarbeitungseinheit
    108
    Merkmalsextraktionseinheit
    110
    Verarbeitungseinheit
    112
    Kontrolleinheit
    202
    Eingabe (Datensatz von Gesichtsbildern)
    204
    Erkennung von Gesichtern
    206
    Vorverarbeitung und Erkennung von Landmarken
    208
    Merkmalsextraktion und Vergleich mit der Goldenen Ration
    210
    Klassifizierung
    212
    Entscheidungsfindung
    214
    Merkmalsdatenbank
    702
    Verschiedene Modelle des maschinellen Lernens
    704
    Vorhersage 1
    706
    Vorhersage 2
    708
    Vorhersage 3
    710
    Vorhersage 4
    712
    Vorhersage 5
    714
    Maximalabstimmung
    716
    Endgültige Vorhersage
    718
    Ensemble-Lernmodell
    720
    Trainingsdatensatz
    722
    Testdaten
    902
    BALKENDIAGRAMM ZUM VERGLEICH VERSCHIEDENER ALGORITHMEN FÜR MASCHINELLES LERNEN ZUR IDENTIFIZIERUNG ÄHNLICHER GESICHTER.
    904
    Genauigkeit
    906
    Algdrithmen
    908
    VERGLEICH DER BALKENDIAGRAMME VERSCHIEDENER ALGORITHMEN FÜR MASCHINELLES LERNEN ZUR IDENTIFIZIERUNG GLEICHER/UNTERSCHIEDLICHER GESICHTER.

Claims (10)

  1. Ein Gesichtserkennungssystem, das System umfasst: eine Eingabeeinheit zum Empfangen eines Eingabebildes eines Benutzers unter Verwendung einer Kamera oder durch Hochladen über eine grafische Benutzeroberfläche; eine Gesichtserkennungseinheit zur Identifizierung des menschlichen Gesichts aus dem Eingangsbild; eine Vorverarbeitungseinheit zur Entfernung von Rauschen und zur Normalisierung jedes Gesichts durch die Erkennung von Orientierungspunkten; eine Merkmalsextraktionseinheit zum Extrahieren eines Satzes von Merkmalen einschließlich digitaler Details, Figuren oder Einzelheiten aus der Eingabeeinheit unter Verwendung des euklidischen Abstands; eine Klassifikationsverarbeitungseinheit zum Sortieren von Daten in gekennzeichnete Klassen durch einen Klassifikator, um die Unterscheidungsmerkmale zu lernen, die die forensische Untersuchung unterstützen und verbessern; und eine Steuereinheit zur Identifizierung und Unterscheidung ähnlicher Gesichter, um eine authentische Identifizierung ähnlicher Gesichter, wie z.B. gleich aussehende und eineiige Zwillinge, die forensisch relevante Betrügereien und Verbrechen begehen, zu bestimmen.
  2. System nach Anspruch 1, wobei die Landmarkenerkennung eine zuverlässige und genaue Identifizierung von Landmarken des Gesichts ermöglicht.
  3. System nach Anspruch 1, wobei die Steuereinheit über eine Kommunikationseinheit mit einem Cloud-Server verbunden ist, um vorgespeicherte Daten mit den extrahierten Merkmalen zu vergleichen, um die ähnlichen Gesichter zu identifizieren und zu unterscheiden, um die authentische Identifizierung ähnlicher Gesichter zu bestimmen.
  4. System nach Anspruch 1, wobei die Merkmalsextraktion unter Verwendung anthropometrischer Messungen für die Gesichtsbildanalyse auf der Grundlage des Goldenen Schnitts und des um die Gesichtskurve aufgenommenen Bildverhältnisses bezüglich der lokalen Merkmale durchgeführt wird.
  5. System nach Anspruch 1, wobei der Klassifikator aus einer Gruppe von KNN, Random Forest, SVM und logistischer Regression zur Klassifizierung ähnlicher Gesichter (ähnlich aussehende Gesichter) und unterschiedlicher Gesichter ausgewählt wird, um die Genauigkeit des Gesichtserkennungssystems zu verbessern.
  6. System nach Anspruch 1, wobei der Satz von Merkmalen aus einer Gruppe von Umgebung, Beleuchtung, Bewegung, Orientierung und Gesichtsausdruck ausgewählt wird, wobei der Merkmalsextraktionsprozess unter Verwendung des euklidischen Abstands für bereits lokalisierte anthropometrische Punkte durchgeführt wird und dann verschiedene Verhältnisse gemessen und mit dem goldenen Schnitt verglichen werden, um die Unterscheidungsinformation zu finden, die als extrahierte Merkmale betrachtet wird.
  7. System nach Anspruch 1, wobei die Gesichtserkennungseinheit so konfiguriert ist, dass sie das Gesicht des Menschen in einem Bild lokalisiert und es als Bounding-Box- oder Rectangle-Box-Wert zurückgibt und die Landmarken lokalisiert.
  8. System nach Anspruch 1, wobei die Abstände der Merkmale gemessen werden, wie z. B. die Breite der linken Augenbraue, die Breite der rechten Augenbraue, die Breite des linken Auges, die Breite des rechten Auges, die Breite des Mundes, die Breite der Nase, die Breite der Augen, die Höhe der linken Nase, die Höhe der rechten Nase, die Höhe der Lippen, die Höhe des Kinns, der Abstand zwischen Nase und Mund, die Mundhöhe, die Höhe des linken Auges, die Höhe des rechten Auges usw.
  9. System nach Anspruch 4 und 6, wobei die goldenen Verhältnisse im menschlichen Gesicht ausgewählt werden aus Länge des Gesichts/Breite des Gesichts, Länge des Mundes/Breite der Nase, Abstand zwischen den Pupillen/Abstand zwischen den Augenbrauen, Abstand zwischen den Lippen und der Stelle, an der sich die Augenbrauen treffen/Länge der Nase, Breite der Nase/Abstand zwischen den Nasenlöchern, Abstand zwischen Lippenkinn/Breite der Nase und Abstand zwischen den Augen/Breite der Nase.
  10. System nach Anspruch 1, wobei die grafische Benutzeroberfläche mit einem Computergerät des Benutzers gekoppelt ist, um das Eingabebild unter Verwendung des Computergeräts hochzuladen, wobei die Klassifikatoren darauf trainiert sind, den einzigartigen Abdruck jedes Gesichts anhand seiner charakteristischen Merkmale zu erkennen.
DE202022107266.3U 2022-12-28 2022-12-28 Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern Active DE202022107266U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202022107266.3U DE202022107266U1 (de) 2022-12-28 2022-12-28 Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202022107266.3U DE202022107266U1 (de) 2022-12-28 2022-12-28 Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern

Publications (1)

Publication Number Publication Date
DE202022107266U1 true DE202022107266U1 (de) 2023-01-25

Family

ID=85174635

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202022107266.3U Active DE202022107266U1 (de) 2022-12-28 2022-12-28 Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern

Country Status (1)

Country Link
DE (1) DE202022107266U1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117079336A (zh) * 2023-10-16 2023-11-17 腾讯科技(深圳)有限公司 样本分类模型的训练方法、装置、设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117079336A (zh) * 2023-10-16 2023-11-17 腾讯科技(深圳)有限公司 样本分类模型的训练方法、装置、设备及存储介质
CN117079336B (zh) * 2023-10-16 2023-12-22 腾讯科技(深圳)有限公司 样本分类模型的训练方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
DE102017220896A1 (de) Verfahren und Vorrichtung zur Sicherheitskontrolle
DE60130742T2 (de) Mustererkennung mit hierarchischen Netzen
DE60208223T2 (de) Anordnung und verfahren zur gesichtserkennung unter verwendung von teilen des gelernten modells
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
DE112015006255T5 (de) Objekterkennungsvorrichtung, Objekterkennungsverfahren, und Programm
DE102006010607A1 (de) Wahrscheinlichkeitstheoretischer Verstärkungsbaum-Rahmen zum Lernen von Unterscheidungsmodellen
DE112010003796B4 (de) System und Verfahren zur Erzeugung und Verwendung von Iriscodes geringer Länge
DE112011101939T5 (de) Detektion von Objekten in einem Bild unter Verwendung von Selbstähnlichkeiten
CN110929687B (zh) 一种基于关键点检测的多人行为识别系统及工作方法
DE112020005572T5 (de) Tiefe Gesichtserkennung basierend auf Clustern über unbezeichnete Gesichtsdaten
DE202022101590U1 (de) Ein System zur Klassifizierung von Fernerkundungsbildern unter Verwendung fusionierter Faltungsmerkmale mit maschinellem Lernen
CN111815609B (zh) 基于情境感知及多模型融合的病理图像分类方法及系统
DE202022107266U1 (de) Ein Gesichtserkennungssystem zur Unterscheidung zwischen ähnlichen Gesichtern
CN106529470A (zh) 一种基于多级深度卷积神经网络的手势识别方法
DE102005025220B4 (de) Gerät, Verfahren und Programm zum Beseitigen von Poren
EP3410324B1 (de) Bestimmen eines anonymisierten dosisberichtbildes
CN114049935A (zh) 一种基于多卷积神经网络的her2图像分类系统
DE102020211849A1 (de) Trainieren eines maschinellen lernmodells unter verwendung eines batch-basierten aktiven lernansatzes
DE112019004112T5 (de) System und verfahren zur analyse mikroskopischer bilddaten und zur erzeugung eines annotierten datensatzes zum training der klassifikatoren
Noor et al. Offline handwritten signature recognition using convolutional neural network approach
DE112021005678T5 (de) Normieren von OCT-Bilddaten
EP0965088B1 (de) Sichere identifikation mit vorauswahl und rückweisungsklasse
Chakrabarty et al. A novel approach to age classification from hand dorsal images using computer vision
DE102019201990A1 (de) Verfahren und Vorrichtung zur Erkennung einer Störung in einem Bild
DE112020001625T5 (de) Bildsuchsystem und Bildsuchverfahren

Legal Events

Date Code Title Description
R207 Utility model specification
R082 Change of representative

Representative=s name: LIPPERT STACHOW PATENTANWAELTE RECHTSANWAELTE , DE