DE102022111231A1 - Erkennung von gefälschten bildern - Google Patents

Erkennung von gefälschten bildern Download PDF

Info

Publication number
DE102022111231A1
DE102022111231A1 DE102022111231.4A DE102022111231A DE102022111231A1 DE 102022111231 A1 DE102022111231 A1 DE 102022111231A1 DE 102022111231 A DE102022111231 A DE 102022111231A DE 102022111231 A1 DE102022111231 A1 DE 102022111231A1
Authority
DE
Germany
Prior art keywords
image
light
pixel values
determining
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022111231.4A
Other languages
English (en)
Inventor
Ali Hassani
Jonathan Diedrich
Hafiz Malik
Robert Parenti
Ryan Edwin Hanson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102022111231A1 publication Critical patent/DE102022111231A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Collating Specific Patterns (AREA)

Abstract

Ein Computer, der einen Prozessor und einen Speicher beinhaltet, wobei der Speicher durch den Prozessor auszuführende Anweisungen beinhaltet, um ein erstes Bild von einer ersten Kamera durch Beleuchten eines ersten Objekts mit einem ersten Licht zu erfassen und einen Objektstatus als eines von einem echten Objekt oder einem gefälschten Objekt durch Vergleichen eines ersten Mal es von Pixelwerten, die dem ersten Objekt entsprechen, mit einem Schwellenwert zu bestimmen.

Description

  • GEBIET DER TECHNIK
  • Die vorliegende Offenbarung betrifft eine verbesserte biometrische Gesichtserkennung durch Verwenden von spektralen Eigenschaften von menschlichen Gesichtsmerkmalen, um Lebendigkeit zu bestimmen.
  • ALLGEMEINER STAND DER TECHNIK
  • Fahrzeuge können mit Rechenvorrichtungen, Netzwerken, Sensoren und Steuerungen ausgestattet sein, um Daten bezüglich einer Umgebung des Fahrzeugs zu erfassen und/oder zu verarbeiten und das Fahrzeug basierend auf den Daten zu betreiben. Fahrzeugsensoren können Daten hinsichtlich zurückzulegender Routen und zu umfahrender Objekte in der Umgebung des Fahrzeugs bereitstellen. Der Betrieb des Fahrzeugs kann sich auf Erfassen genauer und aktueller Daten bezüglich Objekten in der Umgebung eines Fahrzeugs stützen, während das Fahrzeug auf einer Fahrbahn betrieben wird.
  • KURZDARSTELLUNG
  • Fahrzeuge können mit Rechenvorrichtungen, Netzwerken, Sensoren und Steuerungen ausgestattet sein, um Daten bezüglich einer Umgebung des Fahrzeugs zu erfassen und/oder zu verarbeiten und das Fahrzeug basierend auf den Daten zu betreiben. Rechenvorrichtungen und Sensoren, die enthalten sind, können für andere Aufgaben als Betreiben des Fahrzeugs verwendet werden. Zum Beispiel kann eine Kamera in einem Fahrzeug dazu programmiert sein, ein Bild eines sich dem Fahrzeug nähernden Menschen zu erfassen und beim Bestimmen der Identität des Menschen basierend auf Gesichtserkennungssoftware die Türen des Fahrzeugs zu entriegeln, um dem Fahrer zu ermöglichen, in das Fahrzeug einzusteigen. Gleichermaßen können Kameras, die im Innenraum des Fahrzeugs enthalten sind, ein oder mehrere Bilder eines Menschen erfassen und beim Bestimmen der Identität des Fahrers basierend auf Gesichtserkennungssoftware Befehle von dem Menschen annehmen, um das Fahrzeug zu betreiben.
  • Eine Rechenvorrichtung kann dazu programmiert sein, Gesichtserkennung eines Menschen durchzuführen, indem zuerst während der Registrierung ein trainiertes Modell erfasst wird, wobei zu Beginn ein Bild des zu identifizierenden menschlichen Gesichts erfasst wird. Die Rechenvorrichtung kann dann ein Herausforderungsbild erfassen, das ein menschliches Gesicht beinhaltet, und das Herausforderungsbild verarbeiten, um zu bestimmen, ob das Herausforderungsbild ein menschliches Gesicht beinhaltet, das mit dem trainierten Modell übereinstimmt. Die Gesichtserkennung ist eine Art von biometrischer Authentifizierung, bei der menschliche Körpermaße verwendet werden, um eine Identität eines Menschen zu bestimmen, um eine Zugangs- bzw. Zugriffskontrolle durchzuführen. Die biometrische Authentifizierung kann dazu verwendet werden, Zugang zu bzw. Zugriff auf Gebäude, Häuser oder Fahrzeuge zu steuern, und kann dazu verwendet werden, Erlaubnis zum Betreiben von Computern, Mobiltelefonen oder anderen Vorrichtungen zu gewähren. Biometrische Authentifizierungssoftware kann auf einer Rechenvorrichtung ausgeführt werden, die im Standort oder der Vorrichtung enthalten ist, zu dem der Zugang bzw. auf die der Zugriff erfolgt, oder die Bilddaten können auf einen cloudbasierten Server hochgeladen werden, der eine Datenbank von trainierten Modellen zur Ausführung führt. Ein Beispiel für biometrische Authentifizierungssoftware ist Gesichtserkennungssoftware, zum Beispiel Face Tracker. Face Tracker ist eine Gesichtserkennungssoftwarebibliothek, die in C++ geschrieben und auf facetracker.net unter der MIT-Softwarelizenz verfügbar ist. Die Ergebnisse des Durchführens der biometrischen Authentifizierung können auf die Vorrichtung heruntergeladen werden, die um Authentifizierung bittet, und die Erlaubnis zum Betreiben oder Zugang zum Standort bzw. Zugriff auf die Vorrichtung kann gewährt oder verweigert werden.
  • Die biometrische Gesichtserkennung arbeitet typischerweise durch Berechnen physiologischer Eigenschaften eines menschlichen Gesichts und Vergleichen der berechneten physiologischen Eigenschaften mit gespeicherten physiologischen Eigenschaften aus dem trainierten Modell. Physiologischen Eigenschaften können Maße von Gesichtsmerkmalen, wie etwa der Abstand zwischen den Pupillen, der Abstand zwischen den Mundwinkeln und die Nasenlänge usw. beinhalten. Diese Maße können durch Bilden von Verhältnissen der Messwerte normalisiert und als das trainierte Modell gespeichert werden. Zur Herausforderungszeit wird ein Bild des Menschen, der um Zugang bzw. Zugriff bittet, erfasst und verarbeitet, um physiologische Eigenschaften zu extrahieren, die dann mit gespeicherten physiologischen Eigenschaften verglichen werden, um eine Übereinstimmung zu bestimmen. Eine erfolgreiche Authentifizierung kann dazu verwendet werden, eine Fahrzeugtür zu entriegeln oder Fahrzeugsteuerungen zu aktivieren. In anderen Beispielen kann eine erfolgreiche Authentifizierung für Sicherheitsanwendungen verwendet werden, wie etwa Zugang zu einem Standort oder Raum durch Entriegeln einer Tür oder noch weiterführend, alternativ oder zusätzlich, Zugriff auf eine Vorrichtung, wie etwa einen Computer, indem Eingabevorrichtungen, wie etwa eine Tastatur oder Maus, aktiviert werden, oder Gewähren von Zugriff auf Dateien.
  • Ein Problem bei der biometrischen Gesichtserkennung kann „Spoofing“ sein. Spoofing tritt auf, wenn ein nicht autorisierter Benutzer unter Verwendung einer gefälschten Version der Gesichtsmerkmale eines autorisierten Benutzers darum bittet, Zugang zu einem Standort oder Zugriff auf eine Vorrichtung zu erhalten. Gefälschte Versionen der Gesichtsmerkmale eines autorisierten Benutzers können zum Beispiel Farbfotografien oder lebensechte Masken beinhalten. Biometrische Gesichtserkennungssysteme können dreidimensionale Sensoren, wie etwa Laserabstandsdetektoren oder Lidars, verwenden, um zu verhindern, dass ein nicht autorisierter Benutzer eine flache, zweidimensionale Fotografie verwendet, um das System zu spoofen. Nicht autorisierte Benutzer haben versucht, biometrische Gesichtserkennungssysteme zu umgehen, indem sie dreidimensionale (3D-) Masken verwenden, die der allgemeinen Gesichtsform eines Benutzers entsprechen, während sie Gesichtsmerkmale beinhalten, die zu einem autorisierten Benutzer gehören. Diese Masken können von kostengünstigen gedruckten LYCRA®-Gesichtsmasken bis hin zu maßgeschneiderten Silikon-Gesichtsmasken reichen, die zum Beispiel in Filmen verwendet werden.
  • In dieser Schrift erörterte Techniken verbessern die biometrische Gesichtserkennung durch Verwenden von spektralen Eigenschaften von menschlichen Gesichtsmerkmalen, um Lebendigkeit zu bestimmen. Lebendigkeit bedeutet, dass Bilddaten ein echtes menschliches Gesicht darstellen. Eine Authentifizierung von Lebendigkeit bedeutet Unterscheiden zwischen einem echten menschlichen Gesicht und einem gefälschten Bild, wobei ein gefälschtes Bild ein Bild einer Fotografie oder eine Maske sein kann, die dazu ausgestaltet ist, ein menschliches Gesicht zu imitieren. Ohne Lebendigkeitsbestimmung kann ein biometrisches Autorisierungssystem dahingehend gespooft oder getäuscht werden, dass ein gefälschtes Bild, das eine Abbildung eines menschlichen Gesichts oder eine Maske, die einem menschlichen Gesicht entspricht, beinhaltet, autorisiert wird. Diese Techniken beleuchten das herausfordernde menschliche Gesicht mit gesteuerter Beleuchtung und erfassen ein Bild mit einem Bildsensor, um ein Bild zu bilden. Gesteuerte Beleuchtung ist eine Beleuchtung, bei der ein spezifizierter spektraler Inhalt mit einer spezifizierten Intensität emittiert wird. Die gesteuerte Beleuchtung kann eine einzelne Wellenlänge oder eine Kombination von Wellenlängen im Ultraviolettband (10 nm - 400 nm), dem sichtbaren Band (400 nm - 700 nm), dem Nahinfrarotband (700 nm - 1400 nm) oder dem kurzwelligen Infrarotband (1400 nm - 3000 nm) sein. Die Erfassung von Beleuchtung außerhalb des sichtbaren und Nahinfrarotbandes erfordert typischerweise Sensoren und Optiken, die für die spezifischen Wellenlängen ausgelegt sind, die erfasst werden sollen.
  • Eine gesteuerte Beleuchtung ermöglicht, dass Pixelwerte in dem erfassten Bild gemessen und mit Messwerten verglichen werden, die basierend auf einem zuvor erfassten Registrierungsbild bestimmt werden, um zu bestimmen, ob ein Gesicht in dem Herausforderungsbild zu einem lebendigen Menschen oder einer gefälschten Reproduktion gehört. Das Registrierungsbild wird typischerweise mit derselben Kamera und derselben gesteuerten Beleuchtung wie das Herausforderungsbild erfasst. Wenn eine andere Kamera und/oder ein anderes Licht verwendet wird, können die zum Bestimmen der Lebendigkeit verwendeten Messwerte basierend auf gemessenen Differenzen, die aus unterschiedlichen Kameras und Ausleuchtungen resultieren, in den Bilddaten angepasst werden. Wenn bestimmt wird, dass das Gesicht zu einem lebendigen Menschen gehört, kann ein Bild des echten menschlichen Gesichts in sichtbarem Licht erfasst und zur Gesichtserkennungsverarbeitung an Gesichtserkennungssoftware weitergegeben werden, wobei andernfalls der Zugang bzw. Zugriff verweigert wird.
  • Figurenliste
    • 1 ist ein Diagramm eines beispielhaften Fahrzeugs.
    • 2 ist eine Abbildung eines beispielhaften Bilds in Nahinfrarot.
    • 3 ist ein Diagramm eines beispielhaften Histogramms eines Bilds in Nahinfrarot.
    • 4 ist eine Abbildung eines beispielhaften gefälschten Bilds in Nahinfrarot.
    • 5 ist ein Diagramm eines beispielhaften Histogramms eines gefälschten Bilds in Nahinfrarot.
    • 6 ist eine Abbildung eines beispielhaften Bilds in sichtbarem Licht.
    • 7 ist eine Abbildung eines Ablaufdiagramms eines beispielhaften Prozesses zum Bestimmen von gefälschten Bildern in Nahinfrarot.
  • DETAILLIERTE BESCHREIBUNG
  • 1 ist ein Diagramm eines Fahrzeugs 110, das eine Rechenvorrichtung 115 und Sensoren 116 beinhaltet. Die Rechenvorrichtung (oder der Computer) 115 beinhaltet einen Prozessor und einen Speicher, wie sie bekannt sind. Ferner beinhaltet der Speicher eine oder mehrere Formen von computerlesbaren Medien und speichert Anweisungen, die durch den Prozessor ausführbar sind, um verschiedene Vorgänge, einschließlich der in dieser Schrift offenbarten, durchzuführen. Zum Beispiel kann die Rechenvorrichtung 115 eine Programmierung beinhalten, um eines oder mehrere von Bremsen, Antrieb (z. B. Beschleunigungssteuerung in dem Fahrzeug 110 durch Steuern von einem oder mehreren von einer Brennkraftmaschine, einem Elektromotor, einem Hybridmotor usw.), Lenkung, Klimaregelung, Innen- und/oder Außenleuchten usw. des Fahrzeugs zu betreiben sowie um zu bestimmen, ob und wann die Rechenvorrichtung 115 im Gegensatz zu einem menschlichen Fahrer derartige Vorgänge steuern soll.
  • Die Rechenvorrichtung 115 kann mehr als eine Rechenvorrichtung, z. B. Steuerungen oder dergleichen, die in dem Fahrzeug 110 zum Überwachen und/oder Steuern verschiedener Fahrzeugkomponenten enthalten sind, z. B. eine Antriebsstrangsteuerung 112, eine Bremssteuerung 113, eine Lenksteuerung 114 usw., beinhalten oder z.B. über einen Fahrzeugkommunikationsbus, wie nachstehend weiter beschrieben, kommunikativ mit dieser/diesen gekoppelt sein. Die Rechenvorrichtung 115 ist im Allgemeinen zur Kommunikation an einem Fahrzeugkommunikationsnetzwerk angeordnet, das z. B. einen Bus in dem Fahrzeug 110, etwa ein Controller Area Network (CAN) oder dergleichen, beinhaltet; das Netzwerk des Fahrzeugs 110 kann zusätzlich oder alternativ drahtgebundene oder drahtlose Kommunikationsmechanismen, wie sie bekannt sind, beinhalten, z. B. Ethernet oder andere Kommunikationsprotokolle.
  • Über das Fahrzeugnetzwerk kann die Rechenvorrichtung 115 Nachrichten an verschiedene Vorrichtungen im Fahrzeug übertragen und/oder Nachrichten von den verschiedenen Vorrichtungen empfangen, z. B. an/von Steuerungen, Aktoren, Sensoren usw., einschließlich der Sensoren 116. Alternativ oder zusätzlich kann in Fällen, in denen die Rechenvorrichtung 115 tatsächlich mehrere Vorrichtungen umfasst, das Fahrzeugkommunikationsnetzwerk zur Kommunikation zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als die Rechenvorrichtung 115 dargestellt sind. Ferner können, wie nachstehend erwähnt, verschiedene Steuerungen oder Erfassungselemente, wie etwa die Sensoren 116, der Rechenvorrichtung 115 Daten über das Fahrzeugkommunikationsnetzwerk bereitstellen.
  • Des Weiteren kann die Rechenvorrichtung 115 dazu konfiguriert sein, über ein Netzwerk, das, wie nachstehend beschrieben, Hardware, Firmware und Software beinhaltet, die es der Rechenvorrichtung 115 ermöglichen, über ein Netzwerk, wie etwa drahtloses Internet (WI-FI®) oder Mobilfunknetzwerke, mit einem entfernten Servercomputer zu kommunizieren, durch eine Fahrzeug-Infrastruktur-Schnittstelle (F-I-Schnittstelle) 111 mit einem entfernten Servercomputer, z. B. mit einem Cloud-Server, zu kommunizieren. Die F-I-Schnittstelle 111 kann dementsprechend Prozessoren, Speicher, Sendeempfänger usw. beinhalten, die dazu konfiguriert sind, verschiedene drahtgebundene und/oder drahtlose Netzwerktechnologien zu nutzen, z. B. Mobilfunk, BLUETOOTH®, Ultrabreitband (Ultra-Wide Band - UWB®) und drahtgebundene und/oder drahtlose Paketnetzwerke. Die Rechenvorrichtung 115 kann zum Kommunizieren mit anderen Fahrzeugen 110 über die F-I-Schnittstelle 111 unter Verwendung von Fahrzeug-Fahrzeug-Netzwerken (F-F-Netzwerken), z. B. gemäß dedizierter Nahbereichsübertragung (dedicated short range communications - DSRC) und/oder dergleichen, konfiguriert sein, die z. B. ad hoc zwischen Fahrzeugen 110 in der Nähe gebildet oder über infrastrukturbasierte Netzwerke gebildet werden. Die Rechenvorrichtung 115 beinhaltet auch nicht flüchtigen Speicher, wie er bekannt ist. Die Rechenvorrichtung 115 kann Daten protokollieren, indem sie die Daten zum späteren Abrufen und Übertragen über das Fahrzeugkommunikationsnetzwerk und eine Fahrzeug-Infrastruktur-Schnittstelle (F-I-Schnittstelle) 111 an einen Servercomputer oder eine mobile Vorrichtung eines Benutzers in nicht flüchtigem Speicher speichert.
  • Wie bereits erwähnt, ist in Anweisungen, die in dem Speicher gespeichert und durch den Prozessor der Rechenvorrichtung 115 ausführbar sind, im Allgemeinen eine Programmierung zum Betreiben einer oder mehrerer Komponenten des Fahrzeugs 110, z. B. Bremsen, Lenkung, Antrieb usw. enthalten. Unter Verwendung von Daten, die in der Rechenvorrichtung 115 empfangen werden, z. B. Sensordaten von den Sensoren 116, dem Servercomputer usw., kann die Rechenvorrichtung 115 verschiedene Bestimmungen vornehmen und/oder verschiedene Komponenten und/oder Vorgänge des Fahrzeugs 110 steuern. Zum Beispiel kann die Rechenvorrichtung 115 eine Programmierung zum Regulieren des Betriebsverhaltens des Fahrzeugs 110 (d. h. physischer Manifestationen des Betriebs des Fahrzeugs 110), wie etwa einer Drehzahl, Beschleunigung, Verlangsamung, Lenkung usw., und des taktischen Verhaltens (d. h. Steuerung des Betriebsverhaltens auf eine Weise, die typischerweise ein sicheres und effizientes Abfahren einer Route erreichen soll), wie etwa eines Abstands zwischen Fahrzeugen und/oder eines Zeitraums zwischen Fahrzeugen, Spurwechseln, des Mindestabstands zwischen Fahrzeugen, der Mindestzeit zur Wegquerung bei Linksabbiegung, der Zeit bis zur Ankunft an einem bestimmten Standort und der Mindestzeit zum Überqueren der Kreuzung an einer Kreuzung (ohne Ampel) beinhalten.
  • Die eine oder die mehreren Steuerungen 112, 113, 114 für das Fahrzeug 110 können bekannte elektronische Steuereinheiten (electronic control units - ECUs) oder dergleichen beinhalten, die als nicht einschränkende Beispiele eine oder mehrere Antriebsstrangsteuerungen 112, eine oder mehrere Bremssteuerungen 113 und eine oder mehrere Lenksteuerungen 114 beinhalten. Jede der Steuerungen 112, 113, 114 kann entsprechende Prozessoren und Speicher und ein oder mehrere Aktoren beinhalten. Die Steuerungen 112, 113, 114 können mit einem Kommunikationsbus des Fahrzeugs 110 programmiert und verbunden sein, wie etwa einem Controller-Area-Network-Bus (CAN-Bus) oder einem Local-Interconnect-Network-Bus (LIN-Bus), um Anweisungen von der Rechenvorrichtung 115 zu empfangen und Aktoren basierend auf den Anweisungen zu steuern.
  • Die Sensoren 116 können eine Vielfalt von Vorrichtungen beinhalten, die für die Bereitstellung von Daten über den Fahrzeugkommunikationsbus bekannt sind. Zum Beispiel kann ein Radar, das an einem vorderen Stoßfänger (nicht gezeigt) des Fahrzeugs 110 befestigt ist, einen Abstand von dem Fahrzeug 110 zu einem nächsten Fahrzeug vor dem Fahrzeug 110 bereitstellen oder kann ein Sensor für ein globales Positionsbestimmungssystem (global positioning system - GPS), der in dem Fahrzeug 110 angeordnet ist, geografische Koordinaten des Fahrzeugs 110 bereitstellen. Der/die durch das Radar und/oder die anderen Sensoren 116 bereitgestellte(n) Abstand bzw. Abstände und/oder die durch den GPS-Sensor bereitgestellten geografischen Koordinaten können durch die Rechenvorrichtung 115 verwendet werden, um das Fahrzeug 110 zu betreiben.
  • Das Fahrzeug 110 ist im Allgemeinen ein Landfahrzeug 110, das zum Betrieb in der Lage ist und das drei oder mehr Räder aufweist, z. B. ein Personenkraftwagen, ein Kleinlastwagen usw. Das Fahrzeug 110 beinhaltet einen oder mehrere Sensoren 116, die F-I-Schnittstelle 111, die Rechenvorrichtung 115 und eine oder mehrere Steuerungen 112, 113, 114. Die Sensoren 116 können Daten in Bezug auf das Fahrzeug 110 und die Umgebung, in der das Fahrzeug 110 betrieben wird, sammeln. Beispielhaft und nicht einschränkend können die Sensoren 116 z. B. Höhenmesser, Kameras, Lidar, Radar, Ultraschallsensoren, Infrarotsensoren, Drucksensoren, Beschleunigungsmesser, Gyroskope, Temperatursensoren, Drucksensoren, Hallsensoren, optische Sensoren, Spannungssensoren, Stromsensoren, mechanische Sensoren, wie etwa Schalter, usw. beinhalten. Die Sensoren 116 können verwendet werden, um die Umgebung zu erfassen, in der das Fahrzeug 110 betrieben wird, wobei die Sensoren 116 z. B. Phänomene, wie etwa Wetterbedingungen (Niederschlag, Außenumgebungstemperatur usw.), das Gefälle einer Straße, die Position einer Straße (z. B. unter Verwendung von Straßenrändern, Spurmarkierungen usw.) oder Positionen von Zielobjekten, wie etwa benachbarten Fahrzeugen 110, erkennen können. Die Sensoren 116 können ferner verwendet werden, um Daten zu sammeln, einschließlich dynamischer Daten des Fahrzeugs 110, die sich auf den Betrieb des Fahrzeugs 110 beziehen, wie etwa eine Geschwindigkeit, eine Gierrate, einen Lenkwinkel, eine Motordrehzahl, einen Bremsdruck, einen Öldruck, den auf die Steuerungen 112, 113, 114 in dem Fahrzeug 110 angewandten Leistungspegel, eine Konnektivität zwischen Komponenten und eine genaue und rechtzeitige Leistung von Komponenten des Fahrzeugs 110.
  • 2 ist eine Abbildung eines Bilds 200, das ein menschliches Gesicht 202 beinhaltet. Das Bild 200 wird durch eine Kamera von einer Szene erfasst, die durch Beleuchtung beleuchtet wird, bei der es sich um eine oder mehrere Wellenlängen von Beleuchtung mit Nahinfrarotlicht (NIR), Beleuchtung mit kurzwelligem Infrarotlicht (short wavelength infrared light - SWIR), Beleuchtung mit sichtbarem Licht oder Beleuchtung mit ultraviolettem Licht (UV-Licht) handeln kann, wobei das Bild 200 durch eine Kamera erfasst und an eine Rechenvorrichtung 115 kommuniziert werden kann. Die Kamera kann einen Festkörperbildsensor beinhalten, der Licht bei den Wellenlängen erfassen kann, die durch die gesteuerte Beleuchtung emittiert werden. Das Bild 200 kann auch durch Bestimmen eines Verhältnisses von Wellenlängen erfasst werden. Zum Beispiel kann eine Kamera zwei Bildsensoren aufweisen, die angeordnet sind, um das gleiche Sichtfeld einzusehen, und die jeweils einen Bandbreitenfilter aufweisen, der Licht in einem schmalen Band von Wellenlängen überträgt, das um zwei unterschiedliche Wellenlängen zentriert ist, zum Beispiel dichroitische Filter. Das Bild 200 kann erfasst werden, indem die Szene mit Breitbandbeleuchtung beleuchtet wird, die beide Wellenlängen beinhaltet, und die zwei unterschiedlichen Wellenlängen mit den zwei Bildsensoren erfasst werden. Die entsprechenden Pixel der resultierenden Bilder können subtrahiert werden, um das Bild 200 als Differenzbild zu bilden. Ein Bild 200 kann bestimmt werden, indem zwei NIR-Bilder mit Wellenlängen von zum Beispiel 850 und 940 nm erfasst werden. Es kann ein Bild 200 bestimmt werden, das Pixel beinhaltet, die der Differenz zwischen dem Licht entsprechen, das bei den zwei Wellenlängen erfasst wurde.
  • Es sind Standbildkameras und -videokameras verfügbar, die RGB-gefilterte Fotostellen zusätzlich zu ungefilterten Fotostellen in einer Mosaikanordnung beinhalten, um Bilder zu erzeugen, die sowohl Rot-, Grün- und Blau-Pixelkanäle (RGB-Pixelkanäle) als auch einen NIR-Pixelkanal zum Generieren eines RGB/NIR-Bilds beinhalten. Aus einem RGB/NIR-Bild kann ein NIR-Bild extrahiert werden, indem nur Daten aus dem NIR-Kanal extrahiert werden. In dieser Schrift erörterte Techniken verwenden Reaktionen von echten und gefälschten Objekten auf gesteuerte Beleuchtung, um echte von gefälschten Objekten zu unterscheiden. Obwohl NIR-Beleuchtung und -Bilder als ein Beispiel für Beleuchtung verwendet werden, die verwendet werden können, um Bilder von echten Objekten von gefälschten Objekten zu trennen, können andere Spektralbereiche des Lichts verwendet werden, um echte Objekte von gefälschten Objekten zu trennen. Zum Beispiel können Verhältnisse von Reaktionen auf rotes und blaues Licht verwendet werden, um gefälschte Objekte von echten Objekten zu trennen. Die Trennung von echten und gefälschten Bildern kann mit anderen Wellenlängen und Kombinationen von Wellenlängen des Lichts von SWIR über NIR und sichtbarem Licht bis hin zu ultravioletten Wellenlängen durchgeführt werden. Die Verwendung von NIR hat Vorteile, einschließlich kostengünstiger Ausrüstung und Freiheit von Umgebungsrauschen in den meisten Umgebungen, was Rechenressourcen reduzieren kann, die erforderlich sind, um echte von gefälschten Objekten zu unterscheiden.
  • Zum Beispiel ist 3 ist ein Diagramm eines Histogramms 300 von Pixelwerten 302 aus einem Bild 200 aus 2. Das Histogramm 300 beinhaltet einen Graphen, der Pixelintensitäten auf der x-Achse gegenüber der Pixelanzahl für die Pixelintensitäten auf der y-Achse aufträgt. Es kann ein Schwellenwert 304 bestimmt werden, bis zu welchem Pixelwerte 302 von Bildern 200 verglichen werden können, wenn die Bilder 200 menschliche Gesichter 202 beinhalten. In dieser Schrift beschriebene Techniken können ein erstes Bild 200 eines Benutzers erfassen, das als Registrierungsbild 200 bezeichnet wird und zu einem späteren Zeitpunkt verwendet werden soll, wenn der Benutzer um Zugang zu bzw. Zugriff auf ein Fahrzeug, einen Bereich oder eine Vorrichtung bittet. Das Registrierungsbild 200 wird verarbeitet, um ein Histogramm 300 zu generieren, und es wird ein Schwellenwert 304 basierend auf Bestimmen einer z-Bewertung für Pixelwerte 302 bestimmt. Eine z-Bewertung ist ein Mal für die statistische Differenz und wird durch Berechnen eines Mittelwerts und einer Standardabweichung für die Verteilung der Pixelwerte 302 bestimmt. Die z-Bewertung misst einen Abstand zwischen dem mittleren Pixelwert 302 und einem Schwellenwert 304 in Bezug auf Standardabweichungen. Der Schwellenwert 304 kann auf einen Wert festgelegt werden, unter welchem bei dem gegebenen Mittelwert und der Standardabweichung der Verteilung der Pixelwerte 302 erwartet wird, dass ein spezifizierter Prozentsatz der Pixelwerte auftritt. Zum Beispiel kann unter der Annahme einer Gaul -Verteilung erwartet werden, dass ein Schwellenwert 304, der auf zwei Standardabweichungen über dem Mittelwert festgelegt ist, gröl er als 97,6 % der Pixelwerte 302 ist. Von einem Schwellenwert 304, der auf drei Standardabweichungen über dem Mittelwert festgelegt ist, kann erwartet werden, dass er gröl er als 99,8 % der Pixelwerte 302 ist. Unter der Annahme, dass der Schwellenwert 304 auf drei Standardabweichungen über dem Mittelwert festgelegt ist, kann zu einem späteren Zeitpunkt, wenn der Benutzer um Zugang zu bzw. Zugriff auf das Fahrzeug, den Bereich oder die Vorrichtung bittet, ein zweites Bild 200 unter Verwendung derselben Kamera und Ausleuchtung erfasst werden. Die Annahme ist, dass das Erfassen eines zweiten oder Herausforderungsbilds unter Verwendung derselben Kamera unter Verwendung derselben gesteuerten Beleuchtung ein Histogramm generiert, in dem der Mittelwert der Pixelwerte drei Standardabweichungen unter dem Schwellenwert 304 auftritt. Es kann ein zweites Histogramm 300 aus den Pixeln des zweiten Bilds 200, das dem Gesicht des Benutzers entspricht, generiert werden und mit dem Schwellenwert 304 verglichen werden. Wenn der Mittelwert der Pixelwerte 302 in dem zweiten Histogramm weniger als drei Standardabweichungen unter dem Schwellenwert 304 liegt, wird bestimmt, dass das Objekt in dem zweiten Bild 200 echt ist und demnach einem lebendigen menschlichen Gesicht entspricht. Wenn der Mittelwert der Pixelwerte in dem Histogramm nicht drei Standardabweichungen unter dem Schwellenwert 304 liegt, wird bestimmt, dass das Bild ein gefälschtes Objekt beinhaltet.
  • Der Schwellenwert 304 kann durch Erfassen einer Vielzahl von Bildern 200 einer Vielzahl von menschlichen Gesichtern verbessert werden. Die Vielzahl von Bildern 200 kann in einem Labor unter Verwendung einer anderen Kamera und einer anderen gesteuerten Beleuchtung erfasst werden. Die Pixelwerte 302, die der Vielzahl von menschlichen Gesichtern entsprechen, können angepasst werden, um Unterschiede bei Kameras und Ausleuchtung zwischen dem Labor und Kamera und Ausleuchtung, wie sie in der echten Welt zum Bestimmen der Registrierungs- und Herausforderungsbilder verwendet werden, zu kompensieren. Basierend auf dem Mittelwert und der Standardabweichung der Pixelwerte 302 kann ein Schwellenwert 304 bestimmt werden. Von einem Schwellenwert 304, der auf drei Standardabweichungen über dem Mittelwert bestimmt ist, kann erwartet werden, dass er gröl er als mehr als 99 % der Pixelwerte 302 in den Bildern von echten Gesichtern ist. Die Intensität der kontrollierten Beleuchtung sowohl im Labor als auch in der echten Welt kann gemessen werden und der Schwellenwert 304 und die Anzahl an Standardabweichungen, bei denen der mittlere Pixelwert 302 unter dem Schwellenwert 304 liegen muss, kann angepasst werden, um zum Beispiel Unterschiede in den Ausleuchtungsintensitäten zu kompensieren. Der Schwellenwert 304 und die Anzahl an Standardabweichungen können auch durch erwartete Unterschiede in der Umgebungsbeleuchtung zwischen Registrierungsbildern und Herausforderungsbildern angepasst werden. Wenn zum Beispiel ein Registrierungsbild im Aul enbereich oder an einem Fahrzeug bei Tageslicht erfasst wird, würde sich das Reflexionsvermögen eines menschlichen Gesichts von einem Bild desselben menschlichen Gesichts bei gesteuerter Beleuchtung, das nachts im Innenraum eines Fahrzeugs erfasst wird, unterscheiden. Ein wie in dieser Schrift beschriebenes System zur Lebendigkeitsbestimmung kann sowohl die Umgebungsbeleuchtung als auch zugeführte Beleuchtungsniveaus bestimmen und den Schwellenwert 304 anpassen, um unterschiedliche Beleuchtungsniveaus zu kompensieren.
  • In dieser Schrift erörterte Techniken können auch Bildsegmentierung an erfassten Bildern durchführen, um menschliche Gesichter in Regionen zu trennen. Bildsegmentierung ist eine Bildverarbeitungstechnik zum Trennen von Bildern in Regionen basierend auf Ähnlichkeiten in Pixelwerten, Form und Textur. Zum Beispiel kann ein menschliches Gesicht segmentiert werden, um Regionen wie Haut, Lippen, Haare und Augen zu trennen. Für ein Registrierungsbild kann ein Histogramm jeder Region generiert und mit ähnlichen Regionen in einem Herausforderungsbild verglichen werden. Der Mittelwert und die Standardabweichungen können für jede segmentierte Region in dem Herausforderungsbild berechnet und mit einem separaten Schwellenwert 304 für jede segmentierte Region verglichen werden. Von einem Vergleich von Registrierungsbildern und Herausforderungsbildern basierend auf Segmentierung der Registrierungs- und Herausforderungsbilder kann erwartet werden, dass er genauer als nur ein Vergleichen der Pixelwerte 302 ist, die einzig der Haut entsprechen.
  • Das Bestimmen von Lebendigkeit basierend auf Pixelwerten 302 und Schwellenwerten 304 basiert auf der Beobachtung, dass echte menschliche Gesichter im Allgemeinen mehr einfallgesteuerte Beleuchtung absorbieren als Fälschungen. Zum Beispiel werden Fotografien typischerweise mit Infrarotbeschichtungen verarbeitet, die NIR-Beleuchtung reflektieren. Nylon, ein Gewebe, das verwendet wird, um fotografische menschliche Masken herzustellen, reflektiert den Großteil von NIR-Licht. Die Fähigkeit, NIR-Licht zu reflektieren, unterscheidet gefälschte Gesichtsbilder von echten menschlichen Gesichtern gut genug, um es in dieser Schrift erörterten Techniken zu ermöglichen, die Lebendigkeit von echten menschlichen Gesichtern basierend auf Schwellenwerthistogrammen von NIR-Bildern zu bestimmen.
  • 4 ist eine Abbildung eines Bilds 400, das ein gefälschtes Bild 402 eines menschlichen Gesichts beinhaltet. In diesem Beispiel wird das gefälschte Bild 402 eines menschlichen Gesichts generiert, indem eine lebensgroße Farbfotografie eines menschlichen Gesichts in das Sichtfeld einer Kamera gehalten wird. Ein gefälschtes Bild, wie etwa das Bild 402, das die Größe, Form und Texturen wiedergibt, die in einem echten Bild eines menschlichen Gesichts enthalten sind, kann in ein biometrisches Autorisierungssystem eingegeben werden, das eine Gesichtserkennung durchführt, und könnte als ein lebendiger Mensch identifiziert werden, obwohl es sich um eine Fotografie eines menschlichen Gesichts handelt. In dieser Schrift erörterte Techniken bestimmen die Lebendigkeit eines Bilds eines menschlichen Gesichts, um Spoofing eines biometrischen Autorisierungssystems zu verhindern, indem ein Mal von Pixelwerten in einem Bild eines menschlichen Gesichts generiert und mit zuvor gebildeten Mal en verglichen wird, um die Lebendigkeit zu bestimmen.
  • 5 ist ein Diagramm eines Histogramms 500 von Pixelwerten 502 in einem Bild 400, das ein gefälschtes Bild 402 eines menschlichen Gesichts beinhaltet. Das Histogramm 500 beinhaltet einen Graphen, der Pixelintensitäten auf der x-Achse gegenüber der Pixelanzahl für die Pixelintensitäten auf der y-Achse aufträgt. Basierend auf den Pixelwerten 502 kann ein Mittelwert und eine Standardabweichung bestimmt werden. Es kann ein Schwellenwert 504 ausgewählt werden, über dem mittlere Pixelwerte 502 einer Vielzahl von Bildern 400 um eine spezifizierte Anzahl an Standardabweichungen liegen werden. Wenn bestimmt wird, dass die mittleren Pixelwerte 502 in einem Histogramm 500 von Bildern 400 größer als eine spezifizierte Anzahl an Standardabweichungen über einem Schwellenwert 504 sind, kann bestimmt werden, dass das Bild 400 gefälscht ist. Das gefälschte Bild 400 kann zum Beispiel Fotografien, fotografische Spandexmasken und Silikonmasken beinhalten. Fotografische Spandexmasken sind Stoffmasken mit darauf gedruckten hochauflösenden Farbfotografien eines menschlichen Gesichts. Echte menschliche Gesichter 202 können von gefälschten Bildern von menschlichen Gesichtern 402 basierend auf den Standardabweichungen der Verteilungen von Pixelwerten getrennt werden, indem der Schwellenwert 504 empirisch bestimmt wird, unter dem typischerweise mittlere Pixelwerte 302 auftreten, die echten menschlichen Gesichtern 202 entsprechen, und über dem typischerweise mittlere Pixelwerte 502 auftreten, die gefälschten Bildern 402 entsprechen.
  • Die Auswahl eines Schwellenwerts 304 zum Trennen von Bildern, die echte menschliche Gesichter beinhalten, von Bildern, die gefälschte menschliche Gesichter beinhalten, kann verbessert werden, indem eine Vielzahl von Bildern von gefälschten Bildern 400 erfasst und das Histogramm 500 basierend auf einer Analyse von Pixelwerten aus den gefälschten Bildern 400 angepasst wird. Wie vorstehend in Bezug auf 3 erörtert, kann eine Vielzahl von Bildern gefälschter menschlicher Gesichter 402, einschließlich fotografischer Fälschungen und Maskenfälschungen, erfasst und können Histogramme 500 für die gefälschten Bilder 400 bestimmt werden. Ein Schwellenwert 504 für Fälschungen kann zum Beispiel bestimmt werden, indem ein Mittelwert und eine Standardabweichung für die Verteilung von Pixelwerten berechnet und ein Schwellenwert basierend auf dem Mittelwert und der Standardabweichung ausgewählt wird, bei dem erwartet werden kann, dass 99 % der Pixelwerte in den gefälschten Bildern auftreten. Der Schwellenwert 504 für Fälschungen kann mit dem Schwellenwert 304 für echte Bilder, der vorstehend in Bezug auf 3 bestimmt wurde, kombiniert werden, zum Beispiel durch Mittelwertbildung. Eine Analyse einer Vielzahl von gefälschten Bildern 400 kann ermöglichen, dass der Schwellenwert 304 angehoben wird, wodurch die Wahrscheinlichkeit erhöht wird, dass ein echtes menschliches Gesicht 302 als lebendig bestimmt wird, ohne die Wahrscheinlichkeit zu erhöhen, dass ein gefälschtes Bild 400 als echt akzeptiert wird.
  • In dieser Schrift erörterte Techniken können die Lebendigkeitsbestimmung in den Bildern 200, 400 verbessern, indem Bildverarbeitungssoftware verwendet wird, um die Umrisse von menschlichen Gesichtern in einem Bild zu erkennen. Bildverarbeitungssoftware, die einen Umriss eines menschlichen Gesichts bestimmen kann, ist in Dlib enthalten, einem Toolkit, das Algorithmen maschinellen Lernens und Werkzeuge zum Erstellen von komplexer Software in C ++ enthält. Dlib ist unter Github.com verfügbar und unter einer Open-Source-Lizenz verfügbar, die dessen kostenlose Nutzung ermöglicht. Dlib beinhaltet eine Routine mit dem Namen Get_Frontal_Face_Detector, die eine Routine ist, die dazu konfiguriert ist, ein menschliches Gesicht zu finden, das mehr oder weniger in Richtung einer Kamera schaut. Es kann ein Gesicht in einem Bild 200, 400 erkannt und ein Versatz zwischen dem Mittelpunkt des Gesichts und einem Mittelpunkt des Bilds 200, 400 bestimmt werden. Der Versatz kann dazu verwendet werden, die Pixelwerte 302, 502 in einem Histogramm 300, 500 des Bilds 200, 400 anzupassen, um zum Beispiel Bildhintergrundpixel zu berücksichtigen. Bildhintergrundpixel beinhalten Pixelwerte, die nicht der menschlichen Haut entsprechen, und können daher als Fremdrauschen betrachtet werden. Das Eliminieren von Hintergrundpixeln kann die Genauigkeit der Lebendigkeitsbestimmung von menschlichen Gesichtern unter Verwendung der Schwellenwerttechnik verbessern, die vorstehend in Bezug auf die vorstehenden 2-5 beschrieben ist und auf Mal e von Pixelwerten in den Versatzbildern angewandt wird.
  • Eine weitere Technik zum Verbessern der Lebendigkeitsbestimmung in einem Bild eines menschlichen Gesichts besteht darin, den Winkel eines Gesichts zur Kamera zu kompensieren. In dieser Schrift erörterte Techniken können von Pixelwerten von Bilddaten abhängen. Pixelwerte von Pixeln, die menschlichen Gesichtern entsprechen, können von dem Winkel eines menschlichen Gesichts zur Kamera abhängen. Zum Beispiel kann ein menschliches Gesicht in einem Winkel von 45 Grad zu einer Kamera, das heil t von einer Frontalrichtung abgewandt, Licht anders reflektieren als ein menschliches Gesicht, das direkt in die Kamera schaut. Die Änderung der Pixelintensitäten aufgrund des Gesichtswinkels in Bezug auf die Kamera kann empirisch gemessen und dazu verwendet werden, die Pixelintensitäten in einem Histogramm basierend auf einem gemessenen Gesichtswinkel zu korrigieren. Der Gesichtswinkel kann unter Verwendung einer Dlib-Softwareroutine mit dem Namen Get_Surf_Points gemessen werden, um Gesichtsmerkmale zu erkennen. Zum Beispiel durch Erkennen von Bildpixelwerten der Gesichtsmerkmale durch Get Surf Points, die Ränder und Winkel bilden. Gesichtsmerkmale können zum Beispiel Stellen, wie etwa die inneren und äußeren Augenwinkel und Mundwinkel, beinhalten. Eine beispielhafte Technik zum Erkennen eines Gesichtswinkels besteht darin, ein Merkmal zu erkennen, das der Nasenspitze entspricht, und den Abstand von dem Nasenspitzenmerkmal zu den Merkmalen zu messen, die den Mundwinkeln entsprechen. Zum Beispiel kann das Verhältnis von Abständen zwischen Merkmalen in der Mitte des Gesichts, wie etwa der Nasenspitze, zu Merkmalen, die sich auf beiden Seiten des Gesichts befinden, wie etwa den Mundwinkeln, dazu verwendet werden, den Gesichtswinkel zu bestimmen. Eine Winkelkompensation eines Gesichts zu einer Kamera kann die Genauigkeit der Lebendigkeitsbestimmung von menschlichen Gesichtern unter Verwendung der Schwellenwerttechnik verbessern, die vorstehend in Bezug auf die vorstehenden 2-5 beschrieben ist und auf Mal e von Pixelwerten in den winkelkompensierten Bildern angewandt wird.
  • Eine weitere Technik zum Unterscheiden zwischen Bildern von echten menschlichen Gesichtern 202 und gefälschten Bildern 402 von menschlichen Gesichtern besteht darin, die Bildtextur unter Verwendung eines Gabor-Texturfilters zu messen. Ein Gabor-Texturfilter ist ein Mal für die Änderung der Pixelintensitäten über kleine Abstände in einem Bild. Ein zweidimensionaler Gabor-Texturfilter Gc[i,j], Gs[i,j] kann durch Berechnen von zwei Funktionen bestimmt werden: G c [ i , j ] = B e ( i 2 + j 2 ) 2 σ 2 cos ( 2 π ƒ ( i  cos  θ + j  sin  θ ) )
    Figure DE102022111231A1_0001
    G s [ i , j ] = C e ( i 2 + j 2 ) 2 σ 2 sin ( 2 π ƒ ( i  cos  θ + j  sin  θ ) )
    Figure DE102022111231A1_0002
  • Wobei i, j Pixelwerte sind, B und C Normierungswerte sind, die basierend auf den Bilddaten bestimmt werden, ƒ die Frequenz der gesuchten Textur definiert, θ der Winkel ist, welcher der Texturausrichtung entspricht, und σ die Größe der analysierten Region ist. Gabor-Texturfilter sind für räumliche Frequenzen empfindlich, die den Pixelwerten in einem Bild entsprechen, und können anstelle einer Histogrammanalyse oder zusammen mit der Histogrammanalyse dazu verwendet werden, zwischen echten und gefälschten menschlichen Gesichtern zu unterscheiden.
  • 6 ist ein Graustufen- oder RGB-Farbbild 600 eines menschlichen Gesichts, das unter Verwendung einer Graustufen- oder Farbkamera erfasst wurde. Das Graustufen- oder RGB-Farbbild kann durch eine Kamera erfasst und an eine Rechenvorrichtung 115 kommuniziert werden. Das Graustufen- oder RGB-Farbbild kann nach der Bestimmung, dass ein Bild 200 ein lebendiges menschliches Gesicht beinhaltet, z. B. erfolgreicher Lebendigkeitsbestimmung, durch die Rechenvorrichtung 115 an ein biometrisches Authentifizierungssystem ausgegeben werden. Das biometrische Authentifizierungssystem kann Software sein, die auf der Rechenvorrichtung 115 ausgeführt wird, und kann, wie vorstehend erörtert, eine Erkennung von menschlichen Gesichtern beinhalten. In Beispielen, in denen die Rechenvorrichtung 115 bestimmt, dass ein erfasstes Bild 400 ein gefälschtes Bild 402 eines menschlichen Gesichts beinhaltet, wird das Graustufen- oder RGB-Farbbild nicht an ein biometrisches Authentifizierungssystem ausgegeben und wird keine Erkennung von menschlichen Gesichtern durchgeführt. In Beispielen für Techniken zur Lebendigkeitsbestimmung können Messungen von Pixelwerten an den Graustufen- oder RGB-Farbbildern anstelle von oder zusätzlich zu Messungen von Pixelwerten in Bildern durchgeführt werden.
  • In dieser Schrift erörterte Techniken können die biometrische Authentifizierung verbessern, indem die Lebendigkeit eines Bilds eines menschlichen Gesichts bestimmt wird. In einigen Beispielen kann die Lebendigkeit bestimmt werden, indem zuerst Mal e von Pixelwerten bestimmt werden, wie vorstehend in Bezug auf die 3 und 5 in Registrierungsbildern erörtert. Die Mal e von Pixelwerten, die ein Schwellenwert oder ein Markov-Sequenzmal sein können, können in einem Speicher gespeichert werden, der in einer Rechenvorrichtung 115 enthalten ist. Zu einem späteren Zeitpunkt, falls und wenn die zu authentifizierende Person im Sichtfeld der Kamera erscheint, wird ein Herausforderungsbild erfasst. Es werden Messungen von Pixelwerten in dem Herausforderungsbild durchgeführt und mit den gespeicherten Messungen verglichen, um die Lebendigkeit in den Herausforderungsbildern zu bestimmen. In dieser Schrift erörterte Techniken verbessern die Lebendigkeitsbestimmung durch Erhöhen der Recheneffizienz der Gesichtsauthentifizierung, indem vermieden wird, dass Rechenressourcen aufgewandt werden, die erforderlich sind, um 3D-Sensordaten zu verarbeiten, die einem menschlichen Gesicht entsprechen. In dieser Schrift erörterte Techniken verbessern auch die Lebendigkeitsbestimmung, indem die Rechenressourcen vermieden werden, die erforderlich sind, um gefälschte Bilder unter Verwendung von Bildverarbeitungstechniken, um zum Beispiel die Ränder von bearbeiteten Regionen in Fotografien zu erkennen, zu bestimmen. In einigen Beispielen sind tiefe neuronale Netze oder cloudbasierte Datenbanken bekannter Fälschungen erforderlich, um gefälschte Bilder zu bestimmen.
  • Die in dieser Schrift erörterten Techniken in Bezug auf die Erkennung von gefälschten Bildern können einem bestärkten Lernen unterzogen werden. Das bestärkte Lernen wird durchgeführt, indem Statistiken bezüglich der Anzahl an korrekten und inkorrekten Ergebnissen, die durch ein Erkennungssystem für gefälschte Bilder erhalten werden, weiterhin verwendet werden und die statistischen Ergebnisse dazu verwendet werden, das Erkennungssystem für gefälschte Bilder erneut zu trainieren. Zum Beispiel wird angenommen, dass ein Erkennungssystem für gefälschte Bilder als Eingabe in ein biometrisches Autorisierungssystem verwendet wird, das dazu verwendet wird, ein Fahrzeug, ein Gebäude oder eine Vorrichtung zu entriegeln, wenn sich ein berechtigter Benutzer nähert. Ein berechtigter Benutzer ist ein Benutzer mit einer zuvor vereinbarten Erlaubnis zum Nutzen des Fahrzeugs, des Gebäudes oder der Vorrichtung. In einem Beispiel, in dem das Erkennungssystem für gefälschte Bilder daran scheitert, eine Kamera korrekt zu verifizieren und das Fahrzeug zu entriegeln, kann der Benutzer gezwungen sein, das Fahrzeug mit einem Schlüssel oder Funkschlüssel manuell zu entriegeln oder ein 2-Faktor-Autorisierungssystem zu verwenden, wie etwa Eingeben eines an eine Mobiltelefonnummer gesendeten Codes. Wenn ein Benutzer gezwungen ist, das Fahrzeug manuell zu entriegeln, kann das Erkennungssystem für gefälschte Bilder Daten bezüglich der inkorrekten Kameraquellendaten einschließlich des Bilds des Benutzers speichern.
  • Das Bestimmen, was mit Daten bezüglich der inkorrekten Erkennung von gefälschten Bildern geschehen soll, kann auf einem Belohnungssystem basieren. Ein Belohnungssystem trainiert das Erkennungssystem für gefälschte Bilder entsprechend den Erkennungsdaten für gefälschte Bilder abhängig von dem Ergebnis des Scheiterns der Authentifizierung erneut. Falls der potenzielle Benutzer daran scheitert, Zugriff auf das Fahrzeug zu erhalten, wird angenommen, dass der gescheiterte Versuch ein versuchter Spoof war, und die Daten werden an einen Trainingsdatensatz für wahrscheinliche Spoofdaten angehängt. Falls der potenzielle Benutzer unter Verwendung eines der manuellen Ansätze Zugriff erhält, zum Beispiel Schlüssel, Funkschlüssel oder 2-Faktor-Autorisierung, werden die Daten an einen Trainingsdatensatz für falsch negative Ergebnisse angehängt, der im Trainingsprozess korrigiert werden soll. Das Authentifizierungssystem kann basierend auf dem aktualisierten Trainingsdatensatz regelmäßig oder, wenn die Anzahl an neuen Datensätzen für die Erkennung von gefälschten Bildern, die dem Trainingsdatensatz hinzugefügt werden, einen vom Benutzer bestimmten Schwellenwert überschreitet, erneut trainiert werden. Das erneute Trainieren kann sowohl auf deterministische Authentifizierungssysteme, die auf Gauß-Parametern basieren, als auch auf Systeme, die auf einem tiefen neuronalen Netz basieren, angewandt werden.
  • Daten bezüglich des Scheiterns der Verifizierung einer Erkennung von gefälschten Bildern können unter einer Vielzahl von Fahrzeugen zusammengeführt oder geteilt werden. Die Daten bezüglich des Scheiterns der Verifizierung einer Erkennung von gefälschten Bildern können auf einen cloudbasierten Server hochgeladen werden, der ein Zentralarchiv von Trainingsdatensätzen beinhaltet. Das Hochgeladene verifiziert einen Kameraquellendatensatz und die entsprechenden Ergebnisse können in aktualisierten Trainingsdatensätzen aggregiert werden und Ergebnisse des erneuten Trainings können basierend auf den neuen Daten mit Ergebnissen für das vorherige Training verglichen werden. Falls der neue Trainingsdatensatz die Leistung verbessert, kann das neue trainierte Modell unter Verwendung des Erkennungssystems für gefälschte Bilder an Fahrzeuge im Pushverfahren übertragen oder auf diese heruntergeladen werden. Es ist zu beachten, dass keine persönlichen Daten bezüglich der Identitäten der Benutzer auf die cloudbasierten Server hochgeladen werden müssen, sondern nur Datensätze und Ergebnisse der Verifikation der Kameraquelle. Durch das Zusammenführen neuer trainierter Modelle basierend auf Trainingsdaten, die von einer Vielzahl von Standorten hochgeladen werden, kann die Leistung eines Erkennungssystems für gefälschte Bilder über die Lebensdauer des Systems kontinuierlich verbessert werden.
  • 7 ist eine Abbildung eines Ablaufdiagramms eines Prozesses zum Authentifizieren der Lebendigkeit eines Subjekts von einem Bild 200, 400, das in Bezug auf die 1-6 beschrieben ist. Der Prozess 700 kann durch einen Prozessor einer Rechenvorrichtung, wie etwa einer Rechenvorrichtung 115, umgesetzt werden, der zum Beispiel Informationen von Sensoren als Eingabe verwendet und Befehle ausführt und Objektinformationen ausgibt. Der Prozess 700 beinhaltet mehrere Blöcke, die in der dargestellten Reihenfolge ausgeführt werden können. Der Prozess 700 könnte alternativ oder zusätzlich weniger Blöcke beinhalten oder kann beinhalten, dass die Blöcke in anderen Reihenfolgen ausgeführt werden.
  • Der Prozess 700 beginnt bei Block 702, bei dem eine Rechenvorrichtung 115 ein oder mehrere erste Bilder 200, 400 eines Objekts, zum Beispiel eines menschlichen Gesichts, von einer Kamera erfasst, wie vorstehend in Bezug auf die 2 und 4 erörtert. Das erste Bild kann ein Bild sein, das unter Verwendung einer Kamera und gesteuerter Beleuchtung erfasst wurde. Das erste Bild kann als Reaktion darauf erfasst werden, dass ein Benutzer um Zugang zu bzw. Zugriff auf ein Fahrzeug, einen Bereich oder eine Vorrichtung bittet, und kann als Herausforderungsbild bezeichnet werden.
  • Bei Block 704 werden Messungen der Pixeldaten, die in dem ersten Bild 200, 400 enthalten sind, durch die Rechenvorrichtung 115 durchgeführt, wie vorstehend in Bezug auf 3 erörtert. Die Mal e können auf einem Histogramm basieren und können ein Mittelwert und eine Standardabweichung von Pixelwerten sein, die dem Auftreten des Gesichts des Benutzers entsprechen. Bei dem Mal kann es sich auch um Mal e handeln, die auf einem Gabor-Texturfilter basieren.
  • Bei Block 704 werden die Mal e der Pixeldaten, die in dem ersten Bild 200, 400 enthalten sind, bestimmt und bei Block 706 mit einem Schwellenwert verglichen. Zum Beispiel kann die Anzahl an Standardabweichungen, mit welcher der Mittelwert über oder unter dem Schwellenwert liegt, bestimmt werden. Der Schwellenwert wird basierend auf einem Registrierungsbild bestimmt, wie vorstehend in Bezug auf die vorstehenden 3, 4 und 5 erörtert. Bei Block 706 bestimmt der Prozess 700 einen Objektstatus für das Objekt, das in dem ersten Bild 200, 400 enthalten ist. Wenn die Mal e von Pixeldaten basierend auf dem ersten Bild 200, 400 um eine vorbestimmte Anzahl an Standardabweichungen unter dem Schwellenwert liegen, wird der Objektstatus als „echtes Objekt“ bestimmt und der Prozess 700 geht zu Block 708 über. Wenn die mittleren Pixeldaten basierend auf dem ersten Bild 200, 400 um eine vorbestimmte Anzahl an Standardabweichungen über oder bei dem Schwellenwert liegen, wird der Objektstatus als „gefälschtes Objekt“ bestimmt und der Prozess 700 geht zu Block 712 über.
  • Bei Block 708 hat der Prozess 700 bestimmt, dass der Objektstatus des ersten Bilds 200, 400 ein echtes Objekt ist, und in diesem Beispiel beinhaltet das erste Bild 200, 400 ein lebendiges menschliches Gesicht.
  • Bei Block 710 erfasst der Prozess 700 ein zweites Bild 600 des Benutzers, der um Zugang zu bzw. Zugriff auf das Fahrzeug, den Bereich oder die Vorrichtung bittet. Das zweite Bild kann ein Graustufen- oder RBG-Farbbild 600 sein. Das zweite Bild 600 kann zur biometrischen Authentifizierung des Benutzers an ein Gesichtsidentifizierungssystem weitergegeben werden, wie vorstehend in Bezug auf 7 erörtert. Nach erfolgreicher biometrischer Authentifizierung kann dem Benutzer Zugang zu bzw. Zugriff auf das Fahrzeug, den Bereich oder die Vorrichtung gewährt werden. Im Anschluss an Block 710 endet der Prozess 700. Bei Block 712 hat der Prozess 700 bestimmt, dass der Objektstatus des ersten Objekts ein gefälschtes Objekt ist. In diesem Zusammenhang kann dies bedeuten, dass das erste Objekt eine Fotografie eines menschlichen Gesichts oder eine Maske eines menschlichen Gesichts ist und verwendet wird, um ein biometrisches Authentifizierungssystem zu spoofen. In Beispielen, in denen der Objektstatus als gefälschtes Objekt bestimmt wird, wird kein zweites Bild 600 erfasst und wird kein Bild an ein biometrisches Authentifizierungssystem weitergegeben. Im Anschluss an Block 712 endet der Prozess 700.
  • Rechenvorrichtungen, wie etwa die in dieser Schrift erörterten, beinhalten im Allgemeinen jeweils Befehle, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend genannten, und zum Ausführen von Blöcken oder Schritten von vorstehend beschriebenen Prozessen ausführbar sind. Zum Beispiel können vorstehend erörterte Prozessblöcke als computerausführbare Befehle umgesetzt sein.
  • Computerausführbare Befehle können von Computerprogrammen kompiliert oder interpretiert werden, die unter Verwendung einer Vielfalt von Programmiersprachen und/oder -technologien erstellt wurden, einschließlich unter anderem, entweder allein oder in Kombination Java™, C, C++, Python, Julia, SCALA, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Befehle, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Befehle aus, wodurch er einen oder mehrere Prozesse durchführt, einschließlich eines oder mehrerer der in dieser Schrift beschriebenen Prozesse. Derartige Befehle und andere Daten können in Dateien gespeichert und unter Verwendung einer Vielfalt von computerlesbaren Medien übertragen werden. Eine Datei in einer Rechenvorrichtung ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium gespeichert ist, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw.
  • Ein computerlesbares Medium beinhaltet ein beliebiges Medium, das am Bereitstellen von Daten (z. B. Befehlen) beteiligt ist, die durch einen Computer ausgelesen werden können. Ein derartiges Medium kann viele Formen annehmen, einschließlich unter anderem nicht flüchtiger Medien, flüchtiger Medien usw. Nicht flüchtige Medien beinhalten zum Beispiel optische oder magnetische Platten und andere Dauerspeicher. Flüchtige Medien beinhalten dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM), der typischerweise einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien beinhalten zum Beispiel Folgendes: eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das von einem Computer ausgelesen werden kann.
  • Allen in den Patentansprüchen verwendeten Ausdrücken soll deren allgemeine und gewöhnliche Bedeutung zukommen, wie sie vom Fachmann verstanden wird, sofern in dieser Schrift keine ausdrückliche gegenteilige Angabe erfolgt. Insbesondere ist die Verwendung der Singularartikel, wie etwa „ein“, „eine“, „der“, „die“, „das“ usw., dahingehend auszulegen, dass ein oder mehrere der aufgeführten Elemente genannt werden, sofern ein Patentanspruch nicht eine ausdrückliche gegenteilige Einschränkung nennt.
  • Der Ausdruck „beispielhaft“ wird in dieser Schrift in dem Sinne verwendet, dass er ein Beispiel angibt, z. B. sollte eine Bezugnahme auf ein „beispielhaftes Gerät“ einfach als Bezugnahme auf ein Beispiel für ein Gerät gelesen werden.
  • Das einen Wert oder ein Ergebnis modifizierende Adverb „ungefähr“ bedeutet, dass eine Form, eine Struktur, ein Messwert, ein Wert, eine Bestimmung, eine Berechnung usw. von einer/einem genau beschriebenen Geometrie, Abstand, Messwert, Wert, Bestimmung, Berechnung usw. aufgrund von Mängeln hinsichtlich Materialien, Bearbeitung, Herstellung, Sensormesswerten, Berechnungen, Verarbeitungszeit, Übertragungszeit usw. abweichen kann. In den Zeichnungen geben gleiche Bezugszeichen jeweils gleiche Elemente an. Ferner könnten einige oder alle dieser Elemente geändert werden. Hinsichtlich der in dieser Schrift beschriebenen Medien, Prozesse, Systeme, Verfahren usw. versteht es sich, dass, obwohl die Schritte oder Blöcke derartiger Prozesse usw. zwar als gemäl einer bestimmten Abfolge erfolgend beschrieben worden sind, derartige Prozesse jedoch so umgesetzt werden könnten, dass die beschriebenen Schritte in einer anderen Reihenfolge als der in dieser Schrift beschriebenen Reihenfolge durchgeführt werden. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte in dieser Schrift beschriebene Schritte weggelassen werden könnten. Anders ausgedrückt werden die Beschreibungen von Prozessen in dieser Schrift zur Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten keinesfalls dahingehend ausgelegt werden, dass sie die beanspruchte Erfindung einschränken.
  • Gemäl der vorliegenden Erfindung wird ein Computer bereitgestellt, der Folgendes aufweist: einen Prozessor und einen Speicher, wobei der Speicher Anweisungen, die durch den Prozessor ausführbar sind, für Folgendes beinhaltet: Erfassen eines ersten Bilds von einer ersten Kamera durch Beleuchten eines ersten Objekts mit einem ersten Licht und Bestimmen eines Objektstatus als eines von einem echten Objekt oder einem gefälschten Objekt durch Vergleichen eines ersten Mal es von Pixelwerten, die dem ersten Objekt entspechen, mit einem Schwellenwert.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen für Folgendes: Erfassen eines zweiten Bilds eines zweiten Objekts mit der ersten Kamera durch Beleuchten des zweiten Objekts mit dem ersten Licht, wobei das zweite Objekt das echte Objekt ist; Bestimmen eines zweiten Mittelwerts und einer zweiten Standardabweichung von Pixelwerten, die dem zweiten Objekt in dem zweiten Bild entsprechen; und Bestimmen des Schwellenwerts durch Bestimmen einer zweiten Anzahl an zweiten Standardabweichungen, unter welcher der zweite Mittelwert von Pixelwerten, der dem zweiten Objekt entspricht, auftritt.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen für Folgendes: Erfassen einer Vielzahl von dritten Bildern mit einer zweiten Kamera durch Beleuchten einer Vielzahl von dritten Objekten mit einem zweiten Licht, wobei die Vielzahl von dritten Objekten echte Objekte sind; Bestimmen einer Vielzahl von dritten Mittelwerten und dritten Standardabweichungen von Pixelwerten, die der Vielzahl von dritten Objekten in der Vielzahl von dritten Bildern entsprechen, mit einem zweiten Computer; Bestimmen eines zweiten Schwellenwerts durch Bestimmen einer dritten Anzahl an zweiten Standardabweichungen, unter welcher die dritten Mittelwerte von Pixelwerten, die den dritten Objekten entsprechen, auftreten; und Anpassen des zweiten Schwellenwerts basierend auf einer Differenz zwischen dem ersten Licht und dem zweiten Licht.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen für Folgendes: Erfassen einer Vielzahl von vierten Bildern mit einer dritten Kamera durch Beleuchten einer Vielzahl von vierten Objekten mit einem dritten Licht, wobei die Vielzahl von vierten Objekten gefälschte Objekte sind; Bestimmen einer Vielzahl von vierten Mittelwerten und vierten Standardabweichungen von Pixelwerten, die der Vielzahl von vierten Objekten in der Vielzahl von vierten Bildern entsprechen, mit einem dritten Computer; Bestimmen eines dritten Schwellenwerts durch Bestimmen einer vierten Anzahl an Standardabweichungen, über welcher die vierten Mittelwerte von Pixelwerten, die den vierten Objekten entsprechen, auftreten; und Anpassen des dritten Schwellenwerts basierend auf einer Differenz zwischen dem ersten Licht und dem dritten Licht.
  • Gemäl einer Ausführungsform beinhaltet das erste Licht eine oder mehrere Wellenlängen von kurzwelligem Infrarotlicht, Nahinfrarotlicht, sichtbarem Licht und ultraviolettem Licht. Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen für Folgendes: wenn das erste Objekt ein menschliches Gesicht ist und bestimmt wird, dass es das echte Objekt ist, Durchführen von Gesichtserkennung an dem menschlichen Gesicht durch Erfassen eines zweiten Bilds unter Verwendung eines dritten Lichts, das sichtbares Licht beinhaltet.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen für Folgendes: Ermöglichen von Zugang zu bzw. Zugriff auf ein Fahrzeug, einen Bereich oder eine Vorrichtung basierend auf Bestimmen des Objektstatus.
  • Gemäß einer Ausführungsform beinhaltet das erste Mal von Pixelwerten einen ersten Mittelwert und eine erste Standardabweichung von Pixelwerten in einem Histogramm. Gemäß einer Ausführungsform ist das erste Mal von Pixelwerten ein Mal von Bildtextur basierend auf einem Gabor-Texturfilter.
  • Gemäß einer Ausführungsform beinhaltet das erste Licht zwei Lichtwellenlängen und entsprechen in dem ersten Bild enthaltene Pixel Differenzen zwischen den zwei Wellenlängen. Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen für Folgendes: Anpassen des Schwellenwerts basierend auf Bestimmen eines Versatzes zwischen dem Mittelpunkt des ersten Objekts und dem Mittelpunkt des ersten Bilds.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen für Folgendes: Anpassen des Schwellenwerts basierend auf Bestimmen eines Winkels, in dem das erste Objekt in Bezug auf die erste Kamera ausgerichtet ist.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Folgendes: Erfassen eines ersten Bilds von einer ersten Kamera durch Beleuchten eines ersten Objekts mit einem ersten Licht und Bestimmen eines Objektstatus als eines von einem echten Objekt oder einem gefälschten Objekt durch Vergleichen eines ersten Mal es von Pixelwerten, die dem ersten Objekt entsprechen, mit einem Schwellenwert.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Folgendes: Erfassen eines zweiten Bilds eines zweiten Objekts mit der ersten Kamera durch Beleuchten des zweiten Objekts mit dem ersten Licht, wobei das zweite Objekt das echte Objekt ist, Bestimmen eines zweiten Mittelwerts und einer zweiten Standardabweichung von Pixelwerten, die dem zweiten Objekt in dem zweiten Bild entsprechen; und Bestimmen des Schwellenwerts durch Bestimmen einer zweiten Anzahl an zweiten Standardabweichungen, unter welcher der zweite Mittelwert von Pixelwerten entsprechend dem zweiten Objekt auftritt.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Folgendes: Erfassen einer Vielzahl von dritten Bildern mit einer zweiten Kamera durch Beleuchten einer Vielzahl von dritten Objekten mit einem zweiten Licht, wobei die Vielzahl von dritten Objekten echte Objekte sind; Bestimmen einer Vielzahl von dritten Mittelwerten und dritten Standardabweichungen von Pixelwerten, die der Vielzahl von dritten Objekten in der Vielzahl von dritten Bildern entsprechen, mit einem zweiten Computer; Bestimmen eines zweiten Schwellenwerts durch Bestimmen einer dritten Anzahl an zweiten Standardabweichungen, unter welcher die dritten Mittelwerte von Pixelwerten entsprechend den dritten Objekten auftreten; und Anpassen des zweiten Schwellenwerts basierend auf einer Differenz zwischen dem ersten Licht und dem zweiten Licht.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Folgendes: Erfassen einer Vielzahl von vierten Bildern mit einer dritten Kamera durch Beleuchten einer Vielzahl von vierten Objekten mit einem dritten Licht, wobei die Vielzahl von vierten Objekten gefälschte Objekte sind; Bestimmen einer Vielzahl von vierten Mittelwerten und vierten Standardabweichungen von Pixelwerten, die der Vielzahl von vierten Objekten in der Vielzahl von vierten Bildern entsprechen, mit einem dritten Computer; Bestimmen eines dritten Schwellenwerts durch Bestimmen einer vierten Anzahl an Standardabweichungen, über welcher die vierten Mittelwerte von Pixelwerten, die den vierten Objekten entsprechen, auftreten; und Anpassen des dritten Schwellenwerts basierend auf einer Differenz zwischen dem ersten Licht und dem dritten Licht.
  • In einem Aspekt der Erfindung beinhaltet das erste Licht zwei Lichtwellenlängen und entsprechen in dem ersten Bild enthaltene Pixel Differenzen zwischen den zwei Wellenlängen. In einem Aspekt der Erfindung beinhaltet das Verfahren, wenn das erste Objekt ein menschliches Gesicht ist und bestimmt wird, dass es das echte Objekt ist, Durchführen von Gesichtserkennung an dem menschlichen Gesicht durch Erfassen eines zweiten Bilds unter Verwendung eines dritten Lichts, das sichtbares Licht beinhaltet.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Ermöglichen von Zugang zu bzw. Zugriff auf ein Fahrzeug, einen Bereich oder eine Vorrichtung basierend auf Bestimmen des Obj ektstatus.
  • In einem Aspekt der Erfindung beinhaltet das erste Mal von Pixelwerten einen ersten Mittelwert und eine erste Standardabweichung von Pixelwerten in einem Histogramm.

Claims (14)

  1. Verfahren, das Folgendes umfasst: Erfassen eines ersten Bilds von einer ersten Kamera durch Beleuchten eines ersten Objekts mit einem ersten Licht; und Bestimmen eines Objektstatus als eines von einem echten Objekt oder einem gefälschten Objekt durch Vergleichen eines ersten Mal es von Pixelwerten, die dem ersten Objekt entsprechen, mit einem Schwellenwert.
  2. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: Erfassen eines zweiten Bilds eines zweiten Objekts mit der ersten Kamera durch Beleuchten des zweiten Objekts mit dem ersten Licht, wobei das zweite Objekt das echte Objekt ist; Bestimmen eines zweiten Mittelwerts und einer zweiten Standardabweichung von Pixelwerten, die dem zweiten Objekt in dem zweiten Bild entsprechen; und Bestimmen des Schwellenwerts durch Bestimmen einer zweiten Anzahl an zweiten Standardabweichungen, unter welcher der zweite Mittelwert von Pixelwerten entsprechend dem zweiten Objekt auftritt.
  3. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: Erfassen einer Vielzahl von dritten Bildern mit einer zweiten Kamera durch Beleuchten einer Vielzahl von dritten Objekten mit einem zweiten Licht, wobei die Vielzahl von dritten Objekten echte Objekte sind; Bestimmen einer Vielzahl von dritten Mittelwerten und dritten Standardabweichungen von Pixelwerten, die der Vielzahl von dritten Objekten in der Vielzahl von dritten Bildern entsprechen, mit einem zweiten Computer; Bestimmen eines zweiten Schwellenwerts durch Bestimmen einer dritten Anzahl an zweiten Standardabweichungen, unter welcher die dritten Mittelwerte von Pixelwerten entsprechend den dritten Objekten auftreten; und Anpassen des zweiten Schwellenwerts basierend auf einer Differenz zwischen dem ersten Licht und dem zweiten Licht.
  4. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: Erfassen einer Vielzahl von vierten Bildern mit einer dritten Kamera durch Beleuchten einer Vielzahl von vierten Objekten mit einem dritten Licht, wobei die Vielzahl von vierten Objekten gefälschte Objekte sind; Bestimmen einer Vielzahl von vierten Mittelwerten und vierten Standardabweichungen von Pixelwerten, die der Vielzahl von vierten Objekten in der Vielzahl von vierten Bildern entsprechen, mit einem dritten Computer; Bestimmen eines dritten Schwellenwerts durch Bestimmen einer vierten Anzahl an Standardabweichungen, über welcher die vierten Mittelwerte von Pixelwerten, die den vierten Objekten entsprechen, auftreten; und Anpassen des dritten Schwellenwerts basierend auf einer Differenz zwischen dem ersten Licht und dem dritten Licht.
  5. Verfahren nach Anspruch 1, wobei das erste Licht zwei Lichtwellenlängen beinhaltet und in dem ersten Bild enthaltene Pixel Differenzen zwischen den zwei Wellenlängen entsprechen.
  6. Verfahren nach Anspruch 1, das, wenn das erste Objekt ein menschliches Gesicht ist und bestimmt wird, dass es das echte Objekt ist, ferner Durchführen von Gesichtserkennung an dem menschlichen Gesicht durch Erfassen eines zweiten Bilds unter Verwendung eines dritten Lichts, das sichtbares Licht beinhaltet, umfasst.
  7. Verfahren nach Anspruch 1, das ferner Ermöglichen von Zugang zu bzw. Zugriff auf ein Fahrzeug, einen Bereich oder eine Vorrichtung basierend auf Bestimmen des Objektstatus umfasst.
  8. Verfahren nach Anspruch 1, wobei das erste Mal von Pixelwerten einen ersten Mittelwert und eine erste Standardabweichung von Pixelwerten in einem Histogramm beinhaltet.
  9. Verfahren nach Anspruch 1, wobei das erste Mal von Pixelwerten ein Mal von Bildtextur basierend auf einem Gabor-Texturfilter ist.
  10. Verfahren nach Anspruch 1, wobei das erste Licht zwei Lichtwellenlängen beinhaltet und in dem ersten Bild enthaltene Pixel Differenzen zwischen den zwei Wellenlängen entsprechen.
  11. Verfahren nach Anspruch 1, das ferner Anpassen des Schwellenwerts basierend auf Bestimmen eines Versatzes zwischen dem Mittelpunkt des ersten Objekts und dem Mittelpunkt des ersten Bilds umfasst.
  12. Verfahren nach Anspruch 1, das ferner Anpassen des Schwellenwerts basierend auf Bestimmen eines Winkels, in dem das erste Objekt in Bezug auf die erste Kamera ausgerichtet ist, umfasst.
  13. Verfahren nach Anspruch 1, das ferner Durchführen von Gesichtserkennung basierend auf dem Objektstatus umfasst.
  14. System, das einen Computer umfasst, der dazu programmiert ist, die Verfahren nach einem der Ansprüche 1-13 durchzuführen.
DE102022111231.4A 2021-05-21 2022-05-05 Erkennung von gefälschten bildern Pending DE102022111231A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/326,490 2021-05-21
US17/326,490 US11769313B2 (en) 2021-05-21 2021-05-21 Counterfeit image detection

Publications (1)

Publication Number Publication Date
DE102022111231A1 true DE102022111231A1 (de) 2022-11-24

Family

ID=83898734

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022111231.4A Pending DE102022111231A1 (de) 2021-05-21 2022-05-05 Erkennung von gefälschten bildern

Country Status (3)

Country Link
US (1) US11769313B2 (de)
CN (1) CN115393920A (de)
DE (1) DE102022111231A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117474903B (zh) * 2023-12-26 2024-03-22 浪潮电子信息产业股份有限公司 一种图像侵权检测方法、装置、设备及可读存储介质

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6400835B1 (en) 1996-05-15 2002-06-04 Jerome H. Lemelson Taillight mounted vehicle security system employing facial recognition using a reflected image
US6092192A (en) 1998-01-16 2000-07-18 International Business Machines Corporation Apparatus and methods for providing repetitive enrollment in a plurality of biometric recognition systems based on an initial enrollment
US6920236B2 (en) 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
JP4227743B2 (ja) 2001-11-19 2009-02-18 株式会社デンソー 盗難防止システム
WO2005050583A1 (fr) 2003-08-15 2005-06-02 Ziyi Cheng Systeme d'alarme pour protection d'automobiles avec identification de visage et fonction de communication sans fil
US7469060B2 (en) 2004-11-12 2008-12-23 Honeywell International Inc. Infrared face detection and recognition system
US7602942B2 (en) 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
US8160293B1 (en) 2006-05-19 2012-04-17 The Research Foundation Of State University Of New York Determining whether or not a digital image has been tampered with
US20080059027A1 (en) * 2006-08-31 2008-03-06 Farmer Michael E Methods and apparatus for classification of occupancy using wavelet transforms
US8300890B1 (en) 2007-01-29 2012-10-30 Intellivision Technologies Corporation Person/object image and screening
AU2008329544B2 (en) 2007-11-27 2014-10-09 Yukata Investment Marketing Pty Ltd Biometric authentication using the eye
US7915652B2 (en) 2008-10-24 2011-03-29 Sharp Laboratories Of America, Inc. Integrated infrared and color CMOS imager sensor
US8493178B2 (en) 2008-12-02 2013-07-23 Electronics And Telecommunications Research Institute Forged face detecting method and apparatus thereof
JP4702441B2 (ja) 2008-12-05 2011-06-15 ソニー株式会社 撮像装置及び撮像方法
US8278937B2 (en) 2009-02-07 2012-10-02 Tau Science Corporation High speed detection of shunt defects in photovoltaic and optoelectronic devices
US8374404B2 (en) 2009-02-13 2013-02-12 Raytheon Company Iris recognition using hyper-spectral signatures
GB2474019B (en) 2009-09-30 2014-04-16 Qinetiq Ltd Laser Illuminator
US8841881B2 (en) 2010-06-02 2014-09-23 Bryan Marc Failing Energy transfer with vehicles
US8582912B2 (en) 2011-01-26 2013-11-12 Aptina Imaging Corporation Systems and methods for calculating image sharpness measurements
US20130024123A1 (en) 2011-07-21 2013-01-24 Nellcor Puritan Bennett Ireland Methods and systems for determining physiological parameters using template matching
US8600227B2 (en) 2011-09-22 2013-12-03 Xerox Corporation Multi-filter array for a multi-resolution, multi-spectral camera
US8880291B2 (en) 2012-05-17 2014-11-04 Harman International Industries, Inc. Methods and systems for preventing unauthorized vehicle operation using face recognition
TW201401186A (zh) 2012-06-25 2014-01-01 Psp Security Co Ltd 人臉判斷系統以及方法
US10452894B2 (en) 2012-06-26 2019-10-22 Qualcomm Incorporated Systems and method for facial verification
US8542879B1 (en) 2012-06-26 2013-09-24 Google Inc. Facial recognition
CN202887210U (zh) 2012-07-31 2013-04-17 西北工业大学 一种多光谱人脸识别系统
EP2981929B1 (de) * 2013-04-02 2018-07-18 Precise Biometrics AB Fingerabdruckporenanalyse zur echtheitserkennung
WO2014176485A1 (en) 2013-04-26 2014-10-30 West Virginia High Technology Consortium Foundation, Inc. Facial recognition method and apparatus
US9832394B2 (en) 2014-03-31 2017-11-28 Google Technology Holdings LLC Adaptive low-light view modes
US9774797B2 (en) 2014-04-18 2017-09-26 Flir Systems, Inc. Multi-sensor monitoring systems and methods
US20170091550A1 (en) 2014-07-15 2017-03-30 Qualcomm Incorporated Multispectral eye analysis for identity authentication
US20160019420A1 (en) 2014-07-15 2016-01-21 Qualcomm Incorporated Multispectral eye analysis for identity authentication
US20160019421A1 (en) 2014-07-15 2016-01-21 Qualcomm Incorporated Multispectral eye analysis for identity authentication
US9251427B1 (en) 2014-08-12 2016-02-02 Microsoft Technology Licensing, Llc False face representation identification
JP2018510669A (ja) 2015-01-19 2018-04-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 皮膚検出に関するデバイス、システム、及び方法
GB201518050D0 (en) 2015-10-12 2015-11-25 Binatone Electronics Internat Ltd Home monitoring and control systems
EP3414738B1 (de) 2016-02-08 2020-01-22 Koninklijke Philips N.V. Vorrichtung, system und verfahren zur hautdetektion
US9886640B1 (en) 2016-08-08 2018-02-06 International Business Machines Corporation Method and apparatus to identify a live face image using a thermal radiation sensor and a visual radiation sensor
US11373449B1 (en) 2016-10-13 2022-06-28 T Stamp Inc. Systems and methods for passive-subject liveness verification in digital media
US10169671B2 (en) 2017-02-17 2019-01-01 Motorola Mobility Llc Face detection with temperature and distance validation
WO2018163725A1 (ja) 2017-03-08 2018-09-13 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2018175603A1 (en) 2017-03-21 2018-09-27 Sri International Robust biometric access control using physiological-informed multi-signal correlation
SG10201705921VA (en) 2017-07-19 2019-02-27 Nec Apac Pte Ltd Method and apparatus for dynamically identifying a user of an account for posting images
US11003933B2 (en) 2017-08-15 2021-05-11 Noblis, Inc. Multispectral anomaly detection
US10769415B1 (en) 2017-09-09 2020-09-08 Apple Inc. Detection of identity changes during facial recognition enrollment process
WO2019056310A1 (en) 2017-09-22 2019-03-28 Qualcomm Incorporated SYSTEMS AND METHODS FOR DETECTING FACIAL ACTIVITY
CN109583287B (zh) * 2017-09-29 2024-04-12 浙江莲荷科技有限公司 实物识别方法及验证方法
CN110008783A (zh) 2018-01-04 2019-07-12 杭州海康威视数字技术股份有限公司 基于神经网络模型的人脸活体检测方法、装置及电子设备
KR102466997B1 (ko) 2018-01-22 2022-11-14 삼성전자주식회사 라이브니스 검사 방법 및 장치
CN108319986B (zh) 2018-02-08 2021-11-05 深圳市华云中盛科技股份有限公司 基于prnu的图像来源的鉴定方法及其系统
WO2019231861A1 (en) 2018-05-28 2019-12-05 Greenwave Systems PTE Ltd. Area monitoring and communication
US11113510B1 (en) 2018-06-03 2021-09-07 Apple Inc. Virtual templates for facial recognition
CN110889312B (zh) 2018-09-07 2022-09-02 北京市商汤科技开发有限公司 活体检测方法和装置、电子设备、计算机可读存储介质
US10783388B2 (en) 2018-10-26 2020-09-22 Alibaba Group Holding Limited Spoof detection using multiple image acquisition devices
US10970574B2 (en) * 2019-02-06 2021-04-06 Advanced New Technologies Co., Ltd. Spoof detection using dual-band near-infrared (NIR) imaging
CN110287672A (zh) 2019-06-27 2019-09-27 深圳市商汤科技有限公司 验证方法及装置、电子设备和存储介质
US11178363B1 (en) 2019-06-27 2021-11-16 Objectvideo Labs, Llc Distributed media monitoring
WO2021111239A1 (en) 2019-12-02 2021-06-10 ClairLabs Ltd. Cross-modality face registration and anti-spoofing
EP3859674A1 (de) 2020-01-29 2021-08-04 ABB Schweiz AG System zur überwachung einer schaltanlage
US11244184B2 (en) 2020-02-05 2022-02-08 Bae Systems Information And Electronic Systems Integration Inc. Hyperspectral target identification
KR20210100839A (ko) 2020-02-07 2021-08-18 신한카드 주식회사 얼굴 정보를 이용한 등록 및 결제 방법, 장치, 및 시스템
US11475714B2 (en) * 2020-02-19 2022-10-18 Motorola Solutions, Inc. Systems and methods for detecting liveness in captured image data
CN115462066A (zh) 2020-03-03 2022-12-09 华为技术有限公司 图像传感器和图像感光方法
CN111738065A (zh) 2020-05-11 2020-10-02 广东天波信息技术股份有限公司 一种人脸识别门禁控制方法及系统
CN111611977B (zh) 2020-06-05 2021-10-15 吉林求是光谱数据科技有限公司 基于光谱与多波段融合的人脸识别监控系统及识别方法
US11275959B2 (en) 2020-07-07 2022-03-15 Assa Abloy Ab Systems and methods for enrollment in a multispectral stereo facial recognition system
CN112633181B (zh) 2020-12-25 2022-08-12 北京嘀嘀无限科技发展有限公司 数据处理方法、系统、装置、设备和介质
US20220398820A1 (en) 2021-06-11 2022-12-15 University Of Southern California Multispectral biometrics system

Also Published As

Publication number Publication date
US20220383021A1 (en) 2022-12-01
US11769313B2 (en) 2023-09-26
CN115393920A (zh) 2022-11-25

Similar Documents

Publication Publication Date Title
DE602004005984T2 (de) Gesichtsidentifikationsverifikation unter verwendung von vorder- und seitenansichten
DE102009048892A1 (de) Pixelbasierte strukturreiche Detektion eines freien Pfads
DE102009048699A1 (de) Pixelbasierte Detektion einer nicht vorhandenen Struktur eines freien Pfads
DE102022100559A1 (de) Materialspektroskopie
DE102009050505A1 (de) Detektion eines freien Pfads durch Strassenmodellerstellung
DE112009000949T5 (de) Detektion eines freien Fahrpfads für ein Fahrzeug
DE102009050492A1 (de) Detektion eines freien Pfads unter Verwendung eines segmentierungsbasierten Verfahrens
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102022100551A1 (de) Materialspektroskopie
DE102022111231A1 (de) Erkennung von gefälschten bildern
DE102011106800A1 (de) Verfahren und System zur Überprüfen einer Fahrberechtigung für ein Fahrzeug
DE112019007947T5 (de) Verbesserte Erkennung der Face-Liveness mit Hilfe der Analyse von Hintergrund-/Vordergrundbewegungen
DE102022111222A1 (de) Detektion von gefälschten bildern
DE102022111221A1 (de) Erfassung von kameramanipulation
DE102018122871A1 (de) Farblernen
DE102022100672A1 (de) Materialspektroskopie
DE102022100554A1 (de) Materialspektroskopie
EP3889922A1 (de) Integritätsprüfung eines dokuments mit personenbezogenen daten
DE102022111220A1 (de) Kameramanipulationsdetektion
DE102022111027A1 (de) Kameraidentifizierung
DE102022119726A1 (de) Gesichtsauthentifizierungssystem, fahrzeug mit diesem system und verfahren zur gesichtsauthentifizierung
DE102018222683A1 (de) Verfahren zum Erstellen einer Umgebungsrepräsentationskarte zur Überwachung eines Fahrzeugs und/oder eines Fahrzeuganhängers unter Verwendung eines Kamerasystems
DE102015200437A1 (de) Verfahren und Vorrichtung zur Ermittlung der Konfidenz einer Objekterkennung
EP2696310A1 (de) Verfahren zum Identifizieren eines Straßenrands
DE102023101960A1 (de) Anonymisieren von personenbezogenen informationen in sensordaten

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE