DE102016105471B4 - Iriserfassung durch Bildgebung mit sichtbarem Licht - Google Patents

Iriserfassung durch Bildgebung mit sichtbarem Licht Download PDF

Info

Publication number
DE102016105471B4
DE102016105471B4 DE102016105471.2A DE102016105471A DE102016105471B4 DE 102016105471 B4 DE102016105471 B4 DE 102016105471B4 DE 102016105471 A DE102016105471 A DE 102016105471A DE 102016105471 B4 DE102016105471 B4 DE 102016105471B4
Authority
DE
Germany
Prior art keywords
eye
pupil
mobile device
user
spectacle lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016105471.2A
Other languages
English (en)
Other versions
DE102016105471A1 (de
Inventor
Lawrence A. Willis
Justin Eltoft
Jiri Slaby
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Mobility LLC
Original Assignee
Motorola Mobility LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Mobility LLC filed Critical Motorola Mobility LLC
Publication of DE102016105471A1 publication Critical patent/DE102016105471A1/de
Application granted granted Critical
Publication of DE102016105471B4 publication Critical patent/DE102016105471B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)
  • Eye Examination Apparatus (AREA)
  • Collating Specific Patterns (AREA)
  • Signal Processing (AREA)

Abstract

Verfahren zur Iriserfassung durch Bildgebung mit sichtbarem Licht, umfassend:
das Bestimmen, dass der Benutzer des Mobilgeräts eine Brille trägt, wobei Umgebungslicht oder projiziertes sichtbares Licht verwendet werden;
das Bestimmen eines Mittelpunkts eines Brillenglases;
das Projizieren von nahem Infrarotlicht zum Beleuchten von mindestens einem Auge des Benutzers, wobei das nahe Infrarotlicht derart projiziert wird, dass dieses den bestimmten Mittelpunkt des Brillenglases umfasst und wirksam ist für die Beleuchtung einer Pupille des wenigstens einen Auges; und
das Lokalisieren bzw. Auffinden der Pupille des wenigstens einen Auges basierend auf einer Reflexion des nahen Infrarotlichts von der Pupille etwa an dem bestimmten Mittelpunkt des Brillenglases.

Description

  • TECHNISCHES GEBIET
  • Bei tragbaren Geräten wie Mobiltelefonen, Tablet-Geräten, Digitalkameras und andere Arten von Computergeräten und elektronischen Geräten kann sich der Akku schnell leeren, speziell, wenn das Gerät zwischen den Ladephasen des Akkus extensiv benutzt wird und Funktionen des Geräts unnötig Akkuleistung verbrauchen. Zum Beispiel können manche Geräte für verschiedene Arten von Benutzer-Authentifizierungsverfahren ausgebildet sein, mit denen nachgewiesen werden soll, dass der Benutzer wahrscheinlich der Besitzer des Geräts ist. Dies geschieht durch die Eingabe einer PIN (Geheimzahl) oder durch Fingerabdruck-Erkennung, Spracherkennung, Gesichtserkennung, über den Pulsschlag und/oder mit einem Iris-Authentifizierungssystem zum Authentifizieren des Benutzers. Die Iriserfassung ist eine Form einer biometrischen Identifikation, die mit einer Mustererkennung einer oder beider Iris des Auges des Benutzers arbeitet. Personen haben komplexe beliebige Irismuster, die einmalig sind und die zum Zweck des Vergleichs und der Authentifizierung aus der Ferne abgebildet werden können.
  • Manche Authentifizierungsmethoden nutzen die Akkuleistung eines Geräts, andere wiederum verbrauchen unnötig Akkuleistung. Ein Iris-Authentifizierungssystem kann zum Beispiel aktiv werden, um das Gesicht eines Benutzers zu beleuchten, und ein Bildgeber kann aktiv werden, um ein Bild von den Augen des Benutzers aufzunehmen, selbst wenn das Gerät für eine zweckmäßige Beleuchtung und Abbildung nicht korrekt oder gezielt ausgerichtet ist. Die Iriserfassung und die anschließende Durchführung der Authentifizierung können abhängig von der Qualität der Beleuchtung des Auges differieren. Ferner hat ein Iris-Authentifizierungssystem durch die Verwendung einer Nah-Infrarot-LED (NIR-LED) und eines Bildgebers einen relativ hohen Energiebedarf. Dennoch überwiegen die Vorteile gegenüber den anderen Authentifizierungsmethoden, wie zum Beispiel die Sicherheitsstufe, die Genauigkeit, die Möglichkeit einer nahtlosen Nutzung und die Nutzbarkeit in einer Vielfalt von Umgebungen (z. B. in der Kälte, in der Dunkelheit, im grellen Sonnenlicht, im Regen etc.).
  • Die Iriserfassung und -authentifizierung nutzt reflektiertes nahes Infrarotlicht (NIR-Licht) (z. B. von LEDs), um ein Auge eines Benutzers zu lokalisieren und dann die Iris des Auges abzubilden. Die NIR-Beleuchtung wird zum Abbilden der Iris eines Auges verwendet, nutzt jedoch Akkuleistung des Geräts, um die NIR-Beleuchtung zu generieren, die Iris abzubilden und die Aufnahme zum Zweck der Benutzer-Authentifizierung zu vergleichen. Ferner lässt sich die Geschwindigkeit der Iriserfassung bei einem Benutzer beeinflussen, der Brillen unterschiedlicher Art trägt, deren Fassung oder Gläser mehrere Punkte für eine Reflexion zurück zu dem NIR-Bildgeber aufweisen, wodurch eine Latenzzeit bei der Suche eingeführt wird, indem der einer Pupille des Auges entsprechende Reflexionspunkt bestimmt werden kann, so dass die Iris wirksam erfasst und authentifiziert werden kann.
  • Aus der DE 10 2013 203 433 A1 ist eine Vorrichtung zur Erfassung personenspezifischer Daten bekannt, die eine Gesichtserkennung ermöglicht. Hierzu wird auch die Augenposition auf einem das Gesicht aufnehmenden Kamerabild geprüft und korrigiert.
  • Aus der US 2005/0270483 A1 sind ein Verfahren und eine Vorrichtung zur Iriserkennung bekannt, bei der auch eine Reflektion durch eine Brille erfasst werden.
  • Aus der US 6 069 967 A sind weitere Verfahren und Vorrichtungen zur Abbildung von Augen durch eine Brille bekannt, um eine Iriserkennung durchzuführen.
  • In den unabhängigen Patentansprüchen sind ein demgegenüber verbessertes Verfahren zur Iriserfassung durch Bildgebung mit sichtbaren Licht, ein Mobilgerät, das zur verbesserten Iriserfassung durch Bildgebung mit sichtbaren Licht ausgebildet ist, und ein verbessertes System, das zur Iriserfassung durch Bildgebung mit sichtbaren Licht ausgebildet ist, angegeben.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Ausführungsformen einer Iriserfassung durch Bildgebung mit sichtbarem Licht werden nachstehend mit Bezug auf die anliegenden Zeichnungen beschrieben, wobei gleiche und ähnliche Merkmale und Komponenten, die in den Zeichnungen dargestellt sind, die gleichen Bezugszeichen tragen.
  • 1 zeigt ein Beispiel eines Mobilgeräts, in welchem Ausführungsformen der Iriserfassung durch Bildgebung mit sichtbaren Licht implementiert werden können;
  • 2 zeigt weitere Beispiele einer Iriserfassung durch Bildgebung mit sichtbarem Licht gemäß einer oder mehreren Ausführungsformen;
  • 3A und 3B zeigen ein (mehrere) Beispielverfahren zur Iriserfassung durch Bildgebung mit sichtbarem Licht gemäß einer oder mehreren Ausführungsformen;
  • 4 zeigt verschiedene Komponenten eines Beispielgeräts, welches Ausführungsformen einer Iriserfassung durch Bildgebung mit sichtbarem Licht implementieren kann.
  • DETAILBESCHREIBUNG
  • Es werden Ausführungsformen einer Iriserfassung durch Bildgebung mit sichtbarem Licht zum Beispiel für eine beliebige Art eines Mobilgeräts beschrieben, das mit einem Infrarot-(IR)-Verarbeitungssystem ausgebildet sein kann, welches für eine Gestenerkennung und/oder Iris-Authentifizierung eines Benutzers des Mobilgeräts verwendet wird. Jedoch ist eine Beeinflussung der Iriserfassung bei einem Benutzer möglich, der eine Brille trägt, deren Fassung und/oder Gläser mehrere Punkte für eine Reflexion zurück zu dem Nah-Infrarot-Bildergeber (NIR-Bildgeber) aufweisen. Diese mehreren Reflexionspunkte können eine Latenz einführen, indem sie den einer Pupille des Auges entsprechenden Reflexionspunkt bestimmen können, so dass die Iris erfasst und authentifiziert werden kann.
  • Gemäß Aspekten der Iriserfassung durch Bildgebung mit sichtbarem Licht kann ein mobiles Gerät eine integrierte Frontkamera mit sichtbaren Licht und/oder Umgebungslicht parallel zu dem NIR-Bildgeber nutzen, um eine annähernde Lage der Pupille eines Auges (oder der Pupillen beider Augen) eines Benutzers des Geräts zu bestimmen, und die annähernde Lage der Pupille kann verwendet werden als Seed-Lagedaten für ein NIR-Bildgebungssystem, so dass das Auge für die Iris-Authentifizierung effizienter abgebildet werden kann. Bei Implementierungen, die nur einen Bildgeber für die Bildgebung mit sichtbarem Licht und NIR-Licht verwenden, wären die Schritte entsprechend sequenziert. Die Kamera für sichtbares Licht kann für die Beleuchtung des Gesichts des Benutzers des Geräts verwendet werden, wenn die Umgebungslichtbedingungen keine adäquate Beleuchtung erlauben, und ein Augen-Lokalisierungsmodul bestimmt die annähernde Lage der Pupille des Auges (oder beider Augen) des Benutzers des Geräts, wenn der Benutzer eine Brille trägt, wie zum Beispiel eine Lesebrille, eine Sonnenbrille, eine Schutzbrille und dergleichen.
  • Das Augen-Lokalisierungsmodul kann einen Algorithmus oder ein anderes Verfahren für eine Gesichtserkennung und für maschinelles Sehen durchführen, um zu bestimmen, ob der Benutzer eine Brille trägt. Wird eine Brille erkannt, kann das Augen-Lokalisierungsmodul jedes Glas der Brille horizontal und vertikal halbieren, um einen x-y-Mittelpunkt jedes Glases zu bestimmen, anhand dessen der nächstliegende Reflexionspunkt des NIR-Lichts bestimmt wird. Der nächste NIR-Lichtreflexionspunkt zur Mitte eines Glases der Brille kann verwendet werden zur überschlägigen Bestimmung der Lage der Iris der Pupille des Auges (oder der Augen) des Benutzers, anhand derer eine Abbildung des Auges für die Iris-Authentifizierung erstellt werden kann. In Ausführungsformen kann die Bestimmung des Mittelpunkts eines Glases (oder beider Gläser) der Brille etwa gleichzeitig mit dem Auffinden der Pupille des Auges (oder der Augen) des Benutzers auf der Basis der Reflexion des NIR von der Pupille erfolgen.
  • Merkmale und Prinzipien einer Iriserfassung durch Bildgebung mit sichtbarem Licht können in einer Vielzahl von verschiedenen Geräten, Systemen, Umgebungen und/oder Konfigurationen implementiert werden. Ausführungsformen einer Iriserfassung durch Bildgebung mit sichtbarem Licht werden nachstehend im Zusammenhang mit Beispielgeräten, Beispielsystemen und Beispielverfahren beschrieben.
  • 1 zeigt ein Beispielmobilgerät 100, in welchem eine Iriserfassung durch Bildgebung mit sichtbarem Licht implementiert werden kann. Das Beispielmobilgerät 100 kann ein Mobiltelefon, ein Tablet-Gerät, eine Digitalkamera oder eine andere Art eines Computergeräts oder elektronischen Geräts sein, das in der charakteristischen Weise batteriebetrieben ist. In diesem Beispiel implementiert das Mobilgerät 100 Komponenten und Merkmale eines Infrarot-(IR)-Verarbeitungssystems 102, die für eine Gestenerkennung und/oder eine Iris-Authentifizierung eines Benutzers des Mobilgeräts verwendet werden können. Das IR-Verarbeitungssystem 102 enthält ein Abbildungssystem 104 mit Nah-Infrarot-Lampen (NIR-Lampen) 106 (z. B. LEDs), einen IR-Bildgeber 108 und eine IR-Empfangsdiode 110. Das IR-Abbildungssystem 104 ist in diesem Beispiel zwar als Komponente des IR-Verarbeitungssystems 102 dargestellt, kann aber in dem Mobilgerät 100 getrennt von dem IR-Verarbeitungssystem ausgeführt sein. Das IR-Verarbeitungssystem 102 kann auch einen oder mehrere Sensoren 112 enthalten, zum Beispiel Näherungssensoren, die die Nähe eines Benutzers zu dem Mobilgerät erfassen, und/oder einen Umgebungslichtsensor, der die Umgebungslichtbedingungen in der Nähe des Mobilgeräts erfasst.
  • Die NIR-Lampen 106 können als LED oder als LED-System ausgeführt sein, das für die Beleuchtung von Merkmalen eines Benutzers des Mobilgeräts 100 verwendet wird, zum Beispiel für die Gestenerkennung und/oder die Iris-Authentifizierung, oder andere NIR-basierte Systeme. Normalerweise enthalten die LED-Systeme (z. B. aus den NIR-Lampen 106) eine oder mehrere LEDs, die zum Beleuchten des Gesichts des Benutzers verwendet werden und anhand derer eine Ausrichtung des Gesichts des Benutzers gegenüber dem Mobilgerät erfasst werden kann. Die NIR-Lampen 106 können zum Beleuchten der Augen des Benutzers verwendet werden, und der IR-Bildgeber 108 ist eigens für die Augenabbildung vorgesehen und wird für die Aufnahme eines Bildes 114 von einem Auge (oder von beiden Augen) des Benutzers verwendet. Das aufgenommene Bild 114 des Auges (oder der Augen) kann dann zum Zweck der Iris-Authentifizierung mit einer von dem Mobilgerät implementierten Iris-Authentifizierungsanwendung 116 analysiert werden. Das Mobilgerät 100 implementiert auch ein Augen-Lokalisierungsmodul 118, das Algorithmen und andere Verfahren zur Gesichts- und Brillenerfassung enthält und das nachstehend im Zusammenhang mit Merkmalen der Iriserkennung und -authentifizierung näher erläutert wird.
  • Die Iris-Authentifizierungsanwendung 116 und das Augen-Lokalisierungsmodul 118 können als Softwareanwendung oder -modul implementiert sein, zum Beispiel in Form von ausführbaren Softwarebefehlen (z. B. computerausführbaren Befehlen), die in Ausführungsformen einer Iriserfassung durch Abbildung mit sichtbarem Licht mit einem Verarbeitungssystem des Geräts ausführbar sind. Die Iris-Authentifizierungsanwendung 116 und das Augen-Lokalisierungsmodul 118 können in einem computerlesbaren Speicher (z. B. in einer Speichereinrichtung) gespeichert sein, z. B. in einer geeigneten Speichervorrichtung oder in einem elektronischen Datenspeicher, der in dem Mobilgerät implementiert ist. Das Augen-Lokalisierungsmodul 118 ist zwar als separate Komponente dargestellt, doch kann das Augen-Lokalisierungsmodul 118 als Modul der Iris-Authentifizierungsanwendung 116 implementiert sein. Ferner können die Iris-Authentifizierungsanwendung 116 und/oder das Augen-Lokalisierungsmodul 118 als Komponenten des IR-Verarbeitungssystems 102 ausgeführt sein.
  • Ferner kann das Mobilgerät 100 mit verschiedenen Komponenten ausgeführt sein, zum Beispiel mit einem Verarbeitungssystem und einem Speicher, einer integrierten Anzeigevorrichtung 120 und einer beliebigen Anzahl und mit beliebigen Kombinationen von verschiedenen Komponenten, wie das mit Bezug auf die in 4 dargestellten Beispiele näher erläutert wird. Wie nachstehend beschrieben, kann die Anzeigevorrichtung 120 einen Ausrichtungshinweis 122 anzeigen, wie zum Beispiel in einer Schnittstelle des IR-Verarbeitungssystems 102 angezeigt. Die Ausrichtungsanzeige 122 kann eine Richtung angeben, in welche das Gerät gedreht werden muss, und kann den Benutzer des Mobilgeräts 100 beim Erzielen einer korrekten Ausrichtung seines Gesichts gegenüber dem Mobilgerät unterstützen, so dass durch die Iris-Authentifizierungsanwendung 116 zum Zweck der Iris-Authentifizierung ein Bild von einem Auge (oder den Augen) des Benutzers aufgenommen werden kann. Der Ausrichtungshinweis 122 kann basierend auf einer erfassten Ausrichtung 124 durch das Augen-Lokalisierungsmodul 118 initiiert und angezeigt werden.
  • In diesem Beispiel kann das Mobilgerät 100 auch eine Kameraeinrichtung 126 enthalten, die für die Aufnahme von digitalen Bildern verwendet wird und die einen Bildgeber 128 für die Aufnahme eines digitalen Bildes von einem Subjekt mit sichtbarem Licht enthält. In alternativen Implementierungen kann der IR-Bildgeber 108 des IR-Verarbeitungssystems 102 und des Kamera-Bildgebers 128 in einer Ausgestaltung, die von einer IR-Filterung, einer Abbildungsalgorithmus-Verarbeitung und/oder anderen Parametern abhängig ist, zu einem einzigen Bildgeber des Mobilgeräts 100 kombiniert sein. Die Kameraeinrichtung 130 enthält auch eine Lampe 130, zum Beispiel einen Blitz oder eine LED, der oder die sichtbares Licht emittiert, um das Subjekt zu Abbildungszwecken zu beleuchten, wie das der Fall wäre, wenn die Umgebungslichtbedingungen keine angemessene Beleuchtung bereitstellen.
  • Die Kameraeinrichtung 126 kann in das Mobilgerät 100 als Frontkamera mit einem Objektiv 132 integriert sein, das in das Gehäuse des Mobilgeräts integriert ist und dem Gesicht des Benutzers gegenüberliegend bzw. zugewandt positioniert ist, wenn dieser das Gerät hält und auf den Anzeigebildschirm der Anzeigevorrichtung 120 blickt. Wie im Zusammenhang mit 2 weiter dargestellt und erläutert ist, sendet die Lampe 30 der Kameraeinrichtung 126 sichtbares Licht aus, das zum Beleuchten des Gesichts eines Benutzers, der ein Brille trägt, verwendet werden kann, und der Bildgeber 128 der Kameraeinrichtung wird zur Aufnahme von Bilddaten verwendet, die das Gesicht des Benutzers, eine Brillenfassung und Brillengläser umfassen. Das Augen-Lokalisierungsmodul 118 kann dann die Lage der Brillenfassung und der Gläser ermitteln, die mit der Kameraeinrichtung abgebildet werden.
  • 2 zeigt Beispiele 200 einer vorliegend beschriebenen Iriserfassung durch Bildgebung mit sichtbarem Licht. Wie bei Pos. 202 dargestellt ist, enthält das Abbildungssystem 104 des Mobilgeräts 100 einen IR-Bildgeber 108, die IR-Empfangsdiode 110 und ein LED-System (z. B. aus NIR-Lampen 106), das zum Beleuchten des Gesichts einer Person (z. B. eines Benutzers des Mobiltelefons 100) mit nahem Infrarotlicht 204 verwendet werden kann. Das Augen-Lokalisierungsmodul 118 kann die Ausrichtung 124 des Gesichts des Benutzers gegenüber dem Mobilgerät 100 basierend auf den Reflexionen der LEDs (z. B. dem Licht, das von den NIR-Lampen 106 erzeugt und von dem Benutzer reflektiert wird) erfassen.
  • Das Augen-Lokalisierungsmodul 118 bestimmt die Ausrichtung 124 des Gesichts des Benutzers gegenüber dem Mobilgerät 100 auf der Basis der erfassten Reflexionen 134 des Lichts von den LEDs (z. B. dem Licht der NIR-Lampen 106, das von dem Benutzer reflektiert wird). Es können zwei oder mehr LEDs zum Beleuchten des Gesichts des Benutzers verwendet werden, und die IR-Empfangsdiode 110 empfängt das reflektierte Licht, dessen Ursprung durch das Augen-Lokalisierungsmodul 118 festgestellt wird, um eine Orientierung des Kopfes des Benutzers zu bestimmen. Wie bei Pos. 202 gezeigt ist, ist das Gesicht des Benutzers nicht auf das Abbildungssystem 104 des Mobilgeräts 100 ausgerichtet, und es wird der Ausrichtungshinweis 122 in einer Schnittstelle auf der Anzeigevorrichtung 120 des Mobilgeräts 100 angezeigt. Hier ist der Ausrichtungshinweis als gestrichelte Linie mit einem Pfeil dargestellt, um den Benutzer anzuleiten, in welche Richtung dieser das Mobilgerät bewegen muss, damit die gestrichelte Linie zwischen den Augen zentriert ist, wie das in einer Vorschau der Augen (z. B. in einer Video- oder Standbildvorschau) angezeigt wird.
  • Wie bei Pos. 206 dargestellt ist, unterstützt der Ausrichtungshinweis 122 den Benutzer des Mobilgeräts 100 beim Erzielen einer korrekten Ausrichtung seines Gesichts auf das Gerät, so dass für die Iris-Authentifizierung durch die Iris-Authentifizierungsanwendung 116 eine Abbildung von einem Auge (oder den Augen) des Benutzers erstellt werden kann. Bei Pos. 206 zeigt der Ausrichtungshinweis 122, der in der Schnittstelle auf der Anzeigevorrichtung 120 des Mobilgeräts 100 angezeigt wird, eine korrekte Ausrichtung des Gesichts des Benutzers gegenüber dem Mobilgerät, und das Augen-Lokalisierungsmodul 118 kann die für die Iris-Authentifizierung korrekte Ausrichtung bestimmen.
  • In Implementierungen einer Iris-Authentifizierung durch Bildgebung mit sichtbarem Licht kann das Augen-Lokalisierungsmodul 118 bestimmen, dass der Benutzer des Mobilgeräts 100 eine Brille 208 trägt, zum Beispiel eine Lesebrille, eine Sonnenbrille, eine Schutzbrille oder dergleichen. Das Gesicht des Benutzers des Mobilgeräts 100 kann durch die Nutzung von Umgebungslicht beleuchtet werden, indem die Anzeigevorrichtung 120 in eine weiße oder andere Beleuchtungsfarbe geändert wird, oder indem, wie vorstehend beschrieben und bei Pos. 210 dargestellt, sichtbares Licht 212 mit der Lampe 130 (z. B. einem Blitzlicht oder einer LED) der Frontkameraeinrichtung 126 projiziert wird. Diese Quelle sichtbaren Lichts kann in Situationen verwendet werden, in denen ein Umgebungslichtsensor (z. B. ein Sensor 112) feststellt, dass für die Beleuchtung des Gesichts des Benutzers kein ausreichendes Umgebungslicht zur Verfügung steht. Die Lampe 130 der Kameraeinrichtung 126 sendet das sichtbare Licht 212 aus, das zum Beleuchten des Gesichts eines Brillenträgers verwendet wird, wie bei Pos. 210 gezeigt. Der Bildgeber 128 der Kameraeinrichtung 126 kann verwendet werden, um mit sichtbarem Licht eine Abbildung von der Brillenfassung und den Brillengläsern zu erstellen, wie bei Pos. 214 gezeigt, wobei bekannte Algorithmen und andere Vorgehensweisen für die Gesichts- und Brillenerkennung durch das Augen-Lokalisierungsmodul 118 implementiert werden können.
  • Das Augen-Lokalisierungsmodul 118 ist derart ausgeführt, dass dieses, wenn eine Bestimmung erfolgt, dass ein Benutzer des Mobilgeräts 100 eine Brille 208 trägt, ein Brillenglas 216 (oder beide Brillengläser) der Brille horizontal, 218, und vertikal, 220, zweiteilt, um einen Mittelpunkt 222 des Brillenglases zu bestimmen. Wie bei Pos. 224 gezeigt ist, kann das Augen-Lokalisierungsmodul 118 eine oder mehrere LEDs des LED-Systems (z. B. die NIR-Lampen 106) initialisieren, um für die Beleuchtung eines Auges 226 (oder beider Augen) des Benutzers das Nah-Infrarotlicht 204 zu projizieren, wobei das Nah-Infrarotlicht derart projiziert wird, dass dieses den bestimmten Mittelpunkt 222 des Brillenglases 216 umfasst und wirksam ist für die Beleuchtung einer Pupille 228 des Auges. Wie bei Pos. 214 gezeigt ist, können die Fassung und/oder die Gläser 216 der Brille mehrere Reflexionspunkte 230 für eine Reflexion zurück zu dem NIR-Bildgeber 108 aufweisen.
  • Das Augen-Lokalisierungsmodul 118 kann die annähernde Lage der Pupille 228 des Auges 226 eines Benutzers des Geräts bestimmen, und die annähernde Lage der Pupille kann verwendet werden als Seed-Lagedaten (Start-Lagedaten) für das Augen-Lokalisierungsmodul 118, so dass das Auge für die Iris-Authentifizierung effizienter abgebildet werden kann. In Implementierungen kann das Augen-Lokalisierungsmodul 118 die Pupille 228 des Auges 226 basierend auf einer Reflexion 232 des Nah-Infrarotlichts 204 von der Pupille 228 an etwa dem bestimmten Mittelpunkt 222 der Linse 216 lokalisieren. Die Reflexion 232 des Nah-Infrarotlichts von der Pupille 228 des Auges ist auch bei Pos. 214 als dem nächsten Reflexionspunkt (oder einem der nächsten Reflexionspunkte) zu dem bestimmten Mittelpunkt 222 des Brillenglases 216 gezeigt. Das Augen-Lokalisierungsmodul 118 ist auch ausgebildet für das Herausarbeiten der anderen Reflexionspunkte 230 der Brillenfassung und der Brillengläser.
  • In Implementierungen kann das Augen-Lokalisierungsmodul 118 die Reflexion 232 des Nah-Infrarotlichts von der Pupille 228 als dem nächsten Reflexionspunkt von der Nah-Infrarot-Lampe zu dem bestimmten Mittelpunkt 222 des Brillenglases 216 bestimmen. Das Augen-Lokalisierungsmodul 118 kann die Pupille 228 des Auges 226 unter Verwendung des bestimmten Mittelpunkts 222 des Brillenglases als Startpunkt einer Lagesuche der Pupille des Auges lokalisieren. Anschließend kann das Augen-Lokalisierungsmodul 118 die Lagesuche der Pupille unterstützt durch die Koordinaten des nächsten Reflexionspunkts durchführen und danach den Bildgeber 108 aktivieren, um für die Iris-Authentifizierung der Iris 234 durch die Iris-Authentifizierungsanwendung 116 basierend auf der Lokalisierung bzw. dem Auffinden der Pupille 228 des Auges ein Bild von dem Auge (oder den Augen) des Benutzers als Aufnahme 114 zu erstellen. In Ausführungsformen kann das Augen-Lokalisierungsmodul 118 den Mittelpunkt 222 des Brillenglases 216 (oder der Brillengläser) annähernd gleichzeitig mit dem Lokalisieren bzw. Auffinden der Pupille 228 des Auges (oder der Augen) basierend auf der Reflexion des Nah-Infrarotlichts von der Pupille bestimmen.
  • Ein Beispielverfahren 300 wird in Übereinstimmung mit Implementierungen einer Iriserfassung durch Bildgebung mit sichtbarem Licht unter Bezugnahme auf die 3A und 3B beschrieben. Allgemein können vorliegend beschriebene Dienste, Komponenten, Module, Verfahren und/oder Vorgänge unter Verwendung von Software, Firmware, Hardware (z. B. feste Logikschaltungen), manuelle Verarbeitung oder Kombinationen derselben implementiert werden. Manche Vorgänge bzw. Abläufe des Beispielverfahrens können in dem allgemeinen Kontext von ausführbaren Befehlen beschrieben sein, die auf einem computerlesbaren Speichermedium gespeichert sind, das ein lokales und/oder entferntes Speichermedium eines Computerverarbeitungssystems sein kann, und Implementierungen können Softwareanwendungen, Programme, Funktionen und dergleichen umfassen. Alternativ oder zusätzlich kann jede der vorliegend beschriebenen Funktionalitäten zumindest zum Teil durch eine oder mehrere logische Hardwarekomponenten wie zum Beispiel Field Programmable Gate Arrays (FPGAs), anwendungsspezifische integrierte Schaltungen (ASICs), anwendungsspezifische Standardprodukte (ASSPs), Ein-Chip-Systeme (SoCs), komplexe programmierbare logische Schaltungen (CPLDs) und dergleichen ausgeführt werden, ohne Beschränkung hierauf.
  • Die 3A und 3B zeigen ein(mehrere) Beispielverfahren 300 einer Iriserfassung durch Bildgebung mit sichtbarem Licht. Die Reihenfolge, in der das Verfahren beschrieben ist, stellt keine Einschränkung dar. Die Operationen in dem beschriebenen Verfahren können in Anzahl und Kombination beliebig durchgeführt werden, um ein Verfahren oder ein alternatives Verfahren durchzuführen.
  • Bei Pos. 302 wird ein Ausrichtungshinweis für das Mobilberät angezeigt, um die Richtung anzugeben, in welche das Gerät gedreht werden muss, um das Gesicht des Benutzers zum Lokalisieren bzw. Auffinden einer Pupille seines Auges bezüglich des Mobilgeräts auszurichten. Zum Beispiel wird der Ausrichtungshinweis 122 in einer Schnittstelle auf der Anzeigevorrichtung 120 des Mobilgeräts 100 angezeigt. In dem bei Pos. 202 (2) gezeigten Beispiel ist der Ausrichtungshinweis als gestrichelte Linie mit Pfeil dargestellt, um den Benutzer anzuweisen, in welche Richtung dieser das Mobilgerät drehen muss, damit die gestrichelte Linie zwischen den Augen zentriert ist, wie das in einer Vorschau der Augen (z. B. in einer Video- oder Standbildvorschau) angezeigt wird (siehe Pos. 206).
  • Bei Pos. 304 wird auf der Basis der erfassten Ausrichtung des Gesichts des Benutzers eine für die Iris-Authentifizierung korrekte Ausrichtung bestimmt. Zum Beispiel bestimmt das durch das Mobilgerät 100 implementierte Augen-Lokalisierungsmodul 118, ob der Benutzer gegenüber dem Bildgebungssystem 104 des Mobilgeräts korrekt ausgerichtet ist. Der Ausrichtungshinweis 122, der in der Schnittstelle auf der Anzeigevorrichtung 120 des Mobilgeräts 100 angezeigt wird, zeigt in dem bei Pos. 206 angegebenen Beispiel eine korrekte Ausrichtung zwischen dem Gesicht des Benutzers und dem Mobilgerät, und das Augen-Lokalisierungsmodul 118 bestimmt die für die Iris-Authentifizierung korrekte Ausrichtung.
  • Wird die korrekte Ausrichtung für die Iris-Authentifizierung nicht bestimmt bzw. festgestellt (d. h. ”Nein” bei Pos. 304), wird das Verfahren bei Pos. 302 fortgesetzt, um den Ausrichtungshinweis 122 auf der Anzeigevorrichtung 120 des Mobilgeräts 100 anzuzeigen als Hinweis für die Justierung und als Unterstützung bei der Positionierung des Benutzers gegenüber dem Mobilgerät. Wenn die korrekte Ausrichtung für die Iris-Authentifizierung bestimmt wird (d. h. ”Ja” bei Pos. 304), werden parallel (z. B. annähernd gleichzeitig) zwei Pfade durchlaufen, um eine Pupille 228 eines Auges 226 (oder die Pupillen beider Augen) des Benutzers des Mobilgeräts zum Zweck der Iris-Authentifizierung aufzufinden. Wie vorstehend mit Bezug auf die Aktionen 306312 in dem Verfahren ausgeführt wurde und nachstehend im Detail erläutert wird, erfolgt eine Bestimmung, dass der Benutzer des Mobilgeräts 100 eine Brille 208 trägt, und es wird der Mittelpunkt 222 für die Zweiteilung eines Brillenglases 216 bestimmt, um dem IR-Verarbeitungssystem die Erfassung der Iris 234 des Auges zum Zweck der Iris-Authentifizierung zu ermöglichen. Wie vorstehend mit Bezug auf die Aktionen 314324 in dem Verfahren beschrieben wurde, wird nahes Infrarotlicht (NIR) projiziert, um die Pupille 228 des Auges 226 (oder die Pupillen beider Augen) des Benutzers zu beleuchten, wird die Pupille zusätzlich und parallel basierend auf einer Reflexion des NIR-Lichts von der Pupille lokalisiert bzw. aufgefunden, und der IR-Bildgeber 108 erstellt eine Abbildung des Auges für die Iris-Authentifizierung.
  • Bei Pos. 306 erfolgt eine Bestimmung, ob die Umgebungslichtbedingungen geeignet sind für die Bestimmung, dass der Benutzer des Mobilgeräts eine Brille trägt. Zum Beispiel kann das Gesicht des Benutzers des Mobilgeräts 100 unter Verwendung von Umgebungslicht beleuchtet werden, indem die Anzeigevorrichtung 120 in eine weiße oder andere Beleuchtungsfarbe geändert wird, oder, wie bei Pos. 210 gezeigt, durch das Projizieren des sichtbaren Lichts 212 mit der Lampe 130 (z. B. einem Blitzlicht oder einer LED) der Frontkameraeinrichtung 126.
  • Wenn die Umgebungslichtbedingungen nicht geeignet sind für die Bestimmung, dass der Benutzer des Mobilgeräts eine Brille trägt (d. h. ”Nein” bei Pos. 306), wird bei Pos. 308 sichtbares Licht projiziert, um das Gesicht eines Benutzers des Mobilgeräts zu beleuchten. Die Frontkameraeinrichtung 126, die in das Mobilgerät 100 integriert ist, enthält zum Beispiel den Bildgeber 128 und die Lampe 130, wie zum Beispiel ein Blitzlicht oder eine LED, die sichtbares Licht 212 emittieren, das zum Beleuchten des Gesichts des Benutzers verwendet wird, der die Brille 204 trägt, wie bei Pos. 210 gezeigt. Die Quelle sichtbaren Lichts kann in Situationen verwendet werden, in denen ein Umgebungslichtsensor (z. B. ein Sensor 112) feststellt, dass kein ausreichendes Umgebungslicht für die Beleuchtung des Gesichts des Benutzers vorhanden ist.
  • Wenn die Umgebungslichtbedingungen geeignet sind für die Beleuchtung des Gesichts des Benutzers (d. h. ”Ja” bei Pos. 306) oder ab Pos. 308 fortdauern, erfolgt bei Pos. 310 eine Bestimmung, dass der Benutzer des Mobilgeräts eine Brille trägt. Es werden zum Beispiel ein Brillen-Erfassungsverfahren angewendet, um eine vorhandene, von dem Benutzer getragene Brille nachzuweisen, zum Beispiel durch den Einsatz des Bildgebers 128 der Kameraeinrichtung 126, um eine Abbildung mit sichtbarem Licht zu erstellen, und des Augen-Lokalisierungsmoduls 118, das mit bekannten Algorithmen oder anderen Vorgehensweisen für die Gesichtserfassung und die Erfassung einer von dem Benutzer des Mobilgeräts 100 getragenen Brille 208 arbeitet. Bei Pos. 312 wird ein Mittelpunkt eines Brillenglases bestimmt. Das durch das Mobilgerät 100 implementierte Augen-Lokalisierungsmodul 118 zweiteilt zum Beispiel ein Glas 216 (oder beide Gläser) der Brille horizontal, 218, und vertikal, 220, um den Zweiteilungsmittelpunkt 222 des Brillenglases zu bestimmen.
  • Bei Pos. 314 wird nahes Infrarotlicht projiziert, um eine Pupille eines Auges (oder die Pupillen beider Augen) des Benutzers zu beleuchten. Zum Beispiel projizieren eine oder mehrere der LEDs in dem LED-System (z. B. die NIR-Lampen 106) das nahe Infrarotlicht 204, um das Auge 226 (oder beide Augen) des Benutzers zu beleuchten, wie das der Fall ist, wenn die korrekte Ausrichtung für eine Iris-Authentifizierung bestimmt wird (d. h. ”Ja” bei Pos. 304). Alternativ oder zusätzlich wird das nahe Infrarotlicht 204 so projiziert, dass es den bestimmten Mittelpunkt 222 des Brillenglases 216 umfasst und wirksam ist für die Beleuchtung der Pupille 228 des Auges des Benutzers, wie das der Fall ist, wenn bestimmt wird, dass der Benutzer eine Brille trägt (bei Pos. 310) und wenn der Mittelpunkt 222 des Brillenglases 216 bestimmt wird (bei Pos. 312).
  • Für den Fortgang des Verfahrens 300 wird auf 3B Bezug genommen, wobei bei Pos. 316 der IR-Bildgeber aktiviert wird, um die Pupille des Auges an dem Punkt der Reflexion des nahen Infrarotlichts von der Pupille zu lokalisieren bzw. aufzufinden. Zum Beispiel aktiviert das Augen-Lokalisierungsmodul 118 den Bildgeber 108, um eine Abbildung des Auges (oder der Augen) des Benutzers als Aufnahme 114 für die Lokalisierung bzw. das Auffinden der Pupille 228 des Auges 226 des Benutzers für die Iris-Authentifizierung der Iris 234 durch die Iris-Authentifizierungsanwendung 116 zu erstellen. Das Augen-Lokalisierungsmodul 118 lokalisiert die Pupille 228 des Auges 226 auf der Basis der Reflexion 232 des nahen Infrarotlichts von der Pupille. Alternativ oder zusätzlich wird die Pupille 228 des Auges 226 basierend auf der Reflexion 232 des nahen Infrarotlichts unter Verwendung des bestimmten Mittelpunkts 222 des Glases 216 der Brille 208 als Startpunkt für die Suche zum Auffinden der Pupille 228 des Auges lokalisiert. Ferner kann das Augen-Lokalisierungsmodul 118 die Reflexion 232 des nahen Infrarotlichts von der Pupille 228 des Auges als nächstem Reflexionspunkt des nahen Infrarotlichts zu dem bestimmten Mittelpunkt 222 des Brillenglases 216 bestimmen. Der bestimmte Mittelpunkt 222 des Brillenglases ist der annähernde Mittelpunkt, und die mehreren Reflexionspunkte 230 des nahen Infrarotlichts von der Brillenfassung und von den Brillengläsern können in einer Prioritätenfolge ihrer Nähe zu dem Zweiteilungsmittelpunkt 222 verarbeitet werden.
  • Bei Pos. 318 erfolgt eine Bestimmung, ob ein neuer Startpunkt gegeben ist, von dem aus nach einer Reflexion des nahen Infrarotlichts (NIR-Lichts) von der Pupille des Auges zu suchen ist. Wenn ein neuer Startpunkt für die Suche nach der NIR-Reflexion gegeben ist (d. h. ”Ja” bei Pos. 318), wird bei Pos. 320 die Suche nach der Pupillenreflexion fortgesetzt, wobei der Startpunkt verwendet wird, der basierend auf der Berechnung des sichtbaren Lichts (z. B. dem durch das Augen-Lokalisierungsmodul 118 bestimmten Zweiteilungsmittelpunkt eines Brillenglases) bestimmt wird. Wenn kein neuer Startpunkt vorliegt, von dem aus nach der NIR-Lichtreflexion zu suchen ist (d. h. ”Nein” bei Pos. 318), wird bei Pos. 322 die Suche nach der Pupillenreflexion unter Verwendung des aus der Iteration einer vorausgehenden Suche hergeleiteten Startpunkts fortgesetzt. Zum Bestimmen, ob die Pupille des Auges an dem Reflexionspunkt des NIR-Lichts lokalisiert bzw. aufgefunden wurde, wird das Verfahren ab Pos. 320 oder 322 fortgesetzt. Wenn die Pupille 228 des Auges 226 an dem bestimmten Reflexionspunkt des NIR-Lichts nicht lokalisiert bzw. aufgefunden wurde (d. h. ”Nein” bei Pos. 324), wird das Verfahren bei Pos. 318 fortgesetzt, um zu bestimmen, ob ein neuer Startpunkt vorliegt, von dem aus nach der NIR-Lichtreflexion von der Pupille des Auges zu suchen ist. Wenn die Pupille 228 des Auges 226 an dem bestimmten Reflexionspunkt des NIR-Lichts lokalisiert bzw. aufgefunden wurde (d. h. ”Ja” bei Pos. 324), wird das Verfahren bei Pos. 326 in 3A fortgesetzt.
  • Bei Pos. 326 erfolgt die Bestimmung, ob die Iris des Auges für die Iris-Authentifizierung abgebildet wurde, und wenn nein (d. h. ”Nein” bei Pos. 326), wird das Verfahren bei Pos. 304 fortgesetzt, um eine korrekte Ausrichtung des Mobilgeräts für die Iris-Authentifizierung zu bestimmen; bei Pos 306, um zu bestimmen, ob die Umgebungslichtbedingungen für die Beleuchtung des Gesichts des Benutzers geeignet sind; und bei Pos. 308, um erforderlichenfalls das sichtbare Licht zum Beleuchten des Gesichts des Benutzers des Mobilgeräts zu projizieren, so dass das Gesicht des Benutzers besser beleuchtet und die Pupille 228 des Auges (oder die Pupillen beider Augen) lokalisiert werden kann (oder können). In einer weiteren Implementierung kann eine endgültige IR-Irislokalisierung auch als Rückmeldung für die (z. B. durch das Augen-Lokalisierungsmodul 118 implementierte) Veranschlagung des sichtbaren Lichts eingegeben werden, wie zum Beispiel im Fall von großen Brillengläsern und wenn die Iris nicht tatsächlich an dem bestimmten Zweiteilungsmittelpunkt des Brillenglases liegt. Wenn die Iris des Auges zum Zweck der Iris-Authentifizierung erfasst wurde (d. h. ”Ja” bei Pos. 326), wird bei Pos. 328 der Benutzer des Mobilgeräts 100 basierend auf der Iris-Authentifizierung durch die Iris-Authentifizierungsanwendung 116 authentifiziert.
  • 4 zeigt verschiedene Komponenten eines Beispielgeräts 400, in welchem verschiedene Ausführungsformen der Iriserfassung durch Bildgebung mit sichtbarem Licht implementiert werden können. Das Beispielgerät 400 kann als eines der Computergeräte, die vorstehend mit Bezug auf die 13 genannt wurden, ausgeführt sein, zum Beispiel als Client-Gerät, als Mobiltelefon, als Tablet-, Computer-, Kommunikations-, Unterhaltungs-, Gaming- und Medienwiedergabegerät und/oder als Gerät einer anderen Art. Beispielsweise kann das Mobilgerät 100, das in 1 gezeigt ist, als Beispielgerät 400 ausgebildet sein.
  • Das Gerät 400 enthält Kommunikations-Sendeempfänger 402, die eine drahtgebundene und/oder drahtlose Kommunikation von Gerätedaten 404 mit anderen Geräten ermöglichen. Außerdem können die Gerätedaten Audiodaten, Videodaten und/oder Bilddaten enthalten. Beispiel-Sendeempfänger umfassen einen Wireless Personal Area Network-(WPAN)-Funk, der mit verschiedenen Standards nach IEEE 802.15 (BluetoothTM) kompatibel ist, einen Wireless Local Area Network-(WLAN)-Funk, der mit einem der verschiedenen Standards nach IEEE 802.11 (WiFiTM) kompatibel ist, einen Wireless Wide Area Network-(WWAN)-Funk für Mobiltelefon-Kommunikation, einen Wireless Metropolitan Area Network-(WMAN-Funk), der mit verschiedenen Standards nach IEEE 802.15 (WiMAXTM) kompatibel ist, und Wired Local Area Network-(LAN)-Ethernet-Sendeempfänger für Datenkommunikation.
  • Das Gerät 400 kann auch einen oder mehrere Dateneingangs-Ports 406 aufweisen, über welche beliebige Arten von Daten, Medieninhalten und/oder Eingaben empfangen werden können, zum Beispiel benutzerwählbare Eingaben in das Gerät, Mitteilungen, Musik, TV-Inhalt, aufgezeichneter Inhalt und andere Arten von Audio-, Video- und/oder Bilddaten, die von einem Inhalt und/oder einer Datenquelle empfangen werden. Die Dateneingangs-Ports können USB-Ports, Koaxialkabel-Ports und andere serielle oder parallele Anschlüsse (interne Anschlüsse eingeschlossen) für Flashspeicher, DVDs, CDs und dergleichen umfassen. Diese Dateneingangs-Ports können zum Verbinden des Geräts mit beliebigen Komponenten, Peripherieeinrichtungen oder Zubehör wie Mikrophone und/oder Kameras verwendet werden.
  • Das Gerät 400 enthält ein Verarbeitungssystem 408 aus einem oder mehreren Prozessoren (z. B. Mikroprozessoren, Controller und dergleichen) und/oder ein Verarbeitungs- und Speichersystem, das als Ein-Chip-System (SoC) konfiguriert ist, welches computerausführbare Befehle verarbeitet. Das Verarbeitungssystem kann zumindest zum Teil als Hardware ausgeführt sein, die Komponenten einer integrierten Schaltung oder eines Ein-Chip-Systems, einer anwendungsspezifischen integrierten Schaltung (ASIC), eines Field Programmable Gate Array (FPGA), einer komplexen programmierbaren logischen Schaltung (CPLD) und andere Implementierungen in Silizium und/oder andere Hardware umfasst. Alternativ oder zusätzlich kann das Gerät einzeln oder in Kombination durch Software, Hardware, Firmware oder eine feste Logikschaltung implementiert sein, die in Verbindung mit Verarbeitungs- und Steuerschaltungen implementiert ist, die allgemein bei Pos. 410 angegeben sind. Das Gerät kann ferner eine beliebige Art eines Bussystems oder ein anderes Daten- und Befehlsübertragungssystem enthalten, das die verschiedenen Komponenten innerhalb des Geräts verbindet. Ein Systembus kann eine Busstruktur und -architektur oder Kombinationen von verschiedenen Busstrukturen und Busarchitekturen sowie Steuer- und Datenleitungen umfassen.
  • Das Gerät 400 hat auch einen computerlesbaren Speicher 412 zum Ermöglichen einer Datenspeicherung, zum Beispiel eine Datenspeichervorrichtung, auf die ein Computergerät zugreifen kann und die eine dauerhafte Speicherung von Daten und ausführbaren Befehlen (z. B. von Softwareanwendungen, Programmen, Funktionen und dergleichen) erlaubt. Beispiele des computerlesbaren Speichers 412 sind unter anderem ein flüchtiger Speicher und ein nichtflüchtiger Speicher, feste und entfernbare Mediengeräte und ein geeignetes Speichergerät oder ein elektronischer Datenspeicher, die Daten für den Zugriff durch Computergeräte speichern. Der computerlesbare Speicher kann verschiedene Implementierungen eines Arbeitsspeichers (RAM), eines Lesespeichers (ROM), eines Flash-Speichers und anderer Arten von Speichermedien in verschiedenen Speicherkonfigurationen umfassen. Ebenso kann das Gerät 400 ein Massenspeichermedium umfassen.
  • Der computerlesbare Speicher 412 stellt Datenspeichermechanismen für die Speicherung der Gerätedaten 404, von anderen Arten von Informationen und/oder Daten und von verschiedenen Geräteanwendungen 414 (z. B. Software-Anwendungen) bereit. Zum Beispiel kann ein Betriebssystem 416 in Form von Softwarebefehlen in einer Speichervorrichtung gespeichert und von dem Verarbeitungssystem 408 ausgeführt werden. Die Geräteanwendungen können auch einen Geräte-Manager enthalten, z. B. eine beliebige Form einer Steuerungsanwendung, Softwareanwendung, eines Signalverarbeitungs- und Steuermoduls, eines nativen Codes eines bestimmten Geräts, einer Hardware-Abstraktionsschicht für ein bestimmtes Gerät usw. In diesem Beispiel umfasst das Gerät 400 ein IR-Verarbeitungssystem 418, das Ausführungsformen einer Iris-Authentifizierung durch Bildgebung mit sichtbarem Licht implementiert und mit Hardwarekomponenten und/oder als Software ausgeführt sein kann, wie das der Fall ist, wenn das Gerät 400 als das Mobilgerät 100 ausgeführt ist, das mit Bezug auf die 13 beschrieben wurde. Ein Beispiel eines IR-Verarbeitungssystems 418 ist das IR-Verarbeitungssystem 102, das ebenfalls als Option die Iris-Authentifizierungsanwendung 116 und/oder das durch das Mobilgerät 100 implementierte Augen-Lokalisierungsmodul 118 enthält.
  • Das Gerät 400 enthält auch ein Audio- und/oder Videoverarbeitungssystem 420, das Audiodaten für ein Audiosystem 422 und/oder Anzeigedaten für ein Anzeigesystem 424 generiert. Das Audiosystem und/oder das Anzeigesystem können Einrichtungen enthalten, die Audio-, Video-, Anzeige- und/oder Bilddaten verarbeiten, anzeigen und/oder anderweitig bereitstellen. Anzeigedaten und Audiosignale können über eine RF(Funkfrequenz)-Verbindung eine S-Videoverbindung, über HDMI (High Definition Multimedia Interface), eine Composite Video-Verbindung, über DVI (Digital Video Interface), eine analoge Audioverbindung oder andere ähnliche Kommunikationsverbindungen wie einen Mediendatenport 426 an eine Audiokomponente und/oder an eine Anzeigekomponente kommuniziert werden. In Implementierungen sind das Audiosystem und/oder das Anzeigesystem integrierte Komponenten des Beispielgeräts. Alternativ sind das Audiosystem und/oder das Anzeigesystem externe Peripheriekomponenten des Beispielgeräts.
  • Das Gerät 400 kann auch eine oder mehrere Energiequellen 428 enthalten, wie das der Fall ist, wenn das Gerät als Mobilgerät ausgebildet ist. Die Energiequellen können ein Ladesystem und/oder Stromversorgungsystem enthalten und können als flexible Batterieleiste, als aufladbare Batterie, als geladener Superkondensator und/oder als eine andere Art einer aktiven oder passiven Energiequelle ausgeführt sein.
  • Vorstehend wurden Ausführungsformen einer Iris-Authentifizierung durch Bildgebung mit sichtbarem Licht in einer merkmals- und/oder verfahrensspezifischen Sprache beschrieben. Der Gegenstand der Ansprüche ist jedoch nicht auf die beschriebenen spezifischen Merkmale und Verfahren beschränkt. Diese spezifischen Merkmale und Verfahren sind vielmehr als beispielhafte Implementierungen einer Iris-Authentifizierung durch Bildgebung mit sichtbarem Licht beschrieben, wobei weitere oder andere äquivalente Merkmale und Verfahren in dem Schutzrahmen der anliegenden Ansprüche erfasst sind. Ferner wurden verschiedene Ausführungsformen beschrieben, deren Implementierung jeweils unabhängig oder in Kombination mit einer oder mehreren anderen beschriebenen Ausführungsformen möglich ist.

Claims (20)

  1. Verfahren zur Iriserfassung durch Bildgebung mit sichtbarem Licht, umfassend: das Bestimmen, dass der Benutzer des Mobilgeräts eine Brille trägt, wobei Umgebungslicht oder projiziertes sichtbares Licht verwendet werden; das Bestimmen eines Mittelpunkts eines Brillenglases; das Projizieren von nahem Infrarotlicht zum Beleuchten von mindestens einem Auge des Benutzers, wobei das nahe Infrarotlicht derart projiziert wird, dass dieses den bestimmten Mittelpunkt des Brillenglases umfasst und wirksam ist für die Beleuchtung einer Pupille des wenigstens einen Auges; und das Lokalisieren bzw. Auffinden der Pupille des wenigstens einen Auges basierend auf einer Reflexion des nahen Infrarotlichts von der Pupille etwa an dem bestimmten Mittelpunkt des Brillenglases.
  2. Verfahren nach Anspruch 1, ferner umfassend: das Durchführen der Bestimmung des Mittelpunkts des Brillenglases annähernd gleichzeitig mit dem Lokalisieren bzw. Auffinden der Pupille des wenigstens einen Auges basierend auf der Reflexion des nahen Infrarotlichts von der Pupille.
  3. Verfahren nach Anspruch 1 oder Anspruch 2, ferner umfassend: das Bestimmen, ob die Umgebungslichtbedingungen geeignet sind zum Bestimmen, dass der Benutzer des Mobilgeräts die Brille trägt; und das Projizieren des sichtbaren Lichts zum Beleuchten des Gesichts des Benutzers basierend auf einer Bestimmung, dass die Umgebungslichtbedingungen nicht geeignet sind, wobei das sichtbare Licht mit einer Lampe einer Frontkamera projiziert wird, in die das Mobilgerät integriert ist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, ferner umfassend: das Lokalisieren bzw. Auffinden der Pupille des mindestens einen Auges unter Verwendung des bestimmten Mittelpunkts des Brillenglases als Startpunkt für die Suche nach der Lage der Pupille des mindestens einen Auges.
  5. Verfahren nach einem der Ansprüche 1 bis 4, ferner umfassend: das Zweiteilen des Brillenglases horizontal und vertikal, um den Mittelpunkt des Brillenglases zu bestimmen.
  6. Verfahren nach einem der Ansprüche 1 bis 5, ferner umfassend: das Bestimmen der Reflexion des nahen Infrarotlichts von der Pupille als den zu dem bestimmten Mittelpunkt des Brillenglases nächsten Reflexionspunkt.
  7. Verfahren nach einem der Ansprüche 1 bis 6, ferner umfassend: das Aktivieren eines IR-Bildgebers zum Erstellen einer Abbildung des mindestens einen Auges des Benutzers für eine Iris-Authentifizierung basierend auf der Lokalisierung der Pupille des wenigstens einen Auges.
  8. Verfahren nach einem der Ansprüche 1 bis 7, ferner umfassend: das Anzeigen eines Ausrichtungshinweises für das Mobilgerät, um eine Richtung anzugeben, in welche das Mobilgerät für eine Ausrichtung des Gesichts des Benutzers gegenüber dem Mobilgerät gedreht werden muss, um die Pupille des wenigstens einen Auges zu lokalisieren bzw. aufzufinden.
  9. Mobilgerät, umfassend: ein LED-System, das für eine Projektion von nahem Infrarotlicht zum Beleuchten des Gesichts eines Benutzers des Geräts konfiguriert ist; ein Speicher- und Verarbeitungssystem zum Implementieren eines Augen-Lokalisierungsmoduls, das konfiguriert ist für: das Bestimmen, dass der Benutzer des Mobilgeräts eine Brille trägt; das Bestimmen eines Mittelpunkts eines Brillenglases; das Initiieren des LED-Systems zum Projizieren des nahen Infrarotlichts für die Beleuchtung von mindestens einem Auge des Benutzers, wobei das nahe Infrarotlicht derart projiziert wird, dass dieses den bestimmten Mittelpunkt des Brillenglases umfasst und wirksam ist für die Beleuchtung einer Pupille des mindestens einen Auges; und das Lokalisieren bzw. Auffinden der Pupille des mindestens einen Auges basierend auf einer Reflexion des nahen Infrarotlichts von der Pupille etwa an dem bestimmten Mittelpunkt des Brillenglases.
  10. Mobilgerät nach Anspruch 9, wobei das Augen-Lokalisierungsmodul konfiguriert ist für das Bestimmen des Mittelpunkts des Brillenglases annähernd gleichzeitig mit der Lokalisierung der Pupille des mindestens einen Auges basierend auf der Reflexion des nahen Infrarotlichts von der Pupille.
  11. Mobilgerät nach Anspruch 9 oder Anspruch 10, wobei das Augen-Lokalisierungsmodul konfiguriert ist für: das Bestimmen anhand einer Lichtsensoreingabe, ob die Umgebungslichtbedingungen geeignet sind zum Bestimmen, ob der Benutzer des Mobilgeräts eine Brille trägt; und das Initiieren der Projektion von sichtbarem Licht zum Beleuchten des Gesichts des Benutzers basierend auf einer Bestimmung, dass die Umgebungslichtbedingungen nicht geeignet sind, wobei das sichtbare Licht mit einer Lampe einer Frontkamera projiziert wird, die in das Mobilgerät integriert ist.
  12. Mobilgerät nach einem der Ansprüche 9 bis 11, wobei das Augen-Lokalisierungsmodul konfiguriert ist für das Lokalisieren bzw. Auffinden der Pupille des wenigstens einen Auges unter Verwendung des bestimmten Mittelpunkts des Brillenglases als Startpunkt einer Lagesuche der Pupille des mindestens einen Auges.
  13. Mobilgerät nach einem der Ansprüche 9 bis 12, wobei das Augen-Lokalisierungsmodul konfiguriert ist für eine Zweiteilung des Brillenglases horizontal und vertikal, um den Mittelpunkt des Brillenglases zu bestimmen.
  14. Mobilgerät nach einem der Ansprüche 9 bis 13, wobei das Augen-Lokalisierungsmodul konfiguriert ist für eine Bestimmung der Reflexion des nahen Infrarotlichts von der Pupille als den zu dem bestimmten Mittelpunkt des Brillenglases nächsten Reflexionspunkt.
  15. Mobilgerät nach einem der Ansprüche 9 bis 14, wobei das Augen-Lokalisierungsmodul konfiguriert ist für die Aktivierung eines IR-Bildgebers zum Erstellen einer Abbildung des wenigstens einen Auges des Benutzers zum Zweck der Iris-Authentifizierung basierend auf der Lokalisierung des wenigstens einen Auges.
  16. Mobilgerät nach einem der Ansprüche 1 bis 15, ferner umfassend eine Anzeigevorrichtung, die ausgebildet ist für die Anzeige eines Ausrichtungshinweises auf eine Richtung, in welche das Mobilgerät für eine Ausrichtung des Gesichts des Benutzers gegenüber dem Mobilgerät gedreht werden muss, um die Pupille des wenigstens einen Auges zu lokalisieren bzw. aufzufinden.
  17. System, umfassend: eine Frontkameraeinrichtung mit einer Lampe, die für eine Projektion von sichtbarem Licht zum Beleuchten des Gesichts einer Person ausgebildet ist; ein Speicher- und Verarbeitungssystem zum Implementieren eines Augen-Lokalisierungsmoduls, das konfiguriert ist für: das Bestimmen, dass die Person eine Brille trägt, wobei Umgebungslicht oder das projizierte sichtbare Licht verwendet werden; das Bestimmen des Mittelpunkts eines Brillenglases; das Initiieren eines LED-Systems zum Projizieren von nahem Infrarotlicht zum Beleuchten wenigstens eines Auges der Person, wobei das nahe Infrarotlicht derart projiziert wird, dass dieses den bestimmten Mittelpunkt des Brillenglases umfasst und wirksam ist für die Beleuchtung der Pupille des wenigstens einen Auges; und das Lokalisieren bzw. Auffinden der Pupille des wenigstens einen Auges basierend auf einer Reflexion des nahen Infrarotlichts von der Pupille an etwa dem bestimmten Mittelpunkt des Brillenglases.
  18. System nach Anspruch 17, wobei das Augen-Lokalisierungsmodul konfiguriert ist für eine Zweiteilung des Brillenglases horizontal und vertikal, um den Mittelpunkt des Brillenglases zu bestimmen.
  19. System nach Anspruch 17 oder Anspruch 18, wobei das Augen-Lokalisierungsmodul konfiguriert ist für das Bestimmen der Reflexion des nahen Infrarotlichts von der Pupille als den zu dem bestimmten Mittelpunkt des Brillenglases nächsten Reflexionspunkt.
  20. System nach einem der Ansprüche 17 bis 19, wobei das Augen-Lokalisierungsmodul konfiguriert ist für eine Aktivierung des IR-Bildgebers für die Erstellung einer Abbildung des wenigstens einen Auges der Person zum Zweck der Iris-Authentifizierung basierend auf der Lokalisierung der Pupille des wenigstens einen Auges.
DE102016105471.2A 2015-04-08 2016-03-23 Iriserfassung durch Bildgebung mit sichtbarem Licht Active DE102016105471B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/681,891 US20160300108A1 (en) 2015-04-08 2015-04-08 Iris acquisition using visible light imaging
US14/681,891 2015-04-08

Publications (2)

Publication Number Publication Date
DE102016105471A1 DE102016105471A1 (de) 2016-10-13
DE102016105471B4 true DE102016105471B4 (de) 2018-02-08

Family

ID=56027486

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016105471.2A Active DE102016105471B4 (de) 2015-04-08 2016-03-23 Iriserfassung durch Bildgebung mit sichtbarem Licht

Country Status (4)

Country Link
US (1) US20160300108A1 (de)
CN (1) CN106056036B (de)
DE (1) DE102016105471B4 (de)
GB (1) GB2538608B (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101919069B1 (ko) * 2016-01-12 2018-11-15 주식회사 아모그린텍 웨어러블 디바이스
JP2017134558A (ja) * 2016-01-27 2017-08-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
US10212366B2 (en) * 2016-06-17 2019-02-19 Fotonation Limited Iris image acquisition system
CN108334188A (zh) * 2017-01-20 2018-07-27 深圳纬目信息技术有限公司 一种带有眼控的头戴式显示设备
CN108334160A (zh) * 2017-01-20 2018-07-27 深圳纬目信息技术有限公司 一种带有虹膜识别的头戴式显示设备
CN108334187A (zh) * 2017-01-20 2018-07-27 深圳纬目信息技术有限公司 一种带有红外光源和摄像头的头戴式显示设备
US20190080065A1 (en) * 2017-09-12 2019-03-14 Synaptics Incorporated Dynamic interface for camera-based authentication
DE202017005046U1 (de) 2017-09-29 2017-11-19 Ulrich Dehnen Bedienhilfe für Brillenträger
US11263301B2 (en) * 2018-09-28 2022-03-01 Lenovo (Singapore) Pte. Ltd. User authentication using variant illumination
WO2020121201A1 (en) * 2018-12-13 2020-06-18 Gentex Corporation Alignment apparatus for vehicle authentication system
US11288387B2 (en) 2018-12-21 2022-03-29 Verizon Patent And Licensing Inc. Method and system for self-sovereign information management
US11196740B2 (en) 2018-12-21 2021-12-07 Verizon Patent And Licensing Inc. Method and system for secure information validation
US11281754B2 (en) 2018-12-21 2022-03-22 Verizon Patent And Licensing Inc. Biometric based self-sovereign information management
US11288386B2 (en) 2018-12-21 2022-03-29 Verizon Patent And Licensing Inc. Method and system for self-sovereign information management
US11182608B2 (en) 2018-12-21 2021-11-23 Verizon Patent And Licensing Inc. Biometric based self-sovereign information management
US10860874B2 (en) * 2018-12-21 2020-12-08 Oath Inc. Biometric based self-sovereign information management
US11514177B2 (en) 2018-12-21 2022-11-29 Verizon Patent And Licensing Inc. Method and system for self-sovereign information management
US11062006B2 (en) 2018-12-21 2021-07-13 Verizon Media Inc. Biometric based self-sovereign information management
US20210367006A1 (en) * 2020-05-19 2021-11-25 Telefonaktiebolaget Lm Ericsson (Publ) Camera in Display

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6069967A (en) * 1997-11-04 2000-05-30 Sensar, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses
US20050270483A1 (en) * 2003-07-01 2005-12-08 Takeshi Fujimatsu Eye imaging device
DE102013203433A1 (de) * 2013-02-28 2014-08-28 Bundesdruckerei Gmbh Vorrichtung zur Erfassung personenspezifischer Daten

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2914173B1 (fr) * 2007-03-30 2010-02-26 Essilor Int Procede de mesure de la position suivant une direction horizontale du plan sagittal d'un point remarquable d'un oeil d'un sujet
CN101116609B (zh) * 2007-08-30 2010-06-16 中国科学技术大学 扫描式自动变焦虹膜图像采集系统及采集方法
DE102008003906B4 (de) * 2008-01-10 2009-11-26 Rodenstock Gmbh Verwendung eines Fixationstargets und Vorrichtung
GB2495323B (en) * 2011-10-07 2018-05-30 Irisguard Inc Improvements for iris recognition systems
US9298970B2 (en) * 2012-11-27 2016-03-29 Nokia Technologies Oy Method and apparatus for facilitating interaction with an object viewable via a display
US9946339B2 (en) * 2014-10-08 2018-04-17 Microsoft Technology Licensing, Llc Gaze tracking through eyewear

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6069967A (en) * 1997-11-04 2000-05-30 Sensar, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses
US20050270483A1 (en) * 2003-07-01 2005-12-08 Takeshi Fujimatsu Eye imaging device
DE102013203433A1 (de) * 2013-02-28 2014-08-28 Bundesdruckerei Gmbh Vorrichtung zur Erfassung personenspezifischer Daten

Also Published As

Publication number Publication date
GB2538608B (en) 2019-08-28
US20160300108A1 (en) 2016-10-13
CN106056036B (zh) 2019-07-09
CN106056036A (zh) 2016-10-26
GB201605203D0 (en) 2016-05-11
GB2538608A (en) 2016-11-23
DE102016105471A1 (de) 2016-10-13

Similar Documents

Publication Publication Date Title
DE102016105471B4 (de) Iriserfassung durch Bildgebung mit sichtbarem Licht
KR101940955B1 (ko) 차량 검사 보안 시스템에서 개선된 안면 검출 및 인식을 위한 장비, 시스템 및 방법
US10867449B2 (en) Apparatus and method for augmenting sight
DE102020105652B4 (de) Verfolgungssystem mit infrarot-kamera
DE102016104528A1 (de) Niedrigenergie-Iris-Authentifizierungs-Ausrichtung
EP3968288A2 (de) 3d-bildanalysator zur blickrichtungsbestimmung
DE102015120188A1 (de) Darstellung von Daten auf einer zumindest teilweise transparenten Anzeige basierend auf einem Nutzerfokus
CN104573667B (zh) 一种提高移动终端的虹膜图像质量的虹膜识别装置
DE68927275T2 (de) Bildaufnahmegerät
KR102305263B1 (ko) 홍채 이미지 형성을 위한 다중 모드 이미지 획득
US20220092292A1 (en) Method and device for living object detection, and storage medium
DE112016006066T5 (de) Analyse von umgebungslicht zur blickverfolgung
DE212017000283U1 (de) Am Körper tragbare Bildgebungsvorrichtung
EP2813173A1 (de) Endgerät und Vorrichtung Blickachsendetektionsverfahren
DE102018102194A1 (de) Elektronische Einrichtung, Informationsverarbeitungsverfahren und Programm
JP2002501265A (ja) 複数の画像の融合により輝点または暗点を除去するための方法及び装置
KR20120127790A (ko) 시선추적 시스템 및 그 방법
DE102017119100A1 (de) Impulssensoren zur biometrischen identifikation
CN108629293B (zh) 一种具有反馈机制的自适应近红外虹膜图像采集方法
EP3425560A1 (de) Vorrichtung und verfahren zur erfassung von biometrischen merkmalen eines gesichts einer person
DE102019131372A1 (de) Ausschluss von erweiterte-realitäts-inhalt
EP3730918A1 (de) Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases
DE112017004669T5 (de) Luminanzsteuervorrichtung, Luminanzsteuersystem und Luminanzsteuerverfahren
CN105389496A (zh) 一种虹膜解锁系统
DE102018106552A1 (de) Vorrichtung und verfahren zur insassenerfassung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final