DE102021126907A1 - Vorrichtung, System und Verfahren zur biometrischen Benutzererkennung bei einer Vorrichtung - Google Patents

Vorrichtung, System und Verfahren zur biometrischen Benutzererkennung bei einer Vorrichtung Download PDF

Info

Publication number
DE102021126907A1
DE102021126907A1 DE102021126907.5A DE102021126907A DE102021126907A1 DE 102021126907 A1 DE102021126907 A1 DE 102021126907A1 DE 102021126907 A DE102021126907 A DE 102021126907A DE 102021126907 A1 DE102021126907 A1 DE 102021126907A1
Authority
DE
Germany
Prior art keywords
laser
user
eye
photodiode
laser radiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021126907.5A
Other languages
English (en)
Inventor
Johannes Meyer
Thomas Alexander Schlebusch
Andreas Petersen
Jochen Hellmig
Hans Spruit
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Trumpf Photonic Components GmbH
Original Assignee
Robert Bosch GmbH
Trumpf Photonic Components GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH, Trumpf Photonic Components GmbH filed Critical Robert Bosch GmbH
Priority to DE102021126907.5A priority Critical patent/DE102021126907A1/de
Priority to CN202211270109.8A priority patent/CN115990014A/zh
Priority to US17/967,932 priority patent/US20230122222A1/en
Publication of DE102021126907A1 publication Critical patent/DE102021126907A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Die Offenbarung betrifft ein Verfahren (600), eine Vorrichtung (100) und ein System (700) zur biometrischen Benutzererkennung einer Vorrichtung (100).

Description

  • Stand der Technik
  • Die Offenbarung betritt eine Vorrichtung, ein System und ein Verfahren zur biometrischen Benutzererkennung bei einer Vorrichtung.
  • Aus dem Stand der Technik sind biometrische Authentifizierungssysteme, bei denen die Authentifizierung auf den biometrischen Eigenschaften des Auges basiert, bekannt. Bei solchen Systemen werden hochauflösende Kameras, verwendet, um die einzigartigen Merkmale des Auges, insbesondere der Iris, zu analysieren. Diese Systeme werden als Irisscanner bezeichnet. Andere Methoden nutzen den Blickverlauf und die Blickverlaufseigenschaften, wobei die biometrischen Merkmale für den Authentifizierungsprozess mit Hilfe von Video-Okulographie-, VOG-, Systemen erfasst werden. Dafür kann beispielsweise eine Frontkamera eines Smartphones oder ein Video-Okulographie-, VOG-, Augentracker verwendet werden. Ein solches System ist beispielsweise aus der US 2017/083695 A bekannt.
  • Nachteilig bei bekannten System ist ein hoher Energiebedarf der VOG-Systeme für die permanente Verfolgung der Augenbewegung. Eine geringe zeitliche Auflösung der aufgezeichneten Signale kann sich negativ auf eine präzise Merkmalsextraktion, insbesondere bei sakkadischen Bewegungen, auswirken.
  • Offenbarung der Erfindung
  • Diese Nachteile werden mit einer Vorrichtung, einem System und einem Verfahren zur biometrischen Benutzererkennung bei einer Vorrichtung gemäß den unabhängigen Ansprüchen überwunden.
  • Eine Ausführungsform betrifft ein Verfahren zur biometrischen Benutzererkennung einer Vorrichtung mit mindestens einer Laser-/Photodioden-Einheit, umfassend eine Laserlichtquelle, insbesondere eine Laserdiode, und mindestens einen der Laserlichtquelle zugeordnetem Photodetektor, insbesondere eine Photodiode. Das Verfahren umfasst die folgenden Schritte: Aussenden von Laserstrahlung auf ein Auge des Benutzers;
    Erfassen und Auswerten eines zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung;
    Bestimmen von wenigstens einer Größe im Zusammenhang mit dem Auge des Benutzers, insbesondere im Zusammenhang mit einer Bewegung des Auges des Benutzers, anhand der Auswertung des zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung;
    Ableiten von wenigstens einem biometrischen Merkmal aus den Größen im Zusammenhang mit dem Auge des Benutzers, und
    Bestimmen einer Identität des Benutzers anhand des wenigstens einen biometrischen Merkmals.
  • Das Funktionsprinzip eines Lasers basiert auf optischen Resonatoren. Innerhalb des Resonators werden die Elektronen durch externe Energiezufuhr angeregt. Die durch spontane Emission erzeugte Strahlung wird im optischen Resonator hin und her reflektiert und führt zu stimulierter Emission, wodurch der Resonanzmodus verstärkt und kohärente Strahlung erzeugt wird.
  • In einer besonders bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens wird als Laserdiode ein Oberflächenemitter eingesetzt. Ein Oberflächenemitter, der auch als VCSEL (Vertical-Cavity-Surface-Emitting-Laser) bezeichnet wird, hat gegenüber einem Kantenemitter verschiedene Vorteile. Vor allem erfordert ein VCSEL nur sehr wenig Raum, insbesondere einen Sensorbauraum von <200 × 200µm, sodass eine solche Laserstrahlerzeugungseinheit für miniaturisierte Anwendung besonders geeignet ist. Darüber hinaus ist ein VCSEL im Vergleich mit herkömmlichen Kantenemittern relativ günstig und hat nur einen geringen Energiebedarf. Im Hinblick auf das Messprinzip, das dem erfindungsgemäßen Verfahren zugrunde liegt, und auch im Hinblick auf die Verwendung von VCSEL für miniaturisierte Anwendungen wird auf die Veröffentlichung von Pruijmboom et al. „VCSELbased miniature laser-Doppler inteferometer“ (Proc. of SPIE Vol. 6908, 690801-1-7) verwiesen.
  • Im Fall eines Vertical Cavity Surface Emitting Laser (VCSEL) sind die Spiegelstrukturen als Distributed Bragg Reflektoren (DBR) ausgeführt. An einer Seite der Laserkavität hat der DBR-Reflektor einen Transmissionsgrad von etwa 1 %, so dass die Laserstrahlung in den freien Raum auskoppeln kann.
  • In einer besonders bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens wird eine Oberflächenemittereinheit verwendet, die eine integrierte Photodiode oder gegebenenfalls mehrere Photodioden aufweist, die auch als auch als ViP (VCSEL, Vertical-Cavity-Surface-Emitting-Laser, integrated photodiode) bezeichnet wird. Durch die integrierte Photodiode kann unmittelbar eine Analyse des zurückgestreuten oder reflektierten Laserlichts erfolgen, welches mit der stehenden Welle in der Laserkavität interferiert. Bei der Herstellung einer entsprechenden Oberflächenemittereinheit kann die Photodiode direkt während der Produktion der Laserdiode, die beispielsweise als Halbleiter-Bauteil produziert wird, im Zuge der Halbleiter-Prozessierung integriert werden.
  • Im Falle einer ViP befindet sich die Photodiode auf der anderen Seite des Laserresonators, so dass die Photodiode die Einkopplung in den freien Raum nicht stört. Besonderes Merkmal der ViP ist dabei die direkte Integration der Photodiode in den unteren Bragg Reflektor des Lasers. Dadurch wird die Größe maßgeblich durch die verwendete Linse bestimmt, was Größen der Laser-/Photodioden-Einheit < 2 × 2 mm ermöglicht. Dadurch lässt sich die ViP für einen Nutzer nahezu unsichtbar beispielsweise in eine Datenbrille integrieren.
  • In besonders vorteilhafter Weise erfolgt die Auswertung der zurückgestreuten und/oder reflektierten Strahlung auf der Basis einer optischen Feed-back-Interferometrie. Das dem Verfahren zugrundeliegende Messprinzip basiert dabei vorzugsweise auf der auch als self-mixing-interference (SMI) bezeichneten Methode. Hierbei wird ein Laserstrahl an einem Objekt reflektiert und zurück in die den Laser erzeugende Laserkavität gestreut oder reflektiert. Das zurückgeworfene Licht interferiert dann mit dem Strahl, der in der Laserkavität erzeugt wird, also vor allem mit einer entsprechenden stehenden Welle in der Laserkavität, wodurch es zu Veränderungen der optischen und/oder elektrischen Eigenschaften des Lasers kommt. Typischerweise führt das zu Intensitätsschwankungen der Ausgangsleistung des Lasers. Aus einer Analyse dieser Veränderungen können Informationen über das Objekt, an dem der Laserstrahl reflektiert oder gestreut wurde, erhalten werden.
  • Wenn der doppelte Abstand zwischen der Laser-/Photodioden-Einheit und dem Objekt an dem die Strahlung gestreut und reflektiert wird, ein ganzzahliges Vielfaches der Wellenlänge der Laserstrahlung ist, sind die gestreute Strahlung und die Strahlung in der Laser-/Photodioden-Einheit in Phase. Dies führt zu einer positiven/konstruktiven Interferenz, wodurch die Laserschwelle gesenkt und die Laserleistung leicht erhöht wird. Bei geringfügig größerem Abstand als ein ganzzahliges Vielfaches sind beide Strahlungswellen phasenverschoben, und eine negative Interferenz tritt auf. Die Laserausgangsleistung wird verringert. Wird der Abstand zwischen der Laser-/Photodioden-Einheit und dem Objekt, an dem die Strahlung gestreut und reflektiert wird, mit konstanter Geschwindigkeit verändert, schwankt die Laserleistung zwischen einem Maximum bei konstruktiver Interferenz und einem Minimum bei destruktiver Interferenz. Die resultierende Oszillation ist eine Funktion der Geschwindigkeit des Objekts und der Laserwellenlänge.
  • Die Größen im Zusammenhang mit dem Auge des Benutzers, insbesondere im Zusammenhang mit einer Bewegung des Auges des Benutzers, die anhand der Auswertung des zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung bestimmt werden, umfassen beispielsweise wenigstens eine oder mehrere der folgenden Größen:
    • einen Abstand, insbesondere einen Abstand und/oder Abstandsprofil zwischen der Vorrichtung und Auge, eine Geschwindigkeit, insbesondere einer Bewegung des Auges, insbesondere eine Geschwindigkeitskomponente parallel zum Laserstrahl, eine Beschleunigung, insbesondere einer Bewegung des Auges,
    • einen Augenrotationswinkel und/oder eine Änderung des Augenrotationswinkels, und/oder ein Signal-Rausch-Verhältnis, SNR, als ein Parameter der Signalstärke.
  • Die biometrischen Merkmale, die aus den Größen im Zusammenhang mit dem Auge des Benutzers abgeleitet werden, umfassen beispielsweise wenigstens eins oder mehrere der folgenden biometrischen Merkmale:
    • Abstand bzw. Abstandsprofil zwischen der Vorrichtung, insbesondere der Laser-/Photodioden-Einheit, und einer Oberfläche des Auges, insbesondere die Stufe in der Augenoberfläche zwischen Sklera und Iris und/oder der Abstand zwischen Iris und Retina, eine Geschwindigkeit, insbesondere Spitzengeschwindigkeit und/oder ein Geschwindigkeitsprofil, eine Beschleunigung, insbesondere eine Spitzenbeschleunigung und/oder ein Beschleunigungsprofil, Augenposition, Reaktionszeit, Fixationsdauer, Blinzeln, Blickpfad, Blickgeste, sakkadische Bewegungen und/oder sakkadische Richtungen, insbesondere im Zusammenhang mit spezifischen Aktivitäten, wie beispielsweise Lesen, Spielen, Ansehen von Videoinhalten und/oder im Leerlauf, also ohne spezifische Aufgabe.
  • Weiter können als biometrische Merkmale auch eine Reflektivität verschiedener Regionen auf der Augenoberfläche, beispielsweise Iris oder Sklera, und/oder Speckling-Effekte verwendet werden. Beim Durchlaufen einer definierten Bahn durch den Laserstrahl und/oder bei einer Bewegung des Auges können Sprenkelungseffekte die Abstandsmessung stören. Diese Störungen hängen von der einzigartigen Oberflächenbeschaffenheit der Augenoberfläche ab, die beispielsweise Furchen oder Ringe umfasst ist, die der Laserstrahl passiert.
  • Im Vergleich zu den aus dem Stand der Technik bekannten VOG-System ist mit einer Laser-/Photodioden-Einheit, insbesondere in Form einer ViP (VCSEL, Vertical-Cavity-Surface-Emitting-Laser, integrated photodiode), eine wesentlich höhere zeitliche Auflösung bei der Erfassung und Auswertung der zurückgestreuten und/oder reflektierten Strahlung möglich. Dies ermöglicht eine präzise Erfassung und Auswertung mit hoher Genauigkeit, insbesondere bei geschwindigkeits-, reaktions- oder beschleunigungsbasierten Größen.
  • Weiter ermöglicht das beschriebene Verfahren das Ableiten von einigen biometrischen Merkmale, deren Ableitung mit einem VOG-System nicht möglich wäre. Solcher biometrischen Merkmale sind beispielsweise Abstand bzw. Abstandsprofil zwischen der Vorrichtung, insbesondere der Laser-/Photodioden-Einheit, und einer Oberfläche des Auges, die Reflektivität verschiedener Regionen auf der Augenoberfläche und Sprenkelungseffekte bei der Abstandsmessung.
  • Anhand der biometrischen Merkmale wird eine Identität des Benutzers bestimmt. Das Bestimmen der Identität anhand der biometrischen Merkmale kann ein Klassifizieren der biometrischen Merkmale umfassen. Für die Klassifizierung wird ein Klassifikator oder eine Kombination von Klassifikatoren verwendet. Mögliche Klassifikatoren sind statistische Klassifikatoren wie Gaußsche Mischmodelle, Zeitreihenklassifikatoren wie rekurrente neuronale Netze, neuronale Netze oder histogrammbasierte Klassifikatoren. Das Bestimmen einer Identität des Benutzers anhand der biometrischen Merkmale kann vorteilhafterweise einen Abgleich der biometrischen Merkmale mit, insbesondere zuvor erfassten, Referenzdaten im Zusammenhang mit biometrischen Merkmalen eines Benutzers oder einer Mehrzahl von Benutzern umfassen.
  • Gemäß einer vorteilhaften Weiterbildung der Erfindung kann vorgesehen sein, dass die Laserstrahlung mit einer konstanten Frequenz bzw. Wellenlänge ausgesendet wird, oder dass die Laserstrahlung mit einer modulierten Frequenz bzw. Wellenlänge ausgesendet wird. Die Frequenz bzw. Wellenlänge der Laserstrahlung kann beispielsweise durch Modulation eines Laserstroms moduliert werden. Eine periodische Modulation des Laserstroms, wodurch die Wellenlänge des Laserstrahls periodisch verändert wird, kann vorteilhaft sein. Durch Analyse der zurückgestreuten oder reflektierten Strahlung, die mit dem erzeugten Laserstrom interferiert, kann aus den resultierenden Intensitätsschwankungen der Laserausgangsleistung in besonders vorteilhafter Weise die optische Weglänge zwischen der Lasererzeugungseinheit bzw. der Laserdiode und dem Objekt, also der Netzhaut des Auges, bestimmt werden. Bei Veränderung der Wellenlänge tritt also derselbe in Bezug auf die Veränderung des Abstands zwischen der Laser-/Photodioden-Einheit und dem Objekt an dem die Strahlung gestreut und reflektiert wird beschriebene Effekt auf.
  • Modulationen der Wellenlänge können durch Leistungsmodulation der Laser-/Photodioden-Einheit induziert werden. Beispielsweise ist eine lineare Modulation mit einem dreieckigen Laserstrom denkbar. Auch andere bekannte Modulationsverfahren wie Quadratur, Sinus und stückweise Kombinationen der erstgenannten können verwendet werden. Die Frequenz der erzeugten Laserstrahlung folgt nahezu verzögerungsfrei zu der Stromänderung. Die daraus resultierende Frequenzdifferenz zwischen der erzeugten Strahlung und der reflektierten Strahlung kann erfasst und ausgewertet werden. Die Wellenlänge der Laserstrahlung liegt beispielsweise im Bereich von etwa 700 nm bis 1400 nm, beispielsweise nahen Infrarotbereich um 850 nm. Der Abstand zwischen der Laser-/Photodioden-Einheit und dem Objekt, an dem die Laserstrahlung reflektiert wird, beträgt ein Vielfaches der Wellenlänge, insbesondere mindestens mehrere Zentimeter. Daher kann bereits eine geringfügige Änderung der Laserwellenlänge zu einer vollständigen Drehung der Phase der reflektierten Laserstrahlung führen. Je größer der Abstand ist, desto geringer ist die Wellenlängenänderung, die zu einer vollständigen Änderung der Phase der reflektierten Laserstrahlung führt. Betrachtet man die Variation der Laserleistung, so zeigt sich, dass die Frequenz der Leistungsvariation bei konstanter Änderung der Laserwellenlänge umso höher ist, je größer der Abstand zwischen der Laser-/Photodioden-Einheit und dem reflektierenden Objekt ist. Durch Abbildung des Signals der leistungsüberwachenden Photodiode im Frequenzbereich korreliert die Spitzenfrequenz mit dem Abstand zum reflektierenden Objekt, vgl. dazu Grabherr et al.: Integrated photodiodes complement the VCSEL platform. In: Proc. of SPIE, vol. 7229, doi: 10.1117/12.808847.
  • Wenn sich beide Effekte, nämlich Änderung des Abstands zwischen Laser-/Photodioden-Einheit und dem reflektierenden Objekt und Frequenzmodulation überlagern, entstehen Schwebungsfrequenzen, wie sie von frequenzmodulierten Dauerstrichradarsystemen, engl. frequency modulated continuous wave radar, FMCW, bekannt sind. Aufgrund der Dopplerverschiebung der Frequenz ist die resultierende Schwebungsfrequenz für ein Objekt, das sich auf den Sensor zubewegt, während des Ansteigens der Frequenz niedriger und während des Absinkens der Frequenz höher. Daher sind die Schwebungsfrequenzen für steigende und fallende Modulationssegmente einzeln zu berechnen. Der Mittelwert der beiden Frequenzen ist ein Indikator für die Entfernung des Ziels, während die Differenz mit der doppelten Dopplerfrequenz und damit mit der Geschwindigkeit des Objekts korreliert.
  • Es kann sich als vorteilhaft erweisen, wenn zwischen Laserstrahlung mit einer konstanten Frequenz und Laserstrahlung mit einer modulierten Frequenz umgeschaltet wird.
  • Gemäß einer weiteren vorteilhaften Ausführungsform ist vorgesehen, dass die Vorrichtung wenigstens zwei Laser-/Photodioden-Einheiten umfasst, wobei die wenigstens zwei Laser-/Photodioden-Einheiten, unabhängig voneinander betrieben werden können. Beispielsweise kann ein zeitlich versetztes Betreiben, insbesondere Zeitmultiplexing, oder eine mehrstufige Aktivierung angewendet werden. Auf diese Weise kann der Energiebedarf der Vorrichtung zur Ausführung des Verfahrens gesenkt werden.
  • Es kann vorgesehen sein, dass eine Authentifizierung durch Detektion einer Bewegung ausgelöst wird. Bei der Bewegung handelt es sich beispielsweise um eine natürliche, nicht stimulierte Augenbewegung. Die Detektion löst beispielsweise die Authentifizierung, insbesondere das Ausführen der Schritte Bestimmen von Größen im Zusammenhang mit dem Auge des Benutzers, Ableiten von biometrischen Merkmalen aus den Größen im Zusammenhang mit dem Auge des Benutzers, und Bestimmen einer Identität des Benutzers anhand der biometrischen Merkmale, aus.
  • Es kann vorgesehen sein, dass das Verfahren einen Schritt zum Triggern einer Bewegung des Auges des Benutzers umfasst. Eine Augenbewegung kann beispielsweise durch optische Stimulation getriggert werden.
  • Es kann vorgesehen sein, dass in Abhängigkeit einer, insbesondere erfolgreichen und/oder nicht erfolgreichen Authentifikation, ein Ansteuern der Vorrichtung erfolgt. Das Ansteuern der Vorrichtung umfasst beispielsweise eine normale und/oder eine benutzerspezifische Benutzung bei einer erfolgreichen Authentifikation und ein Sperren bei einer nicht erfolgreichen Authentifikation.
  • Das Verfahren zur biometrischen Benutzererkennung wird beispielsweise bei der Aufnahme einer Benutzung der Vorrichtung durch den Benutzer ausgeführt.
  • Das Bestimmen einer Identität des Benutzers anhand der biometrischen Merkmale kann vorteilhafterweise einen Abgleich der biometrischen Merkmale mit, insbesondere zuvor erfassten, Referenzdaten im Zusammenhang mit biometrischen Merkmalen eines Benutzers oder einer Mehrzahl von Benutzern umfassen. In diesem Zusammenhang kann es sich als vorteilhaft erweisen, wenn das Verfahren wenigstens einen Schritt zum Erfassen von Referenzdaten im Zusammenhang mit biometrischen Merkmalen eines Benutzers, und/oder einen Schritt zum Trainieren einer Klassifizierung zum Bestimmen einer Identität des Benutzers, umfasst.
  • Das Erfassen der Referenzdaten im Zusammenhang mit biometrischen Merkmalen erfolgt beispielsweise bei einer Einrichtung, insbesondere einer erstmaligen Inbetriebnahme, der Vorrichtung. Ergänzend oder alternativ kann das Erfassen der Referenzdaten im Zusammenhang mit biometrischen Merkmalen auch während einer Benutzung der Vorrichtung durch den Benutzer erfolgen.
  • Wenn das Bestimmen einer Identität des Benutzers anhand der biometrischen Merkmale, anhand einer Klassifizierung erfolgt, kann es sich als vorteilhaft erweisen, wenn das Verfahren einen Schritt zum Trainieren der Klassifizierung zum Bestimmen einer Identität des Benutzers umfasst. Als Trainingsdaten können die Referenzdaten verwendet werden. Das Trainieren erfolgt beispielsweise bei einer Einrichtung, insbesondere einer erstmaligen Inbetriebnahme, der Vorrichtung. Ergänzend oder alternativ kann das Trainieren auch während einer Benutzung der Vorrichtung durch den Benutzer erfolgen.
  • Weitere Ausführungsformen betreffen eine Vorrichtung, insbesondere eine Datenbrille, mit wenigstens einer Laser-/Photodioden-Einheit und wenigstens einer Recheneinrichtung zum Ausführen von Schritten des Verfahrens gemäß den beschriebenen Ausführungsformen.
  • Die Recheneinrichtung der Vorrichtung kann insbesondere dazu ausgebildet sein, einen oder mehrere der folgenden Schritte des Verfahrens auszuführen: Auswerten eines zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung; Bestimmen von Größen im Zusammenhang mit dem Auge des Benutzers, insbesondere im Zusammenhang mit einer Bewegung des Auges des Benutzers, anhand der Auswertung des zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung; Ableiten von biometrischen Merkmalen aus den Größen im Zusammenhang mit dem Auge des Benutzers, und/oder Bestimmen einer Identität des Benutzers anhand der biometrischen Merkmale.
  • Die Verwendung einer Laser-/Photodioden-Einheit, insbesondere einer ViP (VCSEL, Vertical-Cavity-Surface-Emitting-Laser, integrated photodiode), erlaubt eine kostengünstige, leichte Integration in die Vorrichtung, insbesondere im Vergleich zu VOG-Systemen.
  • Gemäß einer Ausführungsform ist die Vorrichtung dazu ausgebildet ist, eine Bildinformation in das Sichtfeld des Benutzers einzublenden. Die Bildinformation kann beispielsweise auf eine Netzhaut des Benutzers projiziert werden. Dies geschieht beispielsweise durch Einspiegelung über einen teiltransparenten Spiegel oder mittels eines Beugungsgitters in einem speziellen Brillenglas oder über eine Prismenoptik. Bei einer Datenbrille, insbesondere AR/VR Smartglasses, AR Augemented Reality, VR virtual reality, mixed reality, Smartglasses, sind solche optischen Elemente beispielsweise in das Brillenglas integriert. Gemäß weiteren Ausführungen ist die Vorrichtung beispielsweise eine Vorrichtung zur Front- und Seitenscheibenprojektion bei einem Fahrzeug, beispielsweise in einem Fahrzeuginnenraum, oder ein Display, beispielsweise ein Retina Scanner Display, auch virtuelle Netzhautanzeige oder Lichtfelddisplay genannt.
  • Über die eingeblendete Bildinformation kann gemäß dem offenbarten Verfahren insbesondere eine Augenbewegung getriggert werden, insbesondere zum Auslösen des Authentifizierungsverfahrens.
  • Weitere Ausführungsformen betreffen ein System umfassend eine Vorrichtung gemäß den beschriebenen Ausführungsformen und eine Recheneinrichtung. Die Vorrichtung und die Recheneinrichtung sind zum Ausführen von Schritten des beschriebenen Verfahrens ausgebildet. Dabei kann vorteilhaft vorgesehen sein, dass Schritte des Verfahrens wenigstens teilweise durch die Vorrichtung, insbesondere die Recheneinrichtung der Vorrichtung, und wenigstens teilweise durch die Recheneinrichtung des Systems bereitgestellt werden. Die Recheneinrichtung des Systems wird beispielsweise durch ein, insbesondere einem Benutzer der Vorrichtung zugeordnetes, Endgerät, insbesondere ein entferntes Endgerät im drahtlosen Körpernetzwerk des Benutzers, beispielsweise ein Smartphone oder eine Smartwatch oder ein Tablet, bereitgestellt. Alternativ oder ergänzend kann die Recheneinrichtung des Systems beispielsweise durch einen entfernten, insbesondere cloudbasierten, Server bereitgestellt werden.
  • Weitere Ausführungsformen sind der folgenden Beschreibung und der Zeichnung entnehmbar. In der Zeichnung zeigt:
    • 1 eine schematische Darstellung eines Ausschnitts einer Vorrichtung zur biometrischen Benutzererkennung gemäß einer Ausführungsform;
    • 2 eine schematische Darstellung eines Ausschnitts einer Vorrichtung zur biometrischen Benutzererkennung gemäß einer weiteren Ausführungsform;
    • 3 eine schematische Darstellung eines Ausschnitts einer Vorrichtung zur biometrischen Benutzererkennung gemäß einer weiteren Ausführungsform;
    • 4 eine schematische Darstellung eines Frequenzbereichsspektrums gemäß einer ersten Ausführungsform;
    • 5 eine schematische Darstellung eines Frequenzbereichsspektrums gemäß einer weiteren Ausführungsform;
    • 6 eine schematische Darstellung von Schritten eines Verfahrens zur biometrischen Benutzererkennung, und
    • 7 eine schematische Darstellung eines Systems zur biometrischen Benutzererkennung.
  • 1 zeigt einen Ausschnitt einer Vorrichtung 100. Die Vorrichtung 100 ist gemäß der dargestellten Ausführungsform eine Datenbrille. Eine Datenbrille umfasst üblicherweise zwei Brillengläser und zwei Brillenbügel, wobei gemäß 1 ein Brillenglas 110 und ein Brillenbügel 120 dargestellt sind.
  • Die Vorrichtung 100 umfasst gemäß der Darstellung mehrere Laser-/Photodioden-Einheiten 130. Es ist auch denkbar, dass die Vorrichtung 100 nur eine Laser-/Photodioden-Einheiten 130 umfasst. Eine Anzahl von wenigstens zwei Laser-/Photodioden-Einheiten 130 kann vorteilhaft sein.
  • Bei einer Laser-/Photodioden-Einheit 130 handelt es sich vorteilhafterweise um einen Oberflächenemittereinheit, die eine integrierte Photodiode oder gegebenenfalls mehrere Photodioden aufweist, die auch als auch als ViP (VCSEL, Vertical-Cavity-Surface-Emitting-Laser, integrated photodiode) bezeichnet wird. Die Laser-/Photodioden-Einheit 130 umfasst eine nicht dargestellte Ansteuerelektronik.
  • Prinzipiell kann für die Zwecke der Erfindung Laserstrahlung mit einer Wellenlänge genutzt werden, die die Linse im Auge passieren kann und dann von der Netzhaut des Auges reflektiert wird. In besonders bevorzugter Weise wird die Wellenlänge des verwendeten Laserstrahls im nahen Infrarot-Bereich gewählt. Das nahe Infrarot schließt sich an den sichtbaren roten Bereich an. Es können beispielsweise Wellenlängen aus dem Bereich von etwa 700 nm bis 1400 nm, insbesondere 780 nm bis 1040 nm, verwendet werden. Infrarote Strahlung hat allgemein den Vorteil, dass es für das menschliche Auge nicht sichtbar ist und daher die Sinneswahrnehmung am Auge nicht stört. Dabei ist es nicht schädlich für das Auge und zudem existieren bereits geeignete Laserquellen, die mit Vorteil für die Zwecke der Erfindung eingesetzt werden können. Prinzipiell können auch mehrere Wellenlängen verwendet werden, die vorzugsweise spektral nicht nah beieinanderliegen.
  • Gemäß 1 sind vier Laser-/Photodioden-Einheiten 130 an einem Gestell der Vorrichtung um das Brillenglas 110 herum angeordnet. Eine weitere Laser-/Photodioden-Einheit 130 ist an dem Brillenbügel 120 angeordnet.
  • Die Laser-/Photodioden-Einheiten 130 können auch in das Brillenglas oder in weitere Komponenten der Datenbrille, beispielsweise Nasenpads, integriert werden.
  • 2 zeigt eine weitere Darstellung der Vorrichtung 100. Weiterhin ist schematisch ein Auge 200 mit Augapfel 210 und Linse 220, die sich unterhalb der hier nicht näher dargestellten Hornhaut und der Pupille mit der umgebenden Iris befindet, angedeutet.
  • Die von einer Laser-/Photodioden-Einheit 130 erzeugte Laserstrahlung wird in Richtung des Auges ausgesandt.
  • Auf der Basis der optischen Feedback-Interferometrie kommt es durch aufgrund von Reflexion und Streuung wieder in die Laser-/Photodioden-Einheit 130 gelangte Laserstrahlung zu Intensitätsschwankungen in der Ausgangsleistung des Lasers. Diese Intensitätsschwankungen werden beispielsweise mittels der Photodiode, die in die Laser-/Photodioden-Einheit 130 integriert ist, erfasst und ausgewertet.
  • Die Auswertung erfolgt beispielsweise mittels einer schematisch angedeuteten Recheneinrichtung 140 der Vorrichtung 100.
  • 3 zeigt eine weitere Darstellung der Vorrichtung 100. Gemäß der Darstellung in 3 ist eine Laser-/Photodioden-Einheit 130 Brillenbügel angeordnet und strahlt aber zum Brillenglas hin ab.
  • Die Laser-/Photodioden-Einheit 130 kann ebenfalls verwendet werden um Bildinformationen in das Sichtfeld des Benutzers einzublenden. Die Bildinformation kann dabei direkt auf die Netzhaut projiziert werden. Bei Datenbrillen für eine sogenannte erweiterte Realität, augmented reality, AR, werden virtuelle Bildinhalte eingeblendet, die die reale Umwelt überlagern, indem die virtuellen Inhalte als visuelle Informationen in das normale Blickfeld des menschlichen Auges eingespielt werden. Dies geschieht beispielsweise durch Einspiegelung über einen teiltransparenten Spiegel oder mittels eines Beugungsgitters in einem speziellen Brillenglas oder über eine Prismenoptik. In der Regel werden diese virtuellen Abbildungen in einem festen Fokusabstand vor dem Auge eingeblendet.
  • Gemäß 3 lenkt ein in das Brillenglas eingebettetes holografisches optisches Element (HOE) 150 die Laserstrahlung zum Auge hin ab.
  • Die Laser-/Photodioden-Einheit 130 können mit einer konstanten Frequenz oder mit einer modulierten Frequenzbetrieben werden.
  • 4 zeigt eine beispielhafte Darstellung eines Frequenzbereichsspektrums 400 für den Fall, dass eine Laser-/Photodioden-Einheit 130 mit einer konstanten Frequenz betrieben wird und dass sich das Objekt, beispielsweise das Auge 200, an dem Laserstrahlung reflektiert wird, mit einer konstanten Geschwindigkeit bewegt. Dargestellt in 4 ist die Amplitude 410 über die Frequenz 420. Die Spitzenfrequenz f1 entspricht in diesem Fall der Dopplerfrequenz. In diesem Fall kann der Absolutwert des Geschwindigkeitsvektors des bewegten Objekts bestimmt werden.
  • 5 zeigt eine beispielhafte Darstellung eines Frequenzbereichsspektrums 500 für den Fall, dass eine Laser-/Photodioden-Einheit 130 mit einer modulierten Frequenz betrieben wird. Ohne Bewegung des Objekts würde sich ein Spektrum 400 wie in 4 ergeben. Bewegt sich das Objekt, beispielsweise das Auge 200, an dem Laserstrahlung reflektiert wird, wiederrum mit einer konstanten Geschwindigkeit, ergibt sich ein Spektrum wie in 5. In diesem Fall kann über die Spitzenfrequenz f1, f1' der Abstand a zwischen Laser-/Photodioden-Einheit 130 und Objekt bestimmt werden. Bei zusätzlicher Bewegung des Objekts verschiebt sich die Spitzenfrequenz f1, f1' nach oben oder unten, vgl. nach links oder nach rechts in 5. Die Verschiebungsrichtung ist abhängig von der Modulationsrampe mit der der Laser betrieben wird, aufwärts oder abwärts, und der Richtung des Geschwindigkeitsvektors mit der sich das Objekt in Bezug auf die Laser-/Photodioden-Einheit 130 bewegt, zu der Laser-/Photodioden-Einheit 130 hin oder von der Laser-/Photodioden-Einheit 130 weg. In 5 sind die beiden Spektren für fallende und steigende Modulationsrampen (links und rechts). Anhand des Abstands zwischen den Spitzenfrequenzen lassen sich Richtung und Absolutwert der Bewegung des Objekts bestimmen.
  • 6 zeigt schematisch Schritte eines Verfahrens 600 zur biometrischen Benutzererkennung. Die Schritte des Verfahrens werden beispielsweise zumindest teilweise von einer Vorrichtung 100 gemäß einer der in den 1 bis 3 dargestellten Ausführungsformen ausgeführt.
  • Das Verfahren 600 umfasst beispielsweise die folgenden Schritte:
    • einen Schritt 610 zum Aussenden von Laserstrahlung auf das Auge 200 des Benutzers;
    • einen Schritt 620 zum Erfassen und einen Schritt 630 zum Auswerten eines zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung;
    • einen Schritt 640 zum Bestimmen von Größen im Zusammenhang mit dem Auge 200 des Benutzers, insbesondere im Zusammenhang mit einer Bewegung des Auges 200 des Benutzers, anhand der Auswertung des zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung;
    • einen Schritt 650 zum Ableiten von biometrischen Merkmalen aus den Größen im Zusammenhang mit dem Auge des Benutzers, und
    • einen Schritt 660 zum Bestimmen einer Identität des Benutzers anhand der biometrischen Merkmale.
  • Der zurückgestreute und/oder reflektierte Anteils der Laserstrahlung kann auf der Basis der vorstehend beschriebenen optischen Feed-back-Interferometrie ausgewertet werden 630.
  • Die Größen im Zusammenhang mit dem Auge des Benutzers, insbesondere im Zusammenhang mit einer Bewegung des Auges des Benutzers, die anhand der Auswertung des zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung bestimmt werden 640, umfassen beispielsweise wenigstens eine oder mehrere der folgenden Größen:
    • einen Abstand, insbesondere einen Abstand und/oder Abstandsprofil zwischen der Vorrichtung und Auge, eine Geschwindigkeit, insbesondere einer Bewegung des Auges, insbesondere eine Geschwindigkeitskomponente parallel zum Laserstrahl, eine Beschleunigung, insbesondere einer Bewegung des Auges, insbesondere durch Ableitung von Geschwindigkeits-Zeitreihendaten, einen Augenrotationswinkel und/oder eine Änderung des Augenrotationswinkels, insbesondere durch Integration von Geschwindigkeits-Zeitreihendaten, und/oder ein Signal-Rausch-Verhältnis, SNR, als ein Parameter der Signalstärke. Typische Geschwindigkeiten von Bewegungen des Auges liegen im Bereich von 0-800°/s.
  • Verschiedene Geschwindigkeiten können verschiedenen Typen von Bewegungen des Auges zugeordnet werden. Dies sind beispielsweise
    • - Mikrosakkaden, auch Drift oder Tremor genannt, mit Geschwindigkeiten von 0.033°/s - 2°/s und mit einer typischen Dauer von 150 ms - 600 ms und einer Auftrittsfrequenz von > 1 Hz,
    • - Verfolgungsbewegungen, auch Smooth Pursuits genannt, mit Geschwindigkeiten von 2-75°/s, und
    • - Sakkaden mit Geschwindigkeiten bis 800°/s und mit Dauern zwischen 10 ms - 150 ms und mit einer Auftrittsfrequenz von 10 Hz - 100 Hz.
  • Neben den vorstehenden genannten Größen kann besonders vorteilhaft, insbesondere zusätzlich, die Auf- und/oder Abwärtsbewegung des Augenlids während des Blinzelns und/oder die Zeit in der das Auge geschlossen ist, bestimmt werden. Blinzeln lässt sich dabei mit typischen Geschwindigkeiten von bis zu 180 mm/s mit einer Dauer von 20 ms - 200 ms und Frequenzen von 10 Hz - 15 Hz beschreiben.
  • Die biometrischen Merkmale, die aus den Größen im Zusammenhang mit dem Auge des Benutzers abgeleitet werden 650, umfassen beispielsweise wenigstens eins oder mehrere der folgenden biometrischen Merkmale:
    • Abstand bzw. Abstandsprofil zwischen der Vorrichtung und einer Oberfläche des Auges, insbesondere die Stufe in der Augenoberfläche zwischen Sklera und Iris und/oder der Abstand zwischen Iris und Retina, eine Geschwindigkeit, insbesondere Spitzengeschwindigkeit und/oder ein Geschwindigkeitsprofil, eine Beschleunigung, insbesondere eine Spitzenbeschleunigung und/oder ein Beschleunigungsprofil, z. B. in Abhängigkeit von der Bewegungsamplitude, Augenposition, Reaktionszeit, Fixationsdauer, Fixationshäufigkeit, Verteilung der Fixation im Blickwinkel bzw. Displaykoordinatensystem, Blinzeln, Blickpfad, Blickgeste, sakkadische Bewegungen und/oder sakkadische Richtungen, insbesondere im Zusammenhang mit spezifischen Aktivitäten, wie beispielsweise Lesen, Spielen, Ansehen von Videoinhalten und/oder im Leerlauf, also ohne spezifische Aufgabe, Dauer und/oder Häufigkeit und/oder Geschwindigkeiten der Sakkaden, Amplitude der Sakkaden, insbesondere in horizontaler und vertikaler Richtung, statistische und/oder algebraische Beschreibung von Geschwindigkeits- und/oder Amplitudenkurven, beispielsweise max. Steigung bei Beschleunigung und Abbremsen, max. Amplitude, mittlere Geschwindigkeit,
    • Verhältnis von Beschleunigung bzw. Geschwindigkeit und Amplitude, abgeleitete Größen aus Fitting von „gelernten“ Verteilungen bspw. Polynomfit von Spitzenamplitudengeschwindigkeit zu Amplitude, sämtliche der genannten Größen auch Einzeln oder in sämtlichen möglichen Kombinationen. Im Zusammenhang mit dem Blinzeln können insbesondere noch folgende Größen abgeleitet werden: Dauer und/oder Häufigkeit von Blinzeln, Dauer während der das Augenlid geschlossen ist, Distanzverteilung während des Vorgangs des Lidschlusses, Amplituden und Geschwindigkeitsverteilungen während des Lidschlusses, statistischer Zusammenhang zwischen Lidschluss Geschwindigkeit und Dauer, zeitlicher Abstand zwischen mehreren Lidschlüssen, abgeleitete Größen aus Fitting von „gelernten“ Verteilungen bspw. Polynomfit von Spitzenblinkgeschwindigkeit zu Dauer des geschlossenen Auges.
  • Das Bestimmen 660 der Identität anhand der biometrischen Merkmale kann ein Klassifizieren der biometrischen Merkmale umfassen. Für die Klassifizierung wird ein Klassifikator oder eine Kombination von Klassifikatoren verwendet. Mögliche Klassifikatoren sind statistische Klassifikatoren wie Gaußsche Mischmodelle, Support Vector Machines, Random Forest Klassifizierer, oder Zeitreihenklassifikatoren wie rekurrente neuronale Netze, neuronale Netze oder histogrammbasierte Klassifikatoren. Ein Algorithmus, der ein neuronales Netz verwendet, ist beispielsweise bekannt aus EP 3 295 371 A1 .
  • Gemäß einer vorteilhaften Weiterbildung des Verfahrens kann Laserstrahlung mit einer konstanten Frequenz oder mit einer modulierten Frequenz ausgesendet werden 610.
  • Es kann auch vorteilhaft sein, dass zwischen Laserstrahlung mit einer konstanten Frequenz und Laserstrahlung mit einer modulierten Frequenz umgeschaltet wird.
  • Wenn die Vorrichtung 100 wenigstens zwei Laser-/Photodioden-Einheiten 130 umfasst, kann vorgesehen sein, dass die wenigstens zwei Laser-/Photodioden-Einheiten 130 unabhängig voneinander betrieben werden können.
  • Es kann vorgesehen sein, dass eine Authentifizierung durch Detektion einer Bewegung ausgelöst wird. Bei der Bewegung handelt es sich beispielsweise um eine natürliche, nicht stimulierte Augenbewegung. Die Detektion löst beispielsweise die Authentifizierung, insbesondere das Ausführen der Schritte 640 bis 660, Bestimmen von Größen im Zusammenhang mit dem Auge des Benutzers, Ableiten von biometrischen Merkmalen aus den Größen im Zusammenhang mit dem Auge des Benutzers, und Bestimmen einer Identität des Benutzers anhand der biometrischen Merkmale, aus.
  • Es kann vorgesehen sein, dass das Verfahren 600 einen Schritt zum Triggern einer Bewegung des Auges des Benutzers umfasst. Eine Augenbewegung kann beispielsweise durch optische Stimulation getriggert werden. Die optische Stimulation kann beispielsweise dadurch erfolgen, dass die Laser-/Photodioden-Einheit 130 verwendet wird, um Bildinformationen in das Sichtfeld des Benutzers einzublenden. Bei dieser optischen Stimulation kann es sich um spezielle Muster wie Kreise, Spiralen oder Punkte handeln, oder ein Entsperrmuster bzw. eine Blickbewegungsbahn, die der Benutzer mit seinem Blick verfolgt. Darüber hinaus können bewegliche und statische Ul-Objekte wie Schaltflächen, Schieberegler, Textfelder usw. verwendet werden, um Bewegungen auszulösen.
  • Es kann vorgesehen sein, dass in Abhängigkeit einer, insbesondere erfolgreichen und/oder nicht erfolgreichen Authentifikation, ein Ansteuern der Vorrichtung 100 erfolgt. Das Ansteuern der Vorrichtung 100 umfasst beispielsweise eine normale und/oder eine benutzerspezifische Benutzung bei einer erfolgreichen Authentifikation und ein Sperren bei einer nicht erfolgreichen Authentifikation.
  • Das Verfahren 600 zur biometrischen Benutzererkennung wird beispielsweise bei der Aufnahme einer Benutzung der Vorrichtung 100 durch den Benutzer ausgeführt.
  • Das Bestimmen 660 einer Identität des Benutzers anhand der biometrischen Merkmale kann vorteilhafterweise einen Abgleich der biometrischen Merkmale mit, insbesondere zuvor erfassten, Referenzdaten im Zusammenhang mit biometrischen Merkmalen eines Benutzers oder einer Mehrzahl von Benutzern umfassen. In diesem Zusammenhang kann es sich als vorteilhaft erweisen, wenn das Verfahren 600 wenigstens einen Schritt zum Erfassen von Referenzdaten im Zusammenhang mit biometrischen Merkmalen eines Benutzers, und/oder einen Schritt zum Trainieren einer Klassifizierung zum Bestimmen einer Identität des Benutzers, umfasst.
  • Das Erfassen der Referenzdaten im Zusammenhang mit biometrischen Merkmalen erfolgt beispielsweise bei einer Einrichtung, insbesondere einer erstmaligen Inbetriebnahme, der Vorrichtung 100. Ergänzend oder alternativ kann das Erfassen der Referenzdaten im Zusammenhang mit biometrischen Merkmalen auch während einer Benutzung der Vorrichtung 100 durch den Benutzer erfolgen.
  • Wenn das Bestimmen einer Identität des Benutzers anhand der biometrischen Merkmale, anhand einer Klassifizierung erfolgt, kann es sich als vorteilhaft erweisen, wenn das Verfahren einen Schritt zum Trainieren der Klassifizierung zum Bestimmen einer Identität des Benutzers umfasst. Als Trainingsdaten können die Referenzdaten verwendet werden. Das Trainieren erfolgt beispielsweise bei einer Einrichtung, insbesondere einer erstmaligen Inbetriebnahme, der Vorrichtung 100. Ergänzend oder alternativ kann das Trainieren auch während einer Benutzung der Vorrichtung 100 durch den Benutzer erfolgen.
  • In 7 ist ein System 700 zur biometrischen Benutzererkennung dargestellt. System 700 umfasst eine Vorrichtung 100, insbesondere gemäß den unter Bezugnahme auf die 1 bis 3 beschriebenen Ausführungsformen, und eine Recheneinrichtung 710. Die Vorrichtung 100 und die Recheneinrichtung 710 sind zum Ausführen von Schritten des beschriebenen Verfahrens 600 ausgebildet. Dabei kann vorteilhaft vorgesehen sein, dass Schritte des Verfahrens 600 wenigstens teilweise durch die Vorrichtung 100, insbesondere die Recheneinrichtung der Vorrichtung, und wenigstens teilweise durch die Recheneinrichtung 710 des Systems 700 bereitgestellt werden. Die Recheneinrichtung 710 des Systems wird beispielsweise durch ein, insbesondere einem Benutzer der Vorrichtung 100 zugeordnetes, Endgerät, insbesondere ein entferntes Endgerät im drahtlosen Körpernetzwerk des Benutzers, beispielsweise ein Smartphone oder eine Smartwatch oder ein Tablet, bereitgestellt. Alternativ oder ergänzend kann die Recheneinrichtung 710 des Systems 700 beispielsweise durch einen entfernten, insbesondere cloudbasierten, Server bereitgestellt werden. Zwischen der Vorrichtung 100 und der Recheneinrichtung 710 können Daten ausgetauscht werden. Zu diesem Zweck erweist es sich als vorteilhaft, wenn die Vorrichtung 100 eine Kommunikationseinrichtung zum Austauschen von Daten mit der Recheneinrichtung 710 umfasst.
  • Beispielsweise kann vorgesehen sein, dass die Vorrichtung 100, insbesondere die Recheneinrichtung der Vorrichtung 100, und/oder die Recheneinrichtung 710 des Systems 700einen oder mehrere der folgenden Schritte des Verfahrens 600 ausführt:
    • Auswerten 630 eines zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung;
    • Bestimmen 640 von Größen im Zusammenhang mit dem Auge 200 des Benutzers, insbesondere im Zusammenhang mit einer Bewegung des Auges 200 des Benutzers, anhand der Auswertung des zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung;
    • Ableiten 650 von biometrischen Merkmalen aus den Größen im Zusammenhang mit dem Auge 200 des Benutzers, und
    • Bestimmen 660 einer Identität des Benutzers anhand der biometrischen Merkmale.
  • Das beschriebene Verfahren 600, und/oder die beschriebene Vorrichtung 100 und/oder das beschriebene System 700 kann besonders vorteilhaft im Bereich der Nutzerinteraktion, Human Machine Interaction, HMI und/oder für eine nutzerbasierte Optimierung von projizierten Inhalten Anwendung finden. Beispielhafte HMI-Anwendungsfälle sind
    • - Bestimmen der Identität eines Nutzers zum Entsperren der Datenbrille, beispielsweise automatische Entsperren der Datenbrille beim Aufsetzen der Datenbrille, sodass eine gegebenenfalls aufwändige und/oder schwer zu realisierende Passworteingabe nicht erforderlich ist,
    • - Anzeige von personalisierten Inhalten, insbesondere einer personalisierten Startseite, und
    • - Individuelle Anpassung von Blickgesten zur Steuerung des Nutzerinterfaces.
  • Beispielhafte Anwendungsfälle zur Optimierung von projizierten Inhalten sind
    • - Individuelle Anpassung von Anzeigeeinstellungen beispielsweise Displayhelligkeit und/oder Kontrast und/oder Farben, insbesondere eine Korrektur von Farben,
    • - Individuelle Anpassung von virtuellen Inhalten beispielsweise in Bezug auf Projektionstiefe, Distanz, Position, Weißabgleich, Reduktion des Blauanteils, und/oder
    • - Korrektur der virtuellen Inhalte, insbesondere für Nutzer mit Sichtfehlern.
  • Gemäß einer vorteilhaften Weiterbildung kann sich eine Kombination mit wenigstens einem oder mehreren weiteren Sensoren als vorteilhaft erweisen. Beispielsweise kann anhand von mit den wenigstens einen weiteren Sensor erfassten Größen, das Ableiten 650 von biometrischen Merkmalen und/oder das Bestimmen 660 der Identität des verbessert werden. Ein Lichtsensor kann beispielsweise zur Reduktion von Fehlern durch Pupillenvariationen verwendet werden. Als vorteilhaft erweist sich beispielsweise die Verwendung eines Bewegungssensors, insbesondere eines Beschleunigungs- oder Gyroskopsensors, insbesondere zur Kompensation von Brillenbewegungsartefakten auf die Distanz- und Geschwindigkeitsmessung. Weiter kann der Bewegungssensor verwendet werden, um ein Aufsetzen der Brille zu erkennen und die wenigstens eine Laser-/Photodioden-Einheit 130, insbesondere aus einem Ruhemodus, Low Power Modus, aufzuwecken, insbesondere um das Verfahren 600 zu starten und die Schritte des Verfahrens 600 durchzuführen. Weiter kann durch eine Kombination von Größen, beispielsweise Distanz und/oder Geschwindigkeit, anhand der Auswertung des zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung der Laser-/Photodioden-Einheit 130 bestimmt werden können, in Kombination mit Größen des Bewegungssensors, bestimmt werden, ab wann die Datenbrille, insbesondere korrekt auf der Nase des Nutzers sitzt und somit die anhand der Auswertung des zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung bestimmten Größen für die biometrische Detektion gültig sind und verwendet werden können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2017083695 A [0002]
    • EP 3295371 A1 [0061]

Claims (12)

  1. Verfahren (600) zur biometrischen Benutzererkennung einer Vorrichtung (100) mit mindestens einer Laser-/Photodioden-Einheit (130), umfassend eine Laserlichtquelle, insbesondere eine Laserdiode, und mindestens einen der Laserlichtquelle zugeordnetem Photodetektor, insbesondere eine Photodiode, das Verfahren (600) umfassen die folgenden Schritte: Aussenden (610) von Laserstrahlung auf ein Auge (200) des Benutzers; Erfassen (620) und Auswerten (630) eines zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung; Bestimmen (640) von wenigstens einer Größe im Zusammenhang mit dem Auge (200) des Benutzers, insbesondere im Zusammenhang mit einer Bewegung des Auges (200) des Benutzers, anhand der Auswertung des zurückgestreuten und/oder reflektierten Anteils der Laserstrahlung; Ableiten (650) von wenigstens einem biometrischen Merkmal aus den Größen im Zusammenhang mit dem Auge (200) des Benutzers, und Bestimmen (660) einer Identität des Benutzers anhand des wenigstens einen biometrischen Merkmals.
  2. Verfahren (600) nach Anspruch 1, wobei die Laserstrahlung mit einer konstanten Frequenz ausgesendet wird (610) oder wobei die Laserstrahlung mit einer modulierten Frequenz ausgesendet wird (610).
  3. Verfahren (600) nach Anspruch 2, wobei zwischen Laserstrahlung mit einer konstanten Frequenz und Laserstrahlung mit einer modulierten Frequenz umgeschaltet wird.
  4. Verfahren (600) nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung (100) wenigstens zwei Laser-/Photodioden-Einheiten (130) umfasst, und wobei die wenigstens zwei Laser-/Photodioden-Einheiten (130) unabhängig voneinander betrieben werden können.
  5. Verfahren (600) nach einem der vorhergehenden Ansprüche, wobei eine Authentifizierung durch Detektion einer Bewegung ausgelöst wird.
  6. Verfahren (600) nach einem der vorhergehenden Ansprüche, wobei das Verfahren (600) einen Schritt zum Triggern einer Bewegung des Auges (200) des Benutzers umfasst.
  7. Verfahren (600) nach einem der vorhergehenden Ansprüche, wobei das Bestimmen (660) einer Identität des Benutzers anhand des wenigstens einen biometrischen Merkmals, anhand einer Klassifizierung erfolgt.
  8. Verfahren (600) nach einem der vorhergehenden Ansprüche, wobei in Abhängigkeit einer, insbesondere erfolgreichen und/oder nicht erfolgreichen Authentifikation, ein Ansteuern der Vorrichtung (100) erfolgt.
  9. Verfahren (600) nach einem der vorhergehenden Ansprüche, wobei das Verfahren wenigstens einen Schritt zum Erfassen von Referenzdaten im Zusammenhang mit wenigstens einem biometrischen Merkmal eines Benutzers, und/oder einen Schritt zum Trainieren einer Klassifizierung zum Bestimmen einer Identität des Benutzers, umfasst.
  10. Vorrichtung (100), insbesondere eine Datenbrille, mit wenigstens einer Laser-/Photodioden-Einheit (130), und wenigstens einer Recheneinrichtung (140) zum Ausführen von Schritten des Verfahrens (600) nach einem der Ansprüche 1 bis 9.
  11. Vorrichtung (100) nach Anspruch 10, wobei die Vorrichtung (100) dazu ausgebildet ist, eine Bildinformation in das Sichtfeld des Benutzers einzublenden.
  12. System (700) umfassend eine Vorrichtung (100) nach einem der Ansprüche 10 oder 11 und eine Recheneinrichtung (710) zum Ausführen von Schritten des Verfahrens (600) nach einem der Ansprüche 1 bis 9.
DE102021126907.5A 2021-10-18 2021-10-18 Vorrichtung, System und Verfahren zur biometrischen Benutzererkennung bei einer Vorrichtung Pending DE102021126907A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021126907.5A DE102021126907A1 (de) 2021-10-18 2021-10-18 Vorrichtung, System und Verfahren zur biometrischen Benutzererkennung bei einer Vorrichtung
CN202211270109.8A CN115990014A (zh) 2021-10-18 2022-10-18 用于生物测定识别装置的用户的装置、系统及方法
US17/967,932 US20230122222A1 (en) 2021-10-18 2022-10-18 Device, system, and method for biometrically identifying a user of a device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021126907.5A DE102021126907A1 (de) 2021-10-18 2021-10-18 Vorrichtung, System und Verfahren zur biometrischen Benutzererkennung bei einer Vorrichtung

Publications (1)

Publication Number Publication Date
DE102021126907A1 true DE102021126907A1 (de) 2023-04-20

Family

ID=85773243

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021126907.5A Pending DE102021126907A1 (de) 2021-10-18 2021-10-18 Vorrichtung, System und Verfahren zur biometrischen Benutzererkennung bei einer Vorrichtung

Country Status (3)

Country Link
US (1) US20230122222A1 (de)
CN (1) CN115990014A (de)
DE (1) DE102021126907A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080137916A1 (en) 2000-05-16 2008-06-12 Swisscom Mobile Ag Biometic identification and authentication method
US20160335512A1 (en) 2015-05-11 2016-11-17 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
US20170083695A1 (en) 2015-09-21 2017-03-23 The Eye Tribe Method for using eye tracking and eye biometrics for authentication
US11138301B1 (en) 2017-11-20 2021-10-05 Snap Inc. Eye scanner for user identification and security in an eyewear device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080137916A1 (en) 2000-05-16 2008-06-12 Swisscom Mobile Ag Biometic identification and authentication method
US20160335512A1 (en) 2015-05-11 2016-11-17 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
EP3295371A1 (de) 2015-05-11 2018-03-21 Magic Leap, Inc. Vorrichtungen, verfahren und systeme zur biometrischen benutzererkennung mit neuronalen netzwerken
US20170083695A1 (en) 2015-09-21 2017-03-23 The Eye Tribe Method for using eye tracking and eye biometrics for authentication
US11138301B1 (en) 2017-11-20 2021-10-05 Snap Inc. Eye scanner for user identification and security in an eyewear device

Also Published As

Publication number Publication date
CN115990014A (zh) 2023-04-21
US20230122222A1 (en) 2023-04-20

Similar Documents

Publication Publication Date Title
DE102018214637A1 (de) Verfahren zum Ermitteln einer Blickrichtung eines Auges
DE69830611T2 (de) Verfahren zur beleuchtung und bilddarstellung von augen mit brille bei anwendung von mehrfachbeleuchtungsquellen
EP1405122B1 (de) Vorrichtung zur bestimmung der orientierung eines auges
EP2582284B1 (de) Verfahren und vorrichtung zur bestimmung der augenposition
DE102016226294A1 (de) Verfahren und Vorrichtung zur Bestimmung der Brechkraft einer Linse in einem Auge und Verwendung
DE102020206822A1 (de) Verfahren zum Betreiben einer Datenbrille
DE112018005191T5 (de) System und Verfahren zur Verbesserung des Signal-Rausch-Verhältnisses bei der Objektverfolgung unter schlechten Lichtbedingungen
DE102020127593A1 (de) Blickverfolgungsanordnung
DE102021132465A1 (de) MEMS-Spiegelbasierte erweiterte Realitätsprojektion mit Eye-Tracking
DE102020206821A1 (de) Verfahren zum Ermitteln einer Blickrichtung eines Auges
WO2019011615A1 (de) Verfahren zur kalibrierung einer projektionsvorrichtung für eine datenbrille sowie projektionsvorrichtung für eine datenbrille zur durchführung eines verfahrens.
DE102020127594A1 (de) Optische anordnung einer datenbrille
DE112006003425T5 (de) Verfahren und Vorrichtung zur Intensitätssteuerung mehrerer Lichtquellen unter Verwendung einer Quellenzeitsteuerung
DE102015007485A1 (de) Verfahren und Vorrichtung zur Adaption von Bildinhalten eines Head-up-Displays auf einer Windschutzscheibe eines Fahrzeuges
WO2015165663A1 (de) 3d-laserscanner
EP4327155A1 (de) Verfahren zum erkennen von augengesten eines auges
EP3370595A2 (de) Brille mit anzeigevorrichtung und vorrichtung zur augenüberwachung
DE102021126907A1 (de) Vorrichtung, System und Verfahren zur biometrischen Benutzererkennung bei einer Vorrichtung
DE102012219433A1 (de) Elektrisches Gerät, insbesondere Telekommunikationsgerät, mit einer Projektionseinrichtung und Verfahren zum Betrieb eines elektrischen Geräts
EP1840627B1 (de) Vorrichtung und Verfahren zur Bestimmung der Orientierung eines Auges
DE102020206452A1 (de) Projektions- und Okulografievorrichtung für eine Datenbrille und Verfahren zum Betreiben einer Projektions- und Okulografievorrichtung für eine Datenbrille
DE10160843B4 (de) Biometrisches Erkennungssystem
DE102021207058A1 (de) Verfahren zur Erkennung von menschlichen Aktivitäten
DE102020123387A1 (de) Bilddetektionsvorrichtung, gepulste beleuchtungsvorrichtung und gepulstes beleuchtungsverfahren
DE102022211635A1 (de) Verfahren zum Betreiben einer Datenbrille und Datenbrille

Legal Events

Date Code Title Description
R163 Identified publications notified