DE112016006066T5 - Analyse von umgebungslicht zur blickverfolgung - Google Patents

Analyse von umgebungslicht zur blickverfolgung Download PDF

Info

Publication number
DE112016006066T5
DE112016006066T5 DE112016006066.1T DE112016006066T DE112016006066T5 DE 112016006066 T5 DE112016006066 T5 DE 112016006066T5 DE 112016006066 T DE112016006066 T DE 112016006066T DE 112016006066 T5 DE112016006066 T5 DE 112016006066T5
Authority
DE
Germany
Prior art keywords
image
computing device
mobile computing
determining
correspondence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112016006066.1T
Other languages
English (en)
Inventor
Nizan Horesh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112016006066T5 publication Critical patent/DE112016006066T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computer Hardware Design (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

Technologien zur Blickverfolgung durch Umgebungslicht beinhalten ein mobiles Rechengerät zum Erfassen eines ersten Bilds eines Benutzers des mobilen Rechengeräts durch eine erste Kamera und eines zweiten Bilds einer realen Umgebung des mobilen Rechengeräts durch eine zweite Kamera. Das mobile Rechengerät bestimmt eine physikalische Lage einer Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage des zweiten Bilds und identifiziert eine erste und eine zweite Hornhautreflexion in einem Auge des Benutzers im ersten Bild. Das mobile Rechengerät bestimmt, auf Grundlage der physikalischen Lage, eine erste Entsprechung zwischen der ersten Augenhornhautreflexion und der Lichtquelle und eine zweite Entsprechung zwischen der zweiten Augenhornhautreflexion und einem Bild, das auf einer Anzeige des mobilen Rechengeräts angezeigt wird. Ferner führt das mobile Rechengerät Blickverfolgung auf Grundlage der ersten Entsprechung und der zweiten Entsprechung aus.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNG
  • Die vorliegende Anmeldung beansprucht Priorität über die US-Gebrauchsmusteranmeldung Nr. 14/757,834 mit dem Titel „ANALYSIS OF AMBIENT LIGHT FOR GAZE TRACKING“, eingereicht am 26. Dezember 2015.
  • ALLGEMEINER STAND DER TECHNIK
  • Augenverfolgungs- und Blickverfolgungstechniken werden zum Bestimmen der Blickrichtung einer Person (d. h. der Richtung, in die die Person schaut) auf Grundlage von erfassten Bildern benutzt. Dabei kann eine breitgefächerte Gruppe von Bildanalysetechniken eingesetzt werden. Beispielsweise können in manchen Ausführungsformen Videobilder analysiert werden, um die Ausrichtung des Kopfs einer Person und/oder die relative Position der Pupille der Person zu bestimmen. Andere übliche Blickverfolgungsverfahren greifen auf die Messung von Reflexionen einer bekannten Infrarot- (IR-) Lichtquelle auf der Augenhornhaut der Person, die verfolgt wird, zurück. Derartige Techniken beinhalten im Allgemeinen eine dedizierte IR-Kamera (beispielsweise IR-Projektor und -sensor), die erhebliche Kosten und/oder eine große Stellfläche auf einem mobilen Rechengerät erfordern kann.
  • Figurenliste
  • Die hierin beschriebenen Konzepte sind beispielhaft und nichteinschränkend in den beiliegenden Figuren beschrieben. Der Einfachheit und Deutlichkeit der Darstellung halber sind in den Figuren dargestellte Elemente nicht notwendigerweise maßstabsgetreu. Wo es angebracht erschien, wurden Bezugszeichen in den Figuren wiederholt, um entsprechende oder analoge Elemente anzuzeigen. Es zeigen:
    • 1 ein vereinfachtes Blockdiagramm von mindestens einer Ausführungsform eines mobilen Rechengeräts zur Blickverfolgung durch Umgebungslicht;
    • 2 ein vereinfachtes Blockdiagramm von mindestens einer Ausführungsform einer Umgebung des mobilen Rechengeräts von 1;
    • 3 - 4 ein vereinfachtes Ablaufdiagramm von mindestens einer Ausführungsform eines Verfahrens zur Blickverfolgung durch Umgebungslicht, das durch das mobile Rechengerät von 1 ausgeführt werden kann;
    • 5 ein veranschaulichendes Bild einer realen Umgebung, das durch eine der Umgebung zugewandte Kamera des mobilen Rechengeräts von 1 erfasst ist;
    • 6 ein veranschaulichendes Bild eines Benutzers, das durch eine dem Benutzer zugewandte Kamera des mobilen Rechengeräts von 1 erfasst ist; und
    • 7 eine Nahansicht des Auges des Benutzers, die im veranschaulichenden Bild von 6 erfasst ist.
  • DETAILLIERTE BESCHREIBUNG DER ZEICHNUNGEN
  • Während die Konzepte der vorliegenden Offenbarung für verschiedene Modifikationen und alternative Ausgestaltungen empfänglich sind, sind spezifische Ausführungsformen davon beispielhaft in den Zeichnungen gezeigt und werden hierin detailliert beschrieben. Es versteht sich jedoch, dass keine Absicht besteht, die Konzepte der vorliegenden Offenbarung auf die bestimmten offenbarten Ausgestaltungen zu beschränken, sondern dass beabsichtigt ist, alle Modifikationen, Äquivalente und Alternativen abzudecken, die mit der vorliegenden Offenbarung und den beiliegenden Ansprüchen konsistent sind.
  • Bezugnahmen in der Schrift auf „eine Ausführungsform“, „eine veranschaulichende Ausführungsform“ usw. geben an, dass die beschriebene Ausführungsform ein/e besondere/s Merkmal, Struktur oder Kennzeichen enthalten kann, wobei jedoch jede Ausführungsform diese/s besondere Merkmal, Struktur oder Kennzeichen enthalten oder nicht notwendigerweise enthalten kann. Zudem beziehen sich derartige Ausdrücke nicht notwendigerweise auf dieselbe Ausführungsform. Ferner wird vorgebracht, dass, wenn ein/e besondere/s Merkmal, Struktur oder Kennzeichen in Verbindung mit einer Ausführungsform beschrieben ist, es innerhalb des Wissens des Fachmanns liegt, ein/e derartige/s Merkmal, Struktur oder Kennzeichen in Verbindung mit anderen Ausführungsformen auszuführen, ob ausdrücklich beschrieben oder nicht. Zusätzlich ist zu beachten, dass Elemente, die in einer Auflistung in der Form von „mindestens ein A, B und C“ enthalten sind, folgendes bedeuten können: (A), (B), (C), (A und B), (B und C), (A und C) oder (A, B und C). Gleicherweise können Elemente, die in der Form von „mindestens eines von A, B und C“ aufgelistet sind, (A), (B), (C), (A und B), (B und C), (A und C) oder (A, B und C) bedeuten.
  • Die offenbarten Ausführungsformen können in manchen Fällen in Hardware, Firmware, Software oder jeglicher Kombination davon implementiert sein. Die offenbarten Ausführungsformen können außerdem als Befehle implementiert sein, die auf einem oder mehreren flüchtigen oder nichtflüchtigen, maschinenlesbaren (beispielsweise computerlesbaren) Speichermedien gespeichert oder enthalten sind, welche durch einen oder mehrere Prozessoren ausgelesen und ausgeführt werden können. Ein maschinenlesbares Speichermedium kann als jegliche/r/s Speichergerät, -mechanismus oder andere physikalische Struktur zum Speichern oder Übertragen von Information in einer Form, die durch eine Maschine lesbar ist, ausgeführt sein (beispielsweise flüchtiger oder nichtflüchtiger Speicher, eine Medienplatte oder ein anderes Mediengerät).
  • In den Zeichnungen können manche strukturellen oder Verfahrensmerkmale in spezifischen Anordnungen und/oder Ordnungen gezeigt sein. Es ist jedoch zu beachten, dass derartige spezifische Anordnungen und/oder Ordnungen nicht erforderlich sein könnten. Stattdessen können derartige Merkmale in manchen Ausführungsformen auf andere Art und Weise und/oder in anderer Ordnung angeordnet sein, als in den veranschaulichenden Figuren gezeigt. Zudem soll die Einbeziehung eines strukturellen oder Verfahrensmerkmals in eine bestimmte Figur nicht bedeuten, dass ein derartiges Merkmal in allen Ausführungsformen erforderlich ist und in manchen Ausführungsformen nicht enthalten sein könnte oder mit anderen Merkmalen kombiniert sein könnte.
  • Unter Bezugnahme auf 1 ist ein mobiles Rechengerät 100 zur Blickverfolgung durch Umgebungslicht gezeigt. Im Gebrauch, wie unten detaillierter beschrieben, ist das mobile Rechengerät 100 zum Erfassen eines Bilds eines Benutzers des mobilen Rechengeräts 100 und eines Bilds einer realen Umgebung des mobilen Rechengeräts 100 konfiguriert. Das mobile Rechengerät 100 analysiert ferner das erfasste Bild der realen Umgebung, um den physischen Standort einer Lichtquelle zu bestimmen, die Umgebungslicht aussendet, welches für das mobile Rechengerät 100 sichtbar ist (beispielsweise nicht verdeckt und stark genug). Ferner analysiert das mobile Rechengerät 100 in der veranschaulichenden Ausführungsform das erfasste Bild des Benutzers, um Hornhautreflexionen (d. h. Schimmern) in einem Auge des Benutzers zu identifizieren und zu bestimmen, welcher Lichtquelle jede Hornhautreflexion entspricht (beispielsweise eine Reflexion einer Lichtquelle, die im realen Bild erfasst ist, eine Reflexion eines Bilds, das auf einer Anzeige des mobilen Rechengeräts 100 angezeigt ist, usw.), und führt Blickverfolgung auf Grundlage dieser Bestimmungen aus.
  • Das mobile Rechengerät 100 kann als jegliche Art von Rechengerät ausgeführt sein, das zum Ausführen der hierin beschriebenen Funktionen imstande ist. Beispielsweise kann das mobile Rechengerät 100 als Smartphone, Mobiltelefon, tragbares Rechengerät, Personal Digital Assistant, mobiles Internetgerät, Tablet-Computer, Netbook, Notebook, Ultrabook™, Laptop-Computer und/oder jegliches andere mobile Rechen-/Kommunikationsgerät ausgeführt sein. Obgleich das mobile Rechengerät 100 hierin als mobil in der veranschaulichenden Ausführungsform beschrieben ist, ist zu beachten, dass das mobile Rechengerät 100 in anderen Ausführungsformen als unbewegliches Rechengerät (beispielsweise Desktop-Computer) ausgeführt sein kann. Wie in 1 gezeigt, enthält das mobile Rechengerät 100 einen Prozessor 110, ein Eingabe/Ausgabe- („E/A-“) Subsystem 112, einen Speicher 114, einen Datenspeicher 116, Kommunikationsschaltungen 118, ein Kamerasystem 120 und eine Anzeige 122. Ferner kann das mobile Rechengerät 100 in manchen Ausführungsformen einen oder mehrere Sensoren 124 enthalten. Natürlich kann das mobile Rechengerät 100 in anderen Ausführungsformen andere oder zusätzliche Komponenten enthalten, wie etwa jene, die typischerweise in einem typischen Rechengerät zu finden sind (beispielsweise verschiedene Eingabe/Ausgabegeräte und/oder andere Komponenten). Zudem können in manchen Ausführungsformen eine oder mehrere der veranschaulichenden Komponenten in einer anderen Komponente integriert sein oder anderweitig einen Abschnitt davon ausbilden. Beispielsweise kann der Speicher 114 oder ein Abschnitt davon in manchen Ausführungsformen im Prozessor 110 eingegliedert sein.
  • Der Prozessor 110 kann als jegliche Art von Prozessor ausgeführt sein, der zum Ausführen der hierin beschriebenen Funktionen imstande ist. Beispielsweise kann der Prozessor 110 als Einzel- oder Mehrkernprozessor(en), Digitalsignalprozessor, Mikrosteuerung oder anderer Prozessor oder Verarbeitungs-/Steuerschaltung ausgeführt sein. Gleicherweise kann der Speicher 114 als jegliche Art von flüchtigem oder nichtflüchtigem Speicher oder Datenspeicher ausgeführt sein, der zum Ausführen der hierin beschriebenen Funktionen imstande ist. Im Gebrauch kann der Speicher 114 verschiedene Daten und Software speichern, die während des Betriebs des mobilen Rechengeräts 100 benutzt werden, wie etwa Betriebssysteme, Anwendungen, Programme, Bibliotheken und Treiber. Der Speicher 114 ist kommunikativ an den Prozessor 110 über das E/A-Subsystem 112 gekoppelt, das als Schaltungen und/oder Komponenten zum Ermöglichen von Ein-/Ausgabevorgängen mit dem Prozessor 110, dem Speicher 114 und anderen Komponenten des mobilen Rechengeräts 100 ausgeführt sein kann. Beispielsweise kann das E/A-Subsystem 112 als Speichersteuerungshubs, Ein-/Ausgabesteuerhubs, Firmware-Geräte, Kommunikationsverknüpfungen (d. h. Punkt-zu-Punkt-Verknüpfungen, Busverknüpfungen, Drähte, Kabel, Lichtleiter, Leiterplattenbahnen usw.) und/oder andere Komponenten und Subsysteme zum Ermöglichen der Ein-/Ausgabevorgänge ausgeführt sein oder diese enthalten. In manchen Ausführungsformen kann das E/A-Subsystem 112 einen Abschnitt eines System-on-a-Chip (SoC) ausbilden und zusammen mit dem Prozessor 110, dem Speicher 114 und anderen Komponenten des mobilen Rechengeräts 100 auf einem einzelnen integrierten Schaltungschip eingegliedert sein.
  • Der Datenspeicher 116 kann als jegliche Art von Gerät oder Geräten ausgeführt sein, das/die zum kurzfristigen oder langfristigen Speichern von Daten konfiguriert ist/sind, wie etwa beispielsweise Speichergeräte und -schaltungen, Speicherkarten, Festplattenlaufwerke, Festkörperlaufwerke oder andere Datenspeichergeräte. Der Datenspeicher 116 und/oder der Speicher 114 können verschiedene Daten während des Betriebs des mobilen Rechengeräts 100 speichern, wie hierin beschrieben.
  • Die Kommunikationsschaltungen 118 können als jegliche/s Schaltung, Gerät oder Zusammenstellung davon ausgeführt sein, die/das zum Ermöglichen von Kommunikationen zwischen dem mobilen Rechengerät 100 und anderen entfernten Geräten über ein Netzwerk (nicht gezeigt) imstande ist. Beispielsweise kann das mobile Rechengerät 100 in manchen Ausführungsformen eine oder mehrere der hierin beschriebenen Funktionen auf ein entlegenes Rechengerät abladen. Die Kommunikationsschaltungen 118 können zum Verwenden von einer oder mehreren Kommunikationstechnologien (beispielsweise verdrahtete oder drahtlose Kommunikationen) und zugehörigen Protokollen (beispielsweise Ethernet, Bluetooth®, Wi-Fi®, WiMAX, LTE, 5G usw.) zum Durchführen derartiger Kommunikation konfiguriert sein.
  • Das Kamerasystem 120 enthält mehrere Kameras, die zum Erfassen von Bildern oder Video (d. h. Zusammenstellungen von Bildern oder Frames) konfiguriert sind und zum Ausführen der hierin beschriebenen Funktionen imstande sind. Es ist zu beachten, dass jede der Kameras des Kamerasystems 120 als jegliches periphere oder integrierte Gerät ausgeführt sein kann, das zum Erfassen von Bildern geeignet ist, wie etwa eine Standbildkamera, eine Videokamera oder ein anderes Gerät, das zum Erfassen von Video und/oder Bildern imstande ist. In der veranschaulichenden Ausführungsform enthält das Kamerasystem 120 eine dem Benutzer zugewandte Kamera 126 und eine der Umgebung zugewandte Kamera 128. Abhängig von der bestimmten Ausführungsform kann jede der dem Benutzer zugewandten Kamera 126, der Umgebung zugewandten Kamera 128 und/oder andere Kameras des Kamerasystems 120 als eine zweidimensionale (2D-) Kamera (beispielsweise eine RGB-Kamera) oder eine dreidimensionale (3D-) Kamera ausgeführt sein. Derartige 3D-Kameras beinhalten beispielsweise Tiefenkameras, Bifokalkameras und/oder Kameras, die ansonsten zum Erzeugen eines Tiefenbilds, Kanals oder Stroms imstande sind. In einer anderen Ausführungsform enthalten eine oder mehrere der Kameras des Kamerasystems 120 mindestens zwei Linsen und entsprechende Sensoren, die zum Erfassen von Bildern aus mindestens zwei Blickwinkeln einer Szene konfiguriert sind (beispielsweise eine Stereokamera).
  • Wie unten detaillierter beschrieben, ist die dem Benutzer zugewandte Kamera 126 zum Erfassen von Bildern des Benutzers des mobilen Rechengeräts 100 konfiguriert. Insbesondere erfasst die dem Benutzer zugewandte Kamera 126 Bilder des Gesichts des Benutzers, die analysiert werden können, um die Lage des Auges (der Augen) des Benutzers bezüglich des mobilen Rechengeräts 100 (beispielsweise bezüglich der dem Benutzer zugewandte Kamera 126, bezüglich der Anzeige 122 und/oder eines anderen Referenzpunkts des mobilen Rechengeräts 100) zu bestimmen. Die der Umgebung zugewandte Kamera 128 erfasst Bilder der realen Umgebung des mobilen Rechengeräts 100. In der veranschaulichenden Ausführungsform sind die dem Benutzer zugewandte Kamera 126 und die der Umgebung zugewandte Kamera 128 auf gegenüberliegenden Seiten des mobilen Rechengeräts 100 angeordnet und weisen daher Sichtfelder in entgegengesetzten Richtungen auf. Insbesondere ist in der veranschaulichenden Ausführungsform die dem Benutzer zugewandte Kamera 126 auf derselben Seite des mobilen Rechengeräts 100 wie die Anzeige 122, sodass die dem Benutzer zugewandte Kamera 126 Bilder des Benutzers erfassen kann, während er die Anzeige 122 sieht und ein angezeigtes Bild im Auge des Benutzers reflektiert sein kann.
  • Die Anzeige 122 des mobilen Rechengeräts 100 kann als jegliche Art von Anzeige ausgeführt sein, auf der einem Benutzer des mobilen Rechengeräts 100 Informationen angezeigt werden können. Ferner kann die Anzeige 122 als jegliche geeignete Anzeigentechnologie ausgeführt sein oder andernfalls solche verwenden, darunter beispielsweise eine Flüssigkristallanzeige (LCD), eine Leuchtdioden- (LED-) Anzeige, eine Kathodenstrahlröhren- (CRT-) Anzeige, eine Plasmaanzeige, eine Touchscreen-Anzeige und/oder eine andere Anzeigentechnologie. Auch wenn in der veranschaulichenden Ausführungsform von 1 nur eine Anzeige 122 gezeigt ist, kann das mobile Rechengerät 100 in anderen Ausführungsformen mehrere Anzeigen 122 enthalten.
  • Wie in 1 gezeigt, kann das mobile Rechengerät 100 einen oder mehrere Sensoren 124 enthalten, die zum Erzeugen von Daten/Signalen konfiguriert sind, welche eine Umgebung oder einen Kontext des mobilen Rechengeräts 100 und/oder Benutzer des mobilen Rechengeräts 100 anzeigen. In verschiedenen Ausführungsformen können die Sensoren 124 beispielsweise als Trägheitssensoren, Positionssensoren, Ortsbestimmungssensoren, Näherungssensoren, optische Sensoren, Lichtsensoren, Audiosensoren, Temperatursensoren, Bewegungssensoren, Piezoelektriksensoren und/oder andere Arten von Sensoren ausgeführt sein oder diese andernfalls beinhalten. Natürlich kann das mobile Rechengerät 100 außerdem Komponenten und/oder Geräte enthalten, die zum Ermöglichen der Benutzung des Sensors (der Sensoren) 124 konfiguriert sind.
  • Unter Bezugnahme auf 2 stellt das mobile Rechengerät 100 eine Umgebung 200 zur Blickverfolgung durch Umgebungslicht her. Die veranschaulichende Umgebung 200 enthält ein Lichtanalysemodul 202, ein Augenanalysemodul 204, ein Blickverfolgungsmodul 206 und ein Anzeigemodul 208. Zudem enthält das Augenanalysemodul 204 in der veranschaulichenden Ausführungsform ein Reflexionsauffindungsmodul 210 und ein Pupillenauffindungsmodul 212. Die verschiedenen Module der Umgebung 200 können als Hardware, Software, Firmware oder eine Kombination davon ausgeführt sein. Beispielsweise können die verschiedenen Module, Logik und andere Komponenten der Umgebung 200 einen Abschnitt des Prozessors 110 oder anderer Hardwarekomponenten des mobilen Rechengeräts 100 ausbilden oder anderweitig durch diese hergestellt sein. Von daher können ein oder mehrere der Module der Umgebung 200 in manchen Ausführungsformen als Schaltungen oder Zusammenstellung von elektrischen Geräten (beispielsweise Lichtanalyseschaltungen, Augenanalyseschaltungen, Blickverfolgungsschaltungen, Anzeigenschaltungen, Reflexionsauffindungsschaltungen und/oder Pupillenauffindungsschaltungen) ausgeführt sein. Zudem können eines oder mehrere der veranschaulichenden Module in manchen Ausführungsformen einen Abschnitt eines anderen Moduls ausbilden, und/oder eines oder mehrere der veranschaulichenden Module können unabhängig voneinander sein.
  • Das Lichtanalysemodul 202 ist dazu konfiguriert, ein oder mehrere Bilder der realen Umgebung, die durch die der Umgebung zugewandten Kamera 128 erfasst werden, zu analysieren, um die physikalische Lage von einer oder mehreren Lichtquellen (beispielsweise eine Lampe, ein Deckenlicht, ein Fernseher, eine Anzeige usw.), die Umgebungslicht aussendet, bezüglich des mobilen Rechengeräts 100 zu bestimmen. Wie unten beschrieben kann das Lichtanalysemodul 202 dabei die Bildlage (beispielsweise Pixel/Bereich in einem erfassten Bild) der einen oder mehreren Lichtquellen im erfassten Bild bestimmen und die Richtung der Lichtquelle(n) bezüglich des mobilen Rechengeräts 100 auf Grundlage der Bildlage bestimmen. Beispielsweise kann das Lichtanalysemodul 202 in manchen Ausführungsformen einen Bereich (Bereiche) des erfassten Bilds mit hohen Stärke- und/oder hohen Kontrastpixelwerten bezüglich der umgebenden Bildbereiche identifizieren. Wie unten detaillierter beschrieben, kann das Lichtanalysemodul 202 mehrfache Bilder derselben Lichtquelle (beispielsweise aus verschiedenen Perspektiven) analysieren und/oder Triangulationstechniken nutzen, um die physikalische Lage dieser Lichtquelle bezüglich des mobilen Rechengeräts 100 zu bestimmen.
  • Das Augenanalysemodul 204 ist zum Analysieren von einem oder mehreren Bildern des Benutzers konfiguriert, die durch die dem Benutzer zugewandte Kamera 126 erfasst werden. Wie oben angegeben, enthält das Augenanalysemodul 204 in der veranschaulichenden Ausführungsform das Reflexionsauffindungsmodul 210 und das Pupillenauffindungsmodul 212. Das Reflexionsauffindungsmodul 210 ist zum Analysieren eines erfassten Bilds des Benutzers zum Identifizieren des Auges des Benutzers im erfassten Bild und insbesondere zum Identifizieren der Hornhautreflexionen im Auge des Benutzers konfiguriert. Beispielsweise kann das Reflexionsauffindungsmodul 210 die Bildlage im erfassten Bild bestimmen, in der Reflexionen des Umgebungslichts von der Lichtquelle (den Lichtquellen) und/oder angezeigte Bilder auf der Anzeige 122 auf der Augenhornhaut des Benutzers sichtbar sind. Wie hierin beschrieben, können die Hornhautreflexionen in manchen Ausführungsformen als Bereiche des erfassten Bilds mit hohen Stärke- und/oder hohen Kontrastpixelwerten bezüglich umgebender Bildbereiche identifiziert werden. Ferner ist das Reflexionsauffindungsmodul 210 in der veranschaulichenden Ausführungsform zum Bestimmen konfiguriert, welcher Lichtquelle jede Hornhautreflexion entspricht (beispielsweise eine Reflexion einer Lichtquelle, die im realen Bild erfasst ist, eine Reflexion eines Bilds, das auf der Anzeige 122 angezeigt ist, usw.). In manchen Ausführungsformen kann das Reflexionsauffindungsmodul 210 dazu eine oder mehrere der Hornhautreflexionen mit der Lichtquelle oder dem angezeigten Bild auf Grundlage bekannter Kennzeichen der Lichtquelle oder des erfassten Bilds (beispielsweise Größe, Farbe, Form usw.) abgleichen. Das Pupillenauffindungsmodul 212 ist zum Analysieren des Bilds des Auges des Benutzers konfiguriert, um die Bildlage der Pupille des Benutzers oder insbesondere des Rands der Pupille des Benutzers zu bestimmen.
  • Das Blickverfolgungsmodul 206 ist zum Ausführen von Blickverfolgung (d. h. Überwachen der Blickrichtung des Benutzers) auf Grundlage der bestimmten Entsprechungen konfiguriert. In manchen Ausführungsformen basiert die Blickverfolgung ferner auf dem Rand der Pupille des Benutzers. Es ist zu beachten, dass das Blickverfolgungsmodul 206 jegliche geeigneten Techniken, Algorithmen und/oder Mechanismen zum Ausführen von Blickverfolgung nutzen kann, die mit den hierin beschriebenen Techniken konsistent sind.
  • Das Anzeigemodul 208 gibt Bilder auf der Anzeige 122 für den Benutzer des mobilen Rechengeräts 100 zur Ansicht wieder. In manchen Ausführungsformen kann die Anzeige 122 als zusätzliche Lichtquelle zum Durchführen der hierin beschriebenen Analyse benutzt werden. Ferner kann in manchen Ausführungsformen die relative Stärke des (der) angezeigten Bilds (Bilder) im Voraus berechnet oder bestimmt sein, um die Hornhautreflexionen auf dem Auge des Benutzers zu unterscheiden und die richtigen Entsprechungen zwischen den Reflexionen und den Lichtquellen zu bestimmen. Beispielsweise würde ein blaues Licht mit hoher Stärke, das auf der Anzeige 122 angezeigt ist, gleicherweise auf der Augenhornhaut des Benutzers reflektiert werden (d. h. als blaues Licht mit hoher Stärke).
  • Unter Bezugnahme auf 3 kann das mobile Rechengerät 100 ein Verfahren 300 zur Blickverfolgung durch Umgebungslicht ausführen. Das veranschaulichende Verfahren 300 beginnt mit Block 302, wobei das mobile Rechengerät 100 mehrere Bilder mit dem Kamerasystem 120 erfasst. Dabei erfasst das mobile Rechengerät 100 in Block 304 ein oder mehrere Bilder der realen Umgebung mit der der Umgebung zugewandten Kamera 128. Wie hierin beschrieben kann die reale Umgebung eine oder mehrere Umgebungslichtquellen enthalten, die für das mobile Rechengerät 100 sichtbar sind und zur Blickverfolgung benutzt werden können. Beispielsweise stellt, wie in 5 gezeigt, ein veranschaulichendes erfasstes Bild 500 der realen Umgebung eine Lichtquelle 502 dar. Wie unten beschrieben kann das mobile Rechengerät 100 in manchen Ausführungsformen mehrere Bilder der realen Umgebung (beispielsweise mit derselben Kamera 128 oder mehreren Kameras 128) zur Analyse beim Bestimmen der physikalischen Lage der Lichtquelle (beispielsweise der Lichtquelle 502) bezüglich des mobilen Rechengeräts 100 erfassen. In Block 306 erfasst das mobile Rechengerät 100 ein oder mehrere Bilder des Gesichts des Benutzers mit der dem Benutzer zugewandten Kamera 126 (siehe beispielsweise ein veranschaulichendes erfasstes Bild 600, wie in 6 gezeigt).
  • In Block 308 analysiert das mobile Rechengerät 100 das Bild der realen Umgebung, um eine Lichtquelle im erfassten Bild und die Richtung der Lichtquelle bezüglich des mobilen Rechengeräts 100 (beispielsweise bezüglich eines bestimmten Referenzpunkts des mobilen Rechengeräts 100) zu identifizieren. Dabei kann das mobile Rechengerät 100 in Block 310 die Lichtquelle als einen Bereich des erfassten Bilds mit hohen Stärke- und/oder hohen Kontrastpixelwerten bezüglich umgebenden Bildbereichen identifizieren. Beispielsweise kann eine Lichtquelle, die weißes Licht aussendet, als ein heller weißer Bereich im erfassten Bild erscheinen. In manchen Ausführungsformen kann das mobile Rechengerät 100 eine oder mehrere Kantenerkennungs- und/oder Bildsegmentierungstechniken zum Identifizieren der Lichtquelle nutzen (beispielsweise Sobel-Filter, Canny-Kantenerkennung, Pyramidensegmentierung usw.). Es ist zu beachten, dass das mobile Rechengerät 100 jegliche geeigneten Techniken, Algorithmen und/oder Mechanismen zum Bestimmen der Richtung der Lichtquelle bezüglich des mobilen Rechengeräts 100 auf Grundlage der identifizierten Bildlage der Lichtquelle im erfassten Bild nutzen kann. Beispielsweise kann das mobile Rechengerät 100 in manchen Ausführungsformen gespeicherte Koordinateninformation, Winkelinformation und/oder andere relevante Information bezüglich des Kamerasystems 120 des mobilen Rechengeräts 100 wirksam einsetzen.
  • In Block 312 bestimmt das mobile Rechengerät 100 die physikalische Lage der Lichtquelle bezüglich des mobilen Rechengeräts 100 (oder eines anderen Referenzpunkts). Es ist zu beachten, dass das mobile Rechengerät 100 dazu jegliche geeigneten Techniken nutzen kann. Beispielsweise kann das mobile Rechengerät 100 in Block 314 die Lage der Lichtquelle auf Grundlage von Triangulation über mehrere Bilder der realen Umgebung, die die bestimmte Lichtquelle enthalten, bestimmen. Insbesondere kann das mobile Rechengerät 100 in Block 316 die physikalische Lage auf Grundlage von Bildern der Lichtquelle, die durch mehrere, der Umgebung zugewandte Kameras 128 erfasst werden, oder auf Grundlage von Bildern der Lichtquelle, die durch mehrere Linsen derselben, der Umgebung zugewandten Kamera 128 (beispielsweise eine 3D- oder Stereokamera) erfasst werden, bestimmen. In Block 318 kann das mobile Rechengerät 100 die physikalische Lage auf Grundlage von mehreren Bildern der Lichtquellen, die durch dieselbe, der Umgebung zugewandte Kamera 128 (oder mehreren, der Umgebung zugewandten Kameras 128) an verschiedenen Positionen bezüglich der Lichtquelle erfasst werden (beispielsweise zu verschiedenen Zeitpunkten erfasst), bestimmen. Beispielsweise kann die der Umgebung zugewandte Kamera 128 in manchen Ausführungsformen als Videokamera ausgeführt sein, und Bewegung der Kamera 128 kann geschätzt werden (beispielsweise aus dem Video-Stream oder Trägheitssensoren), um Triangulation über Frames auszuführen, die zu verschiedenen Zeitpunkten und in verschiedenen Lagen des mobilen Rechengeräts 100 erfasst wurden. Anders gesagt kann das mobile Rechengerät 100 die physikalische Lage der Lichtquelle auf Grundlage der Richtung der Lichtquelle bezüglich zweier verschiedener Referenzpunkte des mobilen Rechengeräts 100 bestimmen (beispielsweise über Triangulation). In anderen Ausführungsformen kann das mobile Rechengerät 100 in Block 320 den Abstand der Lichtquelle vom mobilen Rechengerät 100 als vordefinierten Abstand (beispielsweise unendlich, ein beliebig großer Abstand usw.) annähern. Es ist zu beachten, dass in manchen Ausführungsformen Abstände, die einen Schwellenabstand (beispielsweise zwei Meter) überschreiten, als der vordefinierte Abstand eingeschätzt werden können, ohne erheblichen Genauigkeitsverlust bei der Blickverfolgung zu erfahren.
  • In manchen Ausführungsformen kann das mobile Rechengerät 100 mehrere Umgebungslichtquellen zum Ausführen von Blickverfolgung nutzen. In derartigen Ausführungsformen kann das mobile Rechengerät 100 in Block 322 bestimmen, ob es eine weitere Lichtquelle im erfassten Bild (in den erfassten Bildern) der realen Umgebung erfasst. Falls ja, leitet das Verfahren 300 zu Block 308 zum Analysieren des Bilds (der Bilder) zurück. Andernfalls leitet das Verfahren 300 zu Block 324 von 4 weiter, in dem das mobile Rechengerät 100 ein Bild bestimmen kann, das auf der Anzeige 122 zu der Zeit angezeigt wurde, als das Bild des Benutzers aufgenommen wurde. Beispielsweise kann die Anzeige 122 in manchen Ausführungsformen eine Anzeigensteuerung enthalten, die verschiedene Kennzeichen von angezeigten Bildern und/oder der angezeigten Bilder selbst verfolgt, welche für verschiedene Analysen, wie hierin beschrieben, benutzt werden können (beispielsweise Abgleichen von Augenhornhautreflexionen an der entsprechenden Lichtquelle).
  • In Block 326 analysiert das mobile Rechengerät 100 das erfasste Bild des Benutzers (beispielsweise das Bild 600 von 6), um die Hornhautreflexionen im Auge des Benutzers zu lokalisieren (beispielsweise die Reflexionen der Lichtquelle(n) und/oder der Bilder, die auf der Anzeige 122 vom Auge des Benutzers gezeigt sind). Es ist zu beachten, dass das mobile Rechengerät 100 jegliche geeigneten Bildanalysetechniken, -algorithmen, -filter und/oder -mechanismen zum Lokalisieren der Augenhornhautreflexionen, Abgleichen der Augenhornhautreflexionen mit den Lichtquellen und/oder Ausführen von anderen, hierin beschriebenen Analysen nutzen kann. In Block 328 kann das mobile Rechengerät 100 das Auge des Benutzers im erfassten Bild identifizieren, beispielsweise um den Bereich des Bilds zu reduzieren, der zum Analysieren für Schimmeranalyse und Blickverfolgung erforderlich ist. Obgleich die Techniken hierin unter Bezugnahme auf die Analyse eines einzelnen Auges des Benutzers beschrieben sind, ist zu beachten, dass in manchen Ausführungsformen beide Augen des Benutzers analysiert werden können. In manchen Ausführungsformen kann das mobile Rechengerät 100 in Block 330 die Hornhautreflexionen auf dem Auge des Benutzers als Bereiche des erfassten Bilds mit hohen Stärke- und/oder hohen Kontrastpixelwerten bezüglich umgebender Bildbereiche identifizieren.
  • In Block 332 kann das mobile Rechengerät 100 bestimmen, welcher Lichtquelle jede Hornhautreflexion auf dem Auge des Benutzers entspricht (beispielsweise eine Reflexion einer Lichtquelle, die im realen Bild erfasst ist, eine Reflexion eines Bilds, das auf der Anzeige 122 angezeigt ist, usw.), auf Grundlage der Reflexionskennzeichen. In manchen Ausführungsformen kann das mobile Rechengerät 100 jede Augenhornhautreflexion mit der Quelle der Reflexion auf Grundlage der Lage, Größe, Farbe, Form und/oder anderen Kennzeichen der Reflexion abgleichen. Beispielsweise zeigt, wie in 7 gezeigt, das Auge 700 des Benutzers, das im veranschaulichenden Bild 600 (siehe 6) des Benutzers erfasst ist, zwei Augenhornhautreflexionen: eine Augenhornhautreflexion 702 der Lichtquelle 502 in der realen Umgebung des mobilen Rechengeräts 100 (siehe 5) und eine Augenhornhautreflexion 704 der Anzeige 122 des mobilen Rechengeräts 100. Es ist zu beachten, dass das mobile Rechengerät 100 jegliche geeigneten Kennzeichen der Augenhornhautreflexionen und/oder andere bekannte Information zum Unterscheiden der Augenhornhautreflexionen voneinander und zum Bestimmen der Lichtquelle, der sie entsprechen, nutzen kann. Beispielsweise ist es in zahlreichen Ausführungsformen wahrscheinlich, dass die Reflexion von der Anzeige 122 auf oder nahe der Pupille des Benutzers erscheint, da sie direkt vor den Benutzer gehalten wird, während es wahrscheinlich ist, dass andere Umgebungslichtquellen auf der Peripherie des Auges des Benutzers erscheinen, da sie andernfalls beispielsweise durch das mobile Rechengerät 100 verdeckt werden. Ferner weist, wie oben angegeben, eine Augenhornhautreflexion des Bilds, das auf der Anzeige 122 gezeigt ist, ähnliche Kennzeichen wie das angezeigte Bild selbst auf (beispielsweise eine ähnliche Form und Farbe).
  • In Block 334 analysiert das mobile Rechengerät 100 das erfasste Bild des Auges des Benutzers, um die Bildlage der Pupille des Benutzers oder insbesondere des Rands der Pupille des Benutzers (beispielsweise den Rand 706, wie in 7 gezeigt) zu bestimmen. Das mobile Rechengerät 100 kann jegliche geeigneten Bildanalysetechniken dazu einsetzen. Ferner ist zu beachten, dass die Identifikation der Pupille des Benutzers unabhängig von den hierin beschriebenen Schimmeranalysetechniken sein kann und daher gleichzeitig mit, vor oder anschließend an derartige Techniken stattfinden kann. In Block 336 führt das mobile Rechengerät 100 Blickverfolgung aus (d. h. überwacht die Blickrichtung des Benutzers), auf Grundlage der bestimmten Entsprechungen zwischen Lichtquellen und Augenhornhautreflexionen und des identifizierten Rands der Pupille des Benutzers. Es ist zu beachten, dass die Blickverfolgung auf jeglichen geeigneten Techniken, Algorithmen und/oder Mechanismen basieren kann, die mit den hierin beschriebenen Techniken konsistent sind.
  • In Block 338 bestimmt das mobile Rechengerät 100, ob die Blickverfolgung fortgesetzt werden soll. Falls ja, leitet das Verfahren 300 zu Block 302 von 3 zurück, in dem das mobile Rechengerät 100 mit dem Kamerasystem 120 einen weiteren Satz von Bildern erfasst. Anders gesagt kann das mobile Rechengerät 100 beim Ausführen der Blickverfolgung wiederholt die Lage der Lichtquellen bezüglich des mobilen Rechengeräts 100 identifizieren (beispielsweise wenn sich das mobile Rechengerät 100 und/oder die Lichtquellen bewegen) und die Augenhornhautreflexionen identifizieren, die diesen Lichtquellen entsprechen.
  • BEISPIELE
  • Veranschaulichende Beispiele der hierin offenbarten Technologien sind untenstehend bereitgestellt. Eine Ausführungsform der Technologien kann ein beliebiges oder mehrere und jegliche Kombination der unten beschriebenen Beispiele beinhalten.
  • Beispiel 1 beinhaltet ein mobiles Rechengerät zur Blickverfolgung durch Umgebungslicht, wobei das mobile Rechengerät eine Anzeige, ein Kamerasystem, das eine erste Kamera und eine zweite Kamera aufweist, wobei das Kamerasystem zum Erfassen von (i) einem ersten Bild eines Benutzers des mobilen Rechengeräts mit der ersten Kamera und (ii) einem zweiten Bild einer realen Umgebung des mobilen Rechengeräts mit der zweiten Kamera dient, ein Lichtanalysemodul zum Bestimmen einer physikalischen Lage einer Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage des zweiten Bilds, ein Augenanalysemodul zum (i) Identifizieren einer ersten Augenhornhautreflexion und einer zweiten Augenhornhautreflexion in einem Auge des Benutzers und (ii) Bestimmen, auf Grundlage der physikalischen Lage, einer ersten Entsprechung zwischen der ersten Augenhornhautreflexion und der Lichtquelle und einer zweiten Entsprechung zwischen der zweiten Augenhornhautreflexion und einem Bild, das auf der Anzeige angezeigt ist, ein Blickverfolgungsmodul zum Ausführen von Blickverfolgung auf Grundlage der ersten Entsprechung und der zweiten Entsprechung aufweist.
  • Beispiel 2 beinhaltet den Gegenstand von Beispiel 1, wobei das Lichtanalysemodul zum (i) Analysieren des zweiten Bilds zum Bestimmen einer Bildlage der Lichtquelle, die im zweiten Bild erfasst ist, und (ii) Bestimmen einer Richtung der Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage der Bildlage dient; und wobei das Bestimmen der physikalischen Lage der Lichtquelle das Bestimmen der physikalischen Lage auf Grundlage der bestimmten Richtung aufweist.
  • Beispiel 3 beinhaltet den Gegenstand von jeglichem der Beispiele 1 und 2, wobei das Analysieren des zweiten Bilds das Identifizieren eines Bereichs des zweiten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des zweiten Bilds aufweist.
  • Beispiel 4 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 3, wobei das Bestimmen der physikalischen Lage das Bestimmen der physikalischen Lage der Lichtquelle auf Grundlage des zweiten Bilds und eines dritten Bilds der realen Umgebung aufweist, welches die Lichtquelle enthält.
  • Beispiel 5 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 4, wobei das Bestimmen der physikalischen Lage das Bestimmen eines Abstands der Lichtquelle vom mobilen Rechengerät durch Ausführen von Triangulation auf Grundlage des zweiten Bilds und des dritten Bilds aufweist.
  • Beispiel 6 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 5, wobei das Bestimmen der physikalischen Lage das Annähern eines Abstands der Lichtquelle vom mobilen Rechengerät an einen vordefinierten Abstand aufweist.
  • Beispiel 7 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 6, wobei das Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion das Analysieren des ersten Bilds zum Identifizieren des Auges des Benutzers aufweist.
  • Beispiel 8 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 7, wobei das Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion das Identifizieren eines ersten Bereichs und eines zweiten Bereichs des ersten Bilds mit mindestens einem von hoher Stärke und starkem Kontrast bezüglich umgebender Bereiche des ersten Bilds aufweist.
  • Beispiel 9 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 8, wobei das Bestimmen der ersten Entsprechung und der zweiten Entsprechung das Bestimmen der ersten Entsprechung und der zweiten Entsprechung auf Grundlage von bekannten Kennzeichen von mindestens einem der Lichtquelle oder des Bilds, das auf der Anzeige angezeigt ist, aufweist.
  • Beispiel 10 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 9, ferner enthaltend ein Anzeigemodul zum Bestimmen des Bilds, das zu einem Zeitpunkt, zu dem das erste Bild erfasst wird, auf der Anzeige des mobilen Rechengeräts angezeigt wird; wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem Kennzeichen des angezeigten Bilds aufweist.
  • Beispiel 11 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 10, wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem einer Größe oder Farbe des angezeigten Bilds aufweist.
  • Beispiel 12 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 11, wobei das Augenanalysemodul zum Analysieren des ersten Bilds zum Identifizieren eines Rands einer Pupille des Benutzers dient; und wobei das Ausführen der Blickverfolgung das Ausführen der Blickverfolgung ferner auf Grundlage des Rands der Pupille des Benutzers aufweist.
  • Beispiel 13 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 12, wobei die erste Kamera ein Sichtfeld in einer Richtung aufweist, die einem Sichtfeld der zweiten Kamera um die Anzeige entgegengesetzt ist.
  • Beispiel 14 beinhaltet ein Verfahren zur Blickverfolgung durch Umgebungslicht, wobei das Verfahren Erfassen, durch eine erste Kamera eines mobilen Rechengeräts, eines ersten Bilds eines Benutzers des mobilen Rechengeräts; Erfassen, durch eine zweite Kamera des mobilen Rechengeräts, die sich von der ersten Kamera unterscheidet, eines zweiten Bilds einer realen Umgebung des mobilen Rechengeräts; Bestimmen, durch das mobile Rechengerät, einer physikalischen Lage einer Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage des zweiten Bilds; Identifizieren, durch das mobile Rechengerät, einer ersten Augenhornhautreflexion und einer zweiten Augenhornhautreflexion in einem Auge des Benutzers, das im ersten Bild erfasst ist; Bestimmen, durch das mobile Rechengerät und auf Grundlage der physikalischen Lage, einer ersten Entsprechung zwischen der ersten Augenhornhautreflexion und der Lichtquelle und einer zweiten Entsprechung zwischen der zweiten Augenhornhautreflexion und einem Bild, das auf einer Anzeige des mobilen Rechengeräts angezeigt wird; und Ausführen, durch das mobile Rechengerät, von Blickverfolgung auf Grundlage der ersten Entsprechung und der zweiten Entsprechung aufweist.
  • Beispiel 15 beinhaltet den Gegenstand von Beispiel 14, ferner beinhaltend Analysieren, durch das mobile Rechengerät, des zweiten Bilds zum Bestimmen einer Bildlage der Lichtquelle, die im zweiten Bild erfasst ist; und Bestimmen, durch das mobile Rechengerät, einer Richtung der Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage der Bildlage; wobei das Bestimmen der physikalischen Lage der Lichtquelle das Bestimmen der physikalischen Lage auf Grundlage der bestimmten Richtung aufweist.
  • Beispiel 16 beinhaltet den Gegenstand von jeglichem der Beispiele 14 und 15, wobei das Analysieren des zweiten Bilds das Identifizieren eines Bereichs des zweiten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des zweiten Bilds aufweist.
  • Beispiel 17 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 16, wobei das Bestimmen der physikalischen Lage das Bestimmen der physikalischen Lage der Lichtquelle auf Grundlage des zweiten Bilds und eines dritten Bilds der realen Umgebung aufweist, welches die Lichtquelle enthält.
  • Beispiel 18 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 17, wobei das Bestimmen der physikalischen Lage das Bestimmen eines Abstands der Lichtquelle vom mobilen Rechengerät durch Ausführen von Triangulation auf Grundlage des zweiten Bilds und des dritten Bilds aufweist.
  • Beispiel 19 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 18, wobei das Bestimmen der physikalischen Lage das Annähern eines Abstands der Lichtquelle vom mobilen Rechengerät an einen vordefinierten Abstand aufweist.
  • Beispiel 20 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 19, wobei das Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion das Analysieren des ersten Bilds zum Identifizieren des Auges des Benutzers aufweist.
  • Beispiel 21 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 20, wobei das Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion das Identifizieren eines ersten Bereichs und eines zweiten Bereichs des ersten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des ersten Bilds aufweist.
  • Beispiel 22 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 21, wobei das Bestimmen der ersten Entsprechung und der zweiten Entsprechung das Bestimmen der ersten Entsprechung und der zweiten Entsprechung auf Grundlage von bekannten Kennzeichen von mindestens einem der Lichtquelle oder des Bilds, das auf der Anzeige angezeigt wird, aufweist.
  • Beispiel 23 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 22, ferner beinhaltend das Bestimmen des Bilds, das zu einem Zeitpunkt, zu dem das erste Bild erfasst wird, auf der Anzeige des mobilen Rechengeräts angezeigt wird; wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem Kennzeichen des angezeigten Bilds aufweist.
  • Beispiel 24 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 23, wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem der Größe oder Farbe des angezeigten Bilds aufweist.
  • Beispiel 25 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 24, ferner beinhaltend das Analysieren, durch das mobile Rechengerät, des ersten Bilds zum Identifizieren eines Rands einer Pupille des Benutzers; wobei das Ausführen der Blickverfolgung das Ausführen der Blickverfolgung ferner basierend auf dem Rand der Pupille des Benutzers aufweist.
  • Beispiel 26 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 25, wobei die erste Kamera ein Sichtfeld in einer Richtung aufweist, die einem Sichtfeld der zweiten Kamera um die Anzeige entgegengesetzt ist.
  • Beispiel 27 beinhaltet ein Rechengerät, aufweisend einen Prozessor und einen Speicher, der mehrere Befehle darin gespeichert aufweist, welche, wenn sie durch den Prozessor ausgeführt werden, bewirken, dass das Rechengerät das Verfahren nach einem der Beispiele 14 bis 26 ausführt.
  • Beispiel 28 beinhaltet ein oder mehrere maschinenlesbare Speichermedien, aufweisend mehrere darin gespeicherte Befehle, die in Reaktion darauf, dass sie ausgeführt werden, in einem Rechengerät resultieren, das das Verfahren nach einem der Beispiele 14 bis 26 ausführt.
  • Beispiel 29 beinhaltet ein Rechengerät, aufweisend Mittel zum Ausführen des Verfahrens nach einem der Beispiele 14 bis 26.
  • Beispiel 30 beinhaltet ein mobiles Rechengerät zur Blickverfolgung durch Umgebungslicht, wobei das mobile Rechengerät Mittel zum Erfassen, durch eine erste Kamera des mobilen Rechengeräts, eines ersten Bilds eines Benutzers des mobilen Rechensystems, Mittel zum Erfassen, durch eine zweite Kamera des mobilen Rechengeräts, die sich von der ersten Kamera unterscheidet, eines zweiten Bilds einer realen Umgebung des mobilen Rechengeräts, Mittel zum Bestimmen einer physikalischen Lage einer Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage des zweiten Bilds, Mittel zum Identifizieren einer ersten Augenhornhautreflexion und einer zweiten Augenhornhautreflexion in einem Auge des Benutzers im ersten Bild, Mittel zum Bestimmen, auf Grundlage der physikalischen Lage, einer ersten Entsprechung zwischen der ersten Augenhornhautreflexion und der Lichtquelle und einer zweiten Entsprechung zwischen der zweiten Augenhornhautreflexion und einem Bild, das auf einer Anzeige des mobilen Rechengeräts angezeigt ist, und Mittel zum Ausführen von Blickverfolgung auf Grundlage der ersten Entsprechung und der zweiten Entsprechung aufweist.
  • Beispiel 31 beinhaltet den Gegenstand von Beispiel 30, ferner beinhaltend Mittel zum Analysieren des zweiten Bilds zum Bestimmen einer Bildlage der Lichtquelle, die im zweiten Bild erfasst ist; und Mittel zum Bestimmen einer Richtung der Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage der Bildlage; wobei das Mittel zum Bestimmen der physikalischen Lage der Lichtquelle Mittel zum Bestimmen der physikalischen Lage auf Grundlage der bestimmten Richtung aufweist.
  • Beispiel 32 beinhaltet den Gegenstand von jeglichem der Beispiele 30 und 31, wobei das Mittel zum Analysieren des zweiten Bilds Mittel zum Identifizieren eines Bereichs des zweiten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des zweiten Bilds aufweist.
  • Beispiel 33 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 32, wobei das Mittel zum Bestimmen der physikalischen Lage Mittel zum Bestimmen der physikalischen Lage der Lichtquelle auf Grundlage des zweiten Bilds und eines dritten Bilds der realen Umgebung, das die Lichtquelle enthält, aufweist.
  • Beispiel 34 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 33, wobei das Mittel zum Bestimmen der physikalischen Lage Mittel zum Bestimmen eines Abstands der Lichtquelle vom mobilen Rechengerät durch Ausführen von Triangulation auf Grundlage des zweiten Bilds und des dritten Bilds aufweist.
  • Beispiel 35 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 34, wobei das Mittel zum Bestimmen der physikalischen Lage Mittel zum Annähern eines Abstands der Lichtquelle vom mobilen Rechengerät auf einen vordefinierten Abstand aufweist.
  • Beispiel 36 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 35, wobei das Mittel zum Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion Mittel zum Analysieren des ersten Bilds zum Identifizieren des Auges des Benutzers aufweist.
  • Beispiel 37 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 36, wobei das Mittel zum Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion Mittel zum Identifizieren eines ersten Bereichs und eines zweiten Bereichs des ersten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des ersten Bilds aufweist.
  • Beispiel 38 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 37, wobei das Mittel zum Bestimmen der ersten Entsprechung und der zweiten Entsprechung Mittel zum Bestimmen der ersten Entsprechung und der zweiten Entsprechung auf Grundlage auf bekannten Kennzeichen von mindestens einem der Lichtquelle oder des Bilds, das auf der Anzeige angezeigt ist, aufweist.
  • Beispiel 39 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 38, ferner beinhaltend Mittel zum Bestimmen des Bilds, das zu einem Zeitpunkt, zu dem das erste Bild erfasst wird, auf der Anzeige des mobilen Rechengeräts angezeigt wird; wobei das Mittel zum Bestimmen der zweiten Entsprechung Mittel zum Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem Kennzeichen des angezeigten Bilds aufweist.
  • Beispiel 40 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 39, wobei das Mittel zum Bestimmen der zweiten Entsprechung Mittel zum Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem einer Größe oder Farbe des angezeigten Bilds aufweist.
  • Beispiel 41 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 40, ferner beinhaltend Mittel zum Analysieren des ersten Bilds zum Identifizieren eines Rands einer Pupille des Benutzers; wobei das Mittel zum Ausführen der Blickverfolgung Mittel zum Ausführen der Blickverfolgung ferner basierend auf dem Rand der Pupille des Benutzers aufweist.
  • Beispiel 42 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 41, wobei die erste Kamera ein Sichtfeld in einer Richtung aufweist, die einem Sichtfeld der zweiten Kamera um die Anzeige entgegengesetzt ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 14/757834 [0001]

Claims (25)

  1. Mobiles Rechengerät zur Blickverfolgung durch Umgebungslicht, wobei das mobile Rechengerät aufweist: eine Anzeige; ein Kamerasystem, das eine erste Kamera und eine zweite Kamera aufweist, wobei das Kamerasystem zum Erfassen von (i) einem ersten Bild eines Benutzers des mobilen Rechengeräts mit der ersten Kamera und (ii) einem zweiten Bild einer realen Umgebung des mobilen Rechengeräts mit der zweiten Kamera dient; ein Lichtanalysemodul zum Bestimmen einer physikalischen Lage einer Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage des zweiten Bilds; ein Augenanalysemodul zum (i) Identifizieren einer ersten Augenhornhautreflexion und einer zweiten Augenhornhautreflexion in einem Auge des Benutzers und (ii) Bestimmen, auf Grundlage der physikalischen Lage, einer ersten Entsprechung zwischen der ersten Augenhornhautreflexion und der Lichtquelle und einer zweiten Entsprechung zwischen der zweiten Augenhornhautreflexion und einem Bild, das auf der Anzeige angezeigt ist; ein Blickverfolgungsmodul zum Ausführen von Blickverfolgung auf Grundlage der ersten Entsprechung und der zweiten Entsprechung.
  2. Mobiles Rechengerät nach Anspruch 1, wobei das Lichtanalysemodul zum (i) Analysieren des zweiten Bilds zum Bestimmen einer Bildlage der Lichtquelle, die im zweiten Bild erfasst ist, und (ii) Bestimmen einer Richtung der Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage der Bildlage dient; und wobei das Bestimmen der physikalischen Lage der Lichtquelle das Bestimmen der physikalischen Lage auf Grundlage der bestimmten Richtung aufweist.
  3. Mobiles Rechengerät nach Anspruch 2, wobei das Analysieren des zweiten Bilds das Identifizieren eines Bereichs des zweiten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des zweiten Bilds aufweist.
  4. Mobiles Rechengerät nach Anspruch 2, wobei das Bestimmen der physikalischen Lage das Bestimmen der physikalischen Lage der Lichtquelle auf Grundlage des zweiten Bilds und eines dritten Bilds der realen Umgebung aufweist, welches die Lichtquelle enthält.
  5. Mobiles Rechengerät nach Anspruch 4, wobei das Bestimmen der physikalischen Lage das Bestimmen eines Abstands der Lichtquelle vom mobilen Rechengerät durch Ausführen von Triangulation auf Grundlage des zweiten Bilds und des dritten Bilds aufweist.
  6. Mobiles Rechengerät nach Anspruch 2, wobei das Bestimmen der physikalischen Lage das Annähern eines Abstands der Lichtquelle vom mobilen Rechengerät an einen vordefinierten Abstand aufweist.
  7. Mobiles Rechengerät nach Anspruch 1, wobei das Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion das Identifizieren eines ersten Bereichs und eines zweiten Bereichs des ersten Bilds mit mindestens einem von hoher Stärke und starkem Kontrast bezüglich umgebender Bereiche des ersten Bilds aufweist.
  8. Mobiles Rechengerät nach Anspruch 1, wobei das Bestimmen der ersten Entsprechung und der zweiten Entsprechung das Bestimmen der ersten Entsprechung und der zweiten Entsprechung auf Grundlage von bekannten Kennzeichen von mindestens einem der Lichtquelle oder des Bilds, das auf der Anzeige angezeigt ist, aufweist.
  9. Mobiles Rechengerät nach Anspruch 8, ferner aufweisend ein Anzeigemodul zum Bestimmen des Bilds, das zu einem Zeitpunkt, zu dem das erste Bild erfasst wird, auf der Anzeige des mobilen Rechengeräts angezeigt wird; wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem Kennzeichen des angezeigten Bilds aufweist.
  10. Mobiles Rechengerät nach Anspruch 9, wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem einer Größe oder Farbe des angezeigten Bilds aufweist.
  11. Mobiles Rechengerät nach einem der Ansprüche 1 bis 10, wobei das Augenanalysemodul zum Analysieren des ersten Bilds zum Identifizieren eines Rands einer Pupille des Benutzers dient; und wobei das Ausführen der Blickverfolgung das Ausführen der Blickverfolgung ferner auf Grundlage des Rands der Pupille des Benutzers aufweist.
  12. Mobiles Rechengerät nach einem der Ansprüche 1 bis 10, wobei die erste Kamera ein Sichtfeld in einer Richtung aufweist, die einem Sichtfeld der zweiten Kamera um die Anzeige entgegengesetzt ist.
  13. Verfahren zur Blickverfolgung durch Umgebungslicht, wobei das Verfahren aufweist: Erfassen, durch eine erste Kamera eines mobilen Rechengeräts, eines ersten Bilds eines Benutzers des mobilen Rechengeräts; Erfassen, durch eine zweite Kamera des mobilen Rechengeräts, die sich von der ersten Kamera unterscheidet, eines zweiten Bilds einer realen Umgebung des mobilen Rechengeräts; Bestimmen, durch das mobile Rechengerät, einer physikalischen Lage einer Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage des zweiten Bilds; Identifizieren, durch das mobile Rechengerät, einer ersten Augenhornhautreflexion und einer zweiten Augenhornhautreflexion in einem Auge des Benutzers, das im ersten Bild erfasst ist; Bestimmen, durch das mobile Rechengerät und auf Grundlage der physikalischen Lage, einer ersten Entsprechung zwischen der ersten Augenhornhautreflexion und der Lichtquelle und einer zweiten Entsprechung zwischen der zweiten Augenhornhautreflexion und einem Bild, das auf einer Anzeige des mobilen Rechengeräts angezeigt wird; und Ausführen, durch das mobile Rechengerät, von Blickverfolgung auf Grundlage der ersten Entsprechung und der zweiten Entsprechung.
  14. Verfahren nach Anspruch 13, ferner aufweisend: Analysieren, durch das mobile Rechengerät, des zweiten Bilds zum Bestimmen einer Bildlage der Lichtquelle, die im zweiten Bild erfasst ist; und Bestimmen, durch das mobile Rechengerät, einer Richtung der Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage der Bildlage; wobei das Bestimmen der physikalischen Lage der Lichtquelle das Bestimmen der physikalischen Lage auf Grundlage der bestimmten Richtung aufweist.
  15. Verfahren nach Anspruch 14, wobei das Analysieren des zweiten Bilds das Identifizieren eines Bereichs des zweiten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des zweiten Bilds aufweist.
  16. Verfahren nach Anspruch 14, wobei das Bestimmen der physikalischen Lage das Bestimmen der physikalischen Lage der Lichtquelle auf Grundlage des zweiten Bilds und eines dritten Bilds der realen Umgebung aufweist, welches die Lichtquelle enthält.
  17. Verfahren nach Anspruch 16, wobei das Bestimmen der physikalischen Lage das Bestimmen eines Abstands der Lichtquelle vom mobilen Rechengerät durch Ausführen von Triangulation auf Grundlage des zweiten Bilds und des dritten Bilds aufweist.
  18. Verfahren nach Anspruch 14, wobei das Bestimmen der physikalischen Lage das Annähern eines Abstands der Lichtquelle vom mobilen Rechengerät an einen vordefinierten Abstand aufweist.
  19. Verfahren nach Anspruch 13, wobei das Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion das Identifizieren eines ersten Bereichs und eines zweiten Bereichs des ersten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des ersten Bilds aufweist.
  20. Verfahren nach Anspruch 13, wobei das Bestimmen der ersten Entsprechung und der zweiten Entsprechung das Bestimmen der ersten Entsprechung und der zweiten Entsprechung auf Grundlage von bekannten Kennzeichen von mindestens einem der Lichtquelle oder des Bilds, das auf der Anzeige angezeigt wird, aufweist.
  21. Verfahren nach Anspruch 20, ferner aufweisend das Bestimmen des Bilds, das zu einem Zeitpunkt, zu dem das erste Bild erfasst wird, auf der Anzeige des mobilen Rechengeräts angezeigt wird; wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem Kennzeichen des angezeigten Bilds aufweist.
  22. Verfahren nach Anspruch 21, wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem einer Größe oder Farbe des angezeigten Bilds aufweist.
  23. Verfahren nach Anspruch 13, ferner aufweisend das Analysieren, durch das mobile Rechengerät, des ersten Bilds zum Identifizieren eines Rands einer Pupille des Benutzers; wobei das Ausführen der Blickverfolgung das Ausführen der Blickverfolgung ferner auf Grundlage des Rands der Pupille des Benutzers aufweist.
  24. Verfahren nach Anspruch 13, wobei die erste Kamera ein Sichtfeld in einer Richtung aufweist, die einem Sichtfeld der zweiten Kamera um die Anzeige entgegengesetzt ist.
  25. Maschinenlesbares Speichermedium bzw. maschinenlesbare Speichermedien, aufweisend mehrere darauf gespeicherte Befehle, die in Reaktion darauf, dass sie ausgeführt werden, darin resultieren, dass ein Rechengerät das Verfahren nach einem der Ansprüche 13 bis 24 ausführt.
DE112016006066.1T 2015-12-26 2016-11-23 Analyse von umgebungslicht zur blickverfolgung Pending DE112016006066T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/757,834 US9785234B2 (en) 2015-12-26 2015-12-26 Analysis of ambient light for gaze tracking
US14/757,834 2015-12-26
PCT/US2016/063582 WO2017112297A1 (en) 2015-12-26 2016-11-23 Analysis of ambient light for gaze tracking

Publications (1)

Publication Number Publication Date
DE112016006066T5 true DE112016006066T5 (de) 2018-09-06

Family

ID=59087083

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016006066.1T Pending DE112016006066T5 (de) 2015-12-26 2016-11-23 Analyse von umgebungslicht zur blickverfolgung

Country Status (4)

Country Link
US (1) US9785234B2 (de)
CN (1) CN108475108A (de)
DE (1) DE112016006066T5 (de)
WO (1) WO2017112297A1 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11194398B2 (en) 2015-09-26 2021-12-07 Intel Corporation Technologies for adaptive rendering using 3D sensors
CN109716268B (zh) * 2016-09-22 2022-05-17 苹果公司 眼部和头部跟踪
CN111263925B (zh) * 2017-09-28 2022-06-14 苹果公司 用于使用事件相机数据的眼动跟踪的方法和设备
CO2018007555A1 (es) * 2018-07-18 2018-09-20 Univ Autonoma De Bucaramanga Unab Sistema entrenador de marcha
USD914021S1 (en) 2018-12-18 2021-03-23 Intel Corporation Touchpad display screen for computing device
US11379016B2 (en) 2019-05-23 2022-07-05 Intel Corporation Methods and apparatus to operate closed-lid portable computers
SE543455C2 (en) * 2019-06-28 2021-02-23 Tobii Ab Method and system for 3d cornea position estimation
US11543873B2 (en) 2019-09-27 2023-01-03 Intel Corporation Wake-on-touch display screen devices and related methods
US11733761B2 (en) 2019-11-11 2023-08-22 Intel Corporation Methods and apparatus to manage power and performance of computing devices based on user presence
US11809535B2 (en) 2019-12-23 2023-11-07 Intel Corporation Systems and methods for multi-modal user device authentication
US11360528B2 (en) 2019-12-27 2022-06-14 Intel Corporation Apparatus and methods for thermal management of electronic user devices based on user activity

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100794410B1 (ko) 2001-03-16 2008-01-16 권영수 항만 트레일러 자동 정지위치 모니터링 시스템
US6959102B2 (en) * 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
SE524003C2 (sv) 2002-11-21 2004-06-15 Tobii Technology Ab Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
EP1983884B1 (de) * 2006-01-26 2016-10-26 Nokia Technologies Oy Augenerfassungsgerät
US8077914B1 (en) * 2006-08-07 2011-12-13 Arkady Kaplan Optical tracking apparatus using six degrees of freedom
US7736000B2 (en) * 2008-08-27 2010-06-15 Locarna Systems, Inc. Method and apparatus for tracking eye movement
US20100103172A1 (en) * 2008-10-28 2010-04-29 Apple Inc. System and method for rendering ambient light affected appearing imagery based on sensed ambient lighting
EP2549914B1 (de) * 2010-03-22 2019-06-05 Koninklijke Philips N.V. System und verfahren zur verfolgung des blickpunkts eines beobachters
US8233789B2 (en) 2010-04-07 2012-07-31 Apple Inc. Dynamic exposure metering based on face detection
EP2632322A1 (de) * 2010-10-29 2013-09-04 IT-universitetet I København Verfahren zur bestimmung von lichtreflexionen
GB2485969A (en) 2010-11-12 2012-06-06 Sony Corp Video surveillance with anticipated arrival time of object in another camera view
KR101221741B1 (ko) 2010-12-01 2013-01-11 서울대학교산학협력단 위치 감지 정보를 이용한 카메라 줌 조절 시스템 및 방법
FR2970576B1 (fr) * 2011-01-19 2013-02-08 Matchic Labs Procede de determination de la direction du regard et dispositif pour sa mise en oeuvre
EP2499963A1 (de) * 2011-03-18 2012-09-19 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Verfahren und Vorrichtung für Blickpunktabbildung
US20120270571A1 (en) 2011-04-20 2012-10-25 International Business Machines Corporation Annotating electronic data with geographic locations
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
WO2013117999A1 (en) * 2012-02-06 2013-08-15 Sony Ericsson Mobile Communications Ab Gaze tracking with projector
CN106132284B (zh) * 2013-11-09 2019-03-22 深圳市汇顶科技股份有限公司 光学眼动追踪
US9430040B2 (en) * 2014-01-14 2016-08-30 Microsoft Technology Licensing, Llc Eye gaze detection with multiple light sources and sensors
US9829547B2 (en) * 2014-05-08 2017-11-28 Resonance Technology, Inc. Head-up display with eye-tracker for MRI applications
US9946339B2 (en) * 2014-10-08 2018-04-17 Microsoft Technology Licensing, Llc Gaze tracking through eyewear

Also Published As

Publication number Publication date
US9785234B2 (en) 2017-10-10
WO2017112297A1 (en) 2017-06-29
CN108475108A (zh) 2018-08-31
US20170185145A1 (en) 2017-06-29

Similar Documents

Publication Publication Date Title
DE112016006066T5 (de) Analyse von umgebungslicht zur blickverfolgung
DE102018129009A1 (de) Dynamischer Sichtsensor und Projektor für Tiefenabbildung
DE112020003794T5 (de) Tiefenbewusste Fotobearbeitung
DE102016105471A1 (de) Iriserfassung durch Bildgebung mit sichtbarem Licht
EP3103059A1 (de) 3d-bildanalysator zur blickrichtungsbestimmung
DE112018007721T5 (de) Aufnehmen und modifizieren von 3D-Gesichtern unter Verwendung neuronaler Bild-und Zeitverfolgungsnetze
DE112013005337T5 (de) Objekterfassung und Nachverfolgung mit veränderlichen Feldbeleuchtungsvorrichtungen
WO2009062945A1 (de) Verfahren und vorrichtung zum auffinden und verfolgen von augenpaaren
US9959841B2 (en) Image presentation control methods and image presentation control apparatuses
US20200218343A1 (en) Gaze point compensation method and apparatus in display device, and display device
DE202013012943U1 (de) Zum Lesen mehrerer decodierbarer Zeichen konfigurierter, mobiler Computer
DE102020117985B4 (de) Ein alternatives verfahren zur interaktion mit einer benutzerschnittstelle unter verwendung von standard-barcodescannern gepaart mit einem augmented reality heads -up-display
DE102015110955A1 (de) Informationsverarbeitungsvorrichtung zum Erfassen eines Objekts von einem Bild, Verfahren zum Steuern der Vorrichtung und Speichermedien
DE202016107458U1 (de) Transparentes Linsenelement in konvertierbarer Basis für Kameradurchgang
Li et al. Identification of ASD children based on video data
CN104184936A (zh) 基于光场相机的影像对焦处理方法及其系统
CN109598195B (zh) 一种基于监控视频的清晰人脸图像处理方法与装置
DE102020200933A1 (de) Projektor für aktive Stereotiefensensoren
DE102022124537A1 (de) Verfahren zur erstellung eines optimierten/adaptiven bereichs von interesse (roi) basierend auf einer erkennung einer strichcodeposition im sichtfeld (fov)
DE102015003537B4 (de) Blockierungsdetektionsverfahren für eine kamera und eine elektronische vorrichtung mit kameras
CN105590106A (zh) 一种新型人脸3d表情动作识别系统
TW201603557A (zh) 立體影像處理系統、裝置與方法
DE102022201468A1 (de) Messung basierend auf punktauswahl
EP3663976B1 (de) Verfahren zur erfassung von fingerabdrücken
DE102020113972A1 (de) Videoanalyse- und -managementtechniquen für medienerfassung und -aufbewahrung

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009000000

Ipc: G06V0010000000

R012 Request for examination validly filed