DE112016006066T5 - ANALYSIS OF ENVIRONMENTAL LIGHT FOR PICTURE TRACKING - Google Patents
ANALYSIS OF ENVIRONMENTAL LIGHT FOR PICTURE TRACKING Download PDFInfo
- Publication number
- DE112016006066T5 DE112016006066T5 DE112016006066.1T DE112016006066T DE112016006066T5 DE 112016006066 T5 DE112016006066 T5 DE 112016006066T5 DE 112016006066 T DE112016006066 T DE 112016006066T DE 112016006066 T5 DE112016006066 T5 DE 112016006066T5
- Authority
- DE
- Germany
- Prior art keywords
- image
- computing device
- mobile computing
- determining
- correspondence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims description 25
- 230000007613 environmental effect Effects 0.000 title 1
- 238000000034 method Methods 0.000 claims description 43
- 210000001747 pupil Anatomy 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 210000004087 cornea Anatomy 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241001085205 Prenanthella exigua Species 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/35—Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Ophthalmology & Optometry (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Eye Examination Apparatus (AREA)
- Computer Hardware Design (AREA)
- Position Input By Displaying (AREA)
Abstract
Technologien zur Blickverfolgung durch Umgebungslicht beinhalten ein mobiles Rechengerät zum Erfassen eines ersten Bilds eines Benutzers des mobilen Rechengeräts durch eine erste Kamera und eines zweiten Bilds einer realen Umgebung des mobilen Rechengeräts durch eine zweite Kamera. Das mobile Rechengerät bestimmt eine physikalische Lage einer Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage des zweiten Bilds und identifiziert eine erste und eine zweite Hornhautreflexion in einem Auge des Benutzers im ersten Bild. Das mobile Rechengerät bestimmt, auf Grundlage der physikalischen Lage, eine erste Entsprechung zwischen der ersten Augenhornhautreflexion und der Lichtquelle und eine zweite Entsprechung zwischen der zweiten Augenhornhautreflexion und einem Bild, das auf einer Anzeige des mobilen Rechengeräts angezeigt wird. Ferner führt das mobile Rechengerät Blickverfolgung auf Grundlage der ersten Entsprechung und der zweiten Entsprechung aus. Ambient light tracking technologies include a mobile computing device for capturing a first image of a user of the mobile computing device through a first camera and a second image of a real environment of the mobile computing device through a second camera. The mobile computing device determines a physical location of a light source relative to the mobile computing device based on the second image and identifies a first and a second corneal reflection in an eye of the user in the first image. The mobile computing device determines, based on the physical location, a first correspondence between the first corneal reflection and the light source and a second correspondence between the second corneal reflectance and an image displayed on a display of the mobile computing device. Further, the mobile computing device performs gaze tracking based on the first correspondence and the second correspondence.
Description
QUERVERWEIS AUF VERWANDTE ANMELDUNGCROSS-REFERENCE TO RELATED APPLICATION
Die vorliegende Anmeldung beansprucht Priorität über die
ALLGEMEINER STAND DER TECHNIKGENERAL PRIOR ART
Augenverfolgungs- und Blickverfolgungstechniken werden zum Bestimmen der Blickrichtung einer Person (d. h. der Richtung, in die die Person schaut) auf Grundlage von erfassten Bildern benutzt. Dabei kann eine breitgefächerte Gruppe von Bildanalysetechniken eingesetzt werden. Beispielsweise können in manchen Ausführungsformen Videobilder analysiert werden, um die Ausrichtung des Kopfs einer Person und/oder die relative Position der Pupille der Person zu bestimmen. Andere übliche Blickverfolgungsverfahren greifen auf die Messung von Reflexionen einer bekannten Infrarot- (IR-) Lichtquelle auf der Augenhornhaut der Person, die verfolgt wird, zurück. Derartige Techniken beinhalten im Allgemeinen eine dedizierte IR-Kamera (beispielsweise IR-Projektor und -sensor), die erhebliche Kosten und/oder eine große Stellfläche auf einem mobilen Rechengerät erfordern kann.Eye tracking and gaze tracking techniques are used to determine the gaze direction of a person (i.e., the direction in which the person is looking) based on captured images. A broad group of image analysis techniques can be used. For example, in some embodiments, video images may be analyzed to determine the orientation of a person's head and / or the relative position of the subject's pupil. Other common gaze tracking techniques rely on the measurement of reflections from a known infrared (IR) light source on the cornea of the person being tracked. Such techniques generally include a dedicated IR camera (eg, IR projector and sensor) that may require significant costs and / or a large footprint on a mobile computing device.
Figurenlistelist of figures
Die hierin beschriebenen Konzepte sind beispielhaft und nichteinschränkend in den beiliegenden Figuren beschrieben. Der Einfachheit und Deutlichkeit der Darstellung halber sind in den Figuren dargestellte Elemente nicht notwendigerweise maßstabsgetreu. Wo es angebracht erschien, wurden Bezugszeichen in den Figuren wiederholt, um entsprechende oder analoge Elemente anzuzeigen. Es zeigen:
-
1 ein vereinfachtes Blockdiagramm von mindestens einer Ausführungsform eines mobilen Rechengeräts zur Blickverfolgung durch Umgebungslicht; -
2 ein vereinfachtes Blockdiagramm von mindestens einer Ausführungsform einer Umgebung des mobilen Rechengeräts von1 ; -
3 -4 ein vereinfachtes Ablaufdiagramm von mindestens einer Ausführungsform eines Verfahrens zur Blickverfolgung durch Umgebungslicht, das durch das mobile Rechengerät von1 ausgeführt werden kann; -
5 ein veranschaulichendes Bild einer realen Umgebung, das durch eine der Umgebung zugewandte Kamera des mobilen Rechengeräts von1 erfasst ist; -
6 ein veranschaulichendes Bild eines Benutzers, das durch eine dem Benutzer zugewandte Kamera des mobilen Rechengeräts von1 erfasst ist; und -
7 eine Nahansicht des Auges des Benutzers, die im veranschaulichenden Bild von6 erfasst ist.
-
1 a simplified block diagram of at least one embodiment of a mobile computing device for observing by ambient light; -
2 a simplified block diagram of at least one embodiment of an environment of the mobile computing device of1 ; -
3 -4 5 is a simplified flowchart of at least one embodiment of an ambient light tracking method performed by the mobile computing device of FIG1 can be executed; -
5 an illustrative image of a real-world environment passing through an environment-facing camera of the mobile computing device of FIG1 is recorded; -
6 an illustrative image of a user through a user-facing camera of the mobile computing device of1 is recorded; and -
7 a close-up view of the user's eye, shown in the illustrative image of6 is detected.
DETAILLIERTE BESCHREIBUNG DER ZEICHNUNGENDETAILED DESCRIPTION OF THE DRAWINGS
Während die Konzepte der vorliegenden Offenbarung für verschiedene Modifikationen und alternative Ausgestaltungen empfänglich sind, sind spezifische Ausführungsformen davon beispielhaft in den Zeichnungen gezeigt und werden hierin detailliert beschrieben. Es versteht sich jedoch, dass keine Absicht besteht, die Konzepte der vorliegenden Offenbarung auf die bestimmten offenbarten Ausgestaltungen zu beschränken, sondern dass beabsichtigt ist, alle Modifikationen, Äquivalente und Alternativen abzudecken, die mit der vorliegenden Offenbarung und den beiliegenden Ansprüchen konsistent sind.While the concepts of the present disclosure are susceptible to various modifications and alternative embodiments, specific embodiments thereof are shown by way of example in the drawings and will be described in detail herein. However, it should be understood that it is not intended to limit the concepts of the present disclosure to the particular forms disclosed, but that it is intended to cover all modifications, equivalents and alternatives consistent with the present disclosure and the appended claims.
Bezugnahmen in der Schrift auf „eine Ausführungsform“, „eine veranschaulichende Ausführungsform“ usw. geben an, dass die beschriebene Ausführungsform ein/e besondere/s Merkmal, Struktur oder Kennzeichen enthalten kann, wobei jedoch jede Ausführungsform diese/s besondere Merkmal, Struktur oder Kennzeichen enthalten oder nicht notwendigerweise enthalten kann. Zudem beziehen sich derartige Ausdrücke nicht notwendigerweise auf dieselbe Ausführungsform. Ferner wird vorgebracht, dass, wenn ein/e besondere/s Merkmal, Struktur oder Kennzeichen in Verbindung mit einer Ausführungsform beschrieben ist, es innerhalb des Wissens des Fachmanns liegt, ein/e derartige/s Merkmal, Struktur oder Kennzeichen in Verbindung mit anderen Ausführungsformen auszuführen, ob ausdrücklich beschrieben oder nicht. Zusätzlich ist zu beachten, dass Elemente, die in einer Auflistung in der Form von „mindestens ein A, B und C“ enthalten sind, folgendes bedeuten können: (A), (B), (C), (A und B), (B und C), (A und C) oder (A, B und C). Gleicherweise können Elemente, die in der Form von „mindestens eines von A, B und C“ aufgelistet sind, (A), (B), (C), (A und B), (B und C), (A und C) oder (A, B und C) bedeuten.References in the specification to "one embodiment", "an illustrative embodiment", etc., indicate that the described embodiment may include a particular feature, structure or mark, but each embodiment has this particular feature, structure or feature Contains or may not necessarily contain license plates. In addition, such terms do not necessarily refer to the same embodiment. It is further claimed that, when a particular feature, structure, or characteristic is described in connection with one embodiment, it is within the skill of those in the art to provide such a feature, structure, or mark in conjunction with other embodiments to perform, whether expressly described or not. In addition, it should be noted that elements included in a listing in the form of "at least one of A, B and C" may mean: (A), (B), (C), (A and B), (B and C), (A and C) or (A, B and C). Likewise, elements listed in the form of "at least one of A, B and C" can be (A), (B), (C), (A and B), (B and C), (A and C ) or (A, B and C).
Die offenbarten Ausführungsformen können in manchen Fällen in Hardware, Firmware, Software oder jeglicher Kombination davon implementiert sein. Die offenbarten Ausführungsformen können außerdem als Befehle implementiert sein, die auf einem oder mehreren flüchtigen oder nichtflüchtigen, maschinenlesbaren (beispielsweise computerlesbaren) Speichermedien gespeichert oder enthalten sind, welche durch einen oder mehrere Prozessoren ausgelesen und ausgeführt werden können. Ein maschinenlesbares Speichermedium kann als jegliche/r/s Speichergerät, -mechanismus oder andere physikalische Struktur zum Speichern oder Übertragen von Information in einer Form, die durch eine Maschine lesbar ist, ausgeführt sein (beispielsweise flüchtiger oder nichtflüchtiger Speicher, eine Medienplatte oder ein anderes Mediengerät).The disclosed embodiments may in some cases be implemented in hardware, firmware, software, or any combination thereof. The disclosed embodiments may also be implemented as instructions stored or contained on one or more volatile or non-transitory machine-readable (eg, computer readable) storage media that may be read and executed by one or more processors. A machine-readable storage medium can be used as any storage device, mechanism, or other physical structure for storing or transmitting information in a form readable by a machine (e.g., volatile or nonvolatile memory, a media disk, or other media device).
In den Zeichnungen können manche strukturellen oder Verfahrensmerkmale in spezifischen Anordnungen und/oder Ordnungen gezeigt sein. Es ist jedoch zu beachten, dass derartige spezifische Anordnungen und/oder Ordnungen nicht erforderlich sein könnten. Stattdessen können derartige Merkmale in manchen Ausführungsformen auf andere Art und Weise und/oder in anderer Ordnung angeordnet sein, als in den veranschaulichenden Figuren gezeigt. Zudem soll die Einbeziehung eines strukturellen oder Verfahrensmerkmals in eine bestimmte Figur nicht bedeuten, dass ein derartiges Merkmal in allen Ausführungsformen erforderlich ist und in manchen Ausführungsformen nicht enthalten sein könnte oder mit anderen Merkmalen kombiniert sein könnte.In the drawings, some structural or process features may be shown in specific arrangements and / or orders. It should be understood, however, that such specific arrangements and / or orders may not be required. Instead, in some embodiments, such features may be arranged in a different manner and / or order than shown in the illustrative figures. In addition, the inclusion of a structural or procedural feature in a particular figure is not intended to imply that such a feature is required in all embodiments and may not be included in some embodiments or combined with other features.
Unter Bezugnahme auf
Das mobile Rechengerät
Der Prozessor
Der Datenspeicher
Die Kommunikationsschaltungen
Das Kamerasystem
Wie unten detaillierter beschrieben, ist die dem Benutzer zugewandte Kamera 126 zum Erfassen von Bildern des Benutzers des mobilen Rechengeräts
Die Anzeige
Wie in
Unter Bezugnahme auf
Das Lichtanalysemodul
Das Augenanalysemodul
Das Blickverfolgungsmodul
Das Anzeigemodul
Unter Bezugnahme auf
In Block
In Block
In manchen Ausführungsformen kann das mobile Rechengerät
In Block
In Block
In Block
In Block
BEISPIELEEXAMPLES
Veranschaulichende Beispiele der hierin offenbarten Technologien sind untenstehend bereitgestellt. Eine Ausführungsform der Technologien kann ein beliebiges oder mehrere und jegliche Kombination der unten beschriebenen Beispiele beinhalten.Illustrative examples of the technologies disclosed herein are provided below. One embodiment of the technologies may include any one or more and any combination of the examples described below.
Beispiel 1 beinhaltet ein mobiles Rechengerät zur Blickverfolgung durch Umgebungslicht, wobei das mobile Rechengerät eine Anzeige, ein Kamerasystem, das eine erste Kamera und eine zweite Kamera aufweist, wobei das Kamerasystem zum Erfassen von (i) einem ersten Bild eines Benutzers des mobilen Rechengeräts mit der ersten Kamera und (ii) einem zweiten Bild einer realen Umgebung des mobilen Rechengeräts mit der zweiten Kamera dient, ein Lichtanalysemodul zum Bestimmen einer physikalischen Lage einer Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage des zweiten Bilds, ein Augenanalysemodul zum (i) Identifizieren einer ersten Augenhornhautreflexion und einer zweiten Augenhornhautreflexion in einem Auge des Benutzers und (ii) Bestimmen, auf Grundlage der physikalischen Lage, einer ersten Entsprechung zwischen der ersten Augenhornhautreflexion und der Lichtquelle und einer zweiten Entsprechung zwischen der zweiten Augenhornhautreflexion und einem Bild, das auf der Anzeige angezeigt ist, ein Blickverfolgungsmodul zum Ausführen von Blickverfolgung auf Grundlage der ersten Entsprechung und der zweiten Entsprechung aufweist.Example 1 includes a mobile computing device for tracking ambient light, wherein the mobile computing device includes a display, a camera system having a first camera and a second camera, the camera system for capturing (i) a first image of a user of the mobile computing device with the first camera and (ii) a second image of a real environment of the mobile computing device with the second camera, a light analysis module for determining a physical location of a light source relative to the mobile computing device based on the second image, an eye analysis module for (i) identifying a first corneal reflection and a second corneal reflection in an eye of the user, and (ii) determining, based on the physical location, a first correspondence between the first corneal reflection and the light source and a second correspondence between the second corneal reflection and an image displayed on the
Beispiel 2 beinhaltet den Gegenstand von Beispiel 1, wobei das Lichtanalysemodul zum (i) Analysieren des zweiten Bilds zum Bestimmen einer Bildlage der Lichtquelle, die im zweiten Bild erfasst ist, und (ii) Bestimmen einer Richtung der Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage der Bildlage dient; und wobei das Bestimmen der physikalischen Lage der Lichtquelle das Bestimmen der physikalischen Lage auf Grundlage der bestimmten Richtung aufweist.Example 2 includes the subject matter of Example 1, wherein the light analysis module for (i) analyzing the second image to determine an image position of the light source captured in the second image, and (ii) determining a direction of the light source relative to the mobile computing device based on Image position is used; and wherein determining the physical location of the light source comprises determining the physical location based on the determined direction.
Beispiel 3 beinhaltet den Gegenstand von jeglichem der Beispiele 1 und 2, wobei das Analysieren des zweiten Bilds das Identifizieren eines Bereichs des zweiten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des zweiten Bilds aufweist.Example 3 includes the subject matter of any of Examples 1 and 2, wherein analyzing the second image comprises identifying a region of the second image having at least one of high intensity or high contrast with respect to surrounding regions of the second image.
Beispiel 4 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 3, wobei das Bestimmen der physikalischen Lage das Bestimmen der physikalischen Lage der Lichtquelle auf Grundlage des zweiten Bilds und eines dritten Bilds der realen Umgebung aufweist, welches die Lichtquelle enthält.Example 4 includes the subject matter of any one of Examples 1 to 3, wherein determining the physical location comprises determining the physical location of the light source based on the second image and a third image of the real environment containing the light source.
Beispiel 5 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 4, wobei das Bestimmen der physikalischen Lage das Bestimmen eines Abstands der Lichtquelle vom mobilen Rechengerät durch Ausführen von Triangulation auf Grundlage des zweiten Bilds und des dritten Bilds aufweist.Example 5 includes the subject matter of any one of Examples 1 to 4, wherein determining the physical location comprises determining a distance of the light source from the mobile computing device by performing triangulation based on the second image and the third image.
Beispiel 6 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 5, wobei das Bestimmen der physikalischen Lage das Annähern eines Abstands der Lichtquelle vom mobilen Rechengerät an einen vordefinierten Abstand aufweist.Example 6 includes the subject matter of any one of Examples 1 to 5, wherein determining the physical location comprises approximating a distance of the light source from the mobile computing device to a predefined distance.
Beispiel 7 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 6, wobei das Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion das Analysieren des ersten Bilds zum Identifizieren des Auges des Benutzers aufweist.Example 7 includes the subject matter of any of Examples 1-6, wherein identifying the first corneal reflectance and the second corneal reflectance comprises analyzing the first image to identify the user's eye.
Beispiel 8 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 7, wobei das Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion das Identifizieren eines ersten Bereichs und eines zweiten Bereichs des ersten Bilds mit mindestens einem von hoher Stärke und starkem Kontrast bezüglich umgebender Bereiche des ersten Bilds aufweist.Example 8 includes the subject matter of any one of Examples 1 to 7, wherein identifying the first corneal reflectance and the second corneal reflections comprises identifying a first region and a second region of the first image with at least one of high intensity and high contrast with respect to surrounding regions of the first image having.
Beispiel 9 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 8, wobei das Bestimmen der ersten Entsprechung und der zweiten Entsprechung das Bestimmen der ersten Entsprechung und der zweiten Entsprechung auf Grundlage von bekannten Kennzeichen von mindestens einem der Lichtquelle oder des Bilds, das auf der Anzeige angezeigt ist, aufweist.Example 9 includes the subject matter of any one of Examples 1 through 8, wherein determining the first correspondence and the second correspondence determines the first correspondence and the second correspondence based on known characteristics of at least one of the light source and the image displayed on the display is displayed.
Beispiel 10 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 9, ferner enthaltend ein Anzeigemodul zum Bestimmen des Bilds, das zu einem Zeitpunkt, zu dem das erste Bild erfasst wird, auf der Anzeige des mobilen Rechengeräts angezeigt wird; wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem Kennzeichen des angezeigten Bilds aufweist.Example 10 includes the subject matter of any of Examples 1 to 9, further comprising a display module for determining the image displayed on the display of the mobile computing device at a time when the first image is detected; wherein determining the second correspondence comprises determining the second correspondence based on at least one characteristic of the displayed image.
Beispiel 11 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 10, wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem einer Größe oder Farbe des angezeigten Bilds aufweist.Example 11 includes the subject matter of any one of Examples 1 to 10, wherein determining the second correspondence includes determining the second correspondence based on has at least one of a size or color of the displayed image.
Beispiel 12 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 11, wobei das Augenanalysemodul zum Analysieren des ersten Bilds zum Identifizieren eines Rands einer Pupille des Benutzers dient; und wobei das Ausführen der Blickverfolgung das Ausführen der Blickverfolgung ferner auf Grundlage des Rands der Pupille des Benutzers aufweist.Example 12 includes the subject matter of any one of Examples 1 to 11, wherein the eye analysis module is for analyzing the first image to identify an edge of a pupil of the user; and wherein performing the gaze tracking further comprises performing the gaze tracking based on the edge of the user's pupil.
Beispiel 13 beinhaltet den Gegenstand von jeglichem der Beispiele 1 bis 12, wobei die erste Kamera ein Sichtfeld in einer Richtung aufweist, die einem Sichtfeld der zweiten Kamera um die Anzeige entgegengesetzt ist.Example 13 includes the subject matter of any one of Examples 1 to 12, wherein the first camera has a field of view in a direction opposite to a field of view of the second camera about the display.
Beispiel 14 beinhaltet ein Verfahren zur Blickverfolgung durch Umgebungslicht, wobei das Verfahren Erfassen, durch eine erste Kamera eines mobilen Rechengeräts, eines ersten Bilds eines Benutzers des mobilen Rechengeräts; Erfassen, durch eine zweite Kamera des mobilen Rechengeräts, die sich von der ersten Kamera unterscheidet, eines zweiten Bilds einer realen Umgebung des mobilen Rechengeräts; Bestimmen, durch das mobile Rechengerät, einer physikalischen Lage einer Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage des zweiten Bilds; Identifizieren, durch das mobile Rechengerät, einer ersten Augenhornhautreflexion und einer zweiten Augenhornhautreflexion in einem Auge des Benutzers, das im ersten Bild erfasst ist; Bestimmen, durch das mobile Rechengerät und auf Grundlage der physikalischen Lage, einer ersten Entsprechung zwischen der ersten Augenhornhautreflexion und der Lichtquelle und einer zweiten Entsprechung zwischen der zweiten Augenhornhautreflexion und einem Bild, das auf einer Anzeige des mobilen Rechengeräts angezeigt wird; und Ausführen, durch das mobile Rechengerät, von Blickverfolgung auf Grundlage der ersten Entsprechung und der zweiten Entsprechung aufweist.Example 14 includes an ambient light tracking method, the method detecting, by a first camera of a mobile computing device, a first image of a user of the mobile computing device; Detecting, by a second camera of the mobile computing device different from the first camera, a second image of a real environment of the mobile computing device; Determining, by the mobile computing device, a physical location of a light source relative to the mobile computing device based on the second image; Identifying, by the mobile computing device, a first corneal reflection and a second corneal reflection in an eye of the user captured in the first image; Determining, by the mobile computing device and based on the physical location, a first correspondence between the first corneal reflection and the light source and a second correspondence between the second corneal reflectance and an image displayed on a display of the mobile computing device; and executing, by the mobile computing device, eye tracking based on the first correspondence and the second correspondence.
Beispiel 15 beinhaltet den Gegenstand von Beispiel 14, ferner beinhaltend Analysieren, durch das mobile Rechengerät, des zweiten Bilds zum Bestimmen einer Bildlage der Lichtquelle, die im zweiten Bild erfasst ist; und Bestimmen, durch das mobile Rechengerät, einer Richtung der Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage der Bildlage; wobei das Bestimmen der physikalischen Lage der Lichtquelle das Bestimmen der physikalischen Lage auf Grundlage der bestimmten Richtung aufweist.Example 15 includes the subject matter of Example 14, further including analyzing, by the mobile computing device, the second image to determine an image position of the light source captured in the second image; and determining, by the mobile computing device, a direction of the light source relative to the mobile computing device based on the image position; wherein determining the physical location of the light source comprises determining the physical location based on the determined direction.
Beispiel 16 beinhaltet den Gegenstand von jeglichem der Beispiele 14 und 15, wobei das Analysieren des zweiten Bilds das Identifizieren eines Bereichs des zweiten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des zweiten Bilds aufweist.Example 16 includes the subject matter of any of Examples 14 and 15, wherein analyzing the second image comprises identifying a region of the second image having at least one of high intensity or high contrast with respect to surrounding regions of the second image.
Beispiel 17 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 16, wobei das Bestimmen der physikalischen Lage das Bestimmen der physikalischen Lage der Lichtquelle auf Grundlage des zweiten Bilds und eines dritten Bilds der realen Umgebung aufweist, welches die Lichtquelle enthält.Example 17 includes the subject matter of any one of Examples 14 to 16, wherein determining the physical location comprises determining the physical location of the light source based on the second image and a third image of the real environment containing the light source.
Beispiel 18 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 17, wobei das Bestimmen der physikalischen Lage das Bestimmen eines Abstands der Lichtquelle vom mobilen Rechengerät durch Ausführen von Triangulation auf Grundlage des zweiten Bilds und des dritten Bilds aufweist.Example 18 includes the subject matter of any one of Examples 14 to 17, wherein determining the physical location comprises determining a distance of the light source from the mobile computing device by performing triangulation based on the second image and the third image.
Beispiel 19 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 18, wobei das Bestimmen der physikalischen Lage das Annähern eines Abstands der Lichtquelle vom mobilen Rechengerät an einen vordefinierten Abstand aufweist.Example 19 includes the subject matter of any one of Examples 14 to 18, wherein determining the physical location comprises approximating a distance of the light source from the mobile computing device to a predefined distance.
Beispiel 20 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 19, wobei das Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion das Analysieren des ersten Bilds zum Identifizieren des Auges des Benutzers aufweist.Example 20 includes the subject matter of any of Examples 14-19, wherein identifying the first corneal reflectance and the second corneal reflectance comprises analyzing the first image to identify the user's eye.
Beispiel 21 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 20, wobei das Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion das Identifizieren eines ersten Bereichs und eines zweiten Bereichs des ersten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des ersten Bilds aufweist.Example 21 includes the subject matter of any one of Examples 14 to 20, wherein identifying the first corneal reflectance and the second corneal reflections comprises identifying a first region and a second region of the first image with at least one of high intensity or high contrast with respect to surrounding regions of the first image having.
Beispiel 22 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 21, wobei das Bestimmen der ersten Entsprechung und der zweiten Entsprechung das Bestimmen der ersten Entsprechung und der zweiten Entsprechung auf Grundlage von bekannten Kennzeichen von mindestens einem der Lichtquelle oder des Bilds, das auf der Anzeige angezeigt wird, aufweist.Example 22 includes the subject matter of any one of Examples 14 to 21, wherein determining the first correspondence and the second correspondence determines the first correspondence and the second correspondence based on known characteristics of at least one of the light source and the image displayed on the display is displayed.
Beispiel 23 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 22, ferner beinhaltend das Bestimmen des Bilds, das zu einem Zeitpunkt, zu dem das erste Bild erfasst wird, auf der Anzeige des mobilen Rechengeräts angezeigt wird; wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem Kennzeichen des angezeigten Bilds aufweist.Example 23 includes the subject matter of any one of Examples 14 to 22, further comprising determining the image displayed on the display of the mobile computing device at a time when the first image is detected; the Determining the second correspondence comprises determining the second correspondence based on at least one characteristic of the displayed image.
Beispiel 24 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 23, wobei das Bestimmen der zweiten Entsprechung das Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem der Größe oder Farbe des angezeigten Bilds aufweist.Example 24 includes the subject matter of any one of Examples 14 to 23, wherein determining the second correspondence comprises determining the second correspondence based on at least one of the size or color of the displayed image.
Beispiel 25 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 24, ferner beinhaltend das Analysieren, durch das mobile Rechengerät, des ersten Bilds zum Identifizieren eines Rands einer Pupille des Benutzers; wobei das Ausführen der Blickverfolgung das Ausführen der Blickverfolgung ferner basierend auf dem Rand der Pupille des Benutzers aufweist.Example 25 includes the subject matter of any of Examples 14 to 24, further including analyzing, by the mobile computing device, the first image to identify an edge of a pupil of the user; wherein performing the gaze tracking further comprises performing the gaze tracking based on the edge of the user's pupil.
Beispiel 26 beinhaltet den Gegenstand von jeglichem der Beispiele 14 bis 25, wobei die erste Kamera ein Sichtfeld in einer Richtung aufweist, die einem Sichtfeld der zweiten Kamera um die Anzeige entgegengesetzt ist.Example 26 includes the subject matter of any one of Examples 14 to 25, wherein the first camera has a field of view in a direction opposite to a field of view of the second camera about the display.
Beispiel 27 beinhaltet ein Rechengerät, aufweisend einen Prozessor und einen Speicher, der mehrere Befehle darin gespeichert aufweist, welche, wenn sie durch den Prozessor ausgeführt werden, bewirken, dass das Rechengerät das Verfahren nach einem der Beispiele 14 bis 26 ausführt.Example 27 includes a computing device having a processor and memory having a plurality of instructions stored therein which, when executed by the processor, cause the computing device to perform the method of any one of Examples 14-26.
Beispiel 28 beinhaltet ein oder mehrere maschinenlesbare Speichermedien, aufweisend mehrere darin gespeicherte Befehle, die in Reaktion darauf, dass sie ausgeführt werden, in einem Rechengerät resultieren, das das Verfahren nach einem der Beispiele 14 bis 26 ausführt.Example 28 includes one or more machine-readable storage media having a plurality of instructions stored therein that result in a computing device executing the method of any one of Examples 14-26 in response to being executed.
Beispiel 29 beinhaltet ein Rechengerät, aufweisend Mittel zum Ausführen des Verfahrens nach einem der Beispiele 14 bis 26.Example 29 includes a computing device comprising means for carrying out the method of any one of Examples 14 to 26.
Beispiel 30 beinhaltet ein mobiles Rechengerät zur Blickverfolgung durch Umgebungslicht, wobei das mobile Rechengerät Mittel zum Erfassen, durch eine erste Kamera des mobilen Rechengeräts, eines ersten Bilds eines Benutzers des mobilen Rechensystems, Mittel zum Erfassen, durch eine zweite Kamera des mobilen Rechengeräts, die sich von der ersten Kamera unterscheidet, eines zweiten Bilds einer realen Umgebung des mobilen Rechengeräts, Mittel zum Bestimmen einer physikalischen Lage einer Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage des zweiten Bilds, Mittel zum Identifizieren einer ersten Augenhornhautreflexion und einer zweiten Augenhornhautreflexion in einem Auge des Benutzers im ersten Bild, Mittel zum Bestimmen, auf Grundlage der physikalischen Lage, einer ersten Entsprechung zwischen der ersten Augenhornhautreflexion und der Lichtquelle und einer zweiten Entsprechung zwischen der zweiten Augenhornhautreflexion und einem Bild, das auf einer Anzeige des mobilen Rechengeräts angezeigt ist, und Mittel zum Ausführen von Blickverfolgung auf Grundlage der ersten Entsprechung und der zweiten Entsprechung aufweist.Example 30 includes a mobile computing device for observing ambient light, wherein the mobile computing device comprises means for detecting, by a first camera of the mobile computing device, a first image of a user of the mobile computing system, means for detecting, by a second camera of the mobile computing device, the different from the first camera, a second image of a real environment of the mobile computing device, means for determining a physical location of a light source relative to the mobile computing device based on the second image, means for identifying a first corneal reflection and a second corneal reflection in an eye of the user first image, means for determining, based on the physical location, a first correspondence between the first corneal reflection and the light source and a second correspondence between the second corneal reflection and an image displayed on a display of the mobile R and means for performing gaze tracking based on the first correspondence and the second correspondence.
Beispiel 31 beinhaltet den Gegenstand von Beispiel 30, ferner beinhaltend Mittel zum Analysieren des zweiten Bilds zum Bestimmen einer Bildlage der Lichtquelle, die im zweiten Bild erfasst ist; und Mittel zum Bestimmen einer Richtung der Lichtquelle bezüglich des mobilen Rechengeräts auf Grundlage der Bildlage; wobei das Mittel zum Bestimmen der physikalischen Lage der Lichtquelle Mittel zum Bestimmen der physikalischen Lage auf Grundlage der bestimmten Richtung aufweist.Example 31 includes the subject matter of Example 30, further including means for analyzing the second image to determine an image position of the light source captured in the second image; and means for determining a direction of the light source relative to the mobile computing device based on the image position; wherein the means for determining the physical location of the light source comprises means for determining the physical location based on the determined direction.
Beispiel 32 beinhaltet den Gegenstand von jeglichem der Beispiele 30 und 31, wobei das Mittel zum Analysieren des zweiten Bilds Mittel zum Identifizieren eines Bereichs des zweiten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des zweiten Bilds aufweist.Example 32 includes the subject matter of any of Examples 30 and 31, wherein the means for analyzing the second image comprises means for identifying a region of the second image having at least one of high intensity or high contrast with respect to surrounding regions of the second image.
Beispiel 33 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 32, wobei das Mittel zum Bestimmen der physikalischen Lage Mittel zum Bestimmen der physikalischen Lage der Lichtquelle auf Grundlage des zweiten Bilds und eines dritten Bilds der realen Umgebung, das die Lichtquelle enthält, aufweist.Example 33 includes the subject matter of any of Examples 30 to 32, wherein the means for determining the physical location comprises means for determining the physical location of the light source based on the second image and a third image of the real environment containing the light source.
Beispiel 34 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 33, wobei das Mittel zum Bestimmen der physikalischen Lage Mittel zum Bestimmen eines Abstands der Lichtquelle vom mobilen Rechengerät durch Ausführen von Triangulation auf Grundlage des zweiten Bilds und des dritten Bilds aufweist.Example 34 includes the subject matter of any one of Examples 30 to 33, wherein the physical position determining means comprises means for determining a distance of the light source from the mobile computing device by performing triangulation based on the second image and the third image.
Beispiel 35 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 34, wobei das Mittel zum Bestimmen der physikalischen Lage Mittel zum Annähern eines Abstands der Lichtquelle vom mobilen Rechengerät auf einen vordefinierten Abstand aufweist.Example 35 includes the subject matter of any of Examples 30-34, wherein the means for determining the physical location comprises means for approximating a distance of the light source from the mobile computing device to a predefined distance.
Beispiel 36 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 35, wobei das Mittel zum Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion Mittel zum Analysieren des ersten Bilds zum Identifizieren des Auges des Benutzers aufweist.Example 36 includes the subject matter of any of Examples 30-35, wherein the means for identifying the first corneal reflection and the second corneal reflection comprises means for analyzing the first image to identify the user's eye.
Beispiel 37 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 36, wobei das Mittel zum Identifizieren der ersten Augenhornhautreflexion und der zweiten Augenhornhautreflexion Mittel zum Identifizieren eines ersten Bereichs und eines zweiten Bereichs des ersten Bilds mit mindestens einem von hoher Stärke oder starkem Kontrast bezüglich umgebender Bereiche des ersten Bilds aufweist.Example 37 includes the subject matter of any one of Examples 30 to 36, wherein the means for identifying the first corneal reflection and the second corneal reflection comprises means for identifying a first region and a second region of the first image with at least one of high intensity or high contrast with respect to surrounding regions of the first image.
Beispiel 38 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 37, wobei das Mittel zum Bestimmen der ersten Entsprechung und der zweiten Entsprechung Mittel zum Bestimmen der ersten Entsprechung und der zweiten Entsprechung auf Grundlage auf bekannten Kennzeichen von mindestens einem der Lichtquelle oder des Bilds, das auf der Anzeige angezeigt ist, aufweist. Example 38 includes the subject matter of any one of Examples 30 to 37, wherein the means for determining the first correspondence and the second correspondence comprises means for determining the first correspondence and the second correspondence based on known characteristics of at least one of the light source and the image displayed on the display.
Beispiel 39 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 38, ferner beinhaltend Mittel zum Bestimmen des Bilds, das zu einem Zeitpunkt, zu dem das erste Bild erfasst wird, auf der Anzeige des mobilen Rechengeräts angezeigt wird; wobei das Mittel zum Bestimmen der zweiten Entsprechung Mittel zum Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem Kennzeichen des angezeigten Bilds aufweist.Example 39 includes the subject matter of any of Examples 30 to 38, further including means for determining the image displayed on the display of the mobile computing device at a time when the first image is captured; wherein the means for determining the second correspondence comprises means for determining the second correspondence based on at least one characteristic of the displayed image.
Beispiel 40 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 39, wobei das Mittel zum Bestimmen der zweiten Entsprechung Mittel zum Bestimmen der zweiten Entsprechung auf Grundlage von mindestens einem einer Größe oder Farbe des angezeigten Bilds aufweist.Example 40 includes the subject matter of any of Examples 30-39, wherein the means for determining the second correspondence comprises means for determining the second correspondence based on at least one of a size or color of the displayed image.
Beispiel 41 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 40, ferner beinhaltend Mittel zum Analysieren des ersten Bilds zum Identifizieren eines Rands einer Pupille des Benutzers; wobei das Mittel zum Ausführen der Blickverfolgung Mittel zum Ausführen der Blickverfolgung ferner basierend auf dem Rand der Pupille des Benutzers aufweist.Example 41 includes the subject matter of any of Examples 30-40, further including means for analyzing the first image to identify an edge of a pupil of the user; wherein the means for performing the gaze tracking further comprises means for performing gaze tracking based on the edge of the user's pupil.
Beispiel 42 beinhaltet den Gegenstand von jeglichem der Beispiele 30 bis 41, wobei die erste Kamera ein Sichtfeld in einer Richtung aufweist, die einem Sichtfeld der zweiten Kamera um die Anzeige entgegengesetzt ist.Example 42 includes the subject matter of any of Examples 30 to 41, wherein the first camera has a field of view in a direction opposite to a field of view of the second camera about the display.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 14/757834 [0001]US 14/757834 [0001]
Claims (25)
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/757,834 US9785234B2 (en) | 2015-12-26 | 2015-12-26 | Analysis of ambient light for gaze tracking |
US14/757,834 | 2015-12-26 | ||
PCT/US2016/063582 WO2017112297A1 (en) | 2015-12-26 | 2016-11-23 | Analysis of ambient light for gaze tracking |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112016006066T5 true DE112016006066T5 (en) | 2018-09-06 |
Family
ID=59087083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112016006066.1T Pending DE112016006066T5 (en) | 2015-12-26 | 2016-11-23 | ANALYSIS OF ENVIRONMENTAL LIGHT FOR PICTURE TRACKING |
Country Status (4)
Country | Link |
---|---|
US (1) | US9785234B2 (en) |
CN (1) | CN108475108A (en) |
DE (1) | DE112016006066T5 (en) |
WO (1) | WO2017112297A1 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11194398B2 (en) | 2015-09-26 | 2021-12-07 | Intel Corporation | Technologies for adaptive rendering using 3D sensors |
CN109716268B (en) * | 2016-09-22 | 2022-05-17 | 苹果公司 | Eye and head tracking |
CN111263925B (en) * | 2017-09-28 | 2022-06-14 | 苹果公司 | Method and apparatus for eye tracking using event camera data |
CO2018007555A1 (en) * | 2018-07-18 | 2018-09-20 | Univ Autonoma De Bucaramanga Unab | Marching trainer system |
USD914021S1 (en) | 2018-12-18 | 2021-03-23 | Intel Corporation | Touchpad display screen for computing device |
US11379016B2 (en) | 2019-05-23 | 2022-07-05 | Intel Corporation | Methods and apparatus to operate closed-lid portable computers |
SE543455C2 (en) * | 2019-06-28 | 2021-02-23 | Tobii Ab | Method and system for 3d cornea position estimation |
US11543873B2 (en) | 2019-09-27 | 2023-01-03 | Intel Corporation | Wake-on-touch display screen devices and related methods |
US11733761B2 (en) | 2019-11-11 | 2023-08-22 | Intel Corporation | Methods and apparatus to manage power and performance of computing devices based on user presence |
US11809535B2 (en) | 2019-12-23 | 2023-11-07 | Intel Corporation | Systems and methods for multi-modal user device authentication |
US11360528B2 (en) | 2019-12-27 | 2022-06-14 | Intel Corporation | Apparatus and methods for thermal management of electronic user devices based on user activity |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100794410B1 (en) | 2001-03-16 | 2008-01-16 | 권영수 | Monitoring System for the Port Trailer Automatic Stoping Position |
US6959102B2 (en) * | 2001-05-29 | 2005-10-25 | International Business Machines Corporation | Method for increasing the signal-to-noise in IR-based eye gaze trackers |
SE524003C2 (en) | 2002-11-21 | 2004-06-15 | Tobii Technology Ab | Procedure and facility for detecting and following an eye and its angle of view |
US7401920B1 (en) * | 2003-05-20 | 2008-07-22 | Elbit Systems Ltd. | Head mounted eye tracking and display system |
EP1983884B1 (en) * | 2006-01-26 | 2016-10-26 | Nokia Technologies Oy | Eye tracker device |
US8077914B1 (en) * | 2006-08-07 | 2011-12-13 | Arkady Kaplan | Optical tracking apparatus using six degrees of freedom |
US7736000B2 (en) * | 2008-08-27 | 2010-06-15 | Locarna Systems, Inc. | Method and apparatus for tracking eye movement |
US20100103172A1 (en) * | 2008-10-28 | 2010-04-29 | Apple Inc. | System and method for rendering ambient light affected appearing imagery based on sensed ambient lighting |
EP2549914B1 (en) * | 2010-03-22 | 2019-06-05 | Koninklijke Philips N.V. | System and method for tracking the point of gaze of an observer |
US8233789B2 (en) | 2010-04-07 | 2012-07-31 | Apple Inc. | Dynamic exposure metering based on face detection |
EP2632322A1 (en) * | 2010-10-29 | 2013-09-04 | IT-universitetet I København | Method of determining reflections of light |
GB2485969A (en) | 2010-11-12 | 2012-06-06 | Sony Corp | Video surveillance with anticipated arrival time of object in another camera view |
KR101221741B1 (en) | 2010-12-01 | 2013-01-11 | 서울대학교산학협력단 | Camera zoom control system and method using position sensing information |
FR2970576B1 (en) * | 2011-01-19 | 2013-02-08 | Matchic Labs | METHOD FOR DETERMINING THE DIRECTION OF THE LOOK AND DEVICE FOR IMPLEMENTING IT |
EP2499963A1 (en) * | 2011-03-18 | 2012-09-19 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Method and apparatus for gaze point mapping |
US20120270571A1 (en) | 2011-04-20 | 2012-10-25 | International Business Machines Corporation | Annotating electronic data with geographic locations |
US8929589B2 (en) * | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
WO2013117999A1 (en) * | 2012-02-06 | 2013-08-15 | Sony Ericsson Mobile Communications Ab | Gaze tracking with projector |
CN106132284B (en) * | 2013-11-09 | 2019-03-22 | 深圳市汇顶科技股份有限公司 | The tracking of optics eye movement |
US9430040B2 (en) * | 2014-01-14 | 2016-08-30 | Microsoft Technology Licensing, Llc | Eye gaze detection with multiple light sources and sensors |
US9829547B2 (en) * | 2014-05-08 | 2017-11-28 | Resonance Technology, Inc. | Head-up display with eye-tracker for MRI applications |
US9946339B2 (en) * | 2014-10-08 | 2018-04-17 | Microsoft Technology Licensing, Llc | Gaze tracking through eyewear |
-
2015
- 2015-12-26 US US14/757,834 patent/US9785234B2/en not_active Expired - Fee Related
-
2016
- 2016-11-23 DE DE112016006066.1T patent/DE112016006066T5/en active Pending
- 2016-11-23 WO PCT/US2016/063582 patent/WO2017112297A1/en active Application Filing
- 2016-11-23 CN CN201680076250.0A patent/CN108475108A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US9785234B2 (en) | 2017-10-10 |
WO2017112297A1 (en) | 2017-06-29 |
CN108475108A (en) | 2018-08-31 |
US20170185145A1 (en) | 2017-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112016006066T5 (en) | ANALYSIS OF ENVIRONMENTAL LIGHT FOR PICTURE TRACKING | |
DE102018129009A1 (en) | Dynamic vision sensor and projector for depth imaging | |
DE112020003794T5 (en) | Depth-aware photo editing | |
DE102016105471A1 (en) | Iris acquisition by imaging with visible light | |
EP3103059A1 (en) | 3-d image analyzer for determining viewing direction | |
DE112018007721T5 (en) | Acquire and modify 3D faces using neural imaging and time tracking networks | |
DE112013005337T5 (en) | Object detection and tracking with variable field lighting devices | |
WO2009062945A1 (en) | Method and device for finding and tracking pairs of eyes | |
US9959841B2 (en) | Image presentation control methods and image presentation control apparatuses | |
US20200218343A1 (en) | Gaze point compensation method and apparatus in display device, and display device | |
DE202013012943U1 (en) | Mobile computers configured to read multiple decodable characters | |
DE102020117985B4 (en) | AN ALTERNATIVE METHOD OF INTERACTING WITH A USER INTERFACE USING STANDARD BARCODE SCANNERS PAIRED WITH AN AUGMENTED REALITY HEADS UP DISPLAY | |
DE102015110955A1 (en) | An information processing device for acquiring an object from an image, a method of controlling the device, and storage media | |
DE202016107458U1 (en) | Transparent lens element in convertible base for camera passage | |
Li et al. | Identification of ASD children based on video data | |
CN104184936A (en) | Image focusing processing method and system based on light field camera | |
CN109598195B (en) | Method and device for processing clear face image based on monitoring video | |
DE102020200933A1 (en) | Active stereo depth sensor projector | |
DE102022124537A1 (en) | METHOD OF CREATING AN OPTIMIZED/ADAPTIVE REGION OF INTEREST (ROI) BASED ON DETECTION OF A BAR CODE POSITION IN FIELD OF VIEW (FOV) | |
DE102015003537B4 (en) | BLOCKAGE DETECTION METHOD FOR A CAMERA AND AN ELECTRONIC DEVICE WITH CAMERAS | |
CN105590106A (en) | Novel face 3D expression and action identification system | |
TW201603557A (en) | Three-dimensional image processing system, apparatus and method for the same | |
DE102022201468A1 (en) | MEASUREMENT BASED ON POINT SELECTION | |
EP3663976B1 (en) | Method for detecting fingerprints | |
DE102020113972A1 (en) | VIDEO ANALYSIS AND MANAGEMENT TECHNIQUES FOR MEDIA ACQUISITION AND STORAGE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009000000 Ipc: G06V0010000000 |
|
R012 | Request for examination validly filed |