CN105900141A - 将闪光映射到光源 - Google Patents
将闪光映射到光源 Download PDFInfo
- Publication number
- CN105900141A CN105900141A CN201480072590.7A CN201480072590A CN105900141A CN 105900141 A CN105900141 A CN 105900141A CN 201480072590 A CN201480072590 A CN 201480072590A CN 105900141 A CN105900141 A CN 105900141A
- Authority
- CN
- China
- Prior art keywords
- image
- light source
- light
- flash
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 6
- 238000000034 method Methods 0.000 claims abstract description 67
- 238000005286 illumination Methods 0.000 claims description 35
- 238000004458 analytical method Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 11
- 229920006395 saturated elastomer Polymers 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 32
- 238000005516 engineering process Methods 0.000 abstract description 15
- 210000001508 eye Anatomy 0.000 description 69
- 230000008569 process Effects 0.000 description 48
- 230000003287 optical effect Effects 0.000 description 33
- 238000001514 detection method Methods 0.000 description 20
- 238000003860 storage Methods 0.000 description 15
- 230000015654 memory Effects 0.000 description 12
- 210000001747 pupil Anatomy 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 239000011521 glass Substances 0.000 description 9
- 210000004087 cornea Anatomy 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 7
- 238000012937 correction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000005855 radiation Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000007670 refining Methods 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 210000003205 muscle Anatomy 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000000429 assembly Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000004166 bioassay Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000005622 photoelectricity Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/76—Circuitry for compensating brightness variation in the scene by influencing the image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/957—Light-field or plenoptic cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Electromagnetism (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本文公开的技术提供了用于将反射离开对象的闪光映射到负责该闪光的光源的各实施例。本文公开的各实施例能够通过用相机捕捉仅仅若干图像来正确地将闪光映射到光源。在用光源的不同图案照明对象的同时,捕捉每一图像。还可确定无闪光图像。无闪光图像是其中闪光已经通过图像处理技术被移除的图像。
Description
背景
闪光是光源从对象的反射。例如,当来自光源的光反射离开某人的眼睛时,闪光可以在相机所捕捉的图像中被检测到。闪光可以被分析以执行诸如确定对象的3D几何形状之类的功能。如果对象是人的眼睛,则确定描述人正注视的方向的3D向量是可能的。存在分析闪光的许多其它应用,诸如对象识别、高速运动跟踪、以及生产线控制。
概述
本发明的技术提供了用于将闪光映射到光源的各种实施例。将闪光正确映射到负责该闪光的光源在能够执行诸如确定对象的3D几何形状之类的功能方面是有用的。还可确定无闪光图像。无闪光图像是其中闪光已经通过图像处理技术被移除的图像。具有无闪光图像在帮助标识对象的各元素(诸如人眼的瞳孔)方面可以是有用的。
一个实施例包括一种将闪光映射到光源的方法,该方法包括以下操作。用光源的图案照明对象。该图案包括其中光源的第一光源打开的第一图案以及其中第一光源关闭的第二图案。在用对应图案照明对象的同时,对象的图像在相机处被捕捉。所捕捉的多个图像中的闪光被分析。基于该分析,闪光被映射到造成该闪光的光源。
一个实施例是一种系统,该系统包括多个光源、相机以及与该多个光源和相机处于通信的逻辑。该逻辑被配置成控制光源来用多个光源的图案来照明对象。该图案包括其中光源的第一光源打开的第一图案以及其中第一光源关闭的第二图案。光源中的每一个光源针对这些图案中的至少一个图案是关闭的并且针对这些图案中的至少一个图案是打开的。该逻辑被配置成在用对应的不同图案照明对象的同时在相机处捕捉对象的图像。该逻辑被配置成分析作为用图案照明对象的结果所捕捉到的图像中的闪光。该逻辑被配置成基于该分析将闪光映射到造成该闪光的光源。
一个实施例是一种包括以下操作的方法。用多个光源的图案照明眼睛。该图案包括其中光源的第一光源打开的第一图案以及其中第一光源关闭的第二图案。光源中的每一个光源针对这些图案中的至少一个图案是关闭的并且针对这些图案中的至少一个图案是打开的。在用对应图案照明眼睛的同时,眼睛的图像在相机处被捕捉。所捕捉的多个图像中的闪光被分析。基于该分析,闪光被映射到造成相应闪光的光源。基于该闪光来确定眼睛注视方向。
提供本概述以便以简化的形式介绍以下在详细描述中进一步描述的一些概念。本概述并非旨在标识出要求保护的主题的关键特征或必要特征,亦非旨在用作辅助确定要求保护的主题的范围。
附图简述
图1示出各实施例可在其中实施的示例环境。
图2是将闪光映射到光源的过程的一个实施例的流程图。
图3A是描绘混合现实显示系统的一个实施例的示例组件的框图。
图3B示出定位成在实现在一副眼镜中的混合现实显示设备上面对每一相应眼睛的、用于每个眼睛的注视检测系统中的相应注视检测元件的集合的位置的示例性安排。
图3C示出定位成在实现在一副眼镜中的混合现实显示设备上面对每一相应眼睛的、用于每个眼睛的注视检测系统中的相应注视检测元件的集合的位置的另一示例性布置。
图3D示出由该副眼镜定位成面对每一相应眼睛的、用于每个眼睛的注视检测系统中的相应注视检测元件的集合的位置的又一示例性安排。
图4A是可以用于本公开所述的各实施例的透视、近眼、混合现实显示单元的硬件和软件组件的一个实施例的框图。
图4B是与透视、近眼显示单元相关联的处理单元的硬件和软件组件的一个实施例的框图。
图5是将闪光映射到光源并且生成无闪光图像的过程的一个实施例的流程图,该过程包括在每次关闭一个光源。
图6A是其中在捕捉对应于N个不同图案的N个图像的同时能够将闪光映射到多达2N–2个光源的过程的一个实施例的流程图。
图6B和图6C示出用于确定在图6A的过程期间执行的合适操作的示例。
图7是细化无闪光图像的过程的流程图。
图8是除了将闪光映射到光源之外还能够执行的进一步处理的过程的流程图。
图9是示出在人的眼睛聚焦的注视点处相交的注视向量的示例的俯视图。
图10是可用于实现各实施例的计算系统的一个实施例的框图。
详细描述
本文公开的技术提供了用于将反射离开对象的闪光映射到造成相应闪光的光源的各实施例。将闪光正确映射到相应的光源在能够执行诸如确定对象的3D几何形状之类的功能方面是有用的。根据对象的2D图像来确定3D几何形状是可能的。然而,正确地将闪光映射到它们相应的光源可能是具有挑战性的。一个挑战在于对象可能正在移动。作为一个示例,人的眼睛可能正在相当快速地移动。因此,具有能够非常快速地执行以减少与运动伪像相关联的问题的技术可能是有益的。
本文公开的各实施例能够在用相机捕捉仅仅若干图像的同时正确地将闪光映射到光源。在一个实施例中,在用光源的不同图案照明对象的同时,捕捉每一图像。以下讨论进一步的细节。
还可确定无闪光图像。无闪光图像是其中闪光已经通过图像处理技术被移除的图像。具有无闪光图像在帮助标识对象的各元素方面可以是有用的。例如,人的眼睛的瞳孔能够更容易地通过无闪光图像来定位。根据各个实施例,无闪光图像可以根据用于将闪光映射到光源的相同的所捕捉的图像来确定,可能具有一个附加图像。
图1示出各实施例可在其中实施的示例环境。一般来说,光源107照明对象101,同时相机105捕捉包含闪光的图像。闪光是由于光源107导致的离开对象101的反射。在一个实施例中,闪光被映射到造成该闪光的光源107。作为一个非限制性示例,五个所描绘的五个光源107中的每一个光源可引起单独的闪光。因而,系统可唯一地将每一个闪光映射到其相应的光源107。
在一个实施例中,光源107是发光二极管(LED)。在一个实施例中,光源107发射红外(IR)光。光源107可以按照使得光源107的大部分(或全部)会将闪光反射到相机105的方式来放置。在一个实施例中,光源107基本上相对于对象101在位置上是固定的。注意到,对象101能够稍稍移动,诸如在人眼移动中。在一些实施例中,光源107、对象101和相机105被固定(或至少基本上固定)在绝对位置中。在一些实施例中,光源107对于对象101和/或相机105的相对位置被固定(或至少基本上固定)。然而,绝对位置可以大幅改变。例如,人可能正在行走,同时佩戴着包含光源107以及相机105的装置。
控制电路系统103被配置成控制光源107。在一个实施例中,光源107被打开或关闭以创建某种照明图案。针对每一种图案,单独的图像被相机105捕捉。控制电路系统103能够将相机105的操作与照明图案同步以便捕捉每一图案的图像。控制电路系统103能够控制每一图像的曝光。如果不同图案得到不同的照明等级,则这可能是有用的。例如,一个图案可使所有光源107打开,而另一图案可使一个或多个光源107关闭。
控制电路系统103(或其它逻辑)分析图像以将闪光映射到光源107。控制电路系统103可以是硬件和/或软件的任何组合。例如,由控制电路系统103实现的逻辑的全部或一部分可以通过执行处理器上的处理器可执行指令来实现。
如所提及的,对象101可以是相对于相机105静止的,或者相对于相机105稍稍移动。相机105可以是高速相机,从而使得所捕捉的图像之间的运动被保持为较小。在一个实施例中,一个图像是在所有光源107打开(“全开图像”)的情况下被捕捉的。控制电路系统103能够使用这一全开图像在空间上同步不同图像中的各个特征(诸如闪光)。换言之,闪光可能由于对象101与相机105和/或造成该闪光的光源107之间的轻微运动而在不同图像中出现在略微不同的像素位置中。控制电路系统103用于作出纠正从而使得闪光对于所有图像而言在统一的像素位置中。
在一个实施例中,对象101是眼睛(例如,人眼)。在此类实施例中,闪光可被用于生成眼睛几何形状的重构,诸如角膜球体。眼睛注视可以基于眼睛几何形状来确定。这也可被称为确定3D眼睛向量。然而,注意到,针对闪光的许多其它应用是可能的,诸如对象识别、高速运动跟踪、以及生产线控制。因而,对象101不必是眼睛。
图2是将闪光映射到光源107的过程201的一个实施例的流程图。将对图1的系统作出参考;然而,将理解,过程201不限于图1的系统。
在步骤203中,用光源107照明对象101。例如,控制电路系统103控制光源107以用某些图案照明对象101。图案由哪些光源打开以及哪些光源(如果存在)关闭来定义。例如,一个图案使所有光源107打开。另一图案恰恰使光源107之一关闭而所有其余光源107打开。可能存在针对每一个光源107的“一个打开”图案。还有另一图案可使得两个或更多个光源107打开而剩余光源关闭。
在一些实施例中,各图案包括其中第一光源107打开的第一图案以及其中第一光源107关闭的第二图案。作为一个示例,在第一图案中,所有光源107都打开。然而,在第二图案中,仅第一光源107关闭——其余光源107打开。图5描述了这一技术的一个实施例。然而,注意到这仅仅是一个示例。另一示例是第一图案使第一光源107打开并且一个或多个其它光源107关闭。接着,在第二图案中,第一光源107以及零个或多个其它光源107关闭。图6A描述了这一技术的一个实施例。
在一些实施例中,每一个光源107针对这些图案中的至少一个图案是关闭的并且针对这些图案中的至少一个图案是打开的。这可包括对于给定图案恰恰一个光源107关闭,针对每一光源存在一个这样的图案。图5描述了这一技术的一个实施例。这还可包括对于给定图案两个或更多个光源关闭。图6A描述了这一技术的一个实施例。
在步骤205中,控制电路系统103使得相机105在用对应图案照明对象101的同时捕捉图像。即,可以针对每一图案捕捉一个图像。在一个实施例中,相机105是高速相机105从而使得可以在非常短的时间段上捕捉图像。可能期望在对象101没有移动很多的时间段中捕捉图像。某些移动量可以被处置。
在步骤207中,图像中的闪光被分析。这可以由控制电路系统103或其它逻辑来执行。该分析可涉及对某些图像执行一组操作,该组操作被设计成检测光源107中的特定光源107的闪光。即,知晓的是,作为这些操作的结果被检测到的无论一个或多个闪光映射到该特定光源107。被选择以供处理的具体图像可取决于哪个光源107正被处理。同样,对图像执行的具体操作可取决于什么图案被用于照明对象101以及哪个光源107正被处理。
在一个实施例中,步骤207包括比较一个图像与另一图像之间的差别。作为一个示例,用恰恰一个光源107关闭所捕捉的图像可以与当所有光源107打开所捕捉的图像作比较,以寻找用恰恰一个光源107关闭所捕捉的图像中丢失的闪光。在一个实施例中,步骤207包括计算全开图像与仅一个光源107关闭的图像之间的逐像素的差别图像。下文结合图5的讨论来讨论进一步的细节。
在一个实施例中,步骤207包括对一个或多个图像执行逐像素最小值以产生“最小值图像”。这可以用于其中第一光源107打开的一组图像。在一个实施例中,步骤207包括对一个或多个图像执行逐像素最大值以产生“最大值图像”。这可以用于其中第一光源107关闭的一组图像。在一个实施例中,步骤207包括计算逐像素差别图像,逐像素差别图像是从最小值图像中减去最大值图像的逐像素无符号饱和减除操作。下文结合图6A的讨论来讨论进一步的细节。
在步骤209中,基于步骤207的分析,闪光被映射到光源107。在一些实施例中,步骤207的分析产生包含映射到当前正被分析的光源107的任何闪光的图像。尽管步骤209的措辞为将闪光映射到光源,但将理解,闪光可以通过步骤207中的合适分析被映射到所有光源107。
在讨论进一步细节之前,现在将讨论一示例设备和应用。一示例应用是注视检测。注视有时被称为从用户眼睛到用户正在看的(真实或虚拟)对象的视线。各实施例不限于这一示例设备或这一示例应用。
图3A是描绘带有注视确定的混合现实显示系统的一个实施例的示例组件的框图。系统10包括作为通过线6与处理单元4进行通信的近眼、头戴式显示设备2的透视显示设备。在其他实施例中,头戴式显示设备2通过无线通信来与处理单元4进行通信。处理单元4可以采取各种实施例。在一些实施例中,处理单元4是可以佩戴在用户的身体(例如,在所示示例中的腕)上或置于口袋中的分开的单元,并且包括用于操作近眼显示设备2的计算能力中的大部分能力。处理单元4可以与一个或多个计算系统(图3A中未描绘)无线地(例如,WiFi、蓝牙、红外、或其他无线通信手段)通信。在其他实施例中,处理单元4的功能可被集成在显示设备2的软件和硬件组件中。
头戴式显示设备2(在一个实施例中它是带镜架115的眼镜的形状)被佩戴在用户的头上,使得用户可以透视显示器(在该示例中该显示器被实现为用于每一只眼睛的显示光学系统14),并且从而具有对该用户前方的空间的实际直接视图。框架115提供用于将该系统的各元件保持在原位的支承体以及用于电连接的管道。在该实施例中,镜架115提供了便利的眼镜架作为下面进一步讨论的系统的各元件的支撑体。在其他实施例中,可以使用其他支承结构。这样的结构的示例是帽舌或护目镜。镜架包括用于搁置在用户的每只耳朵上的镜腿或侧臂。镜腿102表示右侧镜腿的一实施例。镜架的鼻梁104包括用于记录声音并向处理单元4传送音频数据的话筒110。在一个实施例中,处理单元4单元是移动设备的一部分,移动设备诸如智能蜂窝电话。移动设备5的一些其他示例是膝上型计算机或笔记本计算机以及上网本计算机。处理单元4也可以是台式机或其它计算系统。
图3B示出位于在嵌入一副眼镜中的近眼、混合现实显示系统上面对每个相应眼睛的每个眼睛的注视检测系统中的相应注视检测元件集合的位置的示例性安排。表现为每个眼睛的镜片的是每个眼睛的显示光学系统14,例如14r和14l。显示光学系统包括透视透镜,如普通眼镜一样,但还包含用于将虚拟内容与透过透镜看到的实际且直接的真实世界视图无缝地融合的光学元件(例如,反射镜、滤光器)。显示光学系统14具有一般处于透视透镜中心的光轴,其中光一般被校准来提供无失真视图。例如,在眼睛护理专业人员使一副普通眼镜适合于用户的脸部时,目标是该眼镜在每一瞳孔与相应镜片的中心或光轴相对准的位置处落在用户的鼻子上,从而通常使得校准光到达用户的眼睛以得到清晰或无失真的视图。
在图3B的示例中,至少一个传感器的检测区域139r、139l与其相应显示光学系统14r、14l的光轴相对准,使得检测区域139r、139l的中心捕捉沿着光轴的光。如果显示光学系统14与用户的瞳孔对准,则相应传感器134的每一检测区域139与用户的瞳孔相对准。检测区域139的反射光经由一个或多个光学元件传送到相机的实际图像传感器134,在该示例中传感器134由处于镜架115内部的虚线示出。
在一个示例中,通常也被称为RGB相机的可见光相机可以是所述传感器,并且光学元件或光引导元件的示例是部分透射且部分反射的可见光反射镜。可见光相机提供用户的眼睛的瞳孔的图像数据,而IR光电探测器152捕捉闪光,闪光是频谱的IR部分中的反射。如果使用可见光相机,则虚拟图像的反射可以出现在该相机所捕捉的眼睛数据中。图像过滤技术可被用于按需移除虚拟图像反射。IR相机对眼睛上的虚拟图像反射是不敏感的。IR光电检测器152可被用于捕捉来自对象101的闪光的相机105的一个实现。然而,作为IR光电检测器152的补充或替代,其它传感器可被用于捕捉闪光。
在其他示例中,至少一个传感器134是IR辐射可被定向到的IR照相机或位置敏感检测器(PSD)。例如,热反射表面可传递可见光,但反射IR辐射。从眼睛反射的IR辐射可以来自照明器153、其他IR照明器(未示出)的入射辐射或者来自从眼睛反射的环境IR辐射。照明器153是被用于照明对象101的光源107的一个实施例。
在一些示例中,传感器134可以是RGB和IR相机的组合,并且光学引导元件可包括可见光反射或转向元件和IR辐射反射或转向元件。在一些示例中,相机可以是小型的,例如2毫米(mm)乘2mm。这样的相机传感器的示例是OmnivisionOV7727。在其他示例中,相机可以足够小(例如Omnivision OV7727),例如使得图像传感器或相机134能以显示光学系统14的光轴或其他位置为中心。例如,相机134可被嵌入在系统14的镜片中。另外,可以应用图像过滤技术来将相机混合到用户视野中以减轻对用户的任何干扰。
在图3B的示例中,有四组照明器153,照明器153与光电检测器152配对并由屏障154分开以避免照明器153所生成的入射光与在光电检测器152处接收到的反射光之间的干扰。为了在附图中避免不必要的混乱,附图标记就被示出了代表性的一对。每一照明器可以是生成大约预定波长的窄光束的红外(IR)照明器。光电检测器中的每一个可被选择来捕捉大约该预定波长的光。红外还可以包括近红外。因为照明器或光电检测器可能存在波长漂移或者关于波长的微小范围是可接受的,所以照明器和光电检测器可以具有与要生成或检测的波长有关的容限范围。在传感器是IR相机或IR位置敏感检测器(PSD)的实施例中,光电检测器可以是附加数据捕捉设备并且也可被用来监视照明器的操作,例如波长漂移、波束宽度改变等。光电检测器还可提供闪光数据,其中可见光相机作为传感器134。
图3C示出定位成在配备在一副眼镜中的混合现实显示设备上面对每一相应眼睛的、用于每个眼睛的注视检测系统中的相应注视检测元件的集合的位置的示例性布置。在该实施例中,两组照明器153和光电检测器152对位于显示光学系统14周围的每一镜架部分115的顶部附近,并且另两组照明器和光电检测器对位于每一镜架部分115的底部附近,以示出照明器之间的几何关系并因此示出它们生成的闪光之间的几何关系的另一示例。闪光的这一安排可以提供与垂直方向上的瞳孔位置有关的更多信息。
图3D示出由该副眼镜定位成面对每一相应眼睛的、用于每个眼睛的注视检测系统中的相应注视检测元件的集合的位置的又一示例安排。在该示例中,传感器134r、134l与其相应显示光学系统14r、14l的光轴成一直线或与其对准,但在镜架115上位于系统14下方。另外,在一些实施例中,相机134可以是深度相机或包括深度传感器。在该示例中,存在照明器153和光检测器152的两个集合。
图4A是可以用于本公开所述的各实施例的透视、近眼、混合现实显示单元的硬件和软件组件的一个实施例的框图。图4B是描述处理单元4的各组件的框图。在这一实施例中,近眼显示设备2接收来自处理单元4的关于虚拟图像的指令并将传感器信息提供回处理单元4。处理单元4(其组件在图4B中描绘)将接收显示设备2的传感器信息。基于这一信息,处理单元4将确定在何处以及在何时向用户提供虚拟图像并相应地将指令发送给显示设备2的控制电路136。
注意,图4A的各组件中的一些(例如,面向物理环境的相机113、眼睛相机134、可变虚拟焦距调整器135、光电检测器接口139、微显示器120、照明设备153(即照明器)、耳机130、温度传感器138)以阴影示出,以指示这些设备中的每一个至少有两个——头戴式显示设备2的左侧至少一个以及右侧至少一个。图4A示出与电源管理电路202通信的控制电路200。控制电路200包括处理器210、与存储器214(例如D-RAM)进行通信的存储器控制器212、相机接口216、相机缓冲器218、显示驱动器220、显示格式化器222、定时生成器226、显示输出接口228、以及显示输入接口230。在一个实施例中,控制电路220的所有组件都通过一个或多个总线的专用线路彼此进行通信。在另一实施例中,控制电路200的每个组件都与处理器210通信。
相机接口216提供到两个面向物理环境的相机113和每一眼睛相机134的接口,并且将从相机113、134接收到的相应图像存储在相机缓冲区218中。显示驱动器220将驱动微显示器120。显示格式化器222可以向执行该增现实系统的处理的一个或多个计算机系统(例如4、12、210)的一个或多个处理器提供与被显示在微显示器120上的虚拟图像有关的信息。定时生成器226被用于为该系统提供定时数据。显示输出228是用于将来自面向物理环境的相机113和眼睛相机134的图像提供给处理单元4的缓冲区。显示输入230是用于接收诸如要在微型显示器120上显示的虚拟图像之类的图像的缓冲。显示输出228和显示输入230与作为到处理单元4的接口的带接口232进行通信。
电源管理电路202包括电压调节器234、眼睛跟踪照明驱动器236、可变调整器驱动器237、光电检测器接口239、音频DAC以及放大器238、话筒预放大器和音频ADC 240、温度传感器接口242、以及时钟生成器244。电压调节器234通过带接口232从处理单元4接收电能,并将该电能提供给头戴式显示设备2的其他组件。照明驱动器236例如经由驱动电流或电压来控制照明设备153以大约预定波长或在某一波长范围内操作。音频DAC和放大器238接收来自耳机130的音频信息。话筒前置放大器和音频ADC 240提供用于话筒110的接口。温度传感器接口242是用于温度传感器138的接口。电源管理单元202还向三轴磁力计132A、三轴陀螺仪132B以及三轴加速度计132C提供电能并从其接收回数据。电源管理单元202还向GPS收发机144提供电能并从中接收数据和向其发送数据。
可变调整器驱动器237向调整器135提供例如驱动电流或驱动电压等控制信号以移动微显示器部件173的一个或多个元件来达到通过在控制电路13或处理单元4、5或中枢计算机12或这两者的处理器210中执行的软件计算得到的聚焦区域的位移。在扫过一定范围的位移并且因此扫过一定范围的聚焦区域的实施例中,可变调整器驱动器237从定时生成器226、或者可替代地从时钟生成器244接收定时信号,以便以所编程的速率或频率来操作。
光电检测器接口239执行来自每一光电检测器的电压或电流读数所需的任何模数转换,经由存储器控制器212以处理器可读的格式来将该读数存储在存储器中,并且监视光电检测器152的操作参数,如温度和波长准确度。
图4B是与透视、近眼显示单元相关联的处理单元4的硬件和软件组件的一个实施例的框图。图4B示出与电源管理电路307进行通信的控制电路306。控制电路304包括中央处理单元(CPU)320,图形处理单元(GPU)322,高速缓存324,RAM 326,与存储器330(例如,D-RAM)进行通信的存储器控制器328,与闪存334(或其他类型的非易失性存储)进行通信的闪存控制器332,经由带接口302和带接口232与透视、近眼显示设备2进行通信的显示输出缓冲区336,经由带接口302和带接口232与近眼显示设备2进行通信的显示输入缓冲区338,与用于连接到话筒的外部话筒连接器342进行通信的话筒接口340,用于连接到无线通信设备346的PCI express接口,以及USB端口348。
在一个实施例中,无线通信组件346可包括启用Wi-Fi的通信设备、蓝牙通信设备、红外通信设备等。USB端口可以用于将处理单元4对接到另一计算设备,以便将数据或软件加载到处理单元4上以及对处理单元4进行充电。在一个实施例中,CPU 320和GPU 322是用于确定在何处、何时以及如何向用户的视野内插入虚拟图像的主负荷设备。
电源管理电路306包括时钟生成器360,模数转换器362,电池充电器364,电压调节器366,透视、近眼显示器电源376,以及与温度传感器374进行通信的温度传感器接口372(位于处理单元4的腕带上)。到直流转换器362的交流电连接到充电插孔370以用于接收AC供电并为该系统产生DC供电。电压调节器366与用于向该系统提供电能的电池368进行通信。电池充电器364被用来在从充电插孔370接收到电能之际(通过电压调节器366)对电池368进行充电。设备电源接口376向显示设备2提供电能。
图5是涉及每次关闭一个光源107的将闪光映射到光源107的过程500一个实施例的流程图。过程500是图2的过程201的一个实施例。这一过程500还描述了可如何生成无闪光图像。在步骤502中,通过例如控制电路系统103打开所有光源107。
在步骤504中,在所有光源107正在照明对象101的同时,相机105捕捉图像。这一“全开”图像可被用于帮助细化并且在空间上同步结果。例如,对象101和/或相机105和/或光源107可能正在移动,其中闪光在所捕捉的图像中的位置可能存在轻微差别。
在步骤506中,在所有光源107打开的情况下捕捉到的图像被复制到正在作业的无闪光图像。由于此时所有光源107都打开,所以在正在作业的无闪光图像中将存在闪光。在过程500期间,正在作业的无闪光图像得到更新以从中移除闪光,直到它变成无闪光。
在步骤508中,正被处理的光源107的计数器(“L”)被初始化为“1”。控制随后传递到步骤512。步骤512-522涉及处理光源107之一,它将被称为光源“L”。即,步骤512-522可以针对每一光源107被执行一次。在步骤512中,所有光源107除了光源L被打开。换言之,创造一个使光源L关闭而使其余光源打开的图案。在步骤514中,在对象101正如步骤512中所述地被照明的同时,由相机105捕捉图像。这一图像将被称为“闪光L”图像。
在步骤516,正在作业的无闪光图像通过计算当前正在作业的无闪光图像与闪光L图像的逐像素最小值来更新。这具有移除与关闭的光源L相关联的闪光的效果。
在步骤518中,基于所有光源打开的图像与当前闪光L图像之间的逐像素差别来生成“差别L图像”。在一个实施例中,无符号饱和减除操作被执行。在此类操作中,闪光L图像可以从全开图像中被减除。这可被表达为以下:Diff(A,B),其中A是全开图像,而B是闪光L图像。替换地,这可以被表达为Max(0,A-B)。因而,通过此类操作,如果正从图像A中的对应像素减除的图像B中的给定像素的结果得到小于零的值(下溢),则该值针对该像素被设置为0。如所提及的,这些操作在逐像素的基础上被执行。
在步骤520中,差别L图像被分析以检测映射到光源L的闪光。注意到,每个光源107存在一个以上的闪光是可能的。这种情况可能发生的一种方式是对象是人眼而人正佩戴眼镜的情况。另一种可能性是来自给定光源107的光反射离开相机和巩膜两者并且回到相机105,从而得到两个闪光。步骤518-520实际上可以将光源L关闭的图像与全开图像作比较以确定光源L关闭的图像中哪个闪光丢失。
在步骤522中,差别L图像中所有检测到的闪光被记录为映射到光源L。步骤524递增光源的计数器。控制随后传递到步骤510。在步骤510中,控制逻辑103确定是否存在更多要处理的光源107。如果是,则控制传递到步骤512以处理下一光源107。如果否,则过程500接着去往步骤526,其中正在作业的无闪光图像被标记为最终的无闪光图像。过程500随后结束。注意到,当过程500结束时,所有光源107将被关闭一次(所有其它光源107打开的情况下)。
如先前所提及的,全开图像可用于细化结果,以及图像中的特征的空间同步。注意到,在过程500中,在每一光源L已经被处理之后,对照全开图像的细化/同步可被立即执行。闪光可如何在空间上被同步的一个示例是通过取如在各个图像中检测到的闪光位置,并且围绕“全开”图像中的该位置运行局部峰值分析算法以细化到该闪光的位置(如果它移动过的话)。类似的办法可以被采用以细化“无闪光”图像分析的结果。由于“无闪光”图像是多个图像的组合,运动可将显著误差引入未经同步的结果。
图5的过程500描述了其中n+1个图像被用于将闪光映射到“n”个光源107的一个实施例。即,存在“全开”图案以及其中针对每一光源107的仅光源107关闭的图案。
不要求每个光源107存在至少一个图像以便将闪光映射到光源107。可以使用较少的图像。在一个实施例中,N个图像可被用于将闪光映射到2N–2个光源。例如,三个图像可被用于将闪光映射到多达六个光源107。作为另一示例,四个图像可被用于将闪光映射到多达14个光源。作为另一示例,两个图像可被用于将闪光映射到2个光源。
图6A是其中在捕捉对应于N个不同图案的N个图像的同时能够将闪光映射到多达2N–2个光源的过程600的一个实施例的流程图。过程600还描述了可如何生成无闪光图像。过程600是过程201的一个实施例。
在步骤602中,图案计数器(“S”)被初始化为“1”。这一模式计数器是针对将被用于照明对象101的N个不同的光源图案。在步骤604中,作出所有图案是否已经被用于照明对象101的判断。即,图案计数器“S”与图案数目“N”作比较。假定所有图案尚未被使用,控制传递到步骤606。
在步骤606中,控制电路系统103根据当前图案将光源107设为打开或关闭。出于讨论的目的,这将被称为“二元图案S”。在一个实施例中,将有总数为N个二元图案。
在步骤608中,在当前图案照明对象101的同时,由相机105捕捉图像。出于讨论的目的,这将被称为“序列“S。”在图6A的进一步讨论之前,将讨论二元图案的一些示例。
作为一个简单示例,光源107的总数可以是2。在这一情形中,两个二元图案可被用于将闪光映射到两个光源107。因而,在这一示例中,两个图像被捕捉。
表I示出了可如何使用两个二元图案将闪光映射到两个光源107。在图案A中,光源L1关闭而光源L2打开。在图案B中,光源L1打开而光源L2关闭。不要求“全开”图案将闪光映射到两个光源,但作为一种可能的附加图案被示出。
表格I
作为一个略微复杂的示例,光源的总数可以是6。在这一情形中,三个二元图案可被用于将闪光映射到六个光源107。因而,在这一示例中,三个图像被捕捉。表II示出三个图像可如何被如着以将闪光映射到六个光源(L1-L6)。在这一表中,“0”意味着针对该图案光源关闭,而“1”意味着针对该图案光源打开。
表II
光源L7-L9不是必需的。这些是用于附加照明的光源。然而,在这一示例中,这些是“无法检测”的光源。无法检测的光源是其闪光不被映射的光源。如表中所述,使用光源L7-L9的一个后果是将总是有六个光源打开,这意味着照明强度可以统一。
过程600中的一个选项是生成无闪光图像。步骤610-614可以可任选地被执行以生成无闪光图像。在步骤610中,判断无闪光图像是否已经被初始化。如果否,则控制传递到步骤612以通过将序列S图像复制到无闪光图像来初始化无闪光图像。
另一方面,如果无闪光图像已经被初始化,则控制传递到步骤614。在步骤614中,无闪光图像通过计算当前无闪光图像与序列S图像的逐像素最小值来更新。
在任一情况下,过程600接着继续到步骤616以递增二元图案的计数器。控制接着传递到步骤604以判断是否存在要被用于照明对象101的更多二元图案。当所有二元图案已经被使用时,控制传递到步骤618。在步骤618-636中,所捕捉的图像被处理以将闪光映射到光源107。这些步骤针对每一个光源107被单独地执行。注意到,各个步骤可以并行执行,因为图像已经在步骤606-608中被捕捉。
在步骤618中,光源107数目的计数器被初始化为“1”以指示闪光要被映射到光源107中的第一光源。步骤620是用于确定所有光源107已经被处理的测试。如果否,则控制传递到步骤622。简言之,步骤622和624将步骤608中捕捉的每一个图像放置在两个集合之一(S1或S2)中。集合S1是针对当前光源打开的所有图像。集合S2是针对当前光源关闭的所有图像。因而,在步骤622中,光源L打开的所有二元图案图像被置于集合S1中。在步骤624中,光源L关闭的所有二元图案图像被置于集合S2中。
以下将用于解说。回头参考表II,将讨论处理光源L1的示例。对于图案C,光源L1是打开的。因而,当图案C被用于照明对象101时所捕捉的图像将被置于集合S1。对于图案A和B,光源L1是关闭的。因而,当图案A和B被用于照明对象101时所捕捉的图像将被置于集合S2。类似的推理适用于表II中的其它光源L2-L6。注意到,表II仅仅是二元图案的一个示例,也可使用其它图案。
继续该流程,在步骤626中,通过计算集合S1中的所有图像的逐像素最小值来计算“S1最小值图像”。在来自表II针对光源L的示例中,集合S1中仅存在一个图像(即C图像)。因而,集合S1中的所有图像的逐像素最小值将是该图像。然而,注意到,对于光源L3,存在两个其中L3是打开的图案。因而,对于光源L3,当图案B和C被使用时所捕捉的图下功能将被置于集合S1中。对于这一示例,步骤622因而在图案B和图案C被用于照明对象107时所捕捉的两个图像之间执行逐像素最小值。
在步骤626中,通过计算集合S2中的所有图像的逐像素最大值来计算“S2最大值图像”。再次参考表II中的光源L1的示例,当图案A和B被用于照明对象101时所捕捉的图像被置于集合S2中。对于这一示例,这一步骤626在图案A和B被用于照明对象101时所捕捉的图像之间执行逐像素最大值。对于一些光源107,诸如光源L3,集合S2中可能仅存在一个图像。
表III示出对于其中三个二元图案被用于将闪光映射到六个光源L1-L6的示例而言闪光可如何出现在各个图像中的示例。“1”指示闪光位置处的亮像素。“0”指示闪光位置处的正常像素。换言之,“1”指示造成闪光的光源107打开,而“0”指示造成闪光的光源107关闭。
表III
在表III中,G7-G9指的是由于可任选的光源L7-L9引起的闪光。回忆一下,出于创建附加照明的目的,这些光源在捕捉图像A-C时是打开的。然而,根据各实施例,闪光G7-G9未被检测出。
表IV示出对于其中三个二元图案被用于将闪光映射到六个光源L1-L6的示例而言闪光可如何出现在各个最小值和最大值图像中的示例。表IV可以通过对表III的值应用恰适的操作来导出。例如,Min(A,B)仅在A图像和B图像都亮时才具有亮像素。换言之,当图像A或B中的任一者具有正常像素时,Min(A,B)图像为正常。如所提及的,根据各实施例,闪光G7-G9未被检测出。
表IV
继续该过程流,在步骤630中计算逐像素差别图像“Diff L”。逐像素差别图像可以基于S1最小值图像和S2最大值图像之间的逐像素饱和减除来计算。具体地,在一个实施例中,S2最大值图像从S1最小值图像中被减除。
这一操作可被表达为以下:Diff(A,B),其中A是S1最小值图像而B是S2最大值图像。替换地,这可以被表达为Max(0,A-B)。因而,通过此类操作,如果正从图像A中的对应像素减除的图像B中的给定像素的结果得到小于零的值(下溢),则该值针对该像素被设置为0。如所提及的,这些操作在逐像素的基础上被执行。
在步骤632中,Diff L图像被分析以检测映射到光源L的闪光。在一个实施例中,Diff L中对应于映射到光源L的闪光的像素将具有比Diff L图像中的其余像素大得多的值(例如,更亮)。换言之,在一个实施例中,其它像素将一般地具有0左右的值。
表V示出对于其中三个二元图案被用于将闪光映射到六个光源L1-L6的示例而言计算逐像素差别图像如何允许闪光被映射到光源的示例。在表V中,“1”对应于亮像素,而破折号(“-”)对应于闪光位置处的近乎黑色像素。例如,表V示出闪光G1(对应于光源L1)应当出现在逐像素差别图像Diff(C,Max(A,B))中。
表V
查看表V中的信息的另一方式是它示出了可如何找到闪光候选。例如,闪光6候选:Diff(Min(A,B),C)等等。为了进一步解说,针对来自表I的示例,闪光候选可以如下被定位。回忆一下,表I示出了可如何使用两个二元图案将闪光映射到两个光源。闪光1候选是Diff(B,A)。闪光2候选是Diff(A,B)。
在步骤634中,在Diff L图像中被检测到的一个或多个闪光被记录为被映射到光源L。控制接着传递到步骤636以递增光源计数器,从而使得可通过重复步骤620-634来处理下一光源107。最终,所有光源107被处理(步骤620=否)。在处理所有光源107之后,过程600结束。
注意到,图6A的过程600可允许比图5的过程500更少的图像被捕捉。这降低了要被曝光于照明的对象101(例如,人)的整体曝光。这还通过允许相机104关闭达更长时间段以及不要求光源107打开得如此之多来节省功率。
图6A的过程600还可降低第一图像和最后一个图像之间的时间距离。如果期望,这可允许增加的照明曝光。还可能降低算法在相机107上运行的速度。
以下描述了针对表II的示例二元序列可如何被导出的细节。即,这是对于其中三个二元图案(及对应的图像)被用于将闪光映射到六个光源的示例。各个原理可延及其它情形,诸如两个二元图案用于两个光源以及四个二元图案用于14个光源。
步骤1是选择要使用的二元图案数目。在该示例中,使用了三个二元图案。
步骤2是列举使用那么多二元位的所有数字。在这一示例中,使用三个二元位的数字被列举:000、001、010、011、100、101、110、111。
步骤3是删除第一个数字和最后一个数字。即,全“0”和全“1”的情形不被使用。
步骤4是根据剩余数字的每一有效位来定义光源的二元图案。在该示例中,二元图案是:000111、011001、101010。注意到,二元图案的这一序列在表II中被描绘。出于讨论的目的,三个二元图案的这一序列将按顺序被称为A、B和C。
注意到,该序列中的每一闪光可使用AND(与)以及“AND NOT(与非)”运算来导出。对于给定的图像,MIN(最小值)运算可代替AND来使用。同样地,DIFF(a,b)运算可代替“AND NOT”来使用。
还注意到,A“AND NOT”B“AND NOT”C也可被写为A“AND NOT”(B OR C)。在给定的图像上,MAX(最大值)运算可代替OR(或)运算来使用。
图6B的示例和6B将被用于进一步解说。图6B示出了对于“001000”的示例。该示例示出多个等效表达式,它们以运算符“AND”以及“AND NOT”来表达。如上所讨论的,MIN运算可代替AND来使用。因而,MIN(B,C)运算可被使用。如上所讨论的,DIFF(a,b)运算可代替“AND NOT来使用。”因而,DIFF(A,MIN(B,C))运算可被使用。注意到,图6B描绘了对应于表V中针对G3的那些运算的运算。
图6C示出了对于“000100”的示例。该示例示出多个等效表达式,它们以运算符“AND”、“OR”以及“AND NOT来表达。”如上所讨论的,MAX运算可代替OR运算来使用。因而,MAX(B,C)运算可被使用,如所描绘的。如上所讨论的,DIFF(a,b)运算可代替“AND NOT来使用。”因而,DIFF(A,MAX(B,C))运算可被使用,如所描绘的。注意到,图6C描绘了对应于表V中针对G4的那些运算的运算。
类似的分析可以被执行以导出表V中针对其它闪光的操作。以上阐述了N个图像(对应于N个二元图案)在理论上可如何被用于检测2N–2个唯一的闪光到光源的映射。如上所提及的,该分析可延及其它情形。
在一个实施例中,对象101可以用不期望被映射到闪光的光源来照明。在图6A的流程中,这对应于其中光源107对于所有二元图案总是打开的示例。例如,表II中的光源L7-L9是不可检测的。注意到,此类光源107不适“可检测光源”。也就是说,步骤622-634不被用于将闪光映射到针对步骤606-608中使用的所有二元图案而言是打开的光源107。此处,这被称为“不可检测”光源107。
在捕捉全开图像时,这些不可检测光源107可被关闭。注意到,在捕捉全开图像时,不要求使这些不可检测光源107关闭。在捕捉全开图像时这些不可检测光源107被保持关闭的情况下,可以对确定无闪光图像作出附加细化。这一细化可以在图6A的过程中的任何时间被作出。例如,可以在初始化无闪光图像(步骤612)之前、在无闪光图像用每一序列图像来更新(在步骤614已经针对最后一次被执行之后)之后、或者在这两个事件之前被作出。
图7是细化无闪光图像的过程700的流程图。这可以结合图6A中产生无闪光图像来使用,如刚刚所描述的。控制电路系统103可执行这一过程。在步骤702中,所有可检测光源107被打开。使用来自表II的示例,光源L1-L6被打开,而光源L7-L9被保持关闭。在步骤704中,在可检测光源107被打开的同时,使用相机107来捕捉全开图像。
在步骤706中,作出无闪光图像是否已经被初始化的判断。在一个实施例中,这一初始化发生在图6A的步骤612中。如果否,则无闪光图像通过将全开图像复制到无闪光图像来被初始化。
另一方面,如果无闪光图像已经被初始化(步骤706=是),则控制传递到步骤710。在步骤710中,无闪光图像通过计算当前无闪光图像与全开图像的逐像素最小值来被更新。对无闪光图像的进一步处理在图6A中描述。
图8是除了将闪光映射到光源107之外还能够执行的进一步处理的过程800的流程图。在步骤802中,所步骤的图像使用所有图像的最小值来组合以生成无闪光图像。步骤802的示例先前结合过程500和过程600来描述。例如,在捕捉到新的闪光L图像时,步骤516重复地计算逐像素最小值。在过程600中,在捕捉到新的序列S图像时,步骤614重复地计算逐像素最小值。
在步骤802中,无闪光图像被用于分析对象101。无闪光图像具有没有光反射的良好照明的优点,从而允许更好的输入数据以供分析固有特性,诸如瞳孔位置。瞳孔位置对于3D眼镜注视重构而言是关键输入元素。无闪光图像可被用于其它目的,诸如虹膜的生物测定映射。
在步骤806中,全开图像被用于细化结果。这已经在先前作为空间同步/细化来讨论。这可以结合过程201、500或过程600来使用。
在步骤808中,3D几何形状重构使用各个结果和经校准的非固有特性来执行。3D几何形状重构的一个示例是确定人眼的3D几何形状以及确定眼睛注视。这在下面进一步描述。这可以基于经校准的非固有特性,它们是不一定从图像中导出的数据。
一个示例先前被描述为将闪光映射到六个光源107。例如,在步骤606-608中,三个不同的二元图案可以被使用,如表II中所描述的。在一些情形中,可能期望将闪光映射到附加光源。通过在步骤606-608中使用四个不同的二元图案/图像,闪光可以被映射到最多14个光源107。然而,当使用四个二元图案时,计算复杂性可能显著增大。
一个实施例包括混合办法。例如,使用三个图案来将闪光映射到六个光源107的技术可以与使用两个图案来将闪光映射到两个光源107的技术相组合。这得到能够使用四个图案来将闪光映射到八个光源107。
作为另一示例,使用三个图案来将闪光映射到六个光源107的技术可以与使用三个图案来将闪光映射到六个光源107的技术相组合。这得到能够使用五个图案来将闪光映射到12个光源107。
现在将讨论使用四个图案来将闪光映射到八个光源的前一示例。表VI示出可被使用的四个二元图案。每一二元图案由被标记为图像A、B、C或D的列来描述。在这一示例中,光源L1-L8是可检测光源。光源L9-L12不是必需的。这些是不可检测光源,它们可被用于附加照明。注意到,对于每一图像,八个光源打开,从而得到统一的照明强度。
表VI
闪光候选可以如表VII中所描绘的那样被找到。即,表VII描述了可被应用于所捕捉的图像以将闪光映射到光源的合适的运算。注意到,该表反映了用于使用三个二元图案来将闪光映射到六个光源以及使用两个二元图案来将闪光映射到两个光源的技术的组合。
表VII
对于闪光的一种可能的使用情形是在眼睛注视重构中。以下是这能够如何被达成的概览。具有相机105和多个光源107的固定设置被设立和校准。校准涉及确定光源107(例如,LED)和相机投射点的绝对或相对位置。在一些情形中,视野内的对象101也可能需要校准。取决于完整系统的几何形状,相对定位可能代替绝对定位来起作用。
系统可被用于重构主体的眼睛注视。由于预期的人眼的高速运动,一般使用高速相机和精确控制电路系统。一旦诸如在系统的视野内,控制电路系统103以预定图案加入光源107,并且一个接一个地取得多个图像,每一图像对应于不同的二元图案。
所捕捉的图像被递送到处理器以供分析,并且处理器使用本文所述的算法来检测每一闪光并且将每一闪光匹配到其光源107。闪光位置和映射在之后的3D分析和眼睛注视重构中被使用。
图9示出确定眼睛注视的附加细节。图9是示出在用户眼睛聚焦的注视点处相交的注视向量的示例的俯视图。基于Gullstrand示意眼模型示出了每只眼睛的眼球160l、160r的模型。对于每只眼睛,眼球160被建模成具有旋转中心166的球,并且包括也被建模成球且具有中心164的角膜168。角膜随着眼球旋转,并且眼球的旋转中心166可被当作固定点。角膜覆盖虹膜170,瞳孔162处于虹膜170的中心。在这个示例中,在各个角膜的表面172上是闪光174和176。
从旋转中心166穿过角膜中心164到瞳孔162而形成的轴178是眼睛的光轴。注视向量180有时被称为从小凹穿过瞳孔中心162延伸的视线或视轴。小凹是位于视网膜中大约1.2度的小的区域。在图9的实施例中计算得到的光轴与所述视轴之间的角度偏移具有水平和垂直分量。水平分量距光轴上达5度,并且垂直分量在2和3度之间。在许多实施例中,光轴被确定,并且通过用户校准确定的小型校正被应用以获得被选作注视向量的所述视轴。对于每一用户,小的虚拟物体可由显示设备在不同的水平和垂直位置处的多个预先确定的位置中的每一位置处来显示。在物体在每一位置处的显示过程中,可以计算每一眼睛的光轴,并且光线被建模成从该位置延伸到用户眼睛中。具有水平和垂直分量的偏移角度可以基于必须如何移动光轴以与所建模的光线相对准来确定。从不同的位置处,与水平或垂直分量的平均偏移角可被选作要被应用于每一计算出的光轴的小型校正。在一些实施例中,仅水平分量被用于偏移角校正。
在图9所示的实施例中,传感器检测区域139与眼镜架115内的每一显示光学系统14的光轴相对准。在该示例中,相应的图像传感器是能够捕捉表示分别由镜架115左侧的照明器153a和153b生成的闪光174l和176l的图像数据和表示分别由照明器153c和153d生成的闪光174r和176r的数据的相机。
透过显示光学系统(镜架115中的14l和14r),用户的视野包括现实物体190、192和194以及虚拟物体182、184和186。在该示例中,左眼的角膜168l旋转到右侧或朝向用户的鼻子,并且右眼的角膜168r旋转到左侧或朝向用户的鼻子。两个瞳孔都注视虚拟物体186。来自每个眼睛中心的注视向量180l和180r进入虚拟物体186所处的Panum汇合区域195。Panum汇合区域是像人类视觉那样的双眼观察系统中的单视觉的区域。注视向量180l和180r的相交指示用户正在看虚拟物体186。
对于透视、混合现实显示设备,注视向量被确定以标识三维用户视野中的注视点,该用户视野包括通常不在计算机控制下的现实物体以及由某一应用所生成的虚拟物体。注视向量可在10英尺远的物体处、或实际上无限远的距离处相交。以下附图简要地讨论了用于确定3D用户视野的各实施例。
对面向前方的图像数据的引用是指来自一个或多个面向前方的相机(如图3A中的相机113)的图像数据。在这些实施例中,在相机位于与每个显示光学系统14的光轴142的相对小的偏移量处时,面向前方的相机113的视野近似用户的视野。偏移可以在图像数据中被纳入考虑。
图10描绘了计算设备的示例框图。计算设备可被用于实现控制电路系统103和/或处理器4的全部或一部分。计算设备可被用于执行本文描述的各种算法的全部或一部分,包括但不限于过程201、500、600、700和800。在处理单元259上执行的指令可以经由外围接口233控制相机105和光源107。
计算系统1000包括通常包括各种有形计算机可读存储介质的计算机241。这可以是能由计算机访问的任何可用介质,而且包括易失性和非易失性介质、可移动和不可移动介质。系统存储器222包括易失性和/或非易失性存储器形式的计算机存储介质,如只读存储器(ROM)223和随机存取存储器(RAM)260。基本输入/输出系统224(BIOS)包括如在启动时帮助在计算机内的元件之间传输信息的基本例程,它通常储存在ROM 223中。RAM 260通常包含处理单元259可立即访问和/或当前正在操作的数据和/或程序模块。图形接口231与GPU 229通信。还提供了操作系统225、应用程序226、其他程序模块227和程序数据228。
计算机也可以包括其他可移动/不可移动、易失性/非易失性计算机存储介质,例如,读写不可移动、非易失性磁性介质的硬盘驱动器238,读写可移动、非易失性磁盘254的磁盘驱动器239,以及读写诸如CD ROM或其他光学介质之类的可移动、非易失性光盘253的光盘驱动器240。可以在该示例性操作环境中使用的其他可移动/不可移动、易失性/非易失性有形计算机可读存储介质包括但不限于,磁带盒、闪存卡、数字多功能盘、数字录像带、固态RAM、固态ROM等等。硬盘驱动器238通常由例如接口234之类的不可移除存储器接口连接至系统总线221,而磁盘驱动器239和光盘驱动器240通常由例如接口235之类的可移除存储器接口连接至系统总线221。
驱动器以及它们相关联的计算机存储介质为计算机提供了对计算机可读指令、数据结构、程序模块,及其他数据的存储。例如,硬盘驱动器238被描绘为存储了操作系统258、应用程序257、其他程序模块256、以及程序数据255。注意,这些组件可与操作系统225、应用程序226、其它程序模块227和程序数据228相同,也可与它们不同。在此给操作系统258、应用程序257、其他程序模块256、以及程序数据255提供了不同的编号,以说明至少它们是不同的副本。用户可以通过诸如键盘251和指示设备252(通常称为鼠标、跟踪球或触摸垫)之类的输入设备向计算机输入命令和信息。其它输入设备可以包括话筒261、操纵杆、游戏手柄、圆盘式卫星天线、扫描仪等等。这些以及其它输入设备通常通过耦合到系统总线的用户输入接口236连接到处理单元259,但也可通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其它接口和总线结构来连接。监视器242或其他类型的显示设备也经由诸如视频接口232之类的接口连接至系统总线221。除监视器之外,计算机还可以包括可以通过外围接口233连接的诸如扬声器244和打印机243之类的其他外围设备。
计算机可使用至一个或多个远程计算机,如远程计算机246的逻辑连接在网络化环境中操作。远程计算机246可以是个人计算机、服务器、路由器、网络PC、对等设备或其他常见的网络节点,通常包括上文相对于计算机所描述的许多或全部元件,但是只描绘了存储器存储设备247。逻辑连接包括局域网(LAN)245和广域网(WAN)249,但也可以包括其他网络。此类联网环境在办公室、企业范围的计算机网络、内联网和因特网中是常见的。
当在LAN联网环境中使用时,计算机通过网络接口或适配器237连接到LAN245。当在WAN联网环境中使用时,计算机通常包括调制解调器250或用于通过诸如因特网等WAN 249建立通信的其它手段。调制解调器250可以是内置的或外置的,可经由用户输入接口236或其它适当的机制连接到系统总线221。在网络化环境中,相对于计算机所描绘的程序模块或其部分可被存储在远程存储器存储设备中。远程应用程序248驻留在存储器设备247上。应当理解,所示的网络连接是示例性的,并且可使用在计算机之间建立通信链路的其它手段。
该计算环境可包括其上具体化了计算机可读软件的有形计算机可读存储设备或装置,该计算机可读软件用于对至少一个处理器进行编程来执行此处描述的方法。有形计算机可读存储设备可包括,例如,组件222、234、235、230、253和254中的一个或多个。此外,计算系统的一个或多个处理器可以提供如本文所述的处理器实现的方法。GPU 229和处理单元259是处理器的示例。
附图中示出的示例计算机系统包括计算机可读存储介质的示例。计算机可读存储介质也是处理器可读存储介质。这样的介质可包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括,但不限于,RAM、ROM、EEPROM、高速缓存、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、记忆棒或卡、磁带盒、磁带、媒体驱动器、硬盘、磁盘存储或其他磁性存储设备、或能用于存储所需信息且可以由计算机访问的任何其他介质。
尽管用结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。更确切而言,上述具体特征和动作是作为实现权利要求的示例形式公开的。
Claims (10)
1.一种将闪光映射到光源的方法,包括:
用多个光源的图案照明对象;
在用对应的图案照明所述对象的同时在相机处捕捉所述对象的多个图像,其中每一个光源针对多个所捕捉的图像中的至少一个图像是关闭的并且针对多个所捕捉的图像中的至少一个图像是打开的;
分析所述多个所捕捉的图像中的闪光,包括从针对每一个光源所捕捉的图像中的一个或多个图像计算最小值图像,从针对每一个光源所捕捉的图像中的一个或多个图像计算最大值图像,以及基于针对每一个光源的最小值图像和最大值图像来计算针对该光源的差别图像;以及
将闪光映射到造成所述闪光的光源,所述映射基于每一光源的差别图像。
2.如权利要求1所述的方法,其特征在于,所述分析闪光和所述映射包括:
确定光源中的第一光源的最小值图像,所述最小值图像是所有其中第一光源打开的图像的逐像素最小值;
确定光源中的第一光源的最大值图像,所述最大值图像是所有其中第一光源关闭的图像的逐像素最大值;
计算第一光源的差别图像,所述差别图像是从第一光源的最小值图像减除第一光源的最大值图像的逐像素无符号饱和减除运算;以及
将第一光源的差别图像中的闪光映射到第一光源。
3.如权利要求2所述的方法,其特征在于,进一步包括:
对于除了第一光源之外的多个光源中的每一个光源:
重复确定最小值图像、确定最大值图像、计算差别图像、以及将差别图像中的闪光映射到相应的光源。
4.如权利要求3所述的方法,其特征在于,使用比光源少的所捕捉的图像来将闪光映射到它们相应的光源。
5.如权利要求1所述的方法,其特征在于,进一步包括:
将作业中的图像确定为所捕捉的图像中的第一个所捕捉的图像;
对于多个所捕捉的图像中的其余图像,基于作业中的图像和所捕捉的图像之间的逐像素最小值来更新作业中的图像;以及
将最终的作业中的图像确定为无闪光图像。
6.如权利要求1所述的方法,其特征在于,进一步包括:
基于所述多个所捕捉的图像的组合来生成无闪光图像,包括对所述多个所捕捉的图像执行逐像素最小值。
7.如权利要求1所述的方法,其特征在于,进一步包括:
基于所述闪光来确定所述对象的3D几何形状。
8.一种系统,包括:
多个光源;
相机;以及
与所述多个光源和所述相机处于通信的逻辑,所述逻辑被配置成:
控制所述光源以用所述多个光源的图案来照明对象,每一个光源针对至少一个图案是关闭的并且针对至少一个图案是打开的;
在用对应的不同图案照明所述对象的同时在所述相机处捕捉所述对象的多个图像;
分析作为用图案照明所述对象的结果的多个所捕捉的图像中的闪光,包括被配置成从针对每一个光源所捕捉的图像中的一个或多个图像计算最小值图像,从针对每一个光源所捕捉的图像中的一个或多个图像计算最大值图像,以及基于针对每一个光源的最小值图像和最大值图像来计算针对该光源的差别图像的逻辑;以及
基于每一光源的差别图像将闪光映射到负责所述闪光的光源。
9.如权利要求8所述的系统,其特征在于,被配置成分析闪光并且映射闪光的逻辑包括被配置成进行以下操作的逻辑:
确定光源中的第一光源的最小值图像,所述最小值图像是所有其中第一光源打开的图像的逐像素最小值;
确定光源中的第一光源的最大值图像,所述最大值图像是所有其中第一光源关闭的图像的逐像素最大值;
计算第一光源的差别图像,所述差别图像是从第一光源的最小值图像减除第一光源的最大值图像的逐像素无符号饱和减除运算;以及
将第一光源的差别图像中的闪光映射到第一光源。
10.如权利要求9所述的系统,其特征在于,所述逻辑被进一步配置成:
对于除了第一光源之外的多个光源中的每一个光源:
重复确定最小值图像、确定最大值图像、计算差别图像、以及将差别图像中的闪光映射到相应的光源。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/149,577 US9292765B2 (en) | 2014-01-07 | 2014-01-07 | Mapping glints to light sources |
US14/149,577 | 2014-01-07 | ||
PCT/US2014/072304 WO2015105689A1 (en) | 2014-01-07 | 2014-12-24 | Mapping glints to light sources |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105900141A true CN105900141A (zh) | 2016-08-24 |
CN105900141B CN105900141B (zh) | 2019-04-30 |
Family
ID=52355256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480072590.7A Active CN105900141B (zh) | 2014-01-07 | 2014-12-24 | 将闪光映射到光源 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9292765B2 (zh) |
EP (1) | EP3092616B1 (zh) |
KR (1) | KR102366110B1 (zh) |
CN (1) | CN105900141B (zh) |
WO (1) | WO2015105689A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111214205A (zh) * | 2018-11-26 | 2020-06-02 | 托比股份公司 | 控制发光器以获得最佳闪光 |
CN113189769A (zh) * | 2021-04-23 | 2021-07-30 | 歌尔股份有限公司 | 眼球追踪模组和眼镜 |
CN114070986A (zh) * | 2016-03-01 | 2022-02-18 | 皇家飞利浦有限公司 | 自适应光源 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170090557A1 (en) * | 2014-01-29 | 2017-03-30 | Google Inc. | Systems and Devices for Implementing a Side-Mounted Optical Sensor |
US9560345B2 (en) * | 2014-12-19 | 2017-01-31 | Disney Enterprises, Inc. | Camera calibration |
US9734433B1 (en) * | 2015-03-25 | 2017-08-15 | Amazon Technologies, Inc. | Estimating photometric properties using a camera and a display screen |
WO2017100685A1 (en) * | 2015-12-10 | 2017-06-15 | Bioxytech Retina, Inc. | Methods and apparatus for measuring blood oxygenation of tissue |
KR101825450B1 (ko) * | 2016-04-01 | 2018-02-05 | 엘지전자 주식회사 | 차량 제어 장치 및 그 장치의 제어 방법 |
US10187629B2 (en) * | 2016-04-06 | 2019-01-22 | Facebook, Inc. | Camera calibration system |
US10210660B2 (en) * | 2016-04-06 | 2019-02-19 | Facebook, Inc. | Removing occlusion in camera views |
JP2017211891A (ja) * | 2016-05-27 | 2017-11-30 | ソニー株式会社 | 情報処理装置、情報処理方法および記録媒体 |
US10108261B1 (en) * | 2017-07-05 | 2018-10-23 | Oculus Vr, Llc | Eye tracking based on light polarization |
KR102046701B1 (ko) * | 2017-07-17 | 2019-11-19 | 선전 구딕스 테크놀로지 컴퍼니, 리미티드 | 광학 유도 보정 파라미터 확정 방법, 생체 특징 인증 장치 및 그의 전자 단말 |
US10489648B2 (en) | 2017-08-04 | 2019-11-26 | Facebook Technologies, Llc | Eye tracking using time multiplexing |
KR102416282B1 (ko) | 2017-09-28 | 2022-07-01 | 애플 인크. | 이벤트 카메라 데이터를 사용한 눈 추적을 위한 방법 및 디바이스 |
US10725537B2 (en) * | 2017-10-02 | 2020-07-28 | Facebook Technologies, Llc | Eye tracking system using dense structured light patterns |
US10311584B1 (en) | 2017-11-09 | 2019-06-04 | Facebook Technologies, Llc | Estimation of absolute depth from polarization measurements |
US10417784B1 (en) * | 2018-06-29 | 2019-09-17 | Facebook Technologies, Llc | Boundary region glint tracking |
US10630925B1 (en) | 2018-12-03 | 2020-04-21 | Facebook Technologies, Llc | Depth determination using polarization of light and camera assembly with augmented pixels |
US10855896B1 (en) | 2018-12-13 | 2020-12-01 | Facebook Technologies, Llc | Depth determination using time-of-flight and camera assembly with augmented pixels |
US10791286B2 (en) | 2018-12-13 | 2020-09-29 | Facebook Technologies, Llc | Differentiated imaging using camera assembly with augmented pixels |
US10791282B2 (en) | 2018-12-13 | 2020-09-29 | Fenwick & West LLP | High dynamic range camera assembly with augmented pixels |
US10877268B2 (en) * | 2019-04-16 | 2020-12-29 | Facebook Technologies, Llc | Active control of in-field light sources of a head mounted display |
US10948729B2 (en) | 2019-04-16 | 2021-03-16 | Facebook Technologies, Llc | Keep-out zone for in-field light sources of a head mounted display |
US11327318B2 (en) * | 2019-08-13 | 2022-05-10 | Htc Corporation | Head-mounted display |
US10902623B1 (en) | 2019-11-19 | 2021-01-26 | Facebook Technologies, Llc | Three-dimensional imaging with spatial and temporal coding for depth camera assembly |
US11194160B1 (en) | 2020-01-21 | 2021-12-07 | Facebook Technologies, Llc | High frame rate reconstruction with N-tap camera sensor |
SE544921C2 (en) * | 2020-08-27 | 2023-01-03 | Tobii Ab | Eye tracking system |
CN116635769A (zh) * | 2021-01-18 | 2023-08-22 | 三星电子株式会社 | 包括微型相机的可穿戴的电子装置 |
US11423569B1 (en) * | 2021-04-09 | 2022-08-23 | Varjo Technologies Oy | Gaze-tracking system and method employing selective glints |
SE2250765A1 (en) * | 2022-06-22 | 2023-12-23 | Tobii Ab | An eye tracking system |
US20240331113A1 (en) * | 2023-03-28 | 2024-10-03 | Alcon Inc. | Correcting images for an ophthalmic imaging system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000026713A1 (en) * | 1998-11-02 | 2000-05-11 | Scientific Generics Limited | Eye tracking system |
US20080048931A1 (en) * | 2003-11-26 | 2008-02-28 | Rafael - Armament Development Authority Ltd. | Helmet System for Information or Weapon Systems |
WO2012055444A1 (en) * | 2010-10-29 | 2012-05-03 | IT-Universitetet i København | Method of determining reflections of light |
US20120294478A1 (en) * | 2011-05-20 | 2012-11-22 | Eye-Com Corporation | Systems and methods for identifying gaze tracking scene reference locations |
CN102814874A (zh) * | 2011-06-10 | 2012-12-12 | 株式会社迪思科 | 加工装置 |
US20130114850A1 (en) * | 2011-11-07 | 2013-05-09 | Eye-Com Corporation | Systems and methods for high-resolution gaze tracking |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPP697398A0 (en) * | 1998-11-06 | 1998-12-03 | Lions Eye Institute Of Western Australia Incorporated, The | Eye tracker for refractive surgery |
US6578962B1 (en) * | 2001-04-27 | 2003-06-17 | International Business Machines Corporation | Calibration-free eye gaze tracking |
US6659611B2 (en) | 2001-12-28 | 2003-12-09 | International Business Machines Corporation | System and method for eye gaze tracking using corneal image mapping |
US7963652B2 (en) | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
US7646422B2 (en) * | 2006-10-04 | 2010-01-12 | Branislav Kisacanin | Illumination and imaging system with glare reduction and method therefor |
EP2150170B1 (en) | 2007-05-23 | 2016-05-11 | Mirametrix Inc. | Methods and apparatus for estimating point-of-gaze in three dimensions |
US8971570B1 (en) * | 2011-11-04 | 2015-03-03 | Google Inc. | Dual LED usage for glint detection |
-
2014
- 2014-01-07 US US14/149,577 patent/US9292765B2/en active Active
- 2014-12-24 KR KR1020167020898A patent/KR102366110B1/ko active IP Right Grant
- 2014-12-24 WO PCT/US2014/072304 patent/WO2015105689A1/en active Application Filing
- 2014-12-24 EP EP14827981.3A patent/EP3092616B1/en active Active
- 2014-12-24 CN CN201480072590.7A patent/CN105900141B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000026713A1 (en) * | 1998-11-02 | 2000-05-11 | Scientific Generics Limited | Eye tracking system |
US20080048931A1 (en) * | 2003-11-26 | 2008-02-28 | Rafael - Armament Development Authority Ltd. | Helmet System for Information or Weapon Systems |
WO2012055444A1 (en) * | 2010-10-29 | 2012-05-03 | IT-Universitetet i København | Method of determining reflections of light |
US20120294478A1 (en) * | 2011-05-20 | 2012-11-22 | Eye-Com Corporation | Systems and methods for identifying gaze tracking scene reference locations |
CN102814874A (zh) * | 2011-06-10 | 2012-12-12 | 株式会社迪思科 | 加工装置 |
US20130114850A1 (en) * | 2011-11-07 | 2013-05-09 | Eye-Com Corporation | Systems and methods for high-resolution gaze tracking |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11988943B2 (en) | 2015-11-10 | 2024-05-21 | Lumileds Llc | Adaptive light source |
US12025902B2 (en) | 2015-11-10 | 2024-07-02 | Lumileds Llc | Adaptive light source |
CN114070986A (zh) * | 2016-03-01 | 2022-02-18 | 皇家飞利浦有限公司 | 自适应光源 |
CN111214205A (zh) * | 2018-11-26 | 2020-06-02 | 托比股份公司 | 控制发光器以获得最佳闪光 |
CN111214205B (zh) * | 2018-11-26 | 2023-11-03 | 托比股份公司 | 控制发光器以获得最佳闪光 |
CN113189769A (zh) * | 2021-04-23 | 2021-07-30 | 歌尔股份有限公司 | 眼球追踪模组和眼镜 |
Also Published As
Publication number | Publication date |
---|---|
US9292765B2 (en) | 2016-03-22 |
WO2015105689A1 (en) | 2015-07-16 |
CN105900141B (zh) | 2019-04-30 |
EP3092616B1 (en) | 2019-09-18 |
KR20160108394A (ko) | 2016-09-19 |
EP3092616A1 (en) | 2016-11-16 |
US20150193920A1 (en) | 2015-07-09 |
KR102366110B1 (ko) | 2022-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105900141A (zh) | 将闪光映射到光源 | |
CN103091843B (zh) | 透视显示器亮度控制 | |
KR101890542B1 (ko) | 디스플레이 향상을 위한 시스템 및 방법 | |
CN103458770B (zh) | 照射特性能够调节的用于捕获至少一个眼睛的至少一个参数的光学测量装置和方法 | |
US9801539B2 (en) | Ocular Videography System | |
CN108604116A (zh) | 能够进行眼睛追踪的可穿戴设备 | |
CN108139806A (zh) | 相对于可穿戴设备跟踪穿戴者的眼睛 | |
US10278576B2 (en) | Behind-eye monitoring using natural reflection of lenses | |
US20160131902A1 (en) | System for automatic eye tracking calibration of head mounted display device | |
CN106575039A (zh) | 具有确定用户眼镜特性的眼睛跟踪设备的平视显示器 | |
KR100949743B1 (ko) | 고글 형태를 갖는 착용형 시선 추적 장치 및 방법 | |
US20180032103A1 (en) | Wearable device having a display, lens, illuminator, and image sensor | |
CN109471523A (zh) | 使用眼球中心位置的眼睛追踪 | |
CN105934730A (zh) | 自动内容滚动 | |
KR102144040B1 (ko) | 헤드 마운트 디스플레이의 얼굴 센서를 사용한 얼굴과 안구 추적 및 얼굴 애니메이션 | |
EP3371781A1 (en) | Systems and methods for generating and using three-dimensional images | |
JP2022547893A (ja) | 視覚シーンを投影面上へマッピングする装置および方法 | |
US11948043B2 (en) | Transparent insert identification | |
JP2020077271A (ja) | 表示装置、学習装置、及び、表示装置の制御方法 | |
CN114258279A (zh) | 使用经调制的同轴照明的瞳孔评估 | |
EP4018288A1 (en) | Eye tracking and gaze estimation using off-axis camera | |
US12111463B2 (en) | Head-mounted display apparatus and operating method thereof | |
US20230359273A1 (en) | Retinal reflection tracking for gaze alignment | |
Gibaldi et al. | A Child-Friendly Wearable Device for Quantifying Environmental Risk Factors for Myopia | |
KR20240070172A (ko) | 황반변성 환자를 위한 프로그램 및 이를 적용한 ar 안경 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |