CN111263925A - 用于使用事件相机数据的眼动跟踪的方法和设备 - Google Patents
用于使用事件相机数据的眼动跟踪的方法和设备 Download PDFInfo
- Publication number
- CN111263925A CN111263925A CN201880062973.4A CN201880062973A CN111263925A CN 111263925 A CN111263925 A CN 111263925A CN 201880062973 A CN201880062973 A CN 201880062973A CN 111263925 A CN111263925 A CN 111263925A
- Authority
- CN
- China
- Prior art keywords
- light
- intensity
- user
- eye
- modulated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Position Input By Displaying (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
在一个具体实施中,一种方法包括从多个光源朝用户的眼睛发射具有调制强度的光。该方法包括接收指示多个闪烁形式的被用户的眼睛反射的多个闪烁的强度的光强度数据,以及基于光强度数据确定用户的眼动跟踪特征。在一个具体实施中,一种方法包括使用包括多个相应位置处的多个光传感器的事件相机生成多个事件消息,所述多个事件消息中的每一者响应于特定光传感器检测到光强度变化而生成并且指示所述特定光传感器的特定位置。所述方法包括基于所述多个事件消息确定用户的眼动跟踪特征。
Description
相关申请的交叉引用
本申请要求于2017年9月28日提交的美国临时专利申请62/564,875的优先权,该美国临时专利申请据此全文以引用方式并入。
技术领域
本公开整体涉及眼动跟踪,并且具体地涉及用于使用事件相机数据的眼动跟踪的系统、方法和设备。
背景技术
在各种具体实施中,头戴式设备包括确定头戴式设备的用户的注视方向的眼动跟踪系统。眼动跟踪系统常常包括相机,所述相机将用户的眼睛的图像传输给执行眼动跟踪的处理器。以足以使得能够实现眼动跟踪的帧速率传输图像就需要具有相当大带宽的通信链路,并且使用此类通信链路就增大头戴式设备的发热和功率消耗。
附图说明
因此,本公开可被本领域的普通技术人员理解,更详细的描述可参考一些例示性具体实施的方面,其中一些具体实施在附图中示出。
图1是根据一些具体实施的示例性操作环境的框图。
图2是根据一些具体实施的示例性控制器的框图。
图3是根据一些具体实施的示例性头戴式设备(HMD)的框图。
图4示出了根据一些具体实施的头戴式设备的框图。
图5A示出了根据一些具体实施的用户的眼睛具有第一注视方向。
图5B示出了根据一些具体实施的用户的眼睛具有第二注视方向。
图6A至图6D示出了根据一些具体实施在不同时间的图5的用户的眼睛。
图7示出了根据一些具体实施的事件相机的功能框图。
图8示出了根据一些具体实施的事件消息的数据图示。
图9A示出了根据一些具体实施的包括事件相机的眼动跟踪系统的功能框图。
图9B示出了根据一些具体实施的包括机器学习回归器的眼动跟踪系统的功能框图。
图9C示出了根据一些具体实施的包括注视估计器的眼动跟踪系统的功能框图。
图10是根据一些具体实施的使用强度调制闪烁确定注视方向的方法的流程图表示。
图11是根据一些具体实施的使用事件相机确定注视方向的方法的流程图表示。
根据通常的做法,附图中示出的各种特征部可能未按比例绘制。因此,为了清楚起见,可以任意地扩展或减小各种特征部的尺寸。另外,一些附图可能未描绘给定的系统、方法或设备的所有部件。最后,在整个说明书和附图中,类似的附图标号可用于表示类似的特征部。
发明内容
本文所公开的各种具体实施包括用于使用强度调制光源来确定眼动跟踪特征的设备、系统和方法。所述方法包括从多个光源朝用户的眼睛发射具有调制强度的光。所述方法包括接收指示多个闪烁形式的被用户的眼睛反射的所发射光的强度的光强度数据。所述方法包括基于所述光强度数据确定用户的眼动跟踪特征。
本文所公开的各种具体实施包括用于使用事件相机确定眼动跟踪特征的设备、系统和方法。所述方法包括使用包括多个相应位置处的多个光传感器的事件相机生成多个事件消息,所述多个事件消息中的每一者响应于特定光传感器检测到光强度变化而生成并且指示所述特定光传感器的特定位置。所述方法包括基于所述多个事件消息确定用户的眼动跟踪特征。
根据一些具体实施,一种设备包括一个或多个处理器、非暂态存储器以及一个或多个程序;该一个或多个程序被存储在非暂态存储器中并且被配置为由一个或多个处理器执行,并且该一个或多个程序包括用于执行或使得执行本文所述方法中的任一种的指令。根据一些具体实施,一种非暂态计算机可读存储介质中存储有指令,这些指令在由设备的一个或多个处理器执行时使该设备执行或使执行本文所述方法中的任一种。根据一些具体实施,一种设备包括:一个或多个处理器、非暂态存储器以及用于执行或使执行本文所述方法中的任一种的装置。
具体实施方式
描述了许多细节以便提供对附图中所示的示例具体实施的透彻理解。然而,附图仅示出了本公开的一些示例方面,因此不应被视为限制。本领域的普通技术人员将理解,其他有效方面和/或变体不包括本文所述的所有具体细节。此外,没有详尽地描述众所周知的系统、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。
在各种具体实施中,眼动跟踪用于使能用户交互,提供中央凹渲染,或减轻几何失真。眼动跟踪系统包括光源、相机和处理器,所述处理器对从所述相机接收的关于从用户的眼睛反射的来自所述光源的光的数据执行眼动跟踪。在各种具体实施中,相机包括具有多个相应位置处的多个光传感器的事件相机,所述事件相机响应于特定光传感器检测到光强度变化而生成指示所述特定光传感器的特定位置的事件消息。事件相机可包括或被称为动态视觉传感器(DVS)、硅视网膜、基于事件的相机、或无帧相机。因此,事件相机生成(并传输)关于光强度变化的数据,而不是更大量的关于每个光传感器处的绝对强度的数据。另外,因为在强度变化时生成数据,所以在各种具体实施中,光源发射具有调制强度的光。
图1是根据一些具体实施的示例性操作环境100的框图。尽管示出了相关特征,但本领域的普通技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的示例性具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,操作环境100包括控制器110和头戴式设备(HMD)120。
在一些实施方案中,控制器110被配置为管理和协调用户的增强现实/虚拟现实(AR/VR)体验。在一些实施方案中,控制器110包括软件、固件和/或硬件的合适组合。下文参考图2更详细地描述控制器110。在一些实施方案中,控制器110是相对于场景105处于本地或远程位置的计算设备。例如,控制器110是位于场景105内的本地服务器。在另一个示例中,控制器110是位于场景105之外的远程服务器(例如,云服务器、中央服务器等)。在一些实施方案中,控制器110经由一个或多个有线或无线通信信道144(例如,蓝牙、IEEE802.11x、IEEE 802.16x、IEEE 802.3x等)与HMD 120通信耦接。
在一些实施方案中,HMD 120被配置为向用户呈现AR/VR体验。在一些实施方案中,HMD 120包括软件、固件和/或硬件的合适组合。下文参考图3更详细地描述HMD 120。在一些实施方案中,控制器110的功能由HMD 120提供和/或与该HMD结合。
根据一些实施方案,在用户虚拟地和/或物理地存在于场景105内的同时,HMD 120向用户提供增强现实/虚拟现实(AR/VR)体验。在一些实施方案中,在呈现增强现实(AR)体验的同时,HMD 120被配置为呈现AR内容以及使得能够实现场景105的光学透视。在一些实施方案中,在呈现虚拟现实(VR)体验的同时,HMD 120被配置为呈现VR内容以及使得能够实现场景105的视频透视。
在一些实施方案中,用户将HMD 120佩戴在其头上。因此,HMD 120包括被提供用于显示AR/VR内容的一个或多个AR/VR显示器。例如,HMD 120包围用户的视野。在一些实施方案中,HMD 120被替换成被配置为向用户呈现AR/VR内容的手持式电子设备(例如,智能电话或平板电脑)。在一些实施方案中,用被配置为呈现AR/VR内容的AR/VR室、围场或房间替代HMD 120,用户在其中不佩戴或握持HMD 120。
图2是根据一些具体实施的控制器110的示例的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,在一些具体实施中,控制器110包括一个或多个处理单元202(例如,微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、图形处理单元(GPU)、中央处理单元(CPU)、处理核心等)、一个或多个输入/输出(I/O)设备206、一个或多个通信接口208(例如,通用串行总线(USB)、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、全球移动通信系统(GSM)、码分多址(CDMA)、时分多址(TDMA)、全球定位系统(GPS)、红外(IR)、蓝牙、ZIGBEE和/或相似类型接口)、一个或多个编程(例如,I/O)接口210、存储器220以及用于互连这些部件和各种其他部件的一条或多条通信总线204。
在一些具体实施中,所述一条或多条通信总线204包括互连系统部件和控制系统部件之间的通信的电路。在一些具体实施中,一个或多个I/O设备206包括键盘、鼠标、触控板、操纵杆、一个或多个麦克风、一个或多个扬声器、一个或多个图像传感器、一个或多个显示器等中的至少一种。
存储器220包括高速随机存取存储器,诸如动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、双倍数据速率随机存取存储器(DDR RAM)或者其他随机存取固态存储器设备。在一些具体实施中,存储器220包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器220任选地包括远离所述一个或多个处理单元202定位的一个或多个存储设备。存储器220包括非暂态计算机可读存储介质。在一些具体实施中,存储器220或者存储器220的非暂态计算机可读存储介质存储下述程序、模块和数据结构或者它们的子集,其中包括任选的操作系统230和增强现实/虚拟现实(AR/VR)体验模块240。
操作系统230包括用于处理各种基础系统服务和用于执行硬件相关任务的过程。在一些具体实施中,AR/VR体验模块240被配置为管理和协调一个或多个用户的一个或多个AR/VR体验(例如,用于一个或多个用户的单个AR/VR体验,或用于一个或多个用户的相应群组的多个AR/VR体验)。为此,在各种具体实施中,AR/VR体验模块240包括数据获取单元242、跟踪单元244、协调单元246和数据传输单元248。
在一些具体实施中,数据获取单元242被配置为至少从HMD 120获取数据(例如,呈现数据、交互数据、传感器数据、位置数据等)。为此,在各种具体实施中,数据获取单元242包括指令和/或用于指令的逻辑部件以及启发法和用于启发法的元数据。
在一些具体实施中,跟踪单元244被配置为映射场景105并且至少跟踪HMD 120相对于场景105的位置/定位。为此,在各种具体实施中,跟踪单元244包括指令和/或用于指令的逻辑部件以及启发法和用于启发法的元数据。
在一些具体实施中,协调单元246被配置为管理和协调HMD 120向用户呈现的AR/VR体验。为此,在各种具体实施中,协调单元246包括指令和/或用于指令的逻辑部件以及启发法和用于启发法的元数据。
在一些具体实施中,数据传输单元248被配置为至少向HMD 120传输数据(例如,呈现数据、位置数据等)。为此,在各种具体实施中,数据传输单元248包括指令和/或用于指令的逻辑部件以及启发法和用于启发法的元数据。
尽管数据获取单元242、跟踪单元244、协调单元246和数据传输单元248被示为驻留在单个设备(例如,控制器110)上,但应当理解,在其他具体实施中,数据获取单元242、跟踪单元244、协调单元246和数据传输单元248的任何组合可位于单独计算设备中。
此外,图2更多地用作存在于特定实施方案中的各种特征的功能描述,而不是本文所述的具体实施的结构示意。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图2中单独示出的一些功能模块可以在单个模块中实现,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征将根据实施方案而变化,并且在一些具体实施中,部分地取决于为特定实施方案选择的硬件、软件和/或固件的特定组合。
图3是根据一些具体实施的头戴式设备(HMD)120的示例的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,在一些具体实施中,HMD 120包括一个或多个处理单元302(例如,微处理器、ASIC、FPGA、GPU、CPU、处理核心等)、一个或多个输入/输出(I/O)设备及传感器306、一个或多个通信接口308(例如,USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、IR、蓝牙、ZIGBEE、SPI、I2C和/或类似类型的接口)、一个或多个编程(例如,I/O)接口310、一个或多个AR/VR显示器312、一个或多个面向内部和/或面向外部的图像传感器系统314、存储器320以及用于互连这些部件和各种其他部件的一条或多条通信总线304。
在一些具体实施中,所述一条或多条通信总线304包括互连系统部件和控制系统部件之间的通信的电路。在一些具体实施中,所述一个或多个I/O设备及传感器306包括以下项中的至少一个:惯性测量单元(IMU)、加速度计、磁力计、陀螺仪、温度计、一个或多个生理传感器(例如,血压监测仪、心率监测仪、血氧传感器、血糖传感器等)、一个或多个麦克风、一个或多个扬声器、触觉引擎以及/或者一个或多个深度传感器(例如,结构光、飞行时间等)等。
在一些具体实施中,所述一个或多个AR/VR显示器312被配置为向用户呈现AR/VR体验。在一些实施方案中,所述一个或多个AR/VR显示器312对应于全息、数字光处理(DLP)、液晶显示器(LCD)、硅基液晶(LCoS)、有机发光场效应晶体管(OLET)、有机发光二极管(OLED)、表面传导电子发射显示器(SED)、场发射显示器(FED)、量子点发光二极管(QD-LED)、微机电系统(MEMS)以及/或者类似的显示器类型。在一些实施方案中,所述一个或多个AR/VR显示器312对应于衍射、反射、偏振、全息等波导显示器。例如,HMD 120包括单个AR/VR显示器。在另一示例中,HMD 120对于用户的每只眼睛包括AR/VR显示器。在一些实施方案中,所述一个或多个AR/VR显示器312能够呈现AR和VR内容。在一些实施方案中,所述一个或多个AR/VR显示器312能够呈现AR或VR内容。
在一些具体实施中,所述一个或多个图像传感器系统314被配置为获取与包括用户的眼睛的用户的面部的至少一部分对应的图像数据。例如,所述一个或多个图像传感器系统314包括一个或多个RGB相机(例如,具有互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器)、单色相机、IR相机、基于事件的相机等。在各种具体实施中,所述一个或多个图像传感器系统314还包括发射光在用户的面部的所述一部分上的照明源,诸如闪光灯或闪光源。
存储器320包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备。在一些具体实施中,存储器320包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器320任选地包括远离所述一个或多个处理单元302定位的一个或多个存储设备。存储器320包括非暂态计算机可读存储介质。在一些具体实施中,存储器320或者存储器320的非暂态计算机可读存储介质存储下述程序、模块和数据结构或者他们的子集,其中包括任选的操作系统330、AR/VR呈现模块340、和用户数据存储装置360。
操作系统330包括用于处理各种基础系统服务和用于执行硬件相关任务的过程。在一些具体实施中,AR/VR呈现模块340被配置为经由所述一个或多个AR/VR显示器312向用户呈现AR/VR内容。为此,在各种具体实施中,AR/VR呈现模块340包括数据获取单元342、AR/VR呈现单元344、眼动跟踪单元346和数据传输单元348。
在一些具体实施中,数据获取单元342被配置为至少从控制器110获取数据(例如,呈现数据、交互数据、传感器数据、位置数据等)。为此,在各种具体实施中,数据获取单元342包括指令和/或用于指令的逻辑部件以及启发法和用于启发法的元数据。
在一些具体实施中,AR/VR呈现单元344被配置为经由所述一个或多个AR/VR显示器312呈现AR/VR内容。为此,在各种具体实施中,AR/VR呈现单元344包括指令和/或用于指令的逻辑部件以及启发法和用于启发法的元数据。
在一些具体实施中,眼动跟踪单元346被配置为基于从事件相机接收的事件消息来确定用户的眼动跟踪特征。为此,在各种具体实施中,眼动跟踪单元346包括指令和/或用于指令的逻辑部件以及启发法和用于启发法的元数据。
在一些具体实施中,数据传输单元348被配置为至少向控制器110传输数据(例如,呈现数据、位置数据等)。为此,在各种具体实施中,数据传输单元348包括指令和/或用于指令的逻辑部件以及启发法和用于启发法的元数据。
尽管数据获取单元342、AR/VR呈现单元344、眼动跟踪单元346和数据传输单元348被示为驻留在单个设备(例如,HMD 120)上,但应当理解,在其他具体实施中,数据获取单元342、AR/VR呈现单元344、眼动跟踪单元346和数据传输单元348的任何组合可位于单独计算设备中。
此外,图3更多地用作存在于特定实施方案中的各种特征的功能描述,而不是本文所述的具体实施的结构示意。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图3中单独示出的一些功能模块可以在单个模块中实现,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实现。模块的实际数量和特定功能的划分以及如何在其中分配特征将根据实施方案而变化,并且在一些具体实施中,部分地取决于为特定实施方案选择的硬件、软件和/或固件的特定组合。
图4示出了根据一些具体实施的头戴式设备400的框图。头戴式设备400包括容纳头戴式设备400的各种部件的外壳401(或封装件)。外壳401包括(或耦接到)设置在外壳401的近侧(相对于用户10)端部处的眼垫405。在各种具体实施中,眼垫405是塑料或橡胶件,其舒适且贴合地将头戴式设备400保持在用户10的面部上的适当位置(例如,围绕用户10的眼睛)。
外壳401容纳显示器410,该显示器显示图像、朝向用户10的眼睛发射光或将光发射到该用户的眼睛上。在各种具体实施中,显示器410发射光通过目镜(未示出),该目镜折射由显示器410发射的光,使显示器在用户10看来是在比从眼睛到显示器410的实际距离远的虚拟距离处。为了用户能够聚焦在显示器410上,在各种具体实施中,虚拟距离至少大于眼睛的最小焦距(例如,7cm)。此外,为了提供更好的用户体验,在各种具体实施中,虚拟距离大于1m。
虽然图4示出了包括显示器410和眼垫405的头戴式设备400,但在多种具体实施中,头戴式设备400不包括显示器410或者包括光学透视显示器而不包括眼垫405。
外壳401还容纳眼动跟踪系统,该眼动跟踪系统包括一个或多个光源422、相机424和控制器480。所述一个或多个光源422将光发射到用户10的眼睛上,其反射成可由相机424检测的光图案(例如,闪光圈)。基于该光图案,控制器480可确定用户10的眼动跟踪特征。例如,控制器480可确定用户10的注视方向和/或眨眼状态(睁眼或闭眼)。又如,控制器480可确定瞳孔中心、瞳孔尺寸或关注点。因此,在各种具体实施中,光由所述一个或多个光源422发射,从用户10的眼睛反射,并且由相机424检测。在各种具体实施中,来自用户10的眼睛的光在到达相机424之前从热镜反射或通过目镜。
显示器410发射第一波长范围内的光,并且所述一个或多个光源422发射第二波长范围内的光。类似地,相机424检测第二波长范围内的光。在各种具体实施中,第一波长范围是可见波长范围(例如,可见光谱内大约为400-700nm的波长范围),并且第二波长范围是近红外波长范围(例如,近红外光谱内约为700-1400nm的波长范围)。
在各种具体实施中,眼动跟踪(或者具体地讲,所确定的注视方向)用于使能用户交互(例如,用户10通过看着显示器410上的选项来选择它),提供中心凹渲染(例如,在用户10正在看着的显示器410的区域中呈现较高的分辨率而在显示器410上的其他地方呈现较低的分辨率),或者减少几何失真(例如,显示器410上对象的3D渲染中)。
在各种具体实施中,所述一个或多个光源422朝向用户的眼睛发射光,该光以多个闪烁的形式反射。图5A示出了根据一些具体实施的用户的眼睛500具有第一注视方向。图5B示出了根据一些具体实施的用户的眼睛500具有第二注视方向。眼睛500包括由虹膜554围绕的瞳孔552,两者均被角膜550覆盖。眼睛500还包括巩膜556(也称为眼睛500的眼白)。当用户具有第一注视方向(如图5A所示)时,被布置成图案(例如,圆形)的所述多个光源422所发射的光被角膜550以具有第一图案(在图5A中也是圆形)的多个闪烁510的形式反射。当用户具有第二注视方向(如图5B所示)时,被布置成相同图案的所述多个光源422所发射的光被角膜550以具有第二图案(图5B中的倾斜椭圆)的多个闪烁510的形式反射。因此,基于反射图案(并且可能还有其他特征,例如瞳孔尺寸、瞳孔形状和瞳孔中心),可确定用户的眼动跟踪特征。
在各种具体实施中,(图4的)所述一个或多个光源422朝用户的眼睛发射具有调制强度的光。因此,在第一时间,所述多个光源中的第一光源以第一强度投射到用户的眼睛上,并且在第二时间,所述多个光源中的第一光源以不同于第一强度的第二强度(其可为零,例如,关断)投射到用户的眼睛上。
图6A至图6D示出了根据一些具体实施在不同时间的图5的用户的眼睛500。多个闪烁610A-610H由以调制强度朝用户的眼睛500发射(并且被角膜550反射)的光产生。例如,在第一时间(图6A中),所述多个闪烁610A-610H中的第一闪烁610A和第五闪烁610E被用户的眼睛500以第一强度反射。在比第一时间晚的第二时间(在图6B中),第一闪烁610A和第五闪烁610E的强度被调制为第二强度(例如,零)。另外,在第二时间,所述多个闪烁610A-610H中的第二闪烁610B和第六闪烁610F被用户的眼睛500以第一强度反射。在比第二时间晚的第三时间(在图6C中),所述多个闪烁610A-610H中的第三闪烁610C和第七闪烁610G被用户的眼睛500以第一强度反射。在比第三时间晚的第四时间(在图6D中),所述多个闪烁610A-610H中的第四闪烁610D和第八闪烁610H被用户的眼睛500以第一强度反射。在比第四时间晚的第五时间(返回在图6A中),第一闪烁610A和第五闪烁610E的强度被调制回第一强度。
因此,在各种具体实施中,所述多个闪烁610A-610H中的每一者以调制频率(例如,600Hz)闪动接通和关断。然而,第二闪烁610B的相位相对于第一闪烁610A的相位偏移,第三闪烁610C的相位相对于第二闪烁610B的相位偏移,等等,使得闪烁看起来围绕角膜550旋转。
因此,在各种具体实施中,所述多个光源中不同光源的强度以不同方式调制。因此,在分析被眼睛反射并被相机424检测的闪烁时,可确定闪烁以及对应光源(例如,哪个光源产生已被检测到的闪烁)的身份。
在各种具体实施中,(图4A的)所述一个或多个光源422以各种方式被差分调制。在各种具体实施中,所述多个光源中的第一光源以第一频率被调制具有第一相位偏移(例如,图6A的第一闪烁610A),并且所述多个光源中的第二光源以第一频率被调制具有第二相位偏移(例如,图6B的第二闪烁610B)。
在各种具体实施中,所述一个或多个光源422以不同调制频率调制发射光的强度。例如,在各种具体实施中,所述多个光源中的第一光源以第一频率(例如,600Hz)调制,并且所述多个光源中的第二光源以第二频率(例如,500Hz)调制。
在各种具体实施中,所述一个或多个光源422根据不同的正交码调制发射光的强度,诸如可在CDMA(码分多址)通信中使用的那些。例如,沃尔什矩阵的行或列可用作正交码。因此,在各种具体实施中,所述多个光源中的第一光源根据第一正交码调制,并且所述多个光源中的第二光源根据第二正交码调制。
在各种具体实施中,所述一个或多个光源422在高强度值和低强度值之间调制发射光的强度。因此,在各个时间,光源发射的光的强度为高强度值或为低强度值。在各种具体实施中,低强度值为零。因此,在各种具体实施中,所述一个或多个光源422在接通状态(在高强度值处)和关断状态(在低强度值处)之间调制发射光的强度。在各种具体实施中(如图6A至图6D所示),所述多个光源中处于接通状态的光源的数量是恒定的。
在各种具体实施中,所述一个或多个光源422在强度范围内(例如,在10%最大强度和40%最大强度之间)调制发射光的强度。因此,在各个时间,光源的强度为低强度值,为高强度值,或为介于两者之间的某个值。在各种具体实施中,所述一个或多个光源422被差分调制,使得所述多个光源中的第一光源在第一强度范围内被调制,并且所述多个光源中的第二光源在不同于所述第一强度范围的第二强度范围内被调制。
在各种具体实施中,所述一个或多个光源422根据注视方向调制发射光的强度。例如,如果用户正注视特定光源被瞳孔反射的方向(例如,图5B中的左上闪烁),则所述一个或多个光源422基于这个认知而改变发射光的强度。在各种具体实施中,所述一个或多个光源422降低发射光的强度,以减少近红外光进入瞳孔的量,作为安全预防措施。
在各种具体实施中,所述一个或多个光源422根据用户生物计量来调制发射光的强度。例如,如果用户眨眼多于正常,心率升高或者被注册为儿童,则所述一个或多个光源422降低发射光的强度(或所述多个光源发射的所有光的总强度)以减小眼睛上的负担。又如,所述一个或多个光源422基于用户的眼睛颜色来调制发射光的强度,因为与棕色眼睛相比,谱反射率对于蓝色眼睛可能不同。
在各种具体实施中,所述一个或多个光源422根据呈现的用户界面(例如,显示器410上显示的内容)来调制发射光的强度。例如,如果显示器410异常亮(例如,正在显示爆炸的视频),则所述一个或多个光源422增大发射光的强度以补偿来自显示器410的潜在干扰。
在各种具体实施中,相机424是帧相机,其以帧速率在特定时间点或多个时间点生成用户10的眼睛的图像。每个图像包括对应于图像的像素的像素值的矩阵,所述像素对应于相机的光传感器矩阵的位置。
在各种具体实施中,相机424是包括在多个相应位置处的多个光传感器(例如,光传感器矩阵)的事件相机,该事件相机响应于特定光传感器检测到光强度变化而生成指示所述特定光传感器的特定位置的事件消息。
图7示出根据一些具体实施的事件相机700的功能框图。事件相机700包括分别耦接到消息生成器770的多个光传感器760。在各种具体实施中,所述多个光传感器760被布置成行和列的矩阵,并且因此,所述多个光传感器760中的每一者与行值和列值相关联。
所述多个光传感器760包括图7中详细示出的光传感器701。光传感器701包括在源电压和地电压之间的与电阻器721串联的光电二极管710。光电二极管710上的电压与入射在光传感器701上的光的强度成比例。光传感器701包括与光电二极管710并联的第一电容器731。因此,第一电容器731上的电压与光电二极管710上的电压相同(例如,与光传感器701所检测到的光的强度成比例)。
光传感器701包括耦接在第一电容器731和第二电容器732之间的开关740。第二电容器732耦接在开关和地电压之间。因此,当开关740闭合时,第二电容器732上的电压与第一电容器731上的电压相同(例如,与光传感器701所检测到的光的强度成比例)。当开关740断开时,第二电容器732上的电压固定在当开关740上次闭合时在第二电容器732上的电压处。
第一电容器731上的电压和第二电容器732上的电压被馈送给比较器750。当第一电容器731上的电压与第二电容器732上的电压之间的差值小于阈值量时,比较器750输出“0”电压。当第一电容器731上的电压比第二电容器732上的电压高至少所述阈值量时,比较器750输出“1”电压。当第一电容器731上的电压比第二电容器732上的电压低至少所述阈值量时,比较器750输出“-1”电压。
当比较器750输出“1”电压或“-1”电压时,开关740闭合,并且消息生成器770接收该数字信号并生成事件消息(如下文进一步所述)。
例如,在第一时间,入射在光传感器701上的光的强度为第一光值。因此,光电二极管710上的电压为第一电压值。同样,第一电容器731上的电压为第一电压值。对于该示例,第二电容器732上的电压也为第一电压值。因此,比较器750输出“0”电压,开关740保持闭合,并且消息生成器770不执行任何操作。
在第二时间,入射在光传感器701上的光的强度增大到第二光值。因此,光电二极管710上的电压为第二电压值(高于第一电压值)。同样,第一电容器731上的电压为第二电压值。因为开关740断开,所以第二电容器732上的电压仍为第一电压值。假设第二电压值至少比第一电压值高所述阈值,则比较器750输出“1”电压,闭合开关740,并且消息生成器770基于所接收的数字信号而生成事件消息。
在开关740由于来自比较器750的“1”电压而闭合时,第二电容器732上的电压从第一电压值变成第二电压值。因此,比较器750输出“0”电压,从而断开开关740。
在第三时间,入射在光传感器701上的光的强度(又)增大到第三光值。因此,光电二极管710上的电压为第三电压值(高于第二电压值)。同样,第一电容器731上的电压为第三电压值。因为开关740断开,所以第二电容器732上的电压仍为第二电压值。假设第三电压值至少比第二电压值高所述阈值,则比较器750输出“1”电压,闭合开关740,并且消息生成器770基于所接收的数字信号而生成事件消息。
在开关740由于来自比较器750的“1”电压而闭合时,第二电容器732上的电压从第二电压值变成第三电压值。因此,比较器750输出“0”电压,从而断开开关740。
在第四时间,入射在光传感器701上的光的强度减小回到第二光值。因此,光电二极管710上的电压为第二电压值(小于第三电压值)。同样,第一电容器731上的电压为第二电压值。因为开关740断开,所以第二电容器732上的电压仍为第三电压值。因此,比较器750输出“-1”电压,闭合开关740,并且消息生成器770基于所接收的数字信号生成事件消息。
在开关740由于来自比较器750的“1”电压而闭合时,第二电容器732上的电压从第三电压值变成第二电压值。因此,比较器750输出“0”电压,从而断开开关740。
消息生成器770在不同时间接收来自所述多个光传感器760中每一者的数字信号,该数字信号指示光强度的增大(“1”电压)或光强度的降低(“-1”电压)。响应于接收到来自所述多个光传感器760中特定光传感器的数字信号,消息生成器770生成事件消息。
图8示出根据一些具体实施的事件消息800的数据图示。在各种具体实施中,事件消息800在位置字段802中指示特定光传感器的特定位置。在各种具体实施中,事件消息以像素坐标指示特定位置,诸如行值(例如,在行字段中)和列值(例如,在列字段中)。在各种具体实施中,事件消息还在极性字段803中指示光强度变化的极性。例如,事件消息可在极性字段803中包括“1”以指示光强度的增大,并且可在极性字段803中包括“0”以指示光强度的减小。在各种具体实施中,事件消息还在时间字段801中指示检测到光强度变化的时间(例如,接收数字信号的时间)。在各种具体实施中,事件消息在绝对强度字段(未示出)中指示表示所检测到的光的强度的值,作为极性的替代或除极性之外。
图9A示出了根据一些具体实施的包括事件相机910的眼动跟踪系统900的功能框图。眼动跟踪系统900基于从事件相机910接收的事件消息来输出用户的注视方向。
事件相机910包括在多个相应位置处的多个光传感器。响应于特定光传感器检测到光强度变化,事件相机910生成指示所述特定光传感器的特定位置的事件消息。如上文参考图8所述,在各种具体实施中,所述特定位置由像素坐标指示。在各种具体实施中,事件消息还指示光强度变化的极性。在各种具体实施中,事件消息还指示检测到光强度变化的时间。在各种具体实施中,事件消息还指示表示所检测到的光的强度的值。
来自事件相机910的事件消息被双工器920接收。双工器920将事件消息分成目标频率事件消息(与以一个或多个光源的调制频率为中心的频带相关联)和偏离目标频率事件消息(与其他频率相关联),将目标频率事件消息馈送给耦接到闪烁检测器940的第一特征生成器930,并且将偏离目标频率事件消息馈送给耦接到瞳孔检测器960的第二特征生成器950。在一些具体实施中,第一特征生成器930和/或第二特征生成器950不存在,并且目标频率事件消息和/或偏离目标频率事件消息分别被直接馈送给闪烁检测器940和/或瞳孔检测器960。
在各种具体实施中,双工器920基于时间字段中的指示检测到光强度变化的时间的时间戳确定事件消息是目标频率事件消息(或偏离目标频率事件消息)。例如,在各种具体实施中,如果事件消息是包括设定范围内的多个事件消息的集合中在设定时间量内指示特定位置的一者,则双工器920确定事件消息是目标频率事件消息。否则,双工器920确定事件消息是偏离目标频率事件消息。在各种具体实施中,所述设定范围和/或所述设定时间量与朝向用户的眼睛发射的调制光的调制频率成比例。又如,在各种具体实施中,如果具有类似或相反极性的连续事件之间的时间在设定时间范围内,则双工器920确定事件消息是目标频率事件消息。
第二特征生成器950接收偏离目标频率事件消息,并且基于偏离目标频率事件消息生成一个或多个偏离目标特征。在一个实施方案中,偏离目标特征是近似强度图像。在各种具体实施中,近似强度图像包括具有在对应于光传感器的相应位置的相应多个像素处的多个像素值的图像。在接收到指示特定位置和正极性(表示光强度已增大)的事件消息时,对于对应于所述特定位置的像素处的像素值添加数量(例如,1)。类似地,在接收到指示特定位置和负极性(表示光强度已减小)的事件消息时,从对应于所述特定位置的像素处的像素值减去所述数量。在各种具体实施中,近似强度图像被过滤,例如模糊化。在一个实施方案中,偏离目标特征是具有在对应于光传感器的相应位置的相应多个像素处的多个像素值的正时间戳图像,其中像素值是指示相应光传感器何时触发上一个具有正极性的事件的时间戳。在一个实施方案中,偏离目标特征是具有在对应于光传感器的相应位置的相应多个像素处的多个像素值的负时间戳图像,其中像素值是指示相应光传感器何时触发上一个具有负极性的事件的时间戳。在一个实施方案中,偏离目标特征是具有在对应于光传感器的相应位置的相应多个像素处的多个像素值的频率图像,其中像素值是从相应光传感器接收的事件消息的频率的量度。在各种具体实施中,偏离目标特征可以是其他基于偏离目标频率事件消息的特征。
偏离目标特征被瞳孔检测器960接收。在一个实施方案中,偏离目标特征是近似强度图像,并且瞳孔检测器960在近似强度图像中定位低强度区域。在各种具体实施中,瞳孔检测器960定位像素值小于阈值的区域(至少为阈值尺寸的区域)。在各种具体实施中,该区域对应于用户的眼睛的瞳孔。在各种具体实施中,瞳孔检测器960将椭圆拟合至低强度区域并生成关于所述椭圆的椭圆数据。
在各种具体实施中,瞳孔检测器960除了初始瞳孔检测之外还执行瞳孔跟踪。在各种具体实施中,瞳孔检测器960基于偏离目标频率事件消息和/或偏离目标特征来定位一个或多个高对比度边缘,并且基于先前椭圆和所述一个或多个高对比度边缘拟合新椭圆。
在各种具体实施中,瞳孔检测器960将关于新椭圆和/或先前椭圆的椭圆数据提供给几何分析仪970。在各种具体实施中,椭圆数据包括中心(对应于瞳孔的瞳孔尺寸)、短轴尺寸和长轴尺寸(对应于瞳孔的尺寸)和旋转角度中的一者或多者。
第一特征生成器930接收目标频率事件消息并且基于目标频率事件消息生成目标特征。目标特征可以是上文相对于偏离目标特征描述的特征中的任何特征,包括与偏离目标特征相同或不同的特征。闪烁检测器940从第一特征生成器930接收目标特征。在各种具体实施中,闪烁检测器940确定从用户的眼睛反射的一个或多个闪烁的位置。在各种具体实施中,闪烁检测器940基于指示光强度增大的事件消息(例如,指示正极性)来确定位置,而不基于指示光强度降低(例如,指示负极性)的事件消息。在各种具体实施中,闪烁检测器940基于指示光强度降低的事件消息(例如,指示负极性)来确定位置,而不基于指示光强度增大(例如,指示正极性)的事件消息。
如上所述,在各种具体实施中,闪烁以差分调制被反射(例如,它们被不同地调制)。因此,在各种具体实施中,除了闪烁的位置之外,闪烁检测器940还确定该一个或多个闪烁的身份。因此,在各种具体实施中,闪烁检测器940向几何分析仪970输出闪烁检测消息,该闪烁检测消息针对一个或多个闪烁指示相应位置和对应于产生该闪烁的相应光源的相应标识符。在各种具体实施中,光源和事件相机被同步,并且可确定检测到改变的时间与触发光源的时间之间的相对时间,从而允许进行此类标识。
几何分析仪970接收来自闪烁检测器940的关于检测到的闪烁的数据、以及来自瞳孔检测器960的关于用户的眼睛的瞳孔的数据。基于这个所接收的信息,几何分析器970确定用户的眼动跟踪特征,诸如用户的注视方向和/或眨眼状态。
在各种具体实施中,为了特别稳健的注视估计,几何分析仪970将从角膜反射的闪烁与从巩膜反射的闪烁区分开,并且仅使用从角膜反射的闪烁来估计注视方向。因此,在各种具体实施中,几何分析器970实施测量以执行这个区分,例如通过应用稳健估计技术诸如RANSAC(随机样本一致)、稳健加权等。
图9B示出了根据一些具体实施的包括机器学习回归器980的眼动跟踪系统902的功能框图。眼动跟踪系统902基本上类似于图9A的眼动跟踪系统900,但其中闪烁检测器940、瞳孔检测器960和几何分析仪970被机器学习回归器980替换,该机器学习回归器基于目标特征和偏离目标特征来确定眼动跟踪特征。在一些具体实施中,第一特征生成器930和/或第二特征生成器950不存在,并且目标频率事件消息和/或偏离目标频率事件消息分别被直接馈送给机器学习回归器980。
在各种具体实施中,机器学习回归器980包括线性回归器、随机森林回归器、自适应提升回归器、或神经网络(诸如卷积神经网络、循环神经网络、或长/短期存储器网络)。
图9C示出了根据一些具体实施的包括注视估计器990的眼动跟踪系统904的功能框图。眼动跟踪系统904包括上文所述的事件相机910。事件消息被馈送到概率标签器925中,该概率标签器以事件消息是目标频率事件消息的概率来标签每个事件消息。被概率标签的事件消息被馈送到特征生成器935中,该特征生成器生成上文相对于偏离目标特征所述的一个或多个特征。所述一个或多个特征被馈送到注视估计器990中,该注视估计器基于所述一个或多个特征来确定眼动跟踪特征(例如,注视方向)。
图10是根据一些具体实施的使用强度调制光源确定眼动跟踪特征的方法1000的流程图表示。在一些具体实施中(并且如下面作为示例详细描述的),方法1000由头戴式电子设备诸如图4的头戴式电子设备400执行。在各种具体实施中,方法1000由具有一个或多个处理器、非暂态存储器和一个或多个AR/VR显示器的设备(例如,图3中的HMD 120)执行。在一些具体实施中,方法1000由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法1000由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。
方法1000在框1010中开始于HMD从多个光源朝用户的眼睛发射具有调制强度的光。在各种具体实施中,所述多个光源中的第一光源以第一频率被调制具有第一相位偏移,并且所述多个光源中的第二光源以第一频率被调制具有不同于第一相位偏移的第二相位偏移。在各种具体实施中,所述多个光源中的第一光源以第一频率调制,并且所述多个光源中的第二光源以不同于第一频率的第二频率调制。在各种具体实施中,所述多个光源中的第一光源根据第一正交码调制,并且所述多个光源中的第二光源根据第二正交码调制。
在各种具体实施中,所述多个光源中的第一光源在第一强度范围内调制,并且所述多个光源中的第二光源在不同于第一强度范围的第二强度范围内调制。在各种具体实施中,所述多个光源中的每个光源在高强度值和低强度值之间调制。在各种具体实施中,高强度值为接通状态,并且低强度值为关断状态。在各种具体实施中,所述多个光源中处于接通状态的光源的数量是恒定的。在各种具体实施中,强度根据先前确定的眼动跟踪特征、用户生物计量或呈现的用户界面中的至少一者来调制。
在各种具体实施中,所述多个光源发射近红外波长范围内的光。
方法1000在框1020中继续,HMD接收指示多个闪烁形式的被用户的眼睛反射的所发射光的强度的光强度数据。在各种具体实施中,光强度数据包括用户的眼睛的多个图像。在各种具体实施中,光强度数据包括多个事件消息。
方法1000在框1030处继续,其中HMD基于光强度数据确定用户的眼动跟踪特征。在各种具体实施中,眼动跟踪特征包括注视方向和/或眨眼状态。在各种具体实施中,HMD根据调制的频率范围过滤光强度数据,并且基于过滤后的光强度数据确定用户的眼动跟踪特征。在各种具体实施中,HMD基于光强度数据中的调制来标识相应光源,并且基于相应光源的标识来确定用户的眼动跟踪特征。
图11是根据一些具体实施的使用事件相机确定眼动跟踪特征的方法1100的流程图表示。在一些具体实施中(并且如下面作为示例详细描述的),方法1100由头戴式电子设备诸如图4的头戴式电子设备400执行。在各种具体实施中,方法1100由具有一个或多个处理器、非暂态存储器和一个或多个AR/VR显示器的设备(例如,图3中的HMD 120)执行。在一些具体实施中,方法1100由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法1100由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。
方法1110在框1100中开始于HMD使用包括在多个相应位置处的多个光传感器的事件相机生成多个事件消息。在各种具体实施中,所述多个事件消息中的每一者是响应于特定光传感器检测到光强度变化而生成,并且所述多个事件消息中的每一者指示所述特定光传感器的特定位置。
在各种具体实施中,所述特定位置由像素坐标指示。在各种具体实施中,所述多个事件消息中的每一者还指示光强度变化的极性。在各种具体实施中,所述多个事件消息中的每一者还指示检测到光强度变化的时间。
方法1100在框1120中继续,其中HMD基于所述多个事件消息确定用户的眼动跟踪特征。在各种具体实施中,眼动跟踪特征包括注视方向和/或眨眼状态。
在各种具体实施中,HMD通过检测用户的眼睛的瞳孔来确定眼动跟踪特征。例如,在各种具体实施中,HMD基于来自事件相机的事件消息生成用户的眼睛的近似强度图像,在用户的眼睛的近似强度图像中定位低强度区域,并且将椭圆拟合至低强度区域。
在各种具体实施中,HMD通过跟踪用户的眼睛的瞳孔来确定眼动跟踪特征。例如,在各种具体实施中,HMD基于来自事件相机的事件消息定位一个或多个高对比度边缘,并且基于先前椭圆和所述一个或多个高对比度边缘拟合新椭圆。
在各种具体实施中,HMD通过检测从用户的眼睛反射的一个或多个闪烁来确定眼动跟踪特征(例如,如在图10的方法1000中所执行的)。在各种具体实施中,HMD基于指示光强度增大的事件消息来检测所述一个或多个闪烁,而不基于指示光强度降低的事件消息。在各种具体实施中,HMD基于指示光强度降低的事件消息来检测所述一个或多个闪烁,而不基于指示光强度增大的事件消息。
虽然上文描述了在所附权利要求书范围内的具体实施的各个方面,但是应当显而易见的是,上述具体实施的各种特征可通过各种各样的形式体现,并且上述任何特定结构和/或功能仅是例示性的。基于本公开,本领域的技术人员应当理解,本文所述的方面可以独立于任何其他方面来实现,并且这些方面中的两个或更多个可以采用各种方式组合。例如,可以使用本文阐述的任何数量的方面来实现装置和/或可以实践方法。另外,除了本文阐述的一个或多个方面之外或者不同于本文阐述的一个或多个方面,可以使用其他结构和/或功能来实现这样的装置和/或可以实践这样的方法。
还将理解的是,虽然术语“第一”、“第二”等可能在本文中用于描述各种元素,但是这些元素不应当被这些术语限定。这些术语只是用于将一个元件与另一元件区分开。例如,第一节点可以被称为第二节点,并且类似地,第二节点可以被称为第一节点,其改变描述的含义,只要所有出现的“第一节点”被一致地重命名并且所有出现的“第二节点”被一致地重命名。第一节点和第二节点都是节点,但它们不是同一个节点。
本文中所使用的术语仅仅是为了描述特定实施方案并非旨在对权利要求进行限制。如在对实施方案的描述和所附权利要求中所使用的那样,单数形式的“一个”(“a”“an”)、和“该”旨在也涵盖复数形式,除非上下文清楚地另有指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联地列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”(“comprises”和/或“comprising”)在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件,和/或其分组。
如本文所使用的,术语“如果”可以被解释为表示“当所述先决条件为真时”或“在所述先决条件为真时”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,具体取决于上下文。类似地,短语“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”被解释为表示“在确定所述先决条件为真时”或“响应于确定”或“根据确定”所述先决条件为真或“当检测到所述先决条件为真时”或“响应于检测到”所述先决条件为真,具体取决于上下文。
Claims (78)
1.一种方法,包括:
从多个光源朝用户的眼睛发射具有调制强度的光;
接收指示多个闪烁形式的被所述用户的所述眼睛反射的所发射光的强度的光强度数据;以及
基于所述光强度数据确定所述用户的眼动跟踪特征。
2.根据权利要求1所述的方法,其中所述多个光源中的第一光源以第一频率被调制具有第一相位偏移,并且所述多个光源中的第二光源以所述第一频率被调制具有不同于所述第一相位偏移的第二相位偏移。
3.根据权利要求1所述的方法,其中所述多个光源中的第一光源以第一频率调制,并且所述多个光源中的第二光源以不同于所述第一频率的第二频率调制。
4.根据权利要求1至3中任一项所述的方法,其中所述多个光源中的第一光源根据第一正交码调制,并且所述多个光源中的第二光源根据第二正交码调制。
5.根据权利要求1至4中任一项所述的方法,其中所述多个光源中的第一光源在第一强度范围内调制,并且所述多个光源中的第二光源在不同于所述第一强度范围的第二强度范围内调制。
6.根据权利要求1至4中任一项所述的方法,其中所述多个光源中的每个光源在高强度值和低强度值之间调制。
7.根据权利要求6所述的方法,其中所述高强度值为接通状态,并且所述低强度值为关断状态。
8.根据权利要求7所述的方法,其中所述多个光源中处于所述接通状态的光源的数量是恒定的。
9.根据权利要求1至8中任一项所述的方法,其中所述强度根据先前确定的眼动跟踪特征、用户生物计量或呈现的用户界面中的至少一者来调制。
10.根据权利要求1至9中任一项所述的方法,其中所述多个光源发射近红外波长范围中的光。
11.根据权利要求1至10中任一项所述的方法,其中所述光强度数据包括所述用户的所述眼睛的多个图像。
12.根据权利要求1至10中任一项所述的方法,其中所述光强度数据包括多个事件消息。
13.根据权利要求1至12中任一项所述的方法,还包括根据所述调制的频率范围过滤所述光强度数据,其中确定所述用户的所述眼动跟踪特征是基于所过滤后的光强度数据。
14.根据权利要求1至13中任一项所述的方法,还包括基于所述光强度数据中的调制来标识相应光源,其中确定所述用户的所述眼动跟踪特征是基于所述相应光源的所述标识。
15.根据权利要求1至14中任一项所述的方法,其中所述眼动跟踪特征包括注视方向和/或眨眼状态。
16.一种系统,包括:
多个光源,所述多个光源用于朝用户的眼睛发射具有调制强度的光;
相机,所述相机用于生成指示多个闪烁形式的被所述用户的所述眼睛反射的所发射光的强度的光强度数据;以及
处理器,所述处理器用于基于所述光强度数据确定所述用户的眼动跟踪特征。
17.根据权利要求16所述的系统,其中所述多个光源中的第一光源以第一频率被调制具有第一相位偏移,并且所述多个光源中的第二光源以所述第一频率被调制具有不同于所述第一相位偏移的第二相位偏移。
18.根据权利要求16所述的系统,其中所述多个光源中的第一光源以第一频率调制,并且所述多个光源中的第二光源以不同于所述第一频率的第二频率调制。
19.根据权利要求16至18中任一项所述的系统,其中所述多个光源中的第一光源根据第一正交码调制,并且所述多个光源中的第二光源根据第二正交码调制。
20.根据权利要求16至19中任一项所述的系统,其中所述多个光源中的第一光源在第一强度范围内调制,并且所述多个光源中的第二光源在不同于所述第一强度范围的第二强度范围内调制。
21.根据权利要求16至19中任一项所述的系统,其中所述多个光源中的每个光源在高强度值和低强度值之间调制。
22.根据权利要求21所述的系统,其中所述高强度值为接通状态,并且所述低强度值为关断状态。
23.根据权利要求22所述的系统,其中所述多个光源中处于所述接通状态的光源的数量是恒定的。
24.根据权利要求16至23中任一项所述的系统,其中所述强度根据先前确定的眼动跟踪特征、用户生物计量或呈现的用户界面中的至少一者来调制。
25.根据权利要求16至24中任一项所述的系统,其中所述多个光源发射近红外波长范围中的光。
26.根据权利要求16至25中任一项所述的系统,其中所述相机包括用于生成所述用户的所述眼睛的多个图像的图像相机。
27.根据权利要求16至26中任一项所述的系统,其中所述相机包括用于生成多个事件消息的事件相机。
28.根据权利要求16至27中任一项所述的系统,其中所述处理器还用于根据所述调制的频率范围过滤所述光强度数据,以及基于所过滤后的光强度数据确定所述用户的所述眼动跟踪特征。
29.根据权利要求16至28中任一项所述的系统,其中所述处理器还用于基于所述光强度数据中的调制来标识相应光源,以及基于所述相应光源的所述标识确定所述用户的所述眼动跟踪特征。
30.根据权利要求16至29中任一项所述的系统,其中所述眼动跟踪特征包括注视方向和/或眨眼状态。
31.一种非暂态计算机可读介质,所述非暂态计算机可读介质上编码有指令,所述指令在被处理器执行时使所述处理器执行包括以下的操作:
从多个光源朝用户的眼睛发射具有调制强度的光;
接收指示多个闪烁形式的被所述用户的所述眼睛反射的所发射光的强度的光强度数据;以及
基于所述光强度数据确定所述用户的眼动跟踪特征。
32.根据权利要求31所述的非暂态计算机可读介质,其中所述多个光源中的第一光源以第一频率被调制具有第一相位偏移,并且所述多个光源中的第二光源以所述第一频率被调制具有不同于所述第一相位偏移的第二相位偏移。
33.根据权利要求31所述的非暂态计算机可读介质,其中所述多个光源中的第一光源以第一频率调制,并且所述多个光源中的第二光源以不同于所述第一频率的第二频率调制。
34.根据权利要求31至33中任一项所述的非暂态计算机可读介质,其中所述多个光源中的第一光源根据第一正交码调制,并且所述多个光源中的第二光源根据第二正交码调制。
35.根据权利要求31至34中任一项所述的非暂态计算机可读介质,其中所述多个光源中的第一光源在第一强度范围内调制,并且所述多个光源中的第二光源在不同于所述第一强度范围的第二强度范围内调制。
36.根据权利要求31至34中任一项所述的非暂态计算机可读介质,其中所述多个光源中的每个光源在高强度值和低强度值之间调制。
37.根据权利要求36所述的非暂态计算机可读介质,其中所述高强度值为接通状态,并且所述低强度值为关断状态。
38.根据权利要求37所述的非暂态计算机可读介质,其中所述多个光源中处于所述接通状态的光源的数量是恒定的。
39.根据权利要求31至38中任一项所述的非暂态计算机可读介质,其中所述强度根据先前确定的眼动跟踪特征、用户生物计量或呈现的用户界面中的至少一者来调制。
40.根据权利要求31至39中任一项所述的非暂态计算机可读介质,其中所述多个光源发射近红外波长范围中的光。
41.根据权利要求31至40中任一项所述的非暂态计算机可读介质,其中所述光强度数据包括所述用户的所述眼睛的多个图像。
42.根据权利要求31至41中任一项所述的非暂态计算机可读介质,其中所述光强度数据包括多个事件消息。
43.根据权利要求31至42中任一项所述的非暂态计算机可读介质,所述操作还包括根据所述调制的频率范围过滤所述光强度数据,其中确定所述用户的所述眼动跟踪特征是基于所过滤后的光强度数据。
44.根据权利要求31至43中任一项所述的非暂态计算机可读介质,所述操作还包括基于所述光强度数据中的调制来标识相应光源,其中确定所述用户的所述眼动跟踪特征是基于所述相应光源的所述标识。
45.根据权利要求31至44中任一项所述的非暂态计算机可读介质,其中所述眼动跟踪特征包括注视方向和/或眨眼状态。
46.一种装置,包括:
事件相机,所述事件相机包括在多个相应位置处的多个光传感器,所述事件相机响应于特定光传感器检测到光强度变化而生成指示所述特定光传感器的特定位置的事件消息;和
眼动跟踪器,所述眼动跟踪器接收来自所述事件相机的事件消息并基于所述事件消息确定用户的眼动跟踪特征。
47.根据权利要求46所述的装置,其中所述事件消息还指示所述光强度变化的极性。
48.根据权利要求46或47所述的装置,其中所述事件消息还指示检测到所述光强度变化的时间。
49.根据权利要求46至48中任一项所述的装置,其中所述特定位置由像素坐标指示。
50.根据权利要求46至49中任一项所述的装置,其中所述眼动跟踪器通过检测所述用户的眼睛的瞳孔来确定所述眼动跟踪特征。
51.根据权利要求50所述的装置,其中所述眼动跟踪器通过以下方式检测所述瞳孔:
基于来自所述事件相机的所述事件消息生成所述用户的所述眼睛的近似强度图像;
在用户的所述眼睛的所述近似强度图像中定位低强度区域;以及
将椭圆拟合至所述低强度区域。
52.根据权利要求46至51中任一项所述的装置,其中所述眼动跟踪器通过跟踪所述用户的眼睛的瞳孔来确定所述眼动跟踪特征。
53.根据权利要求52所述的装置,其中所述眼动跟踪器通过以下方式跟踪所述用户的所述眼睛的所述瞳孔:
基于来自所述事件相机的所述事件消息定位一个或多个高对比度边缘;以及
基于先前椭圆和所述一个或多个高对比度边缘拟合新椭圆。
54.根据权利要求46所述的装置,其中所述眼动跟踪器通过检测从所述用户的眼睛反射的一个或多个闪烁来确定所述眼动跟踪特征。
55.根据权利要求54所述的装置,其中所述眼动跟踪器基于指示光强度增大的事件消息来检测所述一个或多个闪烁,而不基于指示光强度降低的事件消息。
56.根据权利要求54所述的装置,其中所述眼动跟踪器基于指示光强度降低的事件消息来检测所述一个或多个闪烁,而不基于指示光强度增大的事件消息。
57.一种方法,包括:
使用包括多个相应位置处的多个光传感器的事件相机生成多个事件消息,所述多个事件消息中的每一者响应于特定光传感器检测到光强度变化而生成并且指示所述特定光传感器的特定位置;以及
基于所述多个事件消息确定用户的眼动跟踪特征。
58.根据权利要求57所述的方法,其中所述多个事件消息中的每一者还指示所述光强度变化的极性。
59.根据权利要求57或58所述的方法,其中所述多个事件消息中的每一者还指示检测到所述光强度变化的时间。
60.根据权利要求57至59中任一项所述的方法,其中所述特定位置由像素坐标指示。
61.根据权利要求57至60中任一项所述的方法,其中确定所述眼动跟踪特征包括检测所述用户的眼睛的瞳孔。
62.根据权利要求61所述的方法,其中检测所述瞳孔包括:
基于来自所述事件相机的所述事件消息生成所述用户的所述眼睛的近似强度图像;
在用户的所述眼睛的所述近似强度图像中定位低强度区域;以及
将椭圆拟合至所述低强度区域。
63.根据权利要求57至62中任一项所述的方法,其中确定所述眼动跟踪特征包括跟踪所述用户的眼睛的瞳孔。
64.根据权利要求63所述的方法,其中跟踪所述用户的所述眼睛的所述瞳孔包括:
基于来自所述事件相机的所述事件消息定位一个或多个高对比度边缘;以及
基于先前椭圆和所述一个或多个高对比度边缘拟合新椭圆。
65.根据权利要求57至64中任一项所述的方法,其中确定所述眼动跟踪特征包括检测从所述用户的眼睛反射的一个或多个闪烁。
66.根据权利要求65所述的方法,其中检测所述一个或多个闪烁是基于指示光强度增大的事件消息,而不基于指示光强度降低的事件消息。
67.根据权利要求65所述的方法,其中检测所述一个或多个闪烁是基于指示光强度降低的事件消息,而不基于指示光强度增大的事件消息。
68.一种非暂态计算机可读介质,所述非暂态计算机可读介质上编码有指令,所述指令在被处理器执行时使所述处理器执行包括以下的操作:
使用包括多个相应位置处的多个光传感器的事件相机生成多个事件消息,所述多个事件消息中的每一者响应于特定光传感器检测到光强度变化而生成并且指示所述特定光传感器的特定位置;以及
基于所述多个事件消息确定用户的眼动跟踪特征。
69.根据权利要求68所述的非暂态计算机可读介质,其中所述多个事件消息中的每一者还指示所述光强度变化的极性。
70.根据权利要求68或69所述的非暂态计算机可读介质,其中所述多个事件消息中的每一者还指示检测到所述光强度变化的时间。
71.根据权利要求68至70中任一项所述的非暂态计算机可读介质,其中所述特定位置由像素坐标指示。
72.根据权利要求68至71中任一项所述的非暂态计算机可读介质,其中确定所述眼动跟踪特征包括检测所述用户的眼睛的瞳孔。
73.根据权利要求72所述的非暂态计算机可读介质,其中检测所述瞳孔包括:
基于来自所述事件相机的所述事件消息生成所述用户的所述眼睛的近似强度图像;
在用户的所述眼睛的所述近似强度图像中定位低强度区域;以及
将椭圆拟合至所述低强度区域。
74.根据权利要求68至73中任一项所述的非暂态计算机可读介质,其中确定所述眼动跟踪特征包括跟踪所述用户的眼睛的瞳孔。
75.根据权利要求74所述的非暂态计算机可读介质,其中跟踪所述用户的所述眼睛的所述瞳孔包括:
基于来自所述事件相机的所述事件消息定位一个或多个高对比度边缘;以及
基于先前椭圆和所述一个或多个高对比度边缘拟合新椭圆。
76.根据权利要求68至75中任一项所述的非暂态计算机可读介质,其中确定所述眼动跟踪特征包括检测从所述用户的眼睛反射的一个或多个闪烁。
77.根据权利要求76所述的非暂态计算机可读介质,其中检测所述一个或多个闪烁是基于指示光强度增大的事件消息,而不基于指示光强度降低的事件消息。
78.根据权利要求76所述的非暂态计算机可读介质,其中检测所述一个或多个闪烁是基于指示光强度降低的事件消息,而不基于指示光强度增大的事件消息。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762564875P | 2017-09-28 | 2017-09-28 | |
US62/564,875 | 2017-09-28 | ||
PCT/US2018/053143 WO2019067731A1 (en) | 2017-09-28 | 2018-09-27 | METHOD AND DEVICE FOR TRACKING THE EYE USING EVENT CAMERA DATA |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111263925A true CN111263925A (zh) | 2020-06-09 |
CN111263925B CN111263925B (zh) | 2022-06-14 |
Family
ID=64024068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880062973.4A Active CN111263925B (zh) | 2017-09-28 | 2018-09-27 | 用于使用事件相机数据的眼动跟踪的方法和设备 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11150469B2 (zh) |
EP (2) | EP3714350B1 (zh) |
JP (1) | JP7008131B2 (zh) |
KR (1) | KR102416282B1 (zh) |
CN (1) | CN111263925B (zh) |
WO (1) | WO2019067731A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112616016A (zh) * | 2020-12-10 | 2021-04-06 | 南昌欧菲光电技术有限公司 | 事件相机获取影像的方法、装置、电子设备及存储介质 |
CN113688733A (zh) * | 2021-08-25 | 2021-11-23 | 深圳龙岗智能视听研究院 | 基于事件相机的眼部检测和追踪方法、系统、设备及应用 |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018061621A (ja) * | 2016-10-11 | 2018-04-19 | オプトス ピーエルシー | 眼底画像撮影装置、眼底画像撮影方法、及び眼底画像撮影プログラム |
KR102416282B1 (ko) | 2017-09-28 | 2022-07-01 | 애플 인크. | 이벤트 카메라 데이터를 사용한 눈 추적을 위한 방법 및 디바이스 |
FI20175960A1 (en) * | 2017-10-30 | 2019-05-01 | Univ Of Eastern Finland | Procedure and apparatus for gaze detection |
GB2569785B (en) * | 2017-12-20 | 2022-07-13 | Sony Interactive Entertainment Inc | Data processing |
US10795435B2 (en) * | 2018-07-19 | 2020-10-06 | Samsung Electronics Co., Ltd. | System and method for hybrid eye tracker |
CN110850594B (zh) * | 2018-08-20 | 2022-05-17 | 余姚舜宇智能光学技术有限公司 | 头戴式可视设备及用于头戴式可视设备的眼球追踪系统 |
CN110148159B (zh) * | 2019-05-20 | 2021-03-26 | 厦门大学 | 一种基于事件相机的异步目标跟踪方法 |
CN110196640A (zh) * | 2019-05-31 | 2019-09-03 | 维沃移动通信有限公司 | 一种操作控制方法及终端 |
CN112114653A (zh) * | 2019-06-19 | 2020-12-22 | 北京小米移动软件有限公司 | 终端设备的操控方法、装置、设备及存储介质 |
KR20210000985A (ko) * | 2019-06-26 | 2021-01-06 | 삼성전자주식회사 | 비전 센서, 이를 포함하는 이미지 처리 장치 및 비전 센서의 동작 방법 |
CN110598692B (zh) * | 2019-08-09 | 2021-04-13 | 清华大学 | 一种基于深度学习的椭圆识别方法 |
CN110426845B (zh) * | 2019-08-09 | 2021-03-23 | 业成科技(成都)有限公司 | 眼球追踪架构 |
JP7269131B2 (ja) * | 2019-08-14 | 2023-05-08 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム |
US20210068652A1 (en) * | 2019-09-09 | 2021-03-11 | Apple Inc. | Glint-Based Gaze Tracking Using Directional Light Sources |
EP4035142A1 (en) | 2019-09-27 | 2022-08-03 | Apple Inc. | Creation of optimal working, learning, and resting environments on electronic devices |
WO2021095853A1 (ja) * | 2019-11-15 | 2021-05-20 | 株式会社デンソーウェーブ | 画像復元装置、画像復元方法、及び画像復元プログラム |
US11632501B2 (en) * | 2019-12-20 | 2023-04-18 | Tobil AB | Controlling settings of an image sensor device in an eye tracking system |
US12066625B2 (en) | 2020-02-28 | 2024-08-20 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for event-based gaze tracking |
US20210302726A1 (en) * | 2020-03-31 | 2021-09-30 | Htc Corporation | Head mounted display |
US20230367393A1 (en) | 2020-10-13 | 2023-11-16 | Sony Group Corporation | Line-of-sight detection device, display device, and method for sensing eyeball |
US11803237B2 (en) | 2020-11-14 | 2023-10-31 | Facense Ltd. | Controlling an eye tracking camera according to eye movement velocity |
JP7507319B2 (ja) * | 2020-12-17 | 2024-06-27 | ジン ラブズ インコーポレイテッド | 瞳孔検出および視線追跡のためのイベントカメラシステム |
WO2022158795A1 (ko) * | 2021-01-21 | 2022-07-28 | 삼성전자 주식회사 | 사용자의 시선을 검출하는 증강 현실 장치 및 방법 |
KR102483010B1 (ko) * | 2021-01-29 | 2022-12-30 | 원텍 주식회사 | 안구미세운동 측정장치 |
WO2022172724A1 (ja) * | 2021-02-12 | 2022-08-18 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US11423569B1 (en) * | 2021-04-09 | 2022-08-23 | Varjo Technologies Oy | Gaze-tracking system and method employing selective glints |
US20240264435A1 (en) * | 2021-06-02 | 2024-08-08 | Sony Group Corporation | Line-of-sight detection apparatus, display apparatus, line-of-sight detection system, and line-of-sight detection method |
US11972042B2 (en) | 2021-06-15 | 2024-04-30 | Microsoft Technology Licensing, Llc | Variable intensity distributions for gaze detection assembly |
US12099654B1 (en) | 2021-06-21 | 2024-09-24 | Apple Inc. | Adaptation of electronic content |
EP4113252A1 (en) * | 2021-07-02 | 2023-01-04 | IniVation AG | Eye tracking device, eye tracking method, and computer-readable medium |
US12059609B2 (en) | 2022-06-10 | 2024-08-13 | Sony Interactive Entertainment Inc. | Asynchronous dynamic vision sensor LED AI tracking system and method |
US20230400915A1 (en) * | 2022-06-10 | 2023-12-14 | Sony Interactive Entertainment Inc. | Dynamic vision sensor based eye and/or facial tracking |
US12064682B2 (en) | 2022-06-10 | 2024-08-20 | Sony Interactive Entertainment Inc. | Deployment of dynamic vision sensor hybrid element in method for tracking a controller and simultaneous body tracking, slam or safety shutter |
US12029971B2 (en) | 2022-06-10 | 2024-07-09 | Sony Interactive Entertainment LLC | Hybrid pixel dynamic vision sensor tracking using IR and ambient light (or depth sensor) |
US11995226B2 (en) | 2022-06-10 | 2024-05-28 | Sony Interactive Entertainment Inc. | Dynamic vision sensor tracking based on light source occlusion |
WO2024004416A1 (ja) * | 2022-06-27 | 2024-01-04 | ソニーグループ株式会社 | 視線検出装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050175218A1 (en) * | 2003-11-14 | 2005-08-11 | Roel Vertegaal | Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections |
US20130135204A1 (en) * | 2011-11-30 | 2013-05-30 | Google Inc. | Unlocking a Screen Using Eye Tracking Information |
CN104094280A (zh) * | 2011-11-07 | 2014-10-08 | 爱福露恩斯公司 | 用于高分辨率视线跟踪的系统和方法 |
US20150098620A1 (en) * | 2012-01-06 | 2015-04-09 | Google Inc. | Position Estimation |
US20150199006A1 (en) * | 2013-11-09 | 2015-07-16 | Firima Inc. | Optical eye tracking |
CN105769117A (zh) * | 2016-01-11 | 2016-07-20 | 佛山科学技术学院 | 一种眼底光学全场微血管造影成像装置及方法 |
CN105814584A (zh) * | 2013-12-09 | 2016-07-27 | 传感运动器具创新传感技术有限公司 | 用于操作眼睛跟踪设备的方法和用于提供主动功率管理的眼睛跟踪设备 |
US20160249800A1 (en) * | 2014-03-28 | 2016-09-01 | Intel Corporation | Computational array camera with dynamic illumination for eye tracking |
CN106062665A (zh) * | 2013-09-11 | 2016-10-26 | 深圳市汇顶科技股份有限公司 | 基于用户的眼睛运动和位置的光学感测和跟踪的用户界面 |
US20170078645A1 (en) * | 2015-09-16 | 2017-03-16 | Andrew Neil Aurigema | Vision enhancing system and method |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5280313A (en) * | 1991-07-25 | 1994-01-18 | Canon Kabushiki Kaisha | Ophthalmic measuring apparatus |
JP2002007053A (ja) * | 2000-06-22 | 2002-01-11 | Canon Inc | 視線検出機能付き装置 |
US6578962B1 (en) * | 2001-04-27 | 2003-06-17 | International Business Machines Corporation | Calibration-free eye gaze tracking |
US8066375B2 (en) | 2005-10-10 | 2011-11-29 | Tobii Technology Ab | Eye tracker having an extended span of operating distances |
US20060256133A1 (en) * | 2005-11-05 | 2006-11-16 | Outland Research | Gaze-responsive video advertisment display |
US8077914B1 (en) * | 2006-08-07 | 2011-12-13 | Arkady Kaplan | Optical tracking apparatus using six degrees of freedom |
US7618144B2 (en) * | 2008-01-07 | 2009-11-17 | Optical Physics Company | System and method for tracking eye movement |
WO2012055444A1 (en) * | 2010-10-29 | 2012-05-03 | IT-Universitetet i København | Method of determining reflections of light |
US8971570B1 (en) * | 2011-11-04 | 2015-03-03 | Google Inc. | Dual LED usage for glint detection |
KR102093198B1 (ko) * | 2013-02-21 | 2020-03-25 | 삼성전자주식회사 | 시선 인식을 이용한 사용자 인터페이스 방법 및 장치 |
US9292765B2 (en) * | 2014-01-07 | 2016-03-22 | Microsoft Technology Licensing, Llc | Mapping glints to light sources |
US20150296135A1 (en) * | 2014-04-10 | 2015-10-15 | Magna Electronics Inc. | Vehicle vision system with driver monitoring |
US20160370591A1 (en) | 2014-12-27 | 2016-12-22 | Fove, Inc. | Head mounted display |
US10203566B2 (en) * | 2015-12-21 | 2019-02-12 | Facebook Technologies, Llc | Enhanced spatial resolution using a segmented electrode array |
US9785234B2 (en) * | 2015-12-26 | 2017-10-10 | Intel Corporation | Analysis of ambient light for gaze tracking |
KR102416282B1 (ko) * | 2017-09-28 | 2022-07-01 | 애플 인크. | 이벤트 카메라 데이터를 사용한 눈 추적을 위한 방법 및 디바이스 |
-
2018
- 2018-09-27 KR KR1020207008959A patent/KR102416282B1/ko active IP Right Grant
- 2018-09-27 WO PCT/US2018/053143 patent/WO2019067731A1/en unknown
- 2018-09-27 CN CN201880062973.4A patent/CN111263925B/zh active Active
- 2018-09-27 EP EP18793722.2A patent/EP3714350B1/en active Active
- 2018-09-27 EP EP23207064.9A patent/EP4293484A3/en active Pending
- 2018-09-27 US US16/651,228 patent/US11150469B2/en active Active
- 2018-09-27 JP JP2020517942A patent/JP7008131B2/ja active Active
-
2021
- 2021-09-21 US US17/481,272 patent/US11474348B2/en active Active
-
2022
- 2022-10-07 US US17/961,963 patent/US12105280B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050175218A1 (en) * | 2003-11-14 | 2005-08-11 | Roel Vertegaal | Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections |
CN104094280A (zh) * | 2011-11-07 | 2014-10-08 | 爱福露恩斯公司 | 用于高分辨率视线跟踪的系统和方法 |
US20130135204A1 (en) * | 2011-11-30 | 2013-05-30 | Google Inc. | Unlocking a Screen Using Eye Tracking Information |
US20150098620A1 (en) * | 2012-01-06 | 2015-04-09 | Google Inc. | Position Estimation |
CN106062665A (zh) * | 2013-09-11 | 2016-10-26 | 深圳市汇顶科技股份有限公司 | 基于用户的眼睛运动和位置的光学感测和跟踪的用户界面 |
US20150199006A1 (en) * | 2013-11-09 | 2015-07-16 | Firima Inc. | Optical eye tracking |
CN105814584A (zh) * | 2013-12-09 | 2016-07-27 | 传感运动器具创新传感技术有限公司 | 用于操作眼睛跟踪设备的方法和用于提供主动功率管理的眼睛跟踪设备 |
US20160249800A1 (en) * | 2014-03-28 | 2016-09-01 | Intel Corporation | Computational array camera with dynamic illumination for eye tracking |
US20170078645A1 (en) * | 2015-09-16 | 2017-03-16 | Andrew Neil Aurigema | Vision enhancing system and method |
CN105769117A (zh) * | 2016-01-11 | 2016-07-20 | 佛山科学技术学院 | 一种眼底光学全场微血管造影成像装置及方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112616016A (zh) * | 2020-12-10 | 2021-04-06 | 南昌欧菲光电技术有限公司 | 事件相机获取影像的方法、装置、电子设备及存储介质 |
CN113688733A (zh) * | 2021-08-25 | 2021-11-23 | 深圳龙岗智能视听研究院 | 基于事件相机的眼部检测和追踪方法、系统、设备及应用 |
Also Published As
Publication number | Publication date |
---|---|
EP3714350B1 (en) | 2023-11-01 |
US20230314798A1 (en) | 2023-10-05 |
US20220003994A1 (en) | 2022-01-06 |
KR102416282B1 (ko) | 2022-07-01 |
CN111263925B (zh) | 2022-06-14 |
US11474348B2 (en) | 2022-10-18 |
EP4293484A3 (en) | 2024-03-13 |
JP2020536309A (ja) | 2020-12-10 |
EP3714350A1 (en) | 2020-09-30 |
US11150469B2 (en) | 2021-10-19 |
US12105280B2 (en) | 2024-10-01 |
US20200278539A1 (en) | 2020-09-03 |
KR20200080226A (ko) | 2020-07-06 |
EP4293484A2 (en) | 2023-12-20 |
WO2019067731A1 (en) | 2019-04-04 |
JP7008131B2 (ja) | 2022-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111263925B (zh) | 用于使用事件相机数据的眼动跟踪的方法和设备 | |
US11861873B2 (en) | Event camera-based gaze tracking using neural networks | |
US10948983B2 (en) | System and method for utilizing gaze tracking and focal point tracking | |
US20220155860A1 (en) | Controlling an eye tracking camera according to eye movement velocity | |
KR102366110B1 (ko) | 번쩍임의 광원에의 매핑 | |
KR20240014589A (ko) | 다중 모드 눈 추적 | |
CN111670001B (zh) | 用于眼睛跟踪系统的图像调整 | |
KR20170054499A (ko) | 눈 불편감 감소 디스플레이 | |
US10948988B1 (en) | Contextual awareness based on eye motion tracking by an eye-mounted system | |
US20210068652A1 (en) | Glint-Based Gaze Tracking Using Directional Light Sources | |
US20210378509A1 (en) | Pupil assessment using modulated on-axis illumination | |
US11988901B2 (en) | Two-eye tracking based on measurements from a pair of electronic contact lenses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |