CN106062665B - 基于用户的眼睛运动和位置的光学感测和跟踪的用户界面 - Google Patents
基于用户的眼睛运动和位置的光学感测和跟踪的用户界面 Download PDFInfo
- Publication number
- CN106062665B CN106062665B CN201480062503.XA CN201480062503A CN106062665B CN 106062665 B CN106062665 B CN 106062665B CN 201480062503 A CN201480062503 A CN 201480062503A CN 106062665 B CN106062665 B CN 106062665B
- Authority
- CN
- China
- Prior art keywords
- light
- eyes
- light source
- user
- photo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
公开了用于眼睛运动的光学感测和跟踪的方法、系统和装置。在一方面,用于跟踪眼睛运动的方法包括:使用与装置的光电检测器模块基本上等间隔地隔开的多个光源朝着用户的眼睛发射光;在光电检测器模块处接收由多个光源中的每个发射的、从眼睛回射的光的至少部分回射;以及基于与多个光源对应的至少部分回射的差分值,确定眼睛的位置参数。
Description
相关申请的交叉引用
本专利文件要求于2013年9月11日提交的且题目为“USER INTERFACE BASED ONOPTICAL SENSING AND TRACKING OF USER'S EYE MOVEMENT AND POSITION(基于用户的眼睛运动和位置的光学感测和跟踪的用户界面)”的第61/876,726号美国临时申请的优先权权益,该申请的公开通过引用被包含,作为本文件的说明书的一部分。
技术领域
本专利文件总体上涉及眼睛跟踪和眼睛反应感测技术。
背景技术
电子设备依赖于各种用户运动作为输入,以执行不同的功能以及在各种模式或状态下操作。例如,诸如手的运动的用户手势可被检测和转换成对菜单项或游戏功能的用户控制。与手势类似,眼睛运动可被检测以执行滚动操作、保持屏幕打开或者操作平视显示器。
眼睛跟踪是测量人的注视点(即人的眼睛在观看的位置),或者跟随注视点的运动的技术。眼睛跟踪装置和系统可检测和测量眼睛位置和眼睛运动。眼睛跟踪技术已经在临床上使用以帮助残疾人、用于对视觉系统进行研究、用于医学和认知研究、以及用于心理学、用于认知语言学和用于产品设计。
发明内容
描述了以下技术、系统和装置,该技术、系统和装置用于来自眼睛的、包括回射光的反射光的光学感测,以及借由用户界面追踪眼睛运动,以实现用户与装置的交互。在一些实现中,例如,光学感测和跟踪功能集成在装置中。在本专利文件中描述的主题可以以提供以下特征中的一个或多个的特定方式实现。例如,公开的眼睛跟踪技术可与移动装置(例如,智能手机和平板电脑)和计算装置(例如,计算机监控器)集成,以跟踪操作者的眼睛位置、运动和眨眼状态。公开的技术可使用来自基于凝视和眼跳运动的眼睛的光的回射,以用于光学感测和眼睛跟踪。
在一方面,公开了用于跟踪眼睛运动的技术。公开的技术可通过使用与装置的光电检测器模块基本上等间隔地隔开的多个光源朝着用户的眼睛发射光来执行。光源由偏振器偏振。可在光电检测器模块处接收从眼睛回射的光的至少部分回射。技术可用于过滤接收的回射光,以排除背景光和共偏振光。技术可用于基于与多个光源对应的至少部分回射的差分值,确定眼睛的位置参数。
在一些实现中,技术可用于使用带通滤波器过滤接收的回射光以排除背景光以及使用偏振器过滤共偏振光。
在一些实现中,多个光源可发射不同颜色的光。
在一些实现中,光的颜色可以是红色、绿色、蓝色或黄色。
在一些实现中,多个光源可发射不同波长的光。
在一些实现中,多个光源可发射不同调制频率的光。
在一些实现中,多个光源和光电检测器可布置在装置的边缘上。
在一些实现中,发射的光可包括红外光。
在一些实现中,发射的光可包括处于与光电检测器模块的帧速率相关的频率的闪光,以进一步排除背景光。
在一些实现中,技术可使用在光电检测器模块处接收的至少部分回射,以检测眼睛的眨眼运动。
在一些实现中,技术可用于处理检测的眨眼运动,作为待由装置使用的数据。
在一些实现中,技术可通过使用检测的眨眼运动数据作为用于装置的至少一个功能的输入数据来执行。
在一些实现中,装置可包括智能手机、平板电脑、照相机或摄像机、计算机监控器或膝上型计算机。
在一些实现中,光电检测器模块可包括智能手机、平板电脑、照相机或摄像机、计算机监控器或膝上型计算机的摄像头。
在一些实现中,眼睛的位置参数可包括眼睛在观看的方向或者眼睛在空间中的位置。
在一些实现中,可通过多个光源同时发射光。
在一些实现中,技术可包括使用多个光源同时发射光以及在光电检测器模块处接收回射。
在一些实现中,技术可包括使用多个光源顺序地发射光以及在光电检测器模块处接收回射。例如,技术可包括顺序地执行以下操作:从多个光源中的第一光源发射第一光;使用光电检测器模块捕捉第一视频帧中由眼睛回射的、第一发射光的回射的第一图像;从多个光源中的第二光源发射第二光;使用光电检测器模块捕捉第二视频帧中由眼睛回射的、第二发射光的回射的第二图像;从多个光源中的第三光源发射第三光;以及使用光电检测器模块捕捉第三视频帧中由眼睛回射的、第三发射光的回射的第三图像。
在一些实现中,技术可包括使第一视频帧、第二视频帧以及第三视频帧编组为数据集。
在另一方面,公开了具有眼睛跟踪特征的装置。眼睛跟踪装置包括用户操作的装置,用户操作的装置包括装置外体以及位于装置外体上且可操作以发射光的多个光源。装置可包括在外体上与多个光源基本上等间隔地隔开的光电检测器模块。光电检测器模块可接收包括基于从多个光源发射的光从用户操作的装置的用户的眼睛回射的光的光,以形成图像。装置还包括与多个光源和光电检测器模块通信的处理器。处理器可处理来自光电检测器模块的信息,以获得明显位于与从多个光源发射的光对应的形成图像中的、眼睛的至少部分回射的差分值,以及基于获得的差分值确定眼睛的位置。
在一些实现中,装置还可包括耦合至处理器以存储确定的眼睛位置的存储单元。
在一些实现中,用户操作的装置可包括智能手机、平板电脑、照相机或摄像机、计算机监控器或膝上型计算机。
在一些实现中,光电检测器模块可包括智能手机、平板电脑、照相机或摄像机、计算机监控器或膝上型计算机的摄像头。
在一些实现中,多个光源可发射不同颜色、不同波长或不同调制频率的彩色光。
在一些实现中,彩色光包括红光、绿光、蓝光或黄光。
在一些实现中,多个光源可发射红外光。
在一些实现中,多个光源可发射处于与光电检测器模块的帧速率相关的频率的闪光。
在一些实现中,多个光源可包括LED。
在另一方面,公开了具有眼睛跟踪特征的便携式装置。便携式装置可包括显示屏和靠近显示屏的表面。便携式装置可包括位于表面上且可操作以发射光的多个光源。便携式装置可包括光电检测器模块,光电检测器模块位于表面上以与多个光源基本上等间隔地隔开,且可操作以接收包括基于从多个光源发射的光从用户操作的装置的用户的眼睛回射的光的光并形成图像。便携式装置可包括与多个光源和光电检测器模块通信的处理器。处理器可处理来自光电检测器模块的信息,以获得明显位于与从多个光源发射的光对应的形成图像中的、眼睛的至少部分回射的差分值,以及基于获得的差分值确定眼睛的位置或运动。
在一些实现中,处理器可使用确定的眼睛位置或运动,以触发使得指示器显示在显示屏上的操作。
在一些实现中,处理器可使用不同的确定的眼睛位置或运动,以分别触发不同的操作。
在另一方面,公开了用于跟踪眼睛的运动的技术。该技术可通过使用设置在用户装置中的光源以朝着用户的眼睛发射以特定频率调制的光来执行。发射的光由偏振器偏振。技术可通过使用设置在用户装置中的光电检测器模块以检测来自用户的至少一只眼睛的回射光来执行。检测回射光可包括以下操作:接收从用户的左眼和右眼中的一只或两只回射的、发射的光的至少部分回射;过滤接收的回射光,以排除背景光;以及解调过滤的光,以使处于调制频率的回射光与未处于调制频率的光分离。技术包括基于解调的回射的差分值,确定眼睛的位置参数。
在一些实现中,处于例如700-850nm波长的光源可引起来自眼睛的强的回射。
在一些实现中,多个光源可用于发射处于不同波长或不同调制频率或不同相位的多个光束。
在一些实现中,由光源发射的多个光束可包括以包括700-850nm的波长发射的光束,以具有来自眼睛的强的回射,以及以包括920-1020nm的波长发射的光束,以具有来自眼睛的弱的回射或不具有来自眼睛的回射。
在一些实现中,由光源发射的多个光束可包括以相位零调制的光束以及以偏移了大约π的相位调制的光束。
在一些实现中,多个光源和光电检测器模块可布置在用户装置的边缘上。
在一些实现中,多个光源和光电检测器模块可设置在用户装置上,彼此分开与包括2至8mm的瞳孔直径尺寸对应的距离。
在一些实现中,发射的光可包括可见光和红外光中的一种或两者。
在一些实现中,发射的光可包括处于与光电检测器模块的帧速率相关的频率的闪光,以进一步排除背景光。
在一些实现中,技术可包括使用在光电检测器模块处接收的至少部分回射,以检测眼睛的眨眼运动。
在一些实现中,技术可包括处理检测的眨眼运动,作为由用户装置使用的数据。
在一些实现中,技术可包括使用检测的眨眼运动数据作为用于装置的至少一个功能的输入数据。
在一些实现中,用户装置可包括智能手机、平板电脑、照相机或摄像机、计算机监控器或膝上型计算机。
在一些实现中,眼睛的位置参数可包括眼睛在观看的方向或者眼睛在空间中的位置。
在一些实现中,可通过多个光源同时发射发射的调制光。
在一些实现中,技术可包括使用多个光源同时发射光以及在光电检测器模块处接收回射。
在一些实现中,技术可包括顺序地使用多个光源以发射处于不同频率的调制光以及在光电检测器模块处接收至少部分回射。例如,技术可包括顺序地执行以下操作:从第一组光源发射处于包括700-850nm的波长的第一光,以由眼睛引起强的回射;使用光电检测器模块捕捉第一视频帧中由眼睛回射的、第一发射光的回射的第一图像;从第二组光源发射处于包括920-1020nm的波长的第二光,以由眼睛引起弱的回射或不由眼睛引起回射;使用光电检测器模块捕捉第二视频帧中由眼睛回射的、第二发射光的回射的第二图像;计算视频帧之间的差分;以及基于差分,从背景散射中选择眼睛回射信号。
在一些实现中,技术可包括使第一视频帧和第二视频帧编组为数据集。
在一些实现中,当以不同的频率调制两组光源时,可以基本上同时捕捉第一视频帧和第二视频帧。
在一些实现中,可通过光源同时发射光。
在一些实现中,技术可包括使用光源同时发射光以及在光电检测器模块处接收回射。
在一些实现中,技术可包括使用光源顺序地发射光以及在光电检测器模块处接收回射。例如,技术可包括使用光电检测器模块捕捉第一视频帧中由眼睛回射的、第一发射光的回射的第一图像。技术可包括使用光电检测器模块捕捉第二视频帧中由眼睛回射的、第二发射光的回射的第二图像。技术可包括在光电检测器模块的图像像素之间对第一图像以及第二图像进行比较,以确定眼睛的位置。
在一些实现中,技术可包括使第一视频帧和第二视频帧编组为数据集。
在一些实现中,相邻的帧可进行比较以确定差分图像,从而确定眼睛的位置。
在另一方面,公开了用于跟踪眼睛的运动的技术。该技术包括从围绕光电检测器模块布置的多个光源朝着用户的眼睛发射光。多个光源布置成使得多个光源中的给定光源能够与多个光源中的其他光源区分开。对应于多个光源的、从眼睛回射的光的组合回射可在光电检测器模块处被接收。技术包括使用光电检测器模块区分组合回射,以确定对应于多个光源中的每个的单独的回射分量。技术包括基于与多个光源对应的单独的回射的差分值,确定眼睛的运动的位置参数。
在一些实现中,多个光源可包括至少三个光源。
在一些实现中,多个光源可围绕光电检测器模块布置成具有位置偏移,以实现沿着x方向和y方向两者的单独的回射的差分值。
在一些实现中,多个光源可根据发射颜色彼此区分开。例如,多个光源中的每个可发射处于与多个光源中的其他光源的波长不同的波长的光。
在一些实现中,多个光源中的每个可发射强度调制光,以及多个光源可发射处于不同调制频率的强度调制光。
在一些实现中,多个光源可根据调制频率彼此区分开。例如,多个光源可发射处于相同波长但不同调制频率的光。
在一些实现中,多个光源中的给定光源可发射具有波长和调制频率的组合的光,该波长和调制频率的组合不同于多个光源中的其他光源的波长和调制频率的组合。
在一些实现中,光电检测器模块可同时接收对应于多个光源的、从眼睛回射的光的组合回射。
附图说明
图1示出了人眼的解剖图。
图2示出了包括小窝可视区域、近窝区可视区域和外围可视区域的视场的图。
图3A示出了眼睛的图像,说明了当眼睛由光源照亮时三个反射的示例。
图3B示出了眼睛的图像,说明了当眼睛由光源照亮时三个反射的示例。
图4A示出了流程图,说明了用于跟踪眼睛的运动的公开的技术的示例性处理。
图4B示出了实现示例性眼睛跟踪技术的用户装置的示例性界面的说明性图。
图5A示出了在用户装置中实现的、公开的技术的示例性眼睛跟踪单元的框图。
图5B示出了在图4A中描述的、使用眼睛回射和多个光源以及示例性移动装置的一个摄像头的示例性处理的操作的图。
图6A示出了在移动智能手机装置上实现的、公开的技术的示例性眼睛跟踪装置的图。
图6B示出了在计算机监控器或电视装置上实现的、公开的技术的示例性眼睛跟踪装置的图。
图7A示出了具有校准功能的、公开的技术的示例性眼睛跟踪装置的图。
图7B示出了用于通过检测眼睛运动和/或眨眼来操作用户装置以控制装置的功能的、公开的技术的示例性眼睛跟踪装置的图。
图8示出了流程图,说明了使用公开的技术的示例性跟踪单元的、使用顺序光发射及捕捉来跟踪眼睛运动的示例性处理。
图9示出了用于检测眼睛运动和/或眨眼以控制装置的功能的、公开的技术的示例性眼睛跟踪装置的图。
图10示出了公开的技术的示例性眼睛跟踪装置的图,其包括具有挡光屏障的单个传感器组并用于检测眼睛运动和/或眨眼以控制装置的功能。
图11A示出了描绘从由示例性装置的用户的眼睛回射的光检测的、位于示例性眼睛跟踪装置的示例性传感器表面上的、示例性回射图像的图。
图11B示出了描绘当用户的眼睛运动时,位于示例性传感器表面上的示例性回射图像的图。
图12示出了流程图,说明了跟踪眼睛的运动并使用跟踪的眼睛运动控制显示屏上的鼠标标记器的示例性处理。
图13示出了使用调制的照亮光发射器和检测模块的、公开的技术的示例性眼睛跟踪传感器装置的图。
图14示出了流程图,说明了检测调制的眼睛跟踪传感器信号的示例性处理。
图15示出了使用多个调制的照亮光发射器和检测模块的、公开的技术的另一示例性眼睛跟踪传感器装置的图。
图16示出了流程图,说明了检测多个调制的眼睛跟踪传感器信号的示例性处理。
图17示出了流程图,说明了同时检测多个调制的眼睛跟踪传感器信号的示例性处理。
具体实施方式
基于视频的眼睛跟踪系统使用诸如单点方法的技术,其中单点方法包括跟踪眼球的一个可见特征,例如诸如角膜缘(巩膜和虹膜的边界)或瞳孔。例如,摄像机可观察用户的眼睛中的一只。图像处理软件分析视频图像并追踪跟踪的特征。基于校准,基于视频的眼睛跟踪系统确定用户当前在观看的位置。在如所描述的视频跟踪系统中,通过使用咬杆或头枕,可减少头部运动。在基于视频的眼睛跟踪技术的、可选的但相关的示例中,实现与在之前描述的单点方法的示例基本上相同的思想,除了跟踪眼睛的两个特征(例如角膜反射和瞳孔)之外。两个特征跟踪方法可使用红外(IR)光(人眼不可见),以产生角膜反射并引起亮的或暗的瞳孔,这有助于系统从视频图像中识别瞳孔。
描述的基于视频的跟踪系统和技术使用安装在地板或头上的额外的或多个装置以执行跟踪。此外,描述的视频跟踪方法趋向于使用不能集成至像智能手机或平板电脑的移动装置中的眼睛跟踪系统或装置。另外,基于视频的眼睛跟踪方法趋向于提供极其有限的信息,即使在使用亮的瞳孔测量或暗的瞳孔测量时该信息也可被撤销,并且相关的软件可能极其复杂且不可靠。
公开了用于使用与装置交互的用户界面对眼睛运动的光学感测和跟踪的技术、系统和装置。在一些实现中,例如,光学感测和跟踪功能集成至装置中。
公开的眼睛跟踪技术可与移动装置(例如,智能手机和平板电脑)和计算装置(例如,诸如计算机监控器)集成,以跟踪操作者的眼睛位置、运动和眨眼状态。公开的技术可使用基于凝视和眼跳运动的来自眼睛的光的回射,以用于光学感测和眼睛跟踪。
在一方面,用于跟踪眼睛的运动的方法包括:使用与装置的光电检测器模块(例如,摄像头)基本上等间隔地隔开的多个(例如,三个或更多个)光源朝着用户的眼睛发射光;在光电检测器模块处接收由多个光源中的每个发射的、从眼睛回射的光的至少部分回射;以及基于与多个光源对应的至少部分回射的差分值,确定眼睛的位置参数。例如,装置可包括但不限于智能手机、平板电脑、照相机或摄像机、计算机监控器或膝上型计算机。在一些实现中,例如,在用户的头部例如相对于装置运动时,也可实施此跟踪眼睛运动的方法。在方法的一些实现中,例如,多个(例如,三个)光源可发射不同颜色的彩色光,例如,其中,彩色光可包括红光、绿光、蓝光和黄光、或者它们的任何组合、不同的波长和/或不同的调制频率。在方法的一些实现中,例如,发射的光可包括红外光。此外,例如,发射的光可包括与光电检测器模块(例如,摄像头)的帧速率相关的频率的闪光。在一些实现中,例如,方法还包括使用在示例性摄像头处接收的至少部分回射,检测眼睛的眨眼运动。另外,方法还可包括将检测的眨眼运动处理成数据,且在一些实现中,方法还可使用该数据作为用于装置的至少一个功能的输入数据。
现在描述公开的眼睛跟踪技术的各实施方式。
图1示出了人眼的解剖图。眼睛的外壁包括三个同心层。外层包括角膜以及巩膜,其中角膜是覆盖虹膜和晶状体的透明结构,晶状体用作眼睛的聚焦系统,巩膜是形成眼睛的纤维保护性外层的不透明结构,其包含胶原蛋白和弹性纤维且还被称为“白睛”。虹膜是例如确定一个人的“眼睛颜色”的眼含色素中的薄的圆形结构,其控制瞳孔的直径和尺寸。瞳孔是在虹膜的中央的可调节开口,其允许改变量的光经过晶状体进入眼睛。晶状体是透明的双向凸起结构,其可折射光使之聚焦在视网膜上。视网膜是位于眼睛后部的分层结构,其具有多个神经元(感光细胞)层,所述多个神经元层通过突触互连以接收聚焦的光作为图像并将图像转换成电化学神经学信号。视网膜的感光细胞包括主要沿着视网膜的外围布置的视锥细胞(例如,~6%的感光细胞)和视杆细胞(例如,~94%的感光细胞)。视锥细胞集中于视网膜的中央区域(称为小窝)。黄斑是椭圆形的高色素的黄斑,其靠近视网膜的中央并包括小窝、近窝区和中心凹。小窝是眼睛中包含最大浓度的视锥细胞的小凹,并负责中央高分辨率视力。脉络膜是眼睛的血管丰富的区域,其提供视网膜的外层。眼睛还包括流体,例如位于角膜和虹膜之间的前部区域中的眼房水以及位于晶状体后面的后部区域中的玻璃体液。
视场通常分成三个区域:小窝区域、近窝区区域和外围可视区域。小窝区域提供最清晰的视力;近窝区区域预览小窝信息;以及外围视力对闪烁的对象和突然运动作出反应。例如,外围视力包括小窝的敏锐度的大约15-50%,且它还更少地对颜色敏感。
图2示出了包括小窝区域、近窝区区域和外围可视区域的视场的图,其具有这些区域可以看见的、示例性的视场度。在人眼中,三个视场区域是不对称的。例如,在阅读时,所谓的知觉广度(例如,有效视力的尺寸)距凝视的左边3-4个字母空间以及距右边14-15个字母空间。此外,例如,1°的可视角大致等于3-4个字母空间。
眼睛一直在运动,例如即使在睡觉期间也是如此。存在多种不同类型的眼睛运动,其可包括追踪、震颤、旋转、漂移以及扫视。对于人来说,当观看场景而非固定不变时,眼睛四处运动,定位场景中感兴趣部分,以在精神上产生对应于场景的三维地图。例如,当扫描场景时或者在阅读页面上的词语时,眼睛作出不平稳的扫视运动并停止数次,在每次停止之间非常快地运动。扫视是眼睛的快速运动或“跳跃”,其与凝视关联。
扫视可以是两只眼睛沿着相同方向的快速的、同时的运动。扫视快速地发生,例如持续时间40-120ms,快速地运动,例如高达600o/s,以及具有轨迹,其中在运动期间,扫视的端点不能改变。人眼的扫视运动可以是由于解析在观看时检测的对象的作用,例如使得通过使眼睛运动,以使可更高效地使用神经系统的视觉处理功能,通过更大的分辨率来感测场景中的小的部分。另一方面,视力凝视是当眼睛维持在单个位置上的注视时。在凝视时,眼睛相对静止且“凝视”于特定点,例如,诸如当阅读单个词语时。在观看时,主要在凝视期间获得来自场景的信息。例如,凝视的持续时间可从120-1000ms改变,例如通常从200-600ms改变,且典型的凝视频率小于3Hz。
图3A和3B示出了眼睛的图像和图,说明了当眼睛由光源照亮时的三个反射。三种类型的眼睛反射包括反射离开角膜的光的角膜反射、反射离开虹膜的光的虹膜反射、以及反射离开视网膜的光的回射。图3A示出了眼睛的图像,说明了三个反射的示例。例如,如图3A所示,角膜反射形成极小的斑;虹膜反射可能看起来是暗的但是彩色的;以及回射可以是亮的,具有强的方向依赖性。
图3B示出了眼睛的图,说明了当眼睛由光源照亮时三个反射的示例。更具体地,图3B的图示出了基于入射至眼睛的角膜上的入射光束310通过角膜反射而反射的反射光束311;基于已经经过眼睛的角膜且入射至虹膜上的入射光束310通过虹膜反射而反射的反射光束312;以及基于已经经过眼睛的角膜和晶状体且入射至视网膜上的入射光束310通过回射而反射的反射光束313。
图4A示出了流程图,说明了用于跟踪眼睛的运动的公开的技术的示例性处理。处理包括从多个相应的光源朝着用户的眼睛发射多种(例如,三种或更多种)类型的光(402)。在一个实施方式中,多个光源相对于用户装置的光电检测器模块(例如,摄像头)基本上等间隔地隔开。例如,可使用一个摄像头作为光电检测器模块来实现处理步骤,其中,三个光源以基本上相等的距离与摄像头偏离。
处理包括使用光电检测器模块(例如,摄像头)接收从眼睛回射的、由多个(例如,三个或更多个)光源中的每个发射的多种类型的光的至少部分回射(404)。在一个实施方式中,光电检测器模块(例如,摄像头)和多个光源之间的距离布置为使得光电检测器模块可从多个光源中的每个接收至少部分回射。在一个实施方式中,多个光源可发射相同颜色的彩色光或不同颜色的彩色光,或者在其他实施方式中,使用红外光以避免刺激用户。在一些示例中,光源可以是彩色发光二极管(LED),如在图4B中举例说明的,其中图4B示出了实现示例性眼睛跟踪技术的用户装置的示例性界面的说明性图。示例中的示例性LED可被选择以发射具体RGB颜色,例如以匹配摄像头传感器上的滤色器。示例性LED可以是红外LED。示例性彩色LED或红外LED可以按与摄像头视频帧同步的顺序打开。此外,例如,三个光源可在时间域中发射闪光,但是注意的是,闪光可减小数据速率。
返回参照图4A,处理还包括确定眼睛的位置参数,例如,诸如眼睛在观看的方向或者眼睛在空间中的位置,或者眼睛的注视点(步骤406)。例如,通过计算三个回射(例如,对应于三个光源的至少部分回射)的差分值,可确定眼睛在观看的方向、眼睛的注视点的位置以及眼睛运动的其他参数。
在一些实施方式中,当使用多个光源和来自多个光源中的每个的回射以确定眼睛和眼睛运动的方向、位置和/或其他位置参数时,多个光源布置成使多个光源中的一个的回射与其他光源的回射区分开。通过使用不同的发射颜色(即,不同波长的光源),可实现这样的差别,如由图4B举例说明的。例如,在三光源系统中,三种颜色可以分别是红色(R)、绿色(G)和蓝色(B)。使用多种波长的系统和集成有多个滤色器的摄像头,建议的技术可用于区分和分离同时接收/捕捉的(例如,由摄像头在一个视频帧中捕捉的)多个光源的回射,以及确定对应于光发射的多个波长中的每个的回射分量,而无需单独地检测每个回射。
在一些实施方式中,通过使用光强调制,可实现来自多个光源的回射的差别。在一个实施方式中,多个光源可具有相同的发射频率/波长(颜色),但是多个光源中的每个通过不同的调制频率进行幅度调制。因此,使用处于不同调制频率的多个光源和集成有用于每个调制频率的多个解调电路的光电检测器模块,建议的技术可用于区分和分离同时接收/捕捉的(例如,由摄像头在一个视频帧中捕捉的)多个光源的回射,以及确定对应于多个光源中的每个的回射分量,而无需单独地检测每个回射。
在一些实施方式中,通过使用不同的发射颜色和不同的光强调制的组合,可实现来自多个光源的回射的差别。在一个实施方式中,多个光源中的每个可具有与另一光源的波长和调制频率的组合不同的波长和调制频率的组合。例如,光源中的两个可具有相同的颜色但是不同的调制频率,或者相同的调制频率但是不同的颜色。因此,使用不同波长/调制频率的组合的多个光源以及集成有用于每个调制频率和颜色的多个解调电路和滤色器的光电检测器模块,建议的技术可区分并因此分离同时接收/捕捉的(例如,由摄像头在一个视频帧中捕捉的)多个光源的回射,以及确定对应于多个光源中的每个的回射分量,而无需单独地检测每个回射。
注意的是,基于强度调制的、多个光源的上述差别还可用于排除不具有调制性的背景光或环境光。
在一些示例中,确定眼睛和眼睛运动的方向、位置和/或其他位置参数的处理可包括以下特征。
公开的技术对眼睛距离和头部运动不敏感,例如提供可靠的眼睛跟踪方案。使用公开的技术实现的眼睛跟踪器可容易地、可靠地检测操作者的眼睛眨眼,其中,眨眼信息可处理成数据并用作对于装置的输入。例如,智能手机操作趋向于处于1至2英尺的距离处。公开的技术可在各种距离和角度(例如,包括0.1°-0.25°)处起作用,其具有不受头部影响的精度,且可包括不受头部影响的为0.02°rms的分辨率。在一些实施方式中,公开的技术可实现为顺序地或同时地跟踪用户的两只眼睛的运动。
图5A示出了在用户装置599中实现的示例性眼睛跟踪单元500的框图,例如,用户装置599可以是但不限于智能手机、平板电脑、照相机或摄像机、计算机监控器或膝上型计算机。眼睛跟踪单元500包括相对于装置599的摄像头504彼此基本上等间隔地隔开的三个光源501、502和503。眼睛跟踪单元500包括耦合至存储单元506的处理单元505。存储单元506可例如包括处理器可执行的代码,当由处理单元505执行时,该代码使眼睛跟踪单元500配置为执行各种操作,例如诸如从摄像头504接收信息、命令和/或数据,处理信息和数据,以及向另一实体(例如,诸如光源501、502和503和/或摄像头504或者向用户装置599)传输或提供信息/数据或命令。在一些实现中,例如,存储单元506可配置为硬盘驱动器(HDD)或固态驱动器(SSD)存储单元。
在眼睛跟踪单元500的一些实现中,眼睛跟踪单元500可使用用户装置599的处理单元和/或存储单元。
图5B示出了在图4A中描述的、使用眼睛回射和多个光源以及例如诸如智能手机的用户装置599的一个摄像头的示例性处理的操作的图。图5B的图示出了基于分别由光源501和502产生的入射光束510a和510b、通过回射而反射的反射光束513a和513b。入射光束510a和510b的光路包括经过眼睛的角膜和晶状体并变成入射至视网膜上。入射至视网膜上的光可由视网膜回射,使得回射光的光路再次经过晶状体和角膜并朝向它的源而引导,如由回射光束513a和513b示出的。回射光束513a和513b可被摄像头504捕捉。回射光中的一些可远离用户装置599,如由图5B的示例性图中的回射光560示出的。此外,例如,发射光中一些可从虹膜反射,如图中作为虹膜反射570表示的。
图6A示出了在移动智能手机装置698上实现的示例性眼睛跟踪装置500的图。
图6B示出了在计算机监控器或电视装置699上实现的示例性眼睛跟踪装置500的图。
在其他示例中,公开的眼睛跟踪技术可在平视显示器(HUD)装置,例如诸如谷歌眼镜上实现。
返回参照图5,在一些实现中,上面描述的眼睛跟踪单元500包括显示屏515,显示屏515配置在布置光源501、502和503以及摄像头504的用户装置599的外体的相同侧上。显示屏515可通信地耦合至处理单元505和/或存储单元506。例如,显示屏515可以是用户装置599固有的显示屏。
图7A示出了可用于眼睛跟踪单元500的校准的、眼睛跟踪单元500的显示屏515的示例性配置的图。例如,显示了固定位置标记器516,其中,校准操作包括用户一次重点观看一个高亮标记器,并推动用户装置599的选择按钮。固定位置标记器516可运动至显示屏515上的多个位置,其示例是在屏幕的四个角落和中央,其中活动标记器以红色指示。例如,固定位置标记器516可多次且在多个待显示的位置示出,以执行校准操作。
图7B示出了包括显示屏515且在各种应用中的任何应用中操作的眼睛跟踪单元500的图,其中,眼睛运动用作用于眼睛跟踪单元500实现于其中的用户装置599的输入数据。例如,眼睛跟踪单元500可在执行用户装置599的程序的用户执行的操作(包括但不限于,显示屏515上的视觉性的选择按钮、图标或文本517)中检测用户眼睛的位置参数。装置599可包括智能手机或平板电脑,除其他之外。另外,公开的眼睛跟踪技术可使用由眼睛跟踪单元500检测和收集的眼睛眨眼数据,以激活用户装置599的应用功能。
在一些实施方式中,为了确定和跟踪与眼睛运动相关的二维(2D)位置参数,例如用户眼睛在显示屏515上注视的点的2D位置,需要使用至少三个光源,例如眼睛跟踪单元500的示例。虽然眼睛跟踪单元500使用三个光源,但是用于确定眼睛运动的2D位置参数的其他实施方式可使用多于三个的光源。如上面提到的,基于对应于至少三个光源的至少部分回射的差分值,可计算眼睛运动的2D位置参数。因此,至少三个光源可相对于光电检测器布置,具有沿着x方向(或第一方向)和y方向(或垂直于第一方向的第二方向)两者的偏离,以提供沿着x方向和y方向两者的、这些光源的至少部分回射的差分值。
图8示出了流程图,其说明了使用跟踪单元500的、使用顺序光发射及捕捉来跟踪眼睛运动的示例性处理流程。流程包括从光源501例如诸如LED1发射第一光(步骤802),以及使用摄像头504捕捉第一视频帧中由眼睛回射的、第一发射光的回射的图像(步骤804)。流程包括从光源502例如诸如LED2发射第二光(步骤806),以及使用摄像头504捕捉第二视频帧中由眼睛回射的、第二发射光的回射的图像(步骤808)。流程包括从光源503例如诸如LED3发射第三光(步骤810),以及使用摄像头504捕捉第三视频帧中由眼睛回射的、第三发射光的回射的图像(步骤812)。第一视频帧、第二视频帧和第三视频帧可包括在帧集(例如,帧集数据1或{S1})中。流程包括当跟踪单元500发射三个光并捕捉三个视频帧时,使用包括LED1、LED2和LED3的回射的、{S1}的第一视频帧数据、第二视频帧数据和第三视频帧数据,来计算对应于时间阶段的眼睛的位置。流程还可包括重复该流程(例如,n次)以生成多个顺序帧集{S}n。
流程还可包括检测眼睛的眨眼并使用检测的眨眼作为用于装置控制跟踪单元500的数据。例如,当用户的眼睛已经眨眼时,回射光暂时消失,这可在多帧数据集上检测出来。多帧数据集可随后被处理以检测眼睛眨眼。例如,多帧数据集{Sn}可被处理以确定眼睛眨眼事件的发生、眼睛眨眼事件的频率、眼睛眨眼的速度、眼睛眨眼的持续时间(例如,闭眼多长时间)、以及是哪只眼睛眨眼(例如,左眼或右眼眨眼或者两只眼睛都眨眼)。与眼睛眨眼相关的这些特征可随后用作输入数据以实现装置的功能(例如,智能手机或计算机的机器状态)。
眼睛跟踪单元500包括相对于装置599的摄像头504彼此基本上等间隔地隔开的三个光源501、502和503。
图9示出了公开的技术的示例性眼睛跟踪装置的图,其包括具有棱镜的单个传感器组并用于检测眼睛运动和/或眨眼以控制装置的功能。在一些实现中,示例性眼睛跟踪装置可操作为高分辨率“眼睛鼠标”。在图9的示例中,示例性眼睛跟踪装置可包括光学地耦合至微透镜3的偏振分束器1,其中,微透镜3布置在偏振分束器1和用于在入射光进入光电检测器模块33之前光学地过滤入射光的带通滤波器35之间。示例性眼睛跟踪装置可包括可以以特定频率调制的光源11(例如,近红外LED11)。光源11光学地耦合至线性偏振器13,线性偏振器13光学地耦合至偏振分束器1,以朝着用户的眼睛18和19传输来自装置的、可由眼睛18和19回射的探测光(例如,LED照射的光束15)。光电检测器模块33可被构造为包括光电检测器灵敏阵列25,以检测至模块33中的输入光,其中输入光可包括在由带通滤波器35过滤之后由用户的眼睛回射的光。例如,如图9所示,光电检测器灵敏阵列25在对应于用户的右眼18的回射光束21的像点29处和在对应于用户的左眼19的回射光束23的像点27处检测光。示例性眼睛跟踪装置可包括处理单元,处理单元通信地耦合至光电检测器模块33,以将光电检测器灵敏阵列25上光电检测的信号处理为数据。处理单元可包括通用处理器,通用处理器耦合至存储原始数据和处理的数据的存储单元。处理单元可被配置为运行用于基于检测的回射光信号数据来跟踪眼睛运动的程序和控制用户装置的功能(例如,包括改变用户装置的显示)来跟踪眼睛运动的程序。在示例性眼睛跟踪装置的一些实现中,用户装置的包括处理器的处理单元和存储单元用于实现公开的技术的数据处理技术。
图10示出了公开的技术的示例性眼睛跟踪(例如,眼睛鼠标)装置的图,其包括具有挡光屏障的单个传感器组并用于检测眼睛运动和/或眨眼以控制装置的功能。在本示例中,示例性眼睛跟踪装置可包括可以以特定频率调制的光源11(例如,近红外LED11)。光源11光学地耦合至线性偏振器13以向用户的眼睛18和19传输来自装置的探测光(例如,LED照射的光束15),其中探测光可由用户的眼睛回射。示例性眼睛跟踪装置可包括线性(接收)偏振器41,线性(接收)偏振器41光学地耦合至微透镜3,且配置为靠近光源11和线性(传输)偏振器13但是通过挡光壁或屏障45与光源11和线性(传输)偏振器13分开。示例性眼睛跟踪装置还包括带通滤波器35,带通滤波器35布置于微透镜3的后面且配置为在入射光进入光电检测器模块33之前光学地过滤经过微透镜3的入射光。光电检测器模块33可被构造为包括光电检测器灵敏阵列25,以检测至模块33中的输入光,输入光可包括在由带通滤波器35过滤之后由用户的眼睛回射的光。例如,如图10所示,光电检测器灵敏阵列25在对应于用户的右眼18的回射光束21的像点29处和在对应于用户的左眼19的回射光束23的像点27处检测光。示例性眼睛跟踪装置可包括处理单元,处理单元通信地耦合至光电检测器模块33,以将光电检测器灵敏阵列25上光电检测的信号处理为数据。处理单元可包括通用处理器,通用处理器耦合至存储原始数据和处理的数据的存储单元。处理单元可被配置为运行用于基于检测的回射光信号数据和用户装置的控制功能(例如,包括改变用户装置的显示)来跟踪眼睛运动的方法。在示例性眼睛跟踪装置的一些实现中,用户装置的包括处理器的处理单元和存储单元用于实现公开的技术的数据处理技术。
图11A示出了描绘位于诸如图9和10中示出的示例性眼睛跟踪装置的示例性传感器表面(例如,光电检测器灵敏阵列25)上的示例性回射图像的图,其中从由示例性装置的用户的眼睛回射的光检测图像。图11B示出了描绘当用户的眼睛运动时,位于示例性传感器表面上的示例性回射图像的图。如可在图11A和11B中观察到的,图像差分或光学信号强度的改变可用于使用示例性装置的处理单元生成跟踪信号。
图12示出了流程图,说明了跟踪眼睛的运动并使用跟踪的眼睛运动控制显示屏上的鼠标标记器的示例性流程。示例性流程可包括从与包括公开的技术的眼睛跟踪单元的用户装置集成的一个或多个光源朝着用户的眼睛发射光的步骤(步骤1202)。例如,用户装置可包括但不限于智能手机、平板电脑、照相机或摄像机、计算机监控器或膝上型计算机。流程可包括在用户装置中的眼睛跟踪单元的光电检测器模块(例如,摄像头)处接收由一个或多个光源发射的光的回射的步骤,其中,回射光由用户的眼睛(例如,左眼、右眼和/或两只眼睛)回射(步骤1204)。流程可包括基于接收的/检测的回射光、使用用户装置中的眼睛跟踪单元的处理单元或存在于用户装置上的处理单元来确定用户眼睛的运动的位置和/或方向的步骤(步骤1206)。在一些实现中,流程可使用眼睛的确定的位置和/或运动方向来控制用户装置的功能,例如包括拖曳用户装置的显示屏上的标记器(例如,鼠标标记器)或者根据确定的位置和/或运动方向改变显示屏(步骤1208)。例如,当视点不与鼠标标记器重叠时,方法可包括通过执行逻辑操作使视点与鼠标标记器重新对准。
图13示出了使用调制的照亮光和检测单元的、公开的技术的示例性眼睛跟踪传感器装置的图。示例性眼睛跟踪传感器装置可包括光源1302(例如,LED光源1302)以朝着用户发射调制光。示例性眼睛跟踪传感器装置可包括靠近光源1302布置的一个或多个挡光壁或屏障或者“挡光装置”1306,以阻挡从光源发射的光照耀/照亮在示例性眼睛跟踪传感器装置的图像传感器上。示例性眼睛跟踪传感器装置可包括成像光学器件1308(例如,一个或多个微透镜),以接收光并将光引导至眼睛跟踪传感器装置中。在一些实施方式中,成像光学器件1308可配置为靠近防止从光源单元1302发射的光直接进入成像光学器件1308的挡光装置1306的壁。示例性眼睛跟踪传感器装置可包括光电检测器阵列1310,以检测通过成像光学器件1308传输的光。在示例性眼睛跟踪传感器装置的一些实现中,光源1302配置为发射可从眼睛回射的调制光(例如,处于一个或多个调制频率)和通过示例性眼睛跟踪传感器装置的成像光学器件1308待由光电检测器阵列1310接收的回射光1312。光电检测器阵列1310可被配置为包括像素电路和耦合至像素电路的解调电路,以将由光源1302发射的、处于调制频率的调制光与不具有这样的调制的其他光(例如,周围环境中的环境光1314)区分开。在一些实现中,示例性眼睛跟踪传感器装置可与用户装置的处理单元通信地耦合。
图14示出了流程图,说明了检测调制的眼睛跟踪传感器信号的示例性处理流程。示例性处理流程可包括从公开的技术的眼睛跟踪传感器装置(例如,诸如图13中的装置)的发光单元发射具有固定调制的光(例如,LED光)的步骤(步骤1402)。示例性处理流程可包括在包括像素电路和耦合至像素电路的解调电路的光电检测器阵列处检测调制光的步骤,其中,光电检测器阵列解调检测的调制光,以使解调的信号被记录和存储(例如,于可配置在解调电路中的存储器中),同时使不具有固定调制的光被排除(步骤1404)。处理流程还可包括例如使用耦合至解调电路的或包括在解调电路中的扫描读出电路读出用于每个像素存储的信号的步骤。
图15示出了使用调制的照亮光和检测单元的、公开的技术的另一示例性眼睛跟踪传感器装置的图。图15的示例性眼睛跟踪传感器装置可包括多个光源(例如,LED源#1和LED源#2)以朝着用户发射多个调制光(例如,调制光#1和调制光#2)。示例性眼睛跟踪传感器装置可包括挡光装置1502,挡光装置1502包括靠近光源配置的一个或多个挡光壁或屏障,以阻挡来自光源的光照耀/照亮在示例性眼睛跟踪传感器装置的图像传感器上。示例性眼睛跟踪传感器装置可包括成像光学器件1504(例如,一个或多个微透镜),以接收光并将光引导至眼睛跟踪传感器装置中。在一些实施方式中,成像光学器件1504可配置为靠近防止从多个光源发射的光直接进入成像光学器件1504的挡光装置1502的壁。示例性眼睛跟踪传感器装置可包括光电检测器阵列1506,以检测通过成像光学器件1504传输的光。在示例性眼睛跟踪传感器装置的一些实现中,多个光源配置为发射可从眼睛回射的多个调制光束(例如,处于不同的调制频率),以及可通过示例性眼睛跟踪传感器装置的成像光学器件1504由光电检测器阵列1506接收回射光1508。光电检测器阵列1506可被配置为包括像素电路和耦合至像素电路的解调电路,以将由多个光源(例如,LED源#1和LED源#2)发射的、处于调制频率的调制光与不具有这样的调制的其他光(例如,周围环境中的环境光1510)区分开。在一些实现中,示例性眼睛跟踪传感器装置可与用户装置的处理单元通信地耦合。
图16示出了流程图,说明了检测多个调制的眼睛跟踪传感器信号的示例性处理流程。示例性处理流程可包括从眼睛跟踪传感器装置(例如,图15中描述的装置)的第一发光源(例如,LED光源)发射具有固定调制的第一光(例如,LED光)的步骤(步骤1602)。示例性处理流程可包括以下步骤:在包括像素和耦合至像素的解调电路的光电检测器阵列处检测第一调制光,以及解调检测的第一调制光,以使解调的信号被记录和存储(例如,于可配置在解调电路中的存储器中),同时使不具有调制的光被排除(步骤1604)。处理流程可包括例如使用耦合至解调电路的或包括在解调电路中的扫描读出电路读出对应于用于每个像素电路的第一调制光的存储信号的步骤(步骤1606)。示例性处理可包括从眼睛跟踪传感器装置的第二发光源(例如,LED光源)发射具有固定调制的第二光(例如,LED光)的步骤(步骤1608)。示例性处理可包括以下步骤:在包括像素电路和解调电路的光电检测器阵列处检测第二调制光,以及解调检测的第二调制光,以使解调的信号被记录和存储(例如,于可配置在解调电路中的存储器中),同时使不具有调制的光被排除(步骤1610)。处理流程可包括例如使用耦合至解调电路的或包括在解调电路中的扫描读出电路读出对应于用于每个像素电路的第二调制光的存储信号的步骤(步骤1612)。处理流程可包括使用第一读出信号和第二读出信号计算眼睛的位置和/或时刻的步骤(步骤1614)。处理流程还可包括如图16所示的顺序地实现或者如图17所示的同时地实现示例性第一调制光和第二调制光的发射、检测和解调、以及读出步骤。
图17示出了流程图,说明了同时检测多个调制的眼睛跟踪传感器信号的示例性处理流程。示例性处理流程可包括从眼睛跟踪传感器装置的第一发光源(例如,LED光源#1)发射具有第一调制的第一光(例如,LED光)并且同时从眼睛跟踪传感器装置的第二发光源(例如,LED光源#2)发射具有不同于第一调制的第二调制(例如,处于不同的调制频率)的第二光(例如,LED光)的步骤(步骤1702)。示例性处理流程可包括以下步骤:在包括像素电路和耦合至像素电路的解调电路的光电检测器阵列处检测第一调制光和第二调制光,以及解调检测的第一调制光和第二调制光,记录和存储两个解调的信号,同时使不具有调制的光被排除(步骤1704)。处理流程可包括例如使用耦合至解调电路的或包括在解调电路中的扫描读出电路读出对应于用于每个像素电路的第一调制光和第二调制光的存储信号的步骤(步骤1706)。处理流程可包括使用第一读出信号和第二读出信号计算眼睛的位置和/或时刻的步骤(步骤1708)。
在图17的处理的一种变形中,使用两个不同的光源,其中两个光源在波长方面不同。例如,第一光源发射波长>850nm(例如,处于940nm)的光,并且同时,第二光源发射波长<850nm(例如,处于780nm)的光。可使用建议的示例性波长,其原因是人眼对于两种不同的波长可具有不同的吸收,然而人的皮肤和其他背景对这两种波长的反应几乎没有差别。可通过相同的或不同的调制频率调制两个光源。使用与图17的步骤类似的步骤,针对两个光源生成两个解调信号(S1和S2)。通过比较S1和S2信号,可进一步排除背景信号。在其他实现中,两个光源还可处于相同的波长和/或相同的调制频率,但是具有明确的相位差,例如为π的相位差。在这些实现中,处理器还可处理和比较处于不同相位的两个信号,以提取眼睛位置或运动的信息。
在本专利文件中描述的主题和功能操作的实现可在各种系统、数字电子电路中实现,或者在包括本说明书中公开的结构及其结构等同物的计算机软件、固件或硬件中实现,或者在它们中的一个或多个的组合中实现。在本说明书中描述的主题的实现可实现为一个或多个计算机程序产品,即在有形的和非暂时性的计算机可读介质上编码的、用于由数据处理设备运行的或者用于控制数据处理设备的操作的计算机程序指令的一个或多个模块。计算机可读介质可以是机器可读的存储装置、机器可读的存储基质、存储装置、影响机器可读的传播信号的物质成分、或者它们中的一个或多个的组合。术语“数据处理设备”包括用于处理数据的所有设备、装置和机器,举例来说包括可编程处理器、计算机或者多处理器或计算机。除了硬件之外,设备可包括为考虑中的计算机程序产生运行环境的代码,例如,组成处理器固件、协议栈、数据库管理系统、操作系统、或者它们中的一个或多个的组合的代码。
计算机程序(还称为程序、软件、软件应用、脚本或代码)可以以包括编译的或解释的语言的任何形式的编程语言编写,而且其可以以包括作为独立程序或作为模块、组件、子程序或适用于计算环境的其他单元的任何形式配置。计算机程序不一定对应于文件系统中的文件。程序可存储在具有其他程序或数据(例如,存储在标记语言文件中的一个或多个脚本)的文件的一部分中,存储成专用于考虑中的程序的单文件,或者存储成多个并列文件(例如,存储一个或多个模块、子程序或代码的一部分的文件)。计算机程序可配置为在一个计算机上运行,或者在位于一个站点处的多个计算机或分布在多个站点上且通过通信网络互连的多个计算机上运行。
在本说明书中描述的处理和逻辑流可由运行一个或多个计算机程序的一个或多个可编程处理器执行,以通过对输入数据进行操作并生成输出来执行功能。处理和逻辑流还可由专用逻辑电路例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)执行,以及设备还可实现为专用逻辑电路例如FPGA或ASIC。
适合于计算机程序的运行的处理器举例来说包括通用微处理器和专用微处理器两者,以及任何种类的数字计算机中的任何一个或多个处理器。一般来说,处理器将从只读存储器或随机存取存储器或这两者接收指令和数据。计算机的必需元件是用于执行指令的处理器以及用于存储指令和数据的一个或多个存储装置。一般来说,计算机还将包括用于存储数据的一个或多个大规模存储装置,例如磁性盘、磁光盘或光盘,或者还将操作地耦合以从用于存储数据的一个或多个大规模存储装置接收数据或向用于存储数据的一个或多个大规模存储装置传输数据或这两者。然而,计算机不需要具有这样的装置。适合于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储装置,举例来说包括半导体存储装置,例如EPROM、EEPROM以及闪存装置。处理器和存储器可由专用逻辑电路补充或包括在专用逻辑电路中。
虽然本专利文件包含多个细节,但是这些不应该被解释为对任何发明或者可能要求保护的事物的范围构成限制,而是相反,作为对可专用于特定发明的特定实施方式的特征的描述。在本专利文件中在单独的实施方式的上下文中描述的特定特征还可在单个实施方式中组合地实现。反过来说,在单个文件的上下文中描述的各个特征还可在多个实施方式中分开地实现或者以任何合适的子组合实现。此外,虽然特征可如上描述成以特定组合起作用,甚至起初是按照那样请求保护,但是来自请求保护的组合的一个或多个特征可在一些情况下从组合中去除,请求保护的组合可指向子组合或子组合的变形。
类似地,虽然在附图中以特定顺序描述操作,但是这不应该被理解为要求这样的操作以示出的特定顺序执行或者依序执行,或者要求所有示出的操作被执行,以实现期望的结果。此外,在本专利文件中描述的实施方式中各个系统组件的分离不应该被理解为在所有实施方式中要求这样的分离。
虽然仅仅描述了几个实现和示例,但是基于在本专利文件中描述的和示出的事物,可作出其他实现、增强和变形。
Claims (45)
1.一种具有眼睛跟踪特征的装置,包括:
多个光源,设置在所述装置的外部结构上,所述多个光源用于向所述装置的用户的眼睛发射光,其中,所述多个光源中的每个通过不同的调制频率进行幅度调制;
光电检测器模块,位于所述外部结构上,与所述多个光源中的每一个等间隔地隔开,所述光电检测器模块用于接收从所述装置的用户的眼睛回射的光以形成图像,所述用户的眼睛回射的光基于所述多个光源发射的光,所述光电检测器模块还包括用于对每个回射的光的调制频率进行解调的多个解调电路;
以及
处理器,与所述多个光源和所述光电检测器模块通信,所述处理器用于处理所述光电检测器模块形成的图像,以获得所述图像中回射光的差分值,以及基于获得的差分值确定所述用户眼睛的位置。
2.根据权利要求1所述的装置,还包括:
存储单元,通信地耦合至所述处理器以存储所述确定的用户的眼睛位置。
3.根据权利要求1所述的装置,其中,所述装置包括智能手机、平板电脑、照相机或摄像机、计算机监控器或膝上型计算机,所述光电检测器模块包括智能手机、平板电脑、照相机或摄像机、计算机监控器或膝上型计算机的摄像头。
4.根据权利要求1所述的装置,其中,所述多个光源配置为发射不同波长的光。
5.根据权利要求1所述的装置,其中,所述多个光源发射红外光。
6.根据权利要求1所述的装置,其中,所述多个光源发射频率与所述光电检测器模块的帧速率相关的闪光。
7.根据权利要求1所述的装置,其中,所述多个光源包括发光二极管。
8.一种用于跟踪眼睛的运动的方法,包括:
多个光源向用户的眼睛发射光,所述多个光源与光电检测器模块等间隔地隔开布置,所述光源由偏振器偏振,其中,所述多个光源中的每个通过不同的调制频率进行幅度调制;
所述光电检测器模块接收从所述用户的眼睛回射的光,对每个回射的光调制频率进行解调,所述用户的眼睛回射的光基于所述多个光源发射的光;
过滤所述接收的所述用户眼睛回射的光;以及
基于所述用户眼睛的回射光的差分值,确定所述用户眼睛的位置参数。
9.根据权利要求8所述的方法,其中,所述过滤接收的回射光,包括使用带通滤波器排除背景光以及使用所述偏振器排除共偏振光。
10.根据权利要求8所述的方法,其中,所述多个光源发射不同波长的光。
11.根据权利要求8所述的方法,其中,所述多个光源发射的光包括红外光。
12.根据权利要求8所述的方法,其中,所述多个光源发射的光包括频率与所述光电检测器模块的帧速率相关的闪光。
13.根据权利要求8所述的方法,还包括:
使用所述光电检测器模块接收的所述回射光检测所述用户眼睛的眨眼运动。
14.根据权利要求8所述的方法,其中,所述用户眼睛的位置参数包括所述用户的眼睛在观看的方向或者所述用户的眼睛在空间中的位置。
15.根据权利要求8所述的方法,其中,所述多个光源同时发射光。
16.根据权利要求8所述的方法,其中,所述多个光源发射光以及所述光电检测器模块接收回射的光同时进行。
17.根据权利要求8所述的方法,其中,所述多个光源发射光以及所述光电检测器模块接收回射的光,包括:
所述多个光源中的第一光源发射第一光;
所述光电检测器模块从第一视频帧中获取基于所述第一光的用户眼睛的回射光的第一图像;
所述多个光源中的第二光源发射第二光;
所述光电检测器模块从第二视频帧中获取基于所述第二光的用户眼睛的回射光的第二图像;
所述多个光源中的第三光源发射第三光;以及
所述光电检测器模块从第三视频帧中获取基于所述第三光的用户眼睛的回射光的第三图像。
18.根据权利要求17所述的方法,还包括:
基于所述第一视频帧、所述第二视频帧以及所述第三视频帧生成数据集。
19.一种具有眼睛跟踪特征的便携式装置,包括:
显示屏;
多个光源,设置在所述装置的表面上,所述多个光源可操作以用于向所述装置的用户的眼睛发射光,其中,所述多个光源中的每个通过不同的调制频率进行幅度调制;
光电检测器模块,位于所述装置的表面上,与所述多个光源中的每一个等间隔地隔开,所述光电检测器模块用于接收从所述用户的眼睛回射的光以形成图像,所述用户的眼睛回射的光基于所述多个光源发射的光,所述光电检测器模块还包括用于对每个回射的光调制频率进行解调的多个解调电路;以及
处理器,与所述多个光源和所述光电检测器模块通信,所述处理器用于处理来自所述光电检测器模块的信息,以获得所述图像中回射光的差分值,以及基于获得的差分值确定所述用户眼睛的位置或运动。
20.根据权利要求19所述的装置,其中,所述处理器依据所述用户眼睛位置或运动,触发显示在显示屏上的指示。
21.一种用于跟踪眼睛的运动的方法,包括:
多个光源向用户的眼睛发射以特定频率调制的光,其中发射的光由偏振器偏振,其中,所述多个光源中的每个通过不同的调制频率进行幅度调制;
光电检测器模块检测来自所述用户至少一只眼睛的回射光,其中所述检测包括:
接收从所述用户的眼睛回射的光,所述回射光基于所述多个光源发射的光;
过滤所述接收的回射光,以排除背景光;
解调所述过滤的光,以使处于调制频率的回射光与未处于调制频率的光分离;
基于所述解调的回射光的差分值,确定眼睛的位置参数。
22.根据权利要求21所述的方法,其中,所述多个光源发射不同波长或不同相位的光。
23.根据权利要求22所述的方法,其中,所述多个光源发射的光的波长为700-850nm或者920-1020nm。
24.根据权利要求22所述的方法,其中,所述多个光源发射的光为零相位或者相位偏移π。
25.根据权利要求21所述的方法,其中,所述多个光源发射的光为可见光或者红外光。
26.根据权利要求21所述的方法,其中,所述多个光源发射的光包括频率与所述光电检测器模块的帧速率相关的闪光。
27.根据权利要求21所述的方法,还包括:
依据所述光电检测器模块接收的所述眼睛的回射光检测眼睛的眨眼运动。
28.根据权利要求21所述的方法,其中,所述用户的眼睛位置参数包括所述用户的眼睛在观看的方向或者所述用户的眼睛在空间中的位置。
29.根据权利要求21所述的方法,其中,所述多个光源同时发射调制光。
30.根据权利要求21所述的方法,其中,所述多个光源发射处于不同频率的调制光,包括:
所述多个光源中的第一组光源发射第一光,其波长配置为700-850nm;
所述光电检测器模块从第一视频帧中获取基于所述第一光的用户眼睛的回射光的第一图像;
所述多个光源中的第二组光源发射第二光,其波长为920-1020nm;
所述光电检测器模块从第二视频帧中获取基于所述第二光的用户眼睛的回射光的的第二图像;
计算视频帧之间的差分;以及
基于所述差分,从背景散射中选取眼睛回射信号。
31.根据权利要求30所述的方法,还包括:
将所述第一视频帧和所述第二视频帧编组为数据集。
32.根据权利要求30所述的方法,其中,当以不同的频率调制所述第一组光源和所述第二组光源时,同时捕捉所述第一视频帧和所述第二视频帧。
33.根据权利要求21所述的方法,其中,所述多个光源同时向所述用户的眼睛发射光。
34.根据权利要求21所述的方法,其中,所述多个光源发射光以及在所述光电检测器模块处接收至少部分回射的光同时进行。
35.根据权利要求21所述的方法,其中,所述多个光源发射光以及所述光电检测器模块处接收回射光,包括:
所述光电检测器模块从第一视频帧中获取所述用户的眼睛回射的,基于所述多个光源发射的第一光的回射光的第一图像;
所述光电检测器模块从第二视频帧中获取所述用户的眼睛回射的,基于所述多个光源发射的第二光的回射光的第二图像;
在所述光电检测器模块的图像像素之间对所述第一图像以及所述第二图像进行比较,以确定眼睛的位置。
36.根据权利要求35所述的方法,还包括:
使所述第一视频帧和所述第二视频帧编组为数据集。
37.根据权利要求35所述的方法,其中,相邻的帧进行比较以确定差分图像,从而确定眼睛的位置。
38.一种用于跟踪眼睛的运动的方法,包括:
围绕光电检测器模块布置的光源组朝着用户的眼睛发射光,其中所述光源组配置成使得所述光源组中的给定光源能够与所述光源组中的其他光源区分开,其中,所述光源组中的每个通过不同的调制频率进行幅度调制;
所述光电检测器模块接收对应于所述光源组的、从所述用户的眼睛回射的光的组合回射;
所述光电检测器模块过滤所述接收的回射光,以排除背景光;
所述光电检测器模块解调所述过滤的光,以使处于调制频率的回射光与未处于调制频率的光分离;
所述光电检测器模块区分所述组合回射,以确定与所述光源组中的每一个光源对应的单独的回射分量;以及
基于与所述光源组对应的单独的回射的差分值,确定所述用户眼睛的运动位置参数。
39.根据权利要求38所述的方法,其中,所述光源组包括至少三个光源。
40.根据权利要求38所述的方法,其中,所述光源组围绕所述光电检测器模块布置成具有位置偏差,以实现沿着x方向和y方向两者的单独的回射的差分值。
41.根据权利要求38所述的方法,其中,所述光源组根据发射光的颜色彼此区分开,其中,所述每一个光源发射与所述光源组中的其他光源波长不同的光。
42.根据权利要求38所述的方法,其中,所述光源组中的每一个光源发射强度调制光。
43.根据权利要求42所述的方法,其中,所述光源组发射相同波长的光。
44.根据权利要求38所述的方法,其中,所述光源组中的光源发射具有波长的光。
45.根据权利要求38所述的方法,其中,所述光电检测器模块同时接收对应于所述光源组的、从眼睛回射的光的组合回射。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361876726P | 2013-09-11 | 2013-09-11 | |
US61/876,726 | 2013-09-11 | ||
PCT/US2014/055243 WO2015038810A2 (en) | 2013-09-11 | 2014-09-11 | User interface based on optical sensing and tracking of user's eye movement and position |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106062665A CN106062665A (zh) | 2016-10-26 |
CN106062665B true CN106062665B (zh) | 2019-05-17 |
Family
ID=52625106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480062503.XA Active CN106062665B (zh) | 2013-09-11 | 2014-09-11 | 基于用户的眼睛运动和位置的光学感测和跟踪的用户界面 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9652034B2 (zh) |
CN (1) | CN106062665B (zh) |
WO (1) | WO2015038810A2 (zh) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150028746A1 (en) * | 2013-07-26 | 2015-01-29 | 3M Innovative Properties Company | Augmented reality graphical user interface for network controlled lighting systems |
WO2015070182A2 (en) | 2013-11-09 | 2015-05-14 | Firima Inc. | Optical eye tracking |
WO2015081325A1 (en) | 2013-11-27 | 2015-06-04 | Shenzhen Huiding Technology Co., Ltd. | Eye tracking and user reaction detection |
CN103870805B (zh) * | 2014-02-17 | 2017-08-15 | 北京释码大华科技有限公司 | 一种移动终端生物特征成像方法和装置 |
US10572008B2 (en) * | 2014-02-21 | 2020-02-25 | Tobii Ab | Apparatus and method for robust eye/gaze tracking |
US9886630B2 (en) * | 2014-02-21 | 2018-02-06 | Tobii Ab | Apparatus and method for robust eye/gaze tracking |
GB2523356A (en) | 2014-02-21 | 2015-08-26 | Tobii Technology Ab | Apparatus and method for robust eye/gaze tracking |
US20150346818A1 (en) * | 2014-05-27 | 2015-12-03 | Umoove Services Ltd. | System and method for detecting micro eye movements in a two dimensional image captured with a mobile device |
US20160132726A1 (en) * | 2014-05-27 | 2016-05-12 | Umoove Services Ltd. | System and method for analysis of eye movements using two dimensional images |
JP6478713B2 (ja) * | 2015-03-04 | 2019-03-06 | キヤノン株式会社 | 計測装置および計測方法 |
JP6334484B2 (ja) * | 2015-09-01 | 2018-05-30 | 株式会社東芝 | メガネ型ウェアラブル装置及びその制御方法及び情報管理サーバー |
CN106940766A (zh) * | 2016-01-04 | 2017-07-11 | 由田新技股份有限公司 | 视线轨迹认证系统及方法 |
CN106598214A (zh) * | 2016-11-02 | 2017-04-26 | 歌尔科技有限公司 | 用于虚拟现实设备的功能触发方法、装置及虚拟现实设备 |
US20180157908A1 (en) * | 2016-12-01 | 2018-06-07 | Varjo Technologies Oy | Gaze-tracking system and method of tracking user's gaze |
US10757328B2 (en) * | 2016-12-23 | 2020-08-25 | Microsoft Technology Licensing, Llc | Eye tracking using video information and electrooculography information |
CN108663806A (zh) * | 2017-03-31 | 2018-10-16 | 及至微机电股份有限公司 | 具有瞳孔追踪功能的影像投影装置及其瞳孔位置追踪装置 |
CN107223276B (zh) * | 2017-04-26 | 2020-03-20 | 深圳市汇顶科技股份有限公司 | 眼球遥控系统及电子装置 |
US10401956B2 (en) * | 2017-05-11 | 2019-09-03 | Microsoft Technology Licensing, Llc | Infrared eye-tracking in high ambient light conditions |
CN107342823B (zh) * | 2017-07-06 | 2020-01-31 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 用于可见光通信系统的联合颜色与强度移位键控调制方法 |
CN107411762A (zh) * | 2017-08-31 | 2017-12-01 | 杭州极智医疗科技有限公司 | 认知障碍诊疗设备 |
EP4293484A3 (en) * | 2017-09-28 | 2024-03-13 | Apple Inc. | Method and device for eye tracking using event camera data |
US11087658B2 (en) | 2017-10-18 | 2021-08-10 | Hewlett-Packard Development Company, L.P. | Displays with pixel elements |
CN107977401B (zh) * | 2017-10-18 | 2022-04-26 | 依睿迪亚(南京)智能科技有限公司 | 一种基于矩阵结构的眼动追踪模式识别对比的可视化方法 |
CN109745001A (zh) * | 2017-11-02 | 2019-05-14 | 罗曦明 | 非接触式睡眠监测方法、装置、电子设备及存储介质 |
US10521013B2 (en) * | 2018-03-01 | 2019-12-31 | Samsung Electronics Co., Ltd. | High-speed staggered binocular eye tracking systems |
KR102608471B1 (ko) * | 2018-11-06 | 2023-12-01 | 삼성전자주식회사 | 눈 추적 방법 및 장치 |
US11326763B1 (en) | 2019-02-06 | 2022-05-10 | Apple Inc. | Light-emitting diodes with optical filters |
US11861941B1 (en) * | 2019-02-06 | 2024-01-02 | Apple Inc. | Eye camera systems with polarized light |
EP3730037A1 (de) | 2019-04-23 | 2020-10-28 | Carl Zeiss Vision International GmbH | Bestimmung eines refraktionsfehlers eines auges |
EP3782535A1 (de) | 2019-08-23 | 2021-02-24 | Carl Zeiss Vision International GmbH | Gemeinsame bestimmung von akkommodation und vergenz |
WO2021049740A1 (en) * | 2019-09-12 | 2021-03-18 | Samsung Electronics Co., Ltd. | Eye accommodation distance measuring device and method, and head-mounted display |
US11535260B2 (en) * | 2020-03-05 | 2022-12-27 | Harman International Industries, Incorporated | Attention-based notifications |
US11707192B2 (en) * | 2020-07-01 | 2023-07-25 | Meta Platforms Technologies, Llc | Eye-tracking using laser doppler interferometry |
CN111700586B (zh) * | 2020-07-01 | 2023-09-29 | 业成科技(成都)有限公司 | 眼动追踪装置及应用其的电子装置 |
CN112232255B (zh) * | 2020-10-26 | 2022-11-01 | 北京鹰瞳科技发展股份有限公司 | 基于多模态数据的身份认证方法及设备 |
CN114967904A (zh) * | 2021-02-19 | 2022-08-30 | 北京京东方光电科技有限公司 | 视线定位方法、头戴显示设备、计算机设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6634749B1 (en) * | 1998-11-02 | 2003-10-21 | Leica Microsystems (Schweiz) Ag | Eye tracking system |
CN1725976A (zh) * | 2002-11-21 | 2006-01-25 | 托比伊科技公司 | 用于检测和跟踪眼睛及其注视方向的方法和装置 |
CN101699510A (zh) * | 2009-09-02 | 2010-04-28 | 北京科技大学 | 视线追踪系统中的基于粒子滤波的瞳孔跟踪方法 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3864030A (en) | 1972-07-11 | 1975-02-04 | Acuity Syst | Eye position measuring technique |
US5610673A (en) * | 1995-09-14 | 1997-03-11 | Pulse Medical Instruments, Inc. | Pupil detection system |
US6373961B1 (en) | 1996-03-26 | 2002-04-16 | Eye Control Technologies, Inc. | Eye controllable screen pointer |
US5956124A (en) | 1997-10-23 | 1999-09-21 | Dan; Jacob | Automated threshold-related objective perimetry |
JP3315648B2 (ja) | 1998-07-17 | 2002-08-19 | 沖電気工業株式会社 | アイリスコード生成装置およびアイリス認識システム |
US6396461B1 (en) | 1998-08-05 | 2002-05-28 | Microvision, Inc. | Personal display with vision tracking |
US20020093654A1 (en) * | 2000-07-11 | 2002-07-18 | Lieberman Robert A. | Apparatus and method for imaging |
US7224822B2 (en) * | 2000-11-02 | 2007-05-29 | Retinal Technologies, L.L.C. | System for capturing an image of the retina for identification |
US20030038754A1 (en) | 2001-08-22 | 2003-02-27 | Mikael Goldstein | Method and apparatus for gaze responsive text presentation in RSVP display |
US7408576B2 (en) | 2002-08-16 | 2008-08-05 | Zoran Corporation | Techniques for modifying image field data as a function of radius across the image field |
ATE454849T1 (de) | 2002-10-15 | 2010-01-15 | Volvo Technology Corp | Verfahren für die auswertung der kopf- und augenaktivität einer person |
US7280678B2 (en) * | 2003-02-28 | 2007-10-09 | Avago Technologies General Ip Pte Ltd | Apparatus and method for detecting pupils |
US7380938B2 (en) | 2003-03-25 | 2008-06-03 | Sarnoff Corporation | Apparatus to detect and measure saccade and pupilary changes |
US7963652B2 (en) * | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
WO2006013755A1 (ja) | 2004-08-05 | 2006-02-09 | Japan Science And Technology Agency | 空間光通信を用いた情報処理システム及び空間光通信システム |
JP4608996B2 (ja) * | 2004-08-19 | 2011-01-12 | ブラザー工業株式会社 | 瞳孔検出装置およびそれを備えた画像表示装置 |
US7418115B2 (en) * | 2004-12-07 | 2008-08-26 | Aoptix Technologies, Inc. | Iris imaging using reflection from the eye |
US7429108B2 (en) | 2005-11-05 | 2008-09-30 | Outland Research, Llc | Gaze-responsive interface to enhance on-screen user reading tasks |
WO2008092156A1 (en) * | 2007-01-26 | 2008-07-31 | Aoptix Technologies, Inc. | Combined iris imager and wavefront sensor |
KR20090057819A (ko) * | 2007-12-03 | 2009-06-08 | 삼성전기주식회사 | 광변조기, 광변조기 모듈 및 이를 포함하는 스캐닝디스플레이 장치 |
US8005776B2 (en) | 2008-01-25 | 2011-08-23 | International Business Machines Corporation | Adapting media storage based on user interest as determined by biometric feedback |
US9398848B2 (en) | 2008-07-08 | 2016-07-26 | It-University Of Copenhagen | Eye gaze tracking |
ES2880475T3 (es) | 2009-04-01 | 2021-11-24 | Tobii Ab | Sistema de representación visual con iluminadores para el seguimiento de la mirada |
WO2010118292A1 (en) | 2009-04-09 | 2010-10-14 | Dynavox Systems, Llc | Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods |
US20110170060A1 (en) * | 2010-01-08 | 2011-07-14 | Gordon Gary B | Gaze Tracking Using Polarized Light |
US8878773B1 (en) * | 2010-05-24 | 2014-11-04 | Amazon Technologies, Inc. | Determining relative motion as input |
US20130094712A1 (en) * | 2010-07-16 | 2013-04-18 | Amir Said | Systems and methods for eye tracking using retroreflector-encoded information |
WO2012020760A1 (ja) * | 2010-08-09 | 2012-02-16 | 国立大学法人静岡大学 | 注視点検出方法及び注視点検出装置 |
US8643680B2 (en) | 2011-04-08 | 2014-02-04 | Amazon Technologies, Inc. | Gaze-based content display |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US8998414B2 (en) | 2011-09-26 | 2015-04-07 | Microsoft Technology Licensing, Llc | Integrated eye tracking and display system |
US8955973B2 (en) | 2012-01-06 | 2015-02-17 | Google Inc. | Method and system for input detection using structured light projection |
WO2013112705A1 (en) | 2012-01-24 | 2013-08-01 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | Compact eye-tracked head-mounted display |
EP2812775A1 (en) | 2012-02-06 | 2014-12-17 | Sony Mobile Communications AB | Gaze tracking with projector |
KR102047494B1 (ko) | 2012-09-10 | 2019-11-21 | 삼성전자주식회사 | 투명 디스플레이 장치 및 그 객체 선택 방법 |
WO2015070182A2 (en) | 2013-11-09 | 2015-05-14 | Firima Inc. | Optical eye tracking |
WO2015081325A1 (en) | 2013-11-27 | 2015-06-04 | Shenzhen Huiding Technology Co., Ltd. | Eye tracking and user reaction detection |
-
2014
- 2014-09-11 US US14/484,099 patent/US9652034B2/en active Active
- 2014-09-11 CN CN201480062503.XA patent/CN106062665B/zh active Active
- 2014-09-11 WO PCT/US2014/055243 patent/WO2015038810A2/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6634749B1 (en) * | 1998-11-02 | 2003-10-21 | Leica Microsystems (Schweiz) Ag | Eye tracking system |
CN1725976A (zh) * | 2002-11-21 | 2006-01-25 | 托比伊科技公司 | 用于检测和跟踪眼睛及其注视方向的方法和装置 |
CN101699510A (zh) * | 2009-09-02 | 2010-04-28 | 北京科技大学 | 视线追踪系统中的基于粒子滤波的瞳孔跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
US9652034B2 (en) | 2017-05-16 |
US20150070273A1 (en) | 2015-03-12 |
CN106062665A (zh) | 2016-10-26 |
WO2015038810A3 (en) | 2015-05-07 |
WO2015038810A2 (en) | 2015-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106062665B (zh) | 基于用户的眼睛运动和位置的光学感测和跟踪的用户界面 | |
US10416763B2 (en) | Eye tracking and user reaction detection | |
CN106132284B (zh) | 光学眼动追踪 | |
RU2709389C2 (ru) | Дисплей с уменьшением дискомфорта зрения | |
CN109997174B (zh) | 可穿戴光谱检查系统 | |
US8077914B1 (en) | Optical tracking apparatus using six degrees of freedom | |
JP4783018B2 (ja) | 眼及びその凝視方向を検知し、追跡する方法と装置 | |
JP6308940B2 (ja) | 視線追跡シーン参照位置を識別するシステム及び方法 | |
Morimoto et al. | Eye gaze tracking techniques for interactive applications | |
CN104603673B (zh) | 头戴式系统以及使用头戴式系统计算和渲染数字图像流的方法 | |
CN103648366B (zh) | 用于远程测量光学焦点的系统和方法 | |
KR102669768B1 (ko) | 동공 검출 및 시선 추적을 위한 이벤트 카메라 시스템 | |
US20130094712A1 (en) | Systems and methods for eye tracking using retroreflector-encoded information | |
FI125445B (fi) | Katseenohjausjärjestely | |
CN213844155U (zh) | 生物特征采集识别系统和终端设备 | |
CN109964230A (zh) | 用于眼睛度量采集的方法和设备 | |
CN213844156U (zh) | 生物特征采集识别系统和终端设备 | |
US20240004465A1 (en) | Eye gaze tracking system and virtual image display device | |
KR20240093875A (ko) | 동공 검출 및 시선 추적을 위한 이벤트 카메라 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |