CN106663183B - 眼睛跟踪及用户反应探测 - Google Patents

眼睛跟踪及用户反应探测 Download PDF

Info

Publication number
CN106663183B
CN106663183B CN201480065120.8A CN201480065120A CN106663183B CN 106663183 B CN106663183 B CN 106663183B CN 201480065120 A CN201480065120 A CN 201480065120A CN 106663183 B CN106663183 B CN 106663183B
Authority
CN
China
Prior art keywords
light
eye
user
light sources
modulated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480065120.8A
Other languages
English (en)
Other versions
CN106663183A (zh
Inventor
何毅
皮波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Goodix Technology Co Ltd
Original Assignee
Shenzhen Goodix Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Goodix Technology Co Ltd filed Critical Shenzhen Goodix Technology Co Ltd
Publication of CN106663183A publication Critical patent/CN106663183A/zh
Application granted granted Critical
Publication of CN106663183B publication Critical patent/CN106663183B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

公开了用于对眼睛移动进行光学感测和跟踪的方法、系统及设备。一方面,用于获取用户眼睛的动态数据的设备包括用于呈现至少一项内容的显示屏。该设备包括眼睛感测模块,该眼睛感测模块用于:当在显示屏上向用户呈现了所述至少一项内容时,获取用户眼睛的动态数据,该动态数据包括用户眼睛的移动。该设备包括与眼睛感测模块连接的处理器。处理器可以至少部分地基于所获取的用户眼睛的动态数据来确定用户对显示屏上所显示的至少一项内容的反应。

Description

眼睛跟踪及用户反应探测
相关申请的交叉引用
本专利文献要求于2013年11月27日提交的美国临时专利申请No.61/909,998以及于2013年12月3日提交美国临时专利申请NO.61/911,430的权益和优先权。前述专利申请的整体内容通过引用合并到本文献的公开内容的一部分。
技术领域
本专利文献涉及眼睛跟踪及眼睛反应感测技术。
背景技术
眼睛是视觉系统中复杂的解剖部件,其从周围环境收集光,通过隔膜调节光的强度,通过可调节透镜组件使光聚焦以形成图像,将该图像转化成一组电信号,以及通过复杂的神经通路将这些信号发送至大脑,这些复杂的神经通路经由视神经将眼睛连接至视觉皮层和大脑的其他区域。眼睛能够识别光的两个方面的差异:亮度(基于光的发光)和颜色(基于光的波长)。视锥细胞是眼睛后部(即,视网膜)的一类光感受器,在明亮的光线下,视锥细胞能够提供良好的视觉灵敏度和颜色视觉。视杆细胞是视网膜的外部区域中的高灵敏度光感受器,该视杆细胞用于为夜间视觉提供低照明条件下的光学信息以及在明亮的照明条件下为周围视觉提供辅助。
眼睛是一种具有多种产生光学反射部分或部件的复杂结构。例如,眼睛反射的主要场景包括:从角膜反射的光的角膜反射,从虹膜反射的光的虹膜反射以及从视网膜反射的光的逆反射。这些反射会导致许多应用中出现不良影响,诸如,拍摄中出现红眼效应,而同样可以用于多种光学系统,例如,眼睛跟踪设备。
发明内容
本文公开了用于眼睛移动的光学感测及跟踪的方法、系统及设备,包括用于实时检测和跟踪用户的眼睛或双眼对于设备的显示屏(诸如,触摸感测屏)的注视或瞄准。所公开的技术的实施例的示例包括基于所检测到的用户的眼睛或双眼的注视或瞄准来在显示屏上生成光标或指针,并且使用所生成的光标或指针来实现各种功能。这些可能的功能的示例包括选择各种应用、文档及用户界面、激活这些应用、文档及用户界面或者与这些应用、文档及用户界面交互。所述选择、激活或交互可以在设备上实现所期待的动作、操作或效果。在一些实施例中,眼睛注视跟踪可以结合设备上的其他用户输入(诸如,一个或更多个可操作按钮、开关或触发器)一起使用。对显示屏上的眼睛注视或瞄准的眼睛跟踪和检测可以用于指示光标的位置以执行多种功能来完成“眼睛鼠标”操作,而无需使用物理鼠标或指示器来控制鼠标在显示屏上的移动或位置。在移动或手持设备中,该“眼睛鼠标”功能可以用于进行单手操作或者通过显示器对多种操作和功能进行控制。
另外,还公开了方法、系统及设备,用于使用用户眼睛的动态来分析并报告用户对设备的显示屏上的内容的反应。所公开的技术的实施例的示例可以包括使用与设备集成的眼睛感测模块来获得用户眼睛动态数据,该用户眼睛动态数据表示设备的显示屏上的至少一项内容。用户眼睛的动态数据至少包括用户眼睛的移动和用户瞳孔尺寸的变化。对所获取的用户眼睛动态数据进行分析以确定用户对显示屏上所显示的内容的反应。
一方面,用于获取用户眼睛动态数据的设备包括用于呈现至少一项内容的显示屏。该设备包括眼睛感测模块,该眼睛感测模块用于:当显示屏上向用户呈现所述至少一项内容时,获取包括用户眼睛移动的用户眼睛动态数据。该设备包括与眼睛感测模块连接的处理器。该处理器至少部分地基于所获取的用户眼睛动态数据来确定用户对显示屏上所呈现的至少一项内容的反应。
可以通过多种方式来实现该设备以包括一个或更多个以下特征。用户眼睛动态数据可以包括用户瞳孔尺寸的变化。设备可以包括用于获取环境光状况的、与处理器连接的环境光感测模块。处理器可以至少部分地基于所获得的用户眼睛动态数据和环境光状况来确定用户对显示屏上呈现的至少一项内容的反应。处理器与显示屏连接以便于获取显示屏特征并且至少部分地基于所获得的显示屏特征和用户眼睛动态数据来确定用户对显示屏上呈现的所述至少一项内容的反应,其中,显示屏特征包括显示亮度变化数据或显示背光数据中的至少一项。设备可以包括用于获取设备的运动参数、与处理器连接的至少一个运动传感器。处理器可以至少部分地基于所获得的用户眼睛动态数据和运动参数来确定用户对显示屏上所呈现的所述至少一项内容的反应。设备包括移动设备。
另一方面,描述了一种用于确定用户对显示屏上所呈现的至少一项内容的反应的方法。该方法包括将至少一项内容呈现在设备的显示屏上。方法包括:当至少一项内容被呈现在设备的显示屏上时,通过与设备集成的眼睛感测模块检测用户眼睛动态以获得表示用户眼睛移动或用户瞳孔尺寸的变化的数据。方法包括将所获得的用户眼睛动态数据与显示屏上所呈现的所述至少一项内容关联以生成用户反应数据。
可以通过多种方式来实现该方法以包括一个或更多个以下特征。该方法包括将所生成的用户反应数据发送给服务器。服务器可以与提供所述至少一项内容的内容提供商关联。方法可以包括从服务器接收至少部分地基于被发送至服务器的用户反应数据所选择的不同内容。该关联可以包括将用户瞳孔尺寸的增大与用户对显示屏上所呈现的所述至少一项内容越来越感兴趣的指示关联。该关联可以包括将用户眼睛移动的稳定性与用户的注意力集中在显示屏上所显示的所述至少一项内容上的指示关联。
另一方面,描述了一种用于提供用户反应反馈信息的服务器。服务器包括处理器,该处理器用于:从多个用户设备接收与被呈现给所述多个用户设备的共同内容关联的用户反应数据;对与被呈现给多个用户设备的共同内容关联的用户反应数据进行分析;基于对用户对共同呈现的内容的反应的分析生成输出;以及将所生成的输出报告给提供共同呈现的内容的内容提供商。
可以通过多种方式实现服务器以包括一个或更多个以下特征。所生成的输出可以包括统计结果。
另一方面,描述了一种用于眼睛跟踪的设备。该设备包括光电探测器模块。该设备包括两组光源,这两组光源被设置在设备上与光电探测器模块的位置相关的相应位置处并且每组光源发射调制光。两组光源所发射的相应的调制光是以大体上相同的调制频率进行调制的并且彼此异相。作为两组光源发射出调制光的响应,光电探测器模块从用户的眼睛接收包括至少部分逆反射光的回光。设备包括与光电探测器模块和两组光源连接的处理器,该处理器被配置为对来自光电探测器模块的输出信号进行处理以至少部分地基于所接收的部分逆反射光来确定用户眼睛的位置和尺寸参数。在一些实施例中,设备可以包括两组以上光源。
可以通过多种方式来实现该设备以包括一个或更多个以下特征。多组光源中的一组光源可以相对于两组或更多组光源中任意组光源更靠近光电探测器模块,使得:相对于两组或更多组光源中任意组光源,光电探测器模块所接收的部分逆反射光更大程度上取决于具有更近距离的一组光源所发射的调制光。设备可以包括位于光电探测器模块前面的接收透镜,该接收透镜用于收集所接收的部分逆反射光并且将所收集的部分逆反射光引导至光电探测器模块。一组光源可以被设置在接收透镜的光轴附近,而其他组光源可以被设置成远离接收透镜的光轴。接收透镜和所述两组或更多组光源可以被设置成使得来自眼睛的、取决于多种光源中的一组光源所发射的调制光的所逆反射的光基本上投影到接收透镜上,其中,来自眼睛的、取决于其他组光源所发射的调制光的逆反射基本上没有投影到接收透镜上。设备可以包括滤波电路,该滤波电路被通信地链接至光电探测器模块以对光电探测器模块的输出信号进行过滤从而基于相应的调制光滤除背景光和散射光。当相应的调制光从用户的面部或用户面部的其他表面散射开时,散射光会被生成。取决于多组光源中的一组光源所发射的调制光的散射光相对于其他组光源所发射的调制光的散射光的相位差大体上为180°。滤波电路可以包括用于滤除背景光的带通滤波器。所述两组或更多组光源可以以大体上相同的波长发射相应的调制光。设备可以包括显示界面。处理器可以基于所确定的位置参数确定用户眼睛的注视位置,并且显示界面可以在显示界面上的所确定的注视位置处显示光标。显示界面与处理器的结合可以基于所更新的位置参数有效地调节光标。来自光电探测器模块的输出信号的强度可以与眼睛的逆反射的强度成比例,并且还可以与眼睛的瞳孔尺寸成比例。
另一方面,描述了一种基于用户的注视控制光标的移动设备。该移动设备包括显示界面,以及与显示界面相邻的表面区域。该移动设备包括用于发射第一调制光的第一组光源,该第一组光源位于表面区域的第一位置上。该移动设备包括用于发射第二调制光的第二组光源,该第二组光源位于表面区域的第二位置上。第一调制光和第二调制光大体上具有相同的调制频率,并且第一调制光的调制相位与第二调制光的调制相位大体上彼此相反。第一组光源和第二组光源分别向用户操作设备的用户的眼睛发射第一调制光和第二调制光。移动设备包括光电探测器模块,该光电探测器模块用于接收回光,该回光包括来自用户眼睛的、取决于第一组光源和第二组光源所发射的第一调制光和第二调制光的至少部分逆反射光。设备包括处理器,该处理器被通信地耦接至光电探测器模块及第一组光源和第二组光源。处理器可以对来自光电探测器模块的输出信号进行处理以至少基于与第一调制光和第二调制光相对应的部分逆反射光来确定用户眼睛的注视位置。显示界面可以在所确定的注视位置处显示光标。
可以通过多种方式来实现该方法以包括一个或更多个以下特征。显示界面与处理器结合可以基于所更新的眼睛的注视位置来调节光标的位置。光电探测器模块可以跟踪移动设备与用户眼睛之间的相对线性运动和旋转运动,并且生成输出信号,该输出信号反映了相对线性运动和旋转运动对注视位置的影响。来自光电探测器模块的输出信号的强度可以与眼睛的逆反射的强度成比例,并且可以与眼睛的瞳孔尺寸成比例。处理器可以对输出信号进行处理以确定眼睛的瞳孔的尺寸。处理器可以对输出信号进行处理以确定移动设备与用户的眼睛之间的距离。移动设备可以包括设备外部;以及位于移动设备上的一个或更多个按钮,所述一个或更多个按钮用于在所显示的光标位置处实现鼠标功能。所述一个或更多个按钮可以设置在设备外部的左侧、右侧或背面。所述一个或更多个按钮可以被显示在显示界面上。所述一个或更多个按钮可以结合移动设备的现有按钮进行操作。所述一个或更多个按钮可以执行常规的鼠标的左击、右击、中间点击功能。
另一方面,描述了一种用于在设备处跟踪眼睛移动的方法。该方法包括:使用设备的第一组光源向用户眼睛发射第一调制光,以及使用设备的第二组光源向用户眼睛发射第二调制光。第一调制光和第二调制光大体上具有相同的调制频率,并且第一调制光的调制相位与第二调制光的调制相位大体上彼此相反。该方法包括在设备的光电探测器模块处接收回光,该回光包括取决于来自第一组光源的第一调制光和第二组光源的第二调制光的、来自用户眼睛的至少部分逆反射光。该方法包括对所接收的回光进行过滤以滤除背景光和散射光。该方法包括对来自光电探测器模块的输出信号进行处理,以至少基于与第一组调制光源和第二组调制光源相对应的部分逆反射光来确定用户眼睛的位置和尺寸参数。
可以通过多种方式来实现该方法以包括一个或更多个以下特征。取决于第一调制光的散射光相对于取决于第二调制光的散射光的相位差大体上为180°。处理输出信号可以包括基于与第一组光源和第二组光源相对应的部分逆反射光之间的差值确定眼睛的位置参数和尺寸参数。该方法包括使用第一组光源和第二组光源发射可见光。该方法包括使用第一组光源和第二组光源发射紫外波长和红外波长的调制光。该方法包括使用第一组光源和第二组光源发射不同波长的调制光并且校准第一组光源与第二组光源使得这两组光源相匹配。该方法包括使用第一组光源和第二组光源发射具有相同调制频率的光以执行自我消除探测。该方法包括:对来自光电探测器模块的输出信号进行处理,以至少基于与第一调制光和第二调制光相对应的部分逆反射光来确定用户眼睛在设备的显示屏上的注视位置;以及在显示屏上的所确定的注视位置处显示光标。该方法包括基于所更新的眼睛的注视信息持续地对光标在显示界面上的位置进行调节。该方法包括使用第一组光源和第二组光源发射具有不同调制频率的光以探测眼睛注视的方向。第一组光源和第二组光源以及光电探测器模块可以位于设备的边缘。所发射的第一调制光和第二调制光可以包括频率与光电探测器模块相关的闪烁的光,以便于增强眼睛信号探测并进一步滤除背景光。该方法包括:响应于眼睛注视方向的变化改变光标的位置;以及在设备上设置一个或更多个光标激活按钮以激活光标从而在显示屏上进行选择、操作或交互。该方法包括:配置所述一个或更多个光标激活按钮以在设备上提供附加控制功能。该方法包括:使用通过一个或更多个光标激活按钮所接收的输入,激活在跟踪眼睛的同时探测用户瞳孔尺寸变化的功能。该方法包括:基于通过一个或更多个光标所接收的输入,探测眼睛注视方向的同时跟踪眼睛移动。该方法包括:基于通过一个或更多个光标所接收的输入,发送所发射的调制光中携带的数据并且接收所探测到的回光中携带的数据。该方法包括:对来自光电探测器模块的输出信号进行处理,以至少基于第一调制光和第二调制光相对应的部分逆反射光确定用户眼睛在设备的显示屏上的注视位置;以及使用所确定的用户眼睛在显示屏上的注视位置来探测用户在按注视收费的广告上的注视情况。该方法包括:对来自光电探测器模块的输出信号进行处理,以至少基于与第一调制光和第二调制光相对应的部分逆反射光确定用户眼睛在设备的显示屏上的注视位置;以及使用所确定的用户眼睛在显示屏上的注视位置来控制游戏应用中的游戏操作。该方法包括:将于市场调研关联的至少一项内容呈现到设备的显示屏上;以及对所确定的用户眼睛的位置参数和尺寸参数进行分析以确定用户对显示屏上所显示的所述至少一项内容的反应;以及对所确定的用户对所呈现的与市场调研关联的所述至少一项内容的反应进行收集。该方法包括:对来自光电探测器模块的输出信号进行处理,以至少基于与第一调制光和第二调制光相对应的部分逆反射光确定用户眼睛在设备的显示屏上的注视位置;以及使用所确定的用户眼睛在显示屏上的注视位置来进行安全访问或安全数据输入。
附图说明
图1示出了人眼的解剖学的图示。
图2示出了视野的图示。
图3A和图3B示出了眼睛的图示和图像,说明了当眼睛被光源照射时发生的三种发射。
图4A示出了描绘采用了所公开的技术的、用于跟踪眼睛的移动的示例性方法的步骤的过程图。
图4B示出了用于执行示例性眼睛跟踪方法的用户设备的示例性界面的示意性图示。
图5A示出了用户设备中实现的、采用了所公开的技术的示例性眼睛跟踪单元的框图。
图5B示出了图4A所描绘的示例性方法的操作的图示,该操作使用了眼睛和多个光源以及示例性移动设备的一个相机的逆反射。
图6A示出了移动智能手机设备上实现的、采用了所公开的技术的示例性眼睛跟踪设备的图示。
图6B示出了计算机检测器或电视设备上实现的、采用了所公开的技术的示例性眼睛跟踪设备的图示。
图7A示出了采用了所公开的技术的用于校准的、示例性眼睛跟踪设备的图示。
图7B示出了采用了所公开的技术的示例性眼睛跟踪设备的图示,该示例性眼睛跟踪设备用于通过探测眼睛的移动和/或眨眼来操作用户设备以控制设备的功能。
图8示出了示例性方法的过程图,该示例性方法用于通过使用连续光发射来跟踪眼睛的移动并且使用采用了所公开的技术的示例性跟踪单元进行捕获的方式来跟踪眼睛的移动。
图9示出了采用了所公开的技术的示例性眼睛跟踪设备的图示,该示例性眼睛跟踪设备用于探测眼睛的移动和/或眨眼以控制设备的功能。
图10示出了采用了所公开的技术的示例性眼睛跟踪设备的图示,该示例性眼睛跟踪设备包括具有挡光板的单个传感器组并且用于探测眼睛的移动和/或眨眼以控制设备的功能。
图11A示出了用于描绘示例性眼睛鼠标设备的示例性传感器表面上的示例性逆反射图像的图示,其中,所述图像是根据示例性设备的用户的眼睛所产生的逆反射光被探测到的。
图11B示出了用于描绘当用户眼睛移动时的示例性传感器表面上的示例性逆反射图像的图示。
图12示出了示例性方法的过程图,该示例性方法用于跟踪眼睛的移动并且使用所跟踪的眼睛的移动来控制显示屏上的鼠标标记。
图13示出了采用了所公开的技术的示例性眼睛跟踪传感器的图示,该示例性眼睛跟踪传感器具有调制照明光和探测单元。
图14示出了用于探测经调制的眼睛跟踪传感器信号的示例性方法的过程图。
图15示出了采用了所公开的技术的具有调制照明光和探测单元的另一示例性眼睛跟踪传感器设备的图示。
图16示出了用于探测多个经调制的眼睛跟踪传感器信号的示例性方法的过程图。
图17示出了用于同时探测多个经调制的眼睛跟踪传感器信号的示例性方法的过程图。
图18A示出了示例性眼睛鼠标模块的图示,该示例性眼睛鼠标模块包括眼睛传感器机构和自我消除结构。
图18B示出了与智能手机集成的示例性眼睛鼠标模块的图示。
图19A示出了当两组光源完全匹配时,具有自我消除结构的示例性眼睛鼠标模块的仿真结果。
图19B示出了当两组光源相匹配但是存在少量差异时,具有自我消除结构的示例性眼睛鼠标模块的仿真结果。
图20A示出了当图18A中的同轴光源和参考光源都接通时的示例性眼睛图像的示意图。
图20B示出了当只有图18A中的参考光源被探测到时的示例性眼睛图像的示意图。
图20C显示了用于示出跟踪眼睛凝视点的示例性过程的流程图。
图21示出所提出的眼睛鼠标模块的测距功能。
图22示出了所提出的自我消除眼睛鼠标模块的信号获取过程的框图。
图23示出了用户移动设备上所设计的示例性眼睛鼠标功能按钮的图示。
图24示出了采用了所提出的眼睛鼠标技术的示例性目标应用的图示。
图25示出了示例性移动设备(诸如,智能手机)的图示,该示例性移动设备具有用于收集用户反应数据的集成眼睛感测模块。
图26示出了示例性移动设备(诸如,智能手机)的框图,该示例性移动设备与眼睛感测模块、环境光感测模块以及运动感测模块集成以生成用户反应数据。
图27示出了收集来自多个移动设备的用户反应数据并对该用户反应数据进行分析的数据流图。
具体实施方式
所公开的技术的实施例的示例包括设备、系统及方法,所述系统、系统及方法用于:实时监视并跟踪眼睛或双眼在显示屏上的瞄准的位置和移动;使用显示屏上的眼睛瞄准和凝视来在显示屏上放置并移动光标;以及通过设备上的物理触发来使用光标选择显示屏上的对象、文档、软件或图标、激活它,或者与其交互。
另一方面,所公开的技术提供了使用用户眼睛的动态来分析并报告用户对设备的显示屏上的内容的反应。与设备集成的眼睛感测模块被用于:当设备的显示屏上呈现了一项或更多项内容时(例如,当用户正在观看设备的显示屏时),测量用户眼睛的动态数据。用户眼睛的动态数据至少包括用户眼睛的移动和用户瞳孔尺寸的变化。对所测量的用户眼睛的动态数据进行分析以确定用户对显示屏上所显示的内容的反应。
图1示出了人眼的解剖学的图示。眼睛的外壁包括三种同心层。最外层包括角膜和巩膜,其中,角膜是覆盖作为眼睛的聚焦系统的虹膜和晶状体的透明结构,以及巩膜是形成眼睛的纤维的、保护性的最外层的不透明结构,并且巩膜包括胶原和弹性纤维且还被称为“眼白”。虹膜是眼睛中的薄的、圆形结构,虹膜包含有颜料(即,用于确定一个人眼睛的颜色)并且控制瞳孔的直径和尺寸。瞳孔是虹膜中心处的可调节开口,该可调节开口能够改变通过晶状体进入眼睛的光的量。晶状体是能够折射光从而将所折射的光聚焦在视网膜的透明的、双凸面结构。视网膜是眼睛背面的、具有多层神经元(光感受器细胞)的层状结构,这些神经元通过突触相互连接以接收所聚焦的光成为图像,并且将该图像转换为电化学神经信号。视网膜的光感受器细胞包括视锥细胞(例如,光感受器细胞的6%)和视杆细胞(例如,光感受器细胞的94%),并且光感受器细胞主要位于沿着视网膜的外围。视锥细胞集中在视网膜的中央区域(被称为中央凹)。黄斑是邻近视网膜的中心的椭圆形、高色素黄色斑点,并且包括中央凹、旁中央凹以及周围中央凹。中央凹是眼睛中包括最高浓度视锥细胞的小坑,并且负责中央、高分辨率的视觉。脉络膜是眼睛中的富含血管、向视网膜的最外层供血的区域。眼睛还包括液体,例如,位于角膜和虹膜之间的前区域中的水状体,以及位于晶状体后面的后部区域中的玻璃体。
视野通常被划分为三种区域:中央凹区、旁中央凹区以及周围视觉区。中央凹区提供了清晰的视觉;旁中央凹区预览中央凹信息;以及周围视觉区对闪烁的物体和突然的动作作出反应。例如,周围视觉区域的敏锐度大约为中央凹区的敏锐度的15%至50%,并且对颜色的也较不敏感。
图2示出了包括中央凹区、旁中央凹区以及周围视觉区的视野的图示,其具有这些区域可以看得见的示例性程度的视野。在人眼中,这三种视野区域是不均匀的。例如,在阅读时,所谓的感知广度(例如,有效视野的尺寸)为距离固定点左侧3至4个字母间距并且距离固定点右侧14至15个字母间距。又例如,视角为1°大致相当于3至4个字母间距。
眼睛自始至终都在移动,例如,甚至在睡觉期间也在移动。存在多种不同类型的眼睛移动,可以包括追踪、颤动、旋转、漂移以及扫视。对于人类而言,当看着一个场景时,眼睛会来回移动,而不具有固定的稳定性,从而定位在场景的所感兴趣的部分以在思想上创建与场景相对应的三维地图。例如,当扫描场景或阅读页面上的文字时,眼睛在页面上阅读文字的时候,眼睛生涩地做出扫视动作并且停顿几次,同时非常迅速地在每次停顿之间移动。扫视是眼睛的快速移动或“跳”,其与注视相关。
扫视可以是双眼沿着相同的方向快速、同时移动。
扫视会迅速发生(例如,时间间隔为40至120ms),快速移动(例如,速度高达600°/s,并且是冲击式的),其中扫视的结束点不会在移动期间发生变化。人眼的扫视移动可能是因为例如为了分辨视觉中被探测到的物体的原因从而通过移动眼睛使得可以通过更高效地使用神经系统的视觉处理功能来以更高的分辨率感测场景中的一小部分。另一方面,视觉注视是在眼睛保持凝视在单个位置的情况。对于注视而言,眼睛是相对静止的,并且被“固定”至某一点,例如,当阅读单个字时。在视觉期间,场景的信息主要在注视期间被获取。例如,注视持续时间可以在120至1000ms之间变化,例如,通常为200至600ms,并且典型的注视频率为低于3Hz。
图3A和图3B示出眼睛的图像和图示,这两个图示说明了当眼睛被光源照射时所发生的三种反射。这三种类型的眼睛反射包括:从角膜反射的光的角膜反射,从虹膜反射的光的虹膜反射,以及从视网膜反射的光的逆反射。例如,如图3A所示,角膜反射形成了一个小点;虹膜反射看起来很暗但是富有色彩;以及逆反射明亮且具有较强的方向依赖性。图3B的图示示出了反射光束311,该反射光束311是基于在眼睛的角膜上入射的入射光束310而通过角膜反射进行反射的;反射光束312,该发射光束312是基于穿过眼睛的角膜并且在虹膜上入射的入射光束310而通过虹膜反射进行反射的;以及反射光束313,该反射光束313是基于穿过眼睛的角膜和晶状体并且在视网膜上入射的入射光束310而通过逆反射进行反射的。
眼睛跟踪是对凝视点(一个人所看的地方)或眼睛相对于头部的运动进行测量的过程。眼睛跟踪设备及系统测量眼睛位置和眼睛移动。眼睛跟踪已经用于临床以及对医疗、认知研究以及心理学、认知语言学和产品设计中的视觉系统的研究中。
现有的眼睛跟踪模式的一种示例包括基于视频的眼睛跟踪技术,例如,称之为单点法。在该单点法中的这样的传统方法包括例如跟踪眼球的单个可视特征,诸如,角膜缘(巩膜和虹膜的边界)和/或瞳孔。例如,摄像机可以观察用户眼睛的单个可视特征之一。图像处理软件对视频图像进行分析并且追踪所跟踪的特征。基于校准,系统确定用户目前正在看的位置。在这样的系统中,不允许头部移动,而且通常需要咬棒或头枕。在基于视频的眼睛跟踪技术的可替代且相关的示例中,除了对眼睛的两个特征(例如,角膜反射和瞳孔)进行跟踪之外,执行了与前面所描述的单点法的示例大体上相同的思路。这样的方法使用IR光(对于人眼不可见的)来产生角膜反射,并造成瞳孔变亮或变暗,这有助于系统从视频图像中识别出瞳孔。
每个这些示例性传统方法都具有显著的局限性和缺陷。例如,都需要要么安装在地面上要么安装在头部的额外的设备上。同样,这样的方法也需要眼睛跟踪系统或设备,但是这些眼睛跟踪系统或设备不能集成到类似于智能手机或平板电脑的移动设备中。此外,这些常规的方法仅提供了非常有限的信息,例如,无论是通过亮瞳孔测量还是暗瞳孔测量提取的信息都是非常有限的,并且相关联的软件相当复杂且不可靠的。
所公开的技术提供了通过使用用户界面与设备进行交互来进行眼睛移动的光学感测及跟踪。在一些实施例中,可以将光学感测和跟踪功能集成到设备中。例如,所公开的眼睛跟踪技术可以与移动设备(例如,智能手机和平板电脑)和计算设备(例如,诸如计算机监视器)集成,以跟踪操作员眼睛的位置、移动及闪烁状态。所公开的技术可以基于注视和扫视的眼睛移动来使用来自眼睛的光的逆反射进行光学感测和眼睛跟踪。
一方面,一种用于跟踪眼睛移动的方法包括:使用与设备的光电探测器模块(例如,相机)等距的多个(单个)光源朝向用户的眼睛发射光;在光电探测器模块处接收多个光源中的每个光源所发射的光的、从眼睛逆反射的至少部分逆反射;以及基于与多个光源相对应的至少部分逆反射的差值确定眼睛的位置参数。例如,设备可以包括但不限于,智能手机、平板电脑、照相机或摄像机、计算机监视器或便携式计算机。在一些实施例中,例如,当用户的头部相对于例如设备移动时,可以实现该方法。在该方法的一些实施例中,例如,多个(三种)光源可以发射具有不同颜色、不同波长和/或不同调制频率的彩色光,例如,其中,彩色光可以包括红色光、绿色光、蓝色光、黄色光或上述项的任何组合。例如,在该方法的一些实施例中,所发射的光可以包括红外光。此外,例如,所发射的光可以包括闪烁光,该闪烁光的频率与光电探测器模块(例如,相机)的帧速率有关。例如,在一些实施例中,该方法还包括在使用示例性相机处所接收到的至少部分逆反射来探测眼睛的眨动。此外,该方法还包括将所探测到的眨动处理成数据,以及,在一些实施例中,该方法还包括将该数据用作设备的至少一个功能的输入数据。
图4A示出了用于描绘采用了本公开技术的、用于跟踪眼睛的移动的示例性方法400的流程图。该方法400包括(402)朝向用户的眼睛发射来自多个相应光源的多种(三种)类型的光的过程,其中,这三种光源相对于用户设备的光电探测器模块(例如,相机)等间距。例如,该过程可以使用一个相机来实现,其中,这三种光源以相等的距离偏离于相机。
该方法包括(404)使用示例性相机接收三种光源中的每个所发射的三种类型的光的、从眼睛逆反射的至少部分逆反射的过程。例如,距离被配置为使得相机能够从所有的光源接收至少部分逆反射。此外,三种光源可以发射相同或不同颜色的彩色光,或在其他示例中,为了避免刺激用户,发射红外光。在一些示例中,如图4B所示出的,光源可以是彩色发光二极管(LED),图4B示出了用于执行示例性眼睛跟踪方法的用户设备的示例性界面的示意图。例如,可以选取示例性LED来发射特定的RGB颜色以与相机传感器上的滤色器相匹配。示例性LED可以是红外LED。示例性彩色或红外LED可以按照与相机视频帧同步的顺序接通。此外,例如,三种光源可以发射时域上的闪烁光,然而,应当注意的是,闪烁光会降低数据速率。
返回至图4A,该方法包括(406)确定眼睛的位置参数(诸如,眼睛所观看的方向或者眼睛在空间中的位置)的过程。例如,通过计算三种逆反射(例如,与三种光源相对应的至少部分逆反射)的差值,可以确定眼睛移动的方向和其他参数。
在一些示例中,确定眼睛和眼睛移动的方向、定位和/或其他位置参数可以包括下述项。
所公开的方法对眼睛的距离和头部移动并不敏感,从而提供了可靠的眼睛跟踪解决方案。该眼睛跟踪器还可以容易地可靠地探测到操作员的眼睛眨动,其中,眨眼信息可以被处理为数据并且作为设备的输入。例如,智能手机的操作倾向于在距离为1至2英尺的位置处。所公开的方法可以在多种距离和角度(例如,包括0.1°至0.25°)下的头部自由精度工作,并且包括0.02°均方根的头部自由分辨率。
所公开的方法可以被实现为依次或同时跟踪用户的双眼的移动。
图5A示出了在用户设备599上实现的眼睛跟踪单元或设备500的框图,例如,该用户设备可以是,但不限定于,智能手机、平板电脑、照相机或摄像机、计算机监视器,或便携式计算机。眼睛跟踪单元500包括相对于设备599的相机504彼此等距的三个光源501、502和503。眼睛跟踪单元500包括耦合至存储单元506的处理单元505。例如,存储单元506可以包括处理器可执行代码,其中,当处理单元505执行处理器可执行代码时,该处理器可执行代码配置眼睛跟踪单元500执行各种操作,诸如,接收例如来自相机504的信息,命令和/或数据;对信息和数据进行处理,以及向另一实体(例如,光源501,502和503和/或相机504,或用户设备599)发送或提供信息/数据或命令。例如,在一些实施例中,存储单元506可以被配置为磁盘或固态硬盘(SSD)存储单元。
在一些实施例中,眼睛跟踪单元或装置500可以使用用户设备599的处理单元和/或存储单元。
图5B示出了图4A所描述的示例性方法的操作的图示,该操作使用了眼睛和多个光源以及用户设备599(例如,智能手机)的相机的逆反射。图5B的图示示出了基于光源501所产生的入射光束510a和光源502所产生的510b通过逆反射所反射的相应的反射光束513a和513b。入射光束510a和510b的光路径包括穿过眼睛的角膜和晶状体并且在视网膜上进行入射。在视网膜上入射的光可以被视网膜逆反射,使得逆反射光的光路径再次穿过晶状体和角膜并且直接指向它的来源,如逆反射光束513a和513b所示。逆反射光束513a和513b可以通过相机504进行捕获。例如,如图5B的示例性图示中的逆反射光560所示,一些逆反射光可以被直接地引导远离用户设备599。再例如,如图所示,所发射的光的一部分可以从虹膜发射称为虹膜反射570。
图6A示出了移动智能手机设备698上实现的眼睛跟踪设备500的图示。
图6B示出了在计算机监视器或电视设备699上实现的眼睛跟踪设备500的图示。
在其他示例中,所公开的眼睛跟踪技术可以实现在头戴式显示器(HUD)设备(诸如,谷歌眼镜)中。
例如,在一些实施例中,眼睛跟踪单元500包括显示屏515,该显示屏515被配置为位于用户设备599内部、光源501、502和503以及相机504所在的同一侧。该显示屏515可以通信地耦接至处理单元505和/或存储单元506。例如,显示屏515可以是用户设备599所固有的显示屏。
图7A示出了眼睛跟踪单元500中的显示屏515的示例性配置的图示,该显示屏可以用于校准眼睛跟踪单元500。例如,显示了固定位置标记516,其中,校准操作包括用户一次只集中观看一个高亮标记并且推压用户设备599的选择按钮。可以将固定的位置标记516移动至显示屏515上的多个位置,示例性地,在屏幕的四个角和中央,其中,激活标记表示为红色。例如,固定位置标记516可以多次示出并且被示出在待显示的多个位置处以进行校准操作。
图7B示出了眼睛跟踪单元500的图示,该眼睛跟踪单元500包括显示屏515并且可操作在各种应用中的任意一种应用中,其中,眼睛移动用作其中实现有眼睛跟踪单元500的用户设备599的输入数据。例如,眼睛跟踪单元500可以探测用户所执行的操作过程中的用户眼睛的位置参数,这些用户所执行的操作过程包括但不限于:直观地选择显示屏515上的按钮、图标或文本来执行用户设备599(诸如,智能手机或平板电脑等)的程序。此外,例如,所公开的眼睛跟踪技术可以使用眼睛跟踪单元500所探测的眼睛眨动并且利用类似于眼睛移动数据的眨眼数据来激活用户设备599的应用功能。
图8示出了示例性方法800的过程图,该示例性方法800用于通过使用连续光发射并且使用跟踪单元500进行捕获的方式来跟踪眼睛的移动。该方法包括:从光源501(诸如,LED1)发射第一光(802),以及使用相机504捕获第一视频帧中的、第一发射光的通过眼睛逆反射的图像(804)。该方法包括:从光源502(诸如,LED2)发射第二光(806),以及使用相机504捕获第二视频帧中的、第二发射光的通过眼睛逆反射的图像(808)。该方法包括:从光源503(诸如,LED3)发射第三光(810),以及使用相机504捕获第三视频帧中的、第三发射光的通过眼睛逆反射的图像(812)。第一视频帧、第二视频帧以及第三视频帧可以被包括在帧集合(例如,帧集合数据1或{S1}))中(800)(814)。该方法包括使用{S1}中的第一视频帧、第二视频帧以及第三视频帧来计算眼睛在某时刻的位置以发射三种光以捕获三种视频帧(816)。该方法可以包括重复该过程(例如,n次)以生成多个连续的帧集合{S}n(818)。
该方法还包括探测眼睛眨动并且将所探测到的眨眼用作数据用于跟踪单元500的宿主的设备(820)。例如,当用户的眼睛眨动时,所逆反射的光将消失,这将通过多帧数据集被探测到,并且这是用作探测眼睛眨动的特征。例如,可以对多帧数据集{Sn}进行处理以确定眨眼事件的发生、眨眼事件的频率、眨眼的速度、眨眼的持续时间(例如,眼睛闭了多长时间),以及哪个眼睛在眨动(例如,左眼眨动或右眼眨动或双眼眨动)。这些都可以作为输入数据以影响装置的功能(例如,智能手机或计算机的机器状态)。
图9示出使用了所公开的技术的示例性眼睛跟踪设备,该示例性眼睛跟踪设备包括具有棱镜的单个传感器组并且用于探测眼睛移动和/或眨动以控制设备的功能。在一些实施例中,示例性眼睛跟踪设备可操作为“眼睛鼠标”。在该示例中,示例性眼睛跟踪设备可以包括偏振光束分离器1,该偏振光束分离器1被光学地耦接至微透镜3,其中,微透镜3位于或定位在偏振光束分离器1与带通滤波器35之间以光学地滤除进入光电探测器模块33的光。示例性眼睛跟踪设备可以包括光源(例如,近红外LED11),该光源可以以特定的频率或多个特定的频率进行调制,其中,光源11被光学地耦接至线性偏振器13,而线性偏振器13被光学地耦接至偏振光束分离器1,以发送来自设备的、可以被用户眼睛逆反射的探测光(例如,LED辐射光束15)。光电检测器模块33可以被构造成包括光电探测器敏感阵列25以探测进入模块33的输入光,该输入光可以包括例如通过用户眼睛逆反射的光,该通过用户眼睛逆反射的光通过带通滤波器35进行过滤。例如,如图9所示,光电检测器敏感阵列25对图像点29处的、对应于用户的右眼18的逆反射光束21的光以及图像点27处的、对应于用户的左眼19的逆反射光束23的光进行探测。示例性眼睛跟踪设备可以包括处理单元,该处理单元被通信地耦接至光电探测器模块33,以将光电探测器敏感阵列25上所光电探测到的信号处理为数据。该处理单元可以包括通用处理器,该通用处理器与存储单元耦接以存储原始数据和经处理的数据。该处理单元可以被配置为执行方法以基于所探测到的逆反射光信号数据来跟踪眼睛移动并且控制用户设备的功能(例如,包括改变用户设备的显示)。在示例性眼睛跟踪设备的一些实施例中,用户设备的包括处理器和存储单元的处理单元用于执行所公开的技术中的数据处理方法。
图10示出了采用了所公开的技术的示例性眼睛跟踪(眼睛鼠标)设备,该示例性眼睛跟踪设备包括具有挡光板的单个传感器组并且用于探测眼睛移动和/或眨动以控制设备的功能。在该示例中,示例性眼睛跟踪设备可以包括光源(例如,近红外LED11),该光源可以以特定的频率或多个特定的频率进行调制,其中,光源11被光学地耦接至线性偏振器13,以发送来自设备的、可以被用户眼睛逆反射的探测光(例如,LED辐射光束15)。示例性眼睛跟踪设备可以包括线性(接收)偏振器41,该线性偏振器41被光学地耦接至微透镜3并且被配置为靠近光源11和线性(发送)偏振器13但是通过挡光壁或挡光板45与光源11和线性(发送)偏振器13隔开。示例性光跟踪设备的带通滤波器35被配置在微透镜3的后面以光学地对进入光电探测器模块33的光进行过滤。光电检测器模块33可以被构造成包括光电探测器敏感阵列25以探测进入模块33的输入光,该输入光可以包括例如通过用户眼睛逆反射的光,该通过用户眼睛逆反射的光通过带通滤波器35进行过滤。例如,如图9所示,光电检测器敏感阵列25对图像点29处的、对应于用户的右眼18的逆反射光束21的光以及图像点27处的、对应于用户的左眼19的逆反射光束23的光进行探测。示例性眼睛踪设备可以包括处理单元,该处理单元被通信地耦接至光电探测器模块33,以将光电探测器敏感阵列25上所光电探测到的信号处理为数据。该处理单元可以包括通用处理器,该通用处理器与存储单元耦接以存储原始数据和经处理的数据。该处理单元可以被配置为执行方法以基于所探测到的逆反射光信号数据来跟踪眼睛移动并且控制用户设备的功能(例如,包括改变用户设备的显示)。在示例性眼睛跟踪设备的一些实施例中,用户设备的包括处理器和存储单元的处理单元用于执行所公开的技术中的数据处理方法。
图11A示出了用于描绘示例性眼睛鼠标设备的示例性传感器表面1104(例如,大体上类似于光电探测器敏感阵列25)上的示例性逆反射图像1100和1102(诸如,图9和图10中所示的逆反射图像)的图示,其中,所述图像是根据示例性设备的用户的眼睛所产生的逆反射光被探测到的。图11B示出了用于描绘当用户眼睛移动时的示例性传感器表面上的示例性逆反射图像1106和1108的图示,使得能够通过使用示例性设备的处理单元将图像差生成为跟踪信号。
图12示出了示例性方法1200的过程图,该示例性方法1200用于跟踪眼睛的移动并且使用所跟踪的眼睛的移动来控制显示屏上的鼠标标记。该示例性方法可以包括(1202)朝向用户眼睛发射来自一个或更多个光源的光的过程,所述一个或更多个光源被配置在包括采用了本公开技术的眼睛跟踪设备的用户设备中。用户设备可以包括但不限于:智能手机、平板电脑、照相机或摄像机、计算机监视器或便携式计算机。该方法可以包括(1204)在用户设备中的使用了所公开的技术的眼睛跟踪设备中的光电探测器模块处接收一个或更多个光源所发射的逆反射光的过程,其中,所述逆反射光是通过用户的眼睛(例如,左眼、右眼和/或双眼)进行逆反射的。该方法可以包括(1206)利用采取了所公开的技术的眼睛跟踪设备中的处理单元或用户设备中现有的处理单元来基于所接收/探测的逆反射光确定眼睛移动的位置和/或方向的过程。在一些实施例中,确定眼睛移动的位置和/或方向的过程可以包括(1208)根据所确定的移动的位置和/或方向来控制用户设备的功能(例如,包括在用户设备的显示屏上拖拽标记(例如,鼠标标记)或者改变显示屏)。当视点与鼠标标记不重叠时,该方法可以包括(1210)通过逻辑操作使视点与鼠标标记重新对准。
图13示出了采用了所公开的技术的示例性眼睛跟踪传感器1300的图示,该示例性眼睛跟踪传感器1300具有调制照明光和探测单元。示例性眼睛跟踪传感器设备1300可以包括用于向用户发射调制光1304的光源(例如,LED光源)1302。示例性眼睛跟踪传感器设备1300可以包括一个或更多个挡光设备1306(诸如,壁或挡板),所述一个或更多个挡光设备1306被配置或设置成靠近光源1302以阻挡来自光源1302的光从而防止光照射/照亮示例性眼睛跟踪传感器设备的图像传感器。示例性眼睛跟踪传感器设备1300可以包括成像光学器件1308(例如,一个或更多个微透镜)用于接收光并将光输入到设备1300中,其中,成像光学器件1308可以被配置或设置成靠近挡光壁1306(例如,防止从光源单元1302发射的光直接进入成像光学器件1308)。示例性眼睛跟踪传感器设备1300可以包括光电探测器阵列1312用于探测所发射的、通过成像光学器件1308的光。在该示例性眼睛跟踪传感器设备1300的实施例中,光源1302被配置或设置成发射调制光1304(例如,按照一个或多个频率),该调制光1304可以通过眼睛被逆反射1310并且经由示例性眼睛跟踪传感器设备1300的成像光学器件1308通过光电探测器阵列1312接收。例如,光电检测器阵列1312可以被配置为包括像素和解调电路,以便于将光源所发射的具有一个或多个调制频率或多个调制频率的光与没有任何调制的其他光(例如,诸如周围环境中的环境光1314)区分开。在一些实施例中,示例性眼睛跟踪传感器设备可以被通信地耦接至用户设备的处理单元。
图14示出了用于探测经调制的眼睛跟踪传感器信号的示例性方法(1400)的过程图。该示例性方法(1400)可以包括:(1402)从采用了所公开的技术的眼睛跟踪传感器设备(例如,眼睛跟踪传感器设备1300),诸如,图13所示的眼睛跟踪传感器设备1300中的发光单元(例如,发光单元1302)发射具有固定调制的光(例如,LED光)的过程。该示例性方法(1400)可以包括:(1404)对包括了解调电路中所包含的像素的光电探测器阵列处的经调制的光进行探测的过程。该方法1400可以包括:(1406)对所探测到的调制光进行解调制的过程,其中,仅对解调制的信号进行记录和存储(例如,在存储器中,该存储器可以被配置在解调制电路中),并且不具有解调制频率的光被滤除。该方法(1400)可以包括使用例如与解调制电路耦接的扫描读取电路或者解调制电路中所包含的扫描读取电路来针对每个像素读取所存储的信号。
图15示出了采用了所公开的技术的具有调制照明光和探测单元的另一示例性眼睛跟踪传感器设备1500的图示。图15中的示例性眼睛跟踪传感器设备1500可以包括多个光源单元1502和1504(例如,LED光源#1和LED光源#2),用于朝用户发射多个调制光1506和1508(例如,调制光#1和调制光#2)。示例性眼睛跟踪传感器设备1500可以包括一个或更多个挡光设备1510(诸如,壁或挡板),所述一个或更多个挡光设备1510被配置或设置成靠近光源1502以阻挡来自光源1504的光从而防止光照耀/照亮示例性眼睛跟踪传感器设备的图像传感器。示例性眼睛跟踪传感器设备1500可以包括成像光学器件1512(例如,一个或更多个微透镜)用于接收光并将光输入到设备1500中,其中,成像光学器件1512可以被配置或设置成靠近挡光壁1510,从而防止多个光源单元所发射的光1506和1508直接地进入成像光学器件1512)。示例性眼睛跟踪传感器设备1500可以包括光电探测器阵列1518,该光电探测器阵列1518用于探测发射通过成像光学器件1512的光。在该示例性眼睛跟踪传感器设备1500的实施例中,多个光源1502和1504被配置或设置成发射多个调制光1506和1508(例如,按照一个或多个频率),该调制光1304可以通过眼睛被逆反射1514和1516并且经由示例性眼睛跟踪传感器设备1500的成像光学器件1512通过光电探测器阵列1518接收。例如,光电检测器阵列1518可以被配置为包括像素和解调电路,以便于将多个光源1502和1504所发射的具有调制频率或多个调制频率的光射线或光束1506和1508与没有任何调制的其他光(例如,诸如周围环境中的环境光)区分开。在一些实施例中,示例性眼睛跟踪传感器设备1500可以被通信地耦接至用户设备的处理单元。
图16示出了用于探测多个经调制的眼睛跟踪传感器信号的示例性方法(1600)的过程图。该示例性方法(1600)可以包括:(1602)从采用了所公开的技术的眼睛跟踪传感器设备(诸如,图15所示)的第一发光源(例如,LED光源)发射具有固定调制的第一光束(例如,LED光)的过程。该示例性方法(1600)可以包括:(1604)对包括了解调制电路中所包含的像素的光电探测器阵列处的第一调制光束进行探测的过程。该方法可以包括:(1606)对所探测到的第一调制光进行解调制的过程,其中,仅对解调制的信号进行记录和存储(例如,在存储器中,该存储器可以被配置在解调制电路中),并且不具有第一解调制频率(多个频率)的光被滤除。该方法(1600)可以包括:(1608)使用例如与解调制电路耦接的扫描读取电路或者解调制电路中所包含的扫描读取电路来针对每个像素来读取所存储的、与第一调制光相对应的信号(信号S1)的过程。该示例性方法(1600)可以包括:(1610)采用了所公开的技术的眼睛跟踪传感器设备(诸如,图15所示)的第二发光源(例如,LED光源)发射具有固定调制的第二光束(例如,LED光)的过程。该示例性方法(1600)可以包括:(1612)对包括了解调制电路中所包含的像素的光电探测器阵列处的第二调制光束进行探测的过程。该方法可以包括:(1614)对所探测到的第二调制光进行解调制的过程,其中,仅对解调制的信号进行记录和存储(例如,在存储器中,该存储器可以被配置在解调制电路中),并且不具有第二解调制频率(多个频率)的光被滤除。该方法(1600)可以包括:(1616)使用例如与解调制电路耦接的扫描读取电路或者解调制电路中所包含的扫描读取电路来针对每个像素读取所存储的、与第二调制光相对应的信号的过程。对于每个像素的、与第一调制光和第二调制光相对应的信号(S1和S2)可以结合在一起用于计算眼睛的位置和移动(1618)。该方法(1600)可以包括按顺序(如图16所示)或者同时(如图17所示)执行示例性第一调制光和示例性第二调制光的发射、探测和解调制以及读取过程。
图17示出了用于同时探测多个经调制的眼睛跟踪传感器信号的示例性方法(1700)的过程图。例如,发射不同波长的光的两种不同的光源被用于发射(1702)具有不同波长的两种光,例如,其中,第一光源发射波长大于850nm的光,例如,在一些示例中,光的波长为940nm,以及,其中,第二光源发射波长小于850nm的光,例如,在一些示例中,光的波长为780nm。例如,可以使用示例性波长,因为眼睛晶体对于不同的波长具有不同的吸收率,然而,人类的皮肤和其他背景对于这两种波长的吸收率没有任何差异。该方法(1700)包括:(1704)使用光电探测阵列探测器(例如,具有包含在解调电路的像素的一个光电探测阵列探测器)以探测两个光源所发射的光。具有包含在解调电路的像素的光电探测阵列探测器对所探测到的、来自两种光源的调制光进行解调制;记录两种不同的调制信号(例如,信号S1和S2)以及滤除没有被调制的环境光(1706)。通过对信号S1和S2进行比较,可以进一步滤除背景信号。该方法(1700)可以包括(1708)使用例如与解调制电路耦接的扫描读取电路或者解调制电路中所包含的扫描读取电路来针对每个像素来读取所存储的、与第一调制光和第二调制光相对应的信号的过程。对于每个像素的、与第一调制光和第二调制光相对应的信号(S1和S2)可以结合在一起用于计算眼睛的位置和移动(1710)。在其他实施例中,两种光源可以具有相同的波长和/或相同的调制频率并且具有良好定义的相位差(诸如,相位差为π),使得处理器可以处理信号以提取眼睛位置或移动的信息。
功能类似于普通鼠标,所提出的“眼睛鼠标”模块通过跟踪并探测用户的眼睛凝视来控制显示器上的计算机光标。在一些实施例中,当用户轻轻地旋转或移动移动设备、或者转动或移动他/她的头部,或者在旋转/移动头部的同时旋转/移动移动设备时,光标被连续地或主动地移动至用户所期待的位置处。因此,在这样的应用中,用户可以认为移动设备是普通鼠标。
当对与移动设备集成的眼睛鼠标模块进行操作时,移动设备上的光源(是眼睛鼠标模块的一部分)可以向用户投射光。来自用户眼睛的逆反射光返回至光源,同时进行了少量的发散。然而,用户的脸部和其他表面可以将来自光源的光散射并且所散射的光可以返回至光源。假设眼睛瞳孔孔径的直径为3mm,并且面部和其他表面的总面积大约为眼睛瞳孔面积的5000倍。该示例表示返回至光源的光的仅1/5000是有用的,它代表了探测有用信号所存在的严重问题。在一些实施例中,眼睛鼠标被配置具有自我消除结构以消除由于面部和其他物体表面的散射所造成的背景信号,使得当操作眼睛鼠标时,仅可以跟踪眼睛或类似的光学器件。
图18A示出了示例性眼睛鼠标模块1800的图示,该示例性眼睛鼠标模块1800包括眼睛传感器机构和自我消除结构。注意,眼睛鼠标模块1800通常位于包括显示屏的设备上。在该示例性实施例中,眼睛鼠标模块1800中的两组光源被用于探测眼睛瞳孔。更具体地,第一组光源1804被设置成靠近接收传感器1810和透镜1808的轴线。光源1804可以被称之为“同轴光源”。其他组光源1806被设置远离透镜1808的轴线。光源1806可以被称之为“参考光源”。通过参考光源1806与透镜1808之间的距离可以被设置成大约5mm。于是,将来自光源1804和1806的光束朝向用户投射。第一组光源1804和第二组光源1806中的每个都可以包括单个光源(诸如,LED)或多个光源(诸如,多个LED)。
当用户用手握住包括眼睛鼠标模块的设备时,被投射到眼睛瞳孔上的光能显著地小于(例如,只有约1/5000)被投射到用户的面部1812或其他表面(诸如,用户的肩膀)的光能。在光源位于孔的中心的情况下,来自用户眼睛的逆反射光可以分布在有限的区域(例如,在600mm距离处的大约10mm直径孔区域)内。从面部或其他表面散射的光通常被分布在较大的区域,如果使用了朗伯散射模型,这可以通过半球体来描述。从面部和其他表面散射的光通常分布到更大的区域,其可以由一个半地球如果使用来描述(例如,2πR2或251000至2262000mm2)。注意,当接收透镜1808的孔小于逆反射光束尺寸时,逆反射光与散射光之间的比值通常仅为0.64至5.8。这种的低比率表示传感器1810具有多个元件。例如,当传感器具有N个探测器元件时,眼睛图像位置处的比值可以提高N倍。
图18A所示的设计提供了一种在不增加传感器元件的数量的情况下提高了眼睛探测对比度的技术。在特定的实施例中,两组光源1804和1806可以具有相同的波长并且大体上相同的空间功率分布。这可以通过调节光源1804和1806的驱动电流来实现。
两组光源1804和1806可以使用大体上相同的频率和相同的调制深度来调制。然而,在两组光源上所执行的调制的相位差为-180°。注意,从人脸和其他散射表面接收到的散射光包括两组光源1804和1806的散射光。由于的调制相位差为-180°,来自这两组光源的散射光大体上相互抵消,并且散射光的剩余部分构成生成DC信号的稳定电源。
在一些实施例中,DC-抑制滤波器电路用于滤除这些高DC比率信号。此外,来自光源1804和1806的逆反射光通常具有非常小的发散角,并且如图18A所述的配置使得传感器1810能够从同轴光源1804接收更多的逆反射光。结果是,所接收到的AC信号主要来自同轴光源1804的逆反射光。这个结果被称为“自我消除”。
再次参考图18A,来自传感器1810的输出信号被耦合至眼睛鼠标模块的处理单元1814,该处理单元1814可操作成运行程序以处理传感器1810所生成的AC信号以确定用户眼睛在显示器1816上的凝视点。例如,处理单元1814可以基于与同轴光源1804和参考光源1806相对应的逆反射光来确定凝视点。在一些实施例中,处理单元1814可以主要地基于与同轴光源1804相对应的逆反射光确定凝视点。于是,处理单元1810可以基于所确定的凝视点在显示器1816上显示光标或者更新显示器1816上的光标显示。注意,当眼睛鼠标模块持续地或主动地跟踪显示器1816与用户眼睛1802之间的相对移动(包括线性和旋转)时,处理单元基于眼睛凝视的变化点持续地或主动地更新光标在显示器1816上的位置。
图18B示出了与智能手机1822集成的示例性眼睛鼠标模块1820的图示,该示例性眼睛鼠标模块1820基于所确定的用户1828的凝视点将光标1824显示在显示屏1826上。
图19A示出了当两组光源完全匹配时,具有自我消除结构的示例性眼睛鼠标模块的仿真结果。在该实施例中,这两组完全匹配的光源具有相同的强度、相同的调制轮廓和相反的相位。此外,来自脸面和其他表面的散射光大多数是可以通过滤波电路滤除的DC输出。结果是,所探测到的AC信号分量大体上对应于眼睛。据观察,面部和其他散射面会引起探测光噪声增大41%。相对于来自环境背景光的噪声而言,探测光噪声通常可以忽略不计。
图19B示出了当两组光源相匹配但是存在少量差异时,具有自我消除结构的示例性眼睛鼠标模块的仿真结果。在该示例中,这两组光源的强度具有2%的差异,并且调制相位差为178°而不是180°。仿真结果表明,这样的设计信号背景对比度提高了25倍,或者信噪比提高了18倍。
注意,使用图19A和图19B所示的设计,通过针对光源的输出和环境光强度对所接收到的AC信号分量进行校准可以方便且可靠地探测到瞳孔尺寸的变化。更具体地,逆反射信号强度变化可以用来通过测量所接收到的逆反射信号的强度或者直接地对瞳孔图像所占用的传感器元件的数量进行计数来确定瞳孔尺寸的变化。此外,所接收到的逆反射信号还可以用来确定一个人是否正在看着屏幕以及这个人正在看屏幕上的哪个区域。
注意,系统并不需要对两个帧进行比较以滤除背景从而生成眼睛跟踪信号。实际上,眼睛跟踪信号是通过传感器1810实时生成的。这是非常有用的,尤其是在缓慢帧速率感测期间非常有用。
此外,所提出的眼睛鼠标结构可以降低对具有因子18或更高的探测器元件的数量的需求。例如,相对于使用直接探测而不具有自我消除设备的40×80传感器而言,具有自我消除眼睛鼠标模块的10×20传感器能够达到更好的效果。
图20A示出了当图18A中的同轴光源和参考光源都接通时的示例性眼睛图像2000的示意图。注意,瞳孔2002是明亮的。瞳孔2002内的右侧上的亮点2004表示图18A所示的同轴光源1804的角膜反射图像,而左侧上的亮点2006表示图18A所示的参考光源1806的角膜反射图像。因为来自角膜表面2008的反射光具有较宽的发散角并且共轴光源1804和参考光源1806彼此接近,所以,在同轴光源1804的照射下以及在参考光源1806的照射下,图18A中的传感器1810接收角膜表面2008所反射的光能具有相同的比例。所以,在同轴光源1804的照射下以及在参考光源1806的照射下,图18A中的传感器1810接收角膜表面2008所反射的光能具有相同的比例。换句话说,眼睛鼠标传感器不能分辨两组光源的角膜反射,除非传感器的分辨率相当高。由于具有自我消除设计,其中,两个角膜反射具有相反的相位,因此,角膜反射的贡献可以被消除。类似于角膜反射消除,还可以将来自其他光滑表面(例如,眼镜架表面)的反射的影响消除。因此,图18A所示的眼睛鼠标的自我消除设计显著地改善了眼睛瞳孔探测。在良好校准的眼睛鼠标传感器模块中,AC信号强度直接地反映与眼睛瞳孔尺寸成比例的眼睛逆反射强度。
图20B示出了当只有图18A中的参考光源1806被探测到时的示例性眼睛图像2010的示意图。在这种情况下,瞳孔区域2002是暗的。图18A所示的参考光源1806的角膜反射图像2006成为可探测的。可以通过断开同轴光源1804或者通过以不同的频率对两组光源进行调制来实现这种情况,使得可以在不用频带下进行探测。
图20C显示了用于示出跟踪眼睛凝视点的示例性过程(2020)的流程图。基于图18A,20A和20B的上下文对过程(2020)进行描述。可以通过接通同轴光源和参考光源二者来开始该过程(2020),所调制的这两种光源具有相同的轮廓(例如,相同的频率和深度)但是具有大体上相反的相位(2022)。眼睛瞳孔位置和尺寸被测量(2024)。一旦测量出眼睛瞳孔位置,眼睛鼠标传感器可以聚焦在探测器元件附件以探测参考光源1806的角膜反射图像2006。更具体地,该过程可以断开同轴光源或以不同的频率对两组光源进行调制(2026)。该过程可以包括测量参考光源的角膜反射图象光点位置(2028)。该过程可以包括将参考光源的角膜反射图像光点位置与眼睛瞳孔中心的位置进行比较(2030)。眼睛瞳孔中心与角膜反射图像点之间的偏移量提供了有关眼睛凝视方向的信息。该过程还可以分析眼睛凝视点。图18A中的传感器1810上的双眼的两个图像之间的距离提供了校准眼睛凝视方向的衡量测度。
图21示出所提出的眼睛鼠标模块的测距功能。通过眼睛的逆反射光,所提出的眼睛鼠标模块可以实现3D探测功能。更具体地,光传感器与用于眼睛之间的范围或距离可以通过比较相移来进行测量。注意,所接收的逆反射光2100相对于朝向用户的眼睛发射的探测光2010具有时间延迟。眼睛鼠标模块中的处理器可以通过测量所发送的光信号和所接收的光信号之间的相位延迟来测量传感器与用户眼睛之间的距离。注意,所确定的范围或距离信息可以与显示器中的二维平面中所确定的凝视点结合来生成三维眼睛跟踪数据。
图22示出了所提出的自我消除眼睛鼠标模块的示例性信号获取过程2200的框图。如图22所见,同轴光源和参考光源生成调制光(2202)。同轴光源和基准光源的光束被朝向用户脸部投射(2204)。在自我消除眼睛鼠标模块中的传感器(即,多元件探测器)接收所返回的光(2206)。传感器中的电路滤除DC分量并且解调制且放大AC分量。环境背景光和面部散射光二者都被抑制。然后,(2208)的眼睛跟踪信号被生成。在对信号进行分析后,将获得眼睛瞳孔的位置、瞳孔尺寸以及凝视方向。鼠标光标被显示在移动设备的屏幕上(2010)。当移动设备被旋转或移动时,或者当用户的头部旋转或移动时,光标连续地或主动地被调整到用户所期望的新位置。这种自我消除眼睛鼠标模块功能大体上与计算机系统所广泛使用的普通光学鼠标类似。同时,眼睛瞳孔尺寸的变化,和/或眨眼频率与屏幕框内容的变化也被检测到以产生用户的反应信息(2012)。这些信息可以为游戏开发者、广告企业和心理学研究者和其他感兴趣的团体所使用。
图23示出了用户移动设备上所设计的示例性眼睛鼠标功能按钮的图示。在所示的示例中,眼睛鼠标功能的按钮2302,2304和2306被设计上的用户移动设备2308的左侧。这些按钮可以被指定分别具有普通鼠标的左、右击以及中间点击的功能。再例如,眼睛鼠标功能键2310、2312和2314被设计在移动设备2308的右侧,并且被指定分别具有普通鼠标的左、右击以及中间点击的功能。在又一示例中,眼睛鼠标功能的按钮2316和2318被设计在移动设备2308的前面屏幕2320上。此外,在移动设备2308的前面有向用户发射调制光并且探测来自用户严禁的逆反射的光源1804和1806以及光学透镜1808。在又一示例中,眼睛鼠标功能键2322、2324和2326被设计在移动设备2308的背面并且被指定分别具有常规鼠标的左、右击以及中间点击的功能。然而,在一些实施例中,眼睛鼠标按钮与移动设备的现有按钮共享。
图24示出了采用了所提出的眼睛鼠标技术的示例性目标应用的图示。所提出的眼睛鼠标设计具有尺寸非常小、高分辨率、低成本以及低功耗的特点。例如,示例性眼睛鼠标设计可以具有这样小的尺寸,比如,宽度大约为2mm、厚度为4mm以及长度为6mm。诸如,所提出的眼睛鼠标模块可以容易地被集成到小型移动终端(诸如,智能手机、平板电脑、便携式计算机等)中。此外,所提出的眼睛鼠标易于使用,因为:(1)用户不需要在他/她的手上佩戴任何额外的工具;(2)其能够允许进行单手操作;以及(3)可以进行眨眼操作(作为确认/选择)。注意,所提出的眼睛鼠标不需要进行校正,因此,感觉就像普通的光学鼠标一样。例如,眼睛鼠标还可以开发成具有通话功能,使得眼睛鼠标能够在多个移动终端之间发送和接收数据,而不会将信号泄露给不相关的用户。因为上述独特的特征,所提出的眼睛鼠标技术适合于广泛的应用。
例如,眼睛鼠标可以用作普通鼠标2400,并且可以用于打电脑游戏2404。眼睛鼠标的眼睛凝视探测功能可以用于按凝视收费的广告2410。再例如,眼睛鼠标的通孔尺寸探测可以用于收集对于广告管理、游戏开发等有用的消费者反应数据。
在一个示例中,眼睛鼠标可以用于安全访问2408。更具体地,当用户通过他/她的眼睛移动眼睛鼠标时,光源和传感器探测器获取可以用于生成密码的用户眼睛视网膜反射属性。在另一示例中,眼睛鼠标被用于安全打字。更具体地,当用户使用眼睛打出字母时,附近的人不会知道用户所选择的字母。眼睛鼠标还可以用于心理学研究2406。更具体地,可以将所设计的一系列问题、图片或视频呈现给用户,并且眼睛鼠标传感器测量用于眼睛对这些问题、图片或视频的反应。所采集的信息可以帮助心理学家调查用户的真实想法。
再例如,眼睛鼠标可以用于娱乐2404,诸如,寻找间谍相机。在另一示例中,使用所配备的光源和传感器探测器,所提出的眼睛鼠标可以用于在其他配备由同种类型的眼睛鼠标之间发送和接收数据。此外,所提出的这种眼睛鼠标技术还可以找到提供给不能使用普通鼠标和键盘的残疾人的应用,作为控制计算机鼠标的替代方案。
移动设备(诸如,智能手机)作为内容递送工具越来越受到大多数用户的欢迎,并且内容可以包括文本消息、文件、图片、视频或上述所有项的组合。当用户查看屏幕上所显示的内容时,能够收集用户对所显示的内容的反馈是有利的。所公开的技术的实施例可以利用移动设备中的传感器模块和移动设备中的处理能力,并且与基于云的服务器通信以实时且基于统计地提供集成系统,该集成系统能够监控、分析并报告用户对内容的反应。
如上所述,所提出的用户反应系统可以使用眼睛跟踪和感测模块(或者“眼睛感测模块”)。该眼睛感测模块可以集成在移动设备的前屏上以提供用于眼睛移动和瞳孔尺寸变化的测量。图25示出了示例性移动设备2500(诸如,智能手机)的图示,该示例性移动设备2500具有用于收集用户反应数据的集成眼睛感测模块2502。在一些实施例中,设备2500上的眼睛感测模块2502可以在用户查看显示屏2504时捕获用于眼睛动态数据。例如,用户对正在查看的内容感兴趣时,用户的瞳孔尺寸会变大,而当用户对正在查看的内容不感兴趣时,用户的瞳孔尺寸会变小。此外,如果屏幕上出现了用户感兴趣的新内容时,用户的瞳孔尺寸会突然变大。眼睛感测模块2502可以定期地捕获眼睛动态信息,例如,以至少30帧/秒的视频速率。通常,可以以等于或大于智能手机屏幕更新速率的帧速率来执行数据捕获。根据每一帧传感器数据,所提出的用户反应系统可以获取如下信息:沿着水平和垂直方向上的前一帧的用户瞳孔尺寸变化以及前一帧的用户瞳孔位置的变化。
注意,由于用户瞳孔尺寸变化被用于对用户对内容的反应进行分析,因此,需要对同样会影响用户瞳孔尺寸的环境光变化和显示屏背光变化。当环境光增强时,瞳孔尺寸通常会变小,并且,如果内容屏幕亮度增大,则用户瞳孔将变小。在图25中,移动设备2500还包括环境光传感器模块2506。在一些实施例中,传感器模块2502基于用户眼睛的移动捕获具有关于显示器上的信息的用户反应数据,并且将数据发送至设备2500上的应用处理器。同时,设备2500中的处理器还接收来自环境光传感器模块2506的数据。处理器中的专用程序可以使用环境光传感器模块2506所收集的环境光变化数据来校正眼睛感测模块2502所测量的瞳孔尺寸变化。此外,处理器还可以使用根据显示屏的所显示的内容亮度变化数据和根据与设备集成的背光模块的显示背光数据来调节眼睛感测模块2502数据,以获得对由于用户对所显示的内容的反应所造成的瞳孔尺寸进行更精确地测量。
在一些实施例中,当移动设备2500还与移动传感器(诸如,加速度传感器和陀螺仪传感器)集成时,设备2500的处理器还可以接收同时收集的移动传感器数据。这样的数据提供了用户对内容的反应的附加信息。当眼睛感测模块被内置在移动设备内时,眼睛感测模块中的所观察到的用户眼睛的移动会受到设备自身移动的影响。因此,所提出的系统还可以包括程序,该程序包括接收来自内置的移动传感器的数据以使用设备移动数据(诸如,设备移动的速度)来校正眼睛感测模块2502所测量的用户眼睛移动数据。移动传感器可以包括3D加速度传感器和3D陀螺仪传感器。该校正可以涉及使用成像感测应用所使用的移动校正和稳定技术。
图26示出了示例性移动设备2600(诸如,智能手机)的框图,该示例性移动设备2600与眼睛感测模块2602、环境光感测模块2604、运动感测模块2606以及显示屏和背光模块2608集成以生成用户反应数据。如图26所示,移动设备2600使用应用处理器2610以收集来自眼睛感测模块2602、环境光感测模块2604、移动感测模块2606的测量数据。应用处理器2610还可以通过图形处理器2612收集来自显示屏和背光模块2608的数据,图形处理器2612监视显示器背光设置变化和显示器内容亮度变化。应用处理器2610可以结合所接收到的来自多个这些来源的数据来计算真实地反映用户对屏幕上所显示的内容的反应的用户瞳孔尺寸变化和用户眼睛移动变化参数。于是,应用处理器2610可以将所计算出的用户反应数据发送至通信模块2614,该通信模块2614可以将用户反应数据通过网络2616(诸如,互联网)发送至服务器2618。服务器2618包括多个软件部件,这些软件部件包括用于与用户设备和其他服务器(诸如,内容提供商)连通并交换数据的(无线和/或有线)网络适配器。服务器2618还包括处理器,该处理器用于对接收自用户设备的数据(例如,用户反应数据)进行处理或分析。服务器2618还包括用于存储多种数据(例如,用户反应数据和用户反应数据的分析)的存储设备。此外,服务器2618包括用于执行与用户设备和其他服务器通信并交换数据的多种功能的恰当的软件。
图27是示出了收集来自多个移动设备的用户反应数据并对该用户反应数据进行分析的数据流图。多个移动设备2702和2704可以例如使用它们之间的无线连接通过云网络服务2706将可以与显示内容信息结合的、多个用户的经处理的眼睛感测模块数据(即,用户反应数据)发送至数据库服务器2708。于是,数据库服务器2708对所收集的信息进行分析。数据库服务器2708可以是显示内容提供商的服务器,或者可以是独立服务商的服务器,该数据库服务器2708收集来自大量群体的用户反应信息,并且将用户对于不同内容的反应的数据的统计分析提供给应用服务器(即,内容提供商)2710,该应用服务器2710对多种内容进行分发。该数据流路径显示为自从用户到应用服务器2710的实线2712、2714、2716以及2718。
在一些实施例中,还可以将用户反应数据直接地发送给应用服务器2710,绕过数据库服务器2708,并且直接由应用服务器进行分析。该数据流路径显示为从网络服务2706到应用服务器2710的虚线2720。在一些实施例中,应用服务器2710使用所分析的数据来针对每个单独的用户调整内容以引起目标用户更为理想的反应。该数据流路径显示为从应用服务器2710到多个移动设备2702和2704的实线2722、2724和2726。因此,使用所描述的用户反应反馈系统,内容提供商可以基于用于对先前所查看的内容的反应针对每个用户调整所递送的内容。
本说明书中所述的主题与功能性操作的实施可以在数字电路或者在包括本专利文献中所公开的结构及其结构性等同物的计算机软件、固件或硬件中实现或者在这些中的一个或多个的组合中实现。本说明书中描述的主题的实施例可以实现为一个或多个计算机程序产品,即在有形非易失性计算机可读介质上编码的、供数据处理设备执行或者用于控制该数据处理设备的操作的计算机程序指令的一个或更多个模块。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器设备或者其一个或多个的组合。术语“数据处理装置”包含了用于处理数据的所有装置、设备和机器,例如包括可编程处理器、计算机、或多处理器或计算机。除了硬件,所述装置还可以包含为所讨论的计算机程序创建执行环境的代码,例如组成处理器固件、协议栈、数据库管理系统、操作系统或它们中的一个或多于一个的组合的代码。
计算机程序(也公知为程序、软件、软件应用、脚本或代码)可以由任意形式的编程语言编写,包括编译语言或解释语言,说明性语言或过程语言,并且该计算机程序可以任意形式部署,包括部署为单独的程序或模块、组件、子例程,或者适于在计算环境中使用的其他单元。程序可以被存储在保持其它程序或数据的文件(例如,存储在标记语言文档中的一个或多个脚本)的一部分、专用于正讨论的程序的单个文件或者多个协调文件(例如,存储一个或多个模块、子程序或部分代码的文件)中。计算机程序可以被部署成,在一台计算机上或者一个位置上或分布在多个位置上并由通信网络互连的多台计算机上执行。
可以通过一个或多个可编程处理器来完成本说明书中描述的过程和逻辑流程,该可编程处理器通过在输入数据上运行并生成输出来执行一个或多个计算机程序以完成所述功能。这些处理和逻辑流还可由专用逻辑电路(例如,FPGA(现场可编程门阵列)或ASIC(专用集成电路))来执行,并且装置也可被实现成专用逻辑电路(例如,FPGA(现场可编程门阵列)或ASIC(专用集成电路))。
例如,适于执行计算机程序的处理器包括通用和专用微处理器以及任何类型的数字计算机中的任何一个或多个处理器。通常,处理器将接受来自只读存储器或者随机访问存储器或者两者的指令和数据。计算机的主要元件是用于执行指令的处理器以及用于存储指令和数据的一个或多个存储设备。计算机还将包括一个或多个用于存储数据的大容量存储设备,如磁盘、磁光盘或光盘,或可操作地联接以便从一个或多个用于存储数据的大容量存储设备,如磁盘、磁光盘或光盘接收数据或向其传送数据,或者既从其接收数据又向其传送数据。然而,计算机也可以不需要这种设备。适于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储装置,例如包括:例如EPROM、EEPROM和闪存装置的半导体存储装置。处理器和存储器能够由专用逻辑电路来补充,或者与专用逻辑电路结合。
尽管本申请包括许多细节,但是这不应被解释为对于要求保护的或任意发明的范围的研制,而应被解释为对于可具体为特定发明的特定实施例的特征的描述。在本申请中,多个单独实施例的情况下描述的特定特征也可在单一实施例中组合实现。相反,在单一实施例的情况下描述的各种特征也可单独或按照任何适当的子组合在多个实施例中实现。此外,尽管特征可如上描述为在特定组合中并甚至像初始要求保护的那样进行作用,但是来自要求保护的组合的一个或更多个特征在一些情况下可从该组合中脱离,并且要求保护的组合中的一个或更多个特征在一些情况下可从该组合中脱离,并且要求保护的组合针对子组合或子组合的变形。
类似地,尽管图中按照特定顺序描绘了操作,但是这不应理解为按照所示特定顺序或连续顺序执行这些操作,或要求执行所有图示的操作,以实现所期望的结果。此外,本申请中所描述的上述实施例中的各种系统组件的分离不应理解为所有实施例都要求这样的分离。
尽管仅对少量实施例和示例进行了描述,但是基于本专利文献所描述和说明的内容可以做出其他实现、改进和变型。

Claims (28)

1.一种用于眼睛跟踪的设备,所述设备包括:
光电探测器模块;
两组光源,所述两组光源被设置在所述设备上与所述光电探测器模块的位置相关的相应位置处并且每组光源发射调制光;其中,
所述两组光源所发射的相应的调制光是以大体上相同的调制频率进行调制的并且彼此异相;
作为所述两组光源发射出所述调制光的响应,所述光电探测器模块被配置为从用户的眼睛接收包括至少部分逆反射光的回光;以及
处理器,所述处理器与所述光电探测器模块和所述两组光源相连,所述处理器被配置为对来自所述光电探测器模块的输出信号进行处理以至少部分地基于所接收的部分逆反射光来确定所述用户眼睛的位置和尺寸参数,以及包括;
位于所述光电探测器模块前面的接收透镜,所述接收透镜用于收集所接收的部分逆反射光并且将所收集的部分逆反射光引导至所述光电探测器模块;
其中,一组光源被设置在所述接收透镜的光轴附近,而其他组光源被设置成远离所述接收透镜的所述光轴;
每组所述光源包括多个与光电探测器模块等距的,具有不同颜色、不同波长和/或不同调制频率的光源朝向用户的眼睛发射光,所述光电探测器模块接收多个光源中的每个光源所发射的光的、从眼睛逆反射的至少部分逆反射,所述用户眼睛的位置和尺寸参数基于与多个光源相对应的至少部分逆反射的差值确定。
2.根据权利要求1所述的设备,其中,
多组光源中的一组光源相対于两组或更多组光源中任意组光源更靠近所述光电探测器模块,使得:相対于所述两组或更多组光源中任意组光源,所述光电探测器模块所接收的部分逆反射光更大程度上取决于具有更近距离的一组光源所发射的调制光。
3.根据权利要求1所述的设备,其中,所述接收透镜和所述两组或更多组光源被设置成使得来自所述眼睛的、取决于所述多组光源中的一组光源所发射的调制光的逆反射光基本上投影到所述接收透镜上,以及,其中,来自所述眼睛的、取决于其他组光源所发射的调制光的所述逆反射光基本上没有投影到所述接收透镜上。
4.根据权利要求1所述的设备,还包括,滤波电路,所述滤波电路被通信地链接至所述光电探测器模块以对所述光电探测器模块的输出信号进行过滤,从而基于相应的调制光滤除背景光和散射光。
5.根据权利要求4所述的设备,其中,基于多组光源中的一组光源所发射的调制光的散射光相対于其他组光源所发射的调制光的散射光的相位差大体上为180°。
6.根据权利要求4所述的设备,其中,所述滤波电路包括用于滤除所述背景光的带通滤波器。
7.根据权利要求1所述的设备,其中,所述两组或更多组光源被配置为以大体上相同的波长发射相应的调制光。
8.根据权利要求1所述的设备,其中,来自所述光电探测器模块的所述输出信号的强度与所述眼睛的所述逆反射的强度成比例,并且还与所述眼睛的曈孔尺寸成比例。
9.根据权利要求1-8任一项所述的设备,所述设备还包括:
显示界面;
其中,所述处理器被配置为基于所确定的用户眼睛的位置参数确定所述用户眼睛的注视位置,并且所述显示界面被配置为在所述显示界面上的所确定的注视位置处显示光标。
10.根据权利要求9所述的设备,其中,所述显示界面与所述处理器结合还被配置为基于所更新的眼睛的注视位置来调节所述光标的位置。
11.根据权利要求9所述的设备,其中,所述光电探测器模块被配置为跟踪所述设备与所述用户眼睛之间的相対线性运动和旋转运动,并且生成输出信号,所述输出信号反映了所述相对线性运动和旋转运动对所述注视位置的影响。
12.根据权利要求9所述的设备,其中,所述处理器被配置为对所述输出信号进行处理以确定所述眼睛的瞳孔的尺寸。
13.根据权利要求9所述的设备,其中,所述处理器还被配置为对所述输出信号进行处理以确定所述设备与所述用户的眼睛之间的距离。
14.根据权利要求9所述的设备,还包括:位于所述设备外部上的一个或更多个按钮,所述一个或更多个按钮用于在所显示的光标位置处实现鼠标功能。
15.根据权利要求14所述的设备,其中,所述一个或更多个按钮被显示在所述显示界面上。
16.根据权利要求14所述的设备,其中,所述一个或更多个按钮与所述设备的现有按钮结合。
17.一种用于在设备处跟踪眼睛移动的方法,所述方法包括:
使用所述设备的第一组光源向用户的眼睛发射第一调制光,以及使用所述设备的第二组光源向所述用户的眼睛发射第二调制光,其中,所述第一调制光和所述第二调制光大体上具有相同的调制频率,并且所述第一调制光的调制相位与所述第二调制光的调制相位大体上彼此相反;
在所述设备的光电探测器模块处接收回光,所述回光包括取决于来自所述第一组光源的所述第一调制光和所述第二组光源的所述第二调制光的、来自所述用户眼睛的至少部分逆反射光;其中,光电探测器模块处接收的所述回光是通过位于所述光电探测器模块前面的接收透镜收集所接收的部分回光并且将所收集的部分回光引导至所述光电探测器模块;
对所接收的回光进行过滤以滤除背景光和散射光;以及
对来自所述光电探测器模块的输出信号进行处理,以便于至少基于与所述第一组调制光源和所述第二组调制光源相対应的所述部分逆反射光来确定所述用户眼睛的位置和尺寸参数;
其中,第一组光源被设置在所述接收透镜的光轴附近,而其他组光源被设置成远离所述接收透镜的所述光轴;
其中,每组所述光源包括多个与光电探测器模块等距的,具有不同颜色、不同波长和/或不同调制频率的光源朝向用户的眼睛发射光,所述光电探测器模块接收多个光源中的每个光源所发射的光的、从眼睛逆反射的至少部分逆反射,所述用户眼睛的位置和尺寸参数基于与多个光源相对应的至少部分逆反射的差值确定。
18.根据权利要求17所述的方法,其中,
处理所述输出信号包括基于与所述第一组光源和所述第二组光源相対应的所述部分逆反射光之间的差值确定所述眼睛的位置参数和尺寸参数。
19.根据权利要求17所述的方法,其中,使用所述第一组光源和所述第二组光源包括:使用所述第一组光源和所述第二组光源来发射具有可见光波长的调制光,或者具有紫外波长和红外波长的调制光。
20.根据权利要求17所述的方法,其中,使用所述第一组光源和所述第二组光源包括:使用所述第一组光源和所述第二组光源来发射具有不同波长的调制光;以及
所述方法还包括校准所述第一组光源与所述第二组光源使得这两组光源相匹配。
21.根据权利要求17所述的方法,包括:
对来自所述光电探测器模块的所述输出信号进行处理,以至少基于与所述第一调制光和所述第二调制光相対应的所述部分逆反射光来确定所述用户眼睛在所述设备的显示屏上的注视位置;以及
在所述显示屏上的所确定的注视位置处显示光标。
22.根据权利要求21所述的方法,包括:使用所述第一组光源和所述第二组光源发射具有不同调制频率的光以探测眼睛注视的方向。
23.根据权利要求17所述的方法,其中,所发射的第一调制光和第二调制光包括频率与所述光电探测器模块相关的闪烁的光。
24.根据权利要求22所述的方法,包括:
响应于所述眼睛注视方向的变化改变所述光标的位置;以及
在所述设备上设置一个或更多个光标激活按钮以激活所述光标,
通过所述一个或多个光标激活按钮所接收的输入在所述显示屏上进行选择、操作或交互。
25.根据权利要求24所述的方法,包括:基于通过所述一个或更多个光标所接收的输入,跟踪所述眼睛移动的同时,执行下述操作,
探测所述眼睛的瞳孔尺寸变化,或者测量所述眼睛注视方向。
26.根据权利要求24所述的方法,包括:基于通过所述一个或更多个光标所接收的输入,发送所发射的调制光中携带的数据并且接收所探測到的回光中携带的数据。
27.根据权利要求21所述的方法,包括:
使用所确定的用户眼睛在所述显示屏上的注视位置执行下述操作,
探测所述用户在按凝视收费的广告上的注视情况、控制游戏应用中的游戏,或者进行安全访问或安全数据输入。
28.根据权利要求17所述的方法,包括:
将与市场调研关联的至少一项内容呈现到所述设备的显示屏上;
对所确定的用户眼睛的位置参数和尺寸参数进行分析以确定所述用户对所述显示屏上所显示的所述至少一项内容的反应;以及
对所确定的用户对所呈现的与市场调研关联的所述至少一项内容的反应进行收集。
CN201480065120.8A 2013-11-27 2014-11-28 眼睛跟踪及用户反应探测 Active CN106663183B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361909998P 2013-11-27 2013-11-27
US61/909,998 2013-11-27
US201361911430P 2013-12-03 2013-12-03
US61/911,430 2013-12-03
PCT/US2014/067827 WO2015081325A1 (en) 2013-11-27 2014-11-28 Eye tracking and user reaction detection

Publications (2)

Publication Number Publication Date
CN106663183A CN106663183A (zh) 2017-05-10
CN106663183B true CN106663183B (zh) 2020-04-24

Family

ID=53182224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480065120.8A Active CN106663183B (zh) 2013-11-27 2014-11-28 眼睛跟踪及用户反应探测

Country Status (5)

Country Link
US (2) US9552064B2 (zh)
EP (1) EP3074923A4 (zh)
KR (1) KR101855196B1 (zh)
CN (1) CN106663183B (zh)
WO (1) WO2015081325A1 (zh)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9652034B2 (en) 2013-09-11 2017-05-16 Shenzhen Huiding Technology Co., Ltd. User interface based on optical sensing and tracking of user's eye movement and position
CN106132284B (zh) 2013-11-09 2019-03-22 深圳市汇顶科技股份有限公司 光学眼动追踪
US9430040B2 (en) * 2014-01-14 2016-08-30 Microsoft Technology Licensing, Llc Eye gaze detection with multiple light sources and sensors
EP3097459A1 (en) * 2014-01-24 2016-11-30 Sony Corporation Face tracking for a mobile device
US11907421B1 (en) * 2014-03-01 2024-02-20 sigmund lindsay clements Mixed reality glasses operating public devices with gaze and secondary user input
JP2015170175A (ja) * 2014-03-07 2015-09-28 ソニー株式会社 情報処理装置、および情報処理方法
CA2948390C (en) 2014-06-11 2023-03-21 Dignity Health Systems and methods for non-intrusive deception detection
WO2016029019A1 (en) 2014-08-21 2016-02-25 Dignity Health Systems and methods for using eye movements to determine traumatic brain injury
US10599326B2 (en) * 2014-08-29 2020-03-24 Hewlett-Packard Development Company, L.P. Eye motion and touchscreen gestures
CN105446470B (zh) * 2014-09-02 2018-08-10 联想(北京)有限公司 一种显示效果调节方法和电子设备
US9946339B2 (en) * 2014-10-08 2018-04-17 Microsoft Technology Licensing, Llc Gaze tracking through eyewear
US10884488B2 (en) * 2014-11-24 2021-01-05 Samsung Electronics Co., Ltd Electronic device and method for controlling display
US10197805B2 (en) 2015-05-04 2019-02-05 North Inc. Systems, devices, and methods for eyeboxes with heterogeneous exit pupils
US10078219B2 (en) * 2015-05-28 2018-09-18 Thalmic Labs Inc. Wearable heads-up display with integrated eye tracker and different optical power holograms
US10157312B2 (en) 2015-10-08 2018-12-18 Microsoft Technology Licensing, Llc Iris recognition
US10220172B2 (en) 2015-11-25 2019-03-05 Resmed Limited Methods and systems for providing interface components for respiratory therapy
US10444972B2 (en) 2015-11-28 2019-10-15 International Business Machines Corporation Assisting a user with efficient navigation between a selection of entries with elements of interest to the user within a stream of entries
US10151926B2 (en) 2016-01-29 2018-12-11 North Inc. Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display
US11284109B2 (en) * 2016-01-29 2022-03-22 Cable Television Laboratories, Inc. Visual coding for sensitivities to light, color and spatial resolution in human visual system
US10082866B2 (en) * 2016-04-12 2018-09-25 International Business Machines Corporation Gaze point detection using dynamic facial reference points under varying lighting conditions
CN106339085B (zh) 2016-08-22 2020-04-21 华为技术有限公司 具有视线追踪功能的终端、确定使用者视点的方法及装置
US10503252B2 (en) 2016-09-26 2019-12-10 Ihab Ayoub System and method for eye-reactive display
US10281980B2 (en) 2016-09-26 2019-05-07 Ihab Ayoub System and method for eye-reactive display
CN106484114B (zh) * 2016-10-11 2019-12-31 传线网络科技(上海)有限公司 基于虚拟现实的交互控制方法及装置
US10984237B2 (en) 2016-11-10 2021-04-20 Neurotrack Technologies, Inc. Method and system for correlating an image capturing device to a human user for analyzing gaze information associated with cognitive performance
US11249548B2 (en) 2016-11-10 2022-02-15 Neurotrack Technologies, Inc. Method and system for correlating an image capturing device to a human user for analyzing gaze information associated with cognitive performance
US11163359B2 (en) 2016-11-10 2021-11-02 Neurotrack Technologies, Inc. Method and system for correlating an image capturing device to a human user for analyzing gaze information associated with cognitive performance
CN109863502A (zh) 2016-11-10 2019-06-07 纽诺创科技术公司 将图像拍摄设备与人类用户相关联以分析认知能力的方法和系统
WO2018117753A1 (en) 2016-12-23 2018-06-28 Samsung Electronics Co., Ltd. Electronic device and method of controlling the same
US11141095B2 (en) * 2017-02-17 2021-10-12 Oculogica Inc. Method and system for detecting concussion
US10928894B2 (en) 2017-02-27 2021-02-23 Nokia Technologies Oy Eye tracking
JP7092108B2 (ja) * 2017-02-27 2022-06-28 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
US10108319B2 (en) 2017-03-22 2018-10-23 International Business Machines Corporation Cognitive dashboard adjustment
CN107508963A (zh) * 2017-07-05 2017-12-22 宇龙计算机通信科技(深圳)有限公司 终端控制方法、装置、终端及计算机可读存储介质
CN107452251B (zh) * 2017-07-12 2020-08-25 李威 一种视幅拓宽方法及装置
US10496162B2 (en) * 2017-07-26 2019-12-03 Microsoft Technology Licensing, Llc Controlling a computer using eyegaze and dwell
TWI646466B (zh) 2017-08-09 2019-01-01 宏碁股份有限公司 視覺範圍映射方法及相關眼球追蹤裝置與系統
KR102076506B1 (ko) * 2017-08-21 2020-02-13 경희대학교 산학협력단 시선 추적에 기초한 디스플레이의 영역별 밝기 조절 장치 및 그 방법
CA3072558A1 (en) * 2017-10-06 2019-04-11 Alcon Inc. Tracking movement of an eye within a tracking range
WO2019190174A1 (en) 2018-03-26 2019-10-03 Samsung Electronics Co., Ltd. Electronic device for monitoring health of eyes of user and method for operating the same
CN108399903B (zh) * 2018-03-27 2020-11-27 京东方科技集团股份有限公司 一种成像位置的调节方法及装置、平视显示系统
CN108742657A (zh) * 2018-03-30 2018-11-06 百度在线网络技术(北京)有限公司 游戏测评方法、装置、游戏系统及存储介质
US10996727B2 (en) * 2018-04-23 2021-05-04 Dell Products L.P. System and method of managing power in information handling system
CN109101110A (zh) * 2018-08-10 2018-12-28 北京七鑫易维信息技术有限公司 一种操作指令执行方法、装置、用户终端及存储介质
WO2020042843A1 (en) 2018-08-27 2020-03-05 Shenzhen GOODIX Technology Co., Ltd. Eye tracking based on imaging eye features and assistance of structured illumination probe light
CN110603513B (zh) * 2018-08-27 2023-08-29 深圳市汇顶科技股份有限公司 一种眼睛跟踪设备及利用光学成像跟踪眼睛的方法
DE102018214637A1 (de) * 2018-08-29 2020-03-05 Robert Bosch Gmbh Verfahren zum Ermitteln einer Blickrichtung eines Auges
CN110890046B (zh) * 2018-09-10 2023-11-07 京东方智慧物联科技有限公司 显示设备的亮度-灰阶曲线的调制方法、装置及电子设备
JP7418149B2 (ja) * 2018-11-29 2024-01-19 株式会社リコー 光学装置、網膜投影表示装置、頭部装着型表示装置、及び入力装置
CN109858399A (zh) * 2019-01-15 2019-06-07 上海理工大学 一种基于眼神注视的喜好判别方法及判别系统
US10838489B2 (en) * 2019-03-04 2020-11-17 Microsoft Technology Licensing, Llc IR illumination module for MEMS-based eye tracking
US10832052B2 (en) 2019-03-04 2020-11-10 Microsoft Technology Licensing, Llc IR illumination module for MEMS-based eye tracking
US11624906B2 (en) 2019-03-04 2023-04-11 Microsoft Technology Licensing, Llc IR illumination module for MEMS-based eye tracking
WO2020194529A1 (ja) * 2019-03-26 2020-10-01 日本電気株式会社 興味判定装置、興味判定システム、興味判定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
CN109977903B (zh) * 2019-04-03 2020-03-17 珠海读书郎网络教育有限公司 一种智慧课堂学生管理的方法、装置及计算机存储介质
KR102019217B1 (ko) 2019-05-08 2019-09-06 노순석 안구 이미지 정보에 기초한 시야 교란 시스템
US11516374B2 (en) 2019-06-05 2022-11-29 Synaptics Incorporated Under-display image sensor
CN112118380B (zh) * 2019-06-19 2022-10-25 北京小米移动软件有限公司 相机操控方法、装置、设备及存储介质
US11354805B2 (en) * 2019-07-30 2022-06-07 Apple Inc. Utilization of luminance changes to determine user characteristics
US11153513B2 (en) 2019-08-19 2021-10-19 Synaptics Incorporated Light source for camera
US10842430B1 (en) * 2019-09-12 2020-11-24 Logitech Europe S.A. Eye fatigue detection using visual imaging
CN111160104A (zh) * 2019-12-02 2020-05-15 中国联合网络通信集团有限公司 一种注意力分析方法和装置
US11076080B2 (en) 2019-12-05 2021-07-27 Synaptics Incorporated Under-display image sensor for eye tracking
CN113032605B (zh) * 2019-12-25 2023-08-18 中移(成都)信息通信科技有限公司 一种信息展示方法、装置、设备及计算机存储介质
CN112924984B (zh) * 2020-01-21 2022-12-30 上海掌门科技有限公司 一种用于控制场景光线的方法与设备
US11535260B2 (en) * 2020-03-05 2022-12-27 Harman International Industries, Incorporated Attention-based notifications
RU2744548C1 (ru) * 2020-04-29 2021-03-11 федеральное государственное бюджетное образовательное учреждение высшего образования "Алтайский государственный университет" Устройство определения зрачковых реакций на визуальный стимул
CN111812857B (zh) * 2020-07-20 2022-01-11 上海青研科技有限公司 显示装置、方法与应用
US11294459B1 (en) 2020-10-05 2022-04-05 Bank Of America Corporation Dynamic enhanced security based on eye movement tracking
US11803237B2 (en) * 2020-11-14 2023-10-31 Facense Ltd. Controlling an eye tracking camera according to eye movement velocity
US11762458B2 (en) * 2021-02-15 2023-09-19 Sony Group Corporation Media display device control based on eye gaze
KR20220122119A (ko) * 2021-02-26 2022-09-02 (주)블라우비트 사용자의 화면 집중도 분석을 위한 아이 트래킹 시작 정규화 장치 및 방법
KR102506037B1 (ko) * 2022-08-12 2023-03-06 주식회사 아이트 스테레오 카메라 기반의 시선 추적을 이용한 포인팅 방법 및 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101779960A (zh) * 2010-02-24 2010-07-21 沃建中 刺激信息认知能力值测试系统及其方法
CN101901485A (zh) * 2010-08-11 2010-12-01 华中科技大学 3d自由头动式视线跟踪系统

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3864030A (en) 1972-07-11 1975-02-04 Acuity Syst Eye position measuring technique
US5610673A (en) 1995-09-14 1997-03-11 Pulse Medical Instruments, Inc. Pupil detection system
US6373961B1 (en) 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
GB2315858A (en) 1996-08-01 1998-02-11 Sharp Kk System for eye detection and gaze direction determination
US5956124A (en) 1997-10-23 1999-09-21 Dan; Jacob Automated threshold-related objective perimetry
JP3315648B2 (ja) 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
US6396461B1 (en) 1998-08-05 2002-05-28 Microvision, Inc. Personal display with vision tracking
GB9823977D0 (en) 1998-11-02 1998-12-30 Scient Generics Ltd Eye tracking method and apparatus
US7224822B2 (en) 2000-11-02 2007-05-29 Retinal Technologies, L.L.C. System for capturing an image of the retina for identification
US20030038754A1 (en) 2001-08-22 2003-02-27 Mikael Goldstein Method and apparatus for gaze responsive text presentation in RSVP display
US7408576B2 (en) 2002-08-16 2008-08-05 Zoran Corporation Techniques for modifying image field data as a function of radius across the image field
CN100398065C (zh) * 2002-10-15 2008-07-02 沃尔沃技术公司 解释对象的头部和眼睛活动的方法和装置
US7280678B2 (en) 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils
US8292433B2 (en) 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7380938B2 (en) * 2003-03-25 2008-06-03 Sarnoff Corporation Apparatus to detect and measure saccade and pupilary changes
CA2545202C (en) 2003-11-14 2014-01-14 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US7963652B2 (en) 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US7091471B2 (en) * 2004-03-15 2006-08-15 Agilent Technologies, Inc. Using eye detection for providing control and power management of electronic devices
EP2335579B1 (en) 2004-05-06 2017-09-20 Nippon Telegraph And Telephone Corporation Component concentration measuring device and method of controlling component concentration measuring device
CN101305905B (zh) 2004-05-06 2011-03-23 日本电信电话株式会社 成分浓度测定装置
US7715723B2 (en) 2004-08-05 2010-05-11 Japan Science And Technology Agency Information-processing system using free-space optical communication and free-space optical communication system
JP4608996B2 (ja) 2004-08-19 2011-01-12 ブラザー工業株式会社 瞳孔検出装置およびそれを備えた画像表示装置
US7418115B2 (en) 2004-12-07 2008-08-26 Aoptix Technologies, Inc. Iris imaging using reflection from the eye
US7429108B2 (en) 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
EP1983884B1 (en) * 2006-01-26 2016-10-26 Nokia Technologies Oy Eye tracker device
US8025399B2 (en) 2007-01-26 2011-09-27 Aoptix Technologies, Inc. Combined iris imager and wavefront sensor
KR20090057819A (ko) 2007-12-03 2009-06-08 삼성전기주식회사 광변조기, 광변조기 모듈 및 이를 포함하는 스캐닝디스플레이 장치
US8005776B2 (en) 2008-01-25 2011-08-23 International Business Machines Corporation Adapting media storage based on user interest as determined by biometric feedback
WO2010003410A1 (en) 2008-07-08 2010-01-14 It-University Of Copenhagen Eye gaze tracking
US20100079508A1 (en) 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
EP2236074B1 (en) 2009-04-01 2021-05-26 Tobii AB Visual display with illuminators for gaze tracking
US20120105486A1 (en) 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
US8414124B2 (en) * 2009-10-21 2013-04-09 Sis Ag, Surgical Instrument Systems Device and method for measuring a cornea
US20110170060A1 (en) 2010-01-08 2011-07-14 Gordon Gary B Gaze Tracking Using Polarized Light
KR101213596B1 (ko) * 2010-04-19 2012-12-24 국방과학연구소 헤드 트랙커 및 아이 트랙커가 통합된 시선 추적 시스템 및 그 방법
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
US20130094712A1 (en) 2010-07-16 2013-04-18 Amir Said Systems and methods for eye tracking using retroreflector-encoded information
WO2012020760A1 (ja) 2010-08-09 2012-02-16 国立大学法人静岡大学 注視点検出方法及び注視点検出装置
KR101200096B1 (ko) * 2010-10-27 2012-11-12 동국대학교 산학협력단 시선 추적 시스템 및 그 방법
EP2632322A1 (en) 2010-10-29 2013-09-04 IT-universitetet I København Method of determining reflections of light
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US8998414B2 (en) 2011-09-26 2015-04-07 Microsoft Technology Licensing, Llc Integrated eye tracking and display system
KR101355895B1 (ko) * 2011-10-20 2014-02-05 경북대학교 산학협력단 사용자 의도 판단 장치 및 그 방법
US8955973B2 (en) 2012-01-06 2015-02-17 Google Inc. Method and system for input detection using structured light projection
JP5945417B2 (ja) 2012-01-06 2016-07-05 京セラ株式会社 電子機器
US9720232B2 (en) * 2012-01-24 2017-08-01 The Arizona Board Of Regents On Behalf Of The University Of Arizona Compact eye-tracked head-mounted display
WO2013117999A1 (en) * 2012-02-06 2013-08-15 Sony Ericsson Mobile Communications Ab Gaze tracking with projector
JP2013215549A (ja) * 2012-03-16 2013-10-24 Fujitsu Ltd 画像処理装置、画像処理プログラムおよび画像処理方法
JP5765740B2 (ja) * 2012-05-21 2015-08-19 国立大学法人東京工業大学 注意位置推定装置
KR102047494B1 (ko) * 2012-09-10 2019-11-21 삼성전자주식회사 투명 디스플레이 장치 및 그 객체 선택 방법
US9426447B2 (en) * 2012-10-09 2016-08-23 Electronics And Telecommunications Research Institute Apparatus and method for eye tracking
US9652034B2 (en) 2013-09-11 2017-05-16 Shenzhen Huiding Technology Co., Ltd. User interface based on optical sensing and tracking of user's eye movement and position
CN106132284B (zh) 2013-11-09 2019-03-22 深圳市汇顶科技股份有限公司 光学眼动追踪

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101779960A (zh) * 2010-02-24 2010-07-21 沃建中 刺激信息认知能力值测试系统及其方法
CN101901485A (zh) * 2010-08-11 2010-12-01 华中科技大学 3d自由头动式视线跟踪系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于近红外光源的非接触式视线跟踪技术研究;杨彩霞;《中国优秀硕士学位论文全文数据库信息科技辑》;20130115;第I138-1569页 *

Also Published As

Publication number Publication date
WO2015081325A1 (en) 2015-06-04
EP3074923A4 (en) 2017-07-05
CN106663183A (zh) 2017-05-10
EP3074923A1 (en) 2016-10-05
US20150145777A1 (en) 2015-05-28
US10416763B2 (en) 2019-09-17
KR20160090867A (ko) 2016-08-01
US9552064B2 (en) 2017-01-24
US20170131766A1 (en) 2017-05-11
KR101855196B1 (ko) 2018-06-08

Similar Documents

Publication Publication Date Title
CN106663183B (zh) 眼睛跟踪及用户反应探测
US11740692B2 (en) Optical eye tracking
US9652034B2 (en) User interface based on optical sensing and tracking of user's eye movement and position
CN103648366B (zh) 用于远程测量光学焦点的系统和方法
JP6308940B2 (ja) 視線追跡シーン参照位置を識別するシステム及び方法
JP4783018B2 (ja) 眼及びその凝視方向を検知し、追跡する方法と装置
CN103458770B (zh) 照射特性能够调节的用于捕获至少一个眼睛的至少一个参数的光学测量装置和方法
KR102669768B1 (ko) 동공 검출 및 시선 추적을 위한 이벤트 카메라 시스템
US20160147301A1 (en) Detection apparatus and method
CA3058254A1 (en) System for assessing a health condition of a user
JP2015525597A (ja) 斜視検出
US20120026276A1 (en) Manner of ranging items on the computer monitor screen surface, especially key words for the requirements of web browser users
Penedo et al. Gaze behavior data in the vitrine of human movement science: considerations on eye-tracking technique
KR20240093875A (ko) 동공 검출 및 시선 추적을 위한 이벤트 카메라 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant