CN105339868B - 基于眼睛跟踪的视觉增强 - Google Patents
基于眼睛跟踪的视觉增强 Download PDFInfo
- Publication number
- CN105339868B CN105339868B CN201480032122.7A CN201480032122A CN105339868B CN 105339868 B CN105339868 B CN 105339868B CN 201480032122 A CN201480032122 A CN 201480032122A CN 105339868 B CN105339868 B CN 105339868B
- Authority
- CN
- China
- Prior art keywords
- project
- stare
- path
- staring
- user interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
公开了涉及选择性增强显示在显示设备上的内容的实施例。例如,一个所公开的实施例提供了一种方法,包括跟踪用户的凝视与图形用户界面交叉的凝视地点,以及在检测到凝视模式满足指示感知凝视地点处的项目方面的困难的经定义的凝视模式条件时,经由与凝视地点处的项目分离显示的用户界面对象以视觉增强的形式显示凝视地点处的项目。
Description
背景技术
在图形用户界面上显示的项目有时可能对于用户而言难以感知。例如,文本可能以具有相对于背景颜色的低对比度的颜色显示,或者以对于特定显示屏大小而言小的字体显示。其它类型的显示信息可能遭受类似的问题。照此,计算设备可以为用户供给各种方式来修改显示项目的外观。例如,用户可以能够增加文本的大小,把镜头移近到显示图像,改变显示项目的颜色,以及采取其它这样的动作来增强用户界面项目的可视性。
发明内容
公开了涉及自动视觉增强显示在显示设备上的项目的实施例。例如,一个所公开的实施例提供了一种方法,包括跟踪用户的凝视与项目交叉的凝视地点,以及在检测到凝视模式满足指示感知凝视地点处的项目方面的困难的经定义的凝视模式时,经由与凝视地点处的项目分离显示的用户界面对象以视觉增强的形式显示凝视地点处的项目。
提供本发明内容来以简化形式引入以下在具体实施方式中进一步描述的概念的选择。本发明内容不意图标识所要求保护的主题的关键特征或必要特征,也不意图用于限制所要求保护的主题的范围。此外,所要求保护的主题不限于解决本公开内容的任何部分中所指出的任何或全部缺点的实现方式。
附图说明
图1示意性地示出依照本公开的实施例的示例显示设备和图形用户界面。
图2-5示意性地示出依照本公开的实施例的视觉增强图1的图形用户界面的项目的示例。
图6是描绘选择性地增强显示在显示设备上的用户界面项目的方法的实施例的流程图。
图7示出依照本公开的实施例的示例显示设备的框图。
图8示意性地示出依照本公开的另一实施例的示例显示设备和图形用户界面。
图9示意性地示出依照本公开的实施例的视觉增强图8的图形用户界面的用户界面项目的示例。
图10示意性地示出依照本公开的实施例的视觉增强物理对象的视图的示例。
图11示出计算系统的示例实施例。
具体实施方式
如以上提到的,计算设备可以为用户供给各种方式来修改显示在图形用户界面上的项目的外观。用于做出这样的修改的工具一般由用户有意地调用。例如,如果膝上型计算机的用户正在为阅读小文本而挣扎,则用户可以从菜单选择字体大小调节工具。同样地,如果智能电话的用户正在为查看用户界面项目而挣扎,则用户可以使用拉伸手势等来以较高放大率查看项目。
当用户为查看用户界面项目而挣扎时,视觉挣扎可以具有经由凝视跟踪可检测的相关联的凝视移动特性。因而,公开了涉及基于经由凝视跟踪所检测的眼睛凝视运动特性而自动增强显示在显示设备上的用户界面项目的实施例。
图1示出包括显示图形用户界面104的计算设备102的示例使用环境100。虽然在图1中的头部安装显示设备的上下文中示出,但是要理解的是,可以使用任何其它合适的计算设备,包括但不限于智能电话、个人计算机、游戏控制台、移动计算设备、服务器计算设备、平板等。同样地,虽然将图形用户界面104以全息用户界面的形式示出,但是头部安装显示器还可以用于扩充显示在分离显示设备(例如计算机监视器、电视、智能电话、平板、膝上型计算机屏幕等)上的图形用户界面的外观。图1还示出经由凝视与图形用户界面104交互的用户108。图示了头部安装显示设备的视场110内的项目,如通过头部安装显示设备所看到的那样。
如以下更加详细描述的,计算设备102可以包括凝视检测子系统,其被配置成检测用户108的凝视112并且确定用户的凝视112与图形用户界面104交叉的地点。凝视检测子系统可以周期性地执行这些操作以输出周期性更新的位置信号。出于示例的目的而将图形用户界面104示出为显示视频项目114、图像项目116和文本项目118,但是将理解到的是,图形用户界面可以显示任何其它合适的一个或多个项目。将理解到的是,术语“用户界面项目”等等是指显示在显示设备上的可以如本文所描述的那样视觉增强的任何项目。
来自凝视跟踪子系统的周期性更新的位置信号随时间的改变可以允许检测所识别的凝视模式。例如,如以上提到的,凝视模式可以用于检测用户是否正在为查看用户界面项目而挣扎。作为更加具体的示例,用户可能在相同句子之上阅读多次,在相对较长的持续时间内停留在图像的一部分处,在阅读时以比往常低的速度移动,和/或执行可检测为指示用户正在为查看用户界面项目而挣扎的运动条件的其它这样的眼睛凝视行为。因此,可以分析用户的凝视路径以标识与感知方面的困难相关联的凝视模式。任何合适的方法可以用于标识这样的凝视模式。示例包括但不限于,比较凝视路径数据与预定义的凝视模式,比较凝视路径数据与当前用户的在先模式(如经由日常使用期间的校准和/或观察知悉的),和/或经由分类功能的使用来评估凝视路径数据,所述分类功能利用包括对应于已知条件的凝视模式的训练数据来训练。
计算设备102还可以被配置成确定与凝视地点处的(多个)项目相关联的上下文特征,并且将上下文信息用作确定用户是否具有查看用户界面项目方面的困难时的一个或多个筛选器。可以利用任何合适的上下文信息。例如,计算设备可以确定凝视地点中的用户界面项目的类型。项目类型的示例包括但不限于,文本、视频项目、图像项目、可执行项目、图标、动作项目(例如用户界面控制项目)和/或任何合适类型的项目。
作为上下文信息可以如何用于辨别眼睛模式的示例,可以指示阅读项目方面的困难的前后眼睛模式可能不指示针对其它类型内容的类似困难。作为更具体的示例,可以预计到观看视频项目的用户展现出跟随视频内的一个或多个对象的凝视模式。在所图示的示例中,视频项目114包括网球比赛。照此,当用户从选手向选手改变观看时,用户的凝视可能多次横贯相同的地点。在该示例中,重复凝视模式不太可能指示感知项目方面的挣扎。也可以以其它方式利用上下文信息。例如,可以取决于凝视地点处的项目类型而应用不同的视觉增强。
作为另一示例,当用户凝视在文本项目118处时,可以评估文本项目以确定诸如字体、字体大小、字体颜色、背景颜色、字体样式(例如粗体、斜体、下划线、下标/上标、删除线、浮凸、外框、渐变等)和其它这样的格式化之类的特性。还可以评估文本项目以确定文本内容的特性,诸如凝视地点中的文字数目、凝视地点中的文字复杂性等。
可以针对除文本之外的不同特性集而评估除文本之外的其它类型项目。例如,可以针对诸如所显示的视频内容的总体大小、内容的分辨率和/或与其中描绘的移动图像相关联的复杂性水平之类的因素来评估视频项目。作为更具体的示例,具有高得多的空间频率图像数据和/或帧之间的图像数据中的大变化的视频可以被确定为具有比缺少这样的特征的视频更高的复杂性水平。
这样的特征和特性可以以任何合适的方式用于帮助确定和/或权衡所检测的凝视模式指示用户具有感知用户界面项目方面的困难的可能性。例如,在一些实施例中,这样的信息可以用于确定指示所检测的凝视模式指示这样的困难的可能性的置信度分数。在文本项目的上下文中,上下文筛选器可以为较小字体大小指定第一置信度分数并且为较大字体大小指定第二置信度分数,其中与第二置信度分数相比,第一置信度分数表示用户具有感知项目方面的困难的更高可能性。可以将针对所检测的凝视模式所确定的置信度分数与阈值分数条件比较(例如在阈值分数以下或以上)以便确定是否满足基于上下文的凝视模式条件。将理解到的是,置信度分数可以基于与项目相关联的任何合适的一个或多个特性。
在一些实例中,可以确定用户的凝视112指向多个项目或项目类型。在这样的实例中,多个项目或项目类型可以被优先化、加权成具有对置信度分数的不同影响,或者以其它方式分离地被视为有助于选择用于评估和潜在修改的类型。
响应于确定满足经定义的凝视模式条件,计算设备102可以视觉增强凝视地点处的项目的外观。可以应用任何合适的视觉增强,包括但不限于对颜色、大小、字体类型、字体样式、渐变、锐利度、对比度等的改变。例如,参照图2,如果确定用户的凝视112指向的“brown dog”文本具有小于阈值的字体大小和/或具有阈值以下的置信度分数,则可以增加文本的字体大小,或者可以以其它方式将文本显示为在用户界面对象中具有放大的外观。
对用户界面项目的视觉增强可以以任何合适的方式显示。例如,在一些实施例中,可以在位于项目之上(例如在比项目更高的z排序位置处)或者以其它方式与项目分离定位的用户界面对象中显示项目的经视觉增强的版本。图2示出作为文本椭圆的这样的用户界面对象202的示例,其中以较大字体显示文本,但是将理解到的是,这样的用户界面对象可以具有任何其它合适的外观。
图3-5示出对用户界面对象做出的视觉增强的附加示例。首先,在图3中,用户的凝视112指向包括文字“the quick”的文本项目118的部分。如图1中所示,以利用样式化的手写字的样式化字体在图形用户界面上呈现该文本。如果检测到指示感知困难的视觉模式,则可以经由用户界面对象302以不同的字体和/或利用其它视觉增强来显示文本。例如,如图3中图示的,包括文字“the quick”的文本具有较大字体大小和与原始文本不同类型的字体以便相对于文字的原始形式增加可感知性。
图4图示了被配置成增加文本对照背景颜色的对比度的视觉增强。文字“jumped”的原始版本是浅的并且对照白色背景难以阅读。照此,用户可能具有将文本从背景区分的困难。因而,可以修改文本和/或背景的外观(例如颜色、亮度、饱和度等)以增加文本和背景的对比度,并且可以将所得到的经视觉增强的文本显示为用户界面对象402。作为另一示例,图5示出显示具有与文本的原始版本不同样式的字体(例如外框)的文本项目的部分的用户界面对象502。
出于示例的目的而描述本文所说明的示例,并且可以对用户界面项目做出任何其它合适的一个或多个视觉增强,包括但不限于放大。此外,虽然以上描述的图图示了对文本做出的视觉增强,但是将理解到的是,类似的更改可以应用于动作项目、图像项目、视频项目和/或任何其它合适类型的项目。
图6是图示了选择性地增强显示在显示设备上的内容的方法600的实施例的流程图。方法600包括在602处,显示包括一个或多个项目的图形用户界面,以及在604处,跟踪凝视地点。如以上提到的,计算设备可以包括凝视跟踪子系统或者以其它方式从其接收输入,所述凝视跟踪子系统提供表示用户的凝视与显示器交叉的确定地点的周期性更新的地点信号。以下给出关于示例凝视跟踪子系统的更多信息。
方法600还包括在606处,从表示一段时间内位置信号的地点中的改变的凝视路径数据确定凝视模式。凝视路径数据可以包括移动、停留、其组合和/或其它凝视路径特征。凝视模式可以以任何合适的方式从凝视路径数据确定。例如,可以基于凝视路径数据与预定义的模式、预定义的条件(例如对于所选时间,凝视不会移动超出所选数目的像素)、当前用户的在先检测到的模式、用户在校准过程期间提供的校准数据(如608处所指示的)的比较和/或通过使用利用已知凝视数据训练的分类功能来确定凝视模式。作为更具体的示例,可以经由自动或半自动校准例程针对当前用户校准计算设备,其中指令用户执行涉及各种项目的感知的一个或多个任务。用户可以指示感知各种项目方面的困难水平,并且可以将所跟踪的凝视模式(和潜在地项目的上下文特征)与所指示的困难水平比较以确定凝视模式条件。由此可以收集使用户的凝视模式与感知项目方面的困难水平相关的统计数据以用于在确定置信度分数时使用。
在一些实施例中,凝视模式可以用于确定用户是否具有感知困难而不考虑任何上下文数据。在其它实施例中,可以连同凝视模式一起使用上下文数据以提供用于该确定的附加信息。照此,方法600可以包括将上下文筛选器应用于凝视模式确定,如610处所指示的。上下文筛选器可以与所确定的凝视模式一起使用,例如以基于凝视地点处的项目的一个或多个特性以及基于所确定的凝视路径来提供置信度分数。
继续,可以评估凝视模式以便确定其是否满足凝视模式条件,如612处所指示的。例如,可以将凝视模式与预确定的路径和/或条件比较,与在先用户数据比较,经由分类功能评估等。同样地,可以将置信度分数与阈值置信度分数条件比较,和/或可以利用任何其它合适的评估。
如果凝视模式不满足凝视模式条件,则方法600返回到604以继续跟踪凝视地点。另一方面,如果满足凝视模式条件,则方法包括在614处经由与凝视地点处的项目分离显示的用户界面对象以视觉增强的形式显示凝视地点处的项目。例如,用户界面对象可以显示为原始项目的覆盖物(例如具有比原始项目更高的z排序位置),并且可以在其中以放大或以其它方式更改的外观显示项目。在其它实施例中,用户界面对象可以显示在与原始项目间隔的地点处,和/或以任何其它合适的方式显示。
用户界面对象可以保持任何合适的持续时间,并且用户界面对象的显示可以基于任何合适的事件和/或条件而停止。例如,计算设备可以响应于确定凝视不再指向凝视地点和/或项目而停止显示用户界面对象。在其它实施例中,用户可以能够将用户界面对象移动到不同地点,如同用户界面对象是视觉增强位于用户界面对象以下的任何项目的透镜那样。
方法600可以经由利用凝视跟踪功能性的任何合适的计算设备执行。图7示出包括眼睛跟踪功能性的计算系统700的框图。计算系统700可以表示图1的头部安装显示器,和/或被配置成利用周期性更新的位置信号作为输入的任何其它合适的计算系统。计算系统700包括可以在其上显示图形用户界面的显示器702。显示器702可以采取任何合适的形式。例如,在一些实施例中,计算系统可以包括近眼显示器704。近眼显示器系统的示例可以包括但不限于头部安装显示器和手持设备(例如智能电话、平板和/或具有近眼显示模式的其它手持设备)。在这样的设备中,近眼显示器可以包括透视显示器706或不透明显示器。在其它实施例中,显示器可以在计算设备外部708,诸如在常规监视器、电视等等的情况中。
计算系统700还包括被配置成从眼睛跟踪子系统712接收周期性更新的位置信号的输入的输入子系统710。在一些实施例中,眼睛跟踪子系统712可以是头部安装的714(例如合并到头部安装近眼显示器系统中)或者以其它方式合并到计算设备中。在其它实施例中,眼睛跟踪系统可以在计算设备外部716,诸如在利用用于显示图形用户界面的常规监视器或电视的外部的一个或多个相机的眼睛跟踪系统的情况中。
眼睛跟踪系统可以利用任何合适的组件。例如,在一些实施例中,眼睛跟踪系统可以利用被配置成创建来自眼睛角膜的闪烁反射的一个或多个光源,以及被配置成获取眼睛图像的一个或多个图像传感器。凝视方向可以从来自光源的闪烁和眼睛瞳孔的相对地点确定。凝视方向可以连同关于从用户眼睛到显示器的距离的信息一起用于确定凝视与显示器交叉的地点。这样的距离信息可以基于预确定的估计或校准,或者基于实时深度信息(例如来自立体相机配置)。
此外,输入子系统710可以包括其它输入机制。例如,输入子系统710可以包括一个或多个运动传感器718(例如合并到头部安装显示器或其它便携式设备中)和/或一个或多个图像传感器720(例如一个或多个面向外的图像传感器,以及面向内的图像传感器以用于眼睛跟踪)。将理解到的是,提供周期性更新的位置信号的用户输入设备的这些实施例是出于示例的目的而呈现的,并且不意图以任何方式是限制性的。
计算系统700还包括逻辑子系统722和存储子系统724。存储子系统724可以包括所存储的指令,其由逻辑子系统722可执行以施行涉及呈现图形用户界面和接收并处理眼睛跟踪信息的各种任务,例如以标识其中用户为查看用户界面项目而挣扎的潜在实例。以下更详细描述示例计算系统。
在头部安装显示器的上下文中示出图1-5的示例。然而,凝视模式可以用于检测任何合适的硬件上下文中的用户界面可感知性问题。图8和9图示了另一实施例,其中凝视跟踪子系统包括定位在相对于用户的固定环境地点中而不是安装到用户头部的相机。图8示出通信连接到诸如计算机监视器或电视之类的显示设备804的计算设备802。计算设备802示意性地描绘为连接到一个或多个相机808a和808b以及闪烁源810。相机808a和808b可以布置成从已知位置提供用户812的图像,并且因而允许确定从用户眼睛到显示器的距离。此外,闪烁源810可以被配置成朝向用户812的瞳孔发射光以用于检测从用户眼睛反射的光。该信息可以与关于用户瞳孔的地点的信息组合地用于确定眼睛凝视方向。
在图8中,相机808a和808b可以检测用户812的凝视814指向文本项目816。当确定满足凝视模式条件时,计算设备可以控制显示设备804以显示用户界面对象,如图9中在902处所示,以视觉增强凝视814所指向的文本的外观。
类似的方法还可以用于增强经由透视扩充现实显示设备所查看的物理对象的外观。图10图示了其中由用户1004通过头部安装显示器1006查看以具有文本的书籍形式的物理对象1002的实施例。头部安装显示设备1006的凝视跟踪子系统可以跟踪用户1004的凝视1008。如果凝视跟踪子系统检测到表示感知对象方面的困难的凝视模式,则可以经由集成在头部安装显示器1006内的成像设备(和/或远离头部安装显示器1006定位的成像设备)获取凝视地点(例如通过将超出头部安装显示器的所确定的凝视线投影到物理环境中来确定)处的对象的图像。头部安装显示设备1006然后可以显示视觉增强凝视1008指向的对象1002的部分的外观的用户界面对象1010,例如通过显示对象或对象部分的放大和/或以其它方式更改的视图。在所描绘的实施例中,经由用户界面对象1010以放大形式显示用户聚焦地点处的物理文本,但是将理解到的是,可以提供任何合适的视觉增强,包括但不限于以上所描述的那些。作为更具体的示例,增强可以包括改变用户界面对象1010中的物理对象的图像的亮度、对比度和/或白平衡。
在一些实施例中,本文描述的方法和过程可以依靠一个或多个计算设备的计算系统。具体地,这样的方法和过程可以实现为计算机应用程序或服务、应用编程接口(API)、库和/或其他计算机程序产品。
图11示意性地示出了可以展现以上描述的一个或多个方法和过程的计算系统1100的非限制性实施例。以简化形式示出计算系统1100。计算系统1100可以采取一个或多个个人计算机、服务器计算机、平板计算机、可穿戴计算机(例如头部安装显示设备)、家用娱乐计算机、网络计算设备、游戏设备、移动计算设备、移动通信设备(例如智能电话)和/或其它计算设备的形式。
计算系统1100包括逻辑机1102和存储机1104。计算系统1100可以可选地包括显示子系统1106、输入子系统1108、通信子系统1110和/或未在图11中示出的其它组件。
逻辑机1102包括被配置成执行指令的一个或多个物理设备。例如,逻辑机可以被配置成执行作为一个或多个应用、服务、程序、例程、库、对象、组件、数据结构或其它逻辑构造的部分的指令。这样的指令可以实现为执行任务、实现数据类型、转换一个或多个组件的状态、达成技术效果或者以其它方式达到期望结果。
逻辑机可以包括被配置成执行软件和/或机器可读指令的一个或多个处理器。可替换地或附加地,逻辑机可以包括一个或多个硬件或固件逻辑机,其被配置成执行硬件或固件指令。逻辑机的处理器可以是单核或多核的,并且在其上执行的指令可以被配置用于串行、并行和/或分布式处理。逻辑机的各个组件可选地可以分布在两个或更多的分离设备之中,所述两个或更多的分离设备可以远程地定位和/或配置用于协调式处理。逻辑机的方面可以通过配置在云计算配置中的远程可访问的联网计算设备而虚拟化和执行。
存储机1104包括一个或多个物理设备,其被配置成保持由逻辑机可执行以实现本文描述的方法和过程的指令。当实现这样的方法和过程时,存储机1104的状态可以转换——例如转换成保持不同数据。
存储机1104可以包括可移除和/或内置的设备。存储机1104可以包括光学存储器(例如CD、DVD、HD-DVD、蓝光盘等)、半导体存储器(例如RAM、EPROM、EEPROM等)和/或磁存储器(例如硬盘驱动器、软盘驱动器、带驱动器、MRAM等)以及其它。存储机1104可以包括易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、地点可寻址、文件可寻址和/或内容可寻址的设备。
将认识到,存储机1104包括一个或多个物理设备。然而,本文描述的指令的方面可替换地可以通过没有由物理设备保持的通信介质(例如电磁信号、光学信号等)传播。
逻辑机1102和存储机1104的方面可以一起集成到一个或多个硬件逻辑组件中。这样的硬件逻辑组件可以包括例如现场可编程门阵列(FPGA)、程序和应用特定的集成电路(PASIC/ASIC)、程序和应用特定的标准产品(PSSP/ASSP)、片上系统(SOC)和复杂可编程逻辑器件(CPLD)。
术语“模块”和“引擎”可以用于描述实现为执行特定功能的计算系统1100的方面。在一些情况下,可以经由执行由存储机1104保持的指令的逻辑机1102来实例化模块或引擎。将理解的是,不同的模块、程序和/或引擎可以从相同的应用、服务、代码块、对象、库、例程、API、功能等实例化。同样地,相同的模块和/或引擎可以由不同的应用、服务、代码块、对象、例程、API、功能等实例化。术语“模块”和“引擎”可以包涵可执行文件、数据文件、库、驱动器、脚本、数据库记录等的个体或组。
当包括时,显示子系统1106可以用于呈现由存储机1104保持的数据的视觉表示。该视觉表示可以采取图形用户界面(GUI)的形式。例如,显示子系统1106可以用于呈现图1的图形用户界面104。当本文描述的方法和过程改变由存储机保持的数据并且因而转换存储机的状态时,显示子系统1106的状态可以同样地转换成在视觉上表示底层数据中的改变。显示子系统1106可以包括在视觉上利用任何类型技术的一个或多个显示设备。这样的显示设备可以与逻辑机1102和/或存储机1104组合在共享的外壳中,或者这样的显示设备可以是外围显示设备。
当包括时,输入子系统1108可以包括诸如键盘、鼠标、触摸屏或游戏控制器之类的一个或多个用户输入设备或者与其对接。在一些实施例中,输入子系统可以包括所选自然用户输入(NUI)元件部分或者与其对接。这样的元件部分可以是集成的或外围的,并且输入动作的换能和/或处理可以在板上或板外处置。示例NUI元件部分可以包括用于语音和/或话音识别的麦克风;用于机器视觉和/或手势识别的红外、彩色、立体和/或深度相机;用于运动检测和/或意图识别的头部跟踪器、眼睛跟踪器、加速度计和/或陀螺仪;以及用于评估脑部活动的电场感测元件部分。
当包括时,通信子系统1110可以被配置成将计算系统1100与一个或多个其它计算设备通信耦合。通信子系统1110可以包括与一个或多个不同通信协议兼容的有线和/或无线通信设备。作为非限制性示例,通信子系统可以被配置用于经由无线电话网络或有线或无线局域网或广域网进行通信。在一些实施例中,通信子系统可以允许计算系统1100经由诸如互联网之类的网络向其它设备发送消息和/或自其它设备接收消息。
将理解的是,本文描述的配置和/或方案在本性上是示例性的,并且这些具体实施例或示例不应以限制性意义考虑,因为众多变化是可能的。本文描述的具体例程或方法可以表示任何数目的处理策略中的一个或多个。这样,所图示和/或描述的各种动作可以以所图示和/或描述的顺序执行、以其它顺序执行、并行地执行或者被省略。同样地,可以改变以上描述的过程的次序。
将理解的是,本文描述的配置和/或方案在本性上是示例性的,并且这些具体实施例或示例不应以限制性意义考虑,因为众多变化是可能的。本文描述的具体例程或方法可以表示任何数目的处理策略中的一个或多个。这样,所图示和/或描述的各种动作可以以所图示和/或描述的顺序执行、以其它顺序执行、并行地执行或者被省略。同样地,可以改变以上描述的过程的次序。
本公开内容的主题包括各种过程、系统和配置与本文公开的其它特征、功能、动作和/或属性以及其任何和全部等同物的所有新颖且非显而易见的组合和子组合。
Claims (10)
1.在计算设备上,一种选择性地增强显示在显示设备上的内容的方法,所述方法包括:
显示包括一个或多个项目的图形用户界面;
在一段时间跟踪用户的凝视与图形用户界面交叉的凝视地点中的变化以确定所跟踪的凝视路径;
确定包括所跟踪的凝视路径通过的项目的类型的上下文信息,所述项目的类型从文本和非文本中选出;
响应于确定所跟踪的凝视路径通过的项目是文本,确定所述项目的一个或多个视觉特征;
分析所跟踪的凝视路径以识别一个或多个凝视模式条件,所述一个或多个凝视模式条件指示在感知所跟踪的凝视路径中的项目方面的困难;以及
在基于所跟踪的凝视路径检测到凝视模式满足指示感知所跟踪的凝视路径中的项目方面的困难的预定义的凝视模式条件时,在与所述项目分离显示的用户界面对象中显示所述项目的视觉增强的形式,所述项目的视觉增强的形式包括对所述文本的特性的改变。
2.权利要求1的方法,其中显示所述项目的视觉增强的形式包括响应于确定所述项目具有包括比阈值小的字体大小的特性,以放大形式显示所述项目。
3.权利要求1的方法,其中显示所述项目的视觉增强的形式包括以下中的各项:以不同的字体、不同的字体样式、不同的字体颜色和/或对照不同的背景颜色中的一个或多个来显示项目。
4.权利要求1的方法,所述方法还包括应用上下文筛选器以确定用户具有感知项目方面的困难的可能性。
5.权利要求4的方法,其中应用所述上下文筛选器包括经由所述上下文筛选器确定置信度分数,并且其中所述一个或多个预定义的凝视模式条件包括其中置信度分数满足阈值条件的条件。
6.权利要求4的方法,其中所述项目的特性包括字体大小、字体类型、字体样式、字体颜色和背景颜色中的一个或多个,并且其中应用所述上下文筛选器还包括基于所述项目的所述字体大小、所述字体类型、所述字体样式、所述字体颜色和所述背景颜色中的一个或多个而应用所述上下文筛选器。
7.权利要求1的方法,其中检测凝视模式包括比较凝视路径数据与预定义的凝视模式、比较凝视路径数据与当前用户的在先模式、以及经由分类功能评估凝视路径数据中的一个或多个。
8.一种计算设备,包括:
显示设备;
凝视跟踪子系统;
逻辑机;以及
存储指令的存储机,所述指令由逻辑机可执行以:
在显示设备上显示包括一个或多个项目的图形用户界面;
在一段时间经由凝视跟踪系统跟踪用户的凝视与图形用户界面交叉的凝视地点中的变化以确定所跟踪的凝视路径;以及
确定所跟踪的凝视路径中的项目的特征;
分析所跟踪的凝视路径以识别凝视模式条件,所述凝视模式条件指示在感知所跟踪的凝视路径中的项目方面的困难;以及
在基于所跟踪的凝视路径检测到凝视模式满足指示感知所跟踪的凝视路径中的项目方面的困难的预定义的凝视模式条件时,经由与所述项目分离显示的用户界面对象在所跟踪的凝视路径中显示所述项目的视觉增强的外观,所述项目的视觉增强的外观包括对所述项目的特性的改变。
9.权利要求8的计算设备,其中计算设备包括头部安装显示设备。
10.权利要求8的计算设备,其中凝视地点处的项目包括视频项目和图像项目中的一个或多个。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/911,867 US9965062B2 (en) | 2013-06-06 | 2013-06-06 | Visual enhancements based on eye tracking |
US13/911867 | 2013-06-06 | ||
PCT/US2014/040584 WO2014197409A1 (en) | 2013-06-06 | 2014-06-03 | Visual enhancements based on eye tracking |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105339868A CN105339868A (zh) | 2016-02-17 |
CN105339868B true CN105339868B (zh) | 2019-02-05 |
Family
ID=51168349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480032122.7A Active CN105339868B (zh) | 2013-06-06 | 2014-06-03 | 基于眼睛跟踪的视觉增强 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9965062B2 (zh) |
EP (1) | EP3005035A1 (zh) |
CN (1) | CN105339868B (zh) |
WO (1) | WO2014197409A1 (zh) |
Families Citing this family (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6070833B2 (ja) * | 2013-05-08 | 2017-02-01 | 富士通株式会社 | 入力装置及び入力プログラム |
US9563283B2 (en) * | 2013-08-06 | 2017-02-07 | Inuitive Ltd. | Device having gaze detection capabilities and a method for using same |
US10013737B2 (en) | 2013-09-17 | 2018-07-03 | Nokia Technologies Oy | Determination of an operation |
US9940900B2 (en) | 2013-09-22 | 2018-04-10 | Inuitive Ltd. | Peripheral electronic device and method for using same |
US9922253B2 (en) * | 2013-10-11 | 2018-03-20 | Interdigital Patent Holdings, Inc. | Gaze-driven augmented reality |
CN105765513B (zh) * | 2013-11-01 | 2020-02-21 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
US20150169048A1 (en) * | 2013-12-18 | 2015-06-18 | Lenovo (Singapore) Pte. Ltd. | Systems and methods to present information on device based on eye tracking |
US9633252B2 (en) | 2013-12-20 | 2017-04-25 | Lenovo (Singapore) Pte. Ltd. | Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data |
US10180716B2 (en) | 2013-12-20 | 2019-01-15 | Lenovo (Singapore) Pte Ltd | Providing last known browsing location cue using movement-oriented biometric data |
US9817474B2 (en) * | 2014-01-24 | 2017-11-14 | Tobii Ab | Gaze driven interaction for a vehicle |
US10264211B2 (en) | 2014-03-14 | 2019-04-16 | Comcast Cable Communications, Llc | Adaptive resolution in software applications based on dynamic eye tracking |
US9936195B2 (en) * | 2014-11-06 | 2018-04-03 | Intel Corporation | Calibration for eye tracking systems |
US9535497B2 (en) | 2014-11-20 | 2017-01-03 | Lenovo (Singapore) Pte. Ltd. | Presentation of data on an at least partially transparent display based on user focus |
US10802577B2 (en) | 2015-06-04 | 2020-10-13 | Microsoft Technology Licensing, Llc | Establishing voice communication channel |
CN106294489B (zh) * | 2015-06-08 | 2022-09-30 | 北京三星通信技术研究有限公司 | 内容推荐方法、装置及系统 |
US9829976B2 (en) * | 2015-08-07 | 2017-11-28 | Tobii Ab | Gaze direction mapping |
US9870051B2 (en) * | 2015-08-07 | 2018-01-16 | Tobii Ab | Gaze direction mapping |
US9857871B2 (en) * | 2015-09-04 | 2018-01-02 | Sony Interactive Entertainment Inc. | Apparatus and method for dynamic graphics rendering based on saccade detection |
CN108604116A (zh) * | 2015-09-24 | 2018-09-28 | 托比股份公司 | 能够进行眼睛追踪的可穿戴设备 |
US10339758B2 (en) * | 2015-12-11 | 2019-07-02 | Igt Canada Solutions Ulc | Enhanced electronic gaming machine with gaze-based dynamic messaging |
WO2017104089A1 (ja) * | 2015-12-18 | 2017-06-22 | 日立マクセル株式会社 | ヘッドマウントディスプレイ連携表示システム、及び、表示装置とヘッドマウントディスプレイとを含むシステム、及び、その表示装置 |
US10438410B2 (en) | 2015-12-22 | 2019-10-08 | Intel Corporation | Text enhancements for head-mounted displays |
US9841813B2 (en) * | 2015-12-22 | 2017-12-12 | Delphi Technologies, Inc. | Automated vehicle human-machine interface system based on glance-direction |
IL243422B (en) | 2015-12-30 | 2018-04-30 | Elbit Systems Ltd | Information management is displayed according to the directions of the user's gaze |
US10127706B2 (en) * | 2016-01-12 | 2018-11-13 | Esight Corp. | Language element vision augmentation methods and devices |
CN105425971B (zh) * | 2016-01-15 | 2018-10-26 | 中意工业设计(湖南)有限责任公司 | 一种眼动界面的交互方法、装置和近眼显示器 |
CN109196574A (zh) * | 2016-01-18 | 2019-01-11 | 维弗施福特有限责任公司 | 用于降低电子显示器的近视源性效应的方法和设备 |
US10667981B2 (en) * | 2016-02-29 | 2020-06-02 | Mentor Acquisition One, Llc | Reading assistance system for visually impaired |
US10129439B2 (en) * | 2016-03-23 | 2018-11-13 | GM Global Technology Operations LLC | Dynamically colour adjusted visual overlays for augmented reality systems |
US10169846B2 (en) | 2016-03-31 | 2019-01-01 | Sony Interactive Entertainment Inc. | Selective peripheral vision filtering in a foveated rendering system |
US10401952B2 (en) | 2016-03-31 | 2019-09-03 | Sony Interactive Entertainment Inc. | Reducing rendering computation and power consumption by detecting saccades and blinks |
US10372205B2 (en) | 2016-03-31 | 2019-08-06 | Sony Interactive Entertainment Inc. | Reducing rendering computation and power consumption by detecting saccades and blinks |
US10192528B2 (en) | 2016-03-31 | 2019-01-29 | Sony Interactive Entertainment Inc. | Real-time user adaptive foveated rendering |
US10303341B2 (en) | 2016-05-25 | 2019-05-28 | International Business Machines Corporation | Modifying screen content based on gaze tracking and user distance from the screen |
IL292427B2 (en) | 2016-07-25 | 2023-05-01 | Magic Leap Inc | Change, display and visualization of imaging using augmented and virtual reality glasses |
EP3316075B1 (en) * | 2016-10-26 | 2021-04-07 | Harman Becker Automotive Systems GmbH | Combined eye and gesture tracking |
WO2019023659A1 (en) | 2017-07-28 | 2019-01-31 | Magical Technologies, Llc | SYSTEMS, METHODS AND APPARATUS FOR CONTINUOUSLY INTEGRATING INCREASED, INTEGRATED, VIRTUAL AND / OR MIXED REALITIES WITH PHYSICAL REALITIES FOR IMPROVING WEB, MOBILE EXPERIENCES AND / OR OTHER DIGITAL EXPERIENCES |
US20190108578A1 (en) | 2017-09-13 | 2019-04-11 | Magical Technologies, Llc | Systems and methods of rewards object spawning and augmented reality commerce platform supporting multiple seller entities |
WO2019079826A1 (en) | 2017-10-22 | 2019-04-25 | Magical Technologies, Llc | DIGITAL ASSISTANT SYSTEMS, METHODS AND APPARATUSES IN AN INCREASED REALITY ENVIRONMENT AND LOCAL DETERMINATION OF VIRTUAL OBJECT PLACEMENT AND SINGLE OR MULTIDIRECTIONAL OBJECTIVES AS GATEWAYS BETWEEN A PHYSICAL WORLD AND A DIGITAL WORLD COMPONENT OF THE SAME ENVIRONMENT OF INCREASED REALITY |
WO2019127079A1 (en) * | 2017-12-27 | 2019-07-04 | Bayerische Motoren Werke Aktiengesellschaft | Vehicle lane change prediction |
US10904374B2 (en) * | 2018-01-24 | 2021-01-26 | Magical Technologies, Llc | Systems, methods and apparatuses to facilitate gradual or instantaneous adjustment in levels of perceptibility of virtual objects or reality object in a digital scene |
US11398088B2 (en) | 2018-01-30 | 2022-07-26 | Magical Technologies, Llc | Systems, methods and apparatuses to generate a fingerprint of a physical location for placement of virtual objects |
US10747312B2 (en) * | 2018-03-14 | 2020-08-18 | Apple Inc. | Image enhancement devices with gaze tracking |
CN108489507B (zh) * | 2018-03-20 | 2021-01-26 | 京东方科技集团股份有限公司 | 导航装置及其工作方法、计算机可读存储介质 |
US20190303177A1 (en) * | 2018-03-29 | 2019-10-03 | Microsoft Technology Licensing, Llc | Adaptive User Interface Based On Detection Of User Positions |
US11262839B2 (en) | 2018-05-17 | 2022-03-01 | Sony Interactive Entertainment Inc. | Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment |
US10942564B2 (en) | 2018-05-17 | 2021-03-09 | Sony Interactive Entertainment Inc. | Dynamic graphics rendering based on predicted saccade landing point |
CN110547759B (zh) * | 2018-05-31 | 2024-08-16 | 托比股份公司 | 鲁棒会聚信号 |
US10725540B2 (en) * | 2018-06-29 | 2020-07-28 | International Business Machines Corporation | Augmented reality speed reading |
US10866635B2 (en) | 2018-09-13 | 2020-12-15 | Toyota Research Institute, Inc. | Systems and methods for capturing training data for a gaze estimation model |
US11467656B2 (en) | 2019-03-04 | 2022-10-11 | Magical Technologies, Llc | Virtual object control of a physical device and/or physical device control of a virtual object |
WO2020264101A1 (en) * | 2019-06-25 | 2020-12-30 | The Regents Of The University Of California | Systems and methods for characterizing joint attention during real world interaction |
US11367416B1 (en) * | 2019-06-27 | 2022-06-21 | Apple Inc. | Presenting computer-generated content associated with reading content based on user interactions |
US11042259B2 (en) * | 2019-08-18 | 2021-06-22 | International Business Machines Corporation | Visual hierarchy design governed user interface modification via augmented reality |
US11417228B2 (en) * | 2019-09-18 | 2022-08-16 | International Business Machines Corporation | Modification of extended reality environments based on learning characteristics |
KR20210034843A (ko) * | 2019-09-23 | 2021-03-31 | 삼성전자주식회사 | 차량의 제어 장치 및 방법 |
KR20220005958A (ko) * | 2020-07-07 | 2022-01-14 | 삼성전자주식회사 | 사용자의 시력을 교정하고 캘리브레이션을 수행하는 디바이스 및 방법 |
US11535253B2 (en) * | 2020-09-18 | 2022-12-27 | GM Global Technology Operations LLC | Lane change maneuver intention detection systems and methods |
JP7453652B2 (ja) * | 2020-11-10 | 2024-03-21 | 日本電信電話株式会社 | 視線情報提示装置、視線情報提示方法、及び視線情報提示プログラム |
US11567633B2 (en) * | 2021-02-08 | 2023-01-31 | Microsoft Technology Licensing, Llc | Intention image analysis for determining user focus |
US11775202B2 (en) * | 2021-07-12 | 2023-10-03 | EMC IP Holding Company LLC | Read stream identification in a distributed storage system |
US12096112B2 (en) * | 2021-07-29 | 2024-09-17 | Meta Platforms Technologies, Llc | User interface to select field of view of a camera in a smart glass |
US12032736B2 (en) * | 2022-02-23 | 2024-07-09 | International Business Machines Corporation | Gaze based text manipulation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010118292A1 (en) * | 2009-04-09 | 2010-10-14 | Dynavox Systems, Llc | Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods |
CN102834789A (zh) * | 2010-04-16 | 2012-12-19 | 高通股份有限公司 | 用于使虚拟键盘尺寸与用户手指大小动态相关的设备和方法 |
WO2013033842A1 (en) * | 2011-09-07 | 2013-03-14 | Tandemlaunch Technologies Inc. | System and method for using eye gaze information to enhance interactions |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6351273B1 (en) | 1997-04-30 | 2002-02-26 | Jerome H. Lemelson | System and methods for controlling automatic scrolling of information on a display or screen |
DK1607840T3 (da) * | 2004-06-18 | 2015-02-16 | Tobii Technology Ab | Øjenstyring af et computerapparat |
US7429108B2 (en) | 2005-11-05 | 2008-09-30 | Outland Research, Llc | Gaze-responsive interface to enhance on-screen user reading tasks |
US8494215B2 (en) | 2009-03-05 | 2013-07-23 | Microsoft Corporation | Augmenting a field of view in connection with vision-tracking |
US20100295774A1 (en) | 2009-05-19 | 2010-11-25 | Mirametrix Research Incorporated | Method for Automatic Mapping of Eye Tracker Data to Hypermedia Content |
CN101943982B (zh) | 2009-07-10 | 2012-12-12 | 北京大学 | 基于被跟踪的眼睛运动的图像操作 |
KR101596890B1 (ko) * | 2009-07-29 | 2016-03-07 | 삼성전자주식회사 | 사용자의 시선 정보를 이용한 디지털 오브젝트 탐색 장치 및 방법 |
GB2490864A (en) | 2011-05-09 | 2012-11-21 | Nds Ltd | A device with gaze tracking and zoom |
WO2013059647A1 (en) | 2011-10-21 | 2013-04-25 | New York University | Reducing visual crowding, increasing attention and improving visual span |
US9116926B2 (en) * | 2012-12-20 | 2015-08-25 | Google Inc. | Sharing photos |
-
2013
- 2013-06-06 US US13/911,867 patent/US9965062B2/en active Active
-
2014
- 2014-06-03 CN CN201480032122.7A patent/CN105339868B/zh active Active
- 2014-06-03 WO PCT/US2014/040584 patent/WO2014197409A1/en active Application Filing
- 2014-06-03 EP EP14737366.6A patent/EP3005035A1/en not_active Ceased
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010118292A1 (en) * | 2009-04-09 | 2010-10-14 | Dynavox Systems, Llc | Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods |
CN102834789A (zh) * | 2010-04-16 | 2012-12-19 | 高通股份有限公司 | 用于使虚拟键盘尺寸与用户手指大小动态相关的设备和方法 |
WO2013033842A1 (en) * | 2011-09-07 | 2013-03-14 | Tandemlaunch Technologies Inc. | System and method for using eye gaze information to enhance interactions |
Also Published As
Publication number | Publication date |
---|---|
US20140361971A1 (en) | 2014-12-11 |
WO2014197409A1 (en) | 2014-12-11 |
US9965062B2 (en) | 2018-05-08 |
CN105339868A (zh) | 2016-02-17 |
EP3005035A1 (en) | 2016-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105339868B (zh) | 基于眼睛跟踪的视觉增强 | |
US9773170B2 (en) | Pupil detection | |
US9329678B2 (en) | Augmented reality overlay for control devices | |
KR102334271B1 (ko) | 제스처 파라미터 튜닝 | |
CN106462233B (zh) | 用于显示设备观看者视线吸引的方法和设备 | |
EP3028121B1 (en) | Mixed reality graduated information delivery | |
US9030495B2 (en) | Augmented reality help | |
US11017257B2 (en) | Information processing device, information processing method, and program | |
US20130342568A1 (en) | Low light scene augmentation | |
US20140192084A1 (en) | Mixed reality display accommodation | |
CN106255943A (zh) | 身体锁定增强现实与世界锁定增强现实之间的转换 | |
US10725534B2 (en) | Apparatus and method of generating machine learning-based cyber sickness prediction model for virtual reality content | |
KR20140104661A (ko) | 시선 인식을 이용한 사용자 인터페이스 방법 및 장치 | |
KR20160121287A (ko) | 이벤트에 기반하여 화면을 디스플레이하는 방법 및 장치 | |
US20180190019A1 (en) | Augmented reality user interface visibility | |
KR20160046495A (ko) | 외부 물체의 움직임과 연관된 이벤트에 응답하여 화면을 디스플레이하는 장치 및 방법 | |
CN112154405A (zh) | 三维推送通知 | |
US20180005437A1 (en) | Virtual manipulator rendering | |
US20200302245A1 (en) | Action classification based on manipulated object movement | |
JP2017182247A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
EP2887639A1 (en) | Augmented reality information detail | |
EP2886173B1 (en) | Augmented reality overlay for control devices | |
WO2024085997A1 (en) | Triggering actions based on detected motions on an artificial reality device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |