CN100382744C - 促进视线跟踪数据应用的方法 - Google Patents
促进视线跟踪数据应用的方法 Download PDFInfo
- Publication number
- CN100382744C CN100382744C CNB02827783XA CN02827783A CN100382744C CN 100382744 C CN100382744 C CN 100382744C CN B02827783X A CNB02827783X A CN B02827783XA CN 02827783 A CN02827783 A CN 02827783A CN 100382744 C CN100382744 C CN 100382744C
- Authority
- CN
- China
- Prior art keywords
- data
- result data
- eye tracking
- accessible
- sight line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000000007 visual effect Effects 0.000 claims abstract description 20
- 230000015654 memory Effects 0.000 claims description 10
- 230000003542 behavioural effect Effects 0.000 claims description 8
- 230000003340 mental effect Effects 0.000 claims description 5
- 230000004048 modification Effects 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 5
- 230000002085 persistent effect Effects 0.000 claims description 5
- 230000035945 sensitivity Effects 0.000 claims description 5
- 210000001747 pupil Anatomy 0.000 claims description 2
- 230000000295 complement effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 3
- 238000004220 aggregation Methods 0.000 abstract 1
- 230000002776 aggregation Effects 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 19
- 230000004424 eye movement Effects 0.000 description 11
- 238000006073 displacement reaction Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 230000035479 physiological effects, processes and functions Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000222065 Lycoperdon Species 0.000 description 1
- 241000768494 Polymorphum Species 0.000 description 1
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000454 anti-cipatory effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000036391 respiratory frequency Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Ophthalmology & Optometry (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
个体视线跟踪数据可用于确定个体是否真的在看视野中的某一特定区域。对应多个个体的数据汇总可提供对图像表示(如网页,广告)以及可以被观察到的其他项目的设计者有用的趋势和其它数据。指示被观察区域和未观察区域的汇总观察数据的表示可用几种不同的技术实现。例如,观察某一特定区域的观察者数量的百分比可表示为某一特定颜色,或者是被观察的不同区域的背景图像。可根据与某一特定区域相关的观察行为的类型(如读、凝视)选择表示被观察的不同区域。
Description
技术领域
本发明涉及视线跟踪。更具体些,本发明涉及使用汇总视线跟踪数据的技术。
背景技术
目前存在当一个人参加某项活动如使用计算机系统时可跟踪那个人的视线移动的设备。视线跟踪设备通常包括一个摄像机和相关的电子元件以产生表示凝视位置的数据(或“凝视数据”)。该凝视数据可用于确定个体正在看哪里,这可以用注视(持续预定时间的稳定凝视)和扫视(在两点间的凝视移动)来描述。
当凝视数据与表示呈现给用户的图像的数据相结合时,结合数据指示那个人在观察什么(或“观察数据”)。例如,观察数据可用于确定,例如,观察者是否看了呈现出的所有信息。观察数据通常通过图像表现为一系列分别指示注视和扫视的圆圈和线条。典型的观察数据和观察数据的图像表示的一个缺点是只能表示单个用户的观察。
附图说明
本发明通过附图图形中的例子来说明,而不是用限制的方式说明,其中相似的标号表示相似的元件。
图1是具有视线跟踪功能的电子系统的一个实施例的框图。
图2表示覆盖有汇总视线跟踪数据的一个示范的万维网网页。
图3表示用于收集视线跟踪数据的第二个示范的万维网网页。
图4表示采用混合表示技术覆盖有汇总视线跟踪数据的第二个万维网网页。
图5表示可用于图像表示观察数据的视觉灵敏度梯度的一种形式。
图6是用于收集和表示汇总观察数据的技术的一个实施例的数据流程图。
图7是用于根据汇总观察数据修改视觉景象的技术的一个实施例的流程图。
具体实施方式
描述了一种使用视线跟踪数据的技术。在下面的描述中,为了说明的目的,列出了众多具体细节,以提供对本发明的全面理解。然而很显然,对本领域的技术人员来说即使没有这些具体细节也可以实现本发明。在其他例子中,用框图的形式表示结构和设备以免模糊本发明。
说明书中所指的“一个实施例”或“某一实施例”是指所述的与实施例相关的某一特定的特性、结构或特点包括在本发明的至少一个实施例中。在说明书中不同地方出现的短语“在一个实施例中”不一定是指同一实施例。
这里所描述的是包括汇总视线跟踪数据在内的技术。汇总可通过多种方式实现,例如,通过数据求和或平均数据。也可以使用包括但不限于除法、统计分析等的其他类型操作进行汇总。虽然这里描述为数据的求和和/或平均,但可用任何数据分析操作来汇总数据。
个体视线跟踪数据可用于确定个体是否确实在看视野中的某一特定区域。“区域”可以是视野中的任何部分,例如,区域可以是显示设备上的预定数目的像素,或物理环境中的一个区域。对应多个个体的数据汇总可以为图片表示(如网页,广告)以及可被观察的其他项目的设计者提供有用的趋势和其它数据。
指示被观察区域和未观察区域的汇总观察数据的表示可用几种不同的技术实现。例如,观察某一特定区域的观察者数目的百分比可表示为某一特定颜色,或者被观察的背景图像可根据灵敏度梯度和观察不同区域的个体数被模糊。可根据与某一特定区域相关的观察行为的类型(如读、凝视)选择表示为被观察的不同区域。
根据所涉及的环境和参与者,汇总观察数据可用于提供不同的结果。例如,汇总观察数据可由视觉显示表示,例如,通过打印数据的物理拷贝或用计算机显示器显示数据。汇总观察数据可用于修改被监视的区域。例如,与网页相关的汇总观察数据可用于修改网页而不产生汇总观察数据的物理表示。
在一个实施例中,这里描述的技术可实现为由电子系统执行的指令序列。指令序列可由电子系统存储,或者由电子设备(如通过网络连接)接收指令。指令可由多个电子系统执行。
例如,一个或多个视线跟踪系统可从各个用户收集视线跟踪数据,该数据(如通过网络)被传输到一个或多个编译和/或处理该数据的电子系统,然后该电子系统将处理数据提升为任何一种用户可访问的形式(如显示设备的图像输出、可通过服务器访问的文件、打印页、另一系统的输入)。作为另一个例子,所有的指令可由单个电子系统(如具有视线跟踪摄像机以及收集和处理视线跟踪数据的适当软件的计算机系统)执行。
图1是电子系统的一个实施例的框图。图1所示的电子系统用于代表一系列电子系统,如计算机系统、网络访问设备、个人数字助理(PDA)等。可替代的电子系统可包括更多、更少和/或不同的元件。为了简化说明,描述的电子系统100带有视线跟踪设备,然而,并不要求视线跟踪设备是处理视线跟踪数据的同一电子系统的一部分。
电子系统100包括总线101或用于传送信息的其它通讯设备,以及耦合到总线101以处理信息的处理器102。虽然电子系统100用单个处理器表示,电子系统100可包括多个处理器和/或协处理器。电子系统100还包括随机存取存储器(RAM)或其他动态存储设备104(称为存储器),耦合到总线101并存储信息和由处理器102执行的指令。存储器104也用于存储处理器102执行指令时的临时变量或其它中间信息。
电子系统100还包括耦合到总线101用于存储静态数据和处理器102指令的只读存储器(ROM)和/或其他静态存储设备106。数据存储设备107耦合到总线101以存储信息和指令。诸如磁盘或光盘及相应的驱动的数据存储设备107可以耦合到电子系统100。
存储器104包括操作视线跟踪数据166以产生观察数据的输出表示的视线跟踪应用软件162。其他视线跟踪数据(未示于图1中)可存储在存储设备107或通过网络接口130访问。下文用更详细的细节来描述视线跟踪应用软件162的特别功能和视线跟踪数据166的应用。
存储器104包含引导系统100运行的操作系统160。在一个实施例中,操作系统160是系统100的最高控制层。应用软件164是系统控制的较低层,因为他们在较高系统层容许的上下文中引导运行。应用软件164可包含用户程序(如文字处理软件、电子邮件(e-mail)程序)。
电子系统100也可以通过总线101耦合到诸如阴极射线管(CRT)或液晶显示器(LCD)的显示设备121,以向计算机用户显示信息。包括字母数字键和其他键的字母数字输入设备122,通常耦合到总线101以向处理器102传送信息和命令选择。另一种类型的用户输入设备是诸如鼠标、跟踪球或光标方向键的光标控制器123,用于将方向信息和命令选择传送给处理器102和控制显示器121上的光标移动。电子系统100还包括网络接口130,用于访问网络如局域网。
视线跟踪设备150耦合到总线101并产生可存储在存储器104和/或存储设备107中的视线跟踪数据166。视线跟踪设备150可以是本领域中任何一种已知的视线跟踪设备。例如,视线跟踪设备150可通过光、电、磁和/或其他技术跟踪视线移动。
指令通过可访问一个或多个电子可访问介质的有线或无线远程连接(如在通过网络接口130的网络上)从诸如磁盘、只读存储器(ROM)集成电路、CD-ROM、DVD的存储设备提供给存储器。在其他实施例中,硬连接电路可用于取代软件指令或与软件指令结合使用。这样,指令序列的执行不限于硬件电路和软件指令的任何特定结合。
电子可访问介质包括提供(即存储和/或传输)电子设备(如计算机、个人数字助理、便携式电话机)可读的内容(如计算机可执行指令)的任何机制。例如,机器可访问介质包括只读存储器(ROM),随机存取存储器(RAM),磁盘存储介质,光存储介质,闪存设备,电、光、声或传播信号的其他形式(如载波、红外信号、数字信号)等。
在一个实施例中,视线跟踪设备150产生表示视线位置和移动的原始数据。原始数据通过总线101传输到存储器104,存储为视线跟踪数据166。处理器102执行视线跟踪应用软件162,解释视线跟踪数据166。视线跟踪应用软件162解释不同级别的视线跟踪数据。
在最低级,视线跟踪数据被解释以确定基本特性。例如,视线跟踪数据可以是二维(x,y)视线凝视位置,三维(x,y,z)凝视位置,采样时间(t),瞳孔直径(d),眼睛是睁开还是闭合,和/或诸如生物反馈(如出汗、温度、心率、呼吸频率)信息的其他相关信息。凝视信息可包括持续时间、反应时间和/或与某一特定凝视有关的其他信息。例如,从视线跟踪数据确定的基本特性可以是注视(位置、时间和/或持续时间)、扫视(数量、方向和/或速率)、平滑追随动作(视线的路径、速率)、眨眼(持续时间)。
在一个实施例中,注视定义为在一定的空间-时间间隔中原始视线跟踪器数据统计上的大量群集。通过分析原始视线跟踪器数据流确定在预定的最小注视时间间隔内多数视线位置是否位于预定的最小注视空间间隔内来识别注视。例如,可分析原始视线跟踪器数据流以确定在50ms的时间间隔内是否至少80%的视线位置位于0.25度的空间间隔。也可以使用其他数值和其他技术来识别注视。本领域中许多技术是已知的,可以采用识别注视的任何技术。
扫视可定义为两个注视间的位移和方向。从原始视线跟踪器数据流也可以确定其他基本特性,如眨眼、平滑追随动作和眼睛在头中转动的角度。
然后可解释这些基本特性以确定眼动模式。例如,眼动模式可以包括再访、重要注视、垂直扫视、水平扫视、短扫视系列等。在一个实施例中,眼动模式是满足与预定眼动模式模板相关的一组标准的基本特性的组合。在一个实施例中,可在每个扫视后分析基本特性以确定是否存在预定的眼动模式。
在一个实施例中,眼动模式定义如下,然而,可以用眼动模式的其他定义以及可以定义其他的眼动模式。“再访”是5个最近注视之一的1.2度内的当前注视,不包括当前注视前紧邻的那个注视。在一个实施例中,“重要注视”是与同一范畴内的其他注视相比持续时间长得多的注视。
“垂直扫视”是垂直(y)位移多于水平(x)位移的两倍并且水平位移小于1度的扫视。“水平扫视”是水平位移多于垂直位移的两倍并且垂直位移小于1度的扫视。“短扫视系列”是总体距离跨度超过5度的一系列短扫视。
眼动模式可提供有关观察者精神状态的信息。例如,如果观察者从注视作了一个小扫视,观察者作了一个可辨识的移动因为他们通过周围视觉移动到了一个可视区域。作为另一个例子,短扫视系列指示观察者在看本地的一个物体。后面紧跟着少量小扫视的重要注视后的大扫视指示到记忆位置的可辨识移动。多个大扫视指示全局搜索,这发生在观察者在大区域搜索目标的时候。
眼动模式被解释以确定视线行为模式。视线行为模式是满足预定准则的一个或多个眼动模式。通常,视线行为模式的识别不需要观察者视野的预先知识。这样,可以不参考视野而推断出观察者的精神状态。然而,精神状态和/或视线到视野移动的图像表示应用可提供对设计、使用、修改或有关观察者视野内容的其他目的有用的信息。
下面的视线行为模式的例子和定义是代表性的而不是穷举性的。可以支持其他和/或不同的视线行为模式。不同的定义也可以适用于个体视线行为模式。“最优线”是至少两个向左或向右的水平扫视的一个序列。“读”是向右的一个最优线(对于英语和从左向右读的其他语言)或者当当前状态是读时的一个短水平扫视。
“读块”是被向左的大扫视分开的向右的最优线的一个序列,其中最优线被规则地隔成向下的序列且(典型地)具有类似的长度。“再读”是读先前读过的区域。“扫描”或“浏览”是由具有向下元素的大扫视连接的向右的最优线的一个序列,其中最优线不是规则地被分开或具有相等的长度。
例如,“思考”由被短扫视分开的几个长注视定义。例如“隔开”由被持续很长时间的短扫视分开的几个长注视定义。“搜索”是一个短扫视系列、多个大扫视或自上次重要注视或用户状态变化以来的许多扫视。“再认识”类似于具有较长注视和一致节奏的搜索。
图2表示了覆盖有汇总视线跟踪数据的一个示范万维网页。对一组观察者的其他视野类型也可以积累和表示汇总视线跟踪数据。例如,对一组读书的观察者,或者对诸如艺术作品或汽车的三维物体观察者可收集视线跟踪数据。可用多种技术积累汇总视线跟踪数据。
在一个实施例中,可由电子系统(如计算机系统)汇总来自多个个体的视线跟踪数据(来自多个视线跟踪设备或单个视线跟踪设备),该汇总视线跟踪数据可用于生成汇总视线跟踪数据的图像表示。在另一个实施例中,来自单个个体的视线跟踪数据可用于生成视线跟踪数据的图像表示。来自另一个个体的视线跟踪数据可在图像上与该图像表示结合以产生结合两个个体的图像表示。该过程对于任何数量的个体都可以重复。
网页200给出观察者可观察到的图像和文本域的结合。例如,图像250表示遛狗的人。在一个实施例中,区域210和215在指示器内提供观察该区域的观察者的百分比(或总数)指示。一般而言,与区域215相比,跟踪到的观察区域210内的区域的观察者百分比较大。例如,对不同区域,该差别可表现为不同颜色,不同区域可有不同程度的模糊,和/或区域的不透明度可指示观察百分比或数量。
在一个实施例中,如果区域的边界环绕基本特性(如注视或凝视)的边界,就认为该区域被观察。在其他实施例中,例如,当区域小于用于指示注视或凝视的区域时,如果基本特性与区域交叠,就认为该区域被观察。在一个实施例中,不同形状可与不同的基本特性相结合。
在一个实施例中,根据与背景区域相关的视线行为模式选择区域的形状。例如,注视可表示为圆,瞥表示为大圆,读表示为矩形区域。区域220、222、224和230提供观察者读的例子。在图2的例子中,区域220指示读取文本的前三个单词的观察者的百分比/数量。区域222指示读取文本的第一行的观察者的百分比/数量。区域224指示读取整段的观察者的百分比/数量。区域230指示读取广告的标题的观察者的百分比/数量。
可根据背景观察区域选择各个区域指示观察特定区域的观察者数目的方式。例如,灰色或灰影可用于指示观察某一特定区域的观察者的数目和/或百分比,或者也可以用模糊。也可用这些或类似技术指示其他观察数据,例如每个区域被观察的时间长短,或提供时延的指示。可提供另外的指示器来表示观察者动作。例如,如果一个或多个观察者点击“更多”链接来读取另外的文本,采取动作的指示可覆盖在“更多”链接上。可也提供其他的动作指示器。
图3表示用于收集视线跟踪数据的第二个示范万维网页。网页300是一个虚构的网页,作为可收集视线跟踪数据的典型网页的例子。当观察者通过读、浏览、点击或以其他方式观察网页300而与网页300交互时,视线跟踪设备,如显示设备下面的摄像机显示网页300;然而,视线跟踪设备可放在能充分接近观察者的眼睛以提供视线跟踪数据的任何位置。
图4表示采用混合表示技术覆盖有汇总视线跟踪数据的网页300。在一个实施例中,产生一个汇总观察面具,其中观察网页300的某一特定区域的观察者的百分比决定区域的不透明性。在α混合操作中,汇总观察面具用作前景,被观察图像用作背景。例如,如果100%的观察者观察区域,区域的不透明性为0%。换句话说,区域是透明的且相应的背景区域不会被前景区域遮蔽。作为另一个例子,如果50%的观察者观察区域,区域的不透明性为50%,或50%是透明的。
在一个实施例中,汇总观察面具与网页300进行α混合。α混合是将前景图像(如观察面具)与背景图像(如网页300)结合以产生新的混合图像的过程。前景图像的半透明程度可在完全透明到完全不透明间变化。如果前景图像完全透明,混合图像就是背景图像。相反地,如果前景图像完全不透明,混合图像就是前景图像。当然,半透明可在这些极端间变化,这种情况下混合图像计算为前景和背景图像的加权平均。
在一个实施例中,背景图像的半透明度为20%,前景图像的半透明度为80%。根据观察背景图像的某一区域的观察者的百分比/数量选择每个区域的颜色。作为观察百分比的另一个指示器,可根据观察某一区域的观察者的百分比/数量对不同区域进行颜色编码。
在另一个实施例中,模糊了网页300的背景图像以表示观察百分比/数量。在一个实施例中,根据表示人眼实际所看的灵敏度梯度进行模糊。
图5表示可用的视觉灵敏度梯度的一种形式。图5中的梯度来自1974年C.V.莫斯比(Mosby)公司出版的弗农·B.·山城堡(Vernon B.Mountcastle)的第一卷“医学生理学”(Medical Physiology,Volume One)的463页。在另一个可替代的实施例中,用作前景图像的汇总观察面具可包括观察某一特定区域的人的百分比/数量的灰度色标指示。例如,较浅的灰色阴影可指示较高的观察百分比而较深的灰色阴影表示较低的观察百分比。然后前景图像与背景图像进行α混合以产生汇总观察数据的视觉表示。
图6是收集和表示汇总观察数据的技术的一个实施例的数据流程图。图6的例子产生与观察数据的颜色表示进行了α混合的观察表示。如上所述,可以用其他类型的表示。在一个实施例中,图6的流程由电子系统完成,例如,图2的电子系统;然而,可以采用任何硬件软件的结合、硬件或软件。
信息呈现给观察者610。呈现给用户的信息可以是,例如,计算机系统的显示设备上的网页或一本书或其他类型的信息。放置视线跟踪设备以跟踪观察信息者的视线。例如,可将具有视线跟踪功能的摄像机放置在计算机系统的显示设备的底部或将摄像机放置在书本顶部。可以采用本领域已知的跟踪视线移动的任何技术和/或设备。
获取个体的视线跟踪数据620。视线跟踪数据由计算机系统或其他数据获取设备存储以进行后续处理。如果在630没有获得所有被跟踪个体的视线跟踪数据,获取另一个个体的视线跟踪数据620。
如果在630获得了所有被跟踪的个体的视线跟踪数据,各个信息区域的个体数据被求和和/或平均640。在一个实施例中,一个区域由网页上的一个像素区域组成。然而,可用任何数目的像素来定义区域。也可以采用信息区域的其他定义。例如,可以通过确定是否每个个体观察者观察了某一特定区域以及求观察该区域的观察者人数总和来实现个体观察数据的求和。然后总和或平均数与每个区域相结合以产生汇总观察数据的表示。汇总观察数据的总和是汇总观察面具。
在一个实施例中,根据区域的汇总观察数据为每个区域分配颜色650。也可以采用不是颜色表示,例如,可以用灰度色标或模糊。在一个实施例中,红色和橙色阴影用于表示观察某一特定区域的大多数观察者,绿色和蓝色阴影用于表示观察该区域的少数观察者,黑色或灰色表示没有观察者观察该区域。也可以采用其他的颜色方案。
在信息和汇总观察面具的表示上进行α混合,660。在一个实施例中,背景图像(如观察者所观察的网页)分配了20%的不透明,前景图像(如汇总观察面具)分配了80%的不透明。除汇总观察面具上的颜色外,根据实际观察区域的观察者的百分比,各个区域也可以有不透明性。显示α混合图像670。
图7是根据汇总观察数据修改视觉景象的技术的一个实施例的数据流程图。在一个实施例中,图7的流程由电子系统完成,例如,图2的电子系统;然而,可以采用任何硬件软件的结合、硬件或软件。
信息呈现给观察者710。呈现给用户的信息可以是,例如,计算机系统的显示设备上的网页或应用程序或其他类型的信息。放置视线跟踪设备以跟踪观察信息者的视线。可以采用本领域已知的跟踪视线移动的任何技术和/或设备。
获取个体的视线跟踪数据720。视线跟踪数据由计算机系统或其他数据获取设备存储以进行后续处理。如果在730没有获得所有被跟踪个体的视线跟踪数据,获取另一个个体的视线跟踪数据720。
如果在730获得了所有被跟踪个体的视线跟踪数据,各个信息区域的个体数据被求和且平均740。然后汇总数据被用于修改呈现给用户的信息750。例如,可以根据汇总数据修改网页的布局。作为另一个例子,可以根据汇总数据修改应用程序的布局。汇总数据也可以用来修改其它类型的信息。
在前述的说明书中,与具体实施例相结合描述了本发明。然而,很明显,可以对其进行各种修改和变化而不偏离本发明的较宽的实质和范围。因此,说明书和附图应被看作是例示作用而不是限制作用。
Claims (21)
1.一种方法,包括:
获取代表多个个体视线移动的数据;
产生描述多个个体视线移动的视觉表示的结果数据,其中所述视觉表示对应于多个个体的汇总视线移动数据;以及
将结果数据提升到用户可访问的状态。
2.如权利要求1所述的方法,其中将结果数据提升到用户可访问的状态包括用显示设备显示结果数据。
3.如权利要求1所述的方法,其中将结果数据提升到用户可访问的状态包括在电子可访问介质上存储结果数据。
4.如权利要求1所述的方法,其中视觉表示至少描述多个个体观察的根据表示多个个体视线移动的数据进行了视觉修改的视觉景象的一部分。
5.如权利要求4所述的方法,还包括在生成视觉表示前汇总两个或更多个体的个体视线跟踪数据形成汇总视线跟踪数据,其中根据汇总视线跟踪数据修改视觉景象。
6.如权利要求4所述的方法,其中生成描述多个个体视线移动的视觉表示的结果数据包括生成描述在多个个体的选定子组和剩余多个个体之间差别的结果数据。
7.如权利要求4所述的方法,其中视觉改变包括改变未被个体观察到的视觉景象的区域。
8.如权利要求1所述的方法,其中多个个体的视线移动对应于从电子系统的显示设备读取信息的多个个体。
9.如权利要求1所述的方法,还包括在视觉表示中提供一个或多个用户的一个或多个预定状态的表示。
10.如权利要求9所述的方法,其中预定状态包括下面一组状态中的一个或多个:光标控制选择、凝视起点、凝视终点、瞳孔数据、凝视持续时间、生物反馈指示器以及精神状态。
11.如权利要求10所述的方法,其中跟踪个体的视线移动包括通过将一个或多个视线移动模式与一个或多个视线行为模式模板相匹配来确定精神状态。
12.如权利要求1所述的方法,其中结果数据包括根据适用于表示视线移动的数据的视觉灵敏度梯度模糊图像。
13.如权利要求12所述的方法,其中将结果数据提升到用户可访问的状态包括用显示设备显示结果数据。
14.如权利要求12所述的方法,其中将结果数据提升到用户可访问的状态包括在电子可访问介质上存储结果数据。
15.根据权利要求1所述的方法,其中结果数据包括表示视线移动的数据的图像和色彩表示的α混合。
16.如权利要求15所述的方法,其中将结果数据提升到用户可访问的状态包括用显示设备显示结果数据。
17.如权利要求15所述的方法,其中将结果数据提升到用户可访问的状态包括在电子可访问介质上存储结果数据。
18.如权利要求1所述的方法,还包括至少部分根据结果数据修改视觉景象。
19.如权利要求18所述的方法,其中多个个体的视线移动对应于从电子系统的显示设备读取信息的多个个体。
20.如权利要求18所述的方法,其中修改视觉景象包括修改提供视觉景象的网页的布局。
21.如权利要求18所述的方法,其中修改视觉景象包括修改提供视觉景象的应用程序的布局。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/017,540 | 2001-12-12 | ||
US10/017,540 US6712468B1 (en) | 2001-12-12 | 2001-12-12 | Techniques for facilitating use of eye tracking data |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1688242A CN1688242A (zh) | 2005-10-26 |
CN100382744C true CN100382744C (zh) | 2008-04-23 |
Family
ID=21783163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB02827783XA Expired - Fee Related CN100382744C (zh) | 2001-12-12 | 2002-12-11 | 促进视线跟踪数据应用的方法 |
Country Status (8)
Country | Link |
---|---|
US (2) | US6712468B1 (zh) |
EP (1) | EP1465522A4 (zh) |
JP (1) | JP4299138B2 (zh) |
KR (1) | KR100976357B1 (zh) |
CN (1) | CN100382744C (zh) |
AU (1) | AU2002359678A1 (zh) |
HK (1) | HK1085894A1 (zh) |
WO (1) | WO2003050658A2 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI796761B (zh) * | 2021-08-19 | 2023-03-21 | 崑山科技大學 | 具有顯示功能的廣告包 |
Families Citing this family (149)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070078552A1 (en) * | 2006-01-13 | 2007-04-05 | Outland Research, Llc | Gaze-based power conservation for portable media players |
DE50012364D1 (de) * | 2000-05-16 | 2006-05-04 | Swisscom Mobile Ag | Verfahren und terminal zur eingabe von instruktionen |
US7000184B2 (en) * | 2003-01-24 | 2006-02-14 | The Cobalt Group, Inc. | Remote web site editing in a standard web browser without external software |
US20040174497A1 (en) * | 2003-03-07 | 2004-09-09 | Manish Sharma | Method and system for controlling the movement of a device |
US9274598B2 (en) * | 2003-08-25 | 2016-03-01 | International Business Machines Corporation | System and method for selecting and activating a target object using a combination of eye gaze and key presses |
US9652032B2 (en) * | 2004-03-02 | 2017-05-16 | Brian T. Mitchell | Simulated training environments based upon fixated objects in specified regions |
US7331929B2 (en) * | 2004-10-01 | 2008-02-19 | General Electric Company | Method and apparatus for surgical operating room information display gaze detection and user prioritization for control |
WO2006060889A1 (en) * | 2004-12-09 | 2006-06-15 | Cmetrics Media Inc. | Method and system for assessing viewership of a medium |
US7438418B2 (en) | 2005-02-23 | 2008-10-21 | Eyetracking, Inc. | Mental alertness and mental proficiency level determination |
US7344251B2 (en) * | 2005-02-23 | 2008-03-18 | Eyetracking, Inc. | Mental alertness level determination |
US7922670B2 (en) * | 2005-02-24 | 2011-04-12 | Warren Jones | System and method for quantifying and mapping visual salience |
WO2006110472A2 (en) * | 2005-04-07 | 2006-10-19 | User Centric, Inc. | Website evaluation tool |
EP1913555B1 (en) * | 2005-08-04 | 2018-05-23 | Philips Lighting Holding B.V. | Apparatus for monitoring a person having an interest to an object, and method thereof |
US8775975B2 (en) | 2005-09-21 | 2014-07-08 | Buckyball Mobile, Inc. | Expectation assisted text messaging |
JP4929681B2 (ja) * | 2005-11-02 | 2012-05-09 | トヨタ自動車株式会社 | 眼球停留関連電位解析装置及び解析方法 |
US8602791B2 (en) * | 2005-11-04 | 2013-12-10 | Eye Tracking, Inc. | Generation of test stimuli in visual media |
WO2007056373A2 (en) | 2005-11-04 | 2007-05-18 | Eyetracking, Inc. | Characterizing dynamic regions of digital media data |
US7429108B2 (en) * | 2005-11-05 | 2008-09-30 | Outland Research, Llc | Gaze-responsive interface to enhance on-screen user reading tasks |
US20060256133A1 (en) * | 2005-11-05 | 2006-11-16 | Outland Research | Gaze-responsive video advertisment display |
JP5044237B2 (ja) * | 2006-03-27 | 2012-10-10 | 富士フイルム株式会社 | 画像記録装置、画像記録方法、および画像記録プログラム |
CN101506849B (zh) * | 2006-06-27 | 2011-12-07 | 中央大学 | 可见性评估方法和评估系统 |
US9606621B2 (en) | 2006-07-28 | 2017-03-28 | Philips Lighting Holding B.V. | Gaze interaction for information display of gazed items |
US7987984B2 (en) * | 2006-09-26 | 2011-08-02 | The Procter & Gamble Company | Method of marketing for absorbent paper products through branded print packaging |
US20080147488A1 (en) * | 2006-10-20 | 2008-06-19 | Tunick James A | System and method for monitoring viewer attention with respect to a display and determining associated charges |
US8341022B2 (en) * | 2006-12-30 | 2012-12-25 | Red Dot Square Solutions Ltd. | Virtual reality system for environment building |
WO2008081412A1 (en) * | 2006-12-30 | 2008-07-10 | Kimberly-Clark Worldwide, Inc. | Virtual reality system including viewer responsiveness to smart objects |
US8370207B2 (en) * | 2006-12-30 | 2013-02-05 | Red Dot Square Solutions Limited | Virtual reality system including smart objects |
US20080202968A1 (en) * | 2007-02-23 | 2008-08-28 | Thorsten Knobloch | Array of sanitary tissue products |
US9242775B2 (en) * | 2007-02-23 | 2016-01-26 | The Procter & Gamble Company | Array of sanitary tissue products |
US9327888B2 (en) | 2007-02-23 | 2016-05-03 | The Procter & Gamble Company | Array of sanitary tissue products |
US20080245491A1 (en) * | 2007-02-23 | 2008-10-09 | Thorsten Knobloch | Array of sanitary tissue products |
US8662301B2 (en) * | 2007-02-23 | 2014-03-04 | The Procter & Gamble Company | Array of particular tissue products |
JP5309126B2 (ja) | 2007-03-29 | 2013-10-09 | ニューロフォーカス・インコーポレーテッド | マーケティング及びエンタテインメントの効率解析を行うシステム、方法、及び、装置 |
CA2682776A1 (en) * | 2007-04-04 | 2008-10-16 | The Procter & Gamble Company | Sanitary tissue product roll |
WO2008137579A1 (en) | 2007-05-01 | 2008-11-13 | Neurofocus, Inc. | Neuro-informatics repository system |
WO2008137581A1 (en) * | 2007-05-01 | 2008-11-13 | Neurofocus, Inc. | Neuro-feedback based stimulus compression device |
US8392253B2 (en) | 2007-05-16 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-physiology and neuro-behavioral based stimulus targeting system |
WO2008141340A1 (en) * | 2007-05-16 | 2008-11-20 | Neurofocus, Inc. | Audience response measurement and tracking system |
US8494905B2 (en) | 2007-06-06 | 2013-07-23 | The Nielsen Company (Us), Llc | Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI) |
US20090030287A1 (en) * | 2007-06-06 | 2009-01-29 | Neurofocus Inc. | Incented response assessment at a point of transaction |
EP2165538A2 (en) * | 2007-06-08 | 2010-03-24 | Sorensen Associates Inc. | Shopper view tracking and analysis system and method |
US20090036755A1 (en) * | 2007-07-30 | 2009-02-05 | Neurofocus, Inc. | Entity and relationship assessment and extraction using neuro-response measurements |
JP5542051B2 (ja) | 2007-07-30 | 2014-07-09 | ニューロフォーカス・インコーポレーテッド | 神経応答刺激及び刺激属性共鳴推定を行うシステム、方法、及び、装置 |
KR20100047865A (ko) * | 2007-08-28 | 2010-05-10 | 뉴로포커스, 인크. | 소비자 경험 평가 시스템 |
US8386313B2 (en) | 2007-08-28 | 2013-02-26 | The Nielsen Company (Us), Llc | Stimulus placement system using subject neuro-response measurements |
US8635105B2 (en) | 2007-08-28 | 2014-01-21 | The Nielsen Company (Us), Llc | Consumer experience portrayal effectiveness assessment system |
US8392255B2 (en) | 2007-08-29 | 2013-03-05 | The Nielsen Company (Us), Llc | Content based selection and meta tagging of advertisement breaks |
US20090057171A1 (en) * | 2007-08-31 | 2009-03-05 | Connie Marie Roetker | Array of paper towel products |
US20090056891A1 (en) * | 2007-08-31 | 2009-03-05 | Kevin Mitchell Wiwi | Array of paper towel products |
US20090056435A1 (en) * | 2007-09-05 | 2009-03-05 | Duval Dean Larry | Product array and method of merchandising tissue products |
US20090083129A1 (en) | 2007-09-20 | 2009-03-26 | Neurofocus, Inc. | Personalized content delivery using neuro-response priming data |
US8494610B2 (en) * | 2007-09-20 | 2013-07-23 | The Nielsen Company (Us), Llc | Analysis of marketing and entertainment effectiveness using magnetoencephalography |
US20090082692A1 (en) * | 2007-09-25 | 2009-03-26 | Hale Kelly S | System And Method For The Real-Time Evaluation Of Time-Locked Physiological Measures |
US8327395B2 (en) * | 2007-10-02 | 2012-12-04 | The Nielsen Company (Us), Llc | System providing actionable insights based on physiological responses from viewers of media |
US20090113297A1 (en) * | 2007-10-24 | 2009-04-30 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Requesting a second content based on a user's reaction to a first content |
WO2009059246A1 (en) | 2007-10-31 | 2009-05-07 | Emsense Corporation | Systems and methods providing en mass collection and centralized processing of physiological responses from viewers |
ITFI20080049A1 (it) * | 2008-03-12 | 2009-09-13 | Sr Labs Srl | Apparato per la creazione, il salvataggio e la formattazione di documenti testuali tramite controllo oculare e metodo associato basato sul posizionamento ottimizzato del cursore. |
US20110141223A1 (en) * | 2008-06-13 | 2011-06-16 | Raytheon Company | Multiple Operating Mode Optical Instrument |
US20100045596A1 (en) * | 2008-08-21 | 2010-02-25 | Sony Ericsson Mobile Communications Ab | Discreet feature highlighting |
US20100145215A1 (en) * | 2008-12-09 | 2010-06-10 | Neurofocus, Inc. | Brain pattern analyzer using neuro-response data |
US20100169792A1 (en) * | 2008-12-29 | 2010-07-01 | Seif Ascar | Web and visual content interaction analytics |
US9357240B2 (en) * | 2009-01-21 | 2016-05-31 | The Nielsen Company (Us), Llc | Methods and apparatus for providing alternate media for video decoders |
US8270814B2 (en) * | 2009-01-21 | 2012-09-18 | The Nielsen Company (Us), Llc | Methods and apparatus for providing video with embedded media |
US8464288B2 (en) * | 2009-01-21 | 2013-06-11 | The Nielsen Company (Us), Llc | Methods and apparatus for providing personalized media in video |
US20100250325A1 (en) | 2009-03-24 | 2010-09-30 | Neurofocus, Inc. | Neurological profiles for market matching and stimulus presentation |
US20100249636A1 (en) * | 2009-03-27 | 2010-09-30 | Neurofocus, Inc. | Personalized stimulus placement in video games |
US20100295774A1 (en) * | 2009-05-19 | 2010-11-25 | Mirametrix Research Incorporated | Method for Automatic Mapping of Eye Tracker Data to Hypermedia Content |
US20110046473A1 (en) * | 2009-08-20 | 2011-02-24 | Neurofocus, Inc. | Eeg triggered fmri signal acquisition |
US20110046502A1 (en) * | 2009-08-20 | 2011-02-24 | Neurofocus, Inc. | Distributed neuro-response data collection and analysis |
US8655437B2 (en) * | 2009-08-21 | 2014-02-18 | The Nielsen Company (Us), Llc | Analysis of the mirror neuron system for evaluation of stimulus |
US10987015B2 (en) * | 2009-08-24 | 2021-04-27 | Nielsen Consumer Llc | Dry electrodes for electroencephalography |
US8756657B2 (en) * | 2009-09-29 | 2014-06-17 | Ebay Inc. | Mobile or user device authentication and tracking |
US20110106750A1 (en) | 2009-10-29 | 2011-05-05 | Neurofocus, Inc. | Generating ratings predictions using neuro-response data |
US9560984B2 (en) | 2009-10-29 | 2017-02-07 | The Nielsen Company (Us), Llc | Analysis of controlled and automatic attention for introduction of stimulus material |
US8209224B2 (en) * | 2009-10-29 | 2012-06-26 | The Nielsen Company (Us), Llc | Intracluster content management using neuro-response priming data |
US8335716B2 (en) * | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Multimedia advertisement exchange |
US8335715B2 (en) * | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Advertisement exchange using neuro-response data |
WO2011133548A2 (en) | 2010-04-19 | 2011-10-27 | Innerscope Research, Inc. | Short imagery task (sit) research method |
US8655428B2 (en) | 2010-05-12 | 2014-02-18 | The Nielsen Company (Us), Llc | Neuro-response data synchronization |
US8375305B1 (en) | 2010-05-14 | 2013-02-12 | Amazon Technologies, Inc. | Placement of user interface elements based on a window entry or exit point |
US8392250B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-response evaluated stimulus in virtual reality environments |
US8392251B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Location aware presentation of stimulus material |
WO2012021967A1 (en) | 2010-08-16 | 2012-02-23 | Tandemlaunch Technologies Inc. | System and method for analyzing three-dimensional (3d) media content |
US8396744B2 (en) | 2010-08-25 | 2013-03-12 | The Nielsen Company (Us), Llc | Effective virtual reality environments for presentation of marketing materials |
US20120089488A1 (en) * | 2010-10-12 | 2012-04-12 | Michael Letchford | Virtual reality system including smart objects |
US10482475B2 (en) | 2011-02-10 | 2019-11-19 | Adp Dealer Services, Inc. | Systems and methods for providing targeted advertising |
EP2693348A4 (en) * | 2011-03-30 | 2014-12-03 | Nec Corp | DATA-SAVING ESTIMATION DEVICE, DATA-PARENT ESTIMATING METHOD, AND RECORDING MEDIUM |
US20130022947A1 (en) * | 2011-07-22 | 2013-01-24 | Muniz Simas Fernando Moreira | Method and system for generating behavioral studies of an individual |
US9256285B2 (en) | 2011-08-19 | 2016-02-09 | Thompson Licensing Sa | Method for gaze-controlled text size control, and methods for gaze-based measuring of a text reading speed and of a number of visual saccades per text line |
WO2013026725A1 (en) * | 2011-08-19 | 2013-02-28 | Thomson Licensing | Method for gaze-controlled text size control,and methods for gaze-based measuring of a text reading speed and of a number of visual saccades per text line |
US8854282B1 (en) | 2011-09-06 | 2014-10-07 | Google Inc. | Measurement method |
US9292858B2 (en) | 2012-02-27 | 2016-03-22 | The Nielsen Company (Us), Llc | Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments |
US9569986B2 (en) | 2012-02-27 | 2017-02-14 | The Nielsen Company (Us), Llc | System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications |
US9451303B2 (en) | 2012-02-27 | 2016-09-20 | The Nielsen Company (Us), Llc | Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing |
WO2013169237A1 (en) * | 2012-05-09 | 2013-11-14 | Intel Corporation | Eye tracking based selective accentuation of portions of a display |
US9239956B2 (en) * | 2012-06-28 | 2016-01-19 | Oliver Hein | Method and apparatus for coding of eye and eye movement data |
DE102012105664A1 (de) * | 2012-06-28 | 2014-04-10 | Oliver Hein | Verfahren und Vorrichtung zur Kodierung von Augen- und Blickverlaufsdaten |
US8989835B2 (en) | 2012-08-17 | 2015-03-24 | The Nielsen Company (Us), Llc | Systems and methods to gather and analyze electroencephalographic data |
US9189064B2 (en) * | 2012-09-05 | 2015-11-17 | Apple Inc. | Delay of display event based on user gaze |
US8990843B2 (en) * | 2012-10-26 | 2015-03-24 | Mobitv, Inc. | Eye tracking based defocusing |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
CN104903818B (zh) | 2012-12-06 | 2018-12-14 | 谷歌有限责任公司 | 眼睛跟踪佩戴式设备和使用方法 |
BR112015013489A2 (pt) | 2012-12-11 | 2017-07-11 | Klin Ami | sistemas e métodos para a detecção de blink inibição como um marcador de engajamento e percebido saliência estímulo |
KR102004000B1 (ko) * | 2012-12-26 | 2019-07-25 | 두산인프라코어 주식회사 | 헤드업 디스플레이를 이용한 건설기계의 작업 가이드 디스플레이 장치 및 방법 |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US9320450B2 (en) | 2013-03-14 | 2016-04-26 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
US11080734B2 (en) | 2013-03-15 | 2021-08-03 | Cdk Global, Llc | Pricing system for identifying prices for vehicles offered by vehicle dealerships and other entities |
AU2014234955B2 (en) * | 2013-03-19 | 2020-01-02 | Commonwealth Scientific And Industrial Research Organisation | Automatic detection of task transition |
US10402846B2 (en) | 2013-05-21 | 2019-09-03 | Fotonation Limited | Anonymizing facial expression data with a smart-cam |
KR101529241B1 (ko) * | 2013-10-07 | 2015-06-17 | 황성재 | 전자기기의 컨텐츠 기반 전자 기기 제어 시스템 및 방법 |
MX2016004899A (es) | 2013-10-17 | 2017-01-18 | Children's Healthcare Of Atlanta Inc | Metodos para evaluar el desarrollo de bebes y niños via rastreo ocular. |
US9622702B2 (en) | 2014-04-03 | 2017-04-18 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
CA2947424A1 (en) * | 2014-04-28 | 2015-11-05 | Tobii Ab | Determination of attention towards stimuli based on gaze information |
US10222953B2 (en) * | 2014-04-30 | 2019-03-05 | Disney Enterprises, Inc. | Systems and methods for editing virtual content of a virtual space |
US10620700B2 (en) | 2014-05-09 | 2020-04-14 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
US10564714B2 (en) | 2014-05-09 | 2020-02-18 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
US9736503B1 (en) * | 2014-09-12 | 2017-08-15 | Google Inc. | Optimizing timing of display of a mid-roll video advertisement based on viewer retention data |
GB2532243A (en) * | 2014-11-13 | 2016-05-18 | Nokia Technologies Oy | An apparatus, method and computer program for using gaze tracking information |
US9792008B2 (en) | 2014-12-16 | 2017-10-17 | Salesforce.Com, Inc. | User interface with analytics overlay |
US9936250B2 (en) | 2015-05-19 | 2018-04-03 | The Nielsen Company (Us), Llc | Methods and apparatus to adjust content presented to an individual |
US10871821B1 (en) | 2015-10-02 | 2020-12-22 | Massachusetts Mutual Life Insurance Company | Systems and methods for presenting and modifying interactive content |
US10825058B1 (en) * | 2015-10-02 | 2020-11-03 | Massachusetts Mutual Life Insurance Company | Systems and methods for presenting and modifying interactive content |
US10867285B2 (en) | 2016-04-21 | 2020-12-15 | Cdk Global, Llc | Automatic automobile repair service scheduling based on diagnostic trouble codes and service center attributes |
US10332068B2 (en) | 2016-04-21 | 2019-06-25 | Cdk Global, Llc | Systems and methods for stocking an automobile |
US10853769B2 (en) | 2016-04-21 | 2020-12-01 | Cdk Global Llc | Scheduling an automobile service appointment in a dealer service bay based on diagnostic trouble codes and service bay attributes |
US10467658B2 (en) | 2016-06-13 | 2019-11-05 | International Business Machines Corporation | System, method and recording medium for updating and distributing advertisement |
US10880086B2 (en) | 2017-05-02 | 2020-12-29 | PracticalVR Inc. | Systems and methods for authenticating a user on an augmented, mixed and/or virtual reality platform to deploy experiences |
US10326858B2 (en) | 2017-05-23 | 2019-06-18 | Cdk Global, Llc | System and method for dynamically generating personalized websites |
TWI642030B (zh) * | 2017-08-09 | 2018-11-21 | 宏碁股份有限公司 | 視覺效用分析方法及相關眼球追蹤裝置與系統 |
CN111629653B (zh) | 2017-08-23 | 2024-06-21 | 神经股份有限公司 | 具有高速眼睛跟踪特征的大脑-计算机接口 |
WO2019094953A1 (en) | 2017-11-13 | 2019-05-16 | Neurable Inc. | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
CN111712192B (zh) | 2018-01-18 | 2024-07-02 | 神经股份有限公司 | 具有对于高速、准确和直观的用户交互的适配的大脑-计算机接口 |
US10877969B2 (en) | 2018-03-16 | 2020-12-29 | International Business Machines Corporation | Augmenting structured data |
US11190608B2 (en) | 2018-03-21 | 2021-11-30 | Cdk Global Llc | Systems and methods for an automotive commerce exchange |
US11501351B2 (en) | 2018-03-21 | 2022-11-15 | Cdk Global, Llc | Servers, systems, and methods for single sign-on of an automotive commerce exchange |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
GB2577711A (en) * | 2018-10-03 | 2020-04-08 | Lumen Res Ltd | Eye-tracking methods, apparatuses and systems |
US11633076B2 (en) | 2018-10-26 | 2023-04-25 | The Procter & Gamble Company | Sanitary tissue product rolls |
CA3060185A1 (en) | 2018-10-26 | 2020-04-26 | The Procter & Gamble Company | Sanitary tissue product rolls |
US11447916B2 (en) | 2018-10-26 | 2022-09-20 | The Procter & Gamble Company | Paper towel rolls |
US10915520B2 (en) | 2018-11-30 | 2021-02-09 | International Business Machines Corporation | Visual data summaries with cognitive feedback |
US12020217B2 (en) | 2020-11-11 | 2024-06-25 | Cdk Global, Llc | Systems and methods for using machine learning for vehicle damage detection and repair cost estimation |
US11080105B1 (en) | 2020-11-18 | 2021-08-03 | Cdk Global, Llc | Systems, methods, and apparatuses for routing API calls |
US11514021B2 (en) | 2021-01-22 | 2022-11-29 | Cdk Global, Llc | Systems, methods, and apparatuses for scanning a legacy database |
US12045212B2 (en) | 2021-04-22 | 2024-07-23 | Cdk Global, Llc | Systems, methods, and apparatuses for verifying entries in disparate databases |
US11803535B2 (en) | 2021-05-24 | 2023-10-31 | Cdk Global, Llc | Systems, methods, and apparatuses for simultaneously running parallel databases |
US20220405333A1 (en) * | 2021-06-16 | 2022-12-22 | Kyndryl, Inc. | Retrieving saved content for a website |
US11983145B2 (en) | 2022-08-31 | 2024-05-14 | Cdk Global, Llc | Method and system of modifying information on file |
CN115686199B (zh) * | 2022-10-11 | 2023-05-23 | 北京津发科技股份有限公司 | 一种群体眼动轨迹生成方法、装置、计算设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6067565A (en) * | 1998-01-15 | 2000-05-23 | Microsoft Corporation | Technique for prefetching a web page of potential future interest in lieu of continuing a current information download |
US6106119A (en) * | 1998-10-16 | 2000-08-22 | The Board Of Trustees Of The Leland Stanford Junior University | Method for presenting high level interpretations of eye tracking data correlated to saved display images |
US20010011211A1 (en) * | 1998-06-03 | 2001-08-02 | Sbc Technology Resources, Inc. | A method for categorizing, describing and modeling types of system users |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3777222D1 (de) * | 1986-04-04 | 1992-04-16 | Applied Science Group Inc | Verfahren und geraet zur entwicklung der darstellung der sehzeitverteilung wenn leute fernsehwerbung beobachten. |
US4755045A (en) * | 1986-04-04 | 1988-07-05 | Applied Science Group, Inc. | Method and system for generating a synchronous display of a visual presentation and the looking response of many viewers |
JPH04282129A (ja) * | 1991-03-08 | 1992-10-07 | Fujitsu Ltd | 注視点解析装置 |
EP0605945B1 (en) | 1992-12-15 | 1997-12-29 | Sun Microsystems, Inc. | Method and apparatus for presenting information in a display system using transparent windows |
US5731805A (en) * | 1996-06-25 | 1998-03-24 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven text enlargement |
US5886683A (en) * | 1996-06-25 | 1999-03-23 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven information retrieval |
US6437758B1 (en) * | 1996-06-25 | 2002-08-20 | Sun Microsystems, Inc. | Method and apparatus for eyetrack—mediated downloading |
US5898423A (en) * | 1996-06-25 | 1999-04-27 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven captioning |
US6070098A (en) | 1997-01-11 | 2000-05-30 | Circadian Technologies, Inc. | Method of and apparatus for evaluation and mitigation of microsleep events |
AU1091099A (en) | 1997-10-16 | 1999-05-03 | Board Of Trustees Of The Leland Stanford Junior University | Method for inferring mental states from eye movements |
US6507802B1 (en) * | 2000-02-16 | 2003-01-14 | Hrl Laboratories, Llc | Mobile user collaborator discovery method and apparatus |
US20020015064A1 (en) | 2000-08-07 | 2002-02-07 | Robotham John S. | Gesture-based user interface to multi-level and multi-modal sets of bit-maps |
US20020107972A1 (en) | 2000-09-19 | 2002-08-08 | Keane Kerry C. | System and method for distributing media content |
US6601021B2 (en) * | 2000-12-08 | 2003-07-29 | Xerox Corporation | System and method for analyzing eyetracker data |
-
2001
- 2001-12-12 US US10/017,540 patent/US6712468B1/en not_active Expired - Fee Related
-
2002
- 2002-12-11 KR KR1020047009142A patent/KR100976357B1/ko not_active IP Right Cessation
- 2002-12-11 WO PCT/US2002/039696 patent/WO2003050658A2/en active Application Filing
- 2002-12-11 AU AU2002359678A patent/AU2002359678A1/en not_active Abandoned
- 2002-12-11 JP JP2003551650A patent/JP4299138B2/ja not_active Expired - Fee Related
- 2002-12-11 EP EP02794231A patent/EP1465522A4/en not_active Withdrawn
- 2002-12-11 CN CNB02827783XA patent/CN100382744C/zh not_active Expired - Fee Related
-
2004
- 2004-02-04 US US10/772,826 patent/US7029121B2/en not_active Expired - Fee Related
-
2006
- 2006-04-26 HK HK06104991A patent/HK1085894A1/xx not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6067565A (en) * | 1998-01-15 | 2000-05-23 | Microsoft Corporation | Technique for prefetching a web page of potential future interest in lieu of continuing a current information download |
US20010011211A1 (en) * | 1998-06-03 | 2001-08-02 | Sbc Technology Resources, Inc. | A method for categorizing, describing and modeling types of system users |
US6106119A (en) * | 1998-10-16 | 2000-08-22 | The Board Of Trustees Of The Leland Stanford Junior University | Method for presenting high level interpretations of eye tracking data correlated to saved display images |
Non-Patent Citations (1)
Title |
---|
Attentive Billboards. Haritaoglu, I.,Flickner, M.Image Analysis and Processing, 11th International Conference. 2001 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI796761B (zh) * | 2021-08-19 | 2023-03-21 | 崑山科技大學 | 具有顯示功能的廣告包 |
Also Published As
Publication number | Publication date |
---|---|
WO2003050658A2 (en) | 2003-06-19 |
EP1465522A2 (en) | 2004-10-13 |
KR20040090958A (ko) | 2004-10-27 |
JP4299138B2 (ja) | 2009-07-22 |
WO2003050658A3 (en) | 2003-10-16 |
US7029121B2 (en) | 2006-04-18 |
US20040156020A1 (en) | 2004-08-12 |
HK1085894A1 (en) | 2006-09-08 |
AU2002359678A1 (en) | 2003-06-23 |
KR100976357B1 (ko) | 2010-08-18 |
CN1688242A (zh) | 2005-10-26 |
EP1465522A4 (en) | 2009-01-21 |
US6712468B1 (en) | 2004-03-30 |
JP2005512625A (ja) | 2005-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100382744C (zh) | 促进视线跟踪数据应用的方法 | |
Blascheck et al. | Visualization of eye tracking data: A taxonomy and survey | |
Büring et al. | User interaction with scatterplots on small screens-a comparative evaluation of geometric-semantic zoom and fisheye distortion | |
Heer et al. | Vizster: Visualizing online social networks | |
Lam et al. | A guide to visual multi-level interface design from synthesis of empirical study evidence | |
Semerádová et al. | Factors influencing user experience | |
Blascheck et al. | Characterizing glanceable visualizations: From perception to behavior change | |
Goodwin et al. | VETA: Visual eye-tracking analytics for the exploration of gaze patterns and behaviours | |
Shao et al. | How dynamic information layout in GIS interface affects users’ search performance: integrating visual motion cognition into map information design | |
Barrera-Leon et al. | How the Preattentive process is exploited in practical information visualization design: A review | |
Lee et al. | Navigating spatio-temporal data with temporal zoom and pan in a multi-touch environment | |
Brath et al. | Visualization for communication: The importance of aesthetic sizzle | |
Rohs et al. | Impact of item density on the utility of visual context in magic lens interactions | |
Takahashi et al. | Gaze-driven placement of items for proactive visual exploration | |
KR102564817B1 (ko) | 자기 조절형 댓글 시각화 방법 및 그 장치 | |
Luque et al. | Visual analysis of eye movements during micro-stories reading | |
Geiselman et al. | Human performance evaluation of user interfaces for spatially-constrained text portrayal and access | |
Ahokas | Information visualization in a business decision support system | |
Cauz et al. | Text readability in augmented reality: a multivocal literature review | |
Airaldi et al. | Narrative visualizations best practices and evaluation: a systematic mapping study | |
Queirós | Visual narratives supported by dynamic infographics: a case study in the sports domain | |
Kliger | Model planes and totem poles: Methods for visualizing user models | |
Měkota | Using eye tracking to study reading landscape: a systematic review | |
Alrehiely | Evaluating different visualization designs for multivariate personal health data | |
Hu | Interest-Guided Exploration of Large Information Space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1085894 Country of ref document: HK |
|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: GR Ref document number: 1085894 Country of ref document: HK |
|
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20080423 Termination date: 20121211 |