CN106959749B - 一种基于眼动跟踪数据的视觉注意行为协同式可视化方法和系统 - Google Patents
一种基于眼动跟踪数据的视觉注意行为协同式可视化方法和系统 Download PDFInfo
- Publication number
- CN106959749B CN106959749B CN201710089733.0A CN201710089733A CN106959749B CN 106959749 B CN106959749 B CN 106959749B CN 201710089733 A CN201710089733 A CN 201710089733A CN 106959749 B CN106959749 B CN 106959749B
- Authority
- CN
- China
- Prior art keywords
- eye
- key area
- tracking data
- aoi
- blinkpunkt
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 29
- 230000004424 eye movement Effects 0.000 title claims abstract description 8
- 238000007794 visualization technique Methods 0.000 title 1
- 239000000463 material Substances 0.000 claims abstract description 23
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000007405 data analysis Methods 0.000 claims abstract description 10
- 238000013079 data visualisation Methods 0.000 claims abstract description 5
- 238000012546 transfer Methods 0.000 claims description 24
- 238000012552 review Methods 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 239000003550 marker Substances 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 claims 1
- 238000012800 visualization Methods 0.000 abstract description 4
- 230000005540 biological transmission Effects 0.000 abstract description 2
- 230000000638 stimulation Effects 0.000 abstract 1
- 230000006399 behavior Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 241001269238 Data Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003945 visual behavior Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
一种基于眼动跟踪数据的视觉注意行为协同式可视化方法,包括:(1)采集眼动跟踪数据;(2)选择视觉刺激材料;(3)选择眼动跟踪数据;(4)分析眼动跟踪数据;(5)可视化眼动跟踪数据分析结果。本发明还提供了一种基于眼动跟踪数据的视觉注意行为协同式可视化系统,沿信息传输方向,依次包括以下模块:(1)眼动跟踪数据采集模块;(2)视觉刺激材料选择模块;(3)眼动跟踪数据选择模块;(4)眼动跟踪数据分析模块;(5)眼动跟踪数据可视化模块。
Description
技术领域
本发明涉及人机交互、视觉认知等领域,具体涉及一种基于眼动跟踪数据的视觉注意行为协同式可视化方法和系统。
背景技术
随着科技的发展,各式各样的智能电子设备融入到大众生活的方方面面。人们通过手机等智能设备可以获取大量信息,而过量的信息导致人们无法迅速掌握其中的重要内容,往往需要花费大量的时间仔细浏览才能获取这些重要内容。基于眼动跟踪数据的视觉注意行为协同式可视化方法可以实现重点内容的提示、分享功能,例如,将专家用户的眼动数据进行可视化分享,使新手用户直观地了解其他专家用户的视觉行为,了解重要信息内容所在位置,从而显著提高对信息的浏览效率和理解水平。
发明内容
本发明要克服现有技术的上述缺点,提供一种基于眼动跟踪数据的视觉注意行为协同式可视化方法和系统。
通过眼动跟踪系统获取已有用户观看文本、图像、视频等各类视觉刺激材料时的眼动跟踪数据,并记录用户的背景信息。根据背景信息,将已有用户进行分类,例如,可以根据专业水平的高低分为专家用户和新手用户。基于眼动跟踪数据分析已有用户的视觉注意行为,并生成重点区域标记图、重点区域转移图等可视化图形,显示已有用户经常查看的信息,以及注意力在这些信息之间的转移方向和频率。可以根据已有用户的背景信息进分类,并选取某一类用户的眼动跟踪数据生成可视化图形。可视化图形可以单独显示,例如,只显示重点区域标记图;也可以同时显示,例如,重点区域标记图和重点区域转移图叠加显示。进一步,当前用户可以主动查看已有用户眼动跟踪数据的可视化图形,也可以将个人背景信息提供给系统进行匹配,系统将向当前用户推荐个人背景信息相似的已有用户的眼动跟踪数据可视化图形。
本发明提供了一种基于眼动跟踪数据的视觉注意行为协同式可视化方法,主要包括如下步骤:
(1)采集眼动跟踪数据;
(2)选择视觉刺激材料;
(3)选择眼动跟踪数据;
(4)分析眼动跟踪数据;
(5)可视化眼动跟踪数据分析结果。
本发明还提供了一种基于眼动跟踪数据的视觉注意行为协同式可视化系统,沿信息传输方向,依次包括以下模块:
(1)眼动跟踪数据采集模块;
(2)视觉刺激材料选择模块;
(3)眼动跟踪数据选择模块;
(4)眼动跟踪数据分析模块;
(5)眼动跟踪数据可视化模块。
本发明的优点在于,通过分享表征已有用户视觉注意行为的可视化图形,帮助当前用户快速获取视觉刺激材料中和自己背景相关的、或者重要的信息内容,有效提高了当前用户在大量和复杂的视觉刺激材料中获取重要信息的效率。
附图说明
为了更清楚地说明本发明实施例,下面将对实施例中所需要使用的附图做简单介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明方法的流程示意图。
图2是本发明的重点区域划分示意图。
图3是本发明的重点区域标记图的示意图。
图4是本发明的重点区域转移图的示意图。
图5是本发明的系统的基本逻辑结构示意图。
具体实施方式
下面将结合附图,对本发明一种基于眼动跟踪数据的视觉注意行为协同式可视化方法和系统进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例,不能理解为对本发明的限制。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅图1,本发明实施例提供的一种基于眼动跟踪数据的视觉注意行为协同式可视化方法流程示意图,对其中的步骤进行具体描述:
(1)采集眼动跟踪数据
获取和保存眼动跟踪数据,包括注视点的坐标等相关数据。本发明不限定眼动跟踪数据采集的方法,可以通过第三方的眼动跟踪系统获得。
(2)选择视觉刺激材料
用户选择视觉刺激材料,可视化图形将叠加显示在该视觉刺激材料上。
(3)选择眼动跟踪数据
对应于已经选择的视觉刺激材料,可以自行选择加载已有用户的眼动跟踪数据,并可以快速选择某一特定类型用户的眼动跟踪数据,例如,选择一个或多个根据已有用户专业水平分类得到的专家用户的眼动跟踪数据。此外,当前用户还可以提供个人背景信息,包括但不限定用户个人的标识符、性别、年龄、职业、专业水平等。然后和已有用户的个人背景信息进行匹配,匹配相似度用S表示,如果当前用户所提供的背景信息与已有用户背景信息的每一项相匹配,例如都为男性,则S=S+1;然后将已有用户中S值高的用户眼动跟踪数据优先推荐给当前用户,方便其快速选择。
(4)分析眼动跟踪数据
对已选择的眼动跟踪数据进行分析,具体分析过程包括以下步骤:
11:根据视觉刺激材料的内容划分重点区域,将互相之间存在较大区别的内容,各划分为一个重点区域,如图2所示,201、202和203之间相互存在明显的边界,则各自成为一个重点区域;
12:从眼动跟踪系统获取一个注视点数据,记做fixationt,根据坐标判断其所处的重点区域,并将该重点区域记做AOIt;如果fixationt为获取的第一个注视点,则继续获取新的一个注视点;否则,执行步骤13;
13:对于获取的前一个注视点fixationt-1,其所处的重点区域为AOIt-1,如果AOIt和AOIt-1为同一个重点区域,则AOIt的注视点数目F=F+1,然后返回步骤12;否则,执行步骤14;
14:从注视点fixationt开始,是否存在时间上连续的K(可以设定,例如K=4)个注视点fixationt~fixationt+k-1都处于AOIt中,如果存在,则AOIt-1到AOIt的转移次数T=T+1,AOIt的回看次数R=R+1,AOIt的注视点个数F=F+K,且令AOIt=AOIt-1;否则,返回步骤12。
进一步,如果当前用户选择了多个已有用户的眼动跟踪数据(或者1个已有用户的多次眼动跟踪数据),则需要进行多眼动跟踪数据的融合分析,具体分析过程包括以下步骤:
21:获取所有选中的N个已有用户的眼动跟踪数据,及相应的每个用户的背景信息;
22:计算每一个已有用户背景信息与当前用户背景信息的匹配相似度S1,…SN,归一化处理得到W1=S1/(S1+S2+…+SN),W2=S1/(S1+S2+…+SN),…,WN=S1/(S1+S2+…+SN);
23:设上述已选择的每个已有用户在某个重点区域的回看次数为Ri(i=1,2,…,N),那么这N个用户融合得到的在该重点区域的回看次数RR=R1×W1+R2×W2+…+RN×WN;类似的,设上述已选择的每个已有用户在该重点区域的注视点个数为Fi,那么这N个用户融合得到的在该重点区域的注视点个数RF=F1×W1+F2×W2+…+FN×WN;设上述已选择的每个已有用户从另一个重点区域到该重点区域的转移次数为Ti,那么这N个用户融合得到的在该重点区域的转移次数RT=T1×W1+T2×W2+…+TN×WN;
24:设当前选择的视觉刺激材料中包含M个重点区域,则某个重点区域回看次数RRj(j=1,2,…,M)占所有重点区域回看次数的比例PRj=RRj/(RR1+RR2+…+RRM);该重点区域注视次数RFj占所有重点区域注视次数的比例PFj=RFj/(RF1+RF2+…+RFM);类似的,另一个重点区域到该重点区域(该重点区域到另一个重点区域)的转移次数RTh(h=1,2,…,M×(M-1)))占所有重点区域两两之间转移次数的比例PTh=RTh/(RT1+RT2+…+RTM×(M-1));
(5)可视化眼动跟踪数据分析结果
分别对各重点区域的PR、PF、PT值从高到底排序。对PR值排名前三的重点区域分别显示红色、黄色和绿色的实心圆标记,生成重点区域标记图。如图3所示,301、302、303分别是三个重点区域的标记,回看次数比值PR排序为302>301>303。
以某个重点区域的几何中心O为圆心,半径R=Q×PF(可以设定,例如Q=50像素)画一个圆圈,并在圆圈内显示该重点区域的注视点次数比值的百分比形式PF×100%,类似的,对所有重点区域进行前述的圆圈和百分比显示;在存在转移的不同重点区域之间画上连线,连线附近显示相应的转移次数比值的百分比形式PT×100%,生成重点区域转移图。如图4所示,401、402、403为3个不同的重点区域,用不同半径的圆圈表示了回看次数比值PR的相对大小,并分别标记了注视点个数比值的百分比形式a%、b%和c%;404、405、406分别表示了重点区域之间转移的连线,并分别标记了转移次数比值的百分比形式ab%、bc%和ac%。
如图5所示,本文发明实施例提供的一种基于眼动跟踪的视觉注意行为协同可视化系统的基本逻辑结构示意图。为了便于说明,仅仅示出了与本发明实施例相关的部分。该系统中功能模块/单元可以是硬件模块/单元、软件模块/单元,主要包括:
(1)眼动跟踪数据采集模块,用于获取和保存眼动跟踪数据;
(2)视觉刺激材料选择模块,选择需要浏览的视觉刺激材料,用于后续选择对应的眼动跟踪数据和叠加可视化图形;
(3)眼动跟踪数据选择模块,用于自由选择、推荐需要进行分析和可视化的眼动跟踪数据;
(4)眼动跟踪数据分析模块,用于划分重点区域,分析和计算各重点区域的注视点个数、回看次数、重点区域之间的转移次数,以及融合多眼动跟踪数据进行分析;
(5)眼动跟踪数据可视化模块,用于显示眼动跟踪数据的分析结果,生成重点区域标记图、重点区域转移图。
本发明实施例中各个模块可以集成于一体,也可以分离部署,或进一步拆分成多个子模块。各个模块可以按照实施例描述分布于实施例的系统中,也可以进行相应变化位于不同于本发明实施例的一个或多个系统中。
本领域的技术人员应该明白,本发明实施例可提供成为方法、系统、或计算机程序产品。
本发明实施例的各模块或各步骤可以用通用的计算装置来实现,可选地,它们可以用计算装置可执行的程序代码来实现,从而可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。因此,本发明实施例不限制于任何特定的硬件和软件结合。
以上公开的仅为本发明的具体实施例,但是本发明并非局限于此,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。显然这些改动和变型均应属于本发明要求的保护范围内。
Claims (2)
1.一种基于眼动跟踪数据的视觉注意行为协同式可视化方法,包括如下步骤:
(1)采集眼动跟踪数据
获取和保存眼动跟踪数据,包括注视点的坐标相关数据;
(2)选择视觉刺激材料
用户选择视觉刺激材料,可视化图形将叠加显示在该视觉刺激材料上;
(3)选择眼动跟踪数据
对应于已经选择的视觉刺激材料,自行选择加载已有用户的眼动跟踪数据,并快速选择某一特定类型用户的眼动跟踪数据,选择一个或多个根据已有用户专业水平分类得到的专家用户的眼动跟踪数据;此外,当前用户提供个人背景信息,然后和已有用户的个人背景信息进行匹配,匹配相似度用S表示,如果当前用户所提供的背景信息与已有用户背景信息的每一项相匹配;然后将已有用户中S值高的用户眼动跟踪数据优先推荐给当前用户,方便其快速选择;
(4)分析眼动跟踪数据
对已选择的眼动跟踪数据进行分析,具体分析过程包括以下步骤:
11:根据视觉刺激材料的内容划分重点区域,将互相之间存在较大区别的内容,各划分为一个重点区域;
12:从眼动跟踪系统获取一个注视点数据,记做fixationt,根据坐标判断其所处的重点区域,并将该重点区域记做AOIt;如果fixationt为获取的第一个注视点,则继续获取新的一个注视点;否则,执行步骤13;
13:对于获取的前一个注视点fixationt-1,其所处的重点区域为AOIt-1,如果AOIt和AOIt-1为同一个重点区域,则AOIt的注视点数目F=F+1,然后返回步骤12;否则,执行步骤14;
14:从注视点fixationt开始,是否存在时间上连续的K个注视点fixationt~fixationt+k-1都处于AOIt中,如果存在,则AOIt-1到AOIt的转移次数T=T+1,AOIt的回看次数R=R+1,AOIt的注视点个数F=F+K,且令AOIt=AOIt-1;否则,返回步骤12;
如果当前用户选择了已有用户的眼动跟踪数据,则需要进行多眼动跟踪数据的融合分析,具体分析过程包括以下步骤:
21:获取所有选中的N个已有用户的眼动跟踪数据,及相应的每个用户的背景信息;
22:计算每一个已有用户背景信息与当前用户背景信息的匹配相似度S1,…SN,归一化处理得到W1=S1/(S1+S2+…+SN),W2=S1/(S1+S2+…+SN),…,WN=S1/(S1+S2+…+SN);
23:设上述已选择的每个已有用户在某个重点区域的回看次数为Ri(i=1,2,…,N),那么这N个用户融合得到的在该重点区域的回看次数RR=R1×W1+R2×W2+…+RN×WN;类似的,设上述已选择的每个已有用户在该重点区域的注视点个数为Fi,那么这N个用户融合得到的在该重点区域的注视点个数RF=F1×W1+F2×W2+…+FN×WN;设上述已选择的每个已有用户从另一个重点区域到该重点区域的转移次数为Ti,那么这N个用户融合得到的在该重点区域的转移次数RT=T1×W1+T2×W2+…+TN×WN;
24:设当前选择的视觉刺激材料中包含M个重点区域,则某个重点区域回看次数RRj(j=1,2,…,M)占所有重点区域回看次数的比例PRj=RRj/(RR1+RR2+…+RRM);该重点区域注视次数RFj占所有重点区域注视次数的比例PFj=RFj/(RF1+RF2+…+RFM);类似的,另一个重点区域到该重点区域(该重点区域到另一个重点区域)的转移次数RTh(h=1,2,…,M×(M-1)))占所有重点区域两两之间转移次数的比例PTh=RTh/(RT1+RT2+…+RTM×(M-1));
(5)可视化眼动跟踪数据分析结果
分别对各重点区域的PR、PF、PT值从高到底排序,对PR值排名前三的重点区域分别显示红色、黄色和绿色的实心圆标记,生成重点区域标记图;
以某个重点区域的几何中心O为圆心,半径R=Q×PF画一个圆圈,Q是用户设定的像素,并在圆圈内显示该重点区域的注视点次数比值的百分比形式PF×100%,类似的,对所有重点区域进行前述的圆圈和百分比显示;在存在转移的不同重点区域之间画上连线,连线附近显示相应的转移次数比值的百分比形式PT×100%,生成重点区域转移图。
2.使用如权利要求1所述的方法的系统,其特征在于:沿信息传输方向,依次包括以下模块:
眼动跟踪数据采集模块,用于获取和保存眼动跟踪数据;
视觉刺激材料选择模块,选择需要浏览的视觉刺激材料,用于后续选择对应的眼动跟踪数据和叠加可视化图形;
眼动跟踪数据选择模块,用于自由选择、推荐需要进行分析和可视化的眼动跟踪数据;
眼动跟踪数据分析模块,用于划分重点区域,分析和计算各重点区域的注视点个数、回看次数、重点区域之间的转移次数,以及融合多眼动跟踪数据进行分析;
眼动跟踪数据可视化模块,用于显示眼动跟踪数据的分析结果,生成重点区域标记图、重点区域转移图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710089733.0A CN106959749B (zh) | 2017-02-20 | 2017-02-20 | 一种基于眼动跟踪数据的视觉注意行为协同式可视化方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710089733.0A CN106959749B (zh) | 2017-02-20 | 2017-02-20 | 一种基于眼动跟踪数据的视觉注意行为协同式可视化方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106959749A CN106959749A (zh) | 2017-07-18 |
CN106959749B true CN106959749B (zh) | 2019-11-29 |
Family
ID=59481657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710089733.0A Active CN106959749B (zh) | 2017-02-20 | 2017-02-20 | 一种基于眼动跟踪数据的视觉注意行为协同式可视化方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106959749B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107977401B (zh) * | 2017-10-18 | 2022-04-26 | 依睿迪亚(南京)智能科技有限公司 | 一种基于矩阵结构的眼动追踪模式识别对比的可视化方法 |
CN109447096B (zh) * | 2018-04-13 | 2022-05-06 | 西安电子科技大学 | 一种基于机器学习的扫视路径预测方法和装置 |
CN113425247B (zh) * | 2021-06-10 | 2022-12-23 | 北京邮电大学 | 眼动数据可视化方法、装置及设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101587542A (zh) * | 2009-06-26 | 2009-11-25 | 上海大学 | 基于眼动轨迹跟踪的景深融合增强显示方法及系统 |
CN101815467A (zh) * | 2007-07-30 | 2010-08-25 | 神经焦点公司 | 神经反应刺激和刺激属性谐振估计器 |
CN102496012A (zh) * | 2011-12-14 | 2012-06-13 | 上海海事大学 | 结合眼动追踪和历史行为挖掘潜在需求的装置和方法 |
CN102521595A (zh) * | 2011-12-07 | 2012-06-27 | 中南大学 | 一种基于眼动数据和底层特征的图像感兴趣区域提取方法 |
CN103177170A (zh) * | 2011-12-21 | 2013-06-26 | 中国移动通信集团四川有限公司 | 一种采集用户眼动的热点分析方法和系统 |
CN103530623A (zh) * | 2013-09-16 | 2014-01-22 | 北京智谷睿拓技术服务有限公司 | 信息观察方法及信息观察装置 |
CN105989045A (zh) * | 2015-02-04 | 2016-10-05 | 华为技术有限公司 | 一种劝导内容推荐的方法、装置及系统 |
CN106155308A (zh) * | 2016-06-22 | 2016-11-23 | 浙江工业大学 | 一种基于回忆和标注的眼动跟踪方法和系统 |
-
2017
- 2017-02-20 CN CN201710089733.0A patent/CN106959749B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101815467A (zh) * | 2007-07-30 | 2010-08-25 | 神经焦点公司 | 神经反应刺激和刺激属性谐振估计器 |
CN101587542A (zh) * | 2009-06-26 | 2009-11-25 | 上海大学 | 基于眼动轨迹跟踪的景深融合增强显示方法及系统 |
CN102521595A (zh) * | 2011-12-07 | 2012-06-27 | 中南大学 | 一种基于眼动数据和底层特征的图像感兴趣区域提取方法 |
CN102496012A (zh) * | 2011-12-14 | 2012-06-13 | 上海海事大学 | 结合眼动追踪和历史行为挖掘潜在需求的装置和方法 |
CN103177170A (zh) * | 2011-12-21 | 2013-06-26 | 中国移动通信集团四川有限公司 | 一种采集用户眼动的热点分析方法和系统 |
CN103530623A (zh) * | 2013-09-16 | 2014-01-22 | 北京智谷睿拓技术服务有限公司 | 信息观察方法及信息观察装置 |
CN105989045A (zh) * | 2015-02-04 | 2016-10-05 | 华为技术有限公司 | 一种劝导内容推荐的方法、装置及系统 |
CN106155308A (zh) * | 2016-06-22 | 2016-11-23 | 浙江工业大学 | 一种基于回忆和标注的眼动跟踪方法和系统 |
Non-Patent Citations (3)
Title |
---|
基于视线跟踪的智能界面实现机制研究;胡文婷等;《计算机应用与软件》;20160131;第33卷;第1-3节 * |
移动设备眼动跟踪技术;程时伟等;《浙江大学学报(工学版)》;20160630;第1-2节 * |
面向多设备交互的眼动跟踪方法;程时伟等;《计算机辅助设计与图形学学报》;20160731;第1-4节 * |
Also Published As
Publication number | Publication date |
---|---|
CN106959749A (zh) | 2017-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10970299B2 (en) | Client side system and method for search backed calendar user interface | |
US10409450B2 (en) | System for displaying a system status for a plurality of objects of interest | |
ElSayed et al. | Situated analytics | |
US6785676B2 (en) | Customer self service subsystem for response set ordering and annotation | |
US20150248214A1 (en) | System for displaying a status of an object of interest | |
Ahlberg | Spotfire: an information exploration environment | |
US20150278315A1 (en) | Data fitting selected visualization type | |
US20020107852A1 (en) | Customer self service subsystem for context cluster discovery and validation | |
CN106959749B (zh) | 一种基于眼动跟踪数据的视觉注意行为协同式可视化方法和系统 | |
US8548975B1 (en) | Systems and methods for browsing historical content | |
Chau | Visualizing web search results using glyphs: Design and evaluation of a flower metaphor | |
US20080256442A1 (en) | Data visualization device and method | |
Shamim et al. | Evaluation of opinion visualization techniques | |
US20220405334A1 (en) | System and method for intelligently recommending relevant facet options for search results | |
CN109725972A (zh) | 一种导航显示方法及系统 | |
CN104881504A (zh) | 一种信息搜索方法及装置 | |
Parush et al. | Impact of visualization type and contextual factors on performance with enterprise resource planning systems | |
CN104933149A (zh) | 一种信息搜索方法及装置 | |
Wee | An improved diversity visualization system for multivariate data | |
CN108304425A (zh) | 一种图文信息推荐方法、装置及系统 | |
CN105988976A (zh) | 一种文档审阅标注的显示方法和装置 | |
CN108876541A (zh) | 商品推荐方法及装置 | |
US11733833B2 (en) | Systems and methods for legal research navigation | |
ElSayed et al. | Visual analytics in augmented reality | |
US9195755B1 (en) | Relevancy radar |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |