CN103500011A - 眼动轨迹规律分析方法和装置 - Google Patents

眼动轨迹规律分析方法和装置 Download PDF

Info

Publication number
CN103500011A
CN103500011A CN201310464796.1A CN201310464796A CN103500011A CN 103500011 A CN103500011 A CN 103500011A CN 201310464796 A CN201310464796 A CN 201310464796A CN 103500011 A CN103500011 A CN 103500011A
Authority
CN
China
Prior art keywords
eye movement
eye
classification
diversity factor
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310464796.1A
Other languages
English (en)
Other versions
CN103500011B (zh
Inventor
张婧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201310464796.1A priority Critical patent/CN103500011B/zh
Publication of CN103500011A publication Critical patent/CN103500011A/zh
Application granted granted Critical
Publication of CN103500011B publication Critical patent/CN103500011B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提出一种眼动轨迹规律分析方法,其中该方法包括以下步骤:获取针对待测页面的Q个注视数据,其中,Q为大于1的正整数;根据Q个注视数据分别生成对应的Q个眼动轨迹;获取Q个眼动轨迹中每两个眼动轨迹之间的差异度;以及根据Q个眼动轨迹中每两个眼动轨迹之间的差异度对Q个眼动轨迹进行聚类以生成至少一个眼动轨迹类别,并根据至少一个眼动轨迹类别生成针对待测页面的至少一个眼动轨迹规律。根据本发明实施例方法,通过获取注视数据并生成眼动轨迹,再聚类生成眼动轨迹类别,并进一步生成眼动轨迹规律,准确的反映了用户关注点和关注顺序,为更多开发者进行网站监控和优化提供支持。降低了人工分析的成本,提高了可靠性,提高用户体验。

Description

眼动轨迹规律分析方法和装置
技术领域
本发明涉及眼动追踪技术领域,特别涉及一种眼动轨迹规律分析方法和装置。
背景技术
眼动追踪技术已经越来越多地应用于获取用户的视线轨迹,例如在浏览、操作特定界面等情景下获得了广泛的应用。眼动追踪技术可通过对用户眼动轨迹的分析获取用户浏览、操作界面的规律,如关注点以及对页面中对象的关注顺序等,进而可根据用户的关注点及关注顺序调整界面布局。
目前,眼动追踪技术主要将界面人工划分为多个区域,并对每个区域进行编码,然后根据眼动轨迹所经过的兴趣区域所对应的编码,将每个眼动轨迹转换为字符序列。进而可通过Needleman-Wunsch(一种文本比对算法)等算法计算每两个轨迹的字符序列之间的相似度,并根据相似度对不同眼动轨迹的字符序列进行分析,从而获取眼动轨迹规律。但是。在此方法中,人工划分界面区域时受划分标准的影响较大,并且舍弃了眼动轨迹的形状信息,因此保真度较低,得到的眼动轨迹规律难以准确反映用户关注点以及关注顺序。
发明内容
本发明旨在至少在一定程度上解决上述技术问题。
为此,本发明的第一个目的在于提出一种眼动轨迹规律分析方法,该方法更加清楚的反映了用户浏览页面的眼动轨迹规律,为软件、互联网公司的产品页面设计和优化提供了有力的数据支持。降低了人工分析的成本,提高了可靠性,使用户体验更佳。
为达上述目的,根据本发明第一方面实施例提出了一种眼动轨迹规律分析方法,包括:获取针对待测页面的Q个注视数据,其中,Q为大于1的正整数;根据所述Q个注视数据分别生成对应的Q个眼动轨迹;获取所述Q个眼动轨迹中每两个眼动轨迹之间的差异度;以及根据所述Q个眼动轨迹中所述每两个眼动轨迹之间的差异度对所述Q个眼动轨迹进行聚类以生成至少一个眼动轨迹类别,并根据所述至少一个眼动轨迹类别生成针对所述待测页面的至少一个眼动轨迹规律。
本发明实施例的眼动轨迹规律分析方法,通过获取注视数据并生成眼动轨迹,根据眼动轨迹之间的差异度进行聚类生成眼动轨迹类别,并进一步生成眼动轨迹规律,准确的反映了用户关注点以及关注顺序,更加清楚的反映了用户浏览页面的眼动轨迹规律,为软件、互联网公司的产品页面设计和优化提供了有力的数据支持,也能为更多开发者进行网站监控和优化提供支持。降低了人工分析的成本,提高了可靠性,使用户体验更佳。
为实现上述目的,本发明第二个目的在于提出一种眼动轨迹规律分析装置,包括:第一获取模块,用于获取针对待测页面的Q个注视数据,其中,Q为大于1的正整数;第一生成模块,用于根据所述Q个注视数据分别生成对应的Q个眼动轨迹;第二获取模块,用于获取所述Q个眼动轨迹中每两个眼动轨迹之间的差异度;第二生成模块,用于根据所述Q个眼动轨迹中所述每两个眼动轨迹之间的差异度对所述Q个眼动轨迹进行聚类以生成至少一个眼动轨迹类别;第三生成模块,用于根据所述至少一个眼动轨迹类别生成针对所述待测页面的至少一个眼动轨迹规律。
本发明实施例的眼动轨迹规律分析装置,通过获取注视数据并生成眼动轨迹,根据眼动轨迹之间的差异度进行聚类生成眼动轨迹类别,并进一步生成眼动轨迹规律,准确的反映了用户关注点以及关注顺序,更加清楚的反映了用户浏览页面的眼动轨迹规律,为软件、互联网公司的产品页面设计和优化提供了有力的数据支持,也能为更多开发者进行网站监控和优化提供支持。降低了人工分析的成本,提高了可靠性,使用户体验更佳。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的眼动轨迹规律分析方法的流程图;
图2为根据本发明另一个实施例的眼动轨迹规律分析方法的流程图;
图3为根据本发明又一个实施例的眼动轨迹规律分析方法的流程图;
图4为根据本发明一个实施例的眼动轨迹规律分析装置的结构示意图;
图5为根据本发明另一个实施例的眼动轨迹规律分析装置的结构示意图;
图6为根据本发明又一个实施例的眼动轨迹规律分析装置的结构示意图;
图7为根据本发明一个具体实施例的向量差矩阵中最优路径的示意图;
图8为根据本发明一个具体实施例的用户眼动轨迹示意图。
具体实施方式
下面详细描述本发明的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
下面参考附图描述根据本发明实施例的眼动轨迹规律分析方法和装置。
为能准确反映用户关注点以及关注顺序,精确获取眼动轨迹规律,降低人工分析成本,提高可靠性,本发明提出一种眼动轨迹规律分析方法,包括:获取针对待测页面的Q个注视数据,其中,Q为大于1的正整数;根据Q个注视数据分别生成对应的Q个眼动轨迹;获取Q个眼动轨迹中每两个眼动轨迹之间的差异度;以及根据Q个眼动轨迹中每两个眼动轨迹之间的差异度对Q个眼动轨迹进行聚类以生成至少一个眼动轨迹类别,并根据至少一个眼动轨迹类别生成针对待测页面的至少一个眼动轨迹规律。
图1为根据本发明一个实施例的眼动轨迹规律分析方法的流程图。
如图1所示,根据本发明实施例的眼动轨迹规律分析方法包括:
S101,获取针对待测页面的Q个注视数据,其中,Q为大于1的正整数。
在本发明的实施例中,注视数据为用户在浏览或操作待测页面的过程中在该待测页面的注视点以及每个注视点的位置、注视开始时间、注视时长等数据。可通过调用TobiiStudio眼动追踪软件对数据进行过滤,即根据预设的参数标准区分注视行为和扫视行为。可以理解,多个注视数据可以为不同用户浏览、操作待测页面而产生的注视数据,也可以是同一个用户在不同时间浏览、操作待测页面而产生的注视数据。其中,待测试页面可以是网页,也可以是其他任何阅读类的界面,例如电子书等。
S102,根据Q个注视数据分别生成对应的Q个眼动轨迹。
在本发明的实施例中,眼动轨迹为根据注视数据按顺序连接的有向线段的集合。生成眼动轨迹的具体步骤,将在下面实施例中进行详细阐述。
S103,获取Q个眼动轨迹中每两个眼动轨迹之间的差异度。
在本发明的实施例中,两个眼动轨迹之间的差异度为表示两个轨迹的轨迹形状、位置信息等方面的差异的数据。举例来说,对于轨迹A和轨迹B,本发明的实施例可分别计算轨迹A中每个向量与轨迹B中每个向量的向量差,并根据上述向量差的模(即向量差的长度)构成向量差矩阵。进而获取从向量差矩阵第一个元素到向量差矩阵最后一个元素的所有可能的路径,并计算每条路径上的全部矩阵元素的和,其中矩阵元素之和最小路径的为最优匹配路径。然后,本实施例可通过相应的算法对最优匹配路径上矩阵元素的和进行运算,以获取轨迹A和轨迹B之间的差异度。具体步骤,将在下面实施例中进行详细阐述。
S104,根据Q个眼动轨迹中每两个眼动轨迹之间的差异度对Q个眼动轨迹进行聚类以生成至少一个眼动轨迹类别。
在本发明的实施例中,可根据各个轨迹之间的差异度的大小进行聚类。首先将差异度最小的两个轨迹优先进行聚为一个眼动轨迹类别,然后计算这个眼动轨迹类别与其他轨迹之间的差异度,根据这个差异度和其他轨迹中每两个轨迹的差异度再次进行聚类,直到得到的眼动轨迹类别的个数满足预设要求。其中,预设要求为预先设定的眼动轨迹类别的个数。具体步骤,将在下面实施例中进行详细阐述。
S105,根据至少一个眼动轨迹类别生成针对待测页面的至少一个眼动轨迹规律。
举例来说,有5个用户,编号分别为0、1、2、3、4,可根据他们的眼动轨迹进行聚类。其中,3、4号用户的眼动轨迹可如图8(a)和图8(b)所示,均是从页面中下方到左上方,再到右下方,因此可将3、4号用户的眼动轨迹聚为一个眼动轨迹类别,该眼动轨迹类别对应的眼动轨迹规律可称为领结形。
0、2号用户的眼动轨迹可如图8(c)和图8(d)所示,均是从页面左上方到右上方,再到左下方、右下方,因此可将0、2号用户的眼动轨迹聚为一个眼动轨迹类别,该眼动轨迹类别对应的眼动轨迹规律可称为之字形。
1号用户的眼动轨迹可如图8(e)所示,均是从页面左下方到左上方,再到右上方、右下方,因此可将1号用户的眼动轨迹作为一个眼动轨迹类别,该眼动轨迹类别对应的眼动轨迹规律可称为门字形。
根据上述对眼动轨迹的分析结果,可得知部分用户在浏览实验页面时较为困扰,首先被页面中部内容吸引,其次又被页面顶端内容吸引,眼睛跳转频繁,因此应推动页面优化信息呈现层次。
另外,当有相似度较高的聚类时,还可以合并该类中的所有轨迹,观察合并结果。合并方法为,先合并最相似的2条轨迹,得到新轨迹后,再与第3条轨迹合并,以此类推。
在本发明的实施例中,眼动轨迹规律可由至少一个眼动轨迹类别生成。通过眼动轨迹规律,可了解用户浏览页面时的关注点和关注顺序等信息,对分析用户的喜好、需求有很大的帮助。
本发明实施例的眼动轨迹规律分析方法,通过获取注视数据并生成眼动轨迹,根据眼动轨迹之间的差异度进行聚类生成眼动轨迹类别,并进一步生成眼动轨迹规律,准确的反映了用户关注点以及关注顺序,更加清楚的反映了用户浏览页面的眼动轨迹规律,为软件、互联网公司的产品页面设计和优化提供了有力的数据支持,也能为更多开发者进行网站监控和优化提供支持。此外,降低了人工分析的成本,提高了可靠性,使用户体验更佳。
图2为根据本发明另一个实施例的眼动轨迹规律分析方法的流程图。在本发明的实施例中,通过获取两个眼动轨迹的向量差集合,根据向量差集合建立两个眼动轨迹之间的向量差矩阵,计算两个眼动轨迹的差异度,对眼动轨迹进行聚类,准确的反映了用户的眼动轨迹规律,提高了用户体验。
具体地,如图2所示,根据本发明实施例的眼动轨迹规律分析方法,包括:
S201,获取针对待测页面的Q个注视数据,其中,Q为大于1的正整数。
在本发明的实施例中,每个注视数据可包括至少一个注视点以及每个注视点对应的位置信息和注视时间信息。注视点的位置信息为注视点位置的数据,如注视点空间X、Y坐标值等;注视点的时间信息可包括注视点发生时间、注视点的结束时间、注视点时长等。可通过调用Tobii Studio眼动追踪软件对数据进行过滤,即根据预设的参数标准区分注视行为和扫视行为。可以理解,多个注视数据可以为不同用户浏览、操作待测页面而产生的注视数据,也可以是同一个用户在不同时间浏览、操作待测页面而产生的注视数据。其中,待测试页面可以是网页,也可以是任何阅读类的界面,例如电子书等。
S202,根据注视时间信息将每个注视数据中的多个注视点按照时间顺序通过有向线段依次相连。
在本发明的实施例中,每个注视点都具有注视点发生时间和注视点结束时间,可根据这个注视时间信息按照时间先后顺序两两相连,方向为前一个注视点向后一个注视点移动的方向。
S203,根据每个注视数据中多个注视点的位置信息和相邻两个注视点之间的有向线段生成至少一个眼动向量,并根据至少一个眼动向量生成每个注视数据中对应的眼动轨迹。
在本发明的一个实施例中,眼动向量为连接一个注视点和其后一个注视点的有向线段,根据多个注视点生成的至少一个眼动向量首尾相连,即形成了一个眼动轨迹。
S204,获取多个眼动轨迹中第M个眼动轨迹中的每个眼动向量与多个眼动轨迹中第N个眼动轨迹中每个眼动向量的向量差,并建立多个向量差集合,其中,M和N为小于等于Q的正整数。
S205,根据向量差集合建立第M个眼动轨迹和第N个眼动轨迹之间的向量差矩阵[aij]m×n。其中,m为第M个眼动轨迹中眼动向量的个数,n为第N个眼动轨迹中眼动向量的个数,矩阵元素aij为第M个眼动轨迹中第i个眼动向量与第N个眼动轨迹中第j个眼动向量的向量差的模。
S206,根据向量差矩阵获取从矩阵元素a11到amn的最优匹配路径。
在本发明的实施例中,首先,可根据下述规则获取向量差矩阵中从a11到amn所有可能的路径:可到达aij的矩阵元素为ai-1jaij-1ai-1j-1;然后计算上述路径中每条路径中的矩阵元素之和,其中矩阵元素和最小的路径为最优匹配路径。
举例来说,如图7所示,对于如图7中的向量差矩阵,从D11到D22可以有三条路径,分别为D11-D22、D11-D12-D22、D11-D21-D22。其中,D11-D22这条路径向量差最小。同理,D11到D34可以有多条路径,选择向量差最小的一条路径,则这条路径为最优匹配路径。
S207,获取最优匹配路径中包含的矩阵元素,并根据最优匹配路径中包含的矩阵元素获取每两个眼动轨迹之间的差异度。
在本发明的实施例中,矩阵中a11到amn这条最优匹配路径包括多个矩阵元素,将这些矩阵元素求和,它们的向量差之和再除以预设常量,即为差异度。差异度越小眼动轨迹越相似。其中,预设常量可为预先设定,例如屏幕对角线长度等。
S208,将Q个眼动轨迹分别作为Q个待选眼动轨迹类别,并获取Q个待选眼动轨迹类别中差异度最小的H个待选眼动轨迹类别,H为预设值,且H小于Q的正整数。
在本发明的一个优选实施例中,H可为2,则将Q个眼动轨迹中的每两个眼动轨迹类别进行差异度计算,获取每两个眼动轨迹类别之间的差异度,最后获取差异度最小的两个待选眼动轨迹类别。
S209,对差异度最小的H个待选眼动轨迹类别进行聚类以生成第一眼动轨迹类别。
S210,获取第一眼动轨迹类别与Q个待选眼动轨迹类别中其他待选眼动轨迹类别的差异度,并继续对差异度最小的H个轨迹类别进行聚类以生成第二眼动轨迹类别,直至Q个眼动轨迹的类别个数达到预设阈值。
其中,预设阈值为预先设定的最终要获得的眼动轨迹的类别个数。举例来说,对于P0、P1、P2、P3和P4为5个眼动轨迹,其中,差异度最小的P3和P4已经聚为一类,如果预设阈值为2,则可将其余的P0、P1和P2可作为另一类。如果预设阈值为3,则需要进一步分别计算P3和P4组成的眼动轨迹类别与P0、P1和P2之间的差异度,并与P0和P1,P0和P2,以及P1和P2之间的差异度进行比较,如果P0和P2的差异度最小,则可将P0和P2可分为一类,P1单独作为一类。
S211,根据至少一个眼动轨迹类别生成针对待测页面的至少一个眼动轨迹规律。
在本发明的实施例中,眼动轨迹规律可由至少一个眼动轨迹类别生成。通过眼动轨迹规律,可了解用户浏览页面时的关注点和关注顺序等信息,对分析用户的喜好、需求有很大的帮助。
另外,当有相似度较高的聚类时,还可以合并该类中的所有轨迹,观察合并结果。合并方法为,先合并最相似的2条轨迹,得到新轨迹后,再与第3条轨迹合并,以此类推。
本发明实施例的眼动轨迹规律分析方法,通过获取注视数据并生成眼动轨迹,根据眼动轨迹之间的差异度进行聚类生成眼动轨迹类别,并进一步生成眼动轨迹规律,准确的反映了用户关注点以及关注顺序,更加清楚的反映了用户浏览页面的眼动轨迹规律,为软件、互联网公司的产品页面设计和优化提供了有力的数据支持,也能为更多开发者进行网站监控和优化提供支持。此外,降低了人工分析的成本,提高了可靠性,使用户体验更佳。
图3为根据本发明又一个实施例的眼动轨迹规律分析方法的流程图。在本发明的实施例中,通过对眼动轨迹的简化与更新,使得眼动轨迹更加准确,在眼动轨迹进行聚类时更加方便、简单,对用户眼动轨迹的分析提供更好的数据支持,提高用户体验。
具体地,如图3所示,根据本发明实施例的眼动轨迹规律分析方法,包括:
S301,获取针对待测页面的Q个注视数据,其中,Q为大于1的正整数。
在本发明的实施例中,每个注视数据包括至少一个注视点以及每个注视点对应的位置信息和注视时间信息。注视数据的参数包括注视点发生时间、注视点的结束时间、注视点空间X、Y坐标值、注视点时长。可通过调用Tobii Studio眼动追踪软件对数据进行过滤,即根据预设的参数标准区分注视行为和扫视行为。可以理解,多个注视数据可以为不同用户浏览、操作待测页面而产生的注视数据,也可以是同一个用户在不同时间浏览、操作待测页面而产生的注视数据。其中,待测试页面可以是网页,也可以是任何阅读类的界面,例如电子书等。
S302,根据Q个注视数据分别生成对应的Q个眼动轨迹。
在本发明的实施例中,眼动轨迹为根据注视数据按顺序连接的有向线段的集合。
S303,对Q个眼动轨迹中的每个眼动轨迹进行简化。
在本发明的实施例中,S303具体包括:
S3031,如果Q个眼动轨迹中每个眼动轨迹中存在两个注视点的位置信息的差异小于第一阈值,则根据两个注视点的位置信息和注视时间信息生成新的注视点。
S3032,删除两个注视点并添加新的注视点,以及更新眼动轨迹。
具体地,如果两个注视点的位置信息的差异小于第一阈值(如屏幕对角线长度的1/10、120像素等),则获取这两个点的横坐标、纵坐标根据注视点时长的加权平均值。将这两个点删除并添加一个新的注视点,并更新眼动轨迹。其中,第一阈值为预先设定。
S3033,如果Q个眼动轨迹中每个眼动轨迹中存在两个相邻眼动向量的方向差小于第二阈值,则获取两个相邻眼动向量的向量和。
S3034,删除两个相邻眼动向量,并将向量和作为新的眼动向量,以及更新眼动轨迹。
具体地,两个相邻眼动向量的方向差小于第二阈值时,例如小于5度,则获取这两个眼动向量的向量和作为一个新的向量,并更新眼动轨迹。其中,第二阈值为预先设定。
S3035,如果Q个眼动轨迹中每个眼动轨迹中的注视点的注视时间信息超出预设时间范围,和/或位置信息超出预设区域,则删除对应的注视点,并更新眼动轨迹。
具体地,注视点的注视时间信息不在预设时间范围内,和/或位置信息不在预设区域范围内,则作为轨迹范围外的注视点,删除该注视点,并更新眼动轨迹。其中,预设时间范围和预设区域为预先设定。
在本发明的实施例中,S3031和S3032、S3033和S3034、S3035可单独作为简化步骤对眼动轨迹进行更新,也可同时作为简化步骤对眼动轨迹进行更新。
S304,获取Q个眼动轨迹中每两个眼动轨迹之间的差异度。
在本发明的实施例中,可根据两个眼动轨迹构成向量差矩阵,由轨迹起点到终点按顺序计算向量差,其中向量差之和最小的为最优匹配路径,而最优匹配路径对应的向量差之和再除以预设常量,即为差异度。差异度越小眼动轨迹越相似。其中,预设常量可为预先设定,例如屏幕对角线长度等。
S305,根据Q个眼动轨迹中每两个眼动轨迹之间的差异度对Q个眼动轨迹进行聚类以生成至少一个眼动轨迹类别。
在本发明的实施例中,可根据各个轨迹之间的差异度由小到大进行聚类。差异度最小的两个轨迹优先进行聚合为一个眼动轨迹类别。
S306,根据至少一个眼动轨迹类别生成针对待测页面的至少一个眼动轨迹规律。
在本发明的实施例中,眼动轨迹规律可由至少一个眼动轨迹类别生成。通过眼动轨迹规律,可了解用户浏览页面时的关注点和关注顺序等信息,对分析用户的喜好、需求有很大的帮助。
本发明实施例的眼动轨迹规律分析方法,通过对眼动轨迹的简化与更新,使得眼动轨迹更加准确,在眼动轨迹进行聚类时更加方便、简单,对用户眼动轨迹的分析提供更好的数据支持,提高用户体验。
图4为根据本发明一个实施例的眼动轨迹规律分析装置的结构示意图。
具体地,如图4所示,根据本发明实施例的眼动轨迹规律分析装置,包括:第一获取模块110、第一生成模块120、第二获取模块130、第二生成模块140和第三生成模块150。
第一获取模块110用于获取针对待测页面的Q个注视数据,其中,Q为大于1的正整数。
在本发明的实施例中,注视数据的参数包括注视点发生时间、注视点的结束时间、注视点空间X、Y坐标值、注视点时长。可通过调用Tobii Studio眼动追踪软件对数据进行过滤,即根据预设的参数标准区分注视行为和扫视行为。可以理解,多个注视数据可以为不同用户浏览、操作待测页面而产生的注视数据,也可以是同一个用户在不同时间浏览、操作待测页面而产生的注视数据。其中,待测试页面可以是网页,也可以是任何阅读类的界面,例如电子书等。
第一生成模块120用于根据Q个注视数据分别生成对应的Q个眼动轨迹。
在本发明的实施例中,眼动轨迹为根据注视数据按顺序连接的有向线段的集合。
第二获取模块130用于获取Q个眼动轨迹中每两个眼动轨迹之间的差异度。
在本发明的实施例中,两个眼动轨迹之间的差异度为表示两个轨迹的轨迹形状、位置信息等方面的差异的数据。举例来说,对于轨迹A和轨迹B,第二获取模块130可分别计算轨迹A中每个向量与轨迹B中每个向量的向量差,并根据上述向量差的模(即向量差的长度)构成向量差矩阵。进而获取从向量差矩阵第一个元素到向量差矩阵最后一个元素的所有可能的路径,并计算每条路径上的全部矩阵元素的和,其中矩阵元素之和最小路径的为最优匹配路径。然后,本实施例可通过相应的算法对最优匹配路径上矩阵元素的和进行运算,以获取轨迹A和轨迹B之间的差异度。
第二生成模块140用于根据Q个眼动轨迹中每两个眼动轨迹之间的差异度对Q个眼动轨迹进行聚类以生成至少一个眼动轨迹类别。
在本发明的实施例中,第二生成模块140可根据各个轨迹之间的差异度的大小进行聚类。首先第二生成模块140将差异度最小的两个轨迹优先进行聚为一个眼动轨迹类别,然后计算这个眼动轨迹类别与其他轨迹之间的差异度,根据这个差异度和其他轨迹中每两个轨迹的差异度再次进行聚类,直到得到的眼动轨迹类别的个数满足预设要求。其中,预设要求为预先设定的眼动轨迹类别的个数。
第三生成模块150用于根据至少一个眼动轨迹类别生成针对待测页面的至少一个眼动轨迹规律。
举例来说,有5个用户,编号分别为0、1、2、3、4,可根据他们的眼动轨迹进行聚类。其中,3、4号用户的眼动轨迹可如图8(a)和图8(b)所示,均是从页面中下方到左上方,再到右下方,因此可将3、4号用户的眼动轨迹聚为一个眼动轨迹类别,该眼动轨迹类别对应的眼动轨迹规律可称为领结形。
0、2号用户的眼动轨迹可如图8(c)和图8(d)所示,均是从页面左上方到右上方,再到左下方、右下方,因此可将0、2号用户的眼动轨迹聚为一个眼动轨迹类别,该眼动轨迹类别对应的眼动轨迹规律可称为之字形。
1号用户的眼动轨迹可如图8(e)所示,均是从页面左下方到左上方,再到右上方、右下方,因此可将1号用户的眼动轨迹作为一个眼动轨迹类别,该眼动轨迹类别对应的眼动轨迹规律可称为门字形。
根据上述对眼动轨迹的分析结果,可得知部分用户在浏览实验页面时较为困扰,首先被页面中部内容吸引,其次又被页面顶端内容吸引,眼睛跳转频繁,因此应推动页面优化信息呈现层次。
另外,当有相似度较高的聚类时,还可以合并该类中的所有轨迹,观察合并结果。合并方法为,先合并最相似的2条轨迹,得到新轨迹后,再与第3条轨迹合并,以此类推。
在本发明的实施例中,眼动轨迹规律可由至少一个眼动轨迹类别生成。通过眼动轨迹规律,可了解用户浏览页面时的关注点和关注顺序等信息,对分析用户的喜好、需求有很大的帮助。
本发明实施例的眼动轨迹规律分析装置,通过获取注视数据并生成眼动轨迹,根据眼动轨迹之间的差异度进行聚类生成眼动轨迹类别,并进一步生成眼动轨迹规律,准确的反映了用户关注点以及关注顺序,更加清楚的反映了用户浏览页面的眼动轨迹规律,为软件、互联网公司的产品页面设计和优化提供了有力的数据支持,也能为更多开发者进行网站监控和优化提供支持。此外,降低了人工分析的成本,提高了可靠性,使用户体验更佳。
图5为根据本发明另一个实施例的眼动轨迹规律分析装置的结构示意图。
具体地,如图5所示,根据本发明实施例的眼动轨迹规律分析装置,包括:第一获取模块110、第一生成模块120、第二获取模块130、第二生成模块140和第三生成模块150。其中,第一生成模块120具体包括:连接单元121和第一生成单元122。第二获取模块130具体包括:第一获取单元131、第一建立单元132、第二建立单元133、第二获取单元134和第三获取单元135。第二生成模块140具体包括:第四获取单元141、第二生成单元142、第五获取单元143和第三生成单元144。
连接单元121用于根据注视时间信息将每个注视数据中的多个注视点按照时间顺序通过有向线段依次相连。
在本发明的实施例中,每个注视点都具有注视点发生时间和注视点结束时间,连接单元121可根据这个注视时间信息按照时间先后顺序两两相连,方向为前一个注视点向后一个注视点移动的方向。
第一生成单元122用于根据每个注视数据中多个注视点的位置信息和相邻两个注视点之间的有向线段生成至少一个眼动向量,并根据至少一个眼动向量生成每个注视数据中对应的眼动轨迹。在本发明的一个实施例中,眼动向量为连接一个注视点和其后一个注视点的有向线段,根据多个注视点生成的至少一个眼动向量首尾相连,即形成了一个眼动轨迹。
第一获取单元131用于获取多个眼动轨迹中第M个眼动轨迹中的每个眼动向量与多个眼动轨迹中第N个眼动轨迹中每个眼动向量的向量差,其中,M和N为小于等于Q的正整数。
第一建立单元132用于建立多个向量差集合。
第二建立单元133用于根据向量差集合建立第M个眼动轨迹和第N个眼动轨迹之间的向量差矩阵[aij]m×n,其中,m为第M个眼动轨迹中眼动向量的个数,n为第N个眼动轨迹中眼动向量的个数,矩阵元素aij为第M个眼动轨迹中第i个眼动向量与第N个眼动轨迹中第j个眼动向量的向量差的模。
第二获取单元134用于根据向量差矩阵获取从矩阵元素a11到amn的最优匹配路径。在本发明的实施例中,第二获取单元134可首先根据下述规则获取向量差矩阵中从a11到amn所有可能的路径:可到达aij的矩阵元素为ai-1jaij-1ai-1j-1;然后计算上述路径中每条路径中的矩阵元素之和,其中矩阵元素和最小的路径为最优匹配路径。
举例来说,如图7所示,对于如图7中的向量差矩阵,从D11到D22可以有三条路径,分别为D11-D22、D11-D12-D22、D11-D21-D22。其中,D11-D22这条路径向量差最小。同理,D11到D34可以有多条路径,选择向量差最小的一条路径,则这条路径为最优匹配路径。
第三获取单元135用于获取最优匹配路径中包含的矩阵元素,并对最优匹配路径中包含的矩阵元素求和以获取每两个眼动轨迹之间的差异度。
在本发明的实施例中,矩阵中a11到amn这条最优匹配路径包括多个矩阵元素,将这些矩阵元素求和,它们的向量差之和再除以预设常量,即为差异度。差异度越小眼动轨迹越相似。其中,预设常量可为预先设定,例如屏幕对角线长度等。
第四获取单元141用于将Q个眼动轨迹分别作为Q个待选眼动轨迹类别,并获取Q个待选眼动轨迹类别中差异度最小的H个待选眼动轨迹类别,H为预设值,且H小于Q的正整数。
在本发明的一个优选实施例中,H可为2,则将Q个眼动轨迹中的每两个眼动轨迹类别进行差异度计算,获取每两个眼动轨迹类别之间的差异度,最后获取差异度最小的两个待选眼动轨迹类别。
第二生成单元142用于对差异度最小的H个待选眼动轨迹类别进行聚类以生成第一眼动轨迹类别。
第五获取单元143用于获取第一眼动轨迹类别与Q个待选眼动轨迹类别中其他待选眼动轨迹类别的差异度。
第三生成单元144用于对差异度最小的H个轨迹类别进行聚类以生成第二眼动轨迹类别,直至Q个眼动轨迹的类别个数达到预设阈值。
其中,预设阈值为预先设定的最终要获得的眼动轨迹的类别个数。举例来说,对于P0、P1、P2、P3和P4为5个眼动轨迹,其中,差异度最小的P3和P4已经聚为一类,如果预设阈值为2,则可将其余的P0、P1和P2可作为另一类。如果预设阈值为3,则需要进一步分别计算P3和P4组成的眼动轨迹类别与P0、P1和P2之间的差异度,并与P0和P1,P0和P2,以及P1和P2之间的差异度进行比较,如果P0和P2的差异度最小,则可将P0和P2可分为一类,P1单独作为一类。
本发明实施例的眼动轨迹规律分析装置,通过获取注视数据并生成眼动轨迹,根据眼动轨迹之间的差异度进行聚类生成眼动轨迹类别,并进一步生成眼动轨迹规律,准确的反映了用户关注点以及关注顺序,更加清楚的反映了用户浏览页面的眼动轨迹规律,为软件、互联网公司的产品页面设计和优化提供了有力的数据支持,也能为更多开发者进行网站监控和优化提供支持。此外,降低了人工分析的成本,提高了可靠性,使用户体验更佳。
图6为根据本发明又一个具体实施例的眼动轨迹规律分析装置的结构示意图。
具体地,如图6所示,根据本发明实施例的眼动轨迹规律分析装置,包括:第一获取模块110、第一生成模块120、第二获取模块130、第二生成模块140、第三生成模块150和简化模块160。其中,第一生成模块120具体包括:连接单元121和第一生成单元122。第二获取模块130具体包括:第一获取单元131、第一建立单元132、第二建立单元133、第二获取单元134和第三获取单元135。第二生成模块140具体包括:第四获取单元141、第二生成单元142、第五获取单元143和第三生成单元144。简化模块160具体包括:第四生成单元161、第一更新单元162、第六获取单元163、第二更新单元164和第三更新单元165。
第四生成单元161用于Q个眼动轨迹中每个眼动轨迹中存在两个注视点的位置信息的差异小于第一阈值时,根据两个注视点的位置信息和注视时间信息生成新的注视点。
第一更新单元162用于删除两个注视点并添加新的注视点,以及更新眼动轨迹。
具体地,如果两个注视点的位置信息的差异小于第一阈值(如屏幕对角线长度的1/10、120像素等),则获取这两个点的横坐标、纵坐标根据注视点时长的加权平均值。第四生成单元161将这两个点删除并添加一个新的注视点,第一更新单元162更新眼动轨迹。其中,第一阈值为预先设定。
第六获取单元163用于Q个眼动轨迹中每个眼动轨迹中存在两个相邻眼动向量的方向差小于第二阈值时,获取两个相邻眼动向量的向量和。
第二更新单元164用于删除两个相邻眼动向量,并将向量和作为新的眼动向量,以及更新眼动轨迹。
具体地,两个相邻眼动向量的方向差小于第二阈值时,例如小于5度,则第六获取单元163获取这两个眼动向量的向量和作为一个新的向量,第二更新单元164更新眼动轨迹。其中,第二阈值为预先设定。
第三更新单元165用于Q个眼动轨迹中每个眼动轨迹中的注视点的注视时间信息超出预设时间范围,和/或位置信息超出预设区域时,删除对应的注视点,并更新眼动轨迹。
具体地,注视点的注视时间信息不在预设时间范围内,和/或位置信息不在预设区域范围内,则作为轨迹范围外的注视点,删除该注视点,并更新眼动轨迹。其中,预设时间范围和预设区域为预先设定。
在本发明的实施例中,第四生成单元161和第一更新单元162、第六获取单元163和第二更新单元164、第三更新单元165可单独作为简化眼动轨迹的装置,也可同时作为简化眼动轨迹的装置对眼动轨迹进行更新。
本发明实施例的眼动轨迹规律分析装置,通过对眼动轨迹的简化与更新,使得眼动轨迹更加准确,在眼动轨迹进行聚类时更加方便、简单,对用户眼动轨迹的分析提供更好的数据支持,提高用户体验。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同限定。

Claims (18)

1.一种眼动轨迹规律分析方法,其特征在于,包括以下步骤:
获取针对待测页面的Q个注视数据,其中,Q为大于1的正整数;
根据所述Q个注视数据分别生成对应的Q个眼动轨迹;
获取所述Q个眼动轨迹中每两个眼动轨迹之间的差异度;以及
根据所述Q个眼动轨迹中所述每两个眼动轨迹之间的差异度对所述Q个眼动轨迹进行聚类以生成至少一个眼动轨迹类别,并根据所述至少一个眼动轨迹类别生成针对所述待测页面的至少一个眼动轨迹规律。
2.如权利要求1所述的方法,其特征在于,每个所述注视数据包括至少一个注视点以及每个注视点对应的位置信息和注视时间信息。
3.如权利要求2所述的方法,其特征在于,所述注视数据包括多个注视点,所述根据Q个注视数据分别生成对应的Q个眼动轨迹具体包括:
根据所述注视时间信息将每个注视数据中的多个注视点按照时间顺序通过有向线段依次相连;以及
根据所述每个注视数据中多个注视点的位置信息和所述相邻两个注视点之间的有向线段生成至少一个眼动向量,并根据所述至少一个眼动向量生成每个注视数据中对应的眼动轨迹。
4.如权利要求3所述的方法,其特征在于,所述获取Q个眼动轨迹中每两个眼动轨迹之间的差异度具体包括:
获取所述多个眼动轨迹中第M个眼动轨迹中的每个眼动向量与所述多个眼动轨迹中第N个眼动轨迹中每个眼动向量的向量差,并建立多个向量差集合,其中,M和N为小于等于Q的正整数;
根据所述向量差集合建立所述第M个眼动轨迹和第N个眼动轨迹之间的向量差矩阵[aij]m×n,其中,m为所述第M个眼动轨迹中眼动向量的个数,n为所述第N个眼动轨迹中眼动向量的个数,矩阵元素aij为所述第M个眼动轨迹中第i个眼动向量与所述第N个眼动轨迹中第j个眼动向量的向量差的模;
根据所述向量差矩阵获取从矩阵元素a11到amn的最优匹配路径;以及
获取所述最优匹配路径中包含的矩阵元素,并根据所述最优匹配路径中包含的矩阵元素获取所述每两个眼动轨迹之间的差异度。
5.如权利要求1所述的方法,其特征在于,所述根据每两个眼动轨迹之间的差异度对所述Q个眼动轨迹进行聚类以生成至少一个眼动轨迹类别具体包括:
将所述Q个眼动轨迹分别作为Q个待选眼动轨迹类别,并获取所述Q个待选眼动轨迹类别中所述差异度最小的H个待选眼动轨迹类别,H为预设值,且H小于所述Q的正整数;
对所述差异度最小的H个待选眼动轨迹类别进行聚类以生成第一眼动轨迹类别;以及
获取所述第一眼动轨迹类别与所述Q个待选眼动轨迹类别中其他待选眼动轨迹类别的差异度,并继续对差异度最小的H个轨迹类别进行聚类以生成第二眼动轨迹类别,直至所述Q个眼动轨迹的类别个数达到预设阈值。
6.如权利要求3-5任一项所述的方法,其特征在于,在获取Q个眼动轨迹中每两个眼动轨迹之间的差异度之前,还包括:
对所述Q个眼动轨迹中的每个眼动轨迹进行简化。
7.如权利要求6所述的方法,其特征在于,所述对Q个眼动轨迹中的每个眼动轨迹进行简化具体包括:
如果所述Q个眼动轨迹中每个眼动轨迹中存在两个注视点的所述位置信息的差异小于第一阈值,则根据所述两个注视点的位置信息和注视时间信息生成新的注视点;以及
删除所述两个注视点并添加所述新的注视点,以及更新所述眼动轨迹。
8.如权利要求6所述的方法,其特征在于,所述对Q个眼动轨迹中的每个眼动轨迹进行简化具体包括:
如果所述Q个眼动轨迹中每个眼动轨迹中存在两个相邻眼动向量的方向差小于第二阈值,则获取所述两个相邻眼动向量的向量和;以及
删除所述两个相邻眼动向量,并将所述向量和作为新的眼动向量,以及更新所述眼动轨迹。
9.如权利要求6所述的方法,其特征在于,所述对Q个眼动轨迹中的每个眼动轨迹进行简化具体包括:
如果所述Q个眼动轨迹中每个眼动轨迹中的注视点的注视时间信息超出预设时间范围,和/或位置信息超出预设区域,则删除对应的所述注视点,并更新所述眼动轨迹。
10.一种眼动轨迹规律分析装置,其特征在于,包括:
第一获取模块,用于获取针对待测页面的Q个注视数据,其中,Q为大于1的正整数;
第一生成模块,用于根据所述Q个注视数据分别生成对应的Q个眼动轨迹;
第二获取模块,用于获取所述Q个眼动轨迹中每两个眼动轨迹之间的差异度;
第二生成模块,用于根据所述Q个眼动轨迹中所述每两个眼动轨迹之间的差异度对所述Q个眼动轨迹进行聚类以生成至少一个眼动轨迹类别;
第三生成模块,用于根据所述至少一个眼动轨迹类别生成针对所述待测页面的至少一个眼动轨迹规律。
11.如权利要求10所述的装置,其特征在于,每个所述注视数据包括至少一个注视点以及每个注视点对应的位置信息和注视时间信息。
12.如权利要求11所述的装置,其特征在于,所述第一生成模块具体包括:
连接单元,用于根据所述注视时间信息将每个注视数据中的多个注视点按照时间顺序通过有向线段依次相连;
第一生成单元,用于根据所述每个注视数据中多个注视点的位置信息和所述相邻两个注视点之间的有向线段生成至少一个眼动向量,并根据所述至少一个眼动向量生成每个注视数据中对应的眼动轨迹。
13.如权利要求12所述的装置,其特征在于,所述第二获取模块具体包括:
第一获取单元,用于获取所述多个眼动轨迹中第M个眼动轨迹中的每个眼动向量与所述多个眼动轨迹中第N个眼动轨迹中每个眼动向量的向量差,其中,M和N为小于等于Q的正整数;
第一建立单元,用于建立多个向量差集合;
第二建立单元,用于根据所述向量差集合建立所述第M个眼动轨迹和第N个眼动轨迹之间的向量差矩阵[aij]m×n,其中,m为所述第M个眼动轨迹中眼动向量的个数,n为所述第N个眼动轨迹中眼动向量的个数,矩阵元素aij为所述第M个眼动轨迹中第i个眼动向量与所述第N个眼动轨迹中第j个眼动向量的向量差的模;
第二获取单元,用于根据所述向量差矩阵获取从矩阵元素a11到amn的最优匹配路径;
第三获取单元,用于获取所述最优匹配路径中包含的矩阵元素,并根据所述最优匹配路径中包含的矩阵元素获取所述每两个眼动轨迹之间的差异度。
14.如权利要求9所述的装置,其特征在于,第二生成模块具体包括:
第四获取单元,用于将所述Q个眼动轨迹分别作为Q个待选眼动轨迹类别,并获取所述Q个待选眼动轨迹类别中所述差异度最小的H个待选眼动轨迹类别,H为预设值,且H小于所述Q的正整数;
第二生成单元,用于对所述差异度最小的H个待选眼动轨迹类别进行聚类以生成第一眼动轨迹类别;
第五获取单元,用于获取所述第一眼动轨迹类别与所述Q个待选眼动轨迹类别中其他待选眼动轨迹类别的差异度;
第三生成单元,用于对差异度最小的H个轨迹类别进行聚类以生成第二眼动轨迹类别,直至所述Q个眼动轨迹的类别个数达到预设阈值。
15.如权利要求12-14任一项所述的装置,其特征在于,还包括:
简化模块,用于对所述Q个眼动轨迹中的每个眼动轨迹进行简化。
16.如权利要求15所述的装置,其特征在于,所述简化模块具体包括:
第四生成单元,用于所述Q个眼动轨迹中每个眼动轨迹中存在两个注视点之间的所述位置信息的差异小于第一阈值时,根据所述两个相邻注视点的位置信息和注视时间信息生成新的注视点;
第一更新单元,用于删除所述两个相邻注视点并添加所述新的注视点,以及更新所述眼动轨迹。
17.如权利要求15所述的装置,其特征在于,所述简化模块还包括:
第六获取单元,用于所述Q个眼动轨迹中每个眼动轨迹中存在两个相邻眼动向量的方向差小于第二阈值时,获取所述两个相邻眼动向量的向量和;
第二更新单元,用于删除所述两个相邻眼动向量,并将所述向量和作为新的眼动向量,以及更新所述眼动轨迹。
18.如权利要求15所述的装置,其特征在于,所述简化模块还包括:
第三更新单元,用于所述Q个眼动轨迹中每个眼动轨迹中的注视点的注视时间信息超出预设时间范围,和/或位置信息超出预设区域时,删除对应的所述注视点,并更新所述眼动轨迹。
CN201310464796.1A 2013-10-08 2013-10-08 眼动轨迹规律分析方法和装置 Active CN103500011B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310464796.1A CN103500011B (zh) 2013-10-08 2013-10-08 眼动轨迹规律分析方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310464796.1A CN103500011B (zh) 2013-10-08 2013-10-08 眼动轨迹规律分析方法和装置

Publications (2)

Publication Number Publication Date
CN103500011A true CN103500011A (zh) 2014-01-08
CN103500011B CN103500011B (zh) 2016-08-17

Family

ID=49865230

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310464796.1A Active CN103500011B (zh) 2013-10-08 2013-10-08 眼动轨迹规律分析方法和装置

Country Status (1)

Country Link
CN (1) CN103500011B (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504404A (zh) * 2015-01-23 2015-04-08 北京工业大学 一种基于视觉行为的网上用户类型识别方法及系统
CN105700677A (zh) * 2015-12-29 2016-06-22 努比亚技术有限公司 一种移动终端及其控制方法
CN105785825A (zh) * 2016-04-13 2016-07-20 珠海格力电器股份有限公司 预估显示位置的方法,装置和系统
CN106127149A (zh) * 2016-06-22 2016-11-16 南京大学 一种基于眼动数据的流程图笔划成组的方法和装置
CN106200905A (zh) * 2016-06-27 2016-12-07 联想(北京)有限公司 信息处理方法及电子设备
CN106923908A (zh) * 2015-12-29 2017-07-07 东洋大学校产学协力团 性别注视特性分析系统
CN104899565B (zh) * 2015-06-01 2018-05-18 中国人民解放军军事医学科学院放射与辐射医学研究所 基于纹理特征的眼动轨迹识别方法及装置
CN108320246A (zh) * 2018-01-29 2018-07-24 上海康斐信息技术有限公司 一种电子竞技赛后分析方法及系统
CN108764975A (zh) * 2018-05-13 2018-11-06 深圳纬目信息技术有限公司 一种基于区块链的广告传播方法和装置
CN108932473A (zh) * 2018-05-28 2018-12-04 中国建设银行股份有限公司 眼动轨迹特征提取方法、装置和存储介质
CN109255342A (zh) * 2018-11-20 2019-01-22 武汉大学 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统
CN110166839A (zh) * 2019-06-15 2019-08-23 韶关市启之信息技术有限公司 一种验证视频是否被观看的方法与系统
US10657036B2 (en) 2016-01-12 2020-05-19 Micro Focus Llc Determining visual testing coverages
CN112070641A (zh) * 2020-09-16 2020-12-11 东莞市东全智能科技有限公司 基于眼动追踪的教学质量评测方法、装置及系统
CN112331351A (zh) * 2020-11-03 2021-02-05 四川大学 集成眼动数据分析的抑郁症数据筛查方法及系统
CN112596602A (zh) * 2019-09-17 2021-04-02 奥迪股份公司 用于调整显示屏上的信息显示的装置及相应的方法和介质
CN115509900A (zh) * 2022-09-15 2022-12-23 上海宜软检测技术有限公司 一种功能测试用例生成方法及系统
CN115686199A (zh) * 2022-10-11 2023-02-03 北京津发科技股份有限公司 一种群体眼动轨迹生成方法、装置、计算设备及存储介质
WO2023197910A1 (zh) * 2022-04-12 2023-10-19 华为技术有限公司 一种用户行为预测方法及其相关设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1996342A (zh) * 2005-12-28 2007-07-11 中国人民解放军第三军医大学第一附属医院 数字视频眼动分析仪
CN102521845A (zh) * 2011-12-13 2012-06-27 天津大学 基于图论的视觉注意焦点转移轨迹规划方法
CN102880292A (zh) * 2012-09-11 2013-01-16 上海摩软通讯技术有限公司 移动终端及其操控方法
CN102914932A (zh) * 2011-08-03 2013-02-06 浪潮乐金数字移动通信有限公司 一种利用摄像设备用户的眼睛来对焦的方法及摄像设备
CN102981620A (zh) * 2012-11-27 2013-03-20 中兴通讯股份有限公司 一种终端操作方法及终端

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1996342A (zh) * 2005-12-28 2007-07-11 中国人民解放军第三军医大学第一附属医院 数字视频眼动分析仪
CN102914932A (zh) * 2011-08-03 2013-02-06 浪潮乐金数字移动通信有限公司 一种利用摄像设备用户的眼睛来对焦的方法及摄像设备
CN102521845A (zh) * 2011-12-13 2012-06-27 天津大学 基于图论的视觉注意焦点转移轨迹规划方法
CN102880292A (zh) * 2012-09-11 2013-01-16 上海摩软通讯技术有限公司 移动终端及其操控方法
CN102981620A (zh) * 2012-11-27 2013-03-20 中兴通讯股份有限公司 一种终端操作方法及终端

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016115895A1 (zh) * 2015-01-23 2016-07-28 北京工业大学 一种基于视觉行为的网上用户类型识别方法及系统
CN104504404A (zh) * 2015-01-23 2015-04-08 北京工业大学 一种基于视觉行为的网上用户类型识别方法及系统
CN104504404B (zh) * 2015-01-23 2018-01-12 北京工业大学 一种基于视觉行为的网上用户类型识别方法及系统
CN104899565B (zh) * 2015-06-01 2018-05-18 中国人民解放军军事医学科学院放射与辐射医学研究所 基于纹理特征的眼动轨迹识别方法及装置
CN106923908A (zh) * 2015-12-29 2017-07-07 东洋大学校产学协力团 性别注视特性分析系统
CN105700677A (zh) * 2015-12-29 2016-06-22 努比亚技术有限公司 一种移动终端及其控制方法
US10657036B2 (en) 2016-01-12 2020-05-19 Micro Focus Llc Determining visual testing coverages
CN105785825A (zh) * 2016-04-13 2016-07-20 珠海格力电器股份有限公司 预估显示位置的方法,装置和系统
CN105785825B (zh) * 2016-04-13 2018-01-23 珠海格力电器股份有限公司 预估显示位置的方法,装置和系统
CN106127149A (zh) * 2016-06-22 2016-11-16 南京大学 一种基于眼动数据的流程图笔划成组的方法和装置
CN106200905A (zh) * 2016-06-27 2016-12-07 联想(北京)有限公司 信息处理方法及电子设备
US10664689B2 (en) 2016-06-27 2020-05-26 Lenovo (Beijing) Co., Ltd. Determining user activity based on eye motion
CN106200905B (zh) * 2016-06-27 2019-03-29 联想(北京)有限公司 信息处理方法及电子设备
CN108320246A (zh) * 2018-01-29 2018-07-24 上海康斐信息技术有限公司 一种电子竞技赛后分析方法及系统
CN108764975A (zh) * 2018-05-13 2018-11-06 深圳纬目信息技术有限公司 一种基于区块链的广告传播方法和装置
CN108932473A (zh) * 2018-05-28 2018-12-04 中国建设银行股份有限公司 眼动轨迹特征提取方法、装置和存储介质
CN109255342A (zh) * 2018-11-20 2019-01-22 武汉大学 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统
CN110166839A (zh) * 2019-06-15 2019-08-23 韶关市启之信息技术有限公司 一种验证视频是否被观看的方法与系统
CN112596602A (zh) * 2019-09-17 2021-04-02 奥迪股份公司 用于调整显示屏上的信息显示的装置及相应的方法和介质
CN112070641A (zh) * 2020-09-16 2020-12-11 东莞市东全智能科技有限公司 基于眼动追踪的教学质量评测方法、装置及系统
CN112331351A (zh) * 2020-11-03 2021-02-05 四川大学 集成眼动数据分析的抑郁症数据筛查方法及系统
CN112331351B (zh) * 2020-11-03 2023-03-31 四川大学 集成眼动数据分析的抑郁症数据筛查系统
WO2023197910A1 (zh) * 2022-04-12 2023-10-19 华为技术有限公司 一种用户行为预测方法及其相关设备
CN115509900A (zh) * 2022-09-15 2022-12-23 上海宜软检测技术有限公司 一种功能测试用例生成方法及系统
CN115509900B (zh) * 2022-09-15 2024-02-02 上海宜软检测技术有限公司 一种功能测试用例生成方法及系统
CN115686199A (zh) * 2022-10-11 2023-02-03 北京津发科技股份有限公司 一种群体眼动轨迹生成方法、装置、计算设备及存储介质

Also Published As

Publication number Publication date
CN103500011B (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
CN103500011A (zh) 眼动轨迹规律分析方法和装置
CN110399848A (zh) 视频封面生成方法、装置及电子设备
CN104573706B (zh) 一种物体图像识别方法及其系统
CN108108743B (zh) 异常用户识别方法和用于识别异常用户的装置
CN109034365A (zh) 深度学习模型的训练方法及装置
EP2846309B1 (en) Method and apparatus for segmenting object in image
CN105518712A (zh) 基于字符识别的关键词通知方法及设备、计算机程序产品
CN103984688A (zh) 一种基于本地词库提供输入候选词条的方法与设备
CN102880688A (zh) 一种用于对网页进行评估的方法、装置和设备
CN109784369A (zh) H5页面测试方法与装置、电子设备、存储介质
CN110177295A (zh) 字幕越界的处理方法、装置和电子设备
US20240104148A1 (en) Identifying web elements based on user browsing activity and machine learning
CN104102733A (zh) 搜索内容提供方法和搜索引擎
US20160203222A1 (en) Search method, search system, and search engine
JP7285899B2 (ja) ユーザ画像認識モデルの更新方法、装置、電子機器、コンピュータ可読記録媒体及びコンピュータプログラム
CN105718848A (zh) 一种指纹图像的质量评估方法及装置
CN111563810A (zh) 信贷风控模型生成方法、信用评估方法、系统、机器可读介质及设备
CN108038541B (zh) Ctr预估的方法、装置、设备及计算机可读介质
CN116129452A (zh) 文档理解模型的生成方法、应用方法、装置、设备及介质
JP2014215685A (ja) レコメンドサーバおよびレコメンドコンテンツ決定方法
CN105260092A (zh) 一种动态改变输入键盘的方法和装置
CN110569887A (zh) 基于预测层特征增强的目标检测方法、存储介质及设备
CN105450412A (zh) 身份认证方法及装置
CN110287816A (zh) 车门动作检测方法、装置和计算机可读存储介质
CN106101579A (zh) 一种视频拼接的方法及移动终端

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant