CN110781846A - 一种融合视觉广度特点的视觉注意计算方法 - Google Patents

一种融合视觉广度特点的视觉注意计算方法 Download PDF

Info

Publication number
CN110781846A
CN110781846A CN201911043889.0A CN201911043889A CN110781846A CN 110781846 A CN110781846 A CN 110781846A CN 201911043889 A CN201911043889 A CN 201911043889A CN 110781846 A CN110781846 A CN 110781846A
Authority
CN
China
Prior art keywords
point
fixation
edge
class
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911043889.0A
Other languages
English (en)
Other versions
CN110781846B (zh
Inventor
胡文婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Open University of Jiangsu City Vocational College
Original Assignee
Jiangsu Open University of Jiangsu City Vocational College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Open University of Jiangsu City Vocational College filed Critical Jiangsu Open University of Jiangsu City Vocational College
Priority to CN201911043889.0A priority Critical patent/CN110781846B/zh
Publication of CN110781846A publication Critical patent/CN110781846A/zh
Application granted granted Critical
Publication of CN110781846B publication Critical patent/CN110781846B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种融合视觉广度特点的视觉注意计算方法,将人类视觉系统视网膜成像机制作为视觉具有注意广度特点的基础,利用眼动仪采集用户浏览界面的眼动信息,将界面上每一个类注视点分别采用核心注视点集和边缘注视点集来表示,进而建立边缘注视点的隶属度表达式,使得每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。最后根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,构建个体对界面对象的视觉注意计算表达式。本发明用于描述用户对界面对象的感兴趣程度,旨在提高预测用户兴趣意图的准确性。

Description

一种融合视觉广度特点的视觉注意计算方法
技术领域
本发明属于人机交互技术领域,具体涉及一种融合视觉广度特点的视觉注意计算方法。
背景技术
注意是心理活动或意识在某一时刻所处的状态,表现为对一定对象的指向与集中。然而,当前对于注意的研究面临不少困难和挑战,主要因为注意难以被人察觉,也很难找到合适的方法进行度量。实际上,人类在同一时间接收到的刺激是海量的,但是人类对于信息加工和处理在很大程度上却依赖于视觉。
视觉注意是利用视觉信息进行注意选择的心理现象,眼睛能够在复杂的视觉场景中忽视其他不太重要的场景信息,迅速地找到感兴趣的区域或对象。因此,采用计算机模拟人类视觉的视觉注意机制具有重要意义,这种视觉注意计算模型应用越来越广泛,涉及网页测试、广告评估、人机交互研究、产品可用性评估等多个领域。然而,与传统的视觉注意计算模型相比,眼动信息更能真实地反映个体视觉系统整合了哪些信息,准确地体现个体如何分配视觉注意,用于计算个体对界面场景中对象的感兴趣程度。
视网膜成像的空间不均匀性是人类视觉系统感知外界的重要特性之一。视网膜的中央凹区域的视觉敏感度最高,随着偏离中央凹角度越大,敏感度呈现指数下降形式。
本专利将人类视觉系统视网膜成像机制作为视觉具有注意广度特点的基础,利用眼动仪采集用户浏览界面的眼动信息,将界面上每一个类注视点分别采用核心注视点集和边缘注视点集来表示,用于建立一种边缘注视点的隶属度表达式,使得每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。最后,根据每个边缘注视点的隶属度值,结合每个界面上眼动信息(注视点坐标和注视时间),构建个体对界面对象的视觉注意计算表达式。该方法用于描述用户对界面对象的感兴趣程度,旨在提高预测用户兴趣意图的准确性。
发明内容
本发明所要解决的技术问题是针对上述现有技术的不足,提供一种融合视觉广度特点的视觉注意计算方法。
为实现上述技术目的,本发明采取的技术方案为:
一种融合视觉广度特点的视觉注意计算方法,包括以下步骤:
步骤1:采集用户浏览界面的眼动信息;
步骤2:分析和筛选用户的眼动信息;
步骤3:聚类界面上的注视点;
步骤4:将每一个类注视点集划分为核心注视点集和边缘注视点集;
步骤5:计算边缘注视点的隶属度;
步骤6:根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,计算用户对界面对象的视觉注意。
为优化上述技术方案,采取的具体措施还包括:
上述的步骤1中,选择Eyelink2000眼动仪采集用户浏览界面的眼动信息。
上述的步骤2中,筛选获取眼动信息中的注视点坐标、注视时间和眼动轨迹图;
剔除注视点坐标不在眼动轨迹图上的注视点;
剔除注视时间小于100ms和大于2000ms的注视点。
上述的步骤3中,采用K-means聚类方法对界面上的注视点进行聚类,将界面上注视点明确划分到每一个类中。
上述的步骤4中,一个类中注视点到其他类中注视点距离小于设定值时,则该注视点属于该类中的核心注视点集,否则,该注视点属于该类中的边缘注视点集。
上述的步骤5中,每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。
上述的步骤3所述聚类界面上的注视点,包括以下步骤:
步骤301:输入界面上所有注视点坐标集U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
步骤302:随机选取k个聚类中心v1,v2,…,vj,…,vk
步骤303:计算每个注视点xi到每个聚类中心vj的距离,将其划分到距离最小的类中;
步骤304:重新计算每个聚类注视点的均值,作为新的聚类中心
Figure BDA0002253600400000021
步骤305:判断聚类中心是否发生变化,若未变化,则转至步骤306,否则,转至步骤303;
步骤306:计算标准测度函数,并判断是否满足设定条件,若满足,则算法终止,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Ci表示为某个聚类集合;否则,回到步骤302。
上述的步骤4所述将每一个类注视点集划分为核心注视点集和边缘注视点集,包括以下步骤:
步骤401:输入聚类结果CS={C1,C2,…,Cj,…,Ck}及注视点广度半径r;
步骤402:计算每个类中的注视点到其他类中注视点的距离,如果某个类中的注视点xi到其他类中注视点xi+1的距离大于2r,则该注视点xi划分到该类Cj的核心注视点集
Figure BDA0002253600400000031
反之,该注视点划分到该类的边缘注视点集
Figure BDA0002253600400000032
步骤403:输出聚类结果
Figure BDA0002253600400000033
并满足以下性质:1)
Figure BDA0002253600400000034
不能为空集,2)保证集合U中每个注视点至少被划分到一个类中。
上述的步骤5所述计算边缘注视点的隶属度,包括以下步骤:
步骤501:输入聚类结果
Figure BDA0002253600400000035
及界面上所有边缘注视点集
Figure BDA0002253600400000036
l表示为界面上边缘注视点的个数;
步骤502:计算每个类中边缘注视点集
Figure BDA0002253600400000037
的注视点到其他类中边缘注视点集的注视点的距离,如果某个类中边缘注视点集的注视点
Figure BDA0002253600400000039
到其他类
Figure BDA00022536004000000310
中边缘注视点集的任意注视点的距离小于2r,则表明注视点
Figure BDA00022536004000000311
与其他类
Figure BDA00022536004000000312
有一定的隶属关系;反之,该注视点只属于该类
Figure BDA00022536004000000314
中边缘注视点集,与其他类没有任何隶属关系;
步骤503:构建隶属度关系的判断矩阵如果某个类
Figure BDA00022536004000000316
中边缘注视点集的注视点
Figure BDA00022536004000000317
到其他类
Figure BDA00022536004000000318
中边缘注视点集的任意注视点的距离小于2r,则标记
Figure BDA00022536004000000319
数值为1;反之,标记
Figure BDA00022536004000000320
数值为0;
步骤504:根据隶属度关系的判断矩阵
Figure BDA00022536004000000321
构建距离矩阵
Figure BDA00022536004000000322
Figure BDA0002253600400000041
时,计算注视点
Figure BDA0002253600400000042
到其他类
Figure BDA0002253600400000043
聚类中心
Figure BDA0002253600400000044
的距离,计算公式为:
Figure BDA0002253600400000045
Figure BDA0002253600400000046
时,
Figure BDA0002253600400000047
步骤505:计算各个类中注视点
Figure BDA0002253600400000048
与其他类
Figure BDA0002253600400000049
的隶属度值:
Figure BDA00022536004000000410
上述的步骤6所述根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,计算用户对界面对象的视觉注意,包括以下步骤:
步骤601:输入隶属度
Figure BDA00022536004000000411
及界面上所有注视点时间集1≤j≤k,其中
Figure BDA00022536004000000412
表示为类Cj的核心点注视时间集,
Figure BDA00022536004000000413
表示为类Cj的边缘注视点的注视时间集;
步骤602:分别计算每个界面对象核心注视点的注视时间;
步骤603:分别计算每个界面对象边缘注视点的注视时间
Figure BDA00022536004000000414
计算公式为:
步骤604:计算用户对界面对象的视觉注意,计算公式为:
Figure BDA00022536004000000416
1≤j≤k且
Figure BDA00022536004000000417
步骤605:输出用户对界面对象兴趣程度的结果{G1,G2,…,Gk}。
本发明具有以下有益效果:
1、采用眼动仪捕捉个体的眼动信息,能够真实刻画用户对界面感兴趣的位置和程度,突破传统使用计算机算法模拟人类视觉注意方法;
2、根据人类视觉系统的感知特点,即根据人类视线一次感知具有广度的特点,将界面上每一个类注视点采用两个集合(核心注视点集和边缘注视点集)来表示;
3、构建一种隶属度函数,使得每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度;
4、构建个体对界面对象的视觉注意计算表达式,用于描述用户对界面对象的感兴趣程度,识别用户在线浏览的兴趣意图。
附图说明
图1是本发明的流程图。
图2是本发明实施例的注视点聚类示意图。
图3是本发明实施例的视线—界面的映射关系图。
图4是本发明实施例的注视点的视网膜成像图。
图5是本发明实施例的核心和边缘注视点聚类示意图。
具体实施方式
以下结合附图对本发明的实施例作进一步详细描述。
如图1所示,本发明的一种融合视觉广度特点的视觉注意计算方法,包括以下步骤:
步骤1:采集用户浏览界面的眼动信息;
实施例中,选择Eyelink2000眼动仪采集用户浏览界面的眼动信息;
步骤2:分析和筛选用户的眼动信息,剔除无效或有误的眼动信息。眼动信息包含了一系列空间和时间维度的眼动指标,如注视时间、眼跳、瞳孔大小和眨眼等,本发明选取眼动指标中的注视点坐标、注视时间用于衡量个体对界面对象感兴趣程度;
具体筛选获取眼动信息中的注视点坐标、注视时间和眼动轨迹图;
剔除注视点坐标不在眼动轨迹图上的注视点;
剔除注视时间小于100ms和大于2000ms的注视点。
步骤3:聚类界面上的注视点;
实施例中,根据注视点坐标这一眼动指标,采用K-means聚类方法(硬聚类)对界面上的注视点进行聚类,将界面上注视点明确划分到每一个类(界面对象)中;
包括以下步骤:
步骤301:输入界面上所有注视点坐标集U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
步骤302:随机选取k个聚类中心v1,v2,…,vj,…,vk
步骤303:计算每个注视点xi到每个聚类中心vj的距离,将其划分到距离最小的类中;
步骤304:重新计算每个聚类注视点的均值,作为新的聚类中心
步骤305:判断聚类中心是否发生变化,若未变化,则转至步骤306,否则,转至步骤303;
步骤306:计算标准测度函数,并判断是否满足设定条件,如是否满足函数收敛,若满足,则算法终止,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Ci表示为某个聚类集合;否则,回到步骤302。
如图2所示,注视点明确地划分到两个类中,其中实心圆形属于一个类,五角星是该类的聚类中心;实心正方形属于另一个类,七角星是该类的聚类中心。
步骤4:根据人类视线一次感知具有广度的特点,将每一个类注视点集划分为核心注视点集和边缘注视点集,一个类中注视点到其他类中注视点距离小于设定值时,则该注视点属于该类中的核心注视点集,否则,该注视点属于该类中的边缘注视点集;
如图3所示,人类视线一次感知具有广度的特点,视线就像聚光灯一样,在光线聚焦的地方清晰可见,而在其它没有聚焦的地方相对比较模糊。如图4所示,当注视点落在红色十字处的眼睛视网膜成像图时,离注视点越近的区域成像越清楚,离注视点越远的区域成像越模糊。如图5所示,注视点划分到两个类中,每一类包含核心注视点和边缘注视点,其中实心圆形属于一个类的核心注视点,空心圆圈属于该类的边缘注视点,五角星是该类的聚类中心;实心正方形属于另一个类的核心注视点,空心方块属于该类的边缘注视点,七角星是该类的聚类中心。
具体包括以下步骤:
步骤401:输入聚类结果CS={C1,C2,…,Cj,…,Ck}及注视点广度半径r;
步骤402:计算每个类中的注视点到其他类中注视点的距离,如果某个类中的注视点xi到其他类中注视点xi+1的距离大于2r,则该注视点xi划分到该类Cj的核心注视点集
Figure BDA0002253600400000061
反之,该注视点划分到该类的边缘注视点集
Figure BDA0002253600400000062
步骤403:输出聚类结果并满足以下性质:1)
Figure BDA0002253600400000064
不能为空集,2)保证集合U中每个注视点至少被划分到一个类中。
步骤5:由于类中的边缘注视点对其他类(界面对象)也有所感知,需计算边缘注视点的隶属度,使每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度;
包括以下步骤:
步骤501:输入聚类结果
Figure BDA0002253600400000071
及界面上所有边缘注视点集
Figure BDA0002253600400000072
l表示为界面上边缘注视点的个数;
步骤502:计算每个类中边缘注视点集的注视点到其他类中边缘注视点集的注视点的距离,如果某个类
Figure BDA0002253600400000074
中边缘注视点集的注视点
Figure BDA0002253600400000075
到其他类
Figure BDA0002253600400000076
中边缘注视点集的任意注视点的距离小于2r,则表明注视点与其他类
Figure BDA0002253600400000078
有一定的隶属关系;反之,该注视点只属于该类
Figure BDA00022536004000000710
中边缘注视点集,与其他类没有任何隶属关系;
步骤503:为了判断每个类中边缘注视点与其他类之间是否存在隶属度关系,构建隶属度关系的判断矩阵如果某个类
Figure BDA00022536004000000712
中边缘注视点集的注视点到其他类
Figure BDA00022536004000000714
中边缘注视点集的任意注视点的距离小于2r,则标记数值为1;反之,标记
Figure BDA00022536004000000716
数值为0;
步骤504:根据隶属度关系的判断矩阵
Figure BDA00022536004000000717
构建距离矩阵
Figure BDA00022536004000000718
时,计算注视点
Figure BDA00022536004000000720
到其他类
Figure BDA00022536004000000721
聚类中心
Figure BDA00022536004000000722
的距离,计算公式为:
Figure BDA00022536004000000723
Figure BDA00022536004000000724
时,
Figure BDA00022536004000000725
步骤505:计算各个类中注视点
Figure BDA00022536004000000726
与其他类
Figure BDA00022536004000000727
的隶属度值:
步骤6:根据每个边缘注视点的隶属度值,结合每个界面上眼动信息(注视点坐标和注视时间),计算用户对界面对象的视觉注意,包括以下步骤:
步骤601:输入隶属度
Figure BDA0002253600400000081
及界面上所有注视点时间集1≤j≤k,其中
Figure BDA0002253600400000082
表示为类Cj的核心点注视时间集,
Figure BDA0002253600400000083
表示为类Cj的边缘注视点的注视时间集;
步骤602:分别计算每个界面对象核心注视点的注视时间
Figure BDA0002253600400000084
即对每个界面对象中所有核心点注视时间求和;
步骤603:分别计算每个界面对象边缘注视点的注视时间
Figure BDA0002253600400000085
即对每个界面对象中所有边缘点注视时间加权求和,计算公式为:
Figure BDA0002253600400000086
步骤604:计算用户对界面对象的视觉注意,计算公式为:
Figure BDA0002253600400000087
1≤j≤k且
Figure BDA0002253600400000088
步骤605:输出用户对界面对象兴趣程度的结果{G1,G2,…,Gk}。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (10)

1.一种融合视觉广度特点的视觉注意计算方法,其特征在于:包括以下步骤:
步骤1:采集用户浏览界面的眼动信息;
步骤2:分析和筛选用户的眼动信息;
步骤3:聚类界面上的注视点;
步骤4:将每一个类注视点集划分为核心注视点集和边缘注视点集;
步骤5:计算边缘注视点的隶属度;
步骤6:根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,计算用户对界面对象的视觉注意。
2.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤1中,选择Eyelink2000眼动仪采集用户浏览界面的眼动信息。
3.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤2中,筛选获取眼动信息中的注视点坐标、注视时间和眼动轨迹图;
剔除注视点坐标不在眼动轨迹图上的注视点;
剔除注视时间小于100ms和大于2000ms的注视点。
4.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤3中,采用K-means聚类方法对界面上的注视点进行聚类,将界面上注视点明确划分到每一个类中。
5.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤4中,一个类中注视点到其他类中注视点距离小于设定值时,则该注视点属于该类中的核心注视点集,否则,该注视点属于该类中的边缘注视点集。
6.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤5中,每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。
7.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤3所述聚类界面上的注视点,包括以下步骤:
步骤301:输入界面上所有注视点坐标集U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
步骤302:随机选取k个聚类中心v1,v2,…,vj,…,vk
步骤303:计算每个注视点xi到每个聚类中心vj的距离,将其划分到距离最小的类中;
步骤304:重新计算每个聚类注视点的均值,作为新的聚类中心
步骤305:判断聚类中心是否发生变化,若未变化,则转至步骤306,否则,转至步骤303;
步骤306:计算标准测度函数,并判断是否满足设定条件,若满足,则算法终止,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Ci表示为某个聚类集合;否则,回到步骤302。
8.根据权利要求7所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤4所述将每一个类注视点集划分为核心注视点集和边缘注视点集,包括以下步骤:
步骤401:输入聚类结果CS={C1,C2,…,Cj,…,Ck}及注视点广度半径r;
步骤402:计算每个类中的注视点到其他类中注视点的距离,如果某个类中的注视点xi到其他类中注视点xi+1的距离大于2r,则该注视点xi划分到该类Cj的核心注视点集反之,该注视点划分到该类的边缘注视点集
Figure FDA0002253600390000023
步骤403:输出聚类结果
Figure FDA0002253600390000024
并满足以下性质:1)不能为空集,2)保证集合U中每个注视点至少被划分到一个类中。
9.根据权利要求8所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤5所述计算边缘注视点的隶属度,包括以下步骤:
步骤501:输入聚类结果
Figure FDA0002253600390000026
及界面上所有边缘注视点集l表示为界面上边缘注视点的个数;
步骤502:计算每个类中边缘注视点集
Figure FDA0002253600390000028
的注视点到其他类中边缘注视点集的注视点的距离,如果某个类
Figure FDA0002253600390000029
中边缘注视点集的注视点
Figure FDA00022536003900000210
到其他类
Figure FDA00022536003900000211
中边缘注视点集的任意注视点的距离小于2r,则表明注视点与其他类
Figure FDA00022536003900000213
有一定的隶属关系;反之,该注视点只属于该类
Figure FDA00022536003900000215
中边缘注视点集,与其他类没有任何隶属关系;
步骤503:构建隶属度关系的判断矩阵
Figure FDA00022536003900000216
如果某个类
Figure FDA00022536003900000217
中边缘注视点集的注视点到其他类
Figure FDA0002253600390000032
中边缘注视点集的任意注视点的距离小于2r,则标记
Figure FDA0002253600390000033
数值为1;反之,标记
Figure FDA0002253600390000034
数值为0;
步骤504:根据隶属度关系的判断矩阵
Figure FDA0002253600390000035
构建距离矩阵
Figure FDA0002253600390000036
Figure FDA0002253600390000037
时,计算注视点
Figure FDA0002253600390000038
到其他类
Figure FDA0002253600390000039
聚类中心
Figure FDA00022536003900000310
的距离,计算公式为:
Figure FDA00022536003900000311
Figure FDA00022536003900000312
时,
Figure FDA00022536003900000313
步骤505:计算各个类中注视点
Figure FDA00022536003900000314
与其他类
Figure FDA00022536003900000315
的隶属度值:
Figure FDA00022536003900000316
10.根据权利要求9所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤6所述根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,计算用户对界面对象的视觉注意,包括以下步骤:
步骤601:输入隶属度
Figure FDA00022536003900000317
及界面上所有注视点时间集1≤j≤k,其中
Figure FDA00022536003900000318
表示为类Cj的核心点注视时间集,
Figure FDA00022536003900000319
表示为类Cj的边缘注视点的注视时间集;
步骤602:分别计算每个界面对象核心注视点的注视时间
Figure FDA00022536003900000320
步骤603:分别计算每个界面对象边缘注视点的注视时间
Figure FDA00022536003900000321
计算公式为:
步骤604:计算用户对界面对象的视觉注意,计算公式为:
Figure FDA0002253600390000041
步骤605:输出用户对界面对象兴趣程度的结果{G1,G2,…,Gk}。
CN201911043889.0A 2019-10-30 2019-10-30 一种融合视觉广度特点的视觉注意计算方法 Active CN110781846B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911043889.0A CN110781846B (zh) 2019-10-30 2019-10-30 一种融合视觉广度特点的视觉注意计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911043889.0A CN110781846B (zh) 2019-10-30 2019-10-30 一种融合视觉广度特点的视觉注意计算方法

Publications (2)

Publication Number Publication Date
CN110781846A true CN110781846A (zh) 2020-02-11
CN110781846B CN110781846B (zh) 2021-02-09

Family

ID=69387690

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911043889.0A Active CN110781846B (zh) 2019-10-30 2019-10-30 一种融合视觉广度特点的视觉注意计算方法

Country Status (1)

Country Link
CN (1) CN110781846B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090060267A1 (en) * 2006-04-28 2009-03-05 Xiao Dong Gu Salience estimation for object-based visual attention model
CN103903276A (zh) * 2014-04-23 2014-07-02 吉林大学 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法
CN104700090A (zh) * 2015-03-25 2015-06-10 武汉大学 基于密度的眼动注视点测定方法及系统
CN105426399A (zh) * 2015-10-29 2016-03-23 天津大学 一种基于眼动的提取图像兴趣区域的交互式图像检索方法
US20160132749A1 (en) * 2013-06-12 2016-05-12 3M Innovative Properties Company Systems and methods for computing and presenting results of visual attention modeling
CN108338798A (zh) * 2017-01-25 2018-07-31 北京数字新思科技有限公司 一种注意力测量方法和系统
CN109255342A (zh) * 2018-11-20 2019-01-22 武汉大学 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统
CN109726713A (zh) * 2018-12-03 2019-05-07 东南大学 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090060267A1 (en) * 2006-04-28 2009-03-05 Xiao Dong Gu Salience estimation for object-based visual attention model
US20160132749A1 (en) * 2013-06-12 2016-05-12 3M Innovative Properties Company Systems and methods for computing and presenting results of visual attention modeling
CN103903276A (zh) * 2014-04-23 2014-07-02 吉林大学 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法
CN104700090A (zh) * 2015-03-25 2015-06-10 武汉大学 基于密度的眼动注视点测定方法及系统
CN105426399A (zh) * 2015-10-29 2016-03-23 天津大学 一种基于眼动的提取图像兴趣区域的交互式图像检索方法
CN108338798A (zh) * 2017-01-25 2018-07-31 北京数字新思科技有限公司 一种注意力测量方法和系统
CN109255342A (zh) * 2018-11-20 2019-01-22 武汉大学 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统
CN109726713A (zh) * 2018-12-03 2019-05-07 东南大学 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
胡文婷 等: "一种基于模糊核聚类的视觉注意分配度量方法", 《统计与信息论坛》 *
胡文婷 等: "基于视线跟踪的智能界面实现机制研究", 《计算机应用与软件》 *
陈居现 等: "基于人眼视觉注意和图像聚类分析的ROI提取方法", 《光学技术》 *

Also Published As

Publication number Publication date
CN110781846B (zh) 2021-02-09

Similar Documents

Publication Publication Date Title
Kar et al. A review and analysis of eye-gaze estimation systems, algorithms and performance evaluation methods in consumer platforms
US20230107040A1 (en) Human-computer interface using high-speed and accurate tracking of user interactions
Kosch et al. Your eyes tell: Leveraging smooth pursuit for assessing cognitive workload
Lee et al. 3D gaze tracking method using Purkinje images on eye optical model and pupil
Vansteenkiste et al. Measuring dwell time percentage from head-mounted eye-tracking data–comparison of a frame-by-frame and a fixation-by-fixation analysis
WO2016112690A1 (zh) 一种基于眼动数据的网上用户状态识别方法和装置
Borji et al. What do eyes reveal about the mind?: Algorithmic inference of search targets from fixations
Akshay et al. Machine learning algorithm to identify eye movement metrics using raw eye tracking data
Jongerius et al. Eye-tracking glasses in face-to-face interactions: Manual versus automated assessment of areas-of-interest
Till et al. Embodied effects of conceptual knowledge continuously perturb the hand in flight
Deane et al. Deep-SAGA: a deep-learning-based system for automatic gaze annotation from eye-tracking data
Edughele et al. Eye-tracking assistive technologies for individuals with amyotrophic lateral sclerosis
Singh et al. Use of information modelling techniques to understand research trends in eye gaze estimation methods: An automated review
Liu et al. An elaborate algorithm for automatic processing of eye movement data and identifying fixations in eye-tracking experiments
CN109726713B (zh) 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法
US9867565B2 (en) Sideline test to detect concussions that affect visual, proprioceptive, or vestibular brain functions
CN114424941A (zh) 疲劳检测模型构建方法、疲劳检测方法、装置及设备
CN110781846B (zh) 一种融合视觉广度特点的视觉注意计算方法
Chan et al. Visual lobe shape and search performance for targets of different difficulty
Krishnamoorthy et al. StimulEye: An intelligent tool for feature extraction and event detection from raw eye gaze data
Chen et al. Attention estimation system via smart glasses
Lin et al. A novel device for head gesture measurement system in combination with eye-controlled human–machine interface
CN115471903A (zh) 认知评估系统
Oyekoya Eye tracking: A perceptual interface for content based image retrieval
Shi et al. EPS: robust pupil edge points selection with Haar feature and morphological pixel patterns

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant