CN110781846A - 一种融合视觉广度特点的视觉注意计算方法 - Google Patents
一种融合视觉广度特点的视觉注意计算方法 Download PDFInfo
- Publication number
- CN110781846A CN110781846A CN201911043889.0A CN201911043889A CN110781846A CN 110781846 A CN110781846 A CN 110781846A CN 201911043889 A CN201911043889 A CN 201911043889A CN 110781846 A CN110781846 A CN 110781846A
- Authority
- CN
- China
- Prior art keywords
- point
- fixation
- edge
- class
- interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明公开了一种融合视觉广度特点的视觉注意计算方法,将人类视觉系统视网膜成像机制作为视觉具有注意广度特点的基础,利用眼动仪采集用户浏览界面的眼动信息,将界面上每一个类注视点分别采用核心注视点集和边缘注视点集来表示,进而建立边缘注视点的隶属度表达式,使得每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。最后根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,构建个体对界面对象的视觉注意计算表达式。本发明用于描述用户对界面对象的感兴趣程度,旨在提高预测用户兴趣意图的准确性。
Description
技术领域
本发明属于人机交互技术领域,具体涉及一种融合视觉广度特点的视觉注意计算方法。
背景技术
注意是心理活动或意识在某一时刻所处的状态,表现为对一定对象的指向与集中。然而,当前对于注意的研究面临不少困难和挑战,主要因为注意难以被人察觉,也很难找到合适的方法进行度量。实际上,人类在同一时间接收到的刺激是海量的,但是人类对于信息加工和处理在很大程度上却依赖于视觉。
视觉注意是利用视觉信息进行注意选择的心理现象,眼睛能够在复杂的视觉场景中忽视其他不太重要的场景信息,迅速地找到感兴趣的区域或对象。因此,采用计算机模拟人类视觉的视觉注意机制具有重要意义,这种视觉注意计算模型应用越来越广泛,涉及网页测试、广告评估、人机交互研究、产品可用性评估等多个领域。然而,与传统的视觉注意计算模型相比,眼动信息更能真实地反映个体视觉系统整合了哪些信息,准确地体现个体如何分配视觉注意,用于计算个体对界面场景中对象的感兴趣程度。
视网膜成像的空间不均匀性是人类视觉系统感知外界的重要特性之一。视网膜的中央凹区域的视觉敏感度最高,随着偏离中央凹角度越大,敏感度呈现指数下降形式。
本专利将人类视觉系统视网膜成像机制作为视觉具有注意广度特点的基础,利用眼动仪采集用户浏览界面的眼动信息,将界面上每一个类注视点分别采用核心注视点集和边缘注视点集来表示,用于建立一种边缘注视点的隶属度表达式,使得每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。最后,根据每个边缘注视点的隶属度值,结合每个界面上眼动信息(注视点坐标和注视时间),构建个体对界面对象的视觉注意计算表达式。该方法用于描述用户对界面对象的感兴趣程度,旨在提高预测用户兴趣意图的准确性。
发明内容
本发明所要解决的技术问题是针对上述现有技术的不足,提供一种融合视觉广度特点的视觉注意计算方法。
为实现上述技术目的,本发明采取的技术方案为:
一种融合视觉广度特点的视觉注意计算方法,包括以下步骤:
步骤1:采集用户浏览界面的眼动信息;
步骤2:分析和筛选用户的眼动信息;
步骤3:聚类界面上的注视点;
步骤4:将每一个类注视点集划分为核心注视点集和边缘注视点集;
步骤5:计算边缘注视点的隶属度;
步骤6:根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,计算用户对界面对象的视觉注意。
为优化上述技术方案,采取的具体措施还包括:
上述的步骤1中,选择Eyelink2000眼动仪采集用户浏览界面的眼动信息。
上述的步骤2中,筛选获取眼动信息中的注视点坐标、注视时间和眼动轨迹图;
剔除注视点坐标不在眼动轨迹图上的注视点;
剔除注视时间小于100ms和大于2000ms的注视点。
上述的步骤3中,采用K-means聚类方法对界面上的注视点进行聚类,将界面上注视点明确划分到每一个类中。
上述的步骤4中,一个类中注视点到其他类中注视点距离小于设定值时,则该注视点属于该类中的核心注视点集,否则,该注视点属于该类中的边缘注视点集。
上述的步骤5中,每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。
上述的步骤3所述聚类界面上的注视点,包括以下步骤:
步骤301:输入界面上所有注视点坐标集U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
步骤302:随机选取k个聚类中心v1,v2,…,vj,…,vk;
步骤303:计算每个注视点xi到每个聚类中心vj的距离,将其划分到距离最小的类中;
步骤305:判断聚类中心是否发生变化,若未变化,则转至步骤306,否则,转至步骤303;
步骤306:计算标准测度函数,并判断是否满足设定条件,若满足,则算法终止,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Ci表示为某个聚类集合;否则,回到步骤302。
上述的步骤4所述将每一个类注视点集划分为核心注视点集和边缘注视点集,包括以下步骤:
步骤401:输入聚类结果CS={C1,C2,…,Cj,…,Ck}及注视点广度半径r;
步骤402:计算每个类中的注视点到其他类中注视点的距离,如果某个类中的注视点xi到其他类中注视点xi+1的距离大于2r,则该注视点xi划分到该类Cj的核心注视点集反之,该注视点划分到该类的边缘注视点集
上述的步骤5所述计算边缘注视点的隶属度,包括以下步骤:
步骤502:计算每个类中边缘注视点集的注视点到其他类中边缘注视点集的注视点的距离,如果某个类中边缘注视点集的注视点到其他类中边缘注视点集的任意注视点的距离小于2r,则表明注视点与其他类有一定的隶属关系;反之,该注视点只属于该类中边缘注视点集,与其他类没有任何隶属关系;
上述的步骤6所述根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,计算用户对界面对象的视觉注意,包括以下步骤:
步骤602:分别计算每个界面对象核心注视点的注视时间;
步骤604:计算用户对界面对象的视觉注意,计算公式为:
步骤605:输出用户对界面对象兴趣程度的结果{G1,G2,…,Gk}。
本发明具有以下有益效果:
1、采用眼动仪捕捉个体的眼动信息,能够真实刻画用户对界面感兴趣的位置和程度,突破传统使用计算机算法模拟人类视觉注意方法;
2、根据人类视觉系统的感知特点,即根据人类视线一次感知具有广度的特点,将界面上每一个类注视点采用两个集合(核心注视点集和边缘注视点集)来表示;
3、构建一种隶属度函数,使得每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度;
4、构建个体对界面对象的视觉注意计算表达式,用于描述用户对界面对象的感兴趣程度,识别用户在线浏览的兴趣意图。
附图说明
图1是本发明的流程图。
图2是本发明实施例的注视点聚类示意图。
图3是本发明实施例的视线—界面的映射关系图。
图4是本发明实施例的注视点的视网膜成像图。
图5是本发明实施例的核心和边缘注视点聚类示意图。
具体实施方式
以下结合附图对本发明的实施例作进一步详细描述。
如图1所示,本发明的一种融合视觉广度特点的视觉注意计算方法,包括以下步骤:
步骤1:采集用户浏览界面的眼动信息;
实施例中,选择Eyelink2000眼动仪采集用户浏览界面的眼动信息;
步骤2:分析和筛选用户的眼动信息,剔除无效或有误的眼动信息。眼动信息包含了一系列空间和时间维度的眼动指标,如注视时间、眼跳、瞳孔大小和眨眼等,本发明选取眼动指标中的注视点坐标、注视时间用于衡量个体对界面对象感兴趣程度;
具体筛选获取眼动信息中的注视点坐标、注视时间和眼动轨迹图;
剔除注视点坐标不在眼动轨迹图上的注视点;
剔除注视时间小于100ms和大于2000ms的注视点。
步骤3:聚类界面上的注视点;
实施例中,根据注视点坐标这一眼动指标,采用K-means聚类方法(硬聚类)对界面上的注视点进行聚类,将界面上注视点明确划分到每一个类(界面对象)中;
包括以下步骤:
步骤301:输入界面上所有注视点坐标集U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
步骤302:随机选取k个聚类中心v1,v2,…,vj,…,vk;
步骤303:计算每个注视点xi到每个聚类中心vj的距离,将其划分到距离最小的类中;
步骤304:重新计算每个聚类注视点的均值,作为新的聚类中心
步骤305:判断聚类中心是否发生变化,若未变化,则转至步骤306,否则,转至步骤303;
步骤306:计算标准测度函数,并判断是否满足设定条件,如是否满足函数收敛,若满足,则算法终止,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Ci表示为某个聚类集合;否则,回到步骤302。
如图2所示,注视点明确地划分到两个类中,其中实心圆形属于一个类,五角星是该类的聚类中心;实心正方形属于另一个类,七角星是该类的聚类中心。
步骤4:根据人类视线一次感知具有广度的特点,将每一个类注视点集划分为核心注视点集和边缘注视点集,一个类中注视点到其他类中注视点距离小于设定值时,则该注视点属于该类中的核心注视点集,否则,该注视点属于该类中的边缘注视点集;
如图3所示,人类视线一次感知具有广度的特点,视线就像聚光灯一样,在光线聚焦的地方清晰可见,而在其它没有聚焦的地方相对比较模糊。如图4所示,当注视点落在红色十字处的眼睛视网膜成像图时,离注视点越近的区域成像越清楚,离注视点越远的区域成像越模糊。如图5所示,注视点划分到两个类中,每一类包含核心注视点和边缘注视点,其中实心圆形属于一个类的核心注视点,空心圆圈属于该类的边缘注视点,五角星是该类的聚类中心;实心正方形属于另一个类的核心注视点,空心方块属于该类的边缘注视点,七角星是该类的聚类中心。
具体包括以下步骤:
步骤401:输入聚类结果CS={C1,C2,…,Cj,…,Ck}及注视点广度半径r;
步骤402:计算每个类中的注视点到其他类中注视点的距离,如果某个类中的注视点xi到其他类中注视点xi+1的距离大于2r,则该注视点xi划分到该类Cj的核心注视点集反之,该注视点划分到该类的边缘注视点集
步骤5:由于类中的边缘注视点对其他类(界面对象)也有所感知,需计算边缘注视点的隶属度,使每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度;
包括以下步骤:
步骤502:计算每个类中边缘注视点集的注视点到其他类中边缘注视点集的注视点的距离,如果某个类中边缘注视点集的注视点到其他类中边缘注视点集的任意注视点的距离小于2r,则表明注视点与其他类有一定的隶属关系;反之,该注视点只属于该类中边缘注视点集,与其他类没有任何隶属关系;
步骤503:为了判断每个类中边缘注视点与其他类之间是否存在隶属度关系,构建隶属度关系的判断矩阵如果某个类中边缘注视点集的注视点到其他类中边缘注视点集的任意注视点的距离小于2r,则标记数值为1;反之,标记数值为0;
步骤6:根据每个边缘注视点的隶属度值,结合每个界面上眼动信息(注视点坐标和注视时间),计算用户对界面对象的视觉注意,包括以下步骤:
步骤604:计算用户对界面对象的视觉注意,计算公式为:
步骤605:输出用户对界面对象兴趣程度的结果{G1,G2,…,Gk}。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。
Claims (10)
1.一种融合视觉广度特点的视觉注意计算方法,其特征在于:包括以下步骤:
步骤1:采集用户浏览界面的眼动信息;
步骤2:分析和筛选用户的眼动信息;
步骤3:聚类界面上的注视点;
步骤4:将每一个类注视点集划分为核心注视点集和边缘注视点集;
步骤5:计算边缘注视点的隶属度;
步骤6:根据每个边缘注视点的隶属度值,结合每个界面上眼动信息,计算用户对界面对象的视觉注意。
2.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤1中,选择Eyelink2000眼动仪采集用户浏览界面的眼动信息。
3.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤2中,筛选获取眼动信息中的注视点坐标、注视时间和眼动轨迹图;
剔除注视点坐标不在眼动轨迹图上的注视点;
剔除注视时间小于100ms和大于2000ms的注视点。
4.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤3中,采用K-means聚类方法对界面上的注视点进行聚类,将界面上注视点明确划分到每一个类中。
5.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤4中,一个类中注视点到其他类中注视点距离小于设定值时,则该注视点属于该类中的核心注视点集,否则,该注视点属于该类中的边缘注视点集。
6.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤5中,每个边缘注视点用值在0~1间的隶属度来确定对其他类的影响程度。
7.根据权利要求1所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤3所述聚类界面上的注视点,包括以下步骤:
步骤301:输入界面上所有注视点坐标集U={x1,x2,…,xi,…,xn},n表示为界面上注视点的个数;
步骤302:随机选取k个聚类中心v1,v2,…,vj,…,vk;
步骤303:计算每个注视点xi到每个聚类中心vj的距离,将其划分到距离最小的类中;
步骤304:重新计算每个聚类注视点的均值,作为新的聚类中心
步骤305:判断聚类中心是否发生变化,若未变化,则转至步骤306,否则,转至步骤303;
步骤306:计算标准测度函数,并判断是否满足设定条件,若满足,则算法终止,聚类结果集为CS={C1,C2,…,Cj,…,Ck},其中Ci表示为某个聚类集合;否则,回到步骤302。
9.根据权利要求8所述的一种融合视觉广度特点的视觉注意计算方法,其特征在于:
步骤5所述计算边缘注视点的隶属度,包括以下步骤:
步骤502:计算每个类中边缘注视点集的注视点到其他类中边缘注视点集的注视点的距离,如果某个类中边缘注视点集的注视点到其他类中边缘注视点集的任意注视点的距离小于2r,则表明注视点与其他类有一定的隶属关系;反之,该注视点只属于该类中边缘注视点集,与其他类没有任何隶属关系;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911043889.0A CN110781846B (zh) | 2019-10-30 | 2019-10-30 | 一种融合视觉广度特点的视觉注意计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911043889.0A CN110781846B (zh) | 2019-10-30 | 2019-10-30 | 一种融合视觉广度特点的视觉注意计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110781846A true CN110781846A (zh) | 2020-02-11 |
CN110781846B CN110781846B (zh) | 2021-02-09 |
Family
ID=69387690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911043889.0A Active CN110781846B (zh) | 2019-10-30 | 2019-10-30 | 一种融合视觉广度特点的视觉注意计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110781846B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090060267A1 (en) * | 2006-04-28 | 2009-03-05 | Xiao Dong Gu | Salience estimation for object-based visual attention model |
CN103903276A (zh) * | 2014-04-23 | 2014-07-02 | 吉林大学 | 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法 |
CN104700090A (zh) * | 2015-03-25 | 2015-06-10 | 武汉大学 | 基于密度的眼动注视点测定方法及系统 |
CN105426399A (zh) * | 2015-10-29 | 2016-03-23 | 天津大学 | 一种基于眼动的提取图像兴趣区域的交互式图像检索方法 |
US20160132749A1 (en) * | 2013-06-12 | 2016-05-12 | 3M Innovative Properties Company | Systems and methods for computing and presenting results of visual attention modeling |
CN108338798A (zh) * | 2017-01-25 | 2018-07-31 | 北京数字新思科技有限公司 | 一种注意力测量方法和系统 |
CN109255342A (zh) * | 2018-11-20 | 2019-01-22 | 武汉大学 | 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统 |
CN109726713A (zh) * | 2018-12-03 | 2019-05-07 | 东南大学 | 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法 |
-
2019
- 2019-10-30 CN CN201911043889.0A patent/CN110781846B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090060267A1 (en) * | 2006-04-28 | 2009-03-05 | Xiao Dong Gu | Salience estimation for object-based visual attention model |
US20160132749A1 (en) * | 2013-06-12 | 2016-05-12 | 3M Innovative Properties Company | Systems and methods for computing and presenting results of visual attention modeling |
CN103903276A (zh) * | 2014-04-23 | 2014-07-02 | 吉林大学 | 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法 |
CN104700090A (zh) * | 2015-03-25 | 2015-06-10 | 武汉大学 | 基于密度的眼动注视点测定方法及系统 |
CN105426399A (zh) * | 2015-10-29 | 2016-03-23 | 天津大学 | 一种基于眼动的提取图像兴趣区域的交互式图像检索方法 |
CN108338798A (zh) * | 2017-01-25 | 2018-07-31 | 北京数字新思科技有限公司 | 一种注意力测量方法和系统 |
CN109255342A (zh) * | 2018-11-20 | 2019-01-22 | 武汉大学 | 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统 |
CN109726713A (zh) * | 2018-12-03 | 2019-05-07 | 东南大学 | 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法 |
Non-Patent Citations (3)
Title |
---|
胡文婷 等: "一种基于模糊核聚类的视觉注意分配度量方法", 《统计与信息论坛》 * |
胡文婷 等: "基于视线跟踪的智能界面实现机制研究", 《计算机应用与软件》 * |
陈居现 等: "基于人眼视觉注意和图像聚类分析的ROI提取方法", 《光学技术》 * |
Also Published As
Publication number | Publication date |
---|---|
CN110781846B (zh) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kar et al. | A review and analysis of eye-gaze estimation systems, algorithms and performance evaluation methods in consumer platforms | |
US20230107040A1 (en) | Human-computer interface using high-speed and accurate tracking of user interactions | |
Kosch et al. | Your eyes tell: Leveraging smooth pursuit for assessing cognitive workload | |
Lee et al. | 3D gaze tracking method using Purkinje images on eye optical model and pupil | |
Vansteenkiste et al. | Measuring dwell time percentage from head-mounted eye-tracking data–comparison of a frame-by-frame and a fixation-by-fixation analysis | |
WO2016112690A1 (zh) | 一种基于眼动数据的网上用户状态识别方法和装置 | |
Borji et al. | What do eyes reveal about the mind?: Algorithmic inference of search targets from fixations | |
Akshay et al. | Machine learning algorithm to identify eye movement metrics using raw eye tracking data | |
Jongerius et al. | Eye-tracking glasses in face-to-face interactions: Manual versus automated assessment of areas-of-interest | |
Till et al. | Embodied effects of conceptual knowledge continuously perturb the hand in flight | |
Deane et al. | Deep-SAGA: a deep-learning-based system for automatic gaze annotation from eye-tracking data | |
Edughele et al. | Eye-tracking assistive technologies for individuals with amyotrophic lateral sclerosis | |
Singh et al. | Use of information modelling techniques to understand research trends in eye gaze estimation methods: An automated review | |
Liu et al. | An elaborate algorithm for automatic processing of eye movement data and identifying fixations in eye-tracking experiments | |
CN109726713B (zh) | 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法 | |
US9867565B2 (en) | Sideline test to detect concussions that affect visual, proprioceptive, or vestibular brain functions | |
CN114424941A (zh) | 疲劳检测模型构建方法、疲劳检测方法、装置及设备 | |
CN110781846B (zh) | 一种融合视觉广度特点的视觉注意计算方法 | |
Chan et al. | Visual lobe shape and search performance for targets of different difficulty | |
Krishnamoorthy et al. | StimulEye: An intelligent tool for feature extraction and event detection from raw eye gaze data | |
Chen et al. | Attention estimation system via smart glasses | |
Lin et al. | A novel device for head gesture measurement system in combination with eye-controlled human–machine interface | |
CN115471903A (zh) | 认知评估系统 | |
Oyekoya | Eye tracking: A perceptual interface for content based image retrieval | |
Shi et al. | EPS: robust pupil edge points selection with Haar feature and morphological pixel patterns |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |