CN108052973B - 基于多项眼动数据的地图符号用户兴趣分析方法 - Google Patents
基于多项眼动数据的地图符号用户兴趣分析方法 Download PDFInfo
- Publication number
- CN108052973B CN108052973B CN201711310003.5A CN201711310003A CN108052973B CN 108052973 B CN108052973 B CN 108052973B CN 201711310003 A CN201711310003 A CN 201711310003A CN 108052973 B CN108052973 B CN 108052973B
- Authority
- CN
- China
- Prior art keywords
- data
- eye movement
- user interest
- movement data
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于地图用户空间认知能力分析技术领域,特别涉及一种基于多项眼动数据的地图符号用户兴趣分析方法,该方法包括以下步骤:第一步设计眼动实验获取眼动数据,利用眼动仪记录被试的眼动数据。第二步眼动数据预处理,筛选兴趣区内的眼动数据类型,仅保留三类含义单一的眼动数据作为数据基础。第三步建立用户兴趣度公式,分别计算时间、次数和尺寸用户兴趣度,利用熵权法分别计算三类数据的权值,实现用户兴趣度计算公式的构建。第四步用户兴趣度评价,利用用户访谈法统计全体被试对地图符号的评价打分数值,以此为真值进行衡量,通过平均正确率公式计算用户兴趣度计算结果的准确度,最终确定用户兴趣度计算公式的可靠性与精确性。
Description
技术领域
本发明属于地图用户空间认知能力分析技术领域,特别是涉及一种基于多项眼动数据的地图符号用户兴趣分析方法。
背景技术
分析地图符号用户兴趣度是改善地图设计效果,提升地图个性化服务质量的关键环节。为准确获取地图用户的兴趣程度,众多学者展开研究。目前,分析地图用户兴趣的方法主要分为显性获取法和隐性获取法,包含问卷调查法、鼠标轨迹法、Web日志数据、位置信息与操作行为数据上述方法通过记录用户的评价结果或操作行为获取用户兴趣。但在实际应用中,用户利用视觉行为直接获取地图符号的可视化内容,仅根据用户的操作行为无法客观反映用户产生兴趣时的思维过程,降低了用户兴趣分析结果的可信度。
眼动实验分析法作为隐形获取法的一种,能够记录用户的视觉行为,比操作行为更直观地反映地图用户兴趣,受到学者的广泛关注,但在地图用户兴趣分析领域应用较少。当前利用眼动数据分析用户兴趣的方法较为简单,主要通过显著性分析和单因素方差分析法筛选多项眼动数据,利用主成分回归、岭回归或最小二乘估计法设计多元线性回归方程,建立用户兴趣分析公式。这些方法能够简单的将眼动数据进行融合,采用用户评分结果作为自变量对用户兴趣度计算公式进行回归分析,建立用户兴趣度计算公式。然而眼动数据存在数据类型较多和多重含义的问题,现有分析方法未能从理论基础上对多重含义的眼动参数进行筛选,必然会选取不具备用户兴趣度分析要求的眼动参数;同时,用户评分结果主观性强,势必影响用户兴趣度计算公式的客观真实性,可能引入并放大实验误差,影响用户兴趣度计算结果的精确度。
发明内容
为了克服现有技术中存在的缺陷,本发明的目的是解决地图设计或个性化推荐服务过程中,符号用户兴趣分析结果准确度较低的问题。利用眼动仪采集被试在地图符号素材浏览过程中的眼动数据,分别计算时间、次数和尺寸眼动数据用户兴趣度,通过熵权法将三类数据进行整合,设计出一种基于多项眼动数据的地图符号用户兴趣分析方法,本方法具有准确高效分析地图符号用户兴趣的突出优势,且计算公式稳定可靠。
为了实现上述目的,本发明采用以下的技术方案:
本发明提供一种基于多项眼动数据的地图符号用户兴趣分析方法,包含以下步骤:
步骤1,眼动数据的获取
设计眼动实验获取眼动数据,统一被试空间认知能力、实验底图样式、实验流程、设备与环境,仅保留符号样式作为实验变量,利用眼动仪记录被试的眼动数据;
步骤2,眼动数据的预处理
筛选兴趣区内的眼动数据,并对具有多重含义的数据进行省略,保留时间数据、次数数据和尺寸数据这三类含义单一的眼动数据作为数据基础;
步骤3,分别计算基于时间数据、次数数据和尺寸数据的用户兴趣度;
步骤4,计算基于熵权法的多项眼动数据的用户兴趣度
将基于时间数据、次数数据和尺寸数据的用户兴趣度作为多项眼动指标数据,由信息熵计算公式分析指标数据间的差异程度,确定三类眼动数据间的权重,据此得出地图符号用户兴趣度计算公式。
进一步地,在步骤4之后,还包括:步骤5,基于用户访谈法的地图符号用户兴趣度评价;
通过用户访谈法要求用户对地图符号进行评分,作为标准数据与用户兴趣度计算结果进行对比,评价基于多项眼动数据的用户兴趣度计算结果的可靠性和准确性。
进一步地,所述步骤1的具体实现过程如下:
步骤101,确定实验被试
被试通过MCT测试,且被试裸眼或矫正视力均正常,无眼疾;
步骤102,设计实验素材
首先,挑选多类点状符号作为实验素材,并且统一点状符号的尺寸与亮度变量;然后对应不同类的实验素材分别绘制多幅实验素材图作为实验底图;
步骤103,实验过程
(a)为被试介绍实验目的、流程和环境,并调配眼动仪;
(b)实验开始前,要求被试阅读实验目标点若干秒;
(c)实验开始,被试分别在多幅实验素材图中寻找实验目标点;
(d)实验结束后,对被试进行用户访谈,根据个人兴趣依次对不同类点状符号实验素材进行评分;
(e)切换下一组实验素材,所有被试依次展开实验。
进一步地,所述步骤2的具体实现过程如下:
步骤201,确定眼动数据类型
将眼动数据划分为三类:时间数据、次数数据和尺寸数据;
步骤202,筛选时间眼动数据
时间类型数据包括兴趣区注视时间、首次注视时间和首次注视点持续时间,因为首次注视时间存在多重含义,舍弃该数据,保留兴趣区注视时间和首次注视点持续时间;
步骤203,筛选次数眼动数据
次数类型数据包括兴趣区注视次数和回视次数,省略回视次数,保留兴趣区注视次数;
步骤204,筛选尺寸眼动数据
尺寸眼动数据指瞳孔变化的尺寸数据。
进一步地,所述步骤3的具体实现过程如下:
步骤301,基于时间数据的用户兴趣度计算
定义被试i在第j幅实验素材图中的兴趣区注视时间为timesumij,首次注视点持续时间为timefirstij,则被试i在第j幅实验素材图中基于时间数据的用户兴趣度Interesttime可描述为式(1):
其中,n和m为自然数;
步骤302,基于次数数据的用户兴趣度计算
定义兴趣区注视次数为countaoiij,总注视次数为countsumij,则被试i在第j幅实验素材图中基于次数数据的用户兴趣度Interestcount可描述为式(2):
其中,n和m为自然数;
步骤303,基于尺寸数据的用户兴趣度计算
定义兴趣区最大瞳孔直径为sizeaoiij,实验过程中平均瞳孔直径为sizeaveij,实验过程中最大瞳孔直径为sizemaxij,则被试i在第j幅实验素材图中基于尺寸数据的用户兴趣度Interestsize可描述为式(3):
其中,n和m为自然数。
进一步地,所述步骤4的具体实现过程如下:
步骤401,标准化处理
收集三类眼动数据用户兴趣度,利用正向标准化公式进行处理,获取指标数据的标准化值,如式(4)所示:
步骤402,信息熵计算
因为三类标准化的指标数据蕴含不同的信息量,需要通过信息熵公式计算三者各自包含的信息量,如式(5)所示:
步骤403,确定指标权重
基于三类指标数据的信息量计算指标数据间的差异程度,通过权重wq进行量化表达,如式(6)所示:
步骤404,计算网络地图点状符号用户兴趣度
确定三类指标数据的权值后,求三类指标数据与权值数据乘积的和,即为网络地图点状符号用户兴趣度Interest,如式(7)所示:
Interestij=Interesttimeijw1+Interestcountijw2+Interestsizeijw3 (7)。
进一步地,所述步骤5的具体实现过程如下:
步骤501,统计用户兴趣度计算结果;
步骤502,统计用户访谈打分结果;
步骤503,用户兴趣度计算结果评估
利用式(8)计算用户兴趣度u′ij与被试评分uij间的平均正确率r:
与现有技术相比,本发明具有以下优点:
1、本发明对眼动数据进行筛选,挑选具有单一含义的多类型眼动数据计算用户兴趣度,即排除眼动数据多重含义的干扰,又综合了多项眼动参数,使计算结果更贴近人的真实意图,有效的提高了用户兴趣度计算精度。
2、本发明利用熵权法对多项眼动数据进行融合,对多项眼动数据进行客观赋权,不再以用户评分结果作为自变量,排除了用户评分标准不一带来的不确定性,使计算结果更客观,确保用户兴趣度计算结果可靠性与稳定性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对现有技术和实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一种基于多项眼动数据的地图符号用户兴趣分析方法的流程示意图;
图2是地图符号实验素材图;
图3是眼动实验素材图;
图4是实验目标点图。
具体实施方式
为了便于理解,对本发明中出现的部分名词作以下解释说明:
MCT(Mental Cutting Test)智力切割测试,共计25题,通过判别切断面形状和切割后相似图形的样式评价被试的空间认知能力,以其精确量化的评价方式而被广泛应用。
本发明的核心是提供一种基于多项眼动数据的地图符号用户兴趣分析方法,该方法有效提高了用户兴趣度的计算精度,并且用户兴趣度计算结果可靠、稳定。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有实施例,都属于本发明保护的范围。
实施例一,请参照图1,图1是本发明一种基于多项眼动数据的地图符号用户兴趣分析方法的流程示意图,该方法包括:
步骤S101,眼动数据的获取
设计眼动实验获取地图用户的眼动数据。设计眼动实验时,需要确保地图符号作为唯一变量,开展实验前,要求约束实验被试空间认知能力、实验底图样式、实验流程、设备与环境,保证眼动数据具有可分析性。
步骤S102,眼动数据的预处理
筛选兴趣区内的眼动数据。兴趣区是实验目标点所在的区域,实验要求用户寻找唯一的地图符号目标点,当用户视线落入目标点中才能判定其产生兴趣,因此,利用眼动数据分析软件筛选兴趣区内的各类眼动数据,并进行保存,其余数据可省略。
步骤S103,三类眼动数据的用户兴趣度计算方法
兴趣区眼动数据包括首次注视时间、兴趣区注视时间、首次注视点持续时间、回视次数、兴趣区注视次数、瞳孔大小等。由于兴趣区眼动数据种类较多,为便于用户兴趣度的计算,以数据类型为划分标准,将眼动数据划分为三类:时间数据、次数数据和尺寸数据;
对眼动数据进行筛选整理,剔除具有模糊含义的眼动参数,如:首次注视时间和回视次数,分别对筛选后的三类眼动数据进行兴趣度计算公式设计,确定三类眼动数据的用户兴趣度计算方法。
步骤S104,基于熵权法的多项眼动数据用户兴趣度计算公式
通过相关性分析结果,三类眼动数据的相关性较低,线性回归公式的拟合性较差,参数估计的可靠性较低。熵权法是一种客观的机器学习赋权方法,能够规避主动赋值法产生的主观误差,适用于任何问题中的确定指标权重,计算结果客观。此处思路是将基于时间数据、次数数据和尺寸数据的用户兴趣度作为多项眼动指标数据,由信息熵计算公式分析指标间的差异程度,确定三类眼动数据间的权重,精确反映指标数据的差距,最后通过乘积和公式综合得出地图符号用户兴趣度计算公式。
步骤S105,基于用户访谈法的地图符号用户兴趣度评价
用户访谈法是通过一对一面对面的交流,获取用户心理活动与兴趣需求的方式,该方法虽然耗时耗力,但能真实地反映用户兴趣。此处通过用户访谈法要求用户对地图符号进行评分,作为标准数据与用户兴趣度计算结果进行对比,评价基于多项眼动数据的用户兴趣度计算结果的可靠性与准确性。
本发明利用眼动仪采集被试在地图符号素材浏览过程中的眼动数据,分别计算时间、次数和尺寸眼动数据用户兴趣度,通过熵权法将三类数据进行整合,设计出一种基于多项眼动数据的地图符号用户兴趣分析方法,本方法具有准确高效分析地图符号用户兴趣的突出优势,且计算公式稳定可靠。
为了更透彻、更直观地理解基于多项眼动数据的地图符号用户兴趣分析方法,下面结合一个具体实例对其进行更加详细的描述:
1)地图符号用户眼动数据的获取
Step1:确定实验被试
招募39名被试,均通过MCT测试。利用MCT测试法筛选空间认知能力相似的被试参与眼动实验。根据目前研究成果可知,MCT测试共计25题,当被试测试的正确结果大于20个时,可认为其具备较强的空间认知能力。筛选正确结果大于20个的被试参与实验。且被试裸眼或矫正视力均正常,无眼疾。
Step2:设计实验素材
(1)地图符号。参考百度、高德和腾讯等网络地图服务运营商设计的点状符号样式,挑选四类点状符号作为实验素材,如图2所示。为了便于用户兴趣分析,统一点状符号的尺寸与亮度变量,符号尺寸为1.25*1.25cm,亮度为100%。
(2)地图底图。参考百度地图样式,绘制一幅比例尺为1:10000的武汉市城区图作为实验底图,底图包含水系、绿地、道路网和铁路网信息,确保信息的整体统一。每幅底图均包含25个点状符号,仅出现一次实验目标点(超市符号),且分别位于不同象限,如图3所示。
Step3:实验过程
(1)为被试介绍实验目的、流程和环境,并调配眼动仪。
(2)实验开始前,要求被试阅读实验目标点30秒,牢记目标点样式,如图4所示。
(3)实验开始,被试分别在四幅实验素材图中寻找目标点,找到后在图标上点击确认并切换下一幅实验素材图,直至实验结束。
(4)实验结束后,被试被邀请进行用户访谈,根据个人兴趣依次对四类点状符号实验素材进行评分,评分范围0~1,结果存储到Excel中。
(5)切换下一组实验素材,所有被试依次展开实验。
Step4:实验设备
应用瑞典Tobii公司的X120型眼动仪,采样率120Hz。该眼动仪配有21.5寸显示屏,分辨率1680x1050,放置距离被试60cm的位置。实验在Windows XP操作系统的计算机上完成,眼动数据与鼠标事件数据均由Tobi i Studio记录。
2)眼动数据的预处理
Step1:确定眼动数据类型
兴趣区眼动数据包括兴趣区注视时间、首次注视时间、首次注视点持续时间、兴趣区注视次数、回视次数和瞳孔大小。由于兴趣区眼动数据种类较多,为便于用户兴趣度的计算,本文以数据类型为划分标准,将眼动数据划分为三类:时间数据、次数数据和尺寸数据。
Step2:筛选时间眼动数据
时间类型数据包括兴趣区注视时间、首次注视时间和首次注视点持续时间。首次注视时间长短可能与点状符号分布的位置有关,例如越靠近屏幕中心位置的符号越容易被用户阅读,该数据存在多重含义,因此将该数据进行舍弃,保留兴趣区注视时间和首次注视点持续时间。
Step3:筛选次数眼动数据
次数类型数据包括兴趣区注视次数和回视次数。产生回视的原因包括:1、被试认知出现偏差,先前搜索中漏掉或误解相关符号;2、点状符号与被试心象地图符号存在较大反差,用户需反复认知,确立并构造新的心象地图符号。故而省略回视次数,保留兴趣区注视次数。
Step4:筛选尺寸眼动数据
尺寸数据指瞳孔大小的尺寸。当看到兴趣点时,大脑活动开始活跃,末梢神经受到拉扯,虹膜肌肉自然拉伸,瞳孔直径变大。在实验环境一致与被试生理状态正常的条件下,被试心理活动越大,瞳孔直径越大。因此,保留瞳孔变化的尺寸数据。
3)多项眼动数据的用户兴趣度计算公式
Step1:三类眼动数据用户兴趣度
(1)基于时间数据的用户兴趣度计算
定义被试i在第j幅实验素材图中的兴趣区注视时间为timesumij,首次注视点持续时间为timefirstij,则被试i在第j幅实验素材图中基于时间数据的用户兴趣度Interesttime可描述为式(1):
其中,本实验中n为39,m为4。
(2)基于次数数据的用户兴趣度计算
定义兴趣区注视次数为countaoiij,总注视次数为countsumij,则被试i在第j幅实验素材图中基于次数数据的用户兴趣度Interestcount可描述为式(2):
其中,本实验中n为39,m为4。
(3)基于尺寸数据的用户兴趣度计算
定义兴趣区最大瞳孔直径为sizeaoiij,实验过程中平均瞳孔直径为sizeaveij,实验过程中最大瞳孔直径为sizemaxij,则被试i在第j幅实验素材图中基于尺寸数据的用户兴趣度Interestsize可描述为式(3):
其中,本实验中n为39,m为4。
Step2:相关性分析
单一类型眼动数据获取的用户兴趣度具有局限性与片面性,无法准确反映用户的兴趣需求,需要将三类数据进行整合。为此,通过对39位被试的三类眼动数据用户兴趣度进行相关性分析,确定三者间的关联关系。
利用SPSS软件进行相关性分析,得到三者相关性分析结果。相关系数越接近1说明变量间相关性越强。根据结果可知,三者间存在多重相关性,都为正相关,但存在以下问题:
1、三类兴趣度数据的相关性较低,线性回归公式的拟合性较差,参数估计的可靠性较低,回归分析公式的稳定性差,降低用户兴趣度计算结果的准确性。
2、多元线性回归分析时,将用户打分值作为自变量,兴趣度数据作为因变量,但用户打分值的主观性强,导致回归分析公式客观性较低。
赋权法根据原始数据的关系,通过一定数学方法确定权重,判定结果不依赖人的主观判断,能够解决上述问题。
Step3:多项眼动数据的用户兴趣度计算公式
(1)标准化处理
收集三类眼动数据用户兴趣度,利用正向标准化公式进行处理,获取指标数据的标准化值,如式(4)所示:
(2)信息熵计算
因为三类标准化的指标数据蕴含不同的信息量,需要通过信息熵公式计算三者各自包含的信息量,如式(5)所示:
(3)确定指标权重
基于三类指标数据的信息量计算指标数据间的差异程度,通过权重wq进行量化表达,如式(6)所示:
(4)计算网络地图点状符号用户兴趣度
确定三类指标数据的权值后,求三类指标数据与权值数据乘积的和,即为网络地图点状符号用户兴趣度Interest,如式(7)所示:
Interestij=Interesttimeijw1+Interestcountijw2+Interestsizeijw3 (7)
通过对39位被试的眼动数据进行整理,最终获取网络地图点状符号用户兴趣度计算公式为:
Interestij=Interesttimeij*0.385+Interestcountij*0.225+Interestsizeij*0.390
4)用户兴趣度计算结果与评价
Step1:用户兴趣度计算结果
计算39位用户的兴趣度,结果如下:
Step2:用户访谈打分结果
收集整理39位用户的评价打分,结果如下:
Step3:用户兴趣度计算结果评估
利用式(8)计算用户兴趣度u′ij与被试评分uij间的平均正确率。根据定量分析结果,眼动数据用户兴趣度排序的正确率为85.9%,其中符号一、符号二、符号三和符号四的用户兴趣度分别为85.8%,88.5%,85.2%,84.2%。
综上所述,本发明提出一种基于多项眼动数据的地图符号用户兴趣分析方法。实验证明,该方法能够有效表达用户的真实兴趣;提出的用户兴趣度计算公式克服了单一眼动数据用户兴趣度不准确的问题,计算公式稳定可靠。然而,眼动数据用户兴趣度计算公式的权值参数只适用于本发明的实验环境和被试。
需要说明的是,在本说明书中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来讲是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其他实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽范围。
Claims (6)
1.一种基于多项眼动数据的地图符号用户兴趣分析方法,其特征在于,包含以下步骤:
步骤1,眼动数据的获取
设计眼动实验获取眼动数据,统一被试空间认知能力、实验底图样式、实验流程、设备与环境,仅保留符号样式作为实验变量,利用眼动仪记录被试的眼动数据;
步骤2,眼动数据的预处理
筛选兴趣区内的眼动数据,并对具有多重含义的数据进行省略,保留时间数据、次数数据和尺寸数据这三类含义单一的眼动数据作为数据基础;具体实现过程如步骤201至204:
步骤201,确定眼动数据类型
将眼动数据划分为三类:时间数据、次数数据和尺寸数据;
步骤202,筛选时间眼动数据
时间类型数据包括兴趣区注视时间、首次注视时间和首次注视点持续时间,因为首次注视时间存在多重含义,舍弃该数据,保留兴趣区注视时间和首次注视点持续时间;
步骤203,筛选次数眼动数据
次数类型数据包括兴趣区注视次数和回视次数,省略回视次数,保留兴趣区注视次数;
步骤204,筛选尺寸眼动数据
尺寸眼动数据指瞳孔变化的尺寸数据;
步骤3,分别计算基于时间数据、次数数据和尺寸数据的用户兴趣度;
步骤4,计算基于熵权法的多项眼动数据的用户兴趣度
将基于时间数据、次数数据和尺寸数据的用户兴趣度作为多项眼动指标数据,由信息熵计算公式分析指标数据间的差异程度,确定三类眼动数据间的权重,据此得出地图符号用户兴趣度计算公式。
2.根据权利要求1所述的基于多项眼动数据的地图符号用户兴趣分析方法,其特征在于,在步骤4之后,还包括:步骤5,基于用户访谈法的地图符号用户兴趣度评价;
通过用户访谈法要求用户对地图符号进行评分,作为标准数据与用户兴趣度计算结果进行对比,评价基于多项眼动数据的用户兴趣度计算结果的可靠性和准确性。
3.根据权利要求1所述的基于多项眼动数据的地图符号用户兴趣分析方法,其特征在于,所述步骤1的具体实现过程如下:
步骤101,确定实验被试
被试通过MCT测试,且被试裸眼或矫正视力均正常,无眼疾;
步骤102,设计实验素材
首先,挑选多类点状符号作为实验素材,并且统一点状符号的尺寸与亮度变量;然后对应不同类的实验素材分别绘制多幅实验素材图作为实验底图;
步骤103,实验过程
(a)为被试介绍实验目的、流程和环境,并调配眼动仪;
(b)实验开始前,要求被试阅读实验目标点若干秒;
(c)实验开始,被试分别在多幅实验素材图中寻找实验目标点;
(d)实验结束后,对被试进行用户访谈,根据个人兴趣依次对不同类点状符号实验素材进行评分;
(e)切换下一组实验素材,所有被试依次展开实验。
4.根据权利要求1所述的基于多项眼动数据的地图符号用户兴趣分析方法,其特征在于,所述步骤3的具体实现过程如下:
步骤301,基于时间数据的用户兴趣度计算
定义被试i在第j幅实验素材图中的兴趣区注视时间为timesumij,首次注视点持续时间为timefirstij,则被试i在第j幅实验素材图中基于时间数据的用户兴趣度Interesttime可描述为式(1):
其中,n和m为自然数;
步骤302,基于次数数据的用户兴趣度计算
定义兴趣区注视次数为countaoiij,总注视次数为countsumij,则被试i在第j幅实验素材图中基于次数数据的用户兴趣度Interestcount可描述为式(2):
其中,n和m为自然数;
步骤303,基于尺寸数据的用户兴趣度计算
定义兴趣区最大瞳孔直径为sizeaoiij,实验过程中平均瞳孔直径为sizeaveij,实验过程中最大瞳孔直径为sizemaxij,则被试i在第j幅实验素材图中基于尺寸数据的用户兴趣度Interestsize可描述为式(3):
其中,n和m为自然数。
5.根据权利要求1所述的基于多项眼动数据的地图符号用户兴趣分析方法,其特征在于,所述步骤4的具体实现过程如下:
步骤401,标准化处理
收集三类眼动数据用户兴趣度,利用正向标准化公式进行处理,获取指标数据的标准化值,如式(4)所示:
步骤402,信息熵计算
因为三类标准化的指标数据蕴含不同的信息量,需要通过信息熵公式计算三者各自包含的信息量,如式(5)所示:
基于三类指标数据的信息量计算指标数据间的差异程度,通过权重wq进行量化表达,如式(6)所示:
步骤404,计算网络地图点状符号用户兴趣度
确定三类指标数据的权值后,求三类指标数据与权值数据乘积的和,即为网络地图点状符号用户兴趣度Interest,如式(7)所示:
Interestij=Interesttimeijw1+Interestcountijw2+Interestsizeijw3 (7)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711310003.5A CN108052973B (zh) | 2017-12-11 | 2017-12-11 | 基于多项眼动数据的地图符号用户兴趣分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711310003.5A CN108052973B (zh) | 2017-12-11 | 2017-12-11 | 基于多项眼动数据的地图符号用户兴趣分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108052973A CN108052973A (zh) | 2018-05-18 |
CN108052973B true CN108052973B (zh) | 2020-05-05 |
Family
ID=62123983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711310003.5A Expired - Fee Related CN108052973B (zh) | 2017-12-11 | 2017-12-11 | 基于多项眼动数据的地图符号用户兴趣分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108052973B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109472796B (zh) * | 2018-10-30 | 2022-02-15 | 南通大学 | 一种用于评价主观评级中用户视觉注视误差的分析方法和装置 |
CN109620266B (zh) * | 2018-12-29 | 2021-12-21 | 中国科学院深圳先进技术研究院 | 个体焦虑水平的检测方法和系统 |
JP7207520B2 (ja) | 2019-03-26 | 2023-01-18 | 日本電気株式会社 | 興味判定装置、興味判定システム、興味判定方法及びプログラム |
CN111966724B (zh) * | 2020-06-29 | 2022-04-12 | 北京津发科技股份有限公司 | 基于人机交互界面区域自动识别技术的交互行为数据采集、分析方法及装置 |
CN112230774B (zh) * | 2020-10-15 | 2022-04-12 | 北京津发科技股份有限公司 | 基于人机交互的反应行为的分析方法及系统 |
CN113655882B (zh) * | 2021-08-17 | 2022-05-03 | 中国人民解放军军事科学院战争研究院 | 一种基于眼动数据测量的人机界面信息筛选方法 |
CN114327077B (zh) * | 2022-01-06 | 2022-08-05 | 华南师范大学 | 一种基于眼动跟踪的学习者感知能力水平分析方法及装置 |
CN115661447B (zh) * | 2022-11-23 | 2023-08-04 | 上海行蕴信息科技有限公司 | 一种基于大数据的产品图像调整方法 |
CN115660789B (zh) * | 2022-11-23 | 2023-08-04 | 广州锐竞信息科技有限责任公司 | 基于智慧电商平台的产品图像管理系统 |
CN117314559B (zh) * | 2023-09-21 | 2024-08-02 | 淮阴工学院 | 一种基于用户瞳孔反应的个性化商品优化推送方法和系统 |
CN118331860A (zh) * | 2024-04-01 | 2024-07-12 | 青岛黄海学院 | 一种汽车人机交互系统评价模型构建方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318223A (zh) * | 2014-11-18 | 2015-01-28 | 新开普电子股份有限公司 | 一种人脸显著特征位置标定方法及系统 |
CN105139317A (zh) * | 2015-08-07 | 2015-12-09 | 北京环度智慧智能技术研究所有限公司 | 兴趣取向值测验的认知指标分析方法 |
CN106169063A (zh) * | 2016-06-22 | 2016-11-30 | 江苏大学 | 一种自动识别用户阅读兴趣区的方法 |
CN106650937A (zh) * | 2016-12-30 | 2017-05-10 | 山东大学 | 一种基于反馈的自适应主客观权重上下文感知系统及其工作方法 |
CN106981059A (zh) * | 2017-03-30 | 2017-07-25 | 中国矿业大学 | 结合pcnn和压缩感知的二维经验模态分解图像融合方法 |
CN107180310A (zh) * | 2017-06-01 | 2017-09-19 | 三峡大学 | 一种自动确定施工现场安全标志牌布置区域的方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160132726A1 (en) * | 2014-05-27 | 2016-05-12 | Umoove Services Ltd. | System and method for analysis of eye movements using two dimensional images |
US10726465B2 (en) * | 2016-03-24 | 2020-07-28 | International Business Machines Corporation | System, method and computer program product providing eye tracking based cognitive filtering and product recommendations |
-
2017
- 2017-12-11 CN CN201711310003.5A patent/CN108052973B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318223A (zh) * | 2014-11-18 | 2015-01-28 | 新开普电子股份有限公司 | 一种人脸显著特征位置标定方法及系统 |
CN105139317A (zh) * | 2015-08-07 | 2015-12-09 | 北京环度智慧智能技术研究所有限公司 | 兴趣取向值测验的认知指标分析方法 |
CN106169063A (zh) * | 2016-06-22 | 2016-11-30 | 江苏大学 | 一种自动识别用户阅读兴趣区的方法 |
CN106650937A (zh) * | 2016-12-30 | 2017-05-10 | 山东大学 | 一种基于反馈的自适应主客观权重上下文感知系统及其工作方法 |
CN106981059A (zh) * | 2017-03-30 | 2017-07-25 | 中国矿业大学 | 结合pcnn和压缩感知的二维经验模态分解图像融合方法 |
CN107180310A (zh) * | 2017-06-01 | 2017-09-19 | 三峡大学 | 一种自动确定施工现场安全标志牌布置区域的方法 |
Non-Patent Citations (2)
Title |
---|
《地图个性化认知适合度的眼动试验评估》;郑束蕾 等;《测绘学报》;20151231;第44卷;摘要和第2-3节 * |
基于浏览行为的网络地图用户兴趣模型研究;王成舜 等;《测绘与空间地理信息》;20170331;第40卷(第3期);摘要、第1.3.2、1.4、1.6节 * |
Also Published As
Publication number | Publication date |
---|---|
CN108052973A (zh) | 2018-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108052973B (zh) | 基于多项眼动数据的地图符号用户兴趣分析方法 | |
Robey et al. | Measuring managers' minds: The assessment of style in human information processing | |
Dupont et al. | Investigating the visual exploration of the rural-urban gradient using eye-tracking | |
Atkinson et al. | Standards for Field Research in Management Accounting. | |
Stewart | The Delphi technique and judgmental forecasting | |
CN110236479B (zh) | 视力检测及管理系统 | |
KR101220398B1 (ko) | 선천적 및 후천적 통합 적성검사 시스템 | |
CN111887867A (zh) | 基于表情识别与心理学测试生成性格的分析方法及系统 | |
CN107348962B (zh) | 一种基于脑机接口技术的人格特质测量方法及设备 | |
CN104983435A (zh) | 一种兴趣取向值测验的刺激信息编制方法 | |
CN110391013B (zh) | 一种基于语义向量构建神经网络预测心理健康的系统和装置 | |
CN111048209A (zh) | 基于活体人脸识别的健康评估方法、装置及其存储介质 | |
CN109700472A (zh) | 一种疲劳检测方法、装置、设备和存储介质 | |
JP2022520911A (ja) | 脳波と眼球運動をユーザ類似性と組み合わせた製品設計の決定方法 | |
CN109741007A (zh) | 一种航空驾驶舱工作负荷试验的被试人员筛选方法 | |
CN113974589B (zh) | 多模态行为范式评估优化系统及认知能力评价方法 | |
CN109920498A (zh) | 基于情绪脑电响应相似性的人际关系预测方法 | |
CN105893748A (zh) | 基于粗糙集理论的幸福指数评价方法及系统 | |
Nugrahaningsih et al. | Assessing learning styles through eye tracking for e-learning applications | |
CN112598184A (zh) | 一种戒毒人员复吸风险预测的方法和装置 | |
KR101429569B1 (ko) | 교육이력사항을 기반으로 한 직업 매칭 시스템 | |
CN110737497A (zh) | 一种显控界面辅助决策设计优化方法 | |
Carlson | Criteria for family assessment in research and intervention contexts. | |
KR101775268B1 (ko) | 지문과 장문을 이용한 진로적성검사시스템 및 방법 | |
CN116434979A (zh) | 生理状态云监测方法、监测系统及储存介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200505 Termination date: 20201211 |