CN109388227A - 一种应用眼动数据隐性预测用户体验的方法 - Google Patents

一种应用眼动数据隐性预测用户体验的方法 Download PDF

Info

Publication number
CN109388227A
CN109388227A CN201710670557.XA CN201710670557A CN109388227A CN 109388227 A CN109388227 A CN 109388227A CN 201710670557 A CN201710670557 A CN 201710670557A CN 109388227 A CN109388227 A CN 109388227A
Authority
CN
China
Prior art keywords
eye movement
user
experience
value
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710670557.XA
Other languages
English (en)
Other versions
CN109388227B (zh
Inventor
侯冠华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Business Technology Institute
Original Assignee
Zhejiang Business Technology Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Business Technology Institute filed Critical Zhejiang Business Technology Institute
Priority to CN201710670557.XA priority Critical patent/CN109388227B/zh
Publication of CN109388227A publication Critical patent/CN109388227A/zh
Application granted granted Critical
Publication of CN109388227B publication Critical patent/CN109388227B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及一种应用眼动数据隐性预测用户体验的方法,包括获取用户针对产品体验的包括有评分值数据的用户体验测量量表并建立用户体验基准值;采集用户的各眼动参数对应的眼动参数特征值以及各眼动参数中的关键眼动参数特征值;建立用户体验预测模型;针对各关键眼动参数特征值的归一化眼动数据;选取用户的预设数目的眼动数据训练集并输入至用户体验预测模型进行训练;将任一随机用户的各关键眼动参数特征值输入到用户体验预测模型中,得到针对当前随机用户的各预测体验值并判断调整用户体验预测模型;将所获取用户针对产品体验的各眼动参数输入至确定的用户体验隐形预测模型,实现应用用户的眼动数据快速准确预测到用户针对产品的真实体验。

Description

一种应用眼动数据隐性预测用户体验的方法
技术领域
本发明涉及用户体验领域,尤其涉及一种应用眼动数据隐性预测用户体验的方法。
背景技术
用户体验是指用户在使用产品过程中的主观感受,主观感受包括对产品造型、产品色彩、产品功能的认知、识别和使用体验。
传统用户体验评价多采用问卷调查、深度访谈以及用户反馈等主观性方法进行采集与分析。传统的用户体验评价方法不仅需要大量问卷、耗时长、工作量大,而且这种传统的用户体验评价方法较多的涉及用户的主观情绪,其本质上更多的是用户情绪的反馈,导致现有传统的用户体验评价方法不能完全真实地反映用户对产品的真实体验。
在实际的产品使用过程中,用户使用产品时的眼动数据能够隐性地反映用户体验。基于此,申请号为201310393210.7的中国发明专利提出一种客观的e-learning用户体验质量的评价方法,该评价方法主要提出了用户体验指标体系中影响要素的量化方法,通过e-learning系统的用户日志数据,提取影响要素的特征值并进行量化评价,确定影响要素的权重,对影响要素进行加权求和,客观的评价用户体验质量。该方法虽然适用于慕课评价、微信等网络app产品,但对于实体产品并不适用。
发明内容
本发明所要解决的技术问题是针对上述现有技术提供一种应用眼动数据隐性预测用户体验的方法。该应用眼动数据隐性预测用户体验的方法能够基于用户的眼动数据,实现对用户体验的快速、准确预测。
本发明解决上述技术问题所采用的技术方案为:一种应用眼动数据隐性预测用户体验的方法,其特征在于,包括如下步骤1至步骤8:
步骤1,获取用户针对产品体验的包括有评分值数据的用户体验测量量表,并对用户体验测量量表内的各评分值数据做预处理,以建立用户体验基准值;其中,所述用户体验测量量表内的评分值数据包括用户针对产品体验效果的美学体验评分值数据、可用性体验评分值数据以及享乐性体验评分值数据;
步骤2,采集用户的各眼动参数,并提取各眼动参数中对应的眼动参数特征值以及各眼动参数中的关键眼动参数特征值;
步骤3,建立用户体验预测模型,以预测用户对产品的体验;
步骤4,针对步骤2中的各关键眼动参数特征值分别进行归一化处理,以分别得到对应各关键眼动参数特征值的归一化眼动数据;
步骤5,预设需要选取的眼动数据的训练集,从训练集中随机选取所述用户的预设数目的眼动数据,并将选取的用户的各眼动数据输入至用户体验预测模型中进行训练;其中,所述训练集内包括了用户的各眼动数据;
步骤6,选取若干数目的随机用户,将任一随机用户的各关键眼动参数特征值输入到用户体验预测模型中,得到针对当前随机用户的各预测体验值;
步骤7,将所得当前随机用户的各预测体验值与对应该当前随机用户的各真实体验值比对,以得到各眼动数据对应的预测误差,并判断是否需要调整用户体验预测模型:
当得到的各眼动数据的预测误差位于允许的误差范围之内时,则以当前用户体验预测模型作为用户体验隐形预测模型;
当得到的各眼动数据的预测误差位于允许的误差范围之外时,则调整所用户体验预测模型的参数,并将另一随机用户的各关键眼动参数特征值输入至调整后的用户体验预测模型,直到得到的各眼动数据对应的预测误差均位于允许的误差范围之内时,则以调整后的当前用户体验预测模型确定为用户体验隐形预测模型;
步骤8,获取用户针对产品体验的各眼动参数,并将各眼动参数经步骤2和步骤4处理后得到用户的各眼动数据输入至步骤7中确定的所述用户体验隐形预测模型中,从而实现应用用户的眼动数据预测到用户针对产品的真实体验。
进一步地,在所述应用眼动数据隐性预测用户体验的方法中,在步骤1中,建立用户体验基准值的过程包括步骤a至步骤c:
步骤a,预先针对用户体验评分数据的平均评分值划成包含不同平均评分值的预设评级区间,各区间分别一一对应着一个针对用户的体验等级;
步骤b,根据所述用户针对产品体验效果的美学体验评分值数据、可用性体验评分值数据以及享乐性体验评分值数据做平均化处理,得到平均化处理后的当前用户平均评分值;
步骤c,将所得当前用户平均评分值与预设预设评级区间比对,以将当前用户平均评分值处于的评级区间所对应的体验等级作为当前用户的体验基准值。
进一步地,在所述应用眼动数据隐性预测用户体验的方法中,在步骤3中,建立用户体验预测模型过程包括如下步骤3-1至步骤3-5:
步骤3-1,建立遗传算法优化的BP神经网络,并针对所获取用户的眼动数据进行初始化处理;
步骤3-2,建立针对用户体验的体验适应度函数;其中,体验适应度函数的建立公式如下:
其中,Fi为第i个眼动特征参数的体验适应度值,k为预设系数,n为BP神经网络中所有用户观看每个产品方案的眼动数据组数;yi为在第i个眼动特征参数下所对应用户的期望体验预测值,Oi为在第i个眼动特征参数下所对应用户的体验实际输出值,abs(·)表示取绝对值计算;
步骤3-3,执行针对所述预设数目中随机眼动特征参数的选取操作,以选取出所要保留随机眼动特征参数的比例值;其中,所述随机眼动特征参数i的被选取概率标记为pi
其中,N为针对随机眼动特征参数选取的预设数目,Fi为第i个眼动特征参数的体验适应度值,k为步骤3-1中的预设系数;
步骤3-4,执行交叉操作;其中,第k个眼动特征参数值ak与第l个眼动特征参数值在j处的交叉操作准则如下:
b为区间[0,1]内的随机数;
步骤3-5,执行变异操作;其中,第i个眼动特征参数值的第j个基因aij的变异准则如下:
其中,amax为基因aij的上限,amin为基因aij的下限,r是区间[0,1]内的随机数;g为当前迭代次数,Gmax是最大进化次数。
再进一步地,在步骤4中,所述关键眼动参数特征值按照如下公式进行归一化处理:
xk表示原始的关键眼动参数特征值,xmax表示所有原始的关键眼动参数特征值中的最大值,xmin表示所有原始的关键眼动参数特征值中的最小值,x'k表示原始的关键眼动参数特征值xk经归一化处理后的归一化处理值。
优选地,在所述应用眼动数据隐性预测用户体验的方法中,在步骤5中,所选取的眼动数据的训练集数据至少为100个。
可选地,在所述应用眼动数据隐性预测用户体验的方法中,在步骤7中,所述用户体验预测模型被调整的参数有神经网络的层级数、输入节点数和权重。
可选地,在所述应用眼动数据隐性预测用户体验的方法中,所述眼动参数包括闭眼时间、眨眼频率、眨眼时间、瞳孔直径、眼跳次数、注视点个数以及回看次数。
与现有技术相比,本发明的优点在于:
首先,相对于传统的用户体验评价方法,本发明中预测用户体验的方法通过在建立用户体验预测模型后,经引入多个随机用户的眼动数据到该用户体验预测模型进行训练,以确认得到最终的用户体验预测模型,从而后续只需要采集待预测用户针对实际产品的眼动数据并输入至用户体验预测模型中,就可以准确、快速地预测出当前用户针对当前实际产品的体验情况;
其次,本发明中预测用户体验的方法不需要依赖用户的主观情绪反应,也不需要考虑各种影响要素,只需要将采集的待预测用户针对实际产品的眼动数据输入至确定的用户体验预测模型中即可,不仅适合实际产品,而且也适用于诸如微信、QQ等网络产品和网络虚拟产品;
最后,本发明中的预测用户体验方法只需要确定最终的用户体验预测模型,就可以长久地针对任意用户对产品的体验情况进行基于眼动数据的准确预测。
附图说明
图1为本发明实施例中应用眼动数据隐性预测用户体验的方法的流程示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
如图1所示,本实施例中应用眼动数据隐性预测用户体验的方法,包括如下步骤1至步骤8:
步骤1,获取用户针对产品体验的包括有评分值数据的用户体验测量量表,并对用户体验测量量表内的各评分值数据做预处理,以建立用户体验基准值;其中,用户体验测量量表内的评分值数据包括用户针对产品体验效果的美学体验评分值数据、可用性体验评分值数据以及享乐性体验评分值数据;其中,预处理包括:眼动数据中的空缺值,即闭眼状态时,很多数值是显示为0,为不改变均值,将所有数值0替换为空值;将眼动数据矩阵化,为数值计算做好准备工作;由于各特征值数据单位不一致,因此要做归一化处理;
例如,用户甲针对某件产品A体验效果的美学体验评分值为65分、可用性体验评分值为70分以及享乐性体验评分值为85分;也就是说,在用户甲的用户体验测量量表中包括了学体验评分值65分以及可用性体验评分值为70分;
具体地,在本实施例中,建立用户体验基准值的过程包括步骤a至步骤c:
步骤a,预先针对用户体验评分数据的平均评分值划成包含不同平均评分值的预设评级区间,各区间分别一一对应着一个针对用户的体验等级;
例如,针对用户体验评分数据的平均评分值所划成的预设评级区间如下:
预设评级区间[0,60),对应一级;
预设评级区间[60,70),对应二级;
预设评级区间[70,80),对应三级;
预设评级区间[80,90),对应四级;
预设评级区间[90,100],对应五级;
步骤b,根据所述用户针对产品体验效果的美学体验评分值数据、可用性体验评分值数据以及享乐性体验评分值数据做平均化处理,得到平均化处理后的当前用户平均评分值;
步骤c,将所得当前用户平均评分值与预设预设评级区间比对,以将当前用户平均评分值处于的评级区间所对应的体验等级作为当前用户的体验基准值;
如用户甲的用户体验测量量表中,用户甲的平均评分值为(65+70+85)/3≈73.33;可知,73.33位于预设评级区间[70,80)内,从而得到用户甲针对产品A的体验等级为三级;
步骤2,采集用户的各眼动参数,并提取各眼动参数中对应的眼动参数特征值以及各眼动参数中的关键眼动参数特征值;其中,本实施例中所指出的眼动参数至少包括闭眼时间、眨眼频率、眨眼时间和瞳孔直径;当然,眼动参数还可以包括有眼跳次数、注视点个数以及回看次数等;
具体地,例如,在采集的用户的各眼动参数中,假设采集的这些眼动参数有闭眼时间、眨眼频率、眨眼时间、瞳孔直径、眼跳次数、注视点个数以及回看次数;其中,在这些眼动参数中,闭眼时间值、眨眼频率值、眨眼时间值、瞳孔直径值、眼跳次数值、注视点个数值以及回看次数值就是对应的眼动参数特征值;如果把闭眼时间和眼跳次数作为关键眼动参数,那么对应的闭眼时间值和眼跳次数值就是对应的关键眼动参数特征值;
步骤3,建立用户体验预测模型,以预测用户对产品的体验;其中,在本实施例中,建立用户体验预测模型过程包括如下步骤3-1至步骤3-5:
步骤3-1,建立遗传算法优化的BP神经网络,并针对所获取用户的眼动数据进行初始化处理;其中,初始化处理即为对各眼动数据值的归一化处理;
步骤3-2,建立针对用户体验的预测体验适应度函数;其中,预测体验适应度函数的建立公式如下:
其中,Fi为第i个眼动特征参数的体验适应度值,k为预设系数,n为BP神经网络中所有用户观看每个产品方案的眼动数据组数;例如,3个用户看了10个产品,就会产生30组眼动数据;yi为在第i个眼动特征参数下所对应用户的期望体验预测值,期望体验预测值yi是用户针对产品的主观数据得分归一化后的值,Oi为在第i个眼动特征参数下所对应用户的体验实际输出值,abs(·)表示取绝对值计算;
步骤3-3,执行针对所述预设数目中随机眼动特征参数的选取操作,以选取出所要保留随机眼动特征参数的比例值;其中,随机眼动特征参数i的被选取概率标记为pi
其中,N为针对随机眼动特征参数选取的预设数目,Fi为第i个眼动特征参数的体验适应度值,k为步骤3-1中的预设系数;通过步骤3-3中对随机眼动特征参数被选取概率的计算,可以确保目标眼动特征参数数据能够被保留下来;
步骤3-4,执行交叉操作;其中,第k个眼动特征参数值ak与第l个眼动特征参数值在j处的交叉操作准则如下:
b为区间[0,1]内的随机数;
其中,针对不同眼动特征参数值之间的交叉操作,可以产生新的特征参数,以具备更好的数据预测性能;
步骤3-5,执行变异操作;其中,第i个眼动特征参数值的第j个基因aij的变异准则如下:
其中,amax为基因aij的上限,amin为基因aij的下限,r是区间[0,1]内的随机数;g为当前迭代次数,即按照种群初始化、计算适应度、选择、交叉、变异的顺序执行的次数;当所有个体全部按这个步骤操作完成,交叉、变异重复了,迭代就停止了,Gmax是最大进化次数,即执行完毕交叉操作且没有新个体产生时所对应的进化次数;
具体地,此处所指的基因是指眼动数据特征,由于用户在观看不同等级产品时,在时间顺序上会有显著差别,例如首次注视区域,我们将优秀产品的首次注视区域这个特征作为基因;对应的,将其他注视区域作为中等和差等眼动数据特征。这样,可以在保证眼动特征数据按比例遗传下去的同时,可以产生新的眼动数据特征,以用来寻找能够准确预测用户体验的眼动特征数据组合;
由于BP网络是反向误差反馈网络,因为首次输出值与期望值差距较大,因此重新调整参数,变异的目的是为了能够使针对用户体验的预测值更接近期望值;
步骤4,针对步骤2中的各关键眼动参数特征值分别进行归一化处理,以分别得到对应各关键眼动参数特征值的归一化眼动数据;其中,在本实施例中,关键眼动参数特征值按照如下公式进行归一化处理:
xk表示原始的关键眼动参数特征值,xmax表示所有原始的关键眼动参数特征值中的最大值,xmin表示所有原始的关键眼动参数特征值中的最小值,x'k表示原始的关键眼动参数特征值xk经归一化处理后的归一化处理值;眼动参数至少包括闭眼时间、眨眼频率、眨眼时间和瞳孔直径;
例如,以用户的闭眼时间为例作出说明,假设获取到三个闭眼时间数据,分别是10s、15s和20s,即x1=10,x2=15,x3=20;xmax=20,xmin=10;
针对第一个闭眼时间x1归一化处理:
针对第二个闭眼时间x2归一化处理:
针对第三个闭眼时间x3归一化处理:
步骤5,预设需要选取的眼动数据的训练集,从训练集中随机选取所述用户的预设数目的眼动数据,并将选取的用户的各眼动数据输入至用户体验预测模型中进行训练;其中,此处针对用户体验预测模型的训练过程即为针对用户体验预测模型的不断调整过程;所述训练集内包括了用户的各眼动数据;在该步骤5中,所选取的眼动数据的训练集数据至少为100个;
步骤6,选取若干数目的随机用户,将任一随机用户的各关键眼动参数特征值输入到用户体验预测模型中,得到针对当前随机用户的各预测体验值;此处,所选取随机用户的数目至少为100个;
步骤7,将所得当前随机用户的各预测体验值与对应该当前随机用户的各真实体验值比对,以得到各眼动数据对应的预测误差,并判断是否需要调整用户体验预测模型:
当得到的各眼动数据的预测误差位于允许的误差范围之内时,表示当前的用户体验预测模型是准确的,则以当前用户体验预测模型作为用户体验隐形预测模型;
当得到的各眼动数据的预测误差位于允许的误差范围之外时,表示当前的用户体验预测模型是不准确的,则调整所用户体验预测模型的参数,并将另一随机用户的各关键眼动参数特征值输入至调整后的用户体验预测模型,直到得到的各眼动数据对应的预测误差均位于允许的误差范围之内时,则以调整后的当前用户体验预测模型确定为用户体验隐形预测模型;
例如,在步骤7中,用户体验预测模型被调整的参数有神经网络的层级数、输入节点数和权重;
步骤8,获取用户针对产品体验的各眼动参数,并将各眼动参数经步骤2和步骤4处理后得到用户的各眼动数据输入至步骤7中确定的所述用户体验隐形预测模型中,从而实现应用用户的眼动数据预测到用户针对产品的真实体验。
尽管以上详细地描述了本发明的优选实施例,但是应该清楚地理解,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种应用眼动数据隐性预测用户体验的方法,其特征在于,包括如下步骤1至步骤8:
步骤1,获取用户针对产品体验的包括有评分值数据的用户体验测量量表,并对用户体验测量量表内的各评分值数据做预处理,以建立用户体验基准值;其中,所述用户体验测量量表内的评分值数据包括用户针对产品体验效果的美学体验评分值数据、可用性体验评分值数据以及享乐性体验评分值数据;
步骤2,采集用户的各眼动参数,并提取各眼动参数中对应的眼动参数特征值以及各眼动参数中的关键眼动参数特征值;
步骤3,建立用户体验预测模型,以预测用户对产品的体验;
步骤4,针对步骤2中的各关键眼动参数特征值分别进行归一化处理,以分别得到对应各关键眼动参数特征值的归一化眼动数据;
步骤5,预设需要选取的眼动数据的训练集,从训练集中随机选取所述用户的预设数目的眼动数据,并将选取的用户的各眼动数据输入至用户体验预测模型中进行训练;其中,所述训练集内包括了用户的各眼动数据;
步骤6,选取若干数目的随机用户,将任一随机用户的各关键眼动参数特征值输入到用户体验预测模型中,得到针对当前随机用户的各预测体验值;
步骤7,将所得当前随机用户的各预测体验值与对应该当前随机用户的各真实体验值比对,以得到各眼动数据对应的预测误差,并判断是否需要调整用户体验预测模型:
当得到的各眼动数据的预测误差位于允许的误差范围之内时,则以当前用户体验预测模型作为用户体验隐形预测模型;
当得到的各眼动数据的预测误差位于允许的误差范围之外时,则调整所用户体验预测模型的参数,并将另一随机用户的各关键眼动参数特征值输入至调整后的用户体验预测模型,直到得到的各眼动数据对应的预测误差均位于允许的误差范围之内时,则以调整后的当前用户体验预测模型确定为用户体验隐形预测模型;
步骤8,获取用户针对产品体验的各眼动参数,并将各眼动参数经步骤2和步骤4处理后得到用户的各眼动数据输入至步骤7中确定的所述用户体验隐形预测模型中,从而实现应用用户的眼动数据预测到用户针对产品的真实体验。
2.根据权利要求1所述的应用眼动数据隐性预测用户体验的方法,其特征在于在步骤1中,建立用户体验基准值的过程包括步骤a至步骤c:
步骤a,预先针对用户体验评分数据的平均评分值划成包含不同平均评分值的预设评级区间,各区间分别一一对应着一个针对用户的体验等级;
步骤b,根据所述用户针对产品体验效果的美学体验评分值数据、可用性体验评分值数据以及享乐性体验评分值数据做平均化处理,得到平均化处理后的当前用户平均评分值;
步骤c,将所得当前用户平均评分值与预设预设评级区间比对,以将当前用户平均评分值处于的评级区间所对应的体验等级作为当前用户的体验基准值。
3.根据权利要求2所述的应用眼动数据隐性预测用户体验的方法,其特征在于,在步骤3中,建立用户体验预测模型过程包括如下步骤3-1至步骤3-5:
步骤3-1,建立遗传算法优化的BP神经网络,并针对所获取用户的眼动数据进行初始化处理;
步骤3-2,建立针对用户体验的体验适应度函数;其中,体验适应度函数的建立公式如下:
其中,Fi为第i个眼动特征参数的体验适应度值,k为预设系数,n为BP神经网络中所有用户观看每个产品方案的眼动数据组数;yi为在第i个眼动特征参数下所对应用户的期望体验预测值,Oi为在第i个眼动特征参数下所对应用户的体验实际输出值,abs(·)表示取绝对值计算;
步骤3-3,执行针对所述预设数目中随机眼动特征参数的选取操作,以选取出所要保留随机眼动特征参数的比例值;其中,所述随机眼动特征参数i的被选取概率标记为pi
其中,N为针对随机眼动特征参数选取的预设数目,Fi为第i个眼动特征参数的体验适应度值,k为步骤3-1中的预设系数;
步骤3-4,执行交叉操作;其中,第k个眼动特征参数值ak与第l个眼动特征参数值在j处的交叉操作准则如下:
b为区间[0,1]内的随机数;
步骤3-5,执行变异操作;其中,第i个眼动特征参数值的第j个基因aij的变异准则如下:
其中,amax为基因aij的上限,amin为基因aij的下限,r是区间[0,1]内的随机数;g为当前迭代次数,Gmax是最大进化次数。
4.根据权利要求1至3任一项所述的应用眼动数据隐性预测用户体验的方法,其特征在于,在步骤4中,所述关键眼动参数特征值按照如下公式进行归一化处理:
xk表示原始的关键眼动参数特征值,xmax表示所有原始的关键眼动参数特征值中的最大值,xmin表示所有原始的关键眼动参数特征值中的最小值,x'k表示原始的关键眼动参数特征值xk经归一化处理后的归一化处理值。
5.根据权利要求1至3任一项所述的应用眼动数据隐性预测用户体验的方法,其特征在于,在步骤5中,所选取的眼动数据的训练集数据至少为100个。
6.根据权利要求4所述的应用眼动数据隐性预测用户体验的方法,其特征在于,在步骤7中,所述用户体验预测模型被调整的参数有神经网络的层级数、输入节点数和权重。
7.根据权利要求1所述的应用眼动数据隐性预测用户体验的方法,其特征在于,所述眼动参数包括闭眼时间、眨眼频率、眨眼时间、瞳孔直径、眼跳次数、注视点个数以及回看次数。
CN201710670557.XA 2017-08-08 2017-08-08 一种应用眼动数据隐性预测用户体验的方法 Expired - Fee Related CN109388227B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710670557.XA CN109388227B (zh) 2017-08-08 2017-08-08 一种应用眼动数据隐性预测用户体验的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710670557.XA CN109388227B (zh) 2017-08-08 2017-08-08 一种应用眼动数据隐性预测用户体验的方法

Publications (2)

Publication Number Publication Date
CN109388227A true CN109388227A (zh) 2019-02-26
CN109388227B CN109388227B (zh) 2021-09-10

Family

ID=65414092

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710670557.XA Expired - Fee Related CN109388227B (zh) 2017-08-08 2017-08-08 一种应用眼动数据隐性预测用户体验的方法

Country Status (1)

Country Link
CN (1) CN109388227B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109976530A (zh) * 2019-04-08 2019-07-05 贵州大学 一种vr系统认知负荷量化评估方法
CN110852284A (zh) * 2019-11-14 2020-02-28 北京格如灵科技有限公司 一种基于虚拟现实环境预测用户专注度的系统及实现方法
CN113080532A (zh) * 2021-05-14 2021-07-09 安徽中烟工业有限责任公司 基于眼动追踪技术的加热卷烟烟具用户体验量化分析方法
CN114783044A (zh) * 2022-04-20 2022-07-22 石家庄铁道大学 隧道照明环境的防疲劳效果评价方法、电子设备及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103356164A (zh) * 2013-07-12 2013-10-23 北京阳明智道光电科技有限公司 一种视觉健康舒适度的测量系统及测量方法
CN106708270A (zh) * 2016-12-29 2017-05-24 宇龙计算机通信科技(深圳)有限公司 一种虚拟现实设备的显示方法、装置以及虚拟现实设备
CN106843468A (zh) * 2016-12-27 2017-06-13 努比亚技术有限公司 一种终端以及vr场景中的人机交互方法
WO2017097410A1 (en) * 2015-12-10 2017-06-15 At Media S.R.L. System for control and interactive visualization of multimedia content
CN106920129A (zh) * 2017-03-09 2017-07-04 山东师范大学 一种基于眼动追踪的网络广告效果测评系统及其方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103356164A (zh) * 2013-07-12 2013-10-23 北京阳明智道光电科技有限公司 一种视觉健康舒适度的测量系统及测量方法
WO2017097410A1 (en) * 2015-12-10 2017-06-15 At Media S.R.L. System for control and interactive visualization of multimedia content
CN106843468A (zh) * 2016-12-27 2017-06-13 努比亚技术有限公司 一种终端以及vr场景中的人机交互方法
CN106708270A (zh) * 2016-12-29 2017-05-24 宇龙计算机通信科技(深圳)有限公司 一种虚拟现实设备的显示方法、装置以及虚拟现实设备
CN106920129A (zh) * 2017-03-09 2017-07-04 山东师范大学 一种基于眼动追踪的网络广告效果测评系统及其方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
唐帮备: "《联合眼动和脑电的汽车工业设计用户体验评选》", 《计算机集成制造系统》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109976530A (zh) * 2019-04-08 2019-07-05 贵州大学 一种vr系统认知负荷量化评估方法
CN110852284A (zh) * 2019-11-14 2020-02-28 北京格如灵科技有限公司 一种基于虚拟现实环境预测用户专注度的系统及实现方法
CN113080532A (zh) * 2021-05-14 2021-07-09 安徽中烟工业有限责任公司 基于眼动追踪技术的加热卷烟烟具用户体验量化分析方法
CN114783044A (zh) * 2022-04-20 2022-07-22 石家庄铁道大学 隧道照明环境的防疲劳效果评价方法、电子设备及系统
CN114783044B (zh) * 2022-04-20 2023-03-24 石家庄铁道大学 隧道照明环境的防疲劳效果评价方法、电子设备及系统

Also Published As

Publication number Publication date
CN109388227B (zh) 2021-09-10

Similar Documents

Publication Publication Date Title
CN109388227A (zh) 一种应用眼动数据隐性预测用户体验的方法
CN112054943B (zh) 一种移动网络基站流量预测方法
CN104581748B (zh) 一种在无线通信网络中识别场景的方法和装置
CN111985751A (zh) 人机聊天体验评估体系
CN111639411B (zh) 一种基于electre和vikor法的电磁铁多质量特性决策方法
Asiret et al. Investigating Test Equating Methods in Small Samples Through Various Factors.
CN110889450A (zh) 超参数调优、模型构建方法和装置
CN113239211A (zh) 一种基于课程学习的强化学习知识图谱推理方法
CN110222940A (zh) 一种众包测试平台测试人员推荐算法
Sabzi et al. Numerical comparison of multi-criteria decision-Making techniques: A simulation of flood management multi-criteria systems
CN110110914A (zh) 基于变换决策树和智能优化方法的学生困难程度预测方法
CN113256100A (zh) 一种基于虚拟现实技术的室内设计用教学方法及系统
CN109635869A (zh) 在线学习干预系统
CN108664730A (zh) 一种面向多模态工业产品的动态色彩设计方法
CN111369124A (zh) 一种基于自生成全局特征和注意力的图像美学预测方法
Juric et al. Profiling nascent entrepreneurs in Croatia-neural network approach
Štěpánek et al. Feasibility of computerized adaptive testing evaluated by Monte-Carlo and post-hoc simulations
CN109740667B (zh) 一种基于质量排序网络和语义分类的图像质量评价方法
CN109583666A (zh) 基于萤火虫算法的组合神经网络对股票市场的预测方法
CN110474796B (zh) 基于用户体验质量的异构网络选择方法
Sun A Comprehensive Evaluation Scheme of Students’ Classroom Learning Status Based on Analytic Hierarchy Process
Huang et al. Performance of computer examination items selection based on grey relational analysis
CN114187977B (zh) 一种设备材料球化程度预测方法及系统
Zhang et al. Application of AHP-fuzzy comprehensive evaluation method in students assessment
CN117312685A (zh) 一种基于超图网络的城市候机楼选址推荐方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210910

CF01 Termination of patent right due to non-payment of annual fee