CN109145782A - 基于界面任务的视觉认知差异研究方法 - Google Patents

基于界面任务的视觉认知差异研究方法 Download PDF

Info

Publication number
CN109145782A
CN109145782A CN201810876821.XA CN201810876821A CN109145782A CN 109145782 A CN109145782 A CN 109145782A CN 201810876821 A CN201810876821 A CN 201810876821A CN 109145782 A CN109145782 A CN 109145782A
Authority
CN
China
Prior art keywords
user
interface
age
aoi
eye movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810876821.XA
Other languages
English (en)
Inventor
吕健
刘翔
李姣姣
虞杰
袁庆霓
蓝伟文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guizhou University
Original Assignee
Guizhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guizhou University filed Critical Guizhou University
Priority to CN201810876821.XA priority Critical patent/CN109145782A/zh
Publication of CN109145782A publication Critical patent/CN109145782A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Abstract

本发明公开了一种基于界面任务的视觉认知差异研究方法,包括以下步骤:(1)选取界面并进行区域划分处理,设定眼动行为数据指标,建立有效指标差异测试模型,并将界面区域划分元素与用户行为指定任务序列一一对应;(2)根据用户群体特征,将用户年龄区间进行合理的年龄断层划分,将处理后的界面呈现给不同的被试年龄组,利用李克特量表记录不同被试年龄组的被试者对测试材料的评价;使用眼动跟踪设备记录不同被试年龄组的被试者的眼动行为数据,最后基于有效指标差异测试模型对不同被试年龄组的被试者的眼动和心理主观打分汇总,并数据处理与分析,得出跨年龄层用户视觉认知模式上的差异。本发明能反馈用户认知差异性,优化界面交互体验。

Description

基于界面任务的视觉认知差异研究方法
技术领域
本发明属于计算机辅助设计技术领域,具体地说是涉及一种基于界面任务的视觉认知差异研究方法。
背景技术
人类从外界得到的信息量80%来源于视觉,视觉是用户和界面交互的直接途径。界面的信息传递从视觉开始,眼球与界面产生交互行为,进而形成大脑中的感性意象,做出刺激反应,完成界面的信息传递。整个交互过程基于视觉信息感知与大脑认知处理完成信息传递。界面是人机交互的重要接口,结合用户视觉注意机制,推理人机交互界面设计方法,有利于增强用户的交互体验。
随着人类环境和计算机技术的不断发展,人机交互界面(Human-ComputerInterface,HCI)作为一种信息传达的新媒介,其交互形式愈加复杂,所传递的信息量也越来越大。这就要求交互界面的开发不仅需要考虑提高界面可用性,降低认知负荷,同时需要考虑不同用户群体对界面信息认知处理的差异。现有技术中,对界面视觉认知模式研究重点倾向于信息可视化、可用性评估、交互形式分析和美化视觉感受。在研究用户与界面的交互关系时,不同类型用户在指定行为中,对界面连续使用过程的完整跟踪实验还存在不足。用户的生理指标、眼动数据、年龄、文化经验等客观数据导致的视觉认知模式差异问题依旧较为凸显。
发明内容
本发明的目的在于克服上述缺点而提供一种能比较不同年龄层用户对界面的视觉认知差异的基于界面任务的视觉认知差异研究方法。
本发明的一种基于界面任务的视觉认知差异研究方法,包括以下步骤:
(1)选取界面并进行区域划分处理,设定眼动行为数据指标,建立有效指标差异测试模型,并将界面元素与用户行为指定任务序列一一对应;
(2)根据用户群体特征,将用户年龄区间进行合理的年龄断层划分,将处理后的界面呈现给不同的被试年龄组,利用李克特量表(Likert)记录不同被试年龄组的被试者对测试材料的评价;使用眼动跟踪设备记录不同被试年龄组的被试者的眼动行为数据,最后基于有效指标差异测试模型对不同被试年龄组的被试者的眼动和心理主观打分汇总,并进行数据处理与分析,得出跨年龄层用户视觉认知模式上的差异。
上述基于界面任务的视觉认知差异研究方法,其中:所述步骤(1)中的眼动行为数据指标设定为:注视时间(T),即注视点的持续时间;注视数目(N),即注视点数量;视觉捕获(C),指在最初时间内获得的注视对象,描述最吸引用户注意的目标;感兴趣区域(Area ofInterest,AOI)即在同一注视对象中,注视点分布数量密集区域,用户关注度与感兴趣区域。
上述基于界面任务的视觉认知差异研究方法,其中:所述眼动行为数据指标设定为:注视时间(T),设定t>100ms,数据有效;视觉捕获(C),指在最初250ms以内获得的注视对象,描述最吸引用户注意的目标。
上述基于界面任务的视觉认知差异研究方法,其中:所述有效指标差异测试模型,其形式化表征为六元组:M={U,TSEQ,Ti,Ni,AOI(C),R};其中,U定义为U={(u1,u2,Λ,ui,Λ,un),LIM},ui∈U,U表示用户群体集合,ui表示个体用户,LIM表示筛选分类条件,如用户年龄、喜好、教育背景;TSEQ表示用户行为指定任务序列;Ni表示在AOIi中的注视数目;Ti表示在AOIi中的平均注视时间,AOIi中总注视时间为Ti×Ni;AOI(C)为包含视觉捕获对象的感兴趣区,AOI(C)=AOIi(i=1,2,Λ,n);R为该AOI集合的注视转移矩阵。
本发明与现有技术的相比,具有明显的可行性效果,由以上方案可知,根据用户群体特征,将用户年龄区间进行合理的年龄断层划分,将处理后的界面呈现给不同的被试年龄组,利用李克特量表(Likert)记录不同被试年龄组的被试者对测试材料的评价;使用眼动跟踪设备记录不同被试年龄组的被试者的眼动行为数据,最后基于有效指标差异测试模型对不同被试年龄组的被试者的眼动和心理主观打分汇总,并进行数据处理与分析,得出跨年龄层用户视觉认知模式上的差异。因此,本发明能反馈用户认知差异性,优化界面交互体验,提升人机交互理念。
以下通过具体实施方式,进一步说明本发明的有益效果。
附图说明
图1是本发明的用户界面体验眼动行为模型;
图2是本发明的流程图;
图3是实施例中的界面的区域划分;
图4是实施例中的三个年龄层眼动热点图;
图5是实施例中的数据比较图。
具体实施方式
以下结合附图及较佳实施例,对依据本发明提出的基于界面任务的视觉认知差异研究方法具体实施方式、特征及其功效,详细说明如后。
参见图2,本发明的一种基于界面任务的视觉认知差异研究方法,包括以下步骤:
(1)选取界面并进行区域划分处理,设定眼动行为数据指标,建立有效指标差异测试模型,并将界面元素与用户行为指定任务序列一一对应;
(2)根据用户群体特征,将用户年龄区间进行合理的年龄断层划分,将处理后的界面呈现给不同的被试年龄组,利用李克特量表(Likert)记录不同被试年龄组的被试者对测试材料的评价;使用眼动跟踪设备记录不同被试年龄组的被试者的眼动行为数据,最后基于有效指标差异测试模型对不同被试年龄组的被试者的眼动和心理主观打分汇总,并进行数据处理与分析,得出跨年龄层用户视觉认知模式上的差异。
视觉认知与眼动指标分析:
视觉认知方式是一个多维度的信息转化过程。界面与用户发生视觉刺激行为时,信息持续发生转化,最终形成用户刺激反应。据国内外学者相关研究,用户刺激反应具有评价性。用户刺激反应会以心理和生理的信号反应出来,可以通过主观测量和客观测量,用于研究用户认知模式。眼动行为是视觉认知过程中重要组成部分,用户使用界面时,产生的眼动行为主要是由眼跳(Saccade)和注视(Fixation)交替序列构成的。眼跳行为指的是瞳孔定位界面不同位置的快速运动,具体表现为在一系列注视点之间的快速移动。注视是指在眼跳过程中视线在某相对集中区域(视角)停留时间超过以上的行为,一般认为注视行为是对信息进行获取感知与认知处理。用户界面体验眼动行为模型如图1所示。
在眼动行为跟踪实验中,为简化计算复杂程度,提高对比效率。设定以下数据指标:注视时间(T),即注视点的持续时间。根据注视行为定义与实验数据的有效性,设定t>100ms,实验数据有效;注视数目(N),即注视点数量;视觉捕获(C),指在最初250ms以内获得的注视对象,描述最吸引用户注意的目标;感兴趣区域(Area of Interest,AOI)即在同一注视对象中,注视点分布数量密集区域,用户关注度与感兴趣区域。
建立有效指标差异测试的一般模型:
运用眼动指标研究用户群体视觉认知模式差异,需建立有效指标差异测试的一般模型。针对用户在指定任务序列中的眼动行为研究,结合相应的眼动数据与界面AOI,提出视觉认知差异有效指标测试的一般模型M,其形式化表征为六元组:M={U,TSEQ,Ti,Ni,AOI(C),R};其中,U定义为U={(u1,u2,Λ,ui,Λ,un),LIM},ui∈U;U表示用户群体集合,ui表示个体用户,LIM表示筛选分类条件,例如用户年龄、喜好、教育背景等。
TSEQ表示用户行为指定任务序列,研究将指定任务序列化分解:TSEQ={Ts1,Ts2,Λ,Tsi,Λ,Tsn},Tsi∈TSEQ;每个序列过程中会有相应的动作(Acti)与序列(Tsi)匹配:{Ts1,Ts2,Λ,Tsi,Λ,Tsn}→{Act1,Act2,Λ,Acti,Λ,Actn};逐一动作发生位置对应逐一AOI:{Act1,Act2,Act3,L,Actn}→{AOI1,AOI2,AOI3,L,AOIn};最后,各AOI区域与序列匹配:{AOI1,AOI2,AOI3,L,AOIn}→{Ts1,Ts2,Ts3,L,Tsn}。
Ni表示在AOIi中的注视数目,与视觉搜索绩效有关,注视点数目过多表明界面设计不合理,用户搜索效率低下,同时Ni数量多少与AOIi重要程度、被关注度成正相关。
Ti表示在AOIi中的平均注视时间,AOIi中总注视时间为Ti×Ni
AOI(C)为包含视觉捕获对象的感兴趣区,AOI(C)=AOIi(i=1,2,Λ,n);如果AOTi不是任务序列的首相或重要项,说明对整个任务起决定性的界面元素未被用户识别,影响任务效率。
R为该AOI集合的注视转移矩阵,AOI转移扫视过程:{AOI1,AOI2,AOI3,L,AOIn}→{AOI1,AOI2,AOI3,L,AOIn};得到注视点在各AOI上转移频次矩阵:其中,AOIi,j表示注视从AOIi转移到AOIj的频次。如AOI21表示注视从AOI2转移到AOI1的频次。
基于跨年龄层视角视觉认知差异研究模型:
在用户视觉认知差异研究中,发现随着年龄的增长,用户大脑中多巴胺神经传导物质有效性会不断降低,导致视觉认知效率下降。不同年龄用户在同一任务序列和场景下对同一认知对象的眼动指标会明显差异。
根据研究用户群体特征,将用户年龄区间进行合理的年龄断层划分(提高差异显著性);将处理后的系统界面测试材料呈现给不同的被试年龄组,利用Likert量表记录不同被试年龄组的被试者对测试材料的评价;使用眼动设备记录不同被试年龄组的被试者的眼动行为数据,最后对不同被试年龄组的被试者的眼动和心理主观打分汇总,并数据处理与分析,得出跨年龄层用户视觉认知模式上的差异。
实施例:
1实验样本的选取处理与任务序列划分
本文选择非遗贵州蜡染图案个性化定制系统中的某界面作为实验样本,其具有任务序列明确、界面转化频率高、形式多样、使用人群广泛、操作交互简单、界面区域划分明确与用户年龄跨度大等特点,符合实验样本选取条件。实验样本界面分辨率为72DPI,将网页界面进行AOI区域划分,显示分辨率为1366×768,如图3所示。
个性化定制界面指定任务序列分解:TSEQ={Ts1,Ts2,Ts3,Ts4,Ts5,Ts6};由于受到意识控制,用户会结合任务目标与自身先验知识对信息进行主动搜索、筛选与屏蔽。因此,基于自顶向下(Top-Down)视觉认知机制理论对数据进行分析,避免无意识选择产生干扰。将这些界面元素划分为不同的AOI,与任务序列一一对应,以便解析任务序列与AOI映射关系。
本文对非遗贵州蜡染图案个性化定制系统中某网页操作界面进行任务序列分解,具体如表1所示:
表1蜡染图案个性化定制任务序列
Table 1batik pattern personalized custom task sequence
除以上序列内相匹配的6个AOI以外,网页界面存在与任务序列无关区域,记作AOIn,这些AOIn同样需在AOI转移频次矩阵中进行解析。
2实验设计
被试用户选择:
被试用户为随机选取30人,其中:男性16名,女性14名;为提高被试用户实验数据显著性,本实验年龄分组为断层式划分,20-30岁年龄层为10名,35-45岁年龄层10名,50-60岁年龄层10名;矫正后双眼视力良好;均具有5年以上计算机使用经验;实验过程由笔者主持。
实验设备与调查问卷选取:
实验测试设备使用心拓英启科技公司的EyeSo Ec60遥测式眼动跟踪设备,设备采样频率为30Hz与60Hz,采样精度为典型值0.5°视角(45cm~75cm距离)。测试前,对每一位被试者分别进行设备调校。被试者坐姿并与显示器平视,距离约70cm左右。
李克特量表(Likert scale)是美国社会心理学家Rensis Likert发明而成的。该量表通过被试者非常同意、同意、不确定、不同意、非常不同意五种态度陈述,分别记为5-1分,被试者得分情况反映被试者主观态度强弱。
实验过程:
测试实验前被试者阅读实验指导,熟悉任务序列及目标,调校实验设备。发出指令,被试者开始实验,眼动数据由EyeSo Studio数据分析软件记录编辑,实验完成后被试者填写Likert调查问卷。调查问卷问题:“定制过程中,对哪一部分定制界面最感兴”。并使用5-1的5点Likert量表独立作答,获取主观评估与反馈。
3数据分析及结论
眼动热点图提取对比:
排除无效数据,共采集三个年龄层各10人的有效数据,采用EyeSo Studio软件将不同年龄层10名被试者热点数据合并叠加,并生成3幅眼动热点图,如图4所示。
观测各年龄层用户的眼动热点图,通过色彩变化显示用户视觉停留时间。红色表示注视时间最长的区域,绿色较短。测试结果表明,三组被试者界面中热点区相对一致,聚散分布情况基本一致。红色热点区域各有1个,20-30岁年龄层与35-45岁年龄层用户红色热点区集中于AOI1,且20-30岁年龄层用户的红色热点区面积较大,而50-60岁年龄层用户则集中在AOI3,说明年轻用户在整个任务序列中更倾向于纹样与图片的识别上,用户注视点集中分布在AOI1与AOI3上,属于任务序列首项与重要项,说明界面元素分布设计较为合理。综上所述,可知三个年龄层用户对样本界面的注视的整体分布类似,相比之下青年用户的注视更加活跃。
注视持续时间与数目:
通过EyeSo Studio软件记录并导出数据,由此可得到总注视时间与总注视数目,如表2和表3所示。
表2三个年龄层用户总注视时间比较
Table 2Comparison of the total age of the three age groups
表3三个年龄层用户总注视数目比较
Table 3Comparison of the total number of users in the three agegroups
分别对表2和表3中的眼动注视时间与注释数目进行单因素方差分析,研究年龄与注视时间、注视数目之间是否存在显著性:
由眼动注视时间与注视数目数据的单因素方差计算分析可得,F(t)=6.303,F(n)=3.960;P(t)=0.006<0.05,P(n)=0.031<0.05。由计算结果可以看出,在指定任务序列下,不同年龄的用户,与其注视时间、注视数目间有显著性差异存在。综上所述,可知不同年龄层用户对指定任务序列下的界面注视的整体存在差异,相比之下青年用户的总注视时间更短,总注视数目偏少。
分析各兴趣区平均注视时间与平均注视数目可以获取用户对不同序列及AOI兴趣区的视觉差异,具体如图5所示。
从图5(a)可以看出,三个年龄层用户在AOI1区域中的注视时间最长。较长的注视时间反映在进行指定序列任务时,这一AOI区域具有较高的认知加工行为。青年用户在AOI1、AOI3、AOI4的总注视时间明显低于中老年用户,而在AOI2、AOI5、AOI6、AOIn的总注视时间均无明显差异。此外,三个年龄层用户在各AOI的注视时间标准差分别为青年2698.64;中年4411.30;老年4962.86。反映出青年用户在各区域的注视时间更加平均。
从图5(b)可以看出,三个年龄层用户在AOI1区域中的注视数目最多。较多的注视数目反映在进行指定序列任务时,用户对动态图片具有较高的认知加工行为。青年用户在AOI1、AOI3、AOI4的总注视数目明显低于中老年用户,而在AOI2、AOI5、AOI6、AOIn的总注视时间均无明显差异。青年用户在各区域的注视数目更加平均。
表4用户年龄与各兴趣区指标单因素方差分析
Table 4User age and interest area index single factor analysis ofvariance
通过表4可以看到,各兴趣区注视时间与各兴趣区注视数目F值分别为0.546,0.348;P值分别为0.588和0.711,均大于0.05的显著性水平。说明不同年龄层用户在各感兴趣区的注视时间、注视数目指标上无显著性差异。
AOI转移矩阵:
根据上文定义,可得三个年龄层AOI转移频次矩阵为:
三组矩阵数据中,AOI1,3与AOI3,1的转移频次最高,说明三个不同年龄层用户在图片与纹样选择匹配中进行了相对较多的信息处理与加工,在整个定制过程中是最为重要的一部分。AOIn到其他AOI的转移频次中,青年的转移频次低于中老年的转移频次,说明在定制过程中老年更容易受到AOIn区域信息的干扰,青年受到任务序列影响程度更高。
李克特量表分析:
对用户主观问卷进行统计,计算出三个年龄层用户在各感兴趣区域以及整体定制的均值,统计哪一个区域最能帮助用户完成对蜡染图案个性化定制,结果如表5所示。
表5Likert量表得分均值
Table 5Likert scale scores mean
三个年龄层用户排在前两位的区域相同,依次为AOI1、AOI3、AOI4。用户普遍认为图片、纹样与背景颜色对个性化定制最为关键。三个年龄层用户打分均值分别为0.51、0.41、0.29,说明相对于青年用户,中老年用户认为任务序列对任务完成过程的帮助较小。换言之,青年用户在定制过程中更容易受到任务序列的引导。
总之,本发明基于指定任务序列下,通过视觉认知过程选取眼动指标,进而构建跨年龄层视觉认知差异比较的一般模型。使用EyeSo Ec60遥测式眼动跟踪设备获取眼动指标。通过眼动实验数据的获取与分析,发觉不同年龄层用户之间的视觉认知差异明显,界面设计与开发应考虑不同年龄层用户视觉认知习惯,为界面设计与开发提供参考和借鉴,优化界面交互体验,提升人机交互理念。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,任何未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (4)

1.一种基于界面任务的视觉认知差异研究方法,包括以下步骤:
选取界面并进行区域划分处理,设定眼动行为数据指标,建立有效指标差异测试模型,并将界面区域划分元素与用户行为指定任务序列一一对应;
根据用户群体特征,将用户年龄区间进行合理的年龄断层划分,将处理后的界面呈现给不同的被试年龄组,利用李克特量表(Likert)记录不同被试年龄组的被试者对测试材料的评价;使用眼动跟踪设备记录不同被试年龄组的被试者的眼动行为数据,最后基于有效指标差异测试模型对不同被试年龄组的被试者的眼动和心理主观打分汇总,并进行数据处理与分析,得出跨年龄层用户视觉认知模式上的差异。
2.如权利要求1所述的基于界面任务的视觉认知差异研究方法,其特征在于:所述步骤(1)中的眼动行为数据指标设定为:注视时间(),即注视点的持续时间;注视数目(),即注视点数量;视觉捕获(),指在最初时间内获得的注视对象,描述最吸引用户注意的目标;感兴趣区域()即在同一注视对象中,注视点分布数量密集区域,用户关注度与感兴趣区域。
3.如权利要求2所述的基于界面任务的视觉认知差异研究方法,其特征在于:所述眼动行为数据指标设定为:注视时间(),设定,数据有效;视觉捕获(),指在最初以内获得的注视对象,描述最吸引用户注意的目标。
4.如权利要求1至3中任一项所述的基于界面任务的视觉认知差异研究方法,其特征在于:所述有效指标差异测试模型,其形式化表征为六元组:;其中,定义为,U表示用户群体集合,表示个体用户,表示筛选分类条件,如用户年龄、喜好、教育背景;表示用户行为指定任务序列;表示在中的注视数目;表示在中的平均注视时间,中总注视时间为为包含视觉捕获对象的感兴趣区,为该集合的注视转移矩阵。
CN201810876821.XA 2018-08-03 2018-08-03 基于界面任务的视觉认知差异研究方法 Pending CN109145782A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810876821.XA CN109145782A (zh) 2018-08-03 2018-08-03 基于界面任务的视觉认知差异研究方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810876821.XA CN109145782A (zh) 2018-08-03 2018-08-03 基于界面任务的视觉认知差异研究方法

Publications (1)

Publication Number Publication Date
CN109145782A true CN109145782A (zh) 2019-01-04

Family

ID=64791507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810876821.XA Pending CN109145782A (zh) 2018-08-03 2018-08-03 基于界面任务的视觉认知差异研究方法

Country Status (1)

Country Link
CN (1) CN109145782A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109684725A (zh) * 2018-12-25 2019-04-26 贵州大学 一种基于视觉认知理论的产品形态优化设计方法
CN109976530A (zh) * 2019-04-08 2019-07-05 贵州大学 一种vr系统认知负荷量化评估方法
CN110059232A (zh) * 2019-03-15 2019-07-26 杭州电子科技大学 一种基于用户体验度量的数据可视化方法
CN111813470A (zh) * 2020-06-12 2020-10-23 北京邮电大学 一种初始交互界面优化方法及装置
CN112183386A (zh) * 2020-09-30 2021-01-05 中国汽车工程研究院股份有限公司 一种关于注视时间的智能座舱测试评价方法
CN113378975A (zh) * 2021-06-30 2021-09-10 哈尔滨理工大学 一种电工作业人员风险感知能力差异性评估方法
CN113655882A (zh) * 2021-08-17 2021-11-16 中国人民解放军军事科学院战争研究院 一种基于眼动数据测量的人机界面信息筛选方法
CN115712363A (zh) * 2022-11-21 2023-02-24 北京中科睿医信息科技有限公司 界面色彩显示方法、装置、设备及介质
CN116893953A (zh) * 2023-09-11 2023-10-17 深圳联友科技有限公司 一种基于眼动追踪的界面可用性评估方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101779960A (zh) * 2010-02-24 2010-07-21 沃建中 刺激信息认知能力值测试系统及其方法
US20160012747A1 (en) * 2014-07-11 2016-01-14 Neurobai, S.L. System and Method for Cognitive and Sensory Stimulation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101779960A (zh) * 2010-02-24 2010-07-21 沃建中 刺激信息认知能力值测试系统及其方法
US20160012747A1 (en) * 2014-07-11 2016-01-14 Neurobai, S.L. System and Method for Cognitive and Sensory Stimulation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
吴志平等: "成年人视觉搜索反应时的年龄差异", 《第八届全国心理学学术会议文摘选集》 *
汪颖等: "基于眼动数据的ATM机界面可用性测试", 《人类工效学》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109684725A (zh) * 2018-12-25 2019-04-26 贵州大学 一种基于视觉认知理论的产品形态优化设计方法
CN110059232B (zh) * 2019-03-15 2021-05-07 杭州电子科技大学 一种基于用户体验度量的数据可视化方法
CN110059232A (zh) * 2019-03-15 2019-07-26 杭州电子科技大学 一种基于用户体验度量的数据可视化方法
CN109976530A (zh) * 2019-04-08 2019-07-05 贵州大学 一种vr系统认知负荷量化评估方法
CN111813470A (zh) * 2020-06-12 2020-10-23 北京邮电大学 一种初始交互界面优化方法及装置
CN111813470B (zh) * 2020-06-12 2021-03-23 北京邮电大学 一种初始交互界面优化方法及装置
CN112183386A (zh) * 2020-09-30 2021-01-05 中国汽车工程研究院股份有限公司 一种关于注视时间的智能座舱测试评价方法
CN112183386B (zh) * 2020-09-30 2024-03-01 中国汽车工程研究院股份有限公司 一种关于注视时间的智能座舱测试评价方法
CN113378975A (zh) * 2021-06-30 2021-09-10 哈尔滨理工大学 一种电工作业人员风险感知能力差异性评估方法
CN113655882A (zh) * 2021-08-17 2021-11-16 中国人民解放军军事科学院战争研究院 一种基于眼动数据测量的人机界面信息筛选方法
CN115712363A (zh) * 2022-11-21 2023-02-24 北京中科睿医信息科技有限公司 界面色彩显示方法、装置、设备及介质
CN116893953A (zh) * 2023-09-11 2023-10-17 深圳联友科技有限公司 一种基于眼动追踪的界面可用性评估方法和系统
CN116893953B (zh) * 2023-09-11 2024-04-30 深圳联友科技有限公司 一种基于眼动追踪的界面可用性评估方法和系统

Similar Documents

Publication Publication Date Title
CN109145782A (zh) 基于界面任务的视觉认知差异研究方法
US11602293B2 (en) Identifying and strengthening physiological/neurophysiological states predictive of superior performance
Cacioppo et al. Implicit attention to negative social, in contrast to nonsocial, words in the Stroop task differs between individuals high and low in loneliness: Evidence from event-related brain microstates
Spunt et al. Validating the why/how contrast for functional MRI studies of theory of mind
Baig et al. A survey on psycho-physiological analysis & measurement methods in multimodal systems
Alonso Dos Santos et al. Assessing the effectiveness of sponsorship messaging: Measuring the impact of congruence through electroencephalogram
Bracci et al. Dissociable neural responses to hands and non-hand body parts in human left extrastriate visual cortex
Oberman et al. EEG evidence for mirror neuron activity during the observation of human and robot actions: Toward an analysis of the human qualities of interactive robots
Cacioppo et al. You are in sync with me: neural correlates of interpersonal synchrony with a partner
Reed et al. The body-inversion effect
Chavis et al. Adult attachment and motivated attention to social images: Attachment-based differences in event-related brain potentials to emotional images
Porcelli et al. Mirroring activity in the brain and movement determinant in the Rorschach test
Hervé et al. Disentangling the brain networks supporting affective speech comprehension
Zhao et al. Cognitive neuroscience in information systems research
Ding et al. The emotional design of product color: An eye movement and event‐related potentials study
Kemmerer et al. Searching for the elusive neural substrates of body part terms: A neuropsychological study
Rad et al. Cognitive and perceptual influences of architectural and urban environments with an emphasis on the experimental procedures and techniques
Hu et al. Design meets neuroscience: A preliminary review of design research using neuroscience tools
Glova et al. Application of deep learning in neuromarketing studies of the effects of unconscious reactions on consumer behavior
Bashir et al. Electroencephalogram (EEG) Signals for Modern Educational Research
Roemer et al. Eye tracking as a research method for social media
Wang et al. The emotional recognition and sharing-space applying in university library based on the analysis of tongue image
Konkle The role of real-world size in object representation
Garzotto et al. Exploiting the integration of wearable virtual reality and bio-sensors for persons with neurodevelopmental disorders
Ortuño et al. Neurometrics applied to banknote and security features design

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190104

RJ01 Rejection of invention patent application after publication