CN104392144A - 一种视觉信息界面出错因子的生理实验分析方法 - Google Patents
一种视觉信息界面出错因子的生理实验分析方法 Download PDFInfo
- Publication number
- CN104392144A CN104392144A CN201410749392.1A CN201410749392A CN104392144A CN 104392144 A CN104392144 A CN 104392144A CN 201410749392 A CN201410749392 A CN 201410749392A CN 104392144 A CN104392144 A CN 104392144A
- Authority
- CN
- China
- Prior art keywords
- factor
- experiment
- search
- mistakes
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Eye Examination Apparatus (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了发明涉及一种视觉信息界面出错因子的生理实验分析方法,为视觉信息界面提供了一种由出错因子到信息特征反应链的分析模式。该方法提取视觉信息界面中的出错因子,按照视觉搜索实验范式,以出错因子为变量进行组内或组间实验设计,通过眼动跟踪设备和E-prime编程导入,获得眼动和行为的数据分析,根据实验结论建立出错因子与界面信息的相关性,从而指导视觉信息界面的优化设计。该方法可为信息交互界面设计提供会出错因子到信息特征关联的分析方法,为信息界面的设计改良提供依据。
Description
技术领域
本发明涉及一种出错因子的生理反应分析方法,特别涉及一种视觉信息界面中出错因子的生理实验分析方法。
背景技术
在工程技术领域,国内学者以“人因失误”、“人为差错”等表述国际通用词汇Human Error,该表述包含了人、组织行为、管理多方面系统中的失误类别,对于视觉信息界面设计领域,操作者视觉认知过程产生的失误,可界定为出错因子(Error factors)。目前,在视觉信息界面领域还鲜有人从出错因子角度展开研究。出错因子多集中在执行监控、搜索等任务的视觉信息呈现中,运用生理实验方法分析出错因子,建立出错因子与信息特征的联系是改善视觉信息界面设计的关键之匙。因此,本发明将提出一种视觉信息界面出错因子的生理实验分析方法。该方法通过眼动跟踪技术,提取视觉信息界面中的出错因子,以出错因子为变量设计实验,开展视觉搜索的生理实验,根据实验结果建立出错因子与界面信息的相关性,从而指导视觉信息界面的优化设计。
发明内容
本发明的目的在于提供一种视觉信息界面出错因子的生理实验分析方法,可分析信息系统交互界面的出错问题,为设计改良提供一种可靠的分析方法。基于出错-认知分层模型中对应每种出类型的相关理论和实验范式,建立基于生理反应的出错因子分析方法。主要研究内容包括:首先提取出错因子,然后选择视觉搜索模型中对应的实验范式,将出错因子作为自变量、信息界面的信息特征作为因变量进行实验设计。运用眼动跟踪技术,开展生理反应的视觉认知实验,运用方差分析方法对反应时间指标和错误率指标、以及眼动数据中的注视轨迹、注视时间、扫视时间、扫视路径长度、凝视/扫视比等指标进行统计分析,获得根据实验结果建立出错因子与界面信息的相关性,并直接和任务-界面布局、信息间距-位置、信息特征-容量等因素建立联系。
一种视觉信息界面出错因子的生理实验分析方法,包括如下步骤:
(1)、在视觉信息界面中提取相应的出错因子;
(2)、在视觉搜索模型中选择对应的心理学实验范式;
(3)、以出错因子为变量进行生理反应实验设计;
(4)、根据视觉生理特性分析眼动数据;
(5)、根据眼动数据分析结果建立出错因子-信息特征反应链。
上述步骤(1)中的出错因子提取,需要从视觉信息界面中提取。可采用出错汇集再分类的方法记录出错,并提取最关注的出错因子以作为分析元素。在操作员视觉信息搜索过程中,从认读、辨识及选择判断信息过程中高频率地出现人因出错,例如遗漏、误读、误判、错误理解、忽略、错过、没看到、混淆、延迟等等,这些因子可提取作为实验变量。
上述步骤(2)中的针对一种出错因子,需要选择相对应的视觉搜索模型中的心理学实验范式。以Drury提出的视觉搜索模型为标准,目标搜索和预测定位目标的概率随着搜索时间的增长而增加。然而,这种增加的速度会逐渐减小,原因是一般目标没有被搜索到前,需要的凝视不止一次;即使有充足的时间,搜索策略通常也不是用“有用的视觉域”(UFOV)去覆盖整个搜索区域。并包括大量学者研究的结论作为视觉搜索模型的参考依据,实验范式的选取主要参考如下方面:
(3-1)、被搜索项目数与搜索时间
被搜索项目数对搜索时间有显著影响。搜索项目数越多,搜索时间越长。
(3-2)、序列搜索和平行搜索
如果目标是被某个显著维度的某个水平确定时,就会出现序列搜索的不同情况。在搜索中,目标好像是突然显现,即当目标能用一个简单规则定义时,平行搜索就发生了。目标是被一个维度(颜色)的一个简单水平(黑色)定义的。与绩效相关的眼动数据表明,平行搜索比序列搜索有较大的有效性(较少扫视)。
(3-3)、搜索时间与干扰项
当目标项与干扰项难以区分时,操作者更可能采用序列搜索。如果目标项和干扰项的亮度和颜色差异较小时,搜索时间会随干扰项的数目增加而增长,但是当这种差异较大时,搜索时间则不会增长。
(3-4)、搜索目标项的反应时间
随着搜索目标项距离增加而增加的扫描只使搜索时间略微有些增加;搜索几种不同目标中的任意一种通常要比只搜索一种目标要慢;目标搜索的深入的联系有时可以使操作进入自动化水平,这时搜索是平行搜索,搜索时间不受目标数量的影响。
上述步骤(3)中按照视觉搜索模型的标准,以出错因子为自变量,基于眼动跟踪设计生理反应心理学实验。实验包含自变量与因变量,自变量的不同水平会引起因变量数值的变化。心理学实验设计包括被试间、被试内以及单被试的设计。在出错因子的视觉人知实验中,为了探测不同因素、不同水平的行为差异和生理差异,主要采用被试内设计的方法,亦会用到被试间与被试内的组合设计方法。出错因子的眼动跟踪生理实验设计如下:
(4-1)、设定自变量与因变量。设定视觉搜索目标为自变量,并给定相关的视觉信息界面为实验材料,以目标物、其他干扰刺激物等作为变量,设计n×n×n或n×n的组内、组间实验,并确定每组呈现的刺激数量及总试次。
(4-2)、设定实验程序。实验程序采用心理实验专用开发软件E-Prime进行编写,实验应在专业人因交互实验室进行,实验设备采用tobii1X120眼动仪(亦可同精度的其它眼动仪),采样频率120HZ,凝视定位精度为0.5度;一台计算机,显示像素为1920×1280(px),颜色质量32位,双眼采集方式,头部运动范围为30×16×20cm。该系统视线凝视位置数据延迟低至3毫秒,具有理想的凝视-瞬时显示应用。系统每隔20毫秒对受试者的眼球位置进行取样,用来探测并搜集受试者的眼球移动的数据。采用头动补偿算法,被试在实验中可自由移动头部,数据不受影响。这样,实验可以在完全轻松自然的状态下完成,数据采集的可靠性很高。
被试首先要求阅读监控任务界面的图片和文字材料,由专人介绍材料背景,使被试熟悉实验材料。并设定刺激材料的间隔时间以及相关辅助任务(例如问卷、访谈等形式)。
(4-3)、设定被试。被试要求10名左右,其眼动采集率均达到60%以上为有效被试,视力或矫正视力正常,无色盲或色弱。实验之前,录入被试的相关信息,包括性别、年龄、专业及视力。
上述步骤(4)中实验按照设计程序进行后,将得出相关的数据,E-Prime编写的程序将输出所有被试的反应时与出错率,而眼动跟踪实验将输出所有被试的注视轨迹、热点图、集簇图、注视时间、注视次数、凝视/扫视比等数据。在实验结果的统计基础上,将应用SPSS对相关系数、回归系数等统计量的差异检验,分析各种因子及误差,发现对实验数据的变异有影响的因子以及各因子的主效应或因子间的交互作用。通过多元回归、因素分析、主成分分析、聚类分析、判别分析等多元统计方法对数据进行分析。
出错因子的眼动跟踪生理实验数据分析指标如下:
(5-1)、反应时和出错率
主要考察出错因子会阻碍视觉搜索过程的若干特征项,运用反应时与出错率的数据分析,主要关注出错数据的关联因素。因此该实验对于被试的心理努力程度会逐渐加大,考察反应时、不同时间压力下的出错率将作为重要指标。对反应时和出错率进行方差分析,查看变量之间是否达到显著性水平;进行最小显著差异法的验后多重比较检验,查看不同变量对视觉搜索的影响。在过去的反应时实验中,正确率是主要的参考数据,但是很少有实验对其错误率进行分类统计,寻找错误率在不同考察项中的值是否有所变化,探讨敏感值与干扰项 的关系,这是寻找出错-认知内在关联性的关键所在。
(5-2)、凝视与扫视
根据眼动跟踪数据的输出,分析被试每次搜索目标所需要的浏览路径、搜索面积、凝视范围(视角大小)、扫描次数、凝视次数、凝视持续时间、凝视/扫视比。
上述步骤(5)中根据眼动数据结果与分析结论,可以建立出错因子-信息特征反应链。通过眼动跟踪的生理反应心理学实验分析方法,获得出错因子与界面信息的相关性,在视觉搜索过程中产生的出错因子直接和任务-界面布局、信息间距-位置、信息特征-容量等因素有直接联系。从而为信息界面优化提供需要改进的信息特征。
本发明所达到的有益效果:
1)通过眼动跟踪实验,有效地提出了分析视觉信息界面出错因子的科学实验方法。本发明中将出错因子作为实验考察的主要内容,使研究人员可以直接找到产生人为差错的本源性问题。
2)以视觉信息界面为实验样本,能够在实验中析出信息界面中的信息特征与出错因子的关联性,应用眼动跟踪技术的注视轨迹、注视时间和次数、扫视时间和次数,以及凝视扫视比等数据可以清晰地分析信息特征与出错因子的相关程度。本方法操作执行简单快捷,,节约了信息交互界面改良设计的周期。
4)本发明的出错因子生理实验分析方法适用于各种视觉信息界面,按照实验设计的程序,可采用眼动跟踪设备直接分析出错因子与信息特征的相关性,设计人员可根据出错因子-信息特征反应链直接进行设计,方便快捷。
附图说明
图1是本发明的一种视觉信息界面出错因子的生理实验分析方法示意图。
图2是本发明的眼动跟踪数据分析示意图。
图3是本发明的出错因子-信息特征反应链示意图。
图4是本发明的实施例中眼动跟踪轨迹示意图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
如图1所示,一种视觉信息界面出错因子的生理实验分析方法,包括如下步骤:
(1)、在视觉信息界面中提取相应的出错因子;
(2)、在视觉搜索模型中选择对应的心理学实验范式;
(3)、以出错因子为变量进行生理反应实验设计;
(4)、根据视觉生理特性分析眼动数据;
(5)、根据眼动数据分析结果建立出错因子-信息特征反应链。
上述步骤(1)中的出错因子提取,需要从视觉信息界面中提取。可采用出错汇集再分类的方法记录出错,并提取最关注的出错因子以作为分析元素。在操作员视觉信息搜索过程中,从认读、辨识及选择判断信息过程中高频率地出现人因出错,例如遗漏、误读、误判、错误理解、忽略、错过、没看到、混淆、延迟等等,这些因子可提取作为实验变量。
上述步骤(2)中的针对一种出错因子,需要选择相对应的视觉搜索模型中的心理学实验范式。以Drury提出的视觉搜索模型为标准,目标搜索和预测定位目标的概率随着搜索时间的增长而增加。然而,这种增加的速度会逐渐减小,原因是一般目标没有被搜索到前,需要的凝视不止一次;即使有充足的时间,搜索策略通常也不是用“有用的视觉域”去覆盖整个搜索区域。并包括大量学者研究的结论作为视觉搜索模型的参考依据,实验范式的选取主要参考如下方面:
(3-1)、被搜索项目数与搜索时间
被搜索项目数对搜索时间有显著影响。搜索项目数越多,搜索时间越长。
(3-2)、序列搜索和平行搜索
如果目标是被某个显著维度的某个水平确定时,就会出现序列搜索的不同情况。在搜索中,目标好像是突然显现,即当目标能用一个简单规则定义时,平行搜索就发生了。目标是被一个维度(颜色)的一个简单水平(黑色)定义的。眼动数据表明,平行搜索比序列搜索有较大的有效性(较少扫视)。
(3-3)、搜索时间与干扰项
当目标项与干扰项难以区分时,操作者更可能采用序列搜索。如果目标项和干扰项的亮度和颜色差异较小时,搜索时间会随干扰项的数目增加而增长,但是当这种差异较大时,搜索时间则不会增长。
(3-3)、搜索目标项的反应时间
随着搜索目标项距离增加而增加的扫描只使搜索时间略微有些增加;搜索几种不同目标中的任意一种通常要比只搜索一种目标要慢;目标搜索的深入的联系有时可以使操作进入自动化水平,这时搜索是平行搜索,搜索时间不受目标数量的影响。
上述步骤(3)中按照视觉搜索模型的标准,以出错因子为自变量,基于眼动跟踪设计生理反应心理学实验。实验包含自变量与因变量,自变量的不同水平会引起因变量数值的变 化。心理学实验设计包括被试间、被试内以及单被试的设计。在出错因子的视觉人知实验中,为了探测不同因素、不同水平的行为差异和生理差异,主要采用被试内设计的方法,亦会用到被试间与被试内的组合设计方法。出错因子的眼动跟踪生理实验设计,具体步骤如下:
(4-1)、设定自变量与因变量。设定视觉搜索目标为自变量,并给定相关的视觉信息界面为实验材料,以目标物、其他干扰刺激物等作为变量,设计n×n×n或n×n的组内、组间实验,并确定每组呈现的刺激数量及总试次。
(4-2)、设定实验程序。实验程序采用心理实验专用开发软件E-Prime进行编写,实验应在专业人因交互实验室进行,实验设备采用瑞士tobii1X120眼动仪(亦可同精度的其它眼动仪),采样频率120HZ,凝视定位精度为0.5度;一台计算机,显示像素为1920×1280(px),颜色质量32位,双眼采集方式,头部运动范围为30×16×20cm。该系统视线凝视位置数据延迟低至3毫秒,具有理想的凝视-瞬时显示应用。系统每隔20毫秒对受试者的眼球位置进行取样,用来探测并搜集受试者的眼球移动的数据。采用头动补偿算法,被试在实验中可自由移动头部,数据不受影响。这样,实验可以在完全轻松自然的状态下完成,数据采集的可靠性很高。
被试首先要求阅读视觉信息界面的图片和文字材料,由专人介绍材料背景,使被试熟悉实验材料。并设定刺激材料的间隔时间以及相关辅助任务(例如问卷、访谈等形式)。
(4-3)、设定被试。被试要求10名左右,其眼动采集率均达到60%以上为有效被试,视力或矫正视力正常,无色盲或色弱。实验之前,录入被试的相关信息,包括性别、年龄、专业及视力。
上述步骤(4)中实验按照设计程序进行后,将得出相关的数据,E-Prime编写的程序将输出所有被试的反应时与出错率,而眼动跟踪实验将输出所有被试的注视轨迹、热点图、集簇图、注视时间、注视次数、凝视/扫视比等数据。在实验结果的统计基础上,将应用SPSS对相关系数、回归系数等统计量的差异检验,分析各种因子及误差,发现对实验数据的变异有影响的因子以及各因子的主效应或因子间的交互作用。通过多元回归、因素分析、主成分分析、聚类分析、判别分析等多元统计方法对数据进行分析。
出错因子的眼动跟踪生理实验数据分析如图2所示,具体考察指标如下:
(5-1)、反应时和出错率
主要考察出错因子会阻碍视觉搜索过程的若干特征项,运用反应时与出错率的数据分析,主要关注出错数据的关联因素。因此该实验对于被试的心理努力程度会逐渐加大,考察反应时、不同时间压力下的出错率将作为重要指标。对反应时和出错率进行方差分析,查看 变量之间是否达到显著性水平;进行最小显著差异法的验后多重比较检验,查看不同变量对视觉搜索的影响。在过去的反应时实验中,正确率是主要的参考数据,但是很少有实验对其错误率进行分类统计,寻找错误率在不同考察项中的值是否有所变化,探讨敏感值与干扰项的关系,这是寻找出错-认知内在关联性的关键所在。
(5-2)、凝视与扫视
根据眼动跟踪数据的输出,分析被试每次搜索目标所需要的浏览路径、搜索面积、凝视范围(视角大小)、扫描次数、凝视次数、凝视持续时间、凝视/扫视比,具体见表1所示。
表1凝视与扫视的相关参数
上述步骤(5)中根据眼动数据结果与分析结论,可以建立出错因子-信息特征反应链。通过眼动跟踪的生理反应心理学实验分析方法,获得出错因子与界面信息的相关性,在视觉搜索过程中产生的出错因子直接和任务-界面布局、信息间距-位置、信息特征-容量等因素有直接联系,如图3所示。从而为信息界面优化提供需要改进的信息特征。
实施例
为了验证一种视觉信息界面出错因子的生理反应实验分析方法的合理性,将某种视觉信息界面的出错因子生理反应实验作为例证进行应用。提取了典型的出错因子——遗漏、错过为实验对象。下面将针对这些出错因子,按照视觉信息界面出错因子的生理反应实验分析方法进行实验,并分析结果。
首先提取视觉信息界面中的出错因子,容易导致信息忽略、错过问题在于操作员任务执行中被干扰或转移了注意力从而中断。
然后以视觉信息界面作为实验材料,设定干扰环境和信息物特征为双因素的视觉搜索任务,分析不同干扰程度和不同特征对视觉搜索的影响。本实验将采用3×2×4的组内设计,三个因素分别是刺激项特征(1、2、3种类型)、干扰程度(低干扰环境、高干扰环境)、刺激项数量(2、4、6、8种)。按照干扰程度将实验分为两组进行,干扰程度将在实验中交替出现,各占50%。一个因素进行2个试次,每组3×4×2个试次,共计48个试次。
最后实验结果分析如下:
(1)总的反应时与出错率
对反应时进行3×2×4重复方差分析,结果表明特征项和数量均有显著的主效应,而且存在复杂的多因素交互作用。对出错率进行3×2×4重复方差分析,结果表明只有特征项的主效应显著,特征因素和数量因素之间存在显著的交互作用,三个自变量之间也存在显著的交互作用(如表2所示)。
表2各自变量在反应时和出错率上的主效应及其交互作用
注:*p<0.05,**p<0.01,***p<0.001
按照低干扰与高干扰环境下,测试三种不同特征项以不同数量呈现时被试反应时和出 错率。对反应时的方差分析表明,低干扰环境下的特征项主效应(F=24.781,P=0.001,p<0.05)和高干扰环境下的特征项主效应(F=10.184,P=0.012,p<0.05)达到显著性水平;对出错率的方差分析表明,低干扰环境下的特征项主效应(F=5.297,P=0.047,p<0.05)达到显著性水平,高干扰环境下的特征项主效应(F=1.613,P=0.275)不显著。
(2)干扰环境对不同特征项搜索的影响
对特征因素和数量因素进行最小显著差异法的验后多重比较检验,结果见表3所示。低干扰和高干扰环境下的反应时在呈现特征3与特征1均与特征2之间有显著性差异,即不规则形状-混合色特征项与规则形状-单色特征项、不规则形状-单色特征项相比,形状和颜色都相对复杂的信息物搜索难度大,反应时长。因此,雷达态势界面中的。低干扰环境下的出错率在呈现特征3与特征1之间有显著性差异,而高干扰环境下的出错率并无出现显著差异,这也说明高干扰环境下,出错率与出错因子之间还存在关联性,这有待深入探讨。
表3最小差异法的验后多重比较检验
(注:“*”表示达到显著性水平,平均误差在0.05级别上显著)
(3)不同干扰环境中热点图与轨迹图比较
从图4可以看出,图片提取了眼动实验的同一特征项(不规则形状-单色)的低干扰与高干扰两种环境下的热点图和凝视-扫视轨迹图。由于受到不同干扰程度的影响,10个被试叠加后的眼动轨迹明显不同中,低干扰环境下的扫视平均次数为4.1次,而高干扰环境下的扫视平均次数为8.2次。可见,高干扰环境中的不同干扰物严重影响了被试搜索目标的反应时长。同样可以看到,热点图表现出低干扰注意力集中,而高干扰环境,注意力较分散,甚至有的被试将注意力转移到左下角的数据信息显示、中部的主机图标、右侧的里程显示等,从而分散了快速搜索目标的注意力。
(4)不同特征项对注视时间的影响
以特征项为分析对象,提取高干扰环境中三种不同特征项的眼动轨迹图,并以目标物区域、干扰物区域划分了4个AOI(Area of interest),其中,AOI 1是特征项的所在位置,眼动数据记录了第一注视时间、注视持续时间和注视点数,表4中数据均表明了特征项1、2和3呈递增趋势,与行为数据中反应时趋势相同,特征项1注视时间最短,并集中在AOI 1区域;特征项2、特征项3的注视点在AOI2、AOI 3、AOI 4有所分散,说明该区域的干扰特征影响了不规则形状-单色和不规则形状-混合色的搜索任务,这也表明规则形状-单色的搜索任务快,不容易受到环境干扰。
表4按不同AOI划分的注视时间(ms)和注视点数
本实验得到以下结论:
(1)干扰环境和信息物特征是雷达态势界面中影响信息物识别的主要两个因素,这是 复杂态势界面中信息布局时需要考虑的设计因子。
(2)低、高干扰环境下信息识别有显著性差别。视觉信息界面中呈现的各种信息形成了高干扰环境,飞行员只有强制不被干扰,才能准确进行信息识别。
(3)在视觉信息界面中,不同的信息物构成三种不同种类的特征项,其反应时与出错率呈现明显规律性变化。规则形状-单色、不规则形状-单色、及不规则形状-混合色三种特征项反应时呈现递增趋势,说明不规则形状-混合色认知困难,反应时长。
(4)眼动数据也表明,高干扰环境明显比低干扰环境下注视时间长,眼跳次数多,扫视路径也较长;特征项搜索的第一次眼跳时间、总注视时间及眼跳次数也与反应时相同,呈现递增趋势;特征项的颜色和形状对目标物的判断有很大影响。
因此,信息特征和干扰因子对目标搜索的视觉认知过程产生较大影响,也能够反应信息呈现中的“信息特征-信息容量-视觉轨迹”反应链和出错因子的相关性。例如低、高干扰环境下反应时和出错率的显著差异性,是产生出错的关键因素;不同信息特征的行为数据和眼动数据均表明了信息特征的设计合理性与遗漏、错过等出错因子有直接关系。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (6)
1. 一种视觉信息界面出错因子的生理实验分析方法,其特征包括如下步骤:
(1)、在视觉信息界面中提取相应的出错因子;
(2)、在视觉搜索模型中选择对应的心理学实验范式;
(3)、以出错因子为变量进行生理反应实验设计;
(4)、根据视觉生理特性分析眼动数据;
(5)、根据眼动数据分析结果建立出错因子-信息特征反应链。
2. 根据权利要求1所述的一种视觉信息界面出错因子的生理实验分析方法,其特征是,所述步骤(1)中的出错因子提取采用出错汇集再分类的方法记录出错,提取最关注的出错因子以作为分析元素。
3. 根据权利要求1所述的一种视觉信息界面出错因子的生理反应实验分析方法,其特征是,所述步骤(2)中心理学实验范式的选取参考如下方面:
(3-1)、被搜索项目数与搜索时间;
(3-2)、序列搜索和平行搜索;
(3-3)、搜索时间与干扰项;
(3-4)、搜索目标项的反应时间。
4. 根据权利要求1所述的一种视觉信息界面出错因子的生理实验分析方法,其特征是,所述步骤(3)中的出错因子生理反应实验设计,包括如下步骤:
(4-1)、设定自变量与因变量
设定视觉搜索目标为自变量,并给定相关的视觉信息界面为实验材料,以目标物、其他干扰刺激物等作为变量,设计n×n×n或n×n的组内、组间实验,并确定每组呈现的刺激数量及总试次;
(4-2)、设定实验程序
实验程序采用心理实验专用开发软件E-Prime进行编写, 实验应在专业人因交互实验室进行,并配备专业的眼动采集设备,被试首先要求阅读监控任务界面的图片和文字材料,由专人介绍材料背景,使被试熟悉实验材料;
(4-3)、设定被试
被试者的眼动采集率均达到60%以上为有效被试,视力或矫正视力正常,无色盲或色弱。
5. 根据权利要求1所述的一种视觉信息界面出错因子的生理实验分析方法,其特征是,所述步骤(4)中的眼动数据的分析指标如下:
(5-1)、反应时和出错率
考察出错因子会阻碍视觉搜索过程的若干特征项,运用反应时与出错率的数据分析,关注出错数据的关联因素;对反应时和出错率进行方差分析,查看变量之间是否达到显著性水平;进行最小显著差异法的验后多重比较检验,查看不同变量对视觉搜索的影响;
(5-2)、凝视与扫视
根据眼动跟踪数据的输出,分析被试每次搜索目标所需要的浏览路径、搜索面积、凝视范围、扫描次数、凝视次数、凝视持续时间、凝视/扫视比。
6. 根据权利要求1所述的一种视觉信息界面出错因子的生理实验分析方法,其特征是,所述步骤(5)中的根据眼动数据结果与分析结论,可以建立出错因子-信息特征反应链,通过眼动跟踪的生理反应心理学实验分析方法,获得出错因子与界面信息的相关性,在视觉搜索过程中产生的出错因子直接和任务-界面布局、信息间距-位置、信息特征-容量等因素有直接联系,从而为信息界面优化提供需要改进的信息特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410749392.1A CN104392144A (zh) | 2014-12-09 | 2014-12-09 | 一种视觉信息界面出错因子的生理实验分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410749392.1A CN104392144A (zh) | 2014-12-09 | 2014-12-09 | 一种视觉信息界面出错因子的生理实验分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104392144A true CN104392144A (zh) | 2015-03-04 |
Family
ID=52610046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410749392.1A Pending CN104392144A (zh) | 2014-12-09 | 2014-12-09 | 一种视觉信息界面出错因子的生理实验分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104392144A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105078480A (zh) * | 2015-05-18 | 2015-11-25 | 中国民航大学 | 一种空中交通管制员注意力动态分配的测量方法 |
CN107957980A (zh) * | 2017-11-29 | 2018-04-24 | 河海大学常州校区 | 一种出错-认知与设计间的关联效应分析方法 |
CN109697558A (zh) * | 2018-12-18 | 2019-04-30 | 北京航空航天大学 | 一种考虑路径依赖的人误机理建模方法 |
CN109917759A (zh) * | 2019-03-07 | 2019-06-21 | 河海大学常州校区 | 一种智能控制产线系统信息呈现格式和功能布局方法 |
CN112447296A (zh) * | 2020-12-15 | 2021-03-05 | 北京津发科技股份有限公司 | 人体效能评估与心理学实验创建方法、实验方法及系统 |
CN117632330A (zh) * | 2023-10-12 | 2024-03-01 | 浙江大学 | 一种虚拟环境下眼控界面的交互目标布局方法和系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104462683A (zh) * | 2014-12-02 | 2015-03-25 | 河海大学常州校区 | 由出错-认知到信息特征映射的信息交互界面优化方法 |
-
2014
- 2014-12-09 CN CN201410749392.1A patent/CN104392144A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104462683A (zh) * | 2014-12-02 | 2015-03-25 | 河海大学常州校区 | 由出错-认知到信息特征映射的信息交互界面优化方法 |
Non-Patent Citations (5)
Title |
---|
WU XIAOLI等: ""An experimental method study of user error classification in human-computer interface"", 《JOURNAL OF SOFTWARE》 * |
XIAOLI WU等: ""Misperception Model-Based Analytic Method of Visual Interface Design Factors"", 《ENGINEERING PSYCHOLOGY AND COGNITIVE ERGONOMICS》 * |
XIAOLI WU等: ""Study on Eye Movements of Information Omission/Misjudgment in Radar Situation-Interface"", 《ENGINEERING PSYCHOLOGY AND COGNITIVE ERGONOMICS》 * |
吴晓莉等: ""复杂系统人机交互界面的E_C映射模型"", 《机械工程学报》 * |
吴晓莉等: ""雷达态势界面中目标搜索的视觉局限实验研究"", 《东南大学学报(自然科学版)》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105078480A (zh) * | 2015-05-18 | 2015-11-25 | 中国民航大学 | 一种空中交通管制员注意力动态分配的测量方法 |
CN107957980A (zh) * | 2017-11-29 | 2018-04-24 | 河海大学常州校区 | 一种出错-认知与设计间的关联效应分析方法 |
CN109697558A (zh) * | 2018-12-18 | 2019-04-30 | 北京航空航天大学 | 一种考虑路径依赖的人误机理建模方法 |
CN109917759A (zh) * | 2019-03-07 | 2019-06-21 | 河海大学常州校区 | 一种智能控制产线系统信息呈现格式和功能布局方法 |
CN112447296A (zh) * | 2020-12-15 | 2021-03-05 | 北京津发科技股份有限公司 | 人体效能评估与心理学实验创建方法、实验方法及系统 |
CN112447296B (zh) * | 2020-12-15 | 2023-01-06 | 北京津发科技股份有限公司 | 人因效能评估与心理行为实验创建方法、实验方法及系统 |
CN117632330A (zh) * | 2023-10-12 | 2024-03-01 | 浙江大学 | 一种虚拟环境下眼控界面的交互目标布局方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104392144A (zh) | 一种视觉信息界面出错因子的生理实验分析方法 | |
Navalpakkam et al. | Measurement and modeling of eye-mouse behavior in the presence of nonlinear page layouts | |
Hwang et al. | Semantic guidance of eye movements in real-world scenes | |
CN104504404B (zh) | 一种基于视觉行为的网上用户类型识别方法及系统 | |
Braunagel et al. | Online recognition of driver-activity based on visual scanpath classification | |
CN107783945B (zh) | 一种基于眼动追踪的搜索结果网页注意力测评方法及装置 | |
US20070225577A1 (en) | System and Method for Providing Sensor Based Human Factors Protocol Analysis | |
CN107885857B (zh) | 一种搜索结果页用户行为模式挖掘方法、装置及系统 | |
US20180032816A1 (en) | Fixation identification using density optimization | |
CN110495895A (zh) | 一种基于眼动跟踪的疲劳检测方法与系统 | |
Couceiro et al. | Spotting problematic code lines using nonintrusive programmers' biofeedback | |
CN113749619A (zh) | 一种基于k-trca的脑力疲劳评估方法 | |
Eloff et al. | Semi-automated usability analysis through eye tracking | |
US11666258B2 (en) | Eye-tracking system for detection of cognitive load | |
Gale et al. | Automatic detection of wireless transmissions | |
CN113052475B (zh) | 一种工程机械图标视觉绩效测试方法、装置及存储介质 | |
Zhao et al. | Eye moving behaviors identification for gaze tracking interaction | |
CN109917759B (zh) | 一种智能控制产线系统信息呈现格式和功能布局方法 | |
Krishnamoorthy et al. | StimulEye: An intelligent tool for feature extraction and event detection from raw eye gaze data | |
CN116211306A (zh) | 基于眼动和心电信号的心理健康自评估系统 | |
Kovesdi et al. | Measuring human performance in simulated nuclear power plant control rooms using eye tracking | |
Eraslan et al. | Eye-tracking scanpath trend analysis for autism detection | |
Słowiński et al. | Assessment of cognitive biases in augmented reality: Beyond eye tracking | |
Holland et al. | Identifying usability issues via algorithmic detection of excessive visual search | |
Turenko et al. | Analysing program source code reading skills with eye tracking technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150304 |
|
RJ01 | Rejection of invention patent application after publication |