CN109917914B - 基于视野位置的交互界面分析与优化方法 - Google Patents
基于视野位置的交互界面分析与优化方法 Download PDFInfo
- Publication number
- CN109917914B CN109917914B CN201910162865.0A CN201910162865A CN109917914B CN 109917914 B CN109917914 B CN 109917914B CN 201910162865 A CN201910162865 A CN 201910162865A CN 109917914 B CN109917914 B CN 109917914B
- Authority
- CN
- China
- Prior art keywords
- visual field
- visual
- field position
- foveal vision
- information block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了涉及一种和视野位置相关的交互界面分析与优化方法,可以提高交互界面的视觉搜索效率,减少用户出错。本发明将视野位置规律、眼动指标和交互界面相结合,提出中央窝视觉区和副中央视觉区作为任务驱动下视觉搜索目标的关键区域,任务对应的目标信息块视野位置是视觉搜索的关键因素。据此提出一种基于视野位置的交互界面分析和优化方法。获取显示器大小和操作员视距;使用三角函数计算中央窝视觉区和副中央窝视觉区大小;在界面上标出视觉区范围;基于视觉区范围评价信息块位置,并且进行调整。该方法能够提高搜索效率并减少人为出错,提高交互界面的安全性。
Description
技术领域
本发明涉及一种基于视野位置的交互界面分析与优化方法。
背景技术
复杂交互界面信息量大,操作复杂,而且控制着重要的系统。复杂交互界面的出错往往会造成重大的后果。而现有复杂交互界面的设计,大部分都是功能信息块的简单堆叠,是一种经验主义的设计方法,并没有考虑到用户可能会造成的出错。
视野位置理论的核心是在中央窝、副中央窝和边缘视觉区这三种不同视觉区内,人的视觉加工和认知能力均不相同。作为一个新兴的理论,视野位置理论已经在多个领域有所利用。现有关于视野位置理论的研究,已涉及到多个方面。但在涉及到交互界面的设计上,仍然缺少相关研究。
因此,本发明创新将视野位置理论、眼动指标和交互界面相结合,将视野位置规律运用于交互界面的设计上。提出中央窝视觉区和副中央视觉区作为任务驱动下视觉搜索目标的关键区域,任务对应的目标信息块视野位置是视觉搜索的关键因素。在交互界面中划分符合视野位置规律和不符合视野位置规律这两种任务类型,对不符合视野位置规律任务信息块的位置进行调整,从而有效减少用户出错,增加交互界面安全性。
发明内容
本发明将视野位置规律、眼动指标和交互界面相结合,提出中央窝视觉区和副中央视觉区作为任务驱动下视觉搜索目标的关键区域,任务对应的目标信息块视野位置是视觉搜索的关键因素。创新提出一种基于视野位置的交互界面分析和优化方法。获取显示器大小和操作员视距;使用三角函数计算中央窝视觉区和副中央窝视觉区大小;在界面上标出视觉区范围;基于视觉区范围评价信息块位置,并且进行调整。该方法能够提高搜索效率并减少人为出错,提高交互界面的安全性。
1.一种基于视野位置的交互界面分析与优化方法,其特征包括如下步骤:
(1)、获取界面显示器大小s和操作员平均视距d;
(2)、使用三角函数计算视觉区大小;视觉区的半径S=d*tan(m);所述m为视角;中央窝视觉区的半径r=d*tan(2°);副中央窝视觉区的半径R=d*tan(10°);
(3)、在界面上标出中央窝视觉区和副中央窝视觉区;
(4)、对交互界面存在的若干操作步骤进行定义,将这些步骤定义为第一步、第二步、第三步……;如果第二步任务所对应的信息块在第一步操作的副中央窝视觉区内,则定义为第二步信息块符合视野位置规律;反之,如果第二步任务所对应的信息块不在第一步操作的副中央窝视觉区内,则定义为不符合视野位置规律;
(5)、将不符合视野位置规律信息块的位置,调整至上一步的副中央窝视觉区内,使之符合视野位置规律要求;
(6)、若界面空间有限,无法将目标信息块放入副中央窝视觉区内,则需要将指明目标信息块的线索(如指向信息块的箭头、标识等)放入副中央窝视觉区内替代。
上述步骤(2)中的中央窝和副中央窝视觉区的划分,是结合Pomplun、阎国利等提出的视野位置规律,和视觉认知模型得出。中央窝视觉区(foveal region)、副中央窝视觉区(parafoveal region)和边缘视觉区(perpheral region)。中央窝视觉区包括2°视角以内的区域,副中央窝视觉区包括视角2°—10°之内的区域,边缘视觉区是除去中央窝和副中央窝视觉区之外的全部范围。因此,在中央窝视觉区内,视觉的分辨能力最强,语意加工能力最强。在副中央窝视觉区内,识别能力及视觉灵敏度均不如中央窝视觉区,但仍可以进行语意加工。在边缘视觉区内视觉灵敏度最差,并且不能进行语意加工。
本发明所达到的有益效果:
1)以视野位置为因素,分析交互界面的设计合理性,增加一种交互界面的评价方法。
2)提出以视野位置为因素的交互界面设计方法,为交互界面的设计提供一项新的准则,丰富现有交互界面设计理论,使交互界面设计更具有科学性和合理性。同时能够减少用户出错,提高视觉搜索效率。
附图说明
图1是本发明的基于视野位置交互界面优化方法流程图。
图2是视距、眼球、视角和屏幕关系示意图。
图3是中央窝视觉区和副中央窝视觉区位置示意图。
图4是符合视野位置要求任务和不符合视野位置要求任务凝视时间、次数对比图。
图5是符合视野位置要求任务和不符合视野位置要求任务扫视时间、次数对比图。
图6是符合视野位置要求任务和不符合视野位置要求任务扫视图比较图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
如图1所示,一种基于视野位置的交互界面优化方法,其包括了基于视野位置的交互界面分析方法,包括如下步骤:
(1)、获取界面显示器大小s和操作员平均视距d;
(2)、使用三角函数计算视觉区大小;视觉区的半径S=d*tan(m);所述m为视角;中央窝视觉区的半径r=d*tan(2°);副中央窝视觉区的半径R=d*tan(10°);
(3)、在界面上标出中央窝视觉区和副中央窝视觉区;
(4)、对交互界面存在的若干操作步骤进行定义,将这些步骤定义为第一步、第二步、第三步……;如果第二步任务所对应的信息块在第一步操作的副中央窝视觉区内,则定义为第二步信息块符合视野位置规律;反之,如果第二步任务所对应的信息块不在第一步操作的副中央窝视觉区内,则定义为不符合视野位置规律;
(5)、将不符合视野位置规律信息块的位置,调整至上一步的副中央窝视觉区内,使之符合视野位置规律要求;
(6)、若界面空间有限,无法将目标信息块放入副中央窝视觉区内,则需要将指明目标信息块的线索(如指向信息块的箭头、标识等)放入副中央窝视觉区内替代。
上述步骤(1)中的显示器大小(s)和操作员平均视距(d)由具体情况决定。在不同环境下均不相同。操作员一般视距为500mm。如图2所示,即以视距为500mm为例,说明视距、眼球、视角和屏幕的关系。
上述步骤(2)中的中央窝和副中央窝视觉区的划分,是结合Pomplun、阎国利等提出的视野位置规律,和视觉认知模型得出。中央窝视觉区(foveal region)、副中央窝视觉区(parafoveal region)和边缘视觉区(perpheral region)。中央窝视觉区包括2°视角以内的区域,副中央窝视觉区包括视角2°—10°之内的区域,边缘视觉区是除去中央窝和副中央窝视觉区之外的全部范围。因此,在中央窝视觉区内,视觉的分辨能力最强,语意加工能力最强。在副中央窝视觉区内,识别能力及视觉灵敏度均不如中央窝视觉区,但仍可以进行语意加工。在边缘视觉区内视觉灵敏度最差,并且不能进行语意加工。
上述步骤(3)中标出的中央窝和副中央窝视觉区,是一个区域位置的划分,即为一种界面分析和优化的工具,在图中用圆形区域标出。如图3所示,以某一界面某一步骤为例:的矩形区域为该界面某一步骤,大圆形区域为该界面该步骤的副中央窝视觉区,小圆形区域为该界面该步骤的中央窝视觉区。
上述步骤(4)中的流程类任务是指,操作员需要根据规定的操作流程,按照顺序监控不同的信息块,此过程发生明显的视线转移。
上述步骤(5)多界面监控任务是指,操作员需要在同一界面监控多个子界面的信息块。
视野位置规律可以运用于流程类和多界面监控任务,已开展实验证明并且得出结论:
实验通过分析核电站硼和水补给系统界面,将其中符合视野位置规律和不符合视野位置规律的任务进行对比,从凝视、扫视、轨迹图等分析这两种任务在视觉搜索上区别。
实施例:
本实验对核电站硼和水补给系统界面3个常用任务下的14步操作开展视觉搜索实验。具体实验内容和流程顺序为:
(1)单一被试进入实验室,实验室内只有主试和被试两人,保持环境安静并且没有其他干扰。
(2)让被试阅读硼和水补给系统界面简介以及本实验操作说明,时间大约为5min。此时被试若存在任何对实验内容的疑问,可以询问主试人。
(3)主试协助被试调整视距,屏幕位置以及眼动仪参数,准备开展实验。
(4)开展实验。实验内容为:首先让被试熟悉原界面对应的图标,出现三种操作的中的一种;出现原界面并且告知该操作第一步任务所对应的信息(黄色区域标出)块和第二部任务所需要寻找的信息块的名称,被试开始寻找;寻找时间设置为10000ms,如果被试提前找到,则结束寻找(按空格);此时出现问卷,被试需回答是否找到第二步任务所对应的信息块;再出现第二部任务所对应的信息块(黄色区域标出)和第三部任务所需要寻找的信息块的名称,并且出现原界面,被试开始寻找。
(5)以此类推,每个任务寻找时间均为10S,一共进行3种常用操作的14个任务的实验。
本实验以视野位置规律为变量,将3种操作的14个任务,分为符合视野位置规律的任务(8个),和不符合视野位置规律的任务(6个)。研究视野位置规律是否会对流程性任务的目标搜索产生影响。因此,需要将符合视野位置规律任务的眼动参数,和不符合视野位置规律任务的眼动参数进行对比。此时可以采用方差分析法(ANOVA),证明视野规律这一因素对两组眼动数据产生了一定影响。再利用图表将数据可视化,清晰表达视野位置因素和流程性任务视觉搜索效率的具体关系。本文采用Levene检验方法进行方差齐性检验。
在对12名被试开展眼动实验后,得出眼动数据。其中,有8名被试的眼动采样率超过70%,4名被试眼动采样率低于70%。因此,取8名采样率超过70%的被试数据作为有效实验数据,进行分析。将112条有效实验数据(8名被试*14个任务)按任务类型进行整理,计算出每种任务8名被试的平均凝视时间、平均凝视次数、平均扫视时间、平均扫视次数、平均反应时间和找到次数。以是否符合视野位置规律作为变量,将任务分为符合视野位置规律和不符合视野位置规律两种类型,从凝视、扫视和轨迹图来研究其和视野位置的关系。
(1)凝视
凝视与认知加工有密切的关系。在大脑做出判断、选择、决策等活动时,眼睛会开始凝视。
在对平均凝视次数和平均凝视时间的Levene检验中,平均凝视次数(显著性p=0.737>0.05)和平均凝视时间(显著性p=0.865>0.05),均满足方差齐性,可以使用单因素方差分析法。
表1
表1,平均凝视次数(p=0.028,p<0.05,F=6.217)和平均凝视时间(p=0.033,p<0.05,F=5.839)主效应均显著。这表明,视野位置因素对凝视有影响。如图4所示,将符合视野位置规律和不符合视野位置规律任务的凝视时间、次数分别呈递增顺序排列,可以看出“不符合视野位置规律”一类的任务的平均凝视次数和平均凝视时间均高于“符合视野位置规律”一类任务。说明对于不符合视野位置要求的任务,大脑需要花费更多精力辨识和思考。
(2)扫视
眼睛在寻找目标的过程称之为扫视。在对平均扫视次数和平均扫视时间的Levene检验中,平均扫视次数(显著性p=0.791>0.05)和平均扫视时间(显著性p=0.811>0.05),均满足方差齐性,可以使用单因素方差分析法。
表2
表2中,平均扫视次数(p=0.019,p<0.05,F=7.266)和平均凝视时间(p=0.006,p<0.05,F=11.362)主效应均显著。这表明,视野位置因素对扫视有影响。如图5所示,将符合视野位置规律和不符合视野位置规律任务的扫视时间、次数分别呈递增顺序排列,可以看出“不符合视野位置规律”一类的任务的平均扫视次数和平均扫视时间均高于“符合视野位置规律”一类任务。说明对于不符合视野位置规律一类的任务,眼睛需要花费更多时间寻找目标。
(3)轨迹图
如图6分析可知,对于符合视野位置规律的任务,扫视轨迹更加紧密,大部分分布在副中央窝视觉区内。表明眼睛在副中央窝视觉区内搜索目标。而不符合视野位置规律的任务,部分扫视轨迹分布于副中央窝视觉区内,部分扫视轨迹分布于副中央窝视觉区外,即边缘视觉区内,并且没有规律。表明眼睛先搜索副中央窝视觉区内的目标,在没有找到对应目标后,开始在边缘视觉区内寻找目标。
因此,得出结论:不符合视野位置规律的任务比符合视野位置规律的任务,在开展任务搜索时,眼球需要花费更多的搜索时间,大脑需要耗费更多精力进行认知,能够完成目标搜索的成功率更低。所以视野位置是影响流程性目标搜索的一个重要因素,且符合视野位置规律的任务比不符合视野位置规律的任务具有更高的搜索效率和认知能力。
综上所述,视野位置规律可以运用于交互界面的设计方法之中。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (1)
1.一种基于视野位置的交互界面分析与优化方法,其特征包括如下步骤:
(1)、获取界面显示器大小s和操作员平均视距d;
(2)、使用三角函数计算视觉区大小;视觉区的半径S=d*tan(m);所述m为视角;中央窝视觉区的半径r=d*tan(2°);副中央窝视觉区的半径R=d*tan(10°);
(3)、在界面上标出中央窝视觉区和副中央窝视觉区;
(4)、对交互界面存在的若干操作步骤进行定义,将这些步骤定义为第一步、第二步、第三步……;如果第二步任务所对应的信息块在第一步操作的副中央窝视觉区内,则定义为第二步信息块符合视野位置规律;反之,如果第二步任务所对应的信息块不在第一步操作的副中央窝视觉区内,则定义为不符合视野位置规律;
(5)、将不符合视野位置规律信息块的位置,调整至上一步的副中央窝视觉区内,使之符合视野位置规律要求;
(6)、若界面空间有限,无法将目标信息块放入副中央窝视觉区内,则需要将指明目标信息块的线索放入副中央窝视觉区内替代。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910162865.0A CN109917914B (zh) | 2019-03-05 | 2019-03-05 | 基于视野位置的交互界面分析与优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910162865.0A CN109917914B (zh) | 2019-03-05 | 2019-03-05 | 基于视野位置的交互界面分析与优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109917914A CN109917914A (zh) | 2019-06-21 |
CN109917914B true CN109917914B (zh) | 2022-06-17 |
Family
ID=66963230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910162865.0A Active CN109917914B (zh) | 2019-03-05 | 2019-03-05 | 基于视野位置的交互界面分析与优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109917914B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113507561B (zh) * | 2021-06-01 | 2023-06-20 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种基于眼动数据分析的个性化显示系统设计方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101779960A (zh) * | 2010-02-24 | 2010-07-21 | 沃建中 | 刺激信息认知能力值测试系统及其方法 |
WO2014022893A1 (en) * | 2012-08-09 | 2014-02-13 | Tomas Technology Pty Ltd | Interface for visually navigating concepts |
CN107436675A (zh) * | 2016-05-25 | 2017-12-05 | 深圳纬目信息技术有限公司 | 一种视觉交互方法、系统和设备 |
CN108874139A (zh) * | 2018-06-20 | 2018-11-23 | 浙江工业大学 | 视觉焦点和手部运动跟踪协同驱动的目标交互方法和系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2923254B1 (en) * | 2012-11-21 | 2020-04-08 | Greeneden U.S. Holdings II, LLC | Graphical user interface for monitoring and visualizing contact center routing strategies |
CN108351685B (zh) * | 2015-08-15 | 2022-07-08 | 谷歌有限责任公司 | 用于与真实和虚拟对象交互的基于生物力学的眼睛信号的系统和方法 |
CN106126786B (zh) * | 2016-06-17 | 2019-12-27 | 中国航空无线电电子研究所 | 座舱显示器人机界面设计人机工效定量评估方法 |
CN109343852B (zh) * | 2018-10-24 | 2022-04-12 | 北京赢销通软件技术有限公司 | 一种操作界面帧图片的显示方法及装置 |
-
2019
- 2019-03-05 CN CN201910162865.0A patent/CN109917914B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101779960A (zh) * | 2010-02-24 | 2010-07-21 | 沃建中 | 刺激信息认知能力值测试系统及其方法 |
WO2014022893A1 (en) * | 2012-08-09 | 2014-02-13 | Tomas Technology Pty Ltd | Interface for visually navigating concepts |
CN107436675A (zh) * | 2016-05-25 | 2017-12-05 | 深圳纬目信息技术有限公司 | 一种视觉交互方法、系统和设备 |
CN108874139A (zh) * | 2018-06-20 | 2018-11-23 | 浙江工业大学 | 视觉焦点和手部运动跟踪协同驱动的目标交互方法和系统 |
Non-Patent Citations (1)
Title |
---|
多媒体课件界面设计中感知规律的参照;李芳芳;《科技教育创新》;20070831(第16期);217-218 * |
Also Published As
Publication number | Publication date |
---|---|
CN109917914A (zh) | 2019-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107097227B (zh) | 一种人机协作机器人系统 | |
US20150254283A1 (en) | Image storage and retrieval based on eye movements | |
Ormerod et al. | Global perceptual processing in problem solving: The case of the traveling salesperson | |
CN106126786B (zh) | 座舱显示器人机界面设计人机工效定量评估方法 | |
CN109917914B (zh) | 基于视野位置的交互界面分析与优化方法 | |
JP6080198B2 (ja) | ユーザ入力中に文字選出を表示するための方法および装置 | |
CN105701015A (zh) | 一种基于用户模型的智能手机人机界面可用性评估方法 | |
CN113255476B (zh) | 一种基于眼动追踪的目标跟踪方法、系统及存储介质 | |
CN111722708B (zh) | 一种基于眼动的多维地理信息自适应智能交互方法及装置 | |
CN116339511A (zh) | 一种人机交互界面知觉广度引导信息搜索的检测方法 | |
CN109917759A (zh) | 一种智能控制产线系统信息呈现格式和功能布局方法 | |
US11354937B2 (en) | Method and system for improving the visual exploration of an image during a target search | |
Nuthmann et al. | Visual search in naturalistic scenes from foveal to peripheral vision: A comparison between dynamic and static displays | |
CN113507561B (zh) | 一种基于眼动数据分析的个性化显示系统设计方法 | |
Pei et al. | Modeling and evaluation of attention allocation in an intelligent tractor head‐up display interface | |
Li et al. | Usability evaluation of hybrid 2D-3D visualization tools in basic air traffic control operations | |
Zhang et al. | Research on the Improvement of CNC Machine Tool HMI Based on Eye Tracking Experiment | |
KR20120124891A (ko) | 사용자 다중의도 분석장치 및 사용자 다중의도 분석 방법 | |
Zhao et al. | Eyeglasses detection, location and frame discriminant based on edge information projection | |
Kaya | HUMAN FACTORS ENGINEERING ON THE EDGE OF INDUSTRY 4.0: ANALYSIS FOR IOT-AIDED TECHNOLOGIES | |
Liu et al. | Feasibility analysis of eye typing with a standard webcam | |
Shi et al. | Helping people with ICT device control by eye gaze | |
Terhoeven et al. | Cognitive load by context-sensitive information provision using binocular smart glasses in an industrial setting | |
CN106095088B (zh) | 一种电子设备及其图像处理方法 | |
Singh et al. | Real-time eye-tracking processing during pilot-uav interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |