CN102253714A - 基于视觉决策的选择触发方法 - Google Patents
基于视觉决策的选择触发方法 Download PDFInfo
- Publication number
- CN102253714A CN102253714A CN2011101865522A CN201110186552A CN102253714A CN 102253714 A CN102253714 A CN 102253714A CN 2011101865522 A CN2011101865522 A CN 2011101865522A CN 201110186552 A CN201110186552 A CN 201110186552A CN 102253714 A CN102253714 A CN 102253714A
- Authority
- CN
- China
- Prior art keywords
- attentively
- user
- pupil diameter
- data
- decision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
基于视觉决策的选择触发方法属于自适应系统领域。本发明是一种适合于眼动人机交互系统中,基于用户的视觉模式得到用户偏好与决策信息、通过融合多项眼动指标与时间序列来获得用户选择触发时机的预测方法,即基于视觉决策的选择触发方法。本发明第一步收集与采样用户视觉决策数据:收集用户的注视数据,瞳孔直径数据及对应的点击选择数据;对收集到的数据按时间轴进行采样,得到用户进行选择时的注视数组与瞳孔直径数组。第二步拟合用户视觉决策曲线,并确定相关参数:对视觉决策曲线进行拟合,得到注视时间与瞳孔直径对应决策时间轴的函数,确定触发的阈值。本方法为自适应的用户视觉决策模型建立,无需用户进行额外的配合,方便使用,预测结果良好。
Description
(一)技术领域
本发明属于自适应系统领域,涉及眼动跟踪技术,具体是一种适合于眼动人机交互系统中,基于用户的视觉模式得到用户偏好与决策信息、通过融合多项眼动指标与时间序列来获得用户选择触发时机的预测方法,即基于视觉决策的选择触发方法。
(二)背景技术
眼动人机交互采用眼动跟踪技术(简称眼动技术)记录用户眼球运动的情况,使用户得以通过视觉通道直接对界面进行操作。眼动人机交互用以解决人机交互带宽不平衡的问题(人机交互带宽不平衡是指:目前用户能快速从计算机界面与音频等得到大量的信息,而计算机只能缓慢接收用户手动输入),尤用于助残系统中。
眼动人机交互中,最大的问题之一即为米达斯接触问题,即用户视线停留在某个目标,不一定意味着想对其进行操作(请见Jacob,R.J.K.的文章“What you look at is what you get:eye movement-based interaction techniques”ACM,CHI′90,1990)。目前解决此问题的方法多是采用眨眼(请见Kaufman,A.E.,Bandopadhay,A.and Shaviv,B.D.,“An Eye Tracking Computer UserInterface”Virtual Reality Workshop Proceedings,Computer Society IEEE 1993,pp.120-121)或长时间凝视(请见Hansen,J.P.,Hansen,D.W.,Johansen,“Bringing gaze-based interaction back to basics”In C.Stephanidis(Ed.),Universal access in HCI:Towards an information society for all,2001,pp.325-328)来触发操作。这些方法要么需要额外的操作(眨眼,按键),要么需要延长凝视时间,某种程度上已经违背了“自然交互”的原则;并且现有的自动触发方法只基于单一的指标,没有考虑用户整个浏览过程中的心理,无法体现历史信息对用户选择的预测指导作用。因此很难达到自适应系统“自然交互”的需要。
视觉决策研究人们对视觉对象进行权衡并做出选择决策的过程。Shimojo等发现了“凝视偏好现象”(请见Shimojo,S.,Simion,C.,Shimojo,E.,& Scheier,C.“Gaze bias both reflects and influences preference”Nature Neuroscience,2003,6(12):pp.1317-1322),即人们在对多个视觉目标进行选择时,视线刚开始是均匀地分布在各选项上,随着时间的推移,在接近做出反应的前1-2秒钟,凝视分布开始逐渐偏到最后所要选择的那一目标上;Glaholt等人发现在可选目标大于二时,用户最后将锁定两个选项进行比较,其他的目标基本得不到注视(请见Glaholt,M.G.,Reingold,E.M.“The time course of gaze bias invisual decision tasks”Visual Cognition,2008,17(8):pp.1228-1243)。总而言之,用户对多个视觉目标进行选择决策的过程中,注视情况与时间维结合能反映其选择倾向。
(三)发明内容
本发明的目的在于提供一种基于视觉决策的选择触发方法,用于在眼动人机交互环境中,根据用户在选择过程中的眼动规律推断其要触发操作的对象与时机。
为实现上述目的,本发明采取以下技术方案:
整个技术方案包括用户视觉决策数据收集与采样阶段、用户视觉决策曲线拟合与运用阶段两个阶段,具体如下:
I、基于用户的眼动模式与鼠标点击,采样注视点与瞳孔直径信息。
在特定的人机界面中,通过眼动仪对用户浏览网页的眼动数据与点击操作进行记录,并通过规范化的数据采样来学习用户的视觉决策习惯。
I-i、让用户在界面中按自己的喜好随机进行选择操作,记录其眼动数据与点击流数据作为学习集合。
采集用户的眼动与点击流数据,稍作处理并根据需要将所有记录分为三类基本数据集,事件记录数据集E、注视信息数据集F={f1,f2,f3,...,fm}与点击流数据集C={c1,c2,c3,...,cn},本发明的方法主要针对F与C展开。表1为待用的眼动数据集示例。
事件记录数据集E包括页面开始(UrlStart)、结束(UrlEnd)与点击事件,由于本方法只需要利用页面开始(UrlStart)标记,因此忽略其他事件,将E用以记录所有页面开始时的时间戳E={tu1,tu2,tu3,...,tun}。
注视信息数据集F包含所有的注视信息,fk是一个四元组(tfk,dlk,drk,itemfk),tfk为此次注视的时间戳;dlk为左瞳孔直径;drk为右瞳孔直径;itemfk为所注视的选项,若注视点不在任何产品上,则标记为“NULL”。按照处理瞳孔直径的一般方法,用左右瞳孔直径的平均值代表瞳孔直径值,即算得dfk=(dlk+drk)/2,将fk简化为三元组(tfk,dfk,itemfk),其中tfk为此次注视的时间戳;dfk为瞳孔直径;itemfk为所注视的选项。
点击流数据集C包含对点击时间与所点击选项的记录,ci是一个二元组(tci,itemci),tci为点击时间戳,itemci为所点击的产品,若点击位置不在任何产品上,则标记为“NULL”。
表1.待用眼动数据集示例:
I-ii、计算用户平均决策时间与采样时长
将所有记录按时间戳逆序排列,然后计算从点击时间tci到用户每次开始进入界面的时间(UrlStart对应的时间戳,即tui)的差值,tci-tui即为用户的决策时间。为所有点击计算平均决策时间tM及标准差std。假设共有n次点击,则:
平均决策时间tM减去一倍标准差std即得到采样时长ts:
tS=tM-std
I-iii、对用户点击前时间ts内的注视信息与瞳孔直径信息进行采样
保留决策时间长于采样时间的数据,其余数据由于决策时间过短视为不能构成有效采样集而抛弃(若tci-tui<ts,则删除在时间tui到tci之间生成的所有数据)。保留的数据中,每次点击ci之后,一直到上一次点击ci-1之间的注视数据集{fi1,fi2,…,fin}(注意数据已经逆序排列,因此只需截取两次点击之间的数据)与ci构成一个基本的采样单元:
si={fi1,fi2,fi3,...,fin,ci}
从点击前最后一个注视记录开始(由于数据已逆序排列,因此最后一个注视记录即为点击的后一行记录),以采样间隔:
tI=ts/50
对si采样50个点(取50是依照shimojo,2003文章中给出的值,具体可根据时间长度与需求调整),得到新的基本采样单元:
si′={fi1,fi2,fi3,...,fi50,ci}
假设共有m个基本采样单元,则由所有si′构成的采样数据集S′可用m*51的矩阵表示为:
其中矩阵第51列为点击信息,前50列中的每列fj为对所有有效数据,距离选择前最后一行注视记录tI×0,tI×1,…,tI×(j-1),…,tI×49采样,得到的注视信息。
I-iv、采样注视信息。对用户的注视情况进行标记,得到由flagij={“0”,“1”,“Null”}组成的注视矩阵Sf。具体步骤为:
对比S′中每一行中fij的itemfij与ci的itemci,若itemfij=“NULL”则表示用户的注视点没有停留在任何目标选项上,标记flagij=“NULL”;在itemfij不为“NULL”的情况下,若itemfij=itemci,则表示此时用户的注视点停留在最终用户选择的选项上,标记flagij=“1”;若itemfij≠itemci,则表示此时用户的注视点停留在其他选项上,标记flagij=“0”。
则所有fij对应的flagij构成了m×50的注视矩阵Sf(其中,m为基本采样单元的数目,50为采样点的数目),矩阵元素为“0”“1”“Null”三种组成,以下为一个注视矩阵的样例:
I-V、采样瞳孔直径信息,得到瞳孔直径矩阵。提取S′中,每个fij的dfij的值,假设有m个基本采样数据单元,则所有fij对应的dfij构成了m×50的瞳孔直径矩阵Sd:
I-VI、生成注视数组。
注视数组Af中的元素Vfj的值等于注视矩阵每列中“1”所占的比例,将注视矩阵Sf中各列的“1”累加(由于元素只有“1”,“0”,“Null”所以直接求一列中各元素的和数值上即等于“1”的累加),并除以基本采样单元的数目m,得到注视矩阵各列中“1”所占的比例,即:
可知Vfj为注视矩阵各列(一共50列)中“1”所占的比例,即距离选择时间tI×0,tI×1,…,tI×(j-1),…,tI×49采样,所得到用户正在注视最终选择项的比例。所有50个Vfj的集合构成的注视点数组Af=[Vf1,Vf2,…,Vfj,…,Vf50]。
I-VII、生成瞳孔直径数组。
瞳孔直径数组中各元素Vdj为瞳孔矩阵每列的平均值,即:
所有50个Vdj的集合构成瞳孔直径数组Ad=[Vd1,Vd2,…,Vdj,…,Vd50]。由于实质上是在同一采样时间分别取注视信息与瞳孔直径信息,所以在注视数组与瞳孔直径数组中各对应的Vfj与Vdj的时间完全重合。
II、视觉决策曲线拟合与运用阶段
根据注视点数组与瞳孔直径数组生成拟合函数,并计算触发阈值。
II-i、横坐标为采样时间点,即tI×(j-1),纵坐标为最终选择项被注视的比例Vfj对数组Af=[Vf1,Vf2,…,Vfj,…,Vf50]进行拟合(可采用spss统计分析软件中自带的拟合功能,根据使用者的经验匹配不同类型的函数),得到视觉决策注视拟合曲线。要求拟合度R2>0.85,否则继续匹配其他曲线。
II-ii、横坐标为采样时间点,即tI×(j-1),纵坐标为平均瞳孔直径Vdj,对数组Ad=[Vd1,Vd2,…,Vdj,…,Vd50]进行拟合(可采用spss等统计分析软件中自带的拟合功能,根据使用者的经验匹配不同类型的函数),得到视觉决策瞳孔直径拟合曲线。要求拟合度R2>0.85,否则继续匹配其他曲线。
II-iii、计算注视比例阈值Vft与瞳孔直径阈值Vdt。为避免数据中奇异点的影响,取Vde=(Vd1+Vd2+Vd3)/3,Vds=(Vd50+Vd49+Vd48)/3,瞳孔直径触发阈值Vdt=Vde-(Vde-Vds)×3/4;取Vfe=(Vf1+Vf2+Vf3)/3;Vfs=(Vf50+Vf49+Vf48)/3;注视比例触发阈值Vft=Vfe-(Vfe-Vfs)×1/2。值得注意的是,瞳孔直径的阈值与用户的相关性更大,也就是不同用户随着决策时间的推进,瞳孔直径变化的趋势是基本一致的,而值却可能相差较大;而注视阈值与任务的相关更大,因为在不同的界面与选项中进行决策时,人们的注视曲线将有所变化。此步骤阈值的确定可以根据实际情况调整。
II-iv、基于双阈值的选择触发。若用户的瞳孔直径的值连续三个点大于或等于阈值Vdt,则采样注视点信息,若在时间tI×10内,用户对某选项的凝视比例达到Vft,则视为用户想选择此选项。
本发明基于视觉决策的触发方法优越性为:充分重视人们作选择决策时的心理过程,先通过样本学习得到用户在特定页面中进行选择的视觉习惯,然后基于注视曲线与瞳孔直径曲线进行拟合,推测用户的选择触发时机。与传统的采用眨眼和单一延长触发所需凝视时间等方法相比,本方法有以下三点优势:1)注重利用用户的视觉习惯与历史操作记录;2)融合了瞳孔直径指标;3)不需要用户额外的操作,自然交互。
(四)附图说明
图1.流程图
图2.注视数组图
图3.瞳孔直径数组图
图4.注视曲线拟合
图5.瞳孔直径曲线拟合
(五)具体实施方式
本实例在电子商务系统中使用本方法。在实验页面中,包含透过修改www.dangdang.com的样式单形成的电子商务网页背景与两个可供选择的产品(上下位置)及相关介绍,要求用户选择自己喜欢的一幅并点击。
I、基于用户的浏览与点击操作,采样注视点与瞳孔直径信息。
在此次对电子商务网站的实施案例中,通过瑞典生产的Tobii T120非侵入式眼动仪,以采样频率120Hz,记录用户浏览网页的眼动数据与鼠标点击数据,用以学习用户在此页面上的视觉决策习惯。
I-i、让用户在界面中按自己的喜好进行选择操作,并记录其眼动数据与点击流数据作为学习集合。
让30个用户对页面中的15对不同的产品中进行选择,采集用户的眼动与点击流数据,稍作处理并根据需要将所有记录分为三类基本数据集,事件记录数据集E、注视信息数据集F={f1,f2,f3,...,fm}与点击流数据集C={c1,c2,c3,...,cn},本发明的方法主要针对F与C展开。
事件记录数据集E包括页面开始(UrlStart)、结束(UrlEnd)与点击事件,由于本方法只需要利用页面开始(UrlStart)标记,因此忽略其他事件,将E用以记录所有页面开始时的时间戳E={tu1,tu2,tu3,...,tun}。
注视信息数据集F包含所有的注视信息,fk是一个四元组(tfk,dlk,drk,itemfk),tfk为此次注视的时间戳;dlk为左瞳孔直径;drk为右瞳孔直径;itemfk为所注视的选项(此实例中若注视点停留在上面的产品标记为“1”,在下面的产品标记为“2”),若注视点不在任何产品上,则标记为“NULL”。按照处理瞳孔直径的一般方法,用左右瞳孔直径的平均值代表瞳孔直径值,即算得dfk=(dlk+drk)/2,将fk简化为三元组(tfk,dfk,itemfk),其中tfk为此次注视的时间戳;dfk为瞳孔直径;itemfk为所注视的选项。
点击流数据集C包含对点击时间与所点击选项的记录,ci是一个二元组(tci,itemci),tci为点击时间戳,itemci为所点击的产品(此实例中点击上面的产品标记为“1”,点击下面的产品标记为“2”),若点击位置不在任何产品上,则标记为“NULL”。
表2为合并左右瞳孔直径并删除UrlEnd事件记录后的数据集样例。
表2.备用眼动数据样例
I-ii、计算用户平均决策时间与采样时长
将所有记录按时间戳逆序排列,表3为表2逆序排列后的数据集。然后计算从点击时间tci到从用户每次开始进入界面的时间(UrlStart对应的时间戳,即tui),tci-tui即为用户的决策时间。为所有点击计算平均决策时间tM及标准差std。共有30×15=450(测试人数×网页数)次点击,则:
(如,在表3中,用点击记录c3所对应的时间58074ms减去对应的下一个事件记录UrlStart的时间55581,即58074-55580=2494ms;同样的方法可算得c2与c1的决策时间分别为55074-53981=1093ms;52531-50764=1767ms,所以这三次点击的平均决策时间为(2494+1093+1767)/3≈1785ms)
将tM并减去一倍标准差std得到采样时长tS:
tS=tM-std
在此数据中,算得平均决策时间tM=2.5s,标准差为0.8s,因此采样时长ts=tM-Std=2.5s-0.8s=1.7s=1700ms。
表3.逆序排列的眼动数据样例
I-iii、对用户点击前时间ts内的注视信息与瞳孔直径信息进行采样
保留决策时间长于采样时间1700ms的数据,其余数据由于决策时间过短视为不能构成有效采样集而抛弃(若tci-tui<ts,则删除在时间tui到tci之间生成的所有数据。如在示例数据中,c2的决策时间为55074-53981=1093ms<1700ms,所以删除时间55074ms到53981ms之间的所有数据)。保留的数据中,每次点击ci之后,一直到上一次点击ci-1之间的注视数据集{fi1,fi2,...,fin}(注意数据已经逆序排列,因此只需截取两次点击之间的数据)与ci构成一个基本的采样单元:
si={fi1,fi2,fi3,...,fin,ci}
例:点击记录c1与之前所产生的一系列注视点{f89,...,f4,f3,f2,f1}构成一个采样单元:
s1={f189,...,f14,f13,f12,f11,c1}
以采样间隔:
tI=tS/50=1700/50=34ms
从点击前最后一个注视记录开始(由于数据已逆序排列,因此最后一个注视记录即为点击的后一行记录),对si采样50个点,得到新的基本采样单元:
si′={fi1,fi2,fi3,...,fi50,ci}
此次实验删除了决策时间短于1.7s的数据单元后,仍有399个基本采样单元,则由所有si′构成的采样数据集S′可用399*51的矩阵表示为:
其中矩阵第51列为点击数据,前50列中的每列fj为对所有有效数据,距离选择时间最后一次注视tI×0=0ms,tI×1=34ms,tI×2=68ms,...,tI×(j-1)=34×(j-1)ms,…,tI×49=1666ms采样,得到的注视信息。如S′的第一列即为399个采样单元点击前的最后一次注视记录,而第二列为距最后一次注视记录34ms的注视记录。
I-iv、采样注视信息。对用户注视最终选择项的情况进行标记,得到由flagij={“0”,“1”,“Null”}组成的注视矩阵Sf。具体步骤为:
对比S′中每一行中fij的itemfij与ci的itemci,若itemfij=“NULL”则表示用户的注视点没有停留在任何目标选项上,标记flagij=“NULL”;在itemfij不为“NULL”的情况下,若itemfij=itemci,则表示此时用户的注视点停留在最终用户选择的选项上,标记flagij=“1”;若itemfij≠itemci,则表示此时用户的注视点停留在其他选项上,标记flagij=“0”。
(为方便理解,表4中最后一列为表3样例数据加上注视标记,如点击记录c3的点击标记为itemc“2”,则在这次点击与UrlStart之间的注视记录以此为参照,由于记录f309的itemf为“2”与c3的itemc相等,所以注视标记为1;记录f308的itemf为“Null”,所以注视标记也为“Null”;记录f201与f200的itemf为“1”与c3的itemc“2”不相等,所以注视标记为0。)
表4.加上注视标记的眼动数据样例
由于共有399个基本采样单元,因此所有fij对应的flagij构成了399×50的注视矩阵Sf(其中,399为基本采样单元的数目,50为采样点的数目),矩阵元素为“0”“1”“Null”三种组成,以下为注视矩阵的样例:
I-V、采样瞳孔直径信息,得到瞳孔直径矩阵。提取S′中,每个fij的dfij的值,由于有399个基本采样数据单元,则所有fij对应的dfij构成了399×50的瞳孔直径矩阵Sd:
以下为相应的实验数据样例:
I-VI、生成注视数组。
注视数组Af中的元素Vfj的值等于注视矩阵每列中“1”所占的比例,将注视矩阵Sf中各列的“1”累加(由于元素只有“1”,“0”,“Null”所以直接求一列中各元素的和数值上即等于“1”的累加),并除以基本采样单元的数目399,得到注视矩阵各列中“1”所占的比例,即:
可知Vfj为注视矩阵各列(一共50列)中“1”所占的比例,即距离选择时间tI×0,tI×1,…,tI×(j-1),…,tI×49采样,所得到用户正在注视最终选择项的比例。所有50个Vfj的集合构成的注视点数组Af=[Vf1,Vf2,…,Vfj,…,Vf50]。如下所示Af为实验所得的50个采样点的注视数组,图2为将注视数组注视比例作为纵坐标,采样序列作为横坐标构成的散点图。
Af=[0.709,0.712,0.674,0.669,0.667,0.664,0.657,0.644,0.642,0.619,0.617,0.622,0.617,0.602,0.569,0.571,0.551,0.556,0.554,0.536,0.526,0.531,0.526,0.529,0.544,0.539,0.539,0.526,0.521,0.506,0.499,0.479,0.481,0.499,0.494,0.479,0.504,0.499,0.504,0.521,0.499,0.504,0.491,0.471,0.464,0.474,0.466,0.479,0.489,0.501]
I-VII、生成瞳孔直径数组。
瞳孔直径数组中各元素Vdj为瞳孔矩阵每列的平均值,即:
所有50个Vdj的集合构成瞳孔直径数组Ad=[Vd1,Vd2,…,Vdj,…,Vd50]。由于实质上是在同一采样时间分别取注视信息与瞳孔直径信息,所以在注视数组与瞳孔直径数组中各对应的Vfj与Vdj中的时间完全重合。如下所示Ad为实验所得的50个采样点的瞳孔直径数组。图3为将注视数组瞳孔直径作为纵坐标,采样序列作为横坐标构成的散点图。
Ad=[3.062,3.061,3.057,3.058,3.061,3.059,3.056,3.057,3.056,3.055,3.056,3.055,3.055,3.054,3.056,3.054,3.054,3.055,3.050,3.051,3.054,3.050,3.047,3.049,3.050,3.046,3.048,3.047,3.043,3.041,3.039,3.038,3.041,3.038,3.037,3.035,3.040,3.037,3.038,3.036,3.031,3.028,3.029,3.025,3.025,3.025,3.026,3.023,3.022,3.021]
II、视觉决策曲线拟合阶段
根据注视点数组与瞳孔直径数组生成拟合函数,并计算触发阈值。
II-i、横坐标为采样时间点,即tI×(j-1),纵坐标为最终选择项被注视的比例Vfj对数组Af=[Vf1,Vf2,…,Vfj,…,Vf50]进行拟合(采用spss统计分析软件中自带的拟合功能),得到视觉决策注视拟合曲线。图4为根据实验数据拟合的注视曲线,y=-0.0001x2-0.0108x+0.7189,拟合度R2=0.963。
II-ii、横坐标为采样时间点,即tI×(j-1),纵坐标为平均瞳孔直径Vdj,对数组Ad=[Vd1,Vd2,…,Vdj,…,Vd50]进行拟合(采用spss统计分析软件中自带的拟合功能),得到视觉决策瞳孔拟合曲线。图5为根据实验数据拟合的瞳孔直径曲线,y=-0.0008x+3.0653,拟合度R2=0.943。
II-iii、计算注视比例阈值Vft与瞳孔直径阈值Vdt。为避免数据中奇异点的影响,取Vde=(Vd1+Vd2+Vd3)/3,Vds=(Vd50+Vd49+Vd48)/3,瞳孔直径触发阈值Vdt=Vde-(Vde-Vds)×3/4;取Vfe=(Vf1+Vf2+Vf3)/3;Vfs=(Vf50+Vf49+Vf48)/3;注视比例触发阈值Vft=Vfe-(Vfe-Vfs)×1/2。在具体实施实验中:
Vde=(Vd1+Vd2+Vd3)/3=(3.062+3.061+3.057)/3=3.060,
Vds=(Vd50+Vd49+Vd48)/3=(3.023,3.022,3.021)/3=3.022,
Vdt=Vde-(Vde-Vds)×3/4=3.060-(3.060-3.022)×3/4=3.047;
Vfe=(Vf1+Vf2+Vf3)/3=(0.709+0.712+0.674)/3=0.698,
Vfs=(Vf50+Vf49+Vf48)/3=(0.479+0.489+0.501)/3=0.490,
Vft=Vfe-(Vfe-Vfs)×1/2=0.698-(0.698-0.490)×1/2=0.594。
值得注意的是,瞳孔直径的阈值与用户的相关性更大,也就是不同用户随着决策时间的推进,瞳孔直径变化的趋势是基本一致的,而值却可能相差较大;而注视阈值与任务的相关更大,因为在不同的界面与选项中进行决策时,人们的注视曲线有所变化。此步骤阈值的确定可以根据实际情况调整。
II-iv、基于双阈值的选择触发。若用户的瞳孔直径的值连续三个点大于或等于阈值Vdt=3.047,则采样注视点信息,若在时间tI×10内,用户对此页面中两个选项之一凝视比例达到Vft=0.594,则视为用户想选择此选项。
本次实验中,此方法的预测准确率为78.4%。
Claims (1)
1.基于视觉决策的选择触法方法,其特征在于:
分为两个步骤,第一步基于用户的眼动模式与点击操作,采样规范化注视点与瞳孔直径信息,第二步视觉决策曲线拟合,并确定触发阈值;具体如下:
I、基于用户的眼动模式与鼠标点击,采样注视点与瞳孔直径信息;
在特定的人机界面中,通过眼动仪对用户浏览网页的眼动数据与点击操作进行记录,并通过规范化的数据采样来学习用户的视觉决策习惯;
I-i、让用户在界面中按自己的喜好随机进行选择操作,记录其眼动数据与点击流数据作为学习集合;
采集用户的眼动与点击流数据,稍作处理并根据需要将所有记录分为三类基本数据集,事件记录数据集E、注视信息数据集F={f1,f2,f3,...,fm}与点击流数据集C={c1,c2,c3,...,cn},
本方法只需要利用页面开始(UrlStart)标记,将E用以记录所有页面开始时的时间戳E={tu1,tu2,tu3,...,tun};
注视信息数据集F包含所有的注视信息,fk是一个四元组(tfk,dlk,drk,itemfk),tfk为此次注视的时间戳;dlk为左瞳孔直径;drk为右瞳孔直径;itemfk为所注视的选项,若注视点不在任何产品上,则标记为“NULL”;按照处理瞳孔直径的一般方法,用左右瞳孔直径的平均值代表瞳孔直径值,即算得dfk=(dlk+drk)/2,将fk简化为三元组(tfk,dfk,itemfk),其中tfk为此次注视的时间戳;dfk为瞳孔直径;itemfk为所注视的选项;
点击流数据集C包含对点击时间与所点击选项的记录,ci是一个二元组(tci,itemci),tci为点击时间戳,itemci为所点击的产品,若点击位置不在任何产品上,则标记为“NULL”;
I-ii、计算用户平均决策时间与采样时长
将所有记录按时间戳逆序排列,然后计算从点击时间tci到用户每次开始进入界面的时间tui的差值,tci-tui即为用户的决策时间;为所有点击计算平均决策时间tM及标准差std;假设共有n次点击,则:
平均决策时间tM减去一倍标准差std即得到采样时长ts:
tS=tM-std
I-iii、对用户点击前时间ts内的注视信息与瞳孔直径信息进行采样
保留决策时间长于采样时间的数据,其余数据由于决策时间过短视为不能构成有效采样集而抛弃,即若tci-tui<ts,则删除在时间tui到tci之间生成的所有数据;保留的数据中,每次点击ci之后,一直到上一次点击ci-1之间的注视数据集{fi1,fi2,...,fin},与ci构成一个基本的采样单元:
si={fi1,fi2,fi3,...,fin,ci}
从点击前最后一个注视记录开始,以采样间隔tI对si采样50个点:
其中tI=ts/50
得到新的基本采样单元:
si′={fi1,fi2,fi3,...,fi50,ci}
假设共有m个基本采样单元,则由所有si′构成的采样数据集S′用m*51的矩阵表示为:
其中矩阵第51列为点击信息,前50列中的每列fj为对所有有效数据,距离选择前最后一行注视记录tI×0,tI×1,…,tI×(j-1),…,tI×49采样,得到的注视信息;
I-iv、采样注视信息;对用户的注视情况进行标记,得到由flagij={“0”,“1”,“Null”}组成的注视矩阵Sf;具体步骤为:
对比S′中每一行中fij的itemfij与ci的itemci,若itemfij=“NULL”则表示用户的注视点没有停留在任何目标选项上,标记flagij=“NULL”;在itemfij不为“NULL”的情况下,若itemfij=itemci,则表示此时用户的注视点停留在最终用户选择的选项上,标记flagij=“1”;若itemfij≠itemci,则表示此时用户的注视点停留在其他选项上,标记flagij=“0”;
则所有fij对应的flagij构成了m×50的注视矩阵Sf;其中,m为基本采样单元的数目,50为采样点的数目,矩阵元素为“0”“1”“Null”三种组成,以下为一个注视矩阵:
I-V、采样瞳孔直径信息,得到瞳孔直径矩阵;提取S′中,每个fij的dfij的值,假设有m个基本采样数据单元,则所有fij对应的dfij构成了m×50的瞳孔直径矩阵Sd:
I-VI、生成注视数组;
注视数组Af中的元素Vfj的值等于注视矩阵每列中“1”所占的比例,将注视矩阵Sf中各列的“1”累加,并除以基本采样单元的数目m,得到注视矩阵各列中“1”所占的比例,即:
可知Vfj为注视矩阵各列中“1”所占的比例,即距离选择时间tI×0,tI×1,…,tI×(j-1),…,tI×49,所得到用户正在注视最终选择项的比例;所有50个Vfj的集合构成的注视点数组Af=[Vf1,Vf2,…,Vfj,…,Vf50];
I-VII、生成瞳孔直径数组;
瞳孔直径数组中各元素Vdj为瞳孔矩阵每列的平均值,即:
所有50个Vdj的集合构成瞳孔直径数组Ad=[Vd1,Vd2,…,Vdj,…,Vd50];由于实质上是在同一采样时间分别取注视信息与瞳孔直径信息,所以在注视数组与瞳孔直径数组中各对应的Vfj与Vdj的时间完全重合;
II、视觉决策曲线拟合与运用阶段
根据注视点数组与瞳孔直径数组生成拟合函数,并计算触发阈值;
II-i、横坐标为采样时间点,即tI×(j-1),纵坐标为最终选择项被注视的比例Vfj对数组Af=[Vf1,Vf2,…,Vfj,…,Vf50]进行拟合,得到视觉决策注视拟合曲线;要求拟合度R2>0.85,否则继续匹配其他曲线;
II-ii、横坐标为采样时间点,即tI×(j-1),纵坐标为平均瞳孔直径Vdj,对数组Ad=[Vd1,Vd2,…,Vdj,…,Vd50]进行拟合,得到视觉决策瞳孔拟合曲线;要求拟合度R2>0.85,否则继续匹配其他曲线;
II-iii、计算注视比例阈值Vft与瞳孔直径阈值Vdt;为避免数据中奇异点的影响,取Vde=(Vd1+Vd2+Vd3)/3,Vds=(Vd50+Vd49+Vd48)/3,瞳孔直径触发阈值Vdt=Vde-(Vde-Vds)×3/4;取Vfe=(Vf1+Vf2+Vf3)/3;Vfs=(Vf50+Vf49+Vf48)/3;注视比例触发阈值Vft=Vfe-(Vfe-Vfs)×1/2;
II-iv、基于双阈值的选择触发;若用户的瞳孔直径的值连续三个点大于或等于阈值Vdt,则采样注视点信息,若在时间tI×10内,用户对某选项的凝视比例达到Vft,则视为用户想选择此选项。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110186552 CN102253714B (zh) | 2011-07-05 | 2011-07-05 | 基于视觉决策的选择触发方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110186552 CN102253714B (zh) | 2011-07-05 | 2011-07-05 | 基于视觉决策的选择触发方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102253714A true CN102253714A (zh) | 2011-11-23 |
CN102253714B CN102253714B (zh) | 2013-08-21 |
Family
ID=44981017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110186552 Expired - Fee Related CN102253714B (zh) | 2011-07-05 | 2011-07-05 | 基于视觉决策的选择触发方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102253714B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102957931A (zh) * | 2012-11-02 | 2013-03-06 | 京东方科技集团股份有限公司 | 一种3d显示的控制方法和装置、及视频眼镜 |
CN103473473A (zh) * | 2013-09-26 | 2013-12-25 | 深圳市华傲数据技术有限公司 | 一种基于散点图的数据质量检测方法及系统 |
CN104173063A (zh) * | 2014-09-01 | 2014-12-03 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
CN105393190A (zh) * | 2013-06-25 | 2016-03-09 | 微软技术许可有限责任公司 | 经由位置信号选择用户界面元素 |
CN103472915B (zh) * | 2013-08-30 | 2017-09-05 | 深圳Tcl新技术有限公司 | 基于瞳孔跟踪的阅读控制方法、阅读控制装置及显示设备 |
CN108992035A (zh) * | 2018-06-08 | 2018-12-14 | 云南大学 | 一种眼动追踪中注视点位置偏移的补偿方法 |
CN109189222A (zh) * | 2018-08-28 | 2019-01-11 | 广东工业大学 | 一种基于检测瞳孔直径变化的人机交互方法及装置 |
CN111292548A (zh) * | 2020-02-06 | 2020-06-16 | 温州大学 | 一种基于视觉注意力的安全驾驶方法 |
CN111938672A (zh) * | 2020-08-20 | 2020-11-17 | 京东方科技集团股份有限公司 | 基于虚拟现实环境的视觉特性检测方法及相关设备 |
CN113591550A (zh) * | 2021-06-17 | 2021-11-02 | 湖南大学 | 一种基于瞳孔变化的个人喜好自动检测模型构建方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030216763A1 (en) * | 2002-05-14 | 2003-11-20 | Patel Anilbhai S. | Method of determining the visual axis of an eye |
CN101477689A (zh) * | 2009-01-16 | 2009-07-08 | 北京航空航天大学 | 一种基于自适应蚁群智能的空中机器人视觉分层匹配方法 |
CN101504771A (zh) * | 2009-03-20 | 2009-08-12 | 北京航空航天大学 | 一种非参数化模型的视觉跟踪方法 |
-
2011
- 2011-07-05 CN CN 201110186552 patent/CN102253714B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030216763A1 (en) * | 2002-05-14 | 2003-11-20 | Patel Anilbhai S. | Method of determining the visual axis of an eye |
CN101477689A (zh) * | 2009-01-16 | 2009-07-08 | 北京航空航天大学 | 一种基于自适应蚁群智能的空中机器人视觉分层匹配方法 |
CN101504771A (zh) * | 2009-03-20 | 2009-08-12 | 北京航空航天大学 | 一种非参数化模型的视觉跟踪方法 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102957931A (zh) * | 2012-11-02 | 2013-03-06 | 京东方科技集团股份有限公司 | 一种3d显示的控制方法和装置、及视频眼镜 |
US10025378B2 (en) | 2013-06-25 | 2018-07-17 | Microsoft Technology Licensing, Llc | Selecting user interface elements via position signal |
CN105393190B (zh) * | 2013-06-25 | 2018-12-07 | 微软技术许可有限责任公司 | 经由位置信号选择用户界面元素 |
CN105393190A (zh) * | 2013-06-25 | 2016-03-09 | 微软技术许可有限责任公司 | 经由位置信号选择用户界面元素 |
CN103472915B (zh) * | 2013-08-30 | 2017-09-05 | 深圳Tcl新技术有限公司 | 基于瞳孔跟踪的阅读控制方法、阅读控制装置及显示设备 |
CN103473473B (zh) * | 2013-09-26 | 2018-03-02 | 深圳市华傲数据技术有限公司 | 一种基于散点图的数据质量检测方法及系统 |
CN103473473A (zh) * | 2013-09-26 | 2013-12-25 | 深圳市华傲数据技术有限公司 | 一种基于散点图的数据质量检测方法及系统 |
WO2016033950A1 (zh) * | 2014-09-01 | 2016-03-10 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
CN104173063B (zh) * | 2014-09-01 | 2015-08-12 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
CN104173063A (zh) * | 2014-09-01 | 2014-12-03 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
CN108992035A (zh) * | 2018-06-08 | 2018-12-14 | 云南大学 | 一种眼动追踪中注视点位置偏移的补偿方法 |
CN109189222A (zh) * | 2018-08-28 | 2019-01-11 | 广东工业大学 | 一种基于检测瞳孔直径变化的人机交互方法及装置 |
CN111292548A (zh) * | 2020-02-06 | 2020-06-16 | 温州大学 | 一种基于视觉注意力的安全驾驶方法 |
CN111292548B (zh) * | 2020-02-06 | 2021-02-05 | 温州大学 | 一种基于视觉注意力的安全驾驶方法 |
CN111938672A (zh) * | 2020-08-20 | 2020-11-17 | 京东方科技集团股份有限公司 | 基于虚拟现实环境的视觉特性检测方法及相关设备 |
CN111938672B (zh) * | 2020-08-20 | 2024-01-23 | 京东方科技集团股份有限公司 | 基于虚拟现实环境的视觉特性检测方法及相关设备 |
CN113591550A (zh) * | 2021-06-17 | 2021-11-02 | 湖南大学 | 一种基于瞳孔变化的个人喜好自动检测模型构建方法、装置、设备及介质 |
CN113591550B (zh) * | 2021-06-17 | 2024-03-26 | 湖南大学 | 一种个人喜好自动检测模型构建方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN102253714B (zh) | 2013-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102253714B (zh) | 基于视觉决策的选择触发方法 | |
US11199939B2 (en) | Evaluation of interactions with a user interface | |
CN105404700B (zh) | 一种基于协同过滤的视频栏目推荐系统及推荐方法 | |
Pinet et al. | Measuring sequences of keystrokes with jsPsych: Reliability of response times and interkeystroke intervals | |
US11132733B2 (en) | Personalized recommendations for unidentified users based on web browsing context | |
US20160307210A1 (en) | Recommending User Actions Based on Collective Intelligence for a Multi-Tenant Data Analysis System | |
KR20160031490A (ko) | 스프레드시트 동작에 기초하여 crm 데이터를 제어하는 기법 | |
US20130091013A1 (en) | Presenting Targeted Social Advertisements | |
US20150113451A1 (en) | Creation of widgets based on a current data context | |
WO2014182585A1 (en) | Recommending context based actions for data visualizations | |
EP2801898B1 (en) | Quick Time-Related Data Entry | |
EP2774105A1 (en) | Integrating usage information with operation of a system | |
Hertzum et al. | The effect of target precuing on pointing with mouse and touchpad | |
Arshad et al. | Investigating user confidence for uncertainty presentation in predictive decision making | |
EP3087555A2 (en) | Notification engine | |
CN103020277B (zh) | 一种搜索项建议方法和装置 | |
CN110941766B (zh) | 一种信息推送的方法、装置、计算机设备及存储介质 | |
US20170228700A1 (en) | Information providing system and method | |
CA3137733A1 (en) | Electronic devices and methods for self-affirmation and development of purposeful behavior | |
Ono et al. | The role of dendritic cells and macrophages in the skin immunity. | |
Turner et al. | Recent trends and structural breaks in the US and EU15 labour productivity growth | |
US20220365861A1 (en) | Automated actions based on ranked work events | |
Noriega et al. | The dynamics of persistence in US inflation | |
Lymperopoulos | Dynamic response and transfer function of social systems: A neuro-inspired model of collective human activity patterns | |
André et al. | Evaluating the effectiveness of visualizations for comparing energy usage data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130821 Termination date: 20140705 |
|
EXPY | Termination of patent right or utility model |