CN104463916B - 基于随机游走的眼动注视点测定方法 - Google Patents

基于随机游走的眼动注视点测定方法 Download PDF

Info

Publication number
CN104463916B
CN104463916B CN201410855892.3A CN201410855892A CN104463916B CN 104463916 B CN104463916 B CN 104463916B CN 201410855892 A CN201410855892 A CN 201410855892A CN 104463916 B CN104463916 B CN 104463916B
Authority
CN
China
Prior art keywords
point
tracing
density
fixation
follows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410855892.3A
Other languages
English (en)
Other versions
CN104463916A (zh
Inventor
陈震中
陈秀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201410855892.3A priority Critical patent/CN104463916B/zh
Publication of CN104463916A publication Critical patent/CN104463916A/zh
Application granted granted Critical
Publication of CN104463916B publication Critical patent/CN104463916B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Abstract

本发明提供一种基于随机游走的眼动注视点测定方法,包括轨迹点分类阶段和轨迹点聚类阶段,所述轨迹点分类阶段输入测试图片的眼动轨迹点数据,将其中属于注视点的各轨迹点分到不同的类别中;所述轨迹点聚类阶段包括对每个类别分别执行,计算输入的各轨迹点之间的欧式距离构成距离矩阵,计算概率分布矩阵,统计每个点的累计关注时间密度,代入随机游走模型,迭代得到收敛的权重向量,从而计算注视点中心位置。本发明生成的聚类中心与用户关注中心更加拟合;本发明提出的基于随机游走的眼动注视点测定的方法,综合考虑了时间和空间因素,结果更精确。

Description

基于随机游走的眼动注视点测定方法
技术领域
本发明涉及眼动数据分析领域和视觉感知领域,具体涉及一种基于随机游走的眼动注视点测定方法。
背景技术
眼动仪以固定的频率来记录用户关注视觉信息时的图像坐标,广泛用于视觉感知、心理等领域的研究。近年来,随着眼动仪技术的不断发展,眼动数据分析变得尤为重要,分析注视点和眼跳点的关系理论发展迅速,为了寻找用户眼动过程中的注视中心,在眼动数据处理时,需要提出更好的聚类方法。
理论上,基于各种分割方法获得的数据点,应当有比均值更好的注视中心点,能够更好地体现人眼的关注位置。在研究注视点和眼跳点的关系理论时,为了区分两者,研究者已经提出了基于速度阈值的分割方法(I-VT)、基于密度阈值的分割方法(I-DT)、基于兴趣点区域的分割方法(I-AOI)等。I-VT根据轨迹点的速度阈值进行分割、I-DT根据移动窗口内的密度阈值进行分割、I-AOI根据指定的兴趣区域来分割。处理注视点数据时,往往需要找到一个合理的聚类中心来表征该类数据的关注中心。在眼动数据处理中的聚类方法领域中,传统的聚类方法一般以质心作为最佳的眼动注视中心点,这种方法不能很好的顾及密度信息,当某类轨迹点中有较多徘徊数据时,生成的注视中心会偏离用户最关注的区域,这种方法对噪声的敏感度高。
发明内容
本发明的目的在于针对传统眼动轨迹的注视点测定方法的不足,提出一种基于随机游走的眼动注视点测定方法。
为达到上述目的,本发明提供的技术方案提供一种基于随机游走的眼动注视点测定方法,包括轨迹点分类阶段和轨迹点聚类阶段,
所述轨迹点分类阶段包括以下子步骤,
步骤1.1,输入测试图片的眼动轨迹点数据;
步骤1.2,根据步骤1.1输入的眼动轨迹点数据,对其中属于注视点的各轨迹点进行分类,实现如下,
步骤1.2.1,根据步骤1.1输入的眼动轨迹点数据,计算每个轨迹点的速度Velocity;
步骤1.2.2,根据预先设置的阈值Threshold_V,将速度大于阈值的轨迹点设置为相应标签fixation,表示注视点,速度小于阈值的轨迹点设置相应标签为saccade,表示眼跳点;
步骤1.2.3,将时间上连续的标签为fixation的轨迹点归为同一类,得到若干类别,将标签为saccade的轨迹点全部舍弃;
所述轨迹点聚类阶段包括对每个类别分别执行以下子步骤,
步骤2.1,输入一类轨迹点的数据,设该类别所包含轨迹点的个数为n,初始化当前迭代次数t=0;
步骤2.2,计算输入的各轨迹点之间的欧式距离,构成距离矩阵Dist,设输入的各轨迹点中第i个点和第j个点之间的距离为Dist(i,j),公式如下,
其中,(xi,yi)表示第i个点的图像平面坐标位置,(xj,yj)表示第j个点的图像平面坐标位置,i的取值为1,2,…,n,j的取值为1,2,…,n;
步骤2.3,基于步骤2.2所得的距离矩阵Dist计算概率分布矩阵Q,其中每个元素q(i,j)表示第i个点与第j个点之间的连通系数,定义如下,
其中,Dist(i,k)为第i个点和第k个点之间的距离,k的取值为1,2,…,n;σ是预设的游走系数,e为自然常数;
步骤2.4,基于步骤2.2所得的距离矩阵Dist统计每个点半径r内的累计关注时间密度Densityr(i),r为预设的密度半径;
然后,轨迹点i的初始化权重w(i)计算如下,
式中,Eensityr(i)表示第i个点的密度;
步骤2.5,将以上步骤所得的参数w(i)代入随机游走模型,模型定义如下,
式中,lt(i)表示第i个点在第t次迭代过程中的权重值,l(t+1)(i)表示第i个点在第t+1次迭代过程中的权重值,初始值l0(0)=w(i),lt(j)表示第j个点在第t次迭代过程中的权重值,初始值l0(j)=w(j);q(j,i)是概率分布矩阵Q中的元素,表示第j个点与第i个点之间的连通系数;α为一个自适应常数;η为归一化常数因子,定义如下,
当输入的各轨迹点都满足|l(t+1)(i)-lt(i)|<T时,停止迭代,得到收敛的权重向量lT=l(t+1),l(t+1)为第t+1次的权重向量,进入步骤2.6,其中T为预设的收敛阈值;否则对各轨迹点的权重值更新,令t=t+1,返回步骤2.5计算下一次迭代中的各点权重值l(t+1)(i);
步骤2.6,基于步骤2.5所得的权重向量lT,计算注视点中心位置,定义如下,
所得为所求类别的注视中心点的坐标位置,lT(i)是权重向量lT中第i个点相应的权重值,记录所得注视中心点的坐标位置、该类别第一个点的采集时刻和第一个点至最后一个点的总停留时间。
而且,步骤2.5中,将随机游走模型转化成矩阵进行计算,矩阵形式如下,
Λ=diag(1-(1-α)lt)
η=||ltΛQ+w(I-Λ)||1
式中,向量lt和w分别表示n个点第t次的权重、初始权重;diag(.)表示将向量转化为对角阵;||.||1表示向量元素的绝对值之和;I是n阶单位阵;Λ表示n阶对角阵;η为归一化常数因子。
而且,步骤2.4中,统计每个点半径r内的累计关注时间密度Densityr(i)如下,
计算第i个点周围r半径内的点的停留时间之和如下,
式中,dj是第j个点的停留时间。
或者,步骤2.4中,统计每个点半径r内的累计关注时间密度Densityr(i)如下,
计算第i个点周围在r半径内的点的个数如下,
Densityr(i)={#(j)|Dist(i,j)≤r}
式中,#(j)表示符合条件的点的个数。
本发明与现有技术相比具有以下优点:
1.本发明中生成的聚类中心与用户关注中心更加切合;
2.本发明提出的基于随机游走的眼动注视点的测定方法综合考虑了时间密度和空间密度,结果更精确。
附图说明
图1为本发明实施例的轨迹点示意图。
具体实施方式
本发明首先将输入的眼动轨迹点数据进行分类,针对同一类轨迹点,同类别的点作为一张图上的节点,利用随机游走模型来预测不同节点之间的潜在关系。首先计算每个节点游走到周围点的概率,构成概率分布矩阵;并计算每个点及其邻域一定范围内的累计关注时间,构成密度向量;最后,进入随机游走迭代计算过程,寻找收敛权重值,获取聚类的中心位置。
本发明技术方案可采用计算机软件方式支持自动运行流程。以下结合实施例和附图详细说明本发明技术方案。
实施例包括轨迹点分类阶段和轨迹点聚类阶段。
轨迹点分类阶段采用基于I-VT的方法,首先计算每个轨迹点的速度,依据预先设置的速度阈值来划分注视点和眼跳点;然后将连续的注视点分为同一类,抛弃眼跳点,具体的步骤为:
步骤1.1,输入测试图片的眼动轨迹点数据,参见图1,需要从大量轨迹点中找到注视中心。眼动轨迹点数据中每个轨迹点的特征参数可采用<x,y,t,d>的形式,包括平面坐标位置x和y、记录时刻t、停留时间d,具体实施时,可以将连续采集到的相同位置的点合并为同一点,此时每个点的参数<x,y,t,d>中的第四个参数不相同,也可以等间隔采集眼动轨迹点数据、并且连续采集到的相同位置的点不合并,每个点的参数<x,y,t,d>中的第四个参数值相同,均为采集间隔时长。这两种方式的实现是类似的,实施例中所采用的眼动轨迹点数据是等时间间隔采集的,即采用第二种方式,每隔一定时间采集一个轨迹点。
本发明的各参数可由本领域技术人员自行预先,实施例预先设定为:
速度阈值Threshold_V=50;
密度半径r=20;
游走系数σ=0.05;
自适应常数α=0.9;
收敛阈值T=0.005。
步骤1.2,根据步骤1.1输入的眼动轨迹点数据,对其中属于注视点的各轨迹点进行分类,;
步骤1.2.1,根据步骤1.1输入的眼动轨迹点数据,计算每个轨迹点的速度Velocity;
步骤1.2.2,,根据预先设置的阈值Threshold_V,
将速度大于阈值的轨迹点设置为相应标签fixation,表示注视点;
将速度小于阈值的轨迹点设置相应标签为saccade,表示眼跳点;
步骤1.2.3,,将时间上连续的标签为fixation的轨迹点归为同一类,得到若干类,每类中时间上连续的轨迹点构成一条眼动轨迹,将标签为saccade的轨迹点全部舍弃。
可得到多类眼动轨迹数据,轨迹点聚类阶段,利用轨迹点分类阶段所得的各类轨迹点数据,基于随机游走模型,计算获取该类轨迹点的注视中心及其特征参数。
轨迹点聚类阶段包括对每个类别分别执行以下子步骤,
步骤2.1,输入一类轨迹点的数据,设该类别所包含轨迹点的个数为n,各点可按采集时间的先后顺序依次排列,初始化当前迭代次数t=0。
步骤2.2,计算输入的各轨迹点之间的欧式距离,构成距离矩阵Dist,设输入的各轨迹点中第i个点和第j个点之间的距离为Dist(i,j),公式如下,
其中,(xi,yi)表示第i个点的图像平面坐标位置,(xj,yj)表示第j个点的图像平面坐标位置,i的取值为1,2,…,n,j的取值为1,2,…,n。
步骤2.3,基于步骤2.2所得的距离矩阵Dist计算概率分布矩阵Q,其中每个元素q(i,j)表示第i个点与第j个点之间的连通系数,定义如下,
其中,Dist(i,k)为第i个点和第k个点之间的距离,k的取值为1,2,…,n;预设的游走系数σ用来调节概率曲线的形状,σ越小,距离越远的点的连通概率所占比重越小;e为自然常数。
步骤2.4,基于步骤2.2所得的距离矩阵Dist统计每个点i半径r内的累计关注时间密度Densityr(i),点i是第i个点的简称,可用于标识类别中任意点。r为预设的密度半径。
所得轨迹点的密度Densityr(i)有两种量度,
第一种适应于第一种方式采集的轨迹点,为第i个点周围r半径内的点的停留时间之和,计算方法如下式,
式中,dj是第j个点的特征参数<x,y,t,d>中的第四个参数,表示停留时间。
第二种情况适应于第二种方式采集的轨迹点,将第i个点周围r半径内的点的个数记为密度,计算方法如下式,
Densityr(i)={#(j)|Dist(i,j)≤r}
式中,#(j)表示符合条件的点的个数。
实施例中所采用的眼动轨迹点数据是等间隔采集的,故适用第二种方法,将轨迹点i周围r半径内的采样点的个数记为密度。最后,所有n个轨迹点的密度构成密度向量,任意轨迹点i的密度Eensityr(i)是密度向量Densityr中的第i个元素。对所得到的密度向量做归一化处理,得到轨迹点的初始化权重向量w,轨迹点i的初始化权重w(i)是初始化权重向量w中第i个元素,计算方法如下,
式中,Densityr(i)表示第i个点的密度。
步骤2.5,将以上步骤所得的参数w(i)代入随机游走模型,模型定义如下,
式中,lt(i)表示第i个点在第t次迭代过程中的权重值,l(t+1)(i)表示第i个点在第t+1次迭代过程中的权重值,初始值l0(i)=w(i),lt(j)表示第j个点在第t次迭代过程中的权重值,初始值l0(j)=w(j),即任意点j的初始权值l0(j)是对应轨迹点j的初始化权重w(j);q(j,i)是概率分布矩阵Q中的元素,表示第j个点与第i个点之间的连通系数;α为一个自适应常数,通常设置为0.8~1之间;η为归一化常数因子,定义如下,
当|l(t+1)(i)-lt(i)|<T对任意i都成立时,停止迭代,得到收敛的权重向量lT=l(t+1),其中,T为预设的收敛阈值。以上随机游走模型可转化成矩阵进行计算,矩阵形式如下,
Λ=diag(1-(1-α)lt)
η=||ltΛQ+w(I-Λ)||1
式中,lt和w都是1×n维向量,分别表示n个点第t次的权重、初始权重;Q表示n×n维概率分布矩阵;diag(.)表示将向量转化为对角阵;||.||1表示向量元素的绝对值之和;I是n阶单位阵;Λ表示n阶对角阵;η为归一化常数因子。
按照计算所得n个点第t+1次的权重l(t+1)(i)组成的相应向量l(t+1),当|l(t+1)(i)-lt(i)|<T对任意i都成立时,停止迭代,得到收敛的权重向量lT=l(t+1),其中,T为收敛阈值,进入步骤2.6,否则对任意点i的权重值进行更新:lt(i)=l(t+1)(i),令t=t+1,返回步骤2.5计算下一次迭代中的各点权重值l(t+1)(i)。
步骤2.6,基于步骤2.5所得的权重向量lT,计算注视点中心位置,定义如下,
所得即为所求注视中心点的坐标位置,lT(i)是权重向量lT中第i个点相应的权重。,记录所得注视中心点的坐标位置、该类别第一个点的采集时刻和第一个点至最后一个点的总停留时间。
具体实施时,所求的注视点特征参数形式可采用表示该类点集中第一个点的采集时刻,表示第一个点至最后一个点的总停留时间。
对每个类别分别执行步骤2.1~2.6,即可获得每个类别的注视中心特征参数,完成眼动注视点测定。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或超越所附权利要求书所定义的范围。

Claims (4)

1.一种基于随机游走的眼动注视点测定方法,其特征在于:包括轨迹点分类阶段和轨迹点聚类阶段,
所述轨迹点分类阶段包括以下子步骤,
步骤1.1,输入测试图片的眼动轨迹点数据;
步骤1.2,根据步骤1.1输入的眼动轨迹点数据,对其中属于注视点的各轨迹点进行分类,实现如下,
步骤1.2.1,根据步骤1.1输入的眼动轨迹点数据,计算每个轨迹点的速度Velocity;
步骤1.2.2,根据预先设置的阈值Threshold_V,将速度大于阈值的轨迹点设置为相应标签fixation,表示注视点,速度小于阈值的轨迹点设置相应标签为saccade,表示眼跳点;
步骤1.2.3,将时间上连续的标签为fixation的轨迹点归为同一类,得到若干类别,将标签为saccade的轨迹点全部舍弃;
所述轨迹点聚类阶段包括对每个类别分别执行以下子步骤,
步骤2.1,输入一类轨迹点的数据,设该类别所包含轨迹点的个数为n,初始化当前迭代次数t=0;
步骤2.2,计算输入的各轨迹点之间的欧式距离,构成距离矩阵Dist,设输入的各轨迹点中第i个点和第j个点之间的距离为Dist(i,j),公式如下,
D i s t ( i , j ) = ( x i - x j ) 2 + ( y i - y j ) 2
其中,(xi,yi)表示第i个点的图像平面坐标位置,(xj,yj)表示第j个点的图像平面坐标位置,i的取值为1,2,…,n,j的取值为1,2,…,n;
步骤2.3,基于步骤2.2所得的距离矩阵Dist计算概率分布矩阵Q,其中每个元素q(i,j)表示第i个点与第j个点之间的连通系数,定义如下,
q ( i , j ) = e - &sigma; &times; D i s t ( i , j ) &Sigma; k = 1 n e - &sigma; &times; D i s t ( i , k )
其中,Dist(i,k)为第i个点和第k个点之间的距离,k的取值为1,2,…,n;σ是预设的游走系数,e为自然常数;
步骤2.4,基于步骤2.2所得的距离矩阵Dist统计每个点半径r内的累计关注时间密度Densityr(i),r为预设的密度半径;
然后,轨迹点i的初始化权重w(i)计算如下,
w ( i ) = Density r ( i ) &Sigma; j = 1 n Density r ( j )
式中,Densityr(i)表示第i个点的密度;
步骤2.5,将以上步骤所得的参数w(i)代入随机游走模型,模型定义如下,
l ( t + 1 ) ( i ) = 1 &eta; ( &Sigma; j = 1 n ( 1 - ( 1 - &alpha; ) l t ( i ) ) l t ( j ) q ( j , i ) + ( 1 - &alpha; ) l t ( t ) w ( i ) )
式中,lt(i)表示第i个点在第t次迭代过程中的权重值,l(t+1)(i)表示第i个点在第t+1次迭代过程中的权重值,初始值l0(i)=w(i),lt(j)表示第j个点在第t次迭代过程中的权重值,初始值l0(j)=w(j);q(j,i)是概率分布矩阵Q中的元素,表示第j个点与第i个点之间的连通系数;α为一个自适应常数;η为归一化常数因子,定义如下,
&eta; = &Sigma; i = 1 n ( &Sigma; j = 1 n ( 1 - ( 1 - &alpha; ) l t ( i ) ) l t ( j ) q ( j , i ) + ( 1 - &alpha; ) l t ( i ) w ( i ) )
当输入的各轨迹点都满足|l(t+1)(i)-lt(i)|<T时,停止迭代,得到收敛的权重向量lT=l(t+1),l(t+1)为第t+1次的权重向量,进入步骤2.6,其中T为预设的收敛阈值;否则对各轨迹点的权重值更新,令t=t+1,返回步骤2.5计算下一次迭代中的各点权重值l(t+1)(i);
步骤2.6,基于步骤2.5所得的权重向量lT,计算注视点中心位置,定义如下,
x ^ = &Sigma; i = 1 n x i l T ( i )
y ^ = &Sigma; i = 1 n y i l T ( i )
所得为所求类别的注视中心点的坐标位置,lT(i)是权重向量lT中第i个点相应的权重值,记录所得注视中心点的坐标位置、该类别第一个点的采集时刻和第一个点至最后一个点的总停留时间。
2.根据权利要求1所述基于随机游走的眼动注视点测定方法,其特征在于:步骤2.5中,将随机游走模型转化成矩阵进行计算,矩阵形式如下,
l ( t + 1 ) = 1 &eta; ( l t &Lambda; Q + w ( I - &Lambda; ) )
Λ=diag(1-(1-α)lt)
η=‖ltΛQ+w(I-Λ)‖1
式中,向量lt和w分别表示n个点第t次的权重、初始权重;diag(.)表示将向量转化为对角阵;‖.‖1表示向量元素的绝对值之和;I是n阶单位阵;Λ表示n阶对角阵;η为归一化常数因子。
3.根据权利要求1或2所述基于随机游走的眼动注视点测定方法,其特征在于:步骤2.4中,统计每个点半径r内的累计关注时间密度Densityr(i)如下,
计算第i个点周围r半径内的点的停留时间之和如下,
Density r ( i ) = { &Sigma; j = 1 n d j | D i s t ( i , j ) &le; r }
式中,dj是第j个点的停留时间。
4.根据权利要求1或2所述基于随机游走的眼动注视点测定方法,其特征在于:步骤2.4中,统计每个点半径r内的累计关注时间密度Densityr(i)如下,
计算第i个点周围在r半径内的点的个数如下,
Densityr(i)={#(j)|Dist(i,j)≤r}
式中,#(j)表示符合条件的点的个数。
CN201410855892.3A 2014-12-31 2014-12-31 基于随机游走的眼动注视点测定方法 Active CN104463916B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410855892.3A CN104463916B (zh) 2014-12-31 2014-12-31 基于随机游走的眼动注视点测定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410855892.3A CN104463916B (zh) 2014-12-31 2014-12-31 基于随机游走的眼动注视点测定方法

Publications (2)

Publication Number Publication Date
CN104463916A CN104463916A (zh) 2015-03-25
CN104463916B true CN104463916B (zh) 2017-04-12

Family

ID=52909898

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410855892.3A Active CN104463916B (zh) 2014-12-31 2014-12-31 基于随机游走的眼动注视点测定方法

Country Status (1)

Country Link
CN (1) CN104463916B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096615A (zh) * 2015-11-25 2016-11-09 北京邮电大学 一种基于随机游走的图像显著区域提取方法
CN109271027B (zh) * 2018-09-17 2022-10-14 北京旷视科技有限公司 页面控制方法、装置及电子设备
US10846876B2 (en) * 2018-11-02 2020-11-24 Yu-Sian Jiang Intended interest point detection method and system thereof
CN113326733B (zh) * 2021-04-26 2022-07-08 吉林大学 一种眼动点数据分类模型的构建方法及系统
CN114397964B (zh) * 2022-03-25 2022-07-01 首都师范大学 一种有效注视点检测方法、装置、电子设备及存储介质
CN117492573A (zh) * 2024-01-03 2024-02-02 广东工业大学 基于眼动数据的自动冻屏方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103903276A (zh) * 2014-04-23 2014-07-02 吉林大学 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5036814B2 (ja) * 2006-06-11 2012-09-26 ボルボ テクノロジー コーポレイション 視覚的関心場所の決定および分析のための方法および装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103903276A (zh) * 2014-04-23 2014-07-02 吉林大学 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
APPLICATION OF CLUSTERING ALGORITHMS IN EYE GAZE VISUALIZATIONS;Oleg &#352;pakov等;《INFORMATION TECHNOLOGY AND CONTROL》;20071231;第36卷(第2期);第213-216页 *
Dario D. Salvucci 等.Identifying fixations and saccades in eye-tracking protocols.《ETRA '00 Proceedings of the 2000 symposium on Eye tracking research & applications》.2000,第71-78页. *

Also Published As

Publication number Publication date
CN104463916A (zh) 2015-03-25

Similar Documents

Publication Publication Date Title
CN104463916B (zh) 基于随机游走的眼动注视点测定方法
CN105206041B (zh) 一种考虑时序dbscan的智能手机轨迹链簇识别方法
CN109697435A (zh) 人流量监测方法、装置、存储介质及设备
CN104751185B (zh) 基于均值漂移遗传聚类的sar图像变化检测方法
CN106127173A (zh) 一种基于深度学习的人体属性识别方法
CN105825511A (zh) 一种基于深度学习的图片背景清晰度检测方法
CN104572804A (zh) 一种视频物体检索的方法及其系统
CN104573706A (zh) 一种物体图像识别方法及其系统
CN106612495B (zh) 一种基于传播损耗学习的室内定位方法及系统
Revallo et al. A neural network Dst index model driven by input time histories of the solar wind–magnetosphere interaction
Li et al. Energy data generation with wasserstein deep convolutional generative adversarial networks
CN108447057A (zh) 基于显著性和深度卷积网络的sar图像变化检测方法
CN108802857A (zh) 一种基于气象数据的气象预报系统
CN114444378A (zh) 一种区域风电集群的短期功率预测方法
CN105787521A (zh) 一种面向标签不平衡性的半监督众包标注数据整合方法
CN110458022A (zh) 一种基于域适应的可自主学习目标检测方法
CN108897750A (zh) 融合多元上下文信息的个性化地点推荐方法及设备
CN109034238A (zh) 一种基于信息熵的聚类划分方法
CN109086667A (zh) 基于智能终端的相似活动识别方法
Priatna et al. Precipitation prediction using recurrent neural networks and long short-term memory
Tomoe et al. Long-term knowledge distillation of visual place classifiers
CN103605979A (zh) 一种基于形状片段的物体识别方法及系统
CN110378405A (zh) 基于迁移学习的Adaboost算法的高光谱遥感影像分类方法
Ni et al. Sports dance action recognition system oriented to human motion monitoring and sensing
Chen et al. Air-CSL: Chinese sign language recognition based on the commercial WiFi devices

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant