CN104700090A - 基于密度的眼动注视点测定方法及系统 - Google Patents
基于密度的眼动注视点测定方法及系统 Download PDFInfo
- Publication number
- CN104700090A CN104700090A CN201510134571.9A CN201510134571A CN104700090A CN 104700090 A CN104700090 A CN 104700090A CN 201510134571 A CN201510134571 A CN 201510134571A CN 104700090 A CN104700090 A CN 104700090A
- Authority
- CN
- China
- Prior art keywords
- point
- density
- tracing point
- tracing
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种基于密度的眼动注视点测定方法及系统,包括轨迹点分类阶段和轨迹点聚类阶段,所述轨迹点分类阶段输入测试图片的眼动轨迹点数据,将其中属于注视点的各轨迹点分到不同的类别中;所述轨迹点聚类阶段包括对每个类别分别执行,计算输入的各轨迹点之间的欧式距离构成距离矩阵,统计每个点的累计关注时间密度,确定密度等于最大密度值的轨迹点序号集,求密度为最大密度值的轨迹点集的质心,从而计算注视点中心位置。本发明生成的聚类中心与用户关注中心更加拟合,充分考虑了用户关注的侧重点,且简便高效,具有更高的抗干扰能力。
Description
技术领域
本发明涉及眼动数据分析领域和视觉感知领域,特别涉及一种基于密度的测定眼动注视点方法及系统。
背景技术
眼动仪用于记录人在处理视觉信息时的眼动轨迹特征,它以固定的频率记录用户关注视觉信息时的眼动信息,如观测时间,眼球位置,注视位置,瞳孔半径等数据。经过眼动数据分析,能够提取有关人在视觉信息提取过程中的生理和行为表现的重要信息,因此广泛用于心理学,电视商务,工业设计,广告,真实设备可用性等研究。近年来,随着眼动追踪技术的不断发展,眼动仪应用范围不断扩大。而在眼动仪的应用中,眼动数据分析尤为重要,分析注视点和眼跳点的关系理论在迅速发展中,其重点在于将眼动仪采集的数据区分为注视点和眼跳。
注视点和眼跳的分析需要将原始的眼动数据处理后在注视点所在的位置上可视化的显示,并要除去注视点之间的眼跳。
研究者已经提出了基于速度阈值的分割方法(I-VT)、基于密度阈值的分割方法(I-DT)、基于兴趣点区域的分割方法(I-AOI)等。I-VT根据轨迹点的速度阈值进行分割、I-DT根据移动窗口内的密度阈值进行分割、I-AOI根据指定的兴趣区域来分割。这些方法在分割注视点和眼跳点的同时,也会将注视点按其标准分割为不同的子类。我们需要找到一个合理的聚类中心来表征该子类数据的关注中心。在眼动数据处理中的聚类方法领域中,传统的聚类方法一般以质心作为最佳的眼动注视中心点,这种方法不能很好的顾及密度信息,当某类轨迹点中有较多徘徊数据时,生成的注视中心会偏离用户最关注的区域,这种方法对噪声的敏感度高。
原始眼动数据中的眼跳点对于实际研究中往往是没有用处的,另外,较小的眼球运动对于高层次眼动分析的也是无益的。为了更好的测定用户眼动过程的注视点,需要寻找更好的测定方法,以达到更好地去除原始眼动数据中的眼跳,与更好地寻找注视点中心。
发明内容
本发明的目的在于针对传统眼动轨迹的注视点测定方法的不足,提出一种基于密度的眼动注视点的测定技术方案。
为达到上述目的,本发明提供的技术方案为一种基于密度的眼动注视点测定方法,包括轨迹点分类阶段和轨迹点聚类阶段,
所述轨迹点分类阶段包括以下子步骤,
步骤1.1,输入测试图片的眼动轨迹点数据;
步骤1.2,根据步骤1.1输入的眼动轨迹点数据,对其中属于注视点的各轨迹点进行分类,实现如下,
步骤1.2.1,根据步骤1.1输入的眼动轨迹点数据,计算每个轨迹点的速度Velocity;
步骤1.2.2,根据预先设置的阈值Threshold_V,将速度大于阈值的轨迹点设置为相应标签fixation,速度小于阈值的轨迹点设置相应标签为saccade;
步骤1.2.3,将时间上连续的标签为fixation的轨迹点归为同一类,得到若干类别,将标签为saccade的轨迹点全部舍弃;
所述轨迹点聚类阶段包括对每个类别分别执行以下子步骤,
步骤2.1,输入一类轨迹点数据G={g1,g2,…,gn},其中gi为该类中第i个轨迹点,包含四个参数<x,y,t,d>,i的取值为1,2,…,n,n为该类别所包含轨迹点的个数;
步骤2.2,计算输入的各轨迹点之间的欧式距离,构成距离矩阵Dist,第i个点和第j个点之间的欧式距离为Dist(i,j),公式如下,
其中,(xi,yi)表示第i个点的图像平面坐标位置,(xj,yj)表示第j个点的图像平面坐标位置,序号i的取值为1,2,…,n,j的取值为1,2,…,n;
步骤2.3,基于步骤2.2所得的距离矩阵Dist统计每个轨迹点半径r内的累计关注时间密度,设第i个点的半径r内的累计关注时间密度记为Densityr(i);
步骤2.4,根据步骤2.3所得各个轨迹点半径r内的累计关注时间密度,确定最大密度值max(Densityr);
步骤2.5,确定密度等于最大密度值的轨迹点序号集d,得到密度等于最大密度值的轨迹点的数目N,设g1,g2,…,gn中密度等于最大密度值的轨迹点的序号记为d1,d2,…,dN,ds为d中第s个轨迹点,s的取值为1,2,…,N,
d={d1,d2,…,dN}
ds={ds∈N|Densityr(ds)=max(Densityr)}
步骤2.6,求密度为最大密度值的轨迹点集的质心如下,得到注视中心点,
其中,Pdensest为所求的注视中心点坐标,为该类别中序号为ds的轨迹点坐标。
而且,步骤2.3中,第i个点的半径r内的累计关注时间密度记为Densityr(i)统计方式为,计算第i个点周围半径r内的点的停留时间之和如下式,
其中,dj是第j个点的特征参数<x,y,t,d>中的第四个参数,表示停留时间。
或者,步骤2.3中,第i个点的半径r内的累计关注时间密度记为Densityr(i)统计方式为,将第i个点周围r半径内的点的个数记为密度如下式,
Densityr(i)={#(j)|Dist(i,j)≤r}
式中,#j表示符合条件的点的个数。
本发明还相应提供一种基于密度的眼动注视点测定系统,包括轨迹点分类单元和轨迹点聚类单元,
所述轨迹点分类单元包括以下模块,
数据输入模块,用于输入测试图片的眼动轨迹点数据;
分类模块,用于根据数据输入模块输入的眼动轨迹点数据,对其中属于注视点的各轨迹点进行分类,包括以下子模块,
速度计算子模块,用于根据数据输入模块输入的眼动轨迹点数据,计算每个轨迹点的速度Velocity;
标签设置子模块,用于根据预先设置的阈值Threshold_V,将速度大于阈值的轨迹点设置为相应标签fixation,速度小于阈值的轨迹点设置相应标签为saccade;
类别划分子模块,用于将时间上连续的标签为fixation的轨迹点归为同一类,得到若干类别,将标签为saccade的轨迹点全部舍弃;
所述轨迹点聚类单元包括对每个类别分别建立的以下模块,
轨迹点输入模块,用于输入一类轨迹点数据G={g1,g2,…,gn},其中gi为该类中第i个轨迹点,包含四个参数<x,y,t,d>,i的取值为1,2,…,n,n为该类别所包含轨迹点的个数;
距离计算模块,用于计算输入的各轨迹点之间的欧式距离,构成距离矩阵Dist,第i个点和第j个点之间的欧式距离为Dist(i,j),公式如下,
其中,(xi,yi)表示第i个点的图像平面坐标位置,(xj,yj)表示第j个点的图像平面坐标位置,序号i的取值为1,2,…,n,j的取值为1,2,…,n;
密度统计模块,用于基于距离计算模块所得的距离矩阵Dist统计每个轨迹点半径r内的累计关注时间密度,设第i个点的半径r内的累计关注时间密度记为Densityr(i);
最大密度确定模块,用于根据密度统计模块所得各个轨迹点半径r内的累计关注时间密度,确定最大密度值max(Densityr);
最大密度轨迹点提取模块,用于确定密度等于最大密度值的轨迹点序号集d,得到密度等于最大密度值的轨迹点的数目N,设g1,g2,…,gn中密度等于最大密度值的轨迹点的序号记为d1,d2,…,dN,ds为d中第s个轨迹点,s的取值为1,2,…,N,
d={d1,d2,…,dN}
ds={ds∈N|Densityr(ds)=max(Densityr)}
注视中心点确定模块,用于求密度为最大密度值的轨迹点集的质心如下,得到注视中心点,
其中,Pdensest为所求的注视中心点坐标,为该类别中序号为ds的轨迹点坐标。
而且,密度统计模块中,第i个点的半径r内的累计关注时间密度记为Densityr(i)统计方式为,计算第i个点周围半径r内的点的停留时间之和如下式,
其中,dj是第j个点的特征参数<x,y,t,d>中的第四个参数,表示停留时间。
或者,密度统计模块中,第i个点的半径r内的累计关注时间密度记为Densityr(i)统计方式为,将第i个点周围r半径内的点的个数记为密度如下式,
Densityr(i)={#(j)|Dist(i,j)≤r}
其中,#j表示符合条件的点的个数。
本发明与现有技术相比具有以下优点:
1.本发明中生成的聚类中心与用户关注中心更加切合;
2.本发明提出的基于密度的眼动注视点的测定技术方案充分考虑了用户关注的侧重点。
3.本发明提出的基于密度的眼动注视点的测定技术方案简便高效;
4.本发明提出的基于密度的眼动注视点的测定技术方案具有更高的抗干扰能力。
附图说明
图1为本发明的轨迹点示意图;
图2为本发明实施例采集的原始眼动数据示意图;
图3为本发明实施例的轨迹点分类阶段结果示意图;
图4为本发明实施例的轨迹点聚类阶段结果示意图。
具体实施方式
本发明首先将输入的眼动轨迹数据进行分类,针对同一子类轨迹点,以该子类中密度值最大的点的质心作为聚类的中心位置。
本发明技术方案可采用计算机软件方式支持自动运行流程。以下结合实施例详细说明本发明技术方案。
实施例包括轨迹点分类阶段和轨迹点聚类阶段。
轨迹点分类阶段采用基于I-VT的方法,首先计算每个轨迹点的速度,依据预先设置的速度阈值来划分注视点和眼跳点;然后将连续的注视点分为同一类,抛弃眼跳点,具体的步骤为:
步骤1.1,输入测试图片的眼动轨迹点数据,参见图1,圆圈为轨迹点,实心三角形为均值中心,实心正方形为密度最大处。需要从大量轨迹点中找到注视中心。每个轨迹点的特征参数形如<x,y,t,d>,包括平面坐标位置x和y、记录时刻t、停留时间d,具体实施时,可以将连续采集到的相同位置的点合并为同一点,此时每个点的参数<x,y,t,d>中的第四个参数不相同,也可以等间隔采集眼动轨迹点数据、并且连续采集到的相同位置的点不合并,每个点的参数<x,y,t,d>中的第四个参数值相同,均为采集间隔时长。这两种方式的实现是类似的,实施例中所采用的眼动轨迹点数据是等时间间隔采集的,即采用第二种方式,每隔一定时间采集一个轨迹点,
具体实施时,本发明的各参数可由本领域技术人员自行预先,实施例预先设定为:
速度阈值Threshold_V=50;
密度半径r=20;
步骤1.2,根据步骤1.1输入的眼动轨迹点数据,将其分到不同的类别中;
步骤a,根据步骤1.1输入的眼动轨迹点数据,计算每点的速度Velocity;
步骤b,根据预先设置的阈值Threshold_V,将速度大于阈值的点设置相应标签为fixation,表示初步分类得到的注视点,速度小于阈值的点设置相应标签为saccade,表示眼跳点;
步骤c,将时间上连续的标签为fixation的轨迹点归为同一类,将标签为saccade的轨迹点全部舍弃。
可得到多类眼动轨迹数据,轨迹点聚类阶段,利用轨迹点分类阶段所得的每类轨迹点数据,基于密度方法,计算获取该类轨迹点的注视中心及其特征参数。
轨迹点聚类阶段包括对每个类别分别执行以下子步骤,
步骤2.1,输入一类轨迹点数据:G={g1,g2,…,gn},其中gi为该类中第i个轨迹点,包含四个参数<x,y,t,d>,i的取值为1,2,…,n,n为该类别所包含轨迹点的个数;
步骤2.2,计算输入的各轨迹点之间的欧式距离,构成距离矩阵Dist,其中第i个点和第j个点之间的欧式距离为Dist(i,j),公式如下,
其中,(xi,yi)表示第i个点的图像平面坐标位置,(xj,yj)表示第j个点的图像平面坐标位置,序号i的取值为1,2,…,n,j的取值为1,2,…,n。
步骤2.3,基于步骤2.2所得的距离矩阵Dist统计每个轨迹点半径r内的累计关注时间密度,设第i个点的半径r内的累计关注时间密度记为Densityr(i)。
所得轨迹点的密度Densityr(i)有两种量度,
第一种适应于第一种方式采集的轨迹点,为第i个点周围r半径内的点的停留时间之和,计算方法如下式,
式中,dj是第j个点的特征参数<x,y,t,d>中的第四个参数,表示停留时间;
第二种情况适应于第二种方式采集的轨迹点,将第i个点周围r半径内的点的个数记为密度,计算方法如下式,
Densityr(i)={#(j)|Dist(i,j)≤r}
其中,#j表示符合条件的点的个数;
实施例中所采用的眼动轨迹点数据是等间隔采集的,故适用第二种方法,将轨迹点i周围r半径内的采样点的个数记为密度。最后,所有n个轨迹点的密度构成密度向量,任意轨迹点i的密度Densityr(i)是密度向量Densityr中的第i个元素。
步骤2.4,确定最大密度值max(Densityr),即根据Densityr(i),i=1,2,…,n,从中取最大值作为max(Densityr)。
步骤2.5,确定密度等于最大密度值的轨迹点序号集d,及密度等于最大密度值的轨迹点的数目N。设g1,g2,…,gn中密度等于最大密度值的轨迹点的序号记为d1,d2,…,dN,ds为d中第s个轨迹点,s的取值为1,2,…,N。
d={d1,d2,…,dN}
ds={ds∈N|Densityr(ds)=max(Densityr)}
确定密度等于最大密度值的轨迹点序号集d即可得到相应的轨迹点集。
步骤2.6,求密度为最大密度值的轨迹点集的质心
其中,Pdensest即为所求的注视中心点坐标,为该类别中序号为ds的轨迹点坐标。
对每个类别分别执行步骤2.1~2.6,即可获得每个类别的注视中心。
参见图2、图3、图4,应用本发明实施例所提供流程,图2中黑色圆圈为采集的原始眼动数据,图3为使用I-VT方法,去除原始眼动数据的眼跳点后结果,图4中实心正方形为使用本发明实施例流程确定的注视点中心,实心三角形为注视点均值中心。
具体实施时,还可以采用系统方式实现。本发明提供一种基于密度的眼动注视点测定系统,包括轨迹点分类单元和轨迹点聚类单元,
所述轨迹点分类单元包括以下模块,
数据输入模块,用于输入测试图片的眼动轨迹点数据;
分类模块,用于根据数据输入模块输入的眼动轨迹点数据,对其中属于注视点的各轨迹点进行分类,包括以下子模块,
速度计算子模块,用于根据数据输入模块输入的眼动轨迹点数据,计算每个轨迹点的速度Velocity;
标签设置子模块,用于根据预先设置的阈值Threshold_V,将速度大于阈值的轨迹点设置为相应标签fixation,速度小于阈值的轨迹点设置相应标签为saccade;
类别划分子模块,用于将时间上连续的标签为fixation的轨迹点归为同一类,得到若干类别,将标签为saccade的轨迹点全部舍弃;
所述轨迹点聚类单元包括对每个类别分别建立的以下模块,
轨迹点输入模块,用于输入一类轨迹点数据G={g1,g2,…,gn},其中gi为该类中第i个轨迹点,包含四个参数<x,y,t,d>,i的取值为1,2,…,n,n为该类别所包含轨迹点的个数;
距离计算模块,用于计算输入的各轨迹点之间的欧式距离,构成距离矩阵Dist,第i个点和第j个点之间的欧式距离为Dist(i,j),公式如下,
其中,(xi,yi)表示第i个点的图像平面坐标位置,(xj,yj)表示第j个点的图像平面坐标位置,序号i的取值为1,2,…,n,j的取值为1,2,…,n;
密度统计模块,用于基于距离计算模块所得的距离矩阵Dist统计每个轨迹点半径r内的累计关注时间密度,设第i个点的半径r内的累计关注时间密度记为Densityr(i);
最大密度确定模块,用于根据密度统计模块所得各个轨迹点半径r内的累计关注时间密度,确定最大密度值max(Densityr);
最大密度轨迹点提取模块,用于确定密度等于最大密度值的轨迹点序号集d,得到密度等于最大密度值的轨迹点的数目N,设g1,g2,…,gn中密度等于最大密度值的轨迹点的序号记为d1,d2,…,dN,ds为d中第s个轨迹点,s的取值为1,2,…,N,
d={d1,d2,…,dN}
ds={ds∈N|Densityr(ds)=max(Densityr)}
注视中心点确定模块,用于求密度为最大密度值的轨迹点集的质心如下,得到注视中心点,
其中,Pdensest为所求的注视中心点坐标,为该类别中序号为ds的轨迹点坐标。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或超越所附权利要求书所定义的范围。
Claims (6)
1.一种基于密度的眼动注视点测定方法,其特征在于:包括轨迹点分类阶段和轨迹点聚类阶段,
所述轨迹点分类阶段包括以下子步骤,
步骤1.1,输入测试图片的眼动轨迹点数据;
步骤1.2,根据步骤1.1输入的眼动轨迹点数据,对其中属于注视点的各轨迹点进行分类,实现如下,
步骤1.2.1,根据步骤1.1输入的眼动轨迹点数据,计算每个轨迹点的速度Velocity;
步骤1.2.2,根据预先设置的阈值Threshold_V,将速度大于阈值的轨迹点设置为相应标签fixation,速度小于阈值的轨迹点设置相应标签为saccade;
步骤1.2.3,将时间上连续的标签为fixation的轨迹点归为同一类,得到若干类别,将标签为saccade的轨迹点全部舍弃;
所述轨迹点聚类阶段包括对每个类别分别执行以下子步骤,
步骤2.1,输入一类轨迹点数据G={g1,g2,...,gn},其中gi为该类中第i个轨迹点,包含四个参数<x,y,t,d>,i的取值为1,2,…,n,n为该类别所包含轨迹点的个数;
步骤2.2,计算输入的各轨迹点之间的欧式距离,构成距离矩阵Dist,第i个点和第j个点之间的欧式距离为Dist(i,j),公式如下,
其中,(xi,yi)表示第i个点的图像平面坐标位置,(xj,yj)表示第j个点的图像平面坐标位置,序号i的取值为1,2,…,n,j的取值为1,2,…,n;
步骤2.3,基于步骤2.2所得的距离矩阵Dist统计每个轨迹点半径r内的累计关注时间密度,设第i个点的半径r内的累计关注时间密度记为Densityr(i);
步骤2.4,根据步骤2.3所得各个轨迹点半径r内的累计关注时间密度,确定最大密度值max(Densityr);
步骤2.5,确定密度等于最大密度值的轨迹点序号集d,得到密度等于最大密度值的轨迹点的数目N,设g1,g2,…,gn中密度等于最大密度值的轨迹点的序号记为d1,d2,…,dN,ds为d中第s个轨迹点,s的取值为1,2,…,N,
d={d1,d2,…,dN}
ds={ds∈N|Densityr(ds)=max(Densityr)}
步骤2.6,求密度为最大密度值的轨迹点集的质心如下,得到注视中心点,
其中,Pdensest为所求的注视中心点坐标,为该类别中序号为ds的轨迹点坐标。
2.根据权利要求1所述基于随机游走的眼动注视点测定方法,其特征在于:步骤2.3中,第i个点的半径r内的累计关注时间密度记为Densityr(i)统计方式为,计算第i个点周围半径r内的点的停留时间之和如下式,
其中,dj是第j个点的特征参数<x,y,t,d>中的第四个参数,表示停留时间。
3.根据权利要求1所述基于随机游走的眼动注视点测定方法,其特征在于:步骤2.3中,第i个点的半径r内的累计关注时间密度记为Densityr(i)统计方式为,将第i个点周围r半径内的点的个数记为密度如下式,
Densityr(i)={#(j)|Dist(i,j)≤r}
式中,#(j)表示符合条件的点的个数。
4.一种基于密度的眼动注视点测定方法,其特征在于:包括轨迹点分类单元和轨迹点聚类单元,
所述轨迹点分类单元包括以下模块,
数据输入模块,用于输入测试图片的眼动轨迹点数据;
分类模块,用于根据数据输入模块输入的眼动轨迹点数据,对其中属于注视点的各轨迹点进行分类,包括以下子模块,
速度计算子模块,用于根据数据输入模块输入的眼动轨迹点数据,计算每个轨迹点的速度Velocity;
标签设置子模块,用于根据预先设置的阈值Threshold_V,将速度大于阈值的轨迹点设置为相应标签fixation,速度小于阈值的轨迹点设置相应标签为saccade;
类别划分子模块,用于将时间上连续的标签为fixation的轨迹点归为同一类,得到若干类别,将标签为saccade的轨迹点全部舍弃;
所述轨迹点聚类单元包括对每个类别分别建立的以下模块,
轨迹点输入模块,用于输入一类轨迹点数据G={g1,g2,…,gn},其中gi为该类中第i个轨迹点,包含四个参数<x,y,t,d>,i的取值为1,2,…,n,n为该类别所包含轨迹点的个数;
距离计算模块,用于计算输入的各轨迹点之间的欧式距离,构成距离矩阵Dist,第i个点和第j个点之间的欧式距离为Dist(i,j),公式如下,
其中,(xi,yi)表示第i个点的图像平面坐标位置,(xj,yj)表示第j个点的图像平面坐标位置,序号i的取值为1,2,…,n,j的取值为1,2,…,n;
密度统计模块,用于基于距离计算模块所得的距离矩阵Dist统计每个轨迹点半径r内的累计关注时间密度,设第i个点的半径r内的累计关注时间密度记为Densityr(i);
最大密度确定模块,用于根据密度统计模块所得各个轨迹点半径r内的累计关注时间密度,确定最大密度值max(Densityr);
最大密度轨迹点提取模块,用于确定密度等于最大密度值的轨迹点序号集d,得到密度等于最大密度值的轨迹点的数目N,设g1,g2,…,gn中密度等于最大密度值的轨迹点的序号记为d1,d2,…,dN,ds为d中第s个轨迹点,s的取值为1,2,…,N,
d={d1,d2,…,dN}
ds={ds∈N|Densityr(ds)=max(Densityr)}
注视中心点确定模块,用于求密度为最大密度值的轨迹点集的质心如下,得到注视中心点,
其中,Pdensest为所求的注视中心点坐标,为该类别中序号为ds的轨迹点坐标。
5.根据权利要求4所述基于随机游走的眼动注视点测定系统,其特征在于:密度统计模块中,第i个点的半径r内的累计关注时间密度记为Densityr(i)统计方式为,计算第i个点周围半径r内的点的停留时间之和如下式,
其中,dj是第j个点的特征参数<x,y,t,d>中的第四个参数,表示停留时间。
6.根据权利要求4所述基于随机游走的眼动注视点测定系统,其特征在于:密度统计模块中,第i个点的半径r内的累计关注时间密度记为Densityr(i)统计方式为,将第i个点周围r半径内的点的个数记为密度如下式,
Densityr(i)={#(j)|Dist(i,j)≤r}
其中,#(j)表示符合条件的点的个数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510134571.9A CN104700090B (zh) | 2015-03-25 | 2015-03-25 | 基于密度的眼动注视点测定方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510134571.9A CN104700090B (zh) | 2015-03-25 | 2015-03-25 | 基于密度的眼动注视点测定方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104700090A true CN104700090A (zh) | 2015-06-10 |
CN104700090B CN104700090B (zh) | 2017-11-28 |
Family
ID=53347189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510134571.9A Active CN104700090B (zh) | 2015-03-25 | 2015-03-25 | 基于密度的眼动注视点测定方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104700090B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631416A (zh) * | 2015-12-24 | 2016-06-01 | 华侨大学 | 采用新型密度聚类进行人脸识别的方法 |
CN106127149A (zh) * | 2016-06-22 | 2016-11-16 | 南京大学 | 一种基于眼动数据的流程图笔划成组的方法和装置 |
CN106407935A (zh) * | 2016-09-21 | 2017-02-15 | 俞大海 | 基于人脸图像和眼动注视信息的心理测试方法 |
CN107256332A (zh) * | 2017-05-24 | 2017-10-17 | 上海交通大学 | 基于眼动数据的脑电实验评估系统及方法 |
CN107493512A (zh) * | 2016-06-12 | 2017-12-19 | 阿里巴巴集团控股有限公司 | 视频的热点标注方法和装置 |
CN107798563A (zh) * | 2017-11-09 | 2018-03-13 | 山东师范大学 | 基于多模态特征的互联网广告效果测评方法及系统 |
CN109255342A (zh) * | 2018-11-20 | 2019-01-22 | 武汉大学 | 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统 |
CN109726713A (zh) * | 2018-12-03 | 2019-05-07 | 东南大学 | 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法 |
CN110781846A (zh) * | 2019-10-30 | 2020-02-11 | 江苏开放大学(江苏城市职业学院) | 一种融合视觉广度特点的视觉注意计算方法 |
CN111797810A (zh) * | 2020-07-20 | 2020-10-20 | 吉林大学 | 一种行车过程中驾驶员前视预瞄区域的获取方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100033333A1 (en) * | 2006-06-11 | 2010-02-11 | Volva Technology Corp | Method and apparatus for determining and analyzing a location of visual interest |
CN102521595A (zh) * | 2011-12-07 | 2012-06-27 | 中南大学 | 一种基于眼动数据和底层特征的图像感兴趣区域提取方法 |
CN103903276A (zh) * | 2014-04-23 | 2014-07-02 | 吉林大学 | 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法 |
-
2015
- 2015-03-25 CN CN201510134571.9A patent/CN104700090B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100033333A1 (en) * | 2006-06-11 | 2010-02-11 | Volva Technology Corp | Method and apparatus for determining and analyzing a location of visual interest |
CN102521595A (zh) * | 2011-12-07 | 2012-06-27 | 中南大学 | 一种基于眼动数据和底层特征的图像感兴趣区域提取方法 |
CN103903276A (zh) * | 2014-04-23 | 2014-07-02 | 吉林大学 | 基于密度聚类法和形态学聚类法的驾驶员注视点聚类方法 |
Non-Patent Citations (2)
Title |
---|
DARIO D.SALVUCCI ET AL.: "Identifying Fixations and Saccades in Eye-Tracking Protocols", 《IN PROCEEDING OF THE EYE TRACKING RESEARCH AND APPLICATIONS SYMPOSIUM》 * |
王锦榕: "眼动跟踪系统设计与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631416A (zh) * | 2015-12-24 | 2016-06-01 | 华侨大学 | 采用新型密度聚类进行人脸识别的方法 |
CN105631416B (zh) * | 2015-12-24 | 2018-11-13 | 华侨大学 | 采用新型密度聚类进行人脸识别的方法 |
CN107493512A (zh) * | 2016-06-12 | 2017-12-19 | 阿里巴巴集团控股有限公司 | 视频的热点标注方法和装置 |
CN106127149B (zh) * | 2016-06-22 | 2019-07-05 | 南京大学 | 一种基于眼动数据的流程图笔划成组的方法和装置 |
CN106127149A (zh) * | 2016-06-22 | 2016-11-16 | 南京大学 | 一种基于眼动数据的流程图笔划成组的方法和装置 |
CN106407935A (zh) * | 2016-09-21 | 2017-02-15 | 俞大海 | 基于人脸图像和眼动注视信息的心理测试方法 |
CN107256332A (zh) * | 2017-05-24 | 2017-10-17 | 上海交通大学 | 基于眼动数据的脑电实验评估系统及方法 |
CN107798563A (zh) * | 2017-11-09 | 2018-03-13 | 山东师范大学 | 基于多模态特征的互联网广告效果测评方法及系统 |
CN107798563B (zh) * | 2017-11-09 | 2020-05-05 | 山东师范大学 | 基于多模态特征的互联网广告效果测评方法及系统 |
CN109255342A (zh) * | 2018-11-20 | 2019-01-22 | 武汉大学 | 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统 |
CN109255342B (zh) * | 2018-11-20 | 2020-07-10 | 武汉大学 | 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统 |
CN109726713A (zh) * | 2018-12-03 | 2019-05-07 | 东南大学 | 基于消费级视线追踪仪的用户感兴趣区域检测系统和方法 |
CN110781846A (zh) * | 2019-10-30 | 2020-02-11 | 江苏开放大学(江苏城市职业学院) | 一种融合视觉广度特点的视觉注意计算方法 |
CN110781846B (zh) * | 2019-10-30 | 2021-02-09 | 江苏开放大学(江苏城市职业学院) | 一种融合视觉广度特点的视觉注意计算方法 |
CN111797810A (zh) * | 2020-07-20 | 2020-10-20 | 吉林大学 | 一种行车过程中驾驶员前视预瞄区域的获取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104700090B (zh) | 2017-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104700090A (zh) | 基于密度的眼动注视点测定方法及系统 | |
CN103390152B (zh) | 基于sopc的适合人机交互的视线跟踪系统 | |
Escorcia et al. | Automated vision-based recognition of construction worker actions for building interior construction operations using RGBD cameras | |
CN102722712B (zh) | 基于连续度的多尺度高分辨图像目标检测方法 | |
CN105320966A (zh) | 一种车辆行驶状态识别方法及装置 | |
CN101388080B (zh) | 一种基于多角度步态信息融合的行人性别分类方法 | |
CN107798563B (zh) | 基于多模态特征的互联网广告效果测评方法及系统 | |
CN110288017B (zh) | 基于动态结构优化的高精度级联目标检测方法与装置 | |
CN104463916A (zh) | 基于随机游走的眼动注视点测定方法 | |
CN103065122A (zh) | 基于面部动作单元组合特征的人脸表情识别方法 | |
CN110503082B (zh) | 一种基于深度学习的模型训练方法以及相关装置 | |
CN106127161A (zh) | 基于级联多层检测器的快速目标检测方法 | |
CN104537356A (zh) | 利用瑞士轮排序进行步态识别的行人再标识方法和装置 | |
CN105117740A (zh) | 字体识别方法及装置 | |
Dong et al. | Automatic inspection and evaluation system for pavement distress | |
CN109086794A (zh) | 一种基于t-lda主题模型的驾驶行为模式识方法 | |
CN113780342A (zh) | 一种基于自监督预训练的智能检测方法、装置及机器人 | |
CN101645135A (zh) | 一种人体检测方法和系统 | |
Yusro et al. | Comparison of faster r-cnn and yolov5 for overlapping objects recognition | |
Lu et al. | Pose-guided model for driving behavior recognition using keypoint action learning | |
CN104537392B (zh) | 一种基于判别性语义部件学习的对象检测方法 | |
Tang | Image segmentation technology and its application in digital image processing | |
CN113435713A (zh) | 基于gis技术和两模型融合的风险地图编制方法及系统 | |
CN104731341A (zh) | 一种基于eeg和计算机视觉的人脸图片检索方法 | |
Półrola et al. | Real-time hand pose estimation using classifiers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |