CN109271030A - 一种三维空间下注视点轨迹多维度比较方法 - Google Patents
一种三维空间下注视点轨迹多维度比较方法 Download PDFInfo
- Publication number
- CN109271030A CN109271030A CN201811113784.3A CN201811113784A CN109271030A CN 109271030 A CN109271030 A CN 109271030A CN 201811113784 A CN201811113784 A CN 201811113784A CN 109271030 A CN109271030 A CN 109271030A
- Authority
- CN
- China
- Prior art keywords
- blinkpunkt
- attentively
- vector
- track
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013459 approach Methods 0.000 title claims abstract description 16
- 230000000052 comparative effect Effects 0.000 title claims abstract description 16
- 239000013598 vector Substances 0.000 claims abstract description 64
- 230000000007 visual effect Effects 0.000 claims abstract description 42
- 230000004424 eye movement Effects 0.000 claims abstract description 19
- 238000005259 measurement Methods 0.000 claims abstract description 15
- 238000001914 filtration Methods 0.000 claims abstract description 13
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 10
- 241001269238 Data Species 0.000 claims abstract description 5
- 230000004438 eyesight Effects 0.000 claims abstract description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000011524 similarity measure Methods 0.000 claims description 5
- 230000002123 temporal effect Effects 0.000 claims description 5
- 230000002159 abnormal effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 27
- 238000004458 analytical method Methods 0.000 abstract description 4
- 238000010276 construction Methods 0.000 abstract 1
- 210000001508 eye Anatomy 0.000 description 4
- 239000003814 drug Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000010835 comparative analysis Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 1
- 208000013715 atelosteogenesis type I Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 239000000571 coke Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004434 saccadic eye movement Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
- 230000004400 visual pathway Effects 0.000 description 1
- 210000000239 visual pathway Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种三维空间下注视点轨迹多维度比较方法。该方法先进行两组眼动数据输入:为两名受试者佩戴上搭载SMI高性能眼球追踪模块的HTC‐VIVE虚拟现实头戴式显示器,两名受试者在Unity3D虚拟场景中进行观察;通过SMI配套的相关API对两名受试者在观察中每一帧的视觉焦点进行记录,形成两组眼动数据;然后进行两组眼动数据滤波;注视点轨迹生成;进行轨迹矢量匹配:使用Dijkstra最短路径算法对两条轨迹矢量序列进行匹配;对五个不同特征的相似度分配权重,进行加权求和,得到两条注视点轨迹的相似度。本发明为三维视觉空间实际眼动轨迹相似性度量提供方便灵活和多层面多角度的分析比较结果。
Description
技术领域
本发明涉及视觉路径比较方法,特别是涉及一种三维空间下的注视点轨迹多维特征比较方法。
背景技术
虚拟现实技术与图像处理技术的发展,使得眼球追踪技术在虚拟现实领域也开始得到广泛应用。眼球追踪设备一般是嵌入在虚拟头戴显示器(如HTC-VICE、Oculus等)中的类似眼镜的模块,可以对人眼的瞳孔或者其他的特征通过各种方法进行采集,然后将采集到的数据作为输入,经过计算,以一定的方式映射到三维虚拟空间中。对这些映射到虚拟环境中的人眼焦点进行滤波、简化、删除等一系列扫视点处理后,得到人眼扫描路径。这些扫描路径代表了人在一段时间内视线的焦点以及移动方向,是很有价值的数据。
眼动路径比较分析在VR中对有着广泛应用需求,在三维虚拟博物馆中对参观者的注视点轨迹进行分析可以得到大家感兴趣的区域,对这些区域进行高精度渲染,简化处理那些不被人注意的区域,可以有效的节省硬件资源。对比分析医学情境中实习医生与资深专家观察病人器官时的扫描路径,可以发现不同经验的医生认知能力方面的差异,并将结果用以培训新人。目前眼动路径比较技术主要应用在二维空间。
一种方法是基于字符串匹配的注视轨迹比较法,将图像分成很多小块,每个小块标记上字符,根据注视点所处的小块的字符按照先后顺序用字符串的形式表达出注视点轨迹。通过对一个字符串插入删除变为另外一个字符串所需要的步骤来定义两者的相似度。
另一种方法是基于不同注视轨迹注视点之间欧氏距离的比较法,该方法通过比较一条注视点轨迹中每一个注视点到另外一条轨迹中距离该点最近的注视点的距离,最后通过归一化求和得到两条轨迹相似度。
还有一种方法是基于方向矢量的注视轨迹比较法,这种方法使用矢量来表示每条注视点轨迹,然后根据矢量之间的关系定义两条注视点轨迹之间的相似度。
但是现有技术尚未能实现眼动路径比较技术在三维空间的应用。
发明内容
本发明的目的在于克服现有技术存在的不足,提供了针对三维场景的注视点轨迹多维度特征比较方法。
本发明目的通过如下技术方案实现:
一种三维空间下注视点轨迹多维度比较方法,包括如下步骤:
1)两组眼动数据输入:为两名受试者佩戴上搭载SMI高性能眼球追踪模块的HTC-VIVE虚拟现实头戴式显示器,两名受试者在Unity3D虚拟场景中进行观察;通过SMI配套的相关API对两名受试者在观察中每一帧的视觉焦点进行记录,形成两组眼动数据;
2)两组眼动数据滤波:选择除了两组眼动数据起始焦点和结束焦点的其余所有视觉焦点,对于任一视觉焦点i,计算焦点i到相邻两个视觉焦点的速度和vi,vi=D/△t,其中D为相邻两视觉焦点之间的空间欧氏距离,△t为两个视觉焦点产生的时间间隔;使用路径生成时间除以视觉焦点个数得到整条扫描路径的平均生成速度若vi大于滤波阈值,则定义视角焦点i为异常点,舍去;
3)注视点轨迹生成:针对滤波后的视觉焦点,首先设定一个速度阈值和夹角阈值,对于相邻的视觉焦点如果从一点到另一点的速度小于速度阈值范围,且夹角小于夹角阈值,则将这两个视觉焦点合并形成一个注视点;顺序连接注视点形成注视点轨迹;
4)轨迹矢量匹配:对于注视点轨迹使用坐标序列、矢量序列以及持续时间序列表达,其中坐标点序列为注视点在三维空间中的坐标;矢量序列为每个注视点指向下一个注视点的矢量集合;持续时间序列代表每一个注视点在受试者观察过程中的持续时间,使用Dijkstra最短路径算法对两条轨迹矢量序列进行匹配;
5)多维特征比较:对轨迹矢量匹配后的注视点轨迹从注视位置、扫视长度、扫视方向、扫视转角和注视时间五种特征维度进行比较,得到每个特征维度的相似度;对五个不同特征的相似度分配权重,进行加权求和,得到两条注视点轨迹的相似度。
为进一步实现本发明目的,优选地,所述的滤波阈值设为扫描路径平均扫视速度的5倍。
优选地,所述的△t为采样频率的倒数;采样频率设定为24Hz,△t为1/24。
优选地,所述的速度阈值设为持续时间3帧;夹角阈值为10°。
优选地,所述的轨迹矢量匹配是对一条注视轨迹所有矢量求出与另外一条轨迹每个矢量关于长度和前进方向的相似度,根据公式计算相似度邻接矩阵,其中ui为路径1当中的注视点,vj为路径2中注视点,得到邻接矩阵,其中每一个元素为对应一个节点;根据Dijkstra算法得到最短路径,在前进方向按照从左往右,从上往下的顺序进行计算最短路径节点。
优选地,所述的注视位置是指匹配注视点之间的空间位置差值,基于欧式距离计算扫描路径位置相似性度量;
所述的扫视长度用来比较相互配对的两个矢量模的差值,是扫视振幅上的相似性度量。计算得到的相似性度量值按较长矢量段长度进行归一化处理;
所述的扫视方向是计算相匹配矢量的空间夹角,是一种基于形状的相似性度量;相似性计算结果进行归一化处理;
所述的扫视转角是计算同一扫描路径中连续二个矢量连接点处矢量方向的变化,并与配对矢量方向变化做差值;相似性结果同样按进行归一化处理;
所述的注视时间是指匹配的二个注视点在注视时间上的差异,是基于时间范畴的相似性度量;用圆锥表示的注视点含时间属性,其底面直径大小表示注视时间的长短,相似性计算值按较长时间点做归一化处理。
优选地,所述的注视位置分配0.4权重,其余0.6的权重在扫视长度、扫视方向、扫视转角和注视时间均匀分配,各得到0.15的权重。
本发明首先通过实验设备对两名受试者进行视觉焦点采集,然后输入要进行对比的两组原始数据;对原始数据进行滤波,设定阈值将一定范围内的视觉焦点聚合为注视点,舍弃扫视点,再对注视点轨迹进行简化,舍弃掉非转角处且持续时间短的注视点;最后将两条注视点轨迹在注视位置、扫视长度、扫视方向、扫视转角和注视时间这五个维度进行对比分析,对不同的特征维度赋予不同的权值,最后得出注视点轨迹之间的相似度。
与现有技术相比,本发明具有如下优点和技术效果:
1)本发明以SMI公司的高性能眼球追踪模块为基础,以滤波、注视点合并、路径简化等方法将原始视觉焦点路径加工成注视点轨迹,减少了数据量且保留了特征信息;使用注视位置、扫视长度、扫视方向、扫视转角和注视时间这五个特征维度进行相似度比较,以及对不同的特征赋予不同的权重,确保了相似度结果的可靠性。
2)本发明将传统的基于二维图像的路径比较方法进行综合改进并应用到三维领域,为快速发展的虚拟现实以及眼球追踪领域提供了一个新的实验思路,能够在显著性计算、认知心理学、军事、医学等很多领域得到应用。
3)相比于基于字符串匹配的注视轨迹比较法,在本发明中,由于没有将视觉场景划分为多个区域,而是采用矢量之间的空间几何特性来对比,能够将更多地细节信息考虑进去,区分轨迹间细微的差别,同时将注视点持续时间考虑了进来,是的轨迹包含的信息更加多维立体。
4)相比于基于不同注视轨迹注视点之间欧氏距离的比较法,在本发明中,因为使用了注视轨迹矢量间的匹配方法,将注视轨迹的时间特征和空间特征都考虑了进去,注视轨迹的行进顺序将很大程度影响相似度结果;匹配的时候会产生匹配度,那么不仅将相似的部分进行了计算,同时对差异的部分耶进行了计算。
5)相比基于方向矢量的注视轨迹比较法,在本发明中,将方向矢量拓展到三维视觉空间,并在矢量序列的基础上添加了注视点序列、注视时间序列,能够对三维空间下的注视点轨迹进行更加详细地描述。
附图说明
图1为本发明整体方案流程图;
图2为本发明实施例滤波算法效果示意图;
图3为本发明实施例对视觉焦点加工成注视点及路径简化示意图;
图4为本发明实施例中选取的两条注视轨迹;
图5为本发明实施例对图4中路径进行匹配的结果;
图6为本发明实施例路径匹配中所使用到的特征维度;
图7为本发明实施例两个不同的注视点轨迹在不同特征维度上的相似性评分以及总体相似度情况图。
具体实施方式
为更好地理解本发明,下面结合附图和实施方式以及具体场景对本发明作进一步的说明,但本发明的实施例方式不限如此。
实施例
为了能够对人类在三维虚拟现实空间中观察时候的眼动数据进行分析对比,以下提供一种三维空间下注视点轨迹多维度比较方法。
如图1所示,一种三维空间下注视点轨迹多维度比较方法,具体包括如下步骤:
1)两组眼动数据输入:为两名受试者佩戴上搭载SMI高性能眼球追踪模块的HTC-VIVE虚拟现实头戴式显示器,两名受试者在Unity3D虚拟场景中进行观察;通过SMI配套的相关API对两名受试者在观察中每一帧的视觉焦点进行记录,形成两组眼动数据;
2)两组眼动数据滤波:如图2所示,由于采样误差等原因,使得一些不真实的注视焦点坐标被设备采集进来,这些焦点坐标往往是一些偏离实际扫描路径很远的坐标点,使用基于扫视速度的滤波算法可以有效减少这些异常视觉焦点。滤波阈值可以设定为扫描路径平均扫视速度的5倍。具体方式是首先选择除了起始焦点和结束焦点的其余所有视觉焦点,对于任一视觉焦点i,计算焦点i到相邻两个视觉焦点的速度和vi,vi=D/△t,其中D为相邻两视觉焦点之间的空间欧氏距离,△t为两个视觉焦点产生的时间间隔,△t可以为采样频率的倒数。使用路径生成时间除以视觉焦点个数得到整条扫描路径的平均生成速度若则定义视角焦点i为异常点,舍去。
3)注视点轨迹生成:如图3所示,针对滤波后的视觉焦点,要将视觉焦点路径加工成注视点轨迹,这里采用的是邻域阈值范围视觉焦点合并法,该方法具体是:对于处于一定邻域范围内的视觉焦点,将其合并称为注视点。视觉焦点合并首先设定一个速度阈值和夹角阈值,对于相邻的视觉焦点如果从一点到另一点的速度小于速度阈值范围,且夹角小于夹角阈值,则将这两个点加入一个注视点集合,以此类推直到没有点可以进入这个集合;该集合就形成一个注视点。速度阈值可以设定为持续时间小于3帧。具体步骤为:计算每一个视觉焦点相邻两条矢量的夹角以及该注视点的持续时间。若持续时间小于设定的速度阈值,且夹角小于10°,则去掉该点,形成图4所示三维空间中两组注视点轨迹。
4)对于注视点轨迹使用坐标序列、矢量序列以及持续时间序列表达,其中坐标点序列为注视点在三维空间中的坐标;矢量序列为每个注视点指向下一个注视点的矢量集合;持续时间序列代表每一个注视点在受试者观察过程中的持续时间,然后使用Dijkstra最短路径算法对两条轨迹矢量序列进行匹配;具体是对一条注视轨迹所有矢量求出与另外一条轨迹每个矢量关于长度和前进方向的相似度,根据公式计算相似度邻接矩阵,其中ui为路径1当中的注视点,vj为路径2中注视点,得到邻接矩阵如表1所示,其中每一个元素为对应一个节点,按顺序共有9个节点。
表1矩阵M(i,j)
v<sub>1</sub> | v<sub>1</sub> | v<sub>3</sub> | |
u<sub>1</sub> | 0.04 | 0.49 | 0.15 |
u<sub>2</sub> | 0.61 | 0.38 | 0.71 |
u<sub>3</sub> | 0.36 | 0.55 | 0.41 |
如图5所示,根据Dijkstra算法得到最短路径,在表1中的前进方向按照从左往右,从上往下的顺序进行。最终计算除了最短路径即节点1→节点5→节点9,路径为图中虚线部分,对应的下标分别为(1,1)、(2,2)、(3,3),为最终二条路径的匹配矢量序列。
5)多维特征比较:如图6所示,对匹配后的注视点轨迹从注视位置、扫视长度、扫视方向、扫视转角和注视时间五种特征维度进行比较,得到每个特征维度的相似度;对五个不同特征的相似度分配权重,进行加权求和,得到两条注视点轨迹的相似度。其中:
注视位置是指匹配注视点之间的空间位置差值,基于欧式距离计算扫描路径位置相似性度量。
扫视长度主要用来比较相互配对的两个矢量模的差值,是一种扫视振幅上的相似性度量。由此计算得到的相似性度量值按较长矢量段长度进行归一化处理。
扫视方向是计算相匹配矢量的空间夹角,是一种基于形状的相似性度量。相似性计算结果进行归一化处理。
扫视转角是计算同一扫描路径中连续二个矢量连接点处矢量方向的变化,并与配对矢量方向变化做差值。相似性结果同样进行归一化处理。
注视时间是指匹配的二个注视点在注视时间上的差异,是基于时间范畴的相似性度量。用圆锥表示的注视点含时间属性,其底面直径大小表示注视时间的长短,相似性计算值按较长时间点做归一化处理。该方法避免了AOIs使用中可能出现的量化噪声。相似性计算结果按三维空间体对角线做归一化处理。
对于相互配对的矢量间的长度、矢量前进方向、相对于上一条矢量的夹角、矢量之间的距离、矢量两端注视点持续时间分别计算相似度,每种相似度相对于整体进行归一化。图7为本实施例两个不同的注视点轨迹在不同特征维度上的相似性评分以及总体相似度,总体相似度由每个特征的相似度加权求和得到,权重可以根据需求进行调节,本实施例为注视位置分配0.4权重,其余0.6的权重在扫视长度、扫视方向、扫视转角和注视时间均匀分配,各得到0.15的权重。
有上述可见,本实施例能够实现对三维空间中产生的人眼注视点轨迹进行整理分析,从多种特征维度进行比较得到两条注视点轨迹的相似度。
本发明以SMI公司的高性能眼球追踪模块为基础,以滤波、注视点合并、路径简化等方法将原始视觉焦点路径加工成注视点轨迹,减少了数据量且保留了特征信息;使用注视位置、扫视长度、扫视方向、扫视转角和注视时间这五个特征维度进行相似度比较,以及对不同的特征赋予不同的权重,确保了相似度结果的可靠性。
本发明将传统的基于二维图像的路径比较方法进行综合改进并应用到三维领域,为快速发展的虚拟现实以及眼球追踪领域提供了一个新的实验思路,能够在显著性计算、认知心理学、军事、医学等很多领域得到应用。
相比于基于字符串匹配的注视轨迹比较法,在本发明中,由于没有将视觉场景划分为多个区域,而是采用矢量之间的空间几何特性来对比,能够将更多地细节信息考虑进去,区分轨迹间细微的差别,同时将注视点持续时间考虑了进来,是的轨迹包含的信息更加多维立体。
相比于基于不同注视轨迹注视点之间欧氏距离的比较法,在本发明中,因为使用了注视轨迹矢量间的匹配方法,将注视轨迹的时间特征和空间特征都考虑了进去,注视轨迹的行进顺序将很大程度影响相似度结果;匹配的时候会产生匹配度,那么不仅将相似的部分进行了计算,同时对差异的部分耶进行了计算。
相比基于方向矢量的注视轨迹比较法,在本发明中,将方向矢量拓展到三维视觉空间,并在矢量序列的基础上添加了注视点序列、注视时间序列,能够对三维空间下的注视点轨迹进行更加详细地描述。
本行业技术人员应该了解,本发明不受实施例的限制。凡在本发明的精神和原则之内所做的任何修改,等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种三维空间下注视点轨迹多维度比较方法,其特征在于包括如下步骤:
1)两组眼动数据输入:为两名受试者佩戴上搭载SMI高性能眼球追踪模块的HTC-VIVE虚拟现实头戴式显示器,两名受试者在Unity3D虚拟场景中进行观察;通过SMI配套的相关API对两名受试者在观察中每一帧的视觉焦点进行记录,形成两组眼动数据;
2)两组眼动数据滤波:选择除了两组眼动数据起始焦点和结束焦点的其余所有视觉焦点,对于任一视觉焦点i,计算焦点i到相邻两个视觉焦点的速度和vi,vi=D/△t,其中D为相邻两视觉焦点之间的空间欧氏距离,△t为两个视觉焦点产生的时间间隔;使用路径生成时间除以视觉焦点个数得到整条扫描路径的平均生成速度若vi大于滤波阈值,则定义视角焦点i为异常点,舍去;
3)注视点轨迹生成:针对滤波后的视觉焦点,首先设定一个速度阈值和夹角阈值,对于相邻的视觉焦点如果从一点到另一点的速度小于速度阈值范围,且夹角小于夹角阈值,则将这两个视觉焦点合并形成一个注视点;顺序连接注视点形成注视点轨迹;
4)轨迹矢量匹配:对于注视点轨迹使用坐标序列、矢量序列以及持续时间序列表达,其中坐标点序列为注视点在三维空间中的坐标;矢量序列为每个注视点指向下一个注视点的矢量集合;持续时间序列代表每一个注视点在受试者观察过程中的持续时间,使用Dijkstra最短路径算法对两条轨迹矢量序列进行匹配;
5)多维特征比较:对轨迹矢量匹配后的注视点轨迹从注视位置、扫视长度、扫视方向、扫视转角和注视时间五种特征维度进行比较,得到每个特征维度的相似度;对五个不同特征的相似度分配权重,进行加权求和,得到两条注视点轨迹的相似度。
2.根据权利要求1所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的滤波阈值设为扫描路径平均扫视速度的5倍。
3.根据权利要求1所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的△t为采样频率的倒数;采样频率设定为24Hz,△t为1/24。
4.根据权利要求1所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的速度阈值设为持续时间3帧;夹角阈值为10°。
5.根据权利要求1所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的轨迹矢量匹配是对一条注视轨迹所有矢量求出与另外一条轨迹每个矢量关于长度和前进方向的相似度,根据公式计算相似度邻接矩阵,其中ui为路径1当中的注视点,vj为路径2中注视点,得到邻接矩阵,其中每一个元素为对应一个节点;根据Dijkstra算法得到最短路径,在前进方向按照从左往右,从上往下的顺序进行计算最短路径节点。
6.根据权利要求1所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的注视位置是指匹配注视点之间的空间位置差值,基于欧式距离计算扫描路径位置相似性度量;
所述的扫视长度用来比较相互配对的两个矢量模的差值,是扫视振幅上的相似性度量。计算得到的相似性度量值按较长矢量段长度进行归一化处理;
所述的扫视方向是计算相匹配矢量的空间夹角,是一种基于形状的相似性度量;相似性计算结果进行归一化处理;
所述的扫视转角是计算同一扫描路径中连续二个矢量连接点处矢量方向的变化,并与配对矢量方向变化做差值;相似性结果同样按进行归一化处理;
所述的注视时间是指匹配的二个注视点在注视时间上的差异,是基于时间范畴的相似性度量;用圆锥表示的注视点含时间属性,其底面直径大小表示注视时间的长短,相似性计算值按较长时间点做归一化处理。
7.根据权利要求6所述的三维空间下注视点轨迹多维度比较方法,其特征在于,所述的注视位置分配0.4权重,其余0.6的权重在扫视长度、扫视方向、扫视转角和注视时间均匀分配,各得到0.15的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811113784.3A CN109271030B (zh) | 2018-09-25 | 2018-09-25 | 一种三维空间下注视点轨迹多维度比较方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811113784.3A CN109271030B (zh) | 2018-09-25 | 2018-09-25 | 一种三维空间下注视点轨迹多维度比较方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109271030A true CN109271030A (zh) | 2019-01-25 |
CN109271030B CN109271030B (zh) | 2020-12-22 |
Family
ID=65197355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811113784.3A Expired - Fee Related CN109271030B (zh) | 2018-09-25 | 2018-09-25 | 一种三维空间下注视点轨迹多维度比较方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109271030B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348296A (zh) * | 2019-05-30 | 2019-10-18 | 北京市遥感信息研究所 | 一种基于人机融合的目标识别方法 |
CN111309144A (zh) * | 2020-01-20 | 2020-06-19 | 北京津发科技股份有限公司 | 三维空间内注视行为的识别方法、装置及存储介质 |
CN112446012A (zh) * | 2019-08-28 | 2021-03-05 | 南京深视光点科技有限公司 | 眼球追踪解锁系统及其实施方法 |
CN113660477A (zh) * | 2021-08-16 | 2021-11-16 | 吕良方 | 一种vr眼镜及其图像呈现方法 |
CN113827238A (zh) * | 2021-09-02 | 2021-12-24 | 苏州中科先进技术研究院有限公司 | 基于虚拟现实和眼动信息的情绪评估方法、装置 |
CN115686199A (zh) * | 2022-10-11 | 2023-02-03 | 北京津发科技股份有限公司 | 一种群体眼动轨迹生成方法、装置、计算设备及存储介质 |
WO2023056753A1 (zh) * | 2021-10-08 | 2023-04-13 | 北京津发科技股份有限公司 | 时空行为轨迹采集、生成方法、装置、设备、系统及存储介质 |
US12099650B2 (en) | 2020-01-20 | 2024-09-24 | Kingfar International Inc. | Method and apparatus for identifying gaze behavior in three-dimensional space, and storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102749991A (zh) * | 2012-04-12 | 2012-10-24 | 广东百泰科技有限公司 | 一种适用于人机交互的非接触式自由空间视线跟踪方法 |
US20130021456A1 (en) * | 2011-05-19 | 2013-01-24 | Panasonic Corporation | Device and method for determining convergence performance |
WO2014186620A1 (en) * | 2013-05-15 | 2014-11-20 | The Johns Hopkins University | Eye tracking and gaze fixation detection systems, components and methods using polarized light |
CN105873515A (zh) * | 2013-10-17 | 2016-08-17 | 亚特兰大儿童医疗保健公司 | 用于经由眼跟踪来评估婴儿和儿童发育的方法 |
CN106681484A (zh) * | 2015-11-06 | 2017-05-17 | 北京师范大学 | 结合眼动跟踪的图像目标分割系统 |
US20180067842A1 (en) * | 2016-09-07 | 2018-03-08 | International Business Machines Corporation | Applying eye trackers monitoring for effective exploratory user interface testing |
CN108345386A (zh) * | 2018-02-09 | 2018-07-31 | 万间网络科技(天津)有限公司 | 基于虚拟现实技术实现施工安全考核的方法和装置 |
CN108932473A (zh) * | 2018-05-28 | 2018-12-04 | 中国建设银行股份有限公司 | 眼动轨迹特征提取方法、装置和存储介质 |
-
2018
- 2018-09-25 CN CN201811113784.3A patent/CN109271030B/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130021456A1 (en) * | 2011-05-19 | 2013-01-24 | Panasonic Corporation | Device and method for determining convergence performance |
CN102749991A (zh) * | 2012-04-12 | 2012-10-24 | 广东百泰科技有限公司 | 一种适用于人机交互的非接触式自由空间视线跟踪方法 |
WO2014186620A1 (en) * | 2013-05-15 | 2014-11-20 | The Johns Hopkins University | Eye tracking and gaze fixation detection systems, components and methods using polarized light |
CN105873515A (zh) * | 2013-10-17 | 2016-08-17 | 亚特兰大儿童医疗保健公司 | 用于经由眼跟踪来评估婴儿和儿童发育的方法 |
CN106681484A (zh) * | 2015-11-06 | 2017-05-17 | 北京师范大学 | 结合眼动跟踪的图像目标分割系统 |
US20180067842A1 (en) * | 2016-09-07 | 2018-03-08 | International Business Machines Corporation | Applying eye trackers monitoring for effective exploratory user interface testing |
CN108345386A (zh) * | 2018-02-09 | 2018-07-31 | 万间网络科技(天津)有限公司 | 基于虚拟现实技术实现施工安全考核的方法和装置 |
CN108932473A (zh) * | 2018-05-28 | 2018-12-04 | 中国建设银行股份有限公司 | 眼动轨迹特征提取方法、装置和存储介质 |
Non-Patent Citations (1)
Title |
---|
RICHARD DEWHURST: "《It depends on how you look at it:Scanpath comparison in multiple dimensions with MultiMatch ,a vector-based approach》", 《BEHAVIOR RESEARCH METHODS》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348296A (zh) * | 2019-05-30 | 2019-10-18 | 北京市遥感信息研究所 | 一种基于人机融合的目标识别方法 |
CN112446012A (zh) * | 2019-08-28 | 2021-03-05 | 南京深视光点科技有限公司 | 眼球追踪解锁系统及其实施方法 |
CN111309144A (zh) * | 2020-01-20 | 2020-06-19 | 北京津发科技股份有限公司 | 三维空间内注视行为的识别方法、装置及存储介质 |
CN111309144B (zh) * | 2020-01-20 | 2022-02-01 | 北京津发科技股份有限公司 | 三维空间内注视行为的识别方法、装置及存储介质 |
EP4016255A4 (en) * | 2020-01-20 | 2022-12-07 | Kingfar International Inc. | METHOD AND DEVICE FOR DETECTING GAZE BEHAVIOR IN A THREE-DIMENSIONAL SPACE AND STORAGE MEDIUM |
US12099650B2 (en) | 2020-01-20 | 2024-09-24 | Kingfar International Inc. | Method and apparatus for identifying gaze behavior in three-dimensional space, and storage medium |
CN113660477A (zh) * | 2021-08-16 | 2021-11-16 | 吕良方 | 一种vr眼镜及其图像呈现方法 |
CN113827238A (zh) * | 2021-09-02 | 2021-12-24 | 苏州中科先进技术研究院有限公司 | 基于虚拟现实和眼动信息的情绪评估方法、装置 |
WO2023056753A1 (zh) * | 2021-10-08 | 2023-04-13 | 北京津发科技股份有限公司 | 时空行为轨迹采集、生成方法、装置、设备、系统及存储介质 |
CN115686199A (zh) * | 2022-10-11 | 2023-02-03 | 北京津发科技股份有限公司 | 一种群体眼动轨迹生成方法、装置、计算设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109271030B (zh) | 2020-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109271030A (zh) | 一种三维空间下注视点轨迹多维度比较方法 | |
US11238568B2 (en) | Method and system for reconstructing obstructed face portions for virtual reality environment | |
KR100917486B1 (ko) | 컴퓨터 그래픽 애니메이션용 안면 근육 및 눈 움직임 추적시스템 및 방법 | |
Paradis et al. | Visual perception of motion and 3-D structure from motion: an fMRI study | |
CN104813340B (zh) | 从2d图像序列导出准确身体尺寸测量的系统和方法 | |
EP2857939B1 (en) | Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method | |
CN108618749B (zh) | 基于便携式数字化眼底照相机的视网膜血管三维重建方法 | |
JP4936491B2 (ja) | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム | |
CN105898278B (zh) | 一种基于双目多维感知特性的立体视频显著性检测方法 | |
Larsson et al. | Head movement compensation and multi-modal event detection in eye-tracking data for unconstrained head movements | |
CN103020958B (zh) | 一种基于曲率尺度空间的血管自动匹配方法 | |
Indovina et al. | Path integration in 3D from visual motion cues: a human fMRI study | |
Masullo et al. | Who goes there? exploiting silhouettes and wearable signals for subject identification in multi-person environments | |
CN104732586B (zh) | 一种三维人体动态形体和三维运动光流快速重建方法 | |
Xu et al. | Self-supervised monocular depth estimation with 3-d displacement module for laparoscopic images | |
Campo et al. | Digital image correlation for full-field time-resolved assessment of arterial stiffness | |
CN107480635A (zh) | 一种基于双模态分类模型融合的扫视信号识别方法及系统 | |
Zizi et al. | Optical flow-based algorithm analysis to detect human emotion from eye movement-image data | |
Ami-Williams et al. | Digitizing traditional dances under extreme clothing: The case study of eyo | |
Koerfer et al. | Pitting optic flow, object motion, and biological motion against each other | |
Sato et al. | Measuring microcirculation using spatiotemporal image analysis | |
TW201309264A (zh) | 自動化甲襞微循環分析系統 | |
Shi et al. | 3D face reconstruction and gaze estimation from multi-view video using symmetry prior | |
Fang et al. | Automatic head and facial feature extraction based on geometry variations | |
Jindal et al. | Tracker/Camera Calibration for Accurate Automatic Gaze Annotation of Images and Videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Li Yongjun Inventor after: Zhang Xuhang Inventor after: Xie Jinsong Inventor after: Xie Rong Inventor after: Zhou Weikang Inventor before: Li Yongjun Inventor before: Xie Jinsong Inventor before: Xie Rong Inventor before: Zhou Weikang |
|
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20201222 |