CN111259713B - 一种基于自适应加权的视线跟踪方法 - Google Patents
一种基于自适应加权的视线跟踪方法 Download PDFInfo
- Publication number
- CN111259713B CN111259713B CN201910869212.6A CN201910869212A CN111259713B CN 111259713 B CN111259713 B CN 111259713B CN 201910869212 A CN201910869212 A CN 201910869212A CN 111259713 B CN111259713 B CN 111259713B
- Authority
- CN
- China
- Prior art keywords
- network
- face
- regression
- sight
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种基于自适应加权的视线跟踪方法,包括以下步骤:1)对输入的图像进行数据归一化预处理:1.1)使人脸参考点位于距离相机固定距离的图像中心;2)建立图像与视线向量间的回归函数:2.1)建立主网络并设计对应loss函数;2.2)建立子网络并通过子网络调整主网络的训练策略,求得最终的模型。本发明可以在不同光照,不同头部姿态下保持高精度并具有一定的健壮性。
Description
技术领域
本发明属于图像处理领域,是一种基于自适应加权的视线跟踪方法。
背景技术
眼睛是人体最重要的感觉器官之一。视线跟踪通过推断目标的注意点来模拟眼睛和外部信息之间的交流。它在消费者研究、沉浸式VR研究、教育研究等诸多应用中发挥着重要作用。最近提出的视线跟踪方法越来越多,大致可以分为两大类:基于模型的方法和基于外观的方法。
基于模型的视线跟踪方法根据瞳孔中心、虹膜轮廓、角膜红外反射等不变的面部特征计算特定的几何眼睛模型来估计注视方向。然而,这种方法需要复杂的硬件,例如红外光线、高清相机等。这种方法更适合于受控环境,例如实验室中,而不是在日常娱乐场景中。
基于外观的注视跟踪方法从人眼外观图像中提取特征作为输入,然后学习一个注视映射函数,将眼睛图像映射到注视方向从而实现注视估计。与基于模型的注视跟踪方法不同,基于外观的方法通常只需要一个摄像头就可以捕捉到用户的眼睛图像。Zhang等人从人眼图像中提取颜色、灰度、方向等低维特征,采用k=13的KNN分类器学习图像特征到注视方向的映射。Wang等人[7]在传统的视线跟踪方法中增加了深度特征的提取,并应用了随机森林回归的方法。Kacete等人利用随机森林回归方法从人脸信息的高维数据中估计注视向量。这种方法可以进行并行处理,训练速度相对较快。Wu等人通过使用外观模型的特征定位眼睛区域,并使用支持向量机(SVM)对五个注视方向进行分类。
近年来,随着机器学习的发展和海量数据的支持,越来越多的基于学习的注视估计方法被采用。其中,基于cnn的方法非常流行,这种方法有很大的潜力来处理传统方法中遇到的挑战,包括冗余校准过程,复杂的头部姿态,和照明条件的限制。Zhang等人建立了一个新颖的野外数据集,利用CNN学习从头部姿态和眼睛图像到注视角度的映射。Krafka等人[11]提出了一种针对移动设备的眼球跟踪方法,该方法采用人脸图像、人眼和人脸网格作为输入。Zhang等人利用空间权值CNN对人脸图像进行编码,灵活地抑制或增强不同人脸区域的信息。Cheng等人提出了双眼对称性的概念来预测三维注视方向,设计了一个评价网络,根据眼睛的性能自适应调整回归网络。Palmero等人在CNN中使用人脸、眼区和人脸地标作为单独的信息流来估计静态图像中的凝视。该方法首次考虑了凝视的动态特性。将所有帧的学习特征依次输入多对一递归模块,预测到最后一帧的三维视线向量即所求视线向量。Fischer等人为了提高视线估计的鲁棒性,记录了一个不同头部姿态的新数据集,并将语义图像应用于眼镜覆盖区域,消除眼镜的遮挡性,在训练图像和测试图像之间架起了桥梁。Yu等人提出了一种新型约束模型,得到眼睛地标位置与注视方向的关系。
发明内容
为了利用神经网络的强大功能提高注视向量预测的精度,本发明提出了一种自适应加权视线估计方法,通过判断人脸图像、左眼图像、右眼图像对最终视线估计结果的影响,根据三者对应的预测值与真实值的误差大小给予相应的权重,从而对图像和视线向量间的回归模型进行调整,实现自适应调权的概念。
本发明解决其技术问题所采用的技术方案是:
一种自适应加权的视线估计方法,所述方法包括以下步骤:
S1.数据预处理,对图像数据进行归一化处理,过程如下:
S1.1.使人脸参考点位于距离相机固定距离的图像中心;
假设a(ax,ay,az)是相机空间下的人脸参考点,旋转后的虚拟相机下的z轴为虚拟相机下的y轴为vy=vz×hx,其中hx是头部姿态旋转矩阵中的x轴.然后x轴就可以通过y轴和z轴得到,vx=vz×vy,因此,旋转矩阵被定义为/>假设虚拟空间和参考点的距离为d,那么转换矩阵被定义为M=SR,其中S被定义为
S1.2.将人脸转换为特定相机空间下的图像平面;
通过warp矩阵W=CaMCv -1将人脸转换为特定相机空间下的图像平面,其中Ca是原相机的内参数矩阵,Cv是虚拟相机的内参数矩阵;除此之外,在训练阶段,原始的视觉标签使用gv=Rga进行转换,其中gv代表归一化后的视线向量,ga代表初始视线向量;在测试阶段,对每一个预测结果使用ga=R-1gv从虚拟相机空间转换到原相机空间;
S2.建立回归模型,用左眼、右眼、脸的图像作为输入,视线向量的真实值作为标签来训练模型,过程如下:
S2.1.建立主网络并设计对应loss函数;
主网络是一个六流的卷积神经网络,使用简化版的ALexnet卷积层作为每个分支的基本网络,设计前三组数据分别从人脸、左眼、右眼中提取64维的深层特征,后三组数据产生了一个关节64维的特征;然后通过一个全连接层将6组数据组合起来,并经过一个dropout层防止过拟合问题,最后通过六维的全连接层得到对应的视线向量结果;
对于训练主网络,设计了对应的策略进行调整,过程如下:
首先计算目前预测的脸和双眼的三维注视方向的角度误差:
其中,f(I)代表视线向量的预测值(注视回归),g代表视线向量真实值。然后,计算三者的加权平均误差:
e=λf·ef+λl·el+λr·er
其中,权重λf,λl,λr决定了脸和双眼的准确度哪个更重要。如要其中哪个区域的图像更容易产生更小的误差,就应该在优化网络时加大它的权重,因此设计如下:
考虑到三个区域的图像在输入模型后分别得到的预测值与实际目标值的误差会有所不同,计算预测值与目标值间的均方差;
结合公式(4)、(5)、(6),得到最终的损失函数:
S2.2建立子网络并通过子网络调整主网络的训练策略;
主网络可以预测得到视线向量通过输入高质量的脸部和眼部图像,设计了调权网络来学习预测回归网络的选择,并且在优化过程中体现其对不同区域特征的依赖;
调权网络是一个三流的卷积神经网络,每个分支分别从人脸、左眼、右眼中提取64维的深层特征,ALexnet卷积层作为每个分支的基本网络,后面跟着一个三维全连接层,最后通过Softmax得到对应的脸部和双眼的概率偏重向量[pf,pl,pr]T;
为了能够训练调权函数来预测回归函数的选择,设置了以下loss函数:
其中,pf是回归函数在预测过程中依赖于脸部区域的概率,pl是依赖于左眼的概率,pf是依赖于右眼的概率;
在训练过程中,P的真实值由回归网络中的视线向量误差决定,以脸部概率为例,ptf为1当ef<el且ef<er时,其他情况时ptf为0.换句话说,当脸部区域在回归网络中的误差最小时,应当选择最大化pf来学习这一事实从而实现调整回归网络;同理,当el的值最小时,ptl为1否则为0;当er的值为最小时,ptr为1否则为0;
调权网络的目的是调整回归网络从而提高视线估计的精度,为了达到这个目的,回归网络的Loss函数被调整为:
视线向量依赖于输入回归网络的图像,其中,W能够平衡左眼、右眼和脸部区域的权重的学习。当视线向量的真实值gf,gl和gr近似一致时,在网络学习的过程中无需加大任意一块区域的权重;而当gf,gl和gr的数值区别较大时,应该更偏向于训练在回归网络中误差较小的某块区域;W可以实现自适应调节,由调权网络的输出(pf,pl,pr)决定,计算如下:
如果ef<el并且ef<er时,a为1,否则a为0;如果er<el并且er<ef时,b为1,否则b为0.在实验过程中,w为0到1之间的十进制数;
模型经过训练得到最终结果,反映输入图像与视线向量间的映射关系。
本发明的有益效果为:可以在不同光照,不同头部姿态下保持高精度并具有一定的健壮性。
附图说明
图1是所提三维视线向量的整体结构。
图2是数据预处理的基础概念。
图3是所提自适应加权模型的整体结构。
图4是主网络的结构图
图5是子网络的结构图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图5,一种自适应加权的视线跟踪方法,首先,对记录的图像进行数据预处理;然后,提出自适应加权模型的网络架构;最后,通过所提网络进行训练并使用对应的策略进行调整,得到最终的模型。
所述自适应加权的视线跟踪方法包括以下步骤:
S1.数据预处理
头部姿态对注视估计结果有显著影响,为减弱该因素的影响,对图像数据进行归一化处理;
如图2所示,归一化处理过程如下:
S1.1.使人脸参考点位于距离相机固定距离的图像中心;
假设a(ax,ay,az)是相机空间下的人脸参考点,旋转后的虚拟相机下的z轴为虚拟相机下的y轴为vy=vz×hx,其中hx是头部姿态旋转矩阵中的x轴。然后x轴就可以通过y轴和z轴得到,vx=vz×vy,因此,旋转矩阵被定义为/>假设虚拟空间和参考点的距离为d,那么转换矩阵被定义为M=SR,其中S被定义为
S1.2.将人脸转换为特定相机空间下的图像平面;
通过warp矩阵W=CaMCv -1将人脸转换为特定相机空间下的图像平面,其中Ca是原相机的内参数矩阵,Cv是虚拟相机的内参数矩阵,除此之外,在训练阶段,原始的视觉标签使用gv=Rga进行转换,其中gv代表归一化后的视线向量,ga代表初始视线向量,在测试阶段,对每一个预测结果使用ga=R-1gv从虚拟相机空间转换到原相机空间;
S2.建立回归模型
本发明中,提出了一种自适应调权的回归模型用于对基于外观的视线估计预测;在实践中,我们观察到在不同的场景下,左眼、右眼和脸部区域对回归的精度是有影响的,不同的图片区域无法达到同样的精度值;因此,在训练回归模型时,我们期望能够更好地依赖高质量图像从而训练更高效的模型;如图3所示,这个模型主要由一个主网络和一个子网络组成,主网络实现图像到视线向量的回归预测,子网络实现主网络Loss函数的调整从而达到自适应调权的目的;所提的网络用左眼、右眼、脸的图像作为输入,视线向量的真实值作为标签来训练模型;
S2.1.建立主网络并设计对应loss函数;
为实现自适应调权的思想,人脸和双眼的分离特征和联合特征都应被提取和利用;如图4所示,该网络是一个六流的卷积神经网络,使用简化版的ALexnet卷积层作为每个分支的基本网络,设计前三组数据分别从人脸、左眼、右眼中提取64维的深层特征,后三组数据产生了一个关节64维的特征;然后通过一个全连接层将6组数据组合起来,并经过一个dropout层防止过拟合问题,最后通过六维的全连接层得到对应的视线向量结果;
对于训练主网络,设计了对应的策略进行调整,过程如下:
首先计算目前预测的脸和双眼的三维注视方向的角度误差:
其中,f(I)代表视线向量的预测值(注视回归),g代表视线向量真实值。然后,计算三者的加权平均误差:
e=λf·ef+λl·el+λr·er
其中,权重λf,λl,λr决定了脸和双眼的准确度哪个更重要,如要其中哪个区域的图像更容易产生更小的误差,就应该在优化网络时加大它的权重,因此设计如下:
考虑到三个区域的图像在输入模型后分别得到的预测值与实际目标值的误差会有所不同,计算预测值与目标值间的均方差。
结合公式(4)、(5)、(6),得到最终的损失函数:
S2.2建立子网络并通过子网络调整主网络的训练策略;
主网络可以预测得到视线向量通过输入高质量的脸部和眼部图像。本发明设计了调权网络来学习预测回归网络的选择,并且在优化过程中体现其对不同区域特征的依赖;
如图5所示,该网络是一个三流的卷积神经网络。每个分支分别从人脸、左眼、右眼中提取64维的深层特征,ALexnet卷积层作为每个分支的基本网络,后面跟着一个三维全连接层,最后通过Softmax得到对应的脸部和双眼的概率偏重向量[pf,pl,pr]T;
为了能够训练调权函数来预测回归函数的选择,设置了以下loss函数:
其中,pf是回归函数在预测过程中依赖于脸部区域的概率,pl是依赖于左眼的概率,pf是依赖于右眼的概率;
在训练过程中,P的真实值由回归网络中的视线向量误差决定,以脸部概率为例,ptf为1当ef<el且ef<er时,其他情况时ptf为0,换句话说,当脸在回归网络中的误差最小时,应当选择最大化pf来学习这一事实从而实现调整回归网络;同理,当el的值最小时,ptl为1否则为0;当er的值为最小时,ptr为1否则为0;
调权网络的目的是调整回归网络从而提高视线估计的精度。为了达到这个目的,回归网络的Loss函数被调整为:
视线向量依赖于输入回归网络的图像,其中,W能够平衡左眼、右眼和脸部区域的权重的学习;当视线向量的真实值gf,gl和gr近似一致时,在网络学习的过程中无需加大任意一块区域的权重;而当gf,gl和gr的数值区别较大时,应该更偏向于训练在回归网络中误差较小的某块区域,W可以实现自适应调节,由调权网络的输出(pf,pl,pr)决定,计算如下:
如果ef<el并且ef<er时,a为1,否则a为0;如果er<el并且er<ef时,b为1,否则b为0.在实验过程中,w为0到1之间的十进制数;
模型经过训练得到最终结果,反映输入图像与视线向量间的映射关系。
Claims (1)
1.一种基于自适应加权的视线跟踪方法,其特征在于,所述方法包括以下步骤:
S1.数据预处理,对输入图像进行归一化处理,过程如下:
S1.1.使人脸参考点位于距离相机固定距离的图像中心;
假设a(ax,ay,az)是相机空间下的人脸参考点,旋转后的虚拟相机下的z轴为vz=az/az,虚拟相机下的y轴为vy=vz×hx,其中hx是头部姿态旋转矩阵中的x轴;然后通过y轴和z轴得到x轴,vx=vz×vy,旋转矩阵被定义为假设虚拟空间和参考点的距离为d,那么转换矩阵被定义为M=SR,其中S被定义为S=diag(1,1,d/a2);
S1.2.将人脸转换为特定相机空间下的图像平面;
通过warp矩阵W=CaMCv -1将人脸转换为特定相机空间下的图像平面,其中Ca是原相机的内参数矩阵,Cv是虚拟相机的内参数矩阵;除此之外,在训练阶段,原始的视线标签使用gv=Rga进行转换,其中gv代表归一化后的视线向量,ga代表初始视线向量;
S2.建立回归模型
提出了一种自适应调权的回归模型用于对基于外观的视线估计预测,所述回归模型由一个主网络和一个子网络组成,主网络实现图像到视线向量的回归预测,子网络实现主网络Loss函数的调整从而达到自适应调权的目的;
S2.1.建立主网络并设计对应loss函数;
该主网络是一个六组的卷积神经网络,设计前三组数据分别从人脸、左眼、右眼中提取64维的深层特征,后三组数据产生了一个关节64维的特征;然后通过一个全连接层将6组数据组合起来,并经过一个dropout层防止过拟合问题,最后通过六维的全连接层得到对应的视线向量结果;
对于训练主网络,设计了对应的策略进行调整,过程如下:
首先计算目前预测的脸和双眼的三维注视方向的角度误差:
其中,f(I)代表视线向量的预测值,即注视回归,g代表视线向量真实值,然后,计算三者的加权平均误差:
e=λf·ef+λl·el+λr·er (4)
其中,权重λf,λl,λr决定了脸和双眼的准确度哪个更重要,因此设计如下:
考虑到三个区域的图像在输入主网络后分别得到的预测值与目标值的误差会有所不同,计算预测值与目标值间的均方差;
结合公式(4)、(5)、(6),得到最终的损失函数:
S2.2建立子网络并通过子网络调整主网络的训练策略;
主网络预测得到视线向量通过输入高质量的脸部和眼部图像,设计了子网络来学习预测回归网络的选择,并且在优化过程中体现其对不同区域特征的依赖,该子网络是一个三个网络流的卷积神经网络,每个分支分别从人脸、左眼、右眼中提取64维的深层特征,ALexnet卷积层作为每个分支的基本网络,后面跟着一个三维全连接层,最后通过Softmax得到对应的脸部和双眼的概率偏重向量[pf,pl,pr]T;
为了能够训练调权函数来预测回归函数的选择,设置了以下loss函数:
其中,pf是回归函数在预测过程中依赖于脸部区域的概率,pl是依赖于左眼的概率,pr是依赖于右眼的概率;
调权网络的目的是调整回归网络从而提高视线估计的精度,为了达到这个目的,回归网络的Loss函数被调整为:
视线向量依赖于输入回归网络的图像,其中,w能够平衡左眼、右眼和脸部区域的权重的学习并且实现自适应调节,由调权网络的输出(pf,pl,pr)决定,计算如下:
如果ef<el并且ef<er时,m为1,否则m为0;如果er<el并且er<ef时,n为1,否则n为0;在实验过程中,w为0到1之间的十进制数,
子网络经过训练得到最终结果,反映输入图像与视线向量间的映射关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910869212.6A CN111259713B (zh) | 2019-09-16 | 2019-09-16 | 一种基于自适应加权的视线跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910869212.6A CN111259713B (zh) | 2019-09-16 | 2019-09-16 | 一种基于自适应加权的视线跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111259713A CN111259713A (zh) | 2020-06-09 |
CN111259713B true CN111259713B (zh) | 2023-07-21 |
Family
ID=70944976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910869212.6A Active CN111259713B (zh) | 2019-09-16 | 2019-09-16 | 一种基于自适应加权的视线跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111259713B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183200B (zh) * | 2020-08-25 | 2023-10-17 | 中电海康集团有限公司 | 一种基于视频图像的眼动追踪方法和系统 |
CN112749655A (zh) * | 2021-01-05 | 2021-05-04 | 风变科技(深圳)有限公司 | 视线追踪方法、装置、计算机设备和存储介质 |
CN112766097B (zh) * | 2021-01-06 | 2024-02-13 | 中国科学院上海微系统与信息技术研究所 | 视线识别模型的训练方法、视线识别方法、装置及设备 |
CN113379799B (zh) * | 2021-06-03 | 2022-06-07 | 武汉大学 | 基于轮廓估计的无锚框目标跟踪方法 |
CN113822174B (zh) * | 2021-09-02 | 2022-12-16 | 合肥的卢深视科技有限公司 | 视线估计的方法、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107748858A (zh) * | 2017-06-15 | 2018-03-02 | 华南理工大学 | 一种基于级联卷积神经网络的多姿态眼睛定位方法 |
CN108171218A (zh) * | 2018-01-29 | 2018-06-15 | 深圳市唯特视科技有限公司 | 一种基于深度外观注视网络的视线估计方法 |
CN109559332A (zh) * | 2018-10-31 | 2019-04-02 | 浙江工业大学 | 一种结合双向LSTM和Itracker的视线跟踪方法 |
CN110058694A (zh) * | 2019-04-24 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 视线追踪模型训练的方法、视线追踪的方法及装置 |
WO2019145578A1 (en) * | 2018-06-11 | 2019-08-01 | Fotonation Limited | Neural network image processing apparatus |
-
2019
- 2019-09-16 CN CN201910869212.6A patent/CN111259713B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107748858A (zh) * | 2017-06-15 | 2018-03-02 | 华南理工大学 | 一种基于级联卷积神经网络的多姿态眼睛定位方法 |
CN108171218A (zh) * | 2018-01-29 | 2018-06-15 | 深圳市唯特视科技有限公司 | 一种基于深度外观注视网络的视线估计方法 |
WO2019145578A1 (en) * | 2018-06-11 | 2019-08-01 | Fotonation Limited | Neural network image processing apparatus |
CN109559332A (zh) * | 2018-10-31 | 2019-04-02 | 浙江工业大学 | 一种结合双向LSTM和Itracker的视线跟踪方法 |
CN110058694A (zh) * | 2019-04-24 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 视线追踪模型训练的方法、视线追踪的方法及装置 |
Non-Patent Citations (6)
Title |
---|
Efficient and Low-Cost Deep-Learning Based Gaze Estimator for Surgical Robot Control;Peng Li et al.;《2018 IEEE International Conference on Real-time Computing and Robotics (RCAR)》;20190124;全文 * |
基于3D人眼模型的视线跟踪技术综述;周小龙等;《计算机辅助设计与图形学学报》;20170930;第29卷(第4期);全文 * |
基于深度学习的视觉目标跟踪算法;周洁;《内蒙古师范大学学报(自然科学汉文版)》;20180315(第02期);全文 * |
基于视线跟踪的人机交互感知机制的研究;房爱青;《中国优秀硕士学位论文全文数据库 信息科技辑》;20181215;全文 * |
基于视觉系统的智能目标跟踪算法研究;产思贤;《中国博士学位论文全文数据库 信息科技辑》;20180715;全文 * |
头戴式眼动跟踪系统设计与实现;宫德麟等;《科技创新与应用》;20151108(第31期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111259713A (zh) | 2020-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259713B (zh) | 一种基于自适应加权的视线跟踪方法 | |
US20240029269A1 (en) | Neural network for eye image segmentation and image quality estimation | |
CN110503680B (zh) | 一种基于非监督的卷积神经网络单目场景深度估计方法 | |
CN107545302B (zh) | 一种人眼左右眼图像联合的视线方向计算方法 | |
CN110175566B (zh) | 一种基于rgbd融合网络的手部姿态估计系统及方法 | |
CN106599883B (zh) | 一种基于cnn的多层次图像语义的人脸识别方法 | |
CN111046734B (zh) | 基于膨胀卷积的多模态融合视线估计方法 | |
US11921291B2 (en) | Systems and methods for performing self-improving visual odometry | |
CN109559332B (zh) | 一种结合双向LSTM和Itracker的视线跟踪方法 | |
CN104463191A (zh) | 一种基于注意机制的机器人视觉处理方法 | |
US10884494B1 (en) | Eye tracking device calibration | |
CN110135249A (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
CN111105439B (zh) | 一种使用残差注意力机制网络的同步定位与建图方法 | |
CN112232310B (zh) | 一种用于表情捕捉的人脸识别系统和方法 | |
CN114120432A (zh) | 基于视线估计的在线学习注意力跟踪方法及其应用 | |
JP2023521593A (ja) | 視線追跡のための方法 | |
Wang et al. | SABV-Depth: A biologically inspired deep learning network for monocular depth estimation | |
Kurdthongmee et al. | A yolo detector providing fast and accurate pupil center estimation using regions surrounding a pupil | |
Zhou et al. | Learning a 3D gaze estimator with adaptive weighted strategy | |
CN113673494B (zh) | 人体姿态标准运动行为匹配方法及系统 | |
Hsu et al. | Pose-guided and style-transferred face reenactment | |
CN112099330A (zh) | 基于外部相机和穿戴式显控设备的全息人体重建方法 | |
Hu et al. | HG-Net: Hybrid Coarse-Fine-Grained Gaze Estimation in Unconstrained Environments | |
Sha et al. | Monocular 3D gaze estimation using feature discretization and attention mechanism | |
WO2023056149A1 (en) | Image processing framework for performing object depth estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |