CN113807251A - 一种基于外观的视线估计方法 - Google Patents
一种基于外观的视线估计方法 Download PDFInfo
- Publication number
- CN113807251A CN113807251A CN202111092136.6A CN202111092136A CN113807251A CN 113807251 A CN113807251 A CN 113807251A CN 202111092136 A CN202111092136 A CN 202111092136A CN 113807251 A CN113807251 A CN 113807251A
- Authority
- CN
- China
- Prior art keywords
- layer
- normalized
- coordinate system
- eye
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于外观的视线估计方法,主要解决现有视线估计方法需要额外的检测眼睛的模块、视线估计实时性较差及准确率较低的问题,其方案是:(1)对公开数据集MPIIFaceGaze进行预处理;(2)对ResNet网络进行改造,搭建轻量级ResNet网络进行图像特征提取;(3)使用注意力机制增大人脸中与视线估计有关权重,抑制其他与视线估计无关权重;(4)对改造后的ResNet网络进行训练和测试,并结合dlib库及OpenCV进行测试。本发明提高了视线估计的准确率和实时性,可实现多人视线检测,可广泛应用于机器人、手机、笔记本电脑等设备中,且无需使用者穿戴任何辅助设备。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于外观的视线估计方法。
背景技术
视线是人类情感分析的重要非语言线索。该领域的研究根据不同的场景与应用大致可分为三类:注视点估计、注视目标估计以及三维视线估计。注视点估计即估算人双目视线聚焦的落点,其一般场景是估计人在一个二维平面上的注视点,二维平面可以是手机屏幕、pad屏幕和电视屏幕等,目前落点误差在3厘米,对手机屏幕、平板电脑屏幕和电视屏幕等来说已经是相当大的误差;注视目标估计即检测给定人物所注视的目标,这类方法较为局限,其要求人与其注视的目标必须同时出现在同一张图片中,这大大限制了其应用范围;三维视线估计是从眼睛图片或人脸图片中推导出人的视线方向,仅使用人脸图片即可,且应用场景广泛。
三维视线估计一般可以分为基于几何的方法和基于外观的方法两大类。基于几何的方法往往需要高分辨率的图像和额外的检测眼睛的模块,而基于外观的方法则是直接学习一个将外观映射到视线方向的模型。在现有技术中大多是基于几何的方法进行视线估计,其实时性和鲁棒性较差。随着现有硬件和神经网络技术飞速发展,基于外观的视线估计方法视线估计精度越来越高,且只需一个普通的摄像头获得人脸图像即可,使得它成为无束缚的视线估计方式,且完全能够满足实际需求也更人性化。
发明内容
本发明针对上述的不足,提供了一种基于外观的视线估计方法,解决视线估计实时性较差和准确性较低的问题。
为了达到本发明的目的,本发明采用的技术方案为:一种基于外观的视线估计方法,包括以下步骤:
步骤1:对公开数据集MPIIFaceGaze进行预处理;
步骤2:搭建轻量级的融合CBAM注意力机制的ResNet网络;
步骤3:将预处理后的数据集送入神经网络进行训练,并保存网络参数;
步骤4:载入神经网络和训练好的神经网络参数,结合dlib人脸检测和OpenCV进行实时的视线估计,得到视线俯仰角、偏航角和翻滚角。
进一步的:对公开数据集MPIIFaceGaze进行预处理,包括以下步骤;
步骤1-1:对公开数据集MPIIFaceGaze通过读取其注解文件获得人脸部关键点,在其注解文件中第4维数据开始到第15维数据每相邻两个维度为脸部关键点的一个坐标(x,y),其中包括左眼的内眼角点和外眼角点、右眼的内眼角点和外眼角点和嘴部两个角点,取左眼两个眼角点的中点为左眼瞳孔中心、右眼两个眼角点的中点为右眼瞳孔中心和嘴部两个角点的中点,所述三个中点为人脸关键点;
步骤1-2:通过头部姿态坐标系Sh的信息建立归一化坐标系Sn,头部姿态坐标系的建立采用EPnP法建立,取右眼两个关键点的中点为右眼中心,取左眼两个关键点的中点为左眼中心,取嘴部两个关键点的中点为嘴部中心,从右眼中心到左眼中心的方向是头部姿态坐标系的X轴,与眼睛和嘴巴中心组成的XOY平面垂直的方向是Z轴,数据归一化处理即将原始输入图像进行仿射变换,将图像转换到归一化坐标系下,以便可以在具有固定相机参数和参考点位置的归一化空间中执行视线估计,给定输入图像I,计算转换矩阵M=S*R,R表示相机旋转矩阵的逆矩阵,S表示缩放矩阵,被定义为从眼睛中心到距归一化坐标系原点的距离为ds处,ds为600mm;
归一化坐标系Sn的三个坐标轴为Xn、Yn和Zn,原点为On,头部姿态坐标系Sh的三个坐标轴为Xh、Yh和Zh,原点为Oh,相机坐标系Sc的三个坐标轴为Xc、Yc和Zc,原点为Oc,On与Oc相同,Zn与Zc相同;
S=diag(1,1,λ) (1-2)
步骤1-3:转换矩阵M将输入到原始相机坐标系中的点旋转并缩放到归一化坐标系中,输入图像I使用图像转换矩阵进行仿射变换将其转换到归一化坐标系中,Cr是对应于相机校准获得的输入图像的投影矩阵,Cs是预定义参数,用于定义归一化空间中的相机投影矩阵;
公式(1-3)中fx和fy为相机的焦距值,cx和cy分别为图像的长和宽;
步骤1-4:在训练阶段,所有具有真实注释向量g的训练图像I都被归一化或直接由ds和Cs在训练空间中合成,真实注视向量g也被归一化为在测试阶段测试图像以相同的方式归一化,并通过归一化空间中训练的回归函数估计归一化空间中它们对应的注视向量,然后逆归一化通过转换得到实际的俯仰角、偏航角和翻滚角。
进一步的:所述轻量级的融合CBAM注意力机制的ResNet网络结构为:在特征提取网络中输入图像连接conv1(7,7,64)层,conv1(7,7,64)层连接conv2_x1(3,3,64)*2层,conv2_x1与conv2_x2(3,3,64)*2层连接,conv2_x2(3,3,64)*2层连接conv3_x1(3,3,128)*2层,conv3_x1(3,3,128)*2层连接conv3_x2(3,3,128)*2层,conv3_x2(3,3,128)*2层连接conv4_x1(3,3,256)*2层,conv4_x1(3,3,256)*2层连接conv4_x2(3,3,256)*2层,conv4_x2(3,3,256)*2层经过flatten操作再与FC层连接,在每一个残差块中,上一个残差块的输出经过卷积操作得到特征1,特征1经过通道注意力机制CAM后的输出与特征1相乘得到特征2,特征2经过空间注意力机制SAM后的输出与特征2相乘得到特征3,特征3与上一个残差块的输入相加得到本残差块的输出,在网络中每个卷积层后的激活函数使用Relu激活函数。
进一步的:所述网络参数学习方法具体为:将预处理后的图片数据集和标签文件送入搭建好的视线估计网络进行参数学习,并保存训练好的网络参数。
进一步的:使用OpenCV调用摄像头,进行视频数据拍摄并将其拆解为帧图片的数据,然后通过dlib库中的人脸检测算法,检测图片中是否出现人脸出现,若出现人脸且为睁眼状态则将图片数据归一化处理后送入网络,同时调用ResNet网络并载入其网络模型参数,进行在归一化的相机坐标系中的视线向量预测,然后经过逆归一化处理得到视线的角度。
本发明有益效果为:
本发明可直接通过人脸图像求得人的视线角度,采用轻量级的残差网络,检测速度快,融合注意力机制以增大人脸中与视线估计有关的区域的权重,抑制与视线估计无关区域权重,同时具有只需普通的摄像头,无需使用者穿戴任何设备,且可以部署在多种设备上的优点。
附图说明
图1为本发明涉及的一种基于外观的视线估计方法整体流程图;
图2为本发明涉及的一种基于外观的视线估计方法的人脸关键点示意图;
图3为本发明涉及的一种基于外观的视线估计方法的注意力机制融合方法图;
图4为本发明涉及的一种基于外观的视线估计方法的网络结构图;
图5为本发明涉及的一种基于外观的视线估计方法的测试流程图;
具体实施方式
在下文中将结合附图对本发明的示范性实施例进行描述。为了清楚和简明起见,在说明书中并未描述实际实施方式的所有特征。然而,应该了解,在开发任何这种实际实施例的过程中必须做出很多特定于实施方式的决定,以便实现开发人员的具体目标,例如,符合与系统及业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与根据本发明的方案密切相关的部分,而省略了与本发明关系不大的其他细节。
具体实施方式一:
本实施方式的一种基于外观的视线估计方法,结合图1所示,包括以下步骤:
步骤1:对公开数据集MPIIFaceGaze进行预处理;
步骤2:搭建轻量级的融合CBAM注意力机制的ResNet网络;
步骤3:将预处理后的数据集送入神经网络进行训练,并保存网络参数;
步骤4:载入神经网络和训练好的神经网络参数,结合dlib人脸检测和OpenCV进行实时的视线估计,得到视线俯仰角、偏航角和翻滚角。
具体实施方式二:
本实施方式的一种基于外观的视线估计方法,结合图2所示,数据预处理包括以下步骤:
步骤1-1:对公开数据集MPIIFaceGaze通过读取其注解文件获得人脸部关键点,在其注解文件中第4维数据开始到第15维数据每相邻两个维度为脸部关键点的一个坐标(x,y),其中包括左眼的内眼角点和外眼角点、右眼的内眼角点和外眼角点和嘴部两个角点,取左眼两个眼角点的中点为左眼瞳孔中心、右眼两个眼角点的中点为右眼瞳孔中心和嘴部两个角点的中点,所述三个中点为人脸关键点;
步骤1-2:通过头部姿态坐标系Sh的信息建立归一化坐标系Sn,头部姿态坐标系的建立采用EPnP法建立,取右眼两个关键点的中点为右眼中心,取左眼两个关键点的中点为左眼中心,取嘴部两个关键点的中点为嘴部中心,从右眼中心到左眼中心的方向是头部姿态坐标系的X轴,与眼睛和嘴巴中心组成的XOY平面垂直的方向是Z轴,数据归一化处理即将原始输入图像进行仿射变换,将图像转换到归一化坐标系下,以便可以在具有固定相机参数和参考点位置的归一化空间中执行视线估计,给定输入图像I,计算转换矩阵M=S*R,R表示相机旋转矩阵的逆矩阵,S表示缩放矩阵,被定义为从眼睛中心到距归一化坐标系原点的距离为ds处,ds为600mm;
归一化坐标系Sn的三个坐标轴为Xn、Yn和Zn,原点为On,头部姿态坐标系Sh的三个坐标轴为Xh、Yh和Zh,原点为Oh,相机坐标系Sc的三个坐标轴为Xc、Yc和Zc,原点为Oc,On与Oc相同,Zn与Zc相同;
S=diag(1,1,λ) (1-2)
步骤1-3:转换矩阵M将输入到原始相机坐标系中的点旋转并缩放到归一化的相机坐标系中,输入图像I使用图像转换矩阵进行仿射变换将其转换到归一化的相机坐标系中,Cr是对应于相机校准获得的输入图像的投影矩阵,Cs是预定义参数,用于定义归一化空间中的相机投影矩阵;
公式(1-3)中fx和fy为相机的焦距值,cx和cy分别为图像的长和宽;
步骤1-4:在训练阶段,所有具有真实注释向量g的训练图像I都被归一化或直接由ds和Cs在训练空间中合成,真实注视向量g也被归一化为在测试阶段测试图像以相同的方式归一化,并通过归一化空间中训练的回归函数估计归一化空间中它们对应的注视向量,然后逆归一化通过转换得到实际的俯仰角、偏航角和翻滚角。
具体实施方法三:
本实施方式的一种基于外观的视线估计方法,结合图3和图4所示,网络具体结构为:
在特征提取网络中输入图像连接conv1(7,7,64)层,conv1(7,7,64)层连接conv2_x1(3,3,64)*2层,conv2_x1与conv2_x2(3,3,64)*2层连接,conv2_x2(3,3,64)*2层连接conv3_x1(3,3,128)*2层,conv3_x1(3,3,128)*2层连接conv3_x2(3,3,128)*2层,conv3_x2(3,3,128)*2层连接conv4_x1(3,3,256)*2层,conv4_x1(3,3,256)*2层连接conv4_x2(3,3,256)*2层,conv4_x2(3,3,256)*2层经过flatten操作再与FC层连接,在每一个残差块中,上一个残差块的输出经过卷积操作得到特征1,特征1经过通道注意力机制CAM后的输出与特征1相乘得到特征2,特征2经过空间注意力机制SAM后的输出与特征2相乘得到特征3,特征3与上一个残差块的输入相加得到本残差块的输出,在网络中每个卷积层后的激活函数使用Relu激活函数。
具体实施方法四:
本实施方式的一种基于外观的视线估计方法,结合图1和图5所示,训练及测试具体流程为:
将预处理后的图片数据集和标签文件送入搭建好的视线估计网络进行参数学习,并保存训练好的网络参数。使用OpenCV调用摄像头,进行视频数据拍摄并将其拆解为帧图片,然后通过dlib库中的人脸检测算法,检测图片中是否出现人脸出现,若出现人脸且为睁眼状态则将图片数据归一化处理后送入网络,同时调用ResNet网络并载入其网络模型参数,进行在归一化的相机坐标系中视线向量预测,然后经过逆归一化处理得到视线的角度。
尽管根据上述实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的,而非限制性的,本发明的范围由所附权利要求书限定。
Claims (5)
1.一种基于外观的视线估计方法,其特征在于:所述方法通过以下步骤实现:
步骤1:对公开数据集MPIIFaceGaze进行预处理;
步骤2:搭建轻量级的融合CBAM注意力机制的ResNet网络;
步骤3:将预处理后的数据集送入神经网络进行训练,并保存网络参数;
步骤4:载入神经网络和训练好的神经网络参数,结合dlib人脸检测和OpenCV进行实时的视线估计,得到视线俯仰角、偏航角和翻滚角。
2.根据权利要求1所述的一种基于外观的视线估计方法,所述步骤1其特征在于:
步骤1-1:对公开数据集MPIIFaceGaze通过读取其注解文件获得人脸部关键点,在其注解文件中第4维数据开始到第15维数据每相邻两个维度为脸部关键点的一个坐标(x,y),其中包括左眼的内眼角点和外眼角点、右眼的内眼角点和外眼角点和嘴部两个角点,取左眼两个眼角点的中点为左眼瞳孔中心、右眼两个眼角点的中点为右眼瞳孔中心和嘴部两个角点的中点,所述三个中点为人脸关键点;
步骤1-2:通过头部姿态坐标系Sh的信息建立归一化坐标系Sn,头部姿态坐标系的建立采用EPnP法建立,取右眼两个关键点的中点为右眼中心,取左眼两个关键点的中点为左眼中心,取嘴部两个关键点的中点为嘴部中心,从右眼中心到左眼中心的方向是头部姿态坐标系的X轴,与眼睛和嘴巴中心组成的XOY平面垂直的方向是X轴,数据归一化处理即将原始输入图像进行仿射变换,将图像转换到归一化坐标系下,以便可以在具有固定相机参数和参考点位置的归一化空间中执行视线估计,给定输入图像I,计算转换矩阵M=S*R,R表示相机旋转矩阵的逆矩阵,S表示缩放矩阵,被定义为从眼睛中心到距归一化坐标系原点的距离为ds处,ds为600mm;
归一化坐标系Sn的三个坐标轴为Xn、Yn和Zn,原点为On,头部姿态坐标系Sh的三个坐标轴为Xh、Yh和Zh,原点为Oh,相机坐标系Sc的三个坐标轴为Xc、Yc和Zc,原点为Oc,On与Oc相同,Zn与Zc相同;
S=diag(1,1,λ) (1-2)
步骤1-3:转换矩阵M将输入到原始相机坐标系中的点旋转并缩放到归一化坐标系中,输入图像I使用图像转换矩阵进行仿射变换将其转换到归一化坐标系中,Cr是对应于相机校准获得的输入图像的投影矩阵,Cs是预定义参数,用于定义归一化空间中的相机投影矩阵;
公式(1-3)中fx和fy为相机的焦距值,cx和cy分别为图像的长和宽;
3.根据权利要求1所述一种基于外观的视线估计方法,所述步骤2其特征在于:
所述轻量级的融合CBAM注意力机制的ResNet网络结构为:在特征提取网络中输入图像连接conv1(7,7,64)层,conv1(7,7,64)层连接conv2_x1(3,3,64)*2层,conv2_x1与conv2_x2(3,3,64)*2层连接,conv2_x2(3,3,64)*2层连接conv3_x1(3,3,128)*2层,conv3_x1(3,3,128)*2层连接conv3_x2(3,3,128)*2层,conv3_x2(3,3,128)*2层连接conv4_x1(3,3,256)*2层,conv4_x1(3,3,256)*2层连接conv4_x2(3,3,256)*2层,conv4_x2(3,3,256)*2层经过flatten操作再与FC层连接,在每一个残差块中,上一个残差块的输出经过卷积操作得到特征1,特征1经过通道注意力机制CAM后的输出与特征1相乘得到特征2,特征2经过空间注意力机制SAM后的输出与特征2相乘得到特征3,特征3与上一个残差块的输入相加得到本残差块的输出,在网络中每个卷积层后的激活函数使用Relu激活函数。
4.根据权利要求1所述的一种基于外观的视线估计方法,所述步骤3其特征在于:
所述网络参数学习方法具体为:将预处理后图片数据集和标签文件送入搭建好的视线估计网络进行参数学习,并保存训练好的网络参数。
5.根据权利要求1所述的一种基于外观的视线估计方法,所述步骤4其特征在于:
使用OpenCV调用摄像头,进行视频数据实时录制并将其拆解为帧图片,然后通过dlib库中的人脸检测算法,检测图片中是否出现人脸,若出现人脸且为睁眼状态则将图片数据归一化处理后送入网络,同时调用ResNet网络并载入其网络模型参数,进行在归一化相机坐标系中的视线方向预测,然后经过逆归一化处理得到视线的角度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111092136.6A CN113807251A (zh) | 2021-09-17 | 2021-09-17 | 一种基于外观的视线估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111092136.6A CN113807251A (zh) | 2021-09-17 | 2021-09-17 | 一种基于外观的视线估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113807251A true CN113807251A (zh) | 2021-12-17 |
Family
ID=78939519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111092136.6A Pending CN113807251A (zh) | 2021-09-17 | 2021-09-17 | 一种基于外观的视线估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113807251A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114067420A (zh) * | 2022-01-07 | 2022-02-18 | 深圳佑驾创新科技有限公司 | 一种基于单目摄像头的视线测量方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171218A (zh) * | 2018-01-29 | 2018-06-15 | 深圳市唯特视科技有限公司 | 一种基于深度外观注视网络的视线估计方法 |
CN110378315A (zh) * | 2019-07-29 | 2019-10-25 | 成都航空职业技术学院 | 一种基于脸部图像的视线角度估计方法 |
JP2020140630A (ja) * | 2019-03-01 | 2020-09-03 | 国立大学法人九州工業大学 | 注視点推定システム、注視点推定方法、注視点推定プログラム、及び、これが記録された情報記録媒体 |
CN112613460A (zh) * | 2020-12-30 | 2021-04-06 | 深圳威富优房客科技有限公司 | 人脸生成模型的建立方法和人脸生成方法 |
US20210142095A1 (en) * | 2018-07-25 | 2021-05-13 | Beijing Sensetime Technology Development Co., Ltd. | Image disparity estimation |
-
2021
- 2021-09-17 CN CN202111092136.6A patent/CN113807251A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171218A (zh) * | 2018-01-29 | 2018-06-15 | 深圳市唯特视科技有限公司 | 一种基于深度外观注视网络的视线估计方法 |
US20210142095A1 (en) * | 2018-07-25 | 2021-05-13 | Beijing Sensetime Technology Development Co., Ltd. | Image disparity estimation |
JP2020140630A (ja) * | 2019-03-01 | 2020-09-03 | 国立大学法人九州工業大学 | 注視点推定システム、注視点推定方法、注視点推定プログラム、及び、これが記録された情報記録媒体 |
CN110378315A (zh) * | 2019-07-29 | 2019-10-25 | 成都航空职业技术学院 | 一种基于脸部图像的视线角度估计方法 |
CN112613460A (zh) * | 2020-12-30 | 2021-04-06 | 深圳威富优房客科技有限公司 | 人脸生成模型的建立方法和人脸生成方法 |
Non-Patent Citations (2)
Title |
---|
SANGHYUN WOO等: "CBAM: Convolutional Block Attention Module", 《PROCEEDINGS OF THE EUROPEAN CONFERENCE ON COMPUTER VISION (ECCV)》 * |
XUCONG ZHANG等: "MPIIGaze: Real-World Dataset and Deep Appearance-Based Gaze Estimation", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114067420A (zh) * | 2022-01-07 | 2022-02-18 | 深圳佑驾创新科技有限公司 | 一种基于单目摄像头的视线测量方法及装置 |
CN114067420B (zh) * | 2022-01-07 | 2023-02-03 | 深圳佑驾创新科技有限公司 | 一种基于单目摄像头的视线测量方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210343041A1 (en) | Method and apparatus for obtaining position of target, computer device, and storage medium | |
US8923392B2 (en) | Methods and apparatus for face fitting and editing applications | |
CN107646126A (zh) | 用于移动设备的相机姿态估计 | |
CN112001859B (zh) | 一种人脸图像的修复方法及系统 | |
CN110599395A (zh) | 目标图像生成方法、装置、服务器及存储介质 | |
US9158963B2 (en) | Fitting contours to features | |
CN113034652A (zh) | 虚拟形象驱动方法、装置、设备及存储介质 | |
US20220358675A1 (en) | Method for training model, method for processing video, device and storage medium | |
US20140099031A1 (en) | Adjusting a Contour by a Shape Model | |
CN111723707A (zh) | 一种基于视觉显著性的注视点估计方法及装置 | |
CN109859857A (zh) | 身份信息的标注方法、装置和计算机可读存储介质 | |
US11335023B2 (en) | Human pose estimation using neural networks and kinematic structure | |
US11403768B2 (en) | Method and system for motion prediction | |
CN113095274A (zh) | 一种视线估计方法、系统、装置及存储介质 | |
CN111222459A (zh) | 一种视角无关的视频三维人体姿态识别方法 | |
CN114266823A (zh) | 一种结合SuperPoint网络特征提取的单目SLAM方法 | |
CN113807251A (zh) | 一种基于外观的视线估计方法 | |
CN116580169B (zh) | 一种数字人驱动方法及装置、电子设备和存储介质 | |
CN112381749A (zh) | 一种图像处理方法、图像处理装置和电子设备 | |
US20230093827A1 (en) | Image processing framework for performing object depth estimation | |
CN113342157A (zh) | 眼球追踪处理方法及相关装置 | |
Zhou et al. | Hierarchical structure and nonrigid motion recovery from 2D monocular views | |
CN116051722A (zh) | 三维头部模型重建方法、装置及终端 | |
Toleg et al. | Towards an example-based image compression architecture for video-conferencing | |
CN116797713A (zh) | 一种三维重建方法和终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |