CN112329699A - 一种像素级精度的人眼注视点定位方法 - Google Patents
一种像素级精度的人眼注视点定位方法 Download PDFInfo
- Publication number
- CN112329699A CN112329699A CN202011299779.3A CN202011299779A CN112329699A CN 112329699 A CN112329699 A CN 112329699A CN 202011299779 A CN202011299779 A CN 202011299779A CN 112329699 A CN112329699 A CN 112329699A
- Authority
- CN
- China
- Prior art keywords
- network
- point
- key point
- image
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 210000001508 eye Anatomy 0.000 claims abstract description 71
- 210000003128 head Anatomy 0.000 claims abstract description 29
- 210000001747 pupil Anatomy 0.000 claims abstract description 27
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 230000004580 weight loss Effects 0.000 claims description 2
- 210000005252 bulbus oculi Anatomy 0.000 abstract description 2
- 238000003672 processing method Methods 0.000 abstract description 2
- 230000036544 posture Effects 0.000 abstract 2
- 238000001028 reflection method Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 8
- 230000004927 fusion Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种像素级精度的人眼注视点定位方法,通过深度网络关键点之后,采用计算眼部区域图像的梯度,去进一步修正瞳孔中心位置。相比于现有的视线估计方法,能够更精确的定位瞳孔中心位置,尤其是对于头部或眼球偏置较大的情况。本发明实施例能够有效的提升视线估计的精度,进而定位到用户的实现注视点位置。除此之外,通过深度网络估计眼睛到屏幕的距离,进而将估计出用户在屏幕上的注视点。相比于瞳孔角膜反射方法,只采用单个网络摄像头,大大降低了设备成本。相比现有单图处理的方法,本发明不需要限制头部的姿态,算法的鲁棒性大大增加。通过与3D人脸模型匹配,解决了现有数据库无法表示所有姿态的局限性问题,增加了该方法的实用性。
Description
技术领域
本发明实施例涉及一种像素级精度的人眼注视点定位方法,尤其是涉及一种像素级精度的人眼注视点定位方法。
背景技术
随着计算机科学的发展,人机交互逐渐成为了一个热门的领域。人眼视线能够反映人的关注信息,也属于人机交互中重要的信息输入源。基于视线估计的人机交互在军事、医疗、娱乐等领域有着广阔的发展前景。
一般来说,视线估计方法可以分为基于几何的方法(Geometry Based Methods)和基于外观的方法(Appearance Based Methods)两大类。基于几何的方法的基本思想是检测眼睛的一些特征(例如眼角、瞳孔位置等关键点),然后根据这些特征来计算gaze。而基于外观的方法则是直接学习一个将外观映射到gaze的模型。两类方法各有长短:几何方法相对更准确,且对不同的domain表现稳定,然而这类方法对图片的质量和分辨率有很高的要求;基于外观的方法对低分辨和高噪声的图像表现更好。
目前比较常用的技术为瞳孔角膜反射技术(PCCR),使用近红外光源使用户眼睛的角膜和瞳孔上产生反射图像,然后使用图像传感器采集眼睛与反射的图像,最后基于三维眼球模型计算眼睛在空间中的位置和视线。这个方法虽然具有较高的精度,但是受限于昂贵的传感器设备难以普及。
发明内容
本发明的发明目的在于:针对上述存在的问题,提供一种结合多级神经网络来精确定位瞳孔中心,提升方案的精度,增加方案的可行性。
本发明实施例提出了一种像素级精度的人眼注视点定位方法,通过神经网络回归出的2D关键点和3D关键点等相关数据,能够有效的提升估计的精度,相比于单纯2D或者3D深度学习的方法,精度得到极大的提升,增强了用户体验。
本发明的一种像素级精度的人眼注视点定位方法,包括下列步骤:
步骤S1,构建人脸关键点检测以及姿态估计网络模型,使用自动搜索网络为主网络,自定义网络为分支网络组成的网络结构构建关键点与姿态估计模型;
步骤S2,计算目标人物在图像中偏移量和头部姿态,使用3D关键点模型计算头部姿态,使用2D关键模型模计算目标人物在图像中偏移量,并提取眼部区域;
步骤S3,利用瞳孔关键点在所述眼部区域的偏移量,计算目标人物的视场角度:使用虹膜分割网络和2D瞳孔关键确定瞳孔中心位置,并根据所述眼部区域的2D关键点数据,计算所述瞳孔关键点在眼部区域的偏移量,进而计算所述目标人物的视场角度;
步骤S4,根据相机视场角计算所述目标人物所在空间平面:根据头部姿态和注视方向的角度,计算所述相机目标空间平面的注视点坐标;
步骤S5,根据所述步骤S4计算的注视点空间坐标,映射到显示图像的像素上。
相比于现有基于单图像的传统图像处理方法,不需要限制头部的姿态,算法的鲁棒性大大增加。通过于3D人脸模型的匹配,消除了姿态的局限性,从而增加了该方法的实用性,其主要优点如下:
1.本发明深度学习网络回归人脸3D关键,充分利用了3D关键点模型整体误差小,局部细节较差,而且回归数据稳定的特性,计算头部姿态,与传统的基于n点透视的计算头部方法相比,精度更高且更稳定;
2.本发明在训练2D关键点模型时,将头部姿态引入loss函数,使目的模型更适应宽泛的姿态数据;
3.本发明采用多模型融合的方法,彼此互补,提升了整体的精度;
4.本发明在训练2D关键点模型时,重点考虑了眼睛部分,引入Hausdorff距离,使得目标模型在眼睛部位的精度提升,便于瞳孔定位;
5.本发明使用虹膜分割网络,用于定位瞳孔位置,相比传统方法,精度和算法鲁棒性都得到了提升。
得益于上述优点,本发明使用3D和2D关键点模型融合的方式,可以对复杂姿态下的人脸数据进行高精度的关键点定位和姿态估计,同时多模型融合保证了算法的精度,鲁棒性和易用性,可广泛应用于人眼注视点定位的系统中,比如视线控制交互,用户专注信息采集系统,广告推荐应用等。
附图说明
图1为本发明实施例提供了一种像素级精度的人眼注视点定位方法的流程图;
图2为本发明实施例提供了一种像素级精度的人眼注视点定位方法的3D关键点效果图;
图3为本发明实施例提供了一种像素级精度的人眼注视点定位方法的人脸偏移量计算效果图;
图4为本发明实施例提供了一种像素级精度的人眼注视点定位方法的眼部区域定位效果图;
图5为本发明实施例提供了一种像素级精度的人眼注视点定位方法的虹膜分割的效果图;
图6为本发明实施例提供了一种像素级精度的人眼注视点定位方法的虹膜分割的结果效果图;
图7为本发明实施例提供了一种像素级精度的人眼注视点定位方法的瞳孔活动区域边界定位效果图;
图8为本发明实施例提供了一种像素级精度的人眼注视点定位方法的目标人物视场角计算模型图;
图9为本发明实施例提供了一种像素级精度的人眼注视点定位方法的注视点在相机平面空间坐标计算的模型图。
具体实施方式
为使本发明的目的,技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
图1为本发明实施例提供了一种像素级精度的人眼注视点定位方法的流程图,该方法包括以下几个步骤:
步骤S1,构建人脸关键点检测以及姿态估计网络模型:
具体地,S1.1,选取基础网络resnet18网络作为backbone(主干网络),回归468个3D人脸关键点,构建人脸关键点和头部姿态数据(如图2所示,左图为468个3D关键点空间示意图,右图为3D关键点投影到人脸图像上的效果图):选取98关键点数据集为基础,利用3D关键点模型计算头部姿态,并将所述姿态数据与98关键点数据保存为新的数据集。
具体地,S1.2,选取基础网络EfficientNets作为主干网络,并自定义轻量型分支网络回归头部姿态。
其原因在于它通过执行网格搜索,找到在固定资源约束下基线网络的不同缩放维度之间的关系系数,然后应用这些系数扩大基线网络,能达到模型优化及高效的目的。
需要说明的是,在实际训练模型时,进一步提高精度提高效率的关键是平衡网络宽度,网络深度,图像分辨率(w,d,r)这三个因素,其计算原理如下:
d=αφ
w=βφ
r=λφ
α·β2·λ2≈2
α≥1,β≥1,λ≥1
具体地,S1.3,将姿所述态数据与关键点数据作为loss计算权重,加入训练,并将眼部区域的关键点集合进行Hausdorff距离,增加所述眼睛部分关键点的权重loss计算方法,其公式如下:
其中,上式中M为样本个数,N为全部特征点个数,W为眼部关键点的个数,θ为人脸姿态的三维欧拉角(K=3),d为回归的landmark和groundtrue(即预测值与标定值)之间的欧氏距离,H为眼部landmark和groundtrue的Hausdorff距离。
需要说明的是,该损失函数设计的目的是,对于样本量比较大的数据(如正脸,即欧拉角都相对较小的情况),给予一个相对小的权值,在进行梯度的反向传播的时候,对模型训练的贡献小一些;对于样本量比较少的数据(侧脸、低头、抬头、表情极端等),给予一个较大的权值,除此之外,还针对眼部的关键点增大了权值从而使在进行梯度的反向传播的时候,对模型训练的贡献大一些。该损失函数的设计,非常巧妙的解决了平衡各类情况训练样本不均衡的问题。
步骤S2,计算目标人物在图像中偏移量和头部姿态。
具体地,S2.1,利用步骤S1得到的所述3D关键模型,对所述人脸图像进行关键点预测,利用所述3D人脸关键点集合求得头部姿态的欧拉角ψ。
具体地,S2.2,利用步骤S1得到的所述2D关键模型模,计算所述目标人物在图像中偏移量,求解左右眼的各自的包围盒,其左右包围盒中心坐标为Cleft,Cright原始图像右下角坐标为Cimage(图3为人脸偏移量的示意图),则所述偏移量β计算公式如下:
β=((Cleft+Cright)/2)/Cimage
步骤S3,利用所述瞳孔关键点在眼部区域的偏移量,计算所述目标人物的视场角度。
具体地,S3.1,通过2D人脸关键点模型确定左右眼睛的区域,选取眉毛和眼睛区域关键点求包围盒,取包围盒宽的1.2倍,其中心点不变,提取所述眼部区域,提取得到的眼部区域图像如图4举例所示。
具体地,S3.2,使用虹膜分割网络IrisParseNet,利用其全局特征与局部特征融合的特点定位瞳孔中心点位置,定位效果如图5所示。
具体地,S3.3,由于光照的影响,预测结果可能混入噪声,如下图6所示,(绿色部分为人脸关键点预测的瞳孔位置,白色部分存在噪点),使用人脸关键点中瞳孔关键点的数据,来计算备选瞳孔掩膜集合S中元素的欧氏距离d,同时计算瞳孔掩膜的面积s,进而选取最佳瞳孔掩膜,进而定位瞳孔中心点的位置,最佳瞳孔掩膜区域计算公式如下:
T=λ*Max{si|i∈S}+(1-λ)Min{di|i∈S}
具体地,S3.4,利用所述瞳孔关键点在眼部区域的偏移量,计算所述目标人物的视场角度:利用所述人脸关键点眼部区域的数据,分别选取左右眼区域(如图7所示)内外眼角连线的中心点作为坐标原点,即P,结合定位到的瞳孔中心点M,计算出瞳孔关键点在眼部区域的偏移量α,计算公式如下:
α=(M-P)/E
其中,E为眼部边界关键点确定的区域。
进一步地,由于选取的相机与入眼的视场角一致,则可根据瞳孔关键点在眼部区域的偏移量α,计算出目标人物的注视角度θ,如图8所示,其计算公式如下:
θ=arctan(X/h)
其中φ为眼睛的视场角与相机一致,为已知量,由于采用与眼睛视场角一致的相机,则h近似等于步骤S4中获得距离h1,为已知量,θ为注视方向的角度,X为注视对象所在平面的实际偏移量,求解目标。
需要说明的是,由于采用与眼睛视场角一致的相机,根据几何关系可理解h实际上是与硬件设备获取目标人物距离摄像头的距离h1近似相等的,误差极小,可以忽略。
步骤S4,根据所述相机视场角计算所述目标人物所在空间平面。
具体地,S4.1,通过硬件设备获取目标人物距离摄像头的距离h1。
具体地,S4.2,根据头部姿态和注视方向的角度,计算所述相机目标空间平面的注视点坐标,
由于目标人物注视的对象处于显示硬件所在的空间平面,假定相机与显示硬件在空间同一位置,(具体实际位置关系,安装时可人为确定),目标target的空间坐标计算公式如下:
target=tan(π/2-ω+θ)*h1
其中,E1、E2为平行平面,ω=π/2-ψ,ψ为头部姿态。
步骤S5,根据步骤S4计算得到的所述注视点空间坐标,映射到显示图像的像素上:由于显示硬件的尺寸R,与图像分辨率U,均可以获得,则他们的比例关系L,则可求得,进而求得注视点的像素坐标Q,计算公式如下:
L=γ*(R/U)
Q=target/L
其中,γ为图像与显示硬件之间的缩放比例,当λ=1时,图像铺满显示硬件。
至此通过上述计算可得到人左右眼注视点在硬件屏幕的位置,即Q。
本发明深度学习网络回归人脸3D关键,充分利用了3D关键点模型整体误差小,局部细节较差,而且回归数据稳定的特性,计算头部姿态,与传统的基于n点透视的计算头部方法相比,精度更高且更稳定,同时重点考虑了眼睛部分,引入Hausdorff距离,使得目标模型在眼睛部位的精度提升,便于瞳孔定位,可以对复杂姿态下的人脸数据进行高精度的关键点定位和姿态估计,同时多模型融合保证了算法的精度、鲁棒性和易用性,可广泛应用于人眼注视点定位的系统中。
综上,所述对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
Claims (10)
1.一种像素级精度的人眼注视点定位方法,其特征在于,包括下列步骤:
步骤S1,构建人脸关键点检测以及姿态估计网络模型,使用自动搜索网络为主网络,自定义网络为分支网络组成的网络结构构建关键点与姿态估计模型,并对所述态数据与关键点数据作为loss计算权重;
步骤S2,计算目标人物在图像中偏移量和头部姿态,使用3D关键点模型计算头部姿态,使用2D关键模型模计算目标人物在图像中偏移量,并提取眼部区域;
步骤S3,利用瞳孔关键点在所述眼部区域的偏移量,计算目标人物的视场角度:使用虹膜分割网络和2D瞳孔关键确定瞳孔中心位置,并根据所述眼部区域的2D关键点数据,计算所述瞳孔关键点在眼部区域的偏移量,进而计算所述目标人物的视场角度;
步骤S4,根据相机视场角计算所述目标人物所在空间平面:根据头部姿态和注视方向的角度,计算所述相机目标空间平面的注视点坐标;
步骤S5,根据所述步骤S4计算的注视点空间坐标,映射到显示图像的像素上。
2.根据权利要求1所述的一种像素级精度的人眼注视点定位方法,其特征在于,所述构建人脸关键点检测以及姿态估计网络模型,通过选取基础网络resnet18网络作为backbone(主干网络),回归468个3D人脸关键点,构建人脸关键点和头部姿态数据,选取98关键点数据集为基础,利用3D关键点模型计算头部姿态,并将所述姿态数据与98关键点数据保存为新的数据集。
3.根据权利要求1所述的一种像素级精度的人眼注视点定位方法,其特征在于,所述自定义网络为分支网络组成的网络结构构建关键点与姿态估计模型,通过选取基础网络EfficientNets作为主干网络,并自定义轻量型分支网络回归所述头部姿态。
5.根据权利要求1所述的一种像素级精度的人眼注视点定位方法,其特征在于,所述计算目标人物在图像中头部姿态,对所述人脸图像进行关键点预测,利用所述3D人脸关键点集合求得头部姿态的欧拉角ψ。
6.根据权利要求1所述的一种像素级精度的人眼注视点定位方法,其特征在于,所述计算目标人物在图像中的偏移量,所述偏移量β计算公式如下:
β=((Cleft+Cright)/2)/Cimage
其中,Cleft为左包围盒中心坐标,Cleft为右包围盒中心坐标,Cimage为原始图像Cright右下角坐标。
7.根据权利要求1所述的一种像素级精度的人眼注视点定位方法,其特征在于,计算所述瞳孔关键点在眼部区域的偏移量,计算公式如下:
α=(M-P)/E
其中,α为所述瞳孔关键点在眼部区域的偏移量,M为瞳孔中心点,P为内外眼角连线的中心点作为坐标原点,E为眼部边界关键点确定的区域。
9.根据权利要求1所述的一种像素级精度的人眼注视点定位方法,其特征在于,所述计算所述相机目标空间平面的注视点坐标,计算公式如下:
target=tan(π/2-ω+θ)*h1
其中,E1、E2为平行平面,ω=π/2-ψ,ψ为头部姿态,h1为获取目标人物距离摄像头的距离。
10.根据权利要求1所述的一种像素级精度的人眼注视点定位方法,其特征在于,所述映射到显示图像的像素上,计算公式如下:
L=γ*(R/U)
Q=target/L
其中,R为显示硬件的尺寸,U为图像分辨率,γ为图像与显示硬件之间的缩放比例,Q为注视点的像素坐标,当λ=1时,图像铺满显示硬件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011299779.3A CN112329699A (zh) | 2020-11-19 | 2020-11-19 | 一种像素级精度的人眼注视点定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011299779.3A CN112329699A (zh) | 2020-11-19 | 2020-11-19 | 一种像素级精度的人眼注视点定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112329699A true CN112329699A (zh) | 2021-02-05 |
Family
ID=74321583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011299779.3A Pending CN112329699A (zh) | 2020-11-19 | 2020-11-19 | 一种像素级精度的人眼注视点定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112329699A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113011286A (zh) * | 2021-03-02 | 2021-06-22 | 重庆邮电大学 | 基于视频的深度神经网络回归模型的斜视判别方法及系统 |
CN113052064A (zh) * | 2021-03-23 | 2021-06-29 | 北京思图场景数据科技服务有限公司 | 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法 |
CN115482574A (zh) * | 2022-09-29 | 2022-12-16 | 珠海视熙科技有限公司 | 基于深度学习的屏幕注视点估计方法、装置、介质及设备 |
CN116048244A (zh) * | 2022-07-29 | 2023-05-02 | 荣耀终端有限公司 | 一种注视点估计方法及相关设备 |
-
2020
- 2020-11-19 CN CN202011299779.3A patent/CN112329699A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113011286A (zh) * | 2021-03-02 | 2021-06-22 | 重庆邮电大学 | 基于视频的深度神经网络回归模型的斜视判别方法及系统 |
CN113052064A (zh) * | 2021-03-23 | 2021-06-29 | 北京思图场景数据科技服务有限公司 | 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法 |
CN113052064B (zh) * | 2021-03-23 | 2024-04-02 | 北京思图场景数据科技服务有限公司 | 基于面部朝向、面部表情及瞳孔追踪的注意力检测方法 |
CN116048244A (zh) * | 2022-07-29 | 2023-05-02 | 荣耀终端有限公司 | 一种注视点估计方法及相关设备 |
CN116048244B (zh) * | 2022-07-29 | 2023-10-20 | 荣耀终端有限公司 | 一种注视点估计方法及相关设备 |
CN115482574A (zh) * | 2022-09-29 | 2022-12-16 | 珠海视熙科技有限公司 | 基于深度学习的屏幕注视点估计方法、装置、介质及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10082868B2 (en) | Calculation method of line-of-sight direction based on analysis and match of iris contour in human eye image | |
CN112329699A (zh) | 一种像素级精度的人眼注视点定位方法 | |
CN106066696B (zh) | 自然光下基于投影映射校正和注视点补偿的视线跟踪方法 | |
Alberto Funes Mora et al. | Geometric generative gaze estimation (g3e) for remote rgb-d cameras | |
CN109271914A (zh) | 检测视线落点的方法、装置、存储介质和终端设备 | |
US20190304064A1 (en) | Customizable image cropping using body key points | |
US20150206003A1 (en) | Method for the Real-Time-Capable, Computer-Assisted Analysis of an Image Sequence Containing a Variable Pose | |
US20140098093A2 (en) | Method for the Real-Time-Capable, Computer-Assisted Analysis of an Image Sequence Containing a Variable Pose | |
CN112102389A (zh) | 确定实物至少一部分的3d重构件的空间坐标的方法和系统 | |
CN106796449A (zh) | 视线追踪方法及装置 | |
CN105678809A (zh) | 手持式自动跟拍装置及其目标跟踪方法 | |
CN106529409A (zh) | 一种基于头部姿态的眼睛注视视角测定方法 | |
EP3154407B1 (en) | A gaze estimation method and apparatus | |
CN111353506A (zh) | 自适应的视线估计方法和设备 | |
WO2019010959A1 (zh) | 用于确定视线的方法、设备和计算机可读存储介质 | |
CN107563323A (zh) | 一种视频人脸特征点定位方法 | |
CN109947253B (zh) | 眼球追踪的模型建立方法、眼球追踪方法、设备、介质 | |
CN109344714A (zh) | 一种基于关键点匹配的视线估计方法 | |
US20030235337A1 (en) | Non-rigid image registration using distance functions | |
US20220027602A1 (en) | Deep Learning-Based Three-Dimensional Facial Reconstruction System | |
CN111815768B (zh) | 三维人脸重建方法和装置 | |
CN109785373A (zh) | 一种基于散斑的六自由度位姿估计系统及方法 | |
CN111881888A (zh) | 基于姿态识别的智能桌控制方法及装置 | |
CN114360043B (zh) | 模型参数标定方法、视线追踪方法、装置、介质及设备 | |
CN109308472B (zh) | 一种基于虹膜投影匹配函数的三维视线估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
DD01 | Delivery of document by public notice |
Addressee: Beijing Zhongke Hongxing Technology Co.,Ltd. Person in charge of patentsThe principal of patent Document name: Notification of Invention Patent Application Entering the Substantive Examination Stage |
|
DD01 | Delivery of document by public notice |