CN104978548A - 一种基于三维主动形状模型的视线估计方法与装置 - Google Patents
一种基于三维主动形状模型的视线估计方法与装置 Download PDFInfo
- Publication number
- CN104978548A CN104978548A CN201410131007.7A CN201410131007A CN104978548A CN 104978548 A CN104978548 A CN 104978548A CN 201410131007 A CN201410131007 A CN 201410131007A CN 104978548 A CN104978548 A CN 104978548A
- Authority
- CN
- China
- Prior art keywords
- mtd
- msubsup
- mtr
- msub
- mrow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 230000000007 visual effect Effects 0.000 title abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 68
- 210000001747 pupil Anatomy 0.000 claims abstract description 49
- 210000003128 head Anatomy 0.000 claims abstract description 29
- 230000004438 eyesight Effects 0.000 claims description 15
- 238000012937 correction Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 description 24
- 230000004886 head movement Effects 0.000 description 13
- 238000013507 mapping Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012417 linear regression Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 210000004087 cornea Anatomy 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 210000000720 eyelash Anatomy 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- FKOQWAUFKGFWLH-UHFFFAOYSA-M 3,6-bis[2-(1-methylpyridin-1-ium-4-yl)ethenyl]-9h-carbazole;diiodide Chemical compound [I-].[I-].C1=C[N+](C)=CC=C1C=CC1=CC=C(NC=2C3=CC(C=CC=4C=C[N+](C)=CC=4)=CC=2)C3=C1 FKOQWAUFKGFWLH-UHFFFAOYSA-M 0.000 description 1
- 201000008217 Aggressive systemic mastocytosis Diseases 0.000 description 1
- 241000284156 Clerodendrum quadriloculare Species 0.000 description 1
- 101000701876 Homo sapiens Serpin A9 Proteins 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 102000050111 human SERPINA9 Human genes 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于三维主动形状模型的视线估计方法,包括:步骤1,利用两个相机获取用户的人脸正面图像作为训练数据;步骤2,对获取的图像进行二维关键点定位,包括瞳孔定位和图像中人脸的主动形状模型ASM定位;步骤3,对所述二维关键点进行三维坐标重建,得到左右眼瞳孔中心在世界坐标系中的三维坐标,并得到人脸三维ASM形状;步骤4,使用双眼轮廓与瞳孔中心的相对位置来表示左右眼的视线特征;步骤5,根据得到的视线特征建立正面视点估计模型;在预测步骤,利用所述正面视点估计模型对预测样本进行人眼视线估计。利用本发明的方案,通过建立人脸三维ASM,显示地估计出人的头部姿态,从而提高视线估计对头部运动的适应性。
Description
技术领域
本发明涉及视线估计技术领域,具体涉及一种基于三维主动形状模型的视线估计方法与系统。
背景技术
视线估计的发展经历了漫长的历程,从早期的直接观察法、机械记录法、电流记录法、电磁感应法以及光学记录法等发展到现在的基于视觉的视线估计方法,视线估计取得了很大的进步。尤其是在过去三十年,视线估计技术发展迅速,目前已经应用于人机交互、助老助残、车辆辅助驾驶、心理学分析、虚拟现实和军事等领域。一些比较成功的商业系统已经出现,如瑞典Tobii公司、德国SMI公司以及美国应用科学实验室(AppliedScience Laboratories,ASL)等研制出的一些列眼动仪。
基于计算机视觉的视线估计方法,由于其非入侵性,成为当今最为主流的方法。一个通用的基于视觉技术的视线估计系统,如图1所示,主要包括两部分,标定过程与预测过程。在标定过程中,让用户主动注视预先设定的位置,同时摄像头采集用户的图像序列,进而对用户头部、眼睛等参数进行估计。在预测过程中,计算机对于用户的任意注视状态,判断出用户的视线。其中主要包括眼睛检测与跟踪、眼睛的特征提取、头部姿态估计、视线估计等步骤。最后将所得到的用户的视线信息用于各种特定的应用场合。
视线估计是用来确定人的视线方向(Gaze direction)或具体的视点(PoR,Point of regard)。视线估计方法根据不同规则有多种分类方法,一般分为两类,基于外观(Appearance-based)的方法与基于特征(Feature-based)的方法(参见Hansen D W,Ji Q.In the eye of the beholder:a survey of models foreyes and gaze.IEEE Transactions on Pattern Analysis and MachineIntelligence,2010,32(3):478-500),按照适用光照环境也可以分为基于自然光的方法与基于红外光的方法。
基于外观的方法先定位出眼睛区域,直接建立眼睛图像与屏幕中视点坐标的映射关系,Baluja、Pomerleau(参见Baluja S,Pomerleau D.Non-intrusive gaze tracking using artificial neural networks.In:Proceedings ofAdvances in Neural Information Processing Systems,Colorado,USA:IEEE,1994.753-760)以及Xu(参见Xu,Li-Qun,Dave Machin,and Phil Sheppard."A Novel Approach to Real-time Non-intrusive Gaze Finding."BMVC.1998.)等提出用多层神经网络的方法来实现这种映射,但由于需要大量训练数据,以至于标定过程极其复杂,约2000-3000个标定点。图像数据是一个高维数据,Tan et al.(参见Tan K H,Kriegman D J,Ahuja N.Appearance-based eye gaze estimation[C].Applications of Computer Vision,2002.(WACV2002).Proceedings.Sixth IEEE Workshop on.IEEE,2002:191-195.)使用局部线性嵌入算法(Locally Linear Embedding)来学习眼睛图像的流形。Williams等(参见Williams O,Blake A,Cipolla R.Sparse andsemi-supervised visual mapping with the S3GP.In:Proceedings of IEEEConference on Computer Vision and Pattern Recognition,New York,USA:IEEE,2006.230-237)提出基于稀疏、半监督的高斯过程回归(Sparse,semi-supervised Gaussian process regression)的方法来减少训练数据,将标定点数降到16个。Feng等(参见Feng L,Sugano Y,Takahiro O,Sato Y.Inferring human gaze from appearance via adaptive linear regression.In:Proceedings of IEEE International Conference on Computer Vision,Barcelona:IEEE,2011.153-160)提出用自适应线性回归(Adaptive linear regression)进一步解决该问题,将标定点数降到9个。文献(参见Sugano Y,Matsushita Y,Sato Y.Appearance-based gaze estimation using visual saliency.IEEETransactions on Pattern Analysis and Machine Intelligence,2013,35(2):329-341以及Chen J,Ji Q.Probabilistic gaze estimation without activepersonal calibration.In:Proceedings of IEEE Conference on Computer Visionand Pattern Recognition,Providence,RI,USA:IEEE,2011.609-616)用图像中视觉显著性较强的点代表人的视点,以代替人为主动标定的过程,但该方法标定精度较差。然而,这些基于外观的方法都没能很好地解决头部运动问题。
由于基于外观的视线估计方法中存在种种问题,目前基于特征的视线估计仍是最为流行的方法(参见Hansen D W,Ji Q.In the eye of the beholder:a survey of models for eyes and gaze.IEEE Transactions on Pattern Analysisand Machine Intelligence,2010,32(3):478-500)。基于特征的方法需要提取眼睛的局部特征,如瞳孔中心,虹膜轮廓,眼角点,亮斑(glint,也叫角膜反射点,是光源在眼睛角膜上的反射点)等。其中最为常用的局部特征是瞳孔中心与亮斑中心点。基于特征的方法主要包括基于插值(Interpolation-based)的方法与基于三维模型(三维model-based)的方法。
PCCR(Pupil center cornea reflection,瞳孔中心角膜反射)视线估计方法是最常用的基于插值的视线估计技术,多个系统(参见Zhu Z,Ji Q.Noveleye gaze tracking techniques under natural head movement.IEEE Transactionson Biomedical Engineering,2007,54(12):2246-2260;和Hutchinson T E,White K P J,Martin W N,Reichert K C,Frey L A.Human-computerinteraction using eye-gaze input.IEEE Transactions on Systems,Man andCybernetics,1989,19(6):1527-1534;和Jacob R J K.Eye-Movement-BasedHuman-Computer Interaction Techniques:Towards Non-Command Interfaces.Norwood,NJ:Ablex Publishing corporation,1993.151-190;和Morimoto C H,Koons D,Amir A,Flickner M.Pupil detection and tracking using multiplelight sources.Image and Vision Computing,2000,18(4):331-335;以及Ebisawa Y,Ohtani M,Sugioka A.Proposal of a zoom and focus controlmethod using an ultrasonic distance-meter for video-based eye-gaze detectionunder free-hand condition.In:Proceedings of Ithe18th Annual InternationalConference of the IEEE Engineering in Medicine and Biology Society,Amsterdam:IEEE,1996.523-525)都是基于PCCR技术(参见Zhu Z,Ji Q.Novel eye gaze tracking techniques under natural head movement.IEEETransactions on Biomedical Engineering,2007,54(12):2246-2260)。该方法首先通过多个点(通常为9个点)的标定过程,建立瞳孔中心亮斑中心向量与屏幕中视点的映射关系,然后通过映射函数来完成视线估计。其中,最为常用的映射函数是二次多项式。该方法在头部固定的情况下取得了很好的性能,但是随着头部运动其性能迅速下降,并且该方法需要9个点的标定过程。Sigut等(参见Ebisawa Y,Ohtani M,Sugioka A.Proposal of a zoomand focus control method using an ultrasonic distance-meter for video-basedeye-gaze detection under free-hand condition.In:Proceedings of Ithe18thAnnual International Conference of the IEEE Engineering in Medicine andBiology Society,Amsterdam:IEEE,1996.523-525)通过将头部与相机的距离信息加入到映射函数,建立了新的映射函数,部分解决了头部运动的问题,但将标定点数增加到27个,增加了标定过程的复杂程度。
文献(参见Sesma-Sanchez L,Villanueva A,Cabeza R,Gaze EstimationInterpolation Methods Based on Binocular Data,IEEE Trans Biomed Eng59(8):2235–2243,2012;和Cerrolaza JJ,Villanueva A,Cabeza R,Taxonomicstudy of polynomial regressions applied to the calibration ofvideo-oculographic systems,Proc Eye tracking research&applications pp.259–266,2008;以及Hennessey CA,Lawrence PD,Improving the accuracyand reliability of remote system-calibration-free eyegaze tracking,IEEE TransBiomed Eng56(7):1891–1900,2009.)通过增加亮斑的个数来提高该方法对头部运动的适应性,取得了一定的效果。其中Cerrolaza(参见Cerrolaza JJ,Villanueva A,Cabeza R,Taxonomic study of polynomial regressions applied tothe calibration of video-oculographic systems,Proc Eye tracking research&applications pp.259–266,2008.)和Sesma等(参见Sesma-Sanchez L,Villanueva A,Cabeza R,Gaze Estimation Interpolation Methods Based onBinocular Data,IEEE Trans Biomed Eng59(8):2235–2243,2012.)从以下三个方面比较全面地评估了该类方法的效果:1)光源个数;2)多项式函数;3)PCCR向量的归一化方法。文中指出,对于光源个数,多个光源比单个光源能够更好的适应头部运动;对于多项式函数,高阶多项式相比二次多项式有明显的优势;对于归一化方法,用同一个眼睛的两个光斑的距离作为归一化因子取得了最好的效果。
文献(参见Yoo,Dong Hyun,and Myung Jin Chung."A novelnon-intrusive eye gaze estimation using cross-ratio under large head motion."Computer Vision and Image Understanding98.1(2005):25-51;以及Lee,Hyeon Chang,et al."Gaze tracking system at a distance for controlling IPTV."Consumer Electronics,IEEE Transactions on56.4(2010):2577-2583.)基于单个相机、四个亮斑信息,提出新的基于交比(cross-ratio)的视线估计方法,该方法能够较好的解决头部运动问题。Hansen等(参见Hansen,Dan Witzner,Javier San Agustin,and Arantxa Villanueva."Homography normalization forrobust gaze estimation in uncalibrated setups."Proceedings of the2010Symposium on Eye-Tracking Research&Applications.ACM,2010.)在此方法基础上提出单应归一化(Homography normalization)的方法,进一步提高了该方法的稳定性。尽管该方法对头部运动有较好的适应性,但是,在实际系统中,很难同时保证多个亮斑在角膜中清晰成像。
但是基于特征的方法,通常利用了红外光源在角膜中的反射点信息,而亮斑信息易受头部运动、姿态变化以及环境光等的影响,限制了该技术的适用条件。
现有基于外观的视线估计方法中,用到了整个眼睛的外观特征,因此对头部运动适应性差。
现有基于PCCR技术的视线估计方法中,用到了亮斑中心的位置信息,而亮斑信息易受头部运动、姿态变化以及环境光等的影响,限制了该技术的适用条件。
现有基于瞳孔中心与眼角点的视线估计方法中,只用到的二维瞳孔中心与眼角点信息,不足以表达人眼的视线变化,并且对头部运动适应性差。
发明内容
为了克服现有技术中存在的上述缺陷,本发明提出了一种基于三维主动形状模型的视线估计方法与系统。
根据本发明的一个方面,提出了一种基于三维主动形状模型的视线估计方法,该方法包括训练步骤和预测步骤:训练步骤进一步包括:步骤1,利用两个相机获取用户的人脸正面图像作为训练数据,训练数据包括多个训练样本,每个训练样本包括两个相机同时拍摄的两张图像;步骤2,针对步骤1中获取的每幅图像,进行二维关键点定位,包括瞳孔定位和图像中人脸的主动形状模型ASM定位;步骤3,对所述二维关键点进行三维坐标重建,得到左右眼瞳孔中心在世界坐标系中的三维坐标,并得到人脸三维ASM形状,即人脸形状特征点在世界坐标系的三维坐标;步骤4,根据所述三维ASM形状确定左眼轮廓形状和右眼轮廓形状,使用双眼轮廓与瞳孔中心的相对位置来表示左右眼的视线特征;步骤5,根据得到的视线特征建立正面视点估计模型;在预测步骤,利用所述正面视点估计模型对预测样本进行人眼视线估计。
根据本发明的另一方面,提出了一种基于三维主动形状模型的视线估计装置,该装置包括:训练单元,用于根据训练数据中的每幅图像进行二维关键点定位,定位包括瞳孔定位和图像中人脸的主动形状模型ASM定位,并对所述二维关键点进行三维坐标重建,得到左右眼瞳孔中心在世界坐标系中的三维坐标,并得到人脸三维ASM形状,即人脸形状特征点在世界坐标系的三维坐标,然后根据所述三维ASM形状确定左眼轮廓形状和右眼轮廓形状,使用双眼轮廓与瞳孔中心的相对位置来表示左右眼的视线特征,并根据得到的视线特征建立正面视点估计模型,其中训练数据是利用两个相机获取的用户的人脸正面图像,训练数据包括多个训练样本,每个训练样本包括两个相机同时拍摄的两张图像;预测单元,用于利用所述正面视点估计模型对预测样本进行人眼视线估计。
利用本发明的基于三维主动形状模型的视线估计方法与装置,通过建立人脸三维ASM(Active Shape Model,主动形状模型),显示地估计出人的头部姿态,从而提高视线估计对头部运动的适应性。本发明只利用两个摄像机,不利用角膜反射点的信息,提高视线估计系统的应用范围。本发明由于不用角膜反射点信息,所以可以在自然光条件下使用,也可以在红外光条件下使用,并且可以应用与室外场景。在本发明的方法中提出了基于三维双眼眼睛轮廓与三维双眼瞳孔中心的视线特征,相对于传统基于二维瞳孔中心与眼角点的视线估计方法,本发明提出的视线特征不仅利用了整个眼睛轮廓的信息,并且也利用了深度信息(人脸距离摄像头的距离信息),从而更加全面与准确的表达了人眼的视线信息,进而提高视线估计的精度与稳定性。该方法相对于传统基于PCCR的方法,无需利用光斑信息,增加了视线估计的应用范围。
附图说明
图1是根据现有技术的基于计算机视觉的视线估计方法的流程图;
图2是根据本发明的基于三维主动形状模型的视线估计方法的原理图;
图3为本发明在数据采集过程中使用的屏幕与视点示意图。
图4为本发明瞳孔定位示意图,其中图4a为输入的图片,图4b为眼睛定位结果,图4c为瞳孔粗定位的圆形拟合结果,图4d为瞳孔精确定位的椭圆形拟合结果。
图5为根据本发明进行主动形状模型定位结果示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
图2为本发明基于三维主动形状模型的视线估计方法的原理图。参照图2,该方法包括三维数据获取步骤、训练步骤以及预测步骤。其中在训练步骤中会使用到获取的三维数据,在预测步骤也会使用到获取的三维数据,所以该方法所包括的步骤也可以理解为包括训练步骤和预测步骤,其中训练步骤和预测步骤中又分别包含有三维数据获取步骤。在训练步骤中用的是训练数据,在测试步骤中用的是测试数据,训练数据是线下采集的一批数据,测试数据是指对与一个新的用户,现场采集的数据,对于数据采集过程,在训练步骤和预测步骤中,二维关键点获取和三维数据获取等过程都是一模一样的。
在训练步骤,首先选择两个相机,这两个相机最好参数都相同,然后对两个相机进行相机标定,相机标定是该领域目前已有的成熟技术,具体例如可见参考文献(Zhang Z.A flexible new technique for cameracalibration[J].Pattern Analysis and Machine Intelligence,IEEE Transactionson,2000,22(11):1330-1334.)。在完成相机标定后,让用户注视屏幕中指定的多个视点,在用户注视其中不同的视点时,通过两个相机采集相应的正面人脸图像,使用这两个相机同时采集用户的正面人脸图片,然后分别对每个相机获取的图像进行二维关键点定位,其中二维关键点定位包括二维图像中人脸的主动形状模型(ASM,Active Shape Model)定位以及瞳孔定位。然后利用立体视觉技术,获取这些关键点的三维坐标。利用从图像中得到的关键点的三维坐标,建立该用户的正面人脸三维ASM模型。同时,让用户注视屏幕中指定的多个视点,在用户注视其中不同的视点时,通过两个相机采集相应的正面人脸图像,建立正面视点估计模型。
该训练步骤进一步包括:
步骤201:获取训练数据。在该步骤,采集带有视点标签的训练数据。如图3所示,在屏幕中标有多个点,让用户依次注视屏幕中的点,在用户注视每一个点时,用两个相机采集用户的人脸图像。图3中给出了三种不同的视点模式,一般点数越多,视线估计精度越高。为了得到正面人脸三维ASM模型,并且建立正面视点估计模型,在训练数据采集过程中,要求头部固定在相同的位置,并且保持头部姿态不变。
步骤202:利用两个相机采集到的用户的每一幅正面人脸图片,进行二维关键点定位。二维关键点定位包括瞳孔定位与二维图像中人脸的主动形状模型(ASM,Active Shape Model)定位。
本发明利用一种由粗到精的瞳孔定位算法,该算法对眼镜、眼睫毛、亮斑、瞳孔部分被遮挡、图片模糊等都有较好的适应性,记瞳孔中心点为p,表示瞳孔中心在二维图像中的坐标。瞳孔定位过程包括以下各步骤:
第一步,眼睛定位。由于受到眼镜、鼻孔、眼睫毛以及其他背景的干扰,直接进行瞳孔定位比较困难,故先进行眼睛定位,以去除部分背景的影响。本发明用基于SVM(参见Sigu J,Sidha S A.Iris center cornealreflection method for gaze tracking using visible light.IEEE Transactions onBiomedical Engineering,2011,58(2):411-419)训练的方法定位眼睛,用EOH(Edge orientation histograms,边缘梯度直方图)特征(参见Sesma-Sanchez L,Villanueva A,Cabeza R,Gaze Estimation InterpolationMethods Based on Binocular Data,IEEE Trans Biomed Eng59(8):2235–2243,2012.)表示眼睛的梯度信息。在主动红外光源的配合下,该方法能够有效确定眼睛的粗略位置。图4a为输入的图片,图4b为眼睛定位结果。
第二步,瞳孔粗定位。本发明用镜像对称变换(参见Cerrolaza JJ,Villanueva A,Cabeza R,Taxonomic study of polynomial regressions applied tothe calibration of video-oculographic systems,Proc Eye tracking research&applications pp.259–266,2008.)算法进行瞳孔粗定位,镜像对称变换是一种稳定的圆检测算法。该算法对眼睫毛、瞳孔部分被遮挡、眼镜等都有较好的适应性。经过瞳孔粗定位,得到的瞳孔中心基本在瞳孔内部,如图4(c)所示。
第三步,瞳孔精确定位。一般情况下,瞳孔与成像平面不平行,因此在图像中瞳孔近似为椭圆形状。圆的中心并不能精确的代表瞳孔的中心,为了获取更加精确的瞳孔中心位置,则需要进行椭圆精确定位。Starburst(星状散射)算法(参见Hennessey CA,Lawrence PD,Improving the accuracy andreliability of remote system-calibration-free eyegaze tracking,IEEE TransBiomed Eng56(7):1891–1900,2009.)是一种精确的椭圆定位算法,本发明用其进行瞳孔精确定位,精确定位如图4(d)所示。
对于单幅人脸图像,本发明采用ASM(参见P.Xiong,L.Huang,and C.Liu.Initialization and pose alignment in active shape model.In2010International Conference on Pattern Recognition,pages3971–3974.IEEE,2010)获取人脸二维ASM形状,该人脸二维ASM形状使用一组二维特征点连接而成,使用s进行表示:
其中, 表示构成s的n个特征点在图像中的二维坐标,n通常选择在30-100之间,如图5所示。
步骤203:三维关键点重建。本发明利用立体视觉技术对二维关键点进行三维坐标重建,得到双眼瞳孔中心的三维坐标为(3*2的实数空间)表示左右眼瞳孔中心在世界坐标系中的三维坐标。得到人脸三维ASM为,表示人脸形状特征点在世界坐标系的三维坐标。
其中P表示左眼瞳孔中心的三维坐标和右眼瞳孔中心的三维坐标组成的矩阵,即左眼的瞳孔中心点与右眼的瞳孔中心点的三维坐标,px1,py1,pz1表示左眼瞳孔中心在世界坐标系中的三维坐标。px2,py2,pz2表示右眼瞳孔中心在世界坐标系中的三维坐标。世界坐标系,有x轴,y轴,z轴,故有三个值,xi、yi、zi是ASM中第i个点在世界坐标系中的三维坐标。
步骤204:建立正面人脸三维ASM模型。对于m个训练样本,可以得到S1,S2,…,Sm总共m个三维ASM模型,其中m个训练样本是指每个相机采集的图像的个数。两个相机同时采集图像,所获取的图像个数相同。具体而言,相机1采集m幅图像,相机2采集m幅图像,两个相机采集的图像一一对应,组成m个“图像对”,即m个训练样本。对于m个训练样本,通过对二维关键点定位并进行三维坐标重建,得到m个左右眼瞳孔中心在世界坐标系中的三维坐标和m个人脸三维ASM,m不是视点数量,每个视点需要采集多个训练样本,m大于视点个数。在训练数据采集过程中,要求头部固定在相同的位置,并且保持头部姿态不变。因此,可以通过平均这m个三维ASM模型,得到最终的正面人脸三维ASM模型,记为
步骤205,特征提取。对于一个输入,即一个样本,在训练过程中叫训练样本,在预测过程中叫预测样本,一个样本为一个图像对,根据步骤203得到了该输入的关键点的三维坐标,即人脸三维ASM形状S和瞳孔中心坐标P。记人脸三维ASM形状S中左眼轮廓形状为EL,右眼轮廓形状为ER。
其中(x′i,y′i,z′i)T表示眼睛轮廓的第i个关键点的三维坐标(1≤i≤2k),左眼和右眼都包括k个关键点,EL与ER为S的子集。本发明提出用双眼轮廓与瞳孔中心的相对位置作为特征,来表示人眼的视线变化:
其中 分别表示左右眼的视线特征,表示基于三维双眼轮廓和瞳孔中心的视线特征,d=6×k表示特征维数。
步骤206:建立正面视点估计模型。对于采集的m个训练数据,完成步骤205后,可以得到特征集F表示步骤205中提取的m个特征组成的矩阵,第i个特征记为fi,fi是一个d维的向量,表示第i个样本的特征,相应的视点坐标为gi(1≤i≤m)是第i个训练样本的视点在屏幕中的二维坐标。该步骤建立特征点与视点坐标的映射模型,这里应用线性回归模型解释。除了线性回归模型,本发明也可以使用岭回归,支持向量回归等回归方法。线性模型如下:
G=wF+b (10)
其中表示回归系数,表示回归偏移,利用最小二乘方法可以求解出参数w和b。
在预测步骤,用户注视屏幕中的任意位置,首先利用得到的关键点的三维坐标和训练过程中得到的正面人脸三维ASM模型进行头部姿态估计,并对人脸三维轮廓和瞳孔三维坐标进行姿态校正。然后利用三维瞳孔中心与三维眼睛轮廓,进行特征提取。最后,利用正面视点估计模型进行视点估计。
预测步骤则进一步包括以下各步骤。
步骤301:获取预测数据。预测数据也就是预测样本,一个样本就是一个图像对,是两个相机同时拍摄得到的图像组合。预测样本与训练样本获取方式相同。预测数据是实时获取的,测试过程中,人站在相机前,两个相机采集人的正面人脸图像,没采集一次记为一个预测数据。
步骤302:对预测样本的图片进行二维关键点定位以及三维关键点重建,与步骤202和步骤203相同,得到预测图片的三维关键点坐标,包括三维ASM形状S*,三维瞳孔坐标P*。
步骤303:头部姿态校正。头部姿态校正的目的是为了解决视线估计系统中的头部运动问题,提高视线估计的稳定性。在该步骤,首先求解头部姿态,根据正面人脸三维ASM形状模型与预测数据的三维ASM形状S*,可以通过求解如下优化函数,来求解头部姿态:
其中,表示头部相对于正面人脸的旋转矩阵,表示平移向量,为最终求解得到的旋转矩阵与平移向量,表示形状的第i个点的三维坐标,表示形状S*的第i个点的三维坐标,1≤i≤n,αi表示各个关键点的权重因子。然后,对预测数据中三维点的坐标进行姿态校正。利用求解得到的头部姿态将预测数据的三维关键点坐标变换到正面的头部模型中去。得到经过头部姿态校正后的三维关键点坐标,记为,和
其中表示校正后形状的第i点的三维坐标。表示校正前瞳孔中心P中第j个(左右)瞳孔中心的三维坐标,表示校正后瞳孔中心中第j个(左右)瞳孔中心的三维坐标。
步骤304:对预测数据经过姿态校正后,对校正后的进行特征提取得到预测数据的特征提取过程与步骤205相同。
步骤305:视点估计。用步骤304得到的特征与步骤206建立的正面视点估计模型G=wF+b进行视点估计,对于预测样本,可以根据如下公式计算预测样本的视点坐标:
其中,表示对预测数据进行估计得到的最终的视点坐标。步骤306:视点输出。输出估计的用户的视点坐标,或者将其用于相应的应用。
本发明还提出了一种基于三维主动形状模型的视线估计装置。该装置可实现上述基于三维主动形状模型的视线估计方法。该装置包括:训练单元,用于根据训练数据中的每幅图像进行二维关键点定位,定位包括瞳孔定位和图像中人脸的主动形状模型ASM定位,并对所述二维关键点进行三维坐标重建,得到左右眼瞳孔中心在世界坐标系中的三维坐标,并得到人脸三维ASM形状,即人脸形状特征点在世界坐标系的三维坐标,然后根据所述三维ASM形状确定左眼轮廓形状和右眼轮廓形状,使用双眼轮廓与瞳孔中心的相对位置来表示左右眼的视线特征,并根据得到的视线特征建立正面视点估计模型,其中训练数据是利用两个相机获取的用户的人脸正面图像,训练数据包括多个训练样本,每个训练样本包括两个相机同时拍摄的两张图像;预测单元,用于利用所述正面视点估计模型对预测样本进行人眼视线估计。
在该装置中,其中训练单元所实现的训练过程以及预测单元实现的预测过程在上述结合附图描述的本发明的方法中都已经进行了详细的描述,在此不再赘述。
本发明只利用两个摄像机,不利用角膜反射点的信息,提高视线估计系统的应用范围。
本发明提出的基于双眼三维轮廓与双眼瞳孔中心的新的视线特征,更好的描述眼睛的视线变化。该特征不仅利用了眼角信息,并且利用了整个眼睛轮廓信息,这些信息随与人眼视线变化有密切的关系。因此有利于提高视线估计的精度与稳定性。
本发明利用三维ASM模型,显示估计头部姿态,从而提高视线估计系统对头部运动的适应性。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于三维主动形状模型的视线估计方法,该方法包括训练步骤和预测步骤:
训练步骤进一步包括:
步骤1,利用两个相机获取用户的人脸正面图像作为训练数据,训练数据包括多个训练样本,每个训练样本包括两个相机同时拍摄的两张图像;
步骤2,针对步骤1中获取的每幅图像,进行二维关键点定位,包括瞳孔定位和图像中人脸的主动形状模型ASM定位;
步骤3,利用所述二维关键点进行三维坐标重建,得到左右眼瞳孔中心在世界坐标系中的三维坐标,并得到人脸三维ASM形状;
步骤4,根据所述人脸三维ASM形状确定左眼轮廓形状和右眼轮廓形状,使用双眼轮廓与瞳孔中心的相对位置来表示左右眼的视线特征;
步骤5,根据得到的视线特征建立正面视点估计模型;
在预测步骤,利用所述正面视点估计模型对预测样本进行人眼视线估计。
2.根据权利要求1所述的方法,其特征在于,所述训练样本是用户在注视屏幕中特定视点时通过两个相机拍摄的人脸正面图像,预测样本是用户进行任意注视时通过两个相机拍摄的人脸正面图像。
3.根据权利要求2所述的方法,其特征在于,在步骤3中,双眼瞳孔中心的三维坐标为P,人脸三维ASM形状为S,其中 (px1,py1,pz1)表示左眼瞳孔中心坐标,(px2,py2,pz2)表示右眼瞳孔中心坐标,S由n个三维的特征点组成,n个特征点的三维坐标分别为(x1,y1,z1)...(xn,yn,zn);
人脸三维ASM形状S中左眼轮廓形状为EL,右眼轮廓形状为ER,分别表示为:
其中(x′i,y′i,z′i)T表示眼睛轮廓的第i个关键点的三维坐标,(1≤i≤2k),左眼和右眼都包括k个关键点,EL与ER为S的子集,
左眼和右眼的视线特征分别是:
双眼视线特征是:
4.根据权利要求3所述的方法,其特征在于,步骤5进一步包括:
正面视点估计模型为:G=wF+b,其中,R表示实数空间,m表示训练样本的数量,f1,f2,……fm分别表示第1、第2和第m个训练样本对应的视线特征,d表示所提视线特征f的维数,d=6*k,k表示左眼和右眼轮廓都包括k个关键点;表示相应的视点坐标,gi(1≤i≤m)是第i个训练样本的视点在屏幕中的二维坐标,表示回归系数,表示回归偏移,利用最小二乘方法求解出参数w和b。
5.根据权利要求4所述的方法,其特征在于,预测步骤进一步包括:
步骤7,用户注视屏幕中任意一点,通过所述两个相机获取人脸正面图像,作为预测样本;
步骤8,对所获取的人脸正面图像进行二维关键点定位以及三维关键点重建,得到三维关键点坐标,包括人脸三维ASM形状S*,三维瞳孔坐标P*;
步骤9,对预测样本中头部姿态进行校正;
步骤10:经过头部姿态校正后,对校正后得到的三维ASM形状、三维瞳孔坐标进行视线特征提取得到预测样本的双眼视线特征
步骤11,根据双眼视线特征以及所建立的正面视点估计模型G进行视点估计,得到:其中gi(1≤i≤m)是表示对第i个预测样本进行估计得到的最终的视点坐标。
6.一种基于三维主动形状模型的视线估计装置,该装置包括:
训练单元,用于根据训练数据中的每幅图像进行二维关键点定位,定位包括瞳孔定位和图像中人脸的主动形状模型ASM定位,并对所述二维关键点进行三维坐标重建,得到左右眼瞳孔中心在世界坐标系中的三维坐标,并得到人脸三维ASM形状,即人脸形状特征点在世界坐标系的三维坐标,然后根据所述三维ASM形状确定左眼轮廓形状和右眼轮廓形状,使用双眼轮廓与瞳孔中心的相对位置来表示左右眼的视线特征,并根据得到的视线特征建立正面视点估计模型,其中训练数据是利用两个相机获取的用户的人脸正面图像,训练数据包括多个训练样本,每个训练样本包括两个相机同时拍摄的两张图像;
预测单元,用于利用所述正面视点估计模型对预测样本进行人眼视线估计。
7.根据权利要求6所述的装置,其特征在于,所述训练样本是用户在注视屏幕中特定视点时通过两个相机拍摄的人脸正面图像,预测样本是用户进行任意注视时通过两个相机拍摄的人脸正面图像。
8.根据权利要求7所述的装置,其特征在于,双眼瞳孔中心的三维坐标为P,人脸三维ASM形状为S,其中 (px1,py1,pz1)表示左眼瞳孔中心坐标,(px2,py2,pz2)表示右眼瞳孔中心坐标,S由n个三维的特征点组成,各特征点的三维坐标分别为(x1,y1,z1)...(xn,yn,zn);
人脸三维ASM形状S中左眼轮廓形状为EL,右眼轮廓形状为ER,分别表示为:
其中(x′i,y′i,z′i)T表示眼睛轮廓的第i个关键点的三维坐标(1≤i≤2k),左眼和右眼都包括k个关键点,EL与ER为S的子集,
左眼和右眼的视线特征分别是:
9.根据权利要求8所述的装置,其特征在于,所述正面视点估计模型为:G=wF+b,其中,
R表示实数空间,m表示训练样本的数量,f1,f2,……fm分别表示第1、第2和第m个训练样本对应的视线特征,d表示所提视线特征f的维数,d=6*k,k表示左眼和右眼轮廓都包括k个关键点;
表示相应的视点坐标,gi(1≤i≤m)是第i个训练样本的视点在屏幕中的二维坐标,表示回归系数,表示回归偏移,利用最小二乘方法求解出参数w和b。
10.根据权利要求9所述的装置,其特征在于,预测样本是当用户注视屏幕中任意一点时,通过两个相机获取的人脸正面图片,预测单元对所获取的人脸正面图片进行二维关键点定位以及三维关键点重建,得到三维关键点坐标,包括三维ASM形状S*,三维瞳孔坐标P*,并且对预测样本中头部姿态进行校正,经过头部姿态校正后,对校正后的进行视线特征提取得到预测数据的双眼视线特征并根据视线特征以及所建立的正面视点估计模型G进行视点估计,得到:其中gi(1≤i≤m)是表示对第i个预测样本进行估计得到的最终的视点坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410131007.7A CN104978548B (zh) | 2014-04-02 | 2014-04-02 | 一种基于三维主动形状模型的视线估计方法与装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410131007.7A CN104978548B (zh) | 2014-04-02 | 2014-04-02 | 一种基于三维主动形状模型的视线估计方法与装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104978548A true CN104978548A (zh) | 2015-10-14 |
CN104978548B CN104978548B (zh) | 2018-09-25 |
Family
ID=54275038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410131007.7A Active CN104978548B (zh) | 2014-04-02 | 2014-04-02 | 一种基于三维主动形状模型的视线估计方法与装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104978548B (zh) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105678252A (zh) * | 2016-01-05 | 2016-06-15 | 安阳师范学院 | 依据人脸三角网格自适应细分和高斯小波的迭代插值方法 |
CN106803065A (zh) * | 2016-12-27 | 2017-06-06 | 广州帕克西软件开发有限公司 | 一种基于深度信息的瞳距测量方法以及系统 |
CN106981078A (zh) * | 2017-04-14 | 2017-07-25 | 广州视源电子科技股份有限公司 | 视线校正方法、装置、智能会议终端及存储介质 |
CN107203961A (zh) * | 2016-03-17 | 2017-09-26 | 掌赢信息科技(上海)有限公司 | 一种表情迁移的方法及电子设备 |
CN107358154A (zh) * | 2017-06-02 | 2017-11-17 | 广州视源电子科技股份有限公司 | 一种头部运动检测方法和装置及活体识别方法和系统 |
CN107703513A (zh) * | 2017-08-15 | 2018-02-16 | 株洲嘉成科技发展有限公司 | 一种基于图像处理的新型非接触式接触网相对位置检测方法 |
CN108171201A (zh) * | 2018-01-17 | 2018-06-15 | 山东大学 | 基于灰度形态学的睫毛快速检测方法 |
CN108171152A (zh) * | 2017-12-26 | 2018-06-15 | 深圳大学 | 深度学习人眼视线估计方法、设备、系统及可读存储介质 |
CN108289151A (zh) * | 2018-01-29 | 2018-07-17 | 维沃移动通信有限公司 | 一种应用程序的操作方法及移动终端 |
TWI637288B (zh) * | 2017-10-11 | 2018-10-01 | 緯創資通股份有限公司 | 用於眼球視線校正的影像處理方法及其系統 |
CN109033957A (zh) * | 2018-06-20 | 2018-12-18 | 同济大学 | 一种基于二次多项式的视线估计方法 |
CN109146962A (zh) * | 2018-09-07 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 检测脸部角度的方法、装置、存储介质和终端设备 |
CN109313490A (zh) * | 2016-06-28 | 2019-02-05 | 谷歌有限责任公司 | 使用神经网络的眼睛注视跟踪 |
CN109472464A (zh) * | 2018-10-22 | 2019-03-15 | 佛山市顺德区中山大学研究院 | 一种基于眼动追踪的在线课程质量的评估方法 |
CN109726613A (zh) * | 2017-10-27 | 2019-05-07 | 虹软科技股份有限公司 | 一种用于检测的方法和装置 |
CN109840500A (zh) * | 2019-01-31 | 2019-06-04 | 深圳市商汤科技有限公司 | 一种三维人体姿态信息检测方法及装置 |
CN109886107A (zh) * | 2019-01-15 | 2019-06-14 | 北京奇艺世纪科技有限公司 | 眼部图像处理方法、设备、图像处理设备、介质 |
CN109934196A (zh) * | 2019-03-21 | 2019-06-25 | 厦门美图之家科技有限公司 | 人脸姿态参数评估方法、装置、电子设备及可读存储介质 |
CN109949913A (zh) * | 2019-02-14 | 2019-06-28 | 北京仁泽健康服务中心 | 一种供临床医生使用的患者教育云系统 |
CN110211115A (zh) * | 2019-06-03 | 2019-09-06 | 大连理工大学 | 一种基于深度引导元胞自动机的光场显著性检测实现方法 |
CN110503068A (zh) * | 2019-08-28 | 2019-11-26 | Oppo广东移动通信有限公司 | 视线估计方法、终端及存储介质 |
CN110537897A (zh) * | 2019-09-10 | 2019-12-06 | 北京未动科技有限公司 | 视线追踪方法和装置、计算机可读存储介质、电子设备 |
CN110794963A (zh) * | 2019-10-18 | 2020-02-14 | 天津理工大学 | 基于深度相机的眼控辅助输入方法 |
CN110853073A (zh) * | 2018-07-25 | 2020-02-28 | 北京三星通信技术研究有限公司 | 确定关注点的方法、装置、设备、系统及信息处理方法 |
WO2020062523A1 (zh) * | 2018-09-28 | 2020-04-02 | 北京市商汤科技开发有限公司 | 注视点判断方法和装置、电子设备和计算机存储介质 |
WO2020062960A1 (zh) * | 2018-09-29 | 2020-04-02 | 北京市商汤科技开发有限公司 | 神经网络训练、视线追踪方法和装置及电子设备 |
CN110969061A (zh) * | 2018-09-29 | 2020-04-07 | 北京市商汤科技开发有限公司 | 神经网络训练、视线检测方法和装置及电子设备 |
CN111310705A (zh) * | 2020-02-28 | 2020-06-19 | 深圳壹账通智能科技有限公司 | 图像识别方法、装置、计算机设备及存储介质 |
US10846877B2 (en) | 2016-06-28 | 2020-11-24 | Google Llc | Eye gaze tracking using neural networks |
CN112667078A (zh) * | 2020-12-24 | 2021-04-16 | 西安电子科技大学 | 基于视线估计的多屏场景下鼠标快速控制方法、系统及计算机可读介质 |
CN113538655A (zh) * | 2021-06-23 | 2021-10-22 | 聚好看科技股份有限公司 | 一种虚拟人脸的生成方法及设备 |
CN113610051A (zh) * | 2021-08-26 | 2021-11-05 | 合众新能源汽车有限公司 | 基于人脸注册的人脸测距方法、设备和计算机可读介质 |
CN118509569A (zh) * | 2024-07-16 | 2024-08-16 | 广东方天软件科技股份有限公司 | 一种基于智慧屏的裸眼三维立体显示方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080192990A1 (en) * | 2007-02-09 | 2008-08-14 | Kabushiki Kaisha Toshiba | Gaze detection apparatus and the method of the same |
US20090262973A1 (en) * | 2008-04-09 | 2009-10-22 | Honda Motor Co., Ltd. | System and method for estimating interest level |
US7742623B1 (en) * | 2008-08-04 | 2010-06-22 | Videomining Corporation | Method and system for estimating gaze target, gaze sequence, and gaze map from video |
CN101908139A (zh) * | 2010-07-15 | 2010-12-08 | 华中科技大学 | 一种监督学习机用户学习活动的方法 |
CN102054291A (zh) * | 2009-11-04 | 2011-05-11 | 厦门市美亚柏科信息股份有限公司 | 一种基于单幅人脸图像实现三维人脸重建的方法及其装置 |
CN102662476A (zh) * | 2012-04-20 | 2012-09-12 | 天津大学 | 一种视线估计方法 |
CN102749991A (zh) * | 2012-04-12 | 2012-10-24 | 广东百泰科技有限公司 | 一种适用于人机交互的非接触式自由空间视线跟踪方法 |
CN102800129A (zh) * | 2012-06-20 | 2012-11-28 | 浙江大学 | 一种基于单幅图像的头发建模和肖像编辑方法 |
-
2014
- 2014-04-02 CN CN201410131007.7A patent/CN104978548B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080192990A1 (en) * | 2007-02-09 | 2008-08-14 | Kabushiki Kaisha Toshiba | Gaze detection apparatus and the method of the same |
US20090262973A1 (en) * | 2008-04-09 | 2009-10-22 | Honda Motor Co., Ltd. | System and method for estimating interest level |
US7742623B1 (en) * | 2008-08-04 | 2010-06-22 | Videomining Corporation | Method and system for estimating gaze target, gaze sequence, and gaze map from video |
CN102054291A (zh) * | 2009-11-04 | 2011-05-11 | 厦门市美亚柏科信息股份有限公司 | 一种基于单幅人脸图像实现三维人脸重建的方法及其装置 |
CN101908139A (zh) * | 2010-07-15 | 2010-12-08 | 华中科技大学 | 一种监督学习机用户学习活动的方法 |
CN102749991A (zh) * | 2012-04-12 | 2012-10-24 | 广东百泰科技有限公司 | 一种适用于人机交互的非接触式自由空间视线跟踪方法 |
CN102662476A (zh) * | 2012-04-20 | 2012-09-12 | 天津大学 | 一种视线估计方法 |
CN102800129A (zh) * | 2012-06-20 | 2012-11-28 | 浙江大学 | 一种基于单幅图像的头发建模和肖像编辑方法 |
Non-Patent Citations (2)
Title |
---|
D.W.HANSEN等: "In the eye of the beholder: A survey of models for eyes and gaze", 《 IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
熊春水等: "一种新的单点标定视线估计方法", 《自动化学报》 * |
Cited By (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105678252A (zh) * | 2016-01-05 | 2016-06-15 | 安阳师范学院 | 依据人脸三角网格自适应细分和高斯小波的迭代插值方法 |
CN107203961A (zh) * | 2016-03-17 | 2017-09-26 | 掌赢信息科技(上海)有限公司 | 一种表情迁移的方法及电子设备 |
CN107203961B (zh) * | 2016-03-17 | 2020-12-29 | 掌赢信息科技(上海)有限公司 | 一种表情迁移的方法及电子设备 |
US11551377B2 (en) | 2016-06-28 | 2023-01-10 | Google Llc | Eye gaze tracking using neural networks |
CN109313490B (zh) * | 2016-06-28 | 2020-10-02 | 谷歌有限责任公司 | 使用神经网络的眼睛注视跟踪 |
US10846877B2 (en) | 2016-06-28 | 2020-11-24 | Google Llc | Eye gaze tracking using neural networks |
CN109313490A (zh) * | 2016-06-28 | 2019-02-05 | 谷歌有限责任公司 | 使用神经网络的眼睛注视跟踪 |
CN106803065A (zh) * | 2016-12-27 | 2017-06-06 | 广州帕克西软件开发有限公司 | 一种基于深度信息的瞳距测量方法以及系统 |
CN106981078A (zh) * | 2017-04-14 | 2017-07-25 | 广州视源电子科技股份有限公司 | 视线校正方法、装置、智能会议终端及存储介质 |
CN106981078B (zh) * | 2017-04-14 | 2019-12-31 | 广州视源电子科技股份有限公司 | 视线校正方法、装置、智能会议终端及存储介质 |
WO2018188277A1 (zh) * | 2017-04-14 | 2018-10-18 | 广州视源电子科技股份有限公司 | 视线校正方法、装置、智能会议终端及存储介质 |
CN107358154A (zh) * | 2017-06-02 | 2017-11-17 | 广州视源电子科技股份有限公司 | 一种头部运动检测方法和装置及活体识别方法和系统 |
CN107703513A (zh) * | 2017-08-15 | 2018-02-16 | 株洲嘉成科技发展有限公司 | 一种基于图像处理的新型非接触式接触网相对位置检测方法 |
CN107703513B (zh) * | 2017-08-15 | 2021-05-14 | 株洲嘉成科技发展有限公司 | 一种基于图像处理的非接触式接触网相对位置检测方法 |
TWI637288B (zh) * | 2017-10-11 | 2018-10-01 | 緯創資通股份有限公司 | 用於眼球視線校正的影像處理方法及其系統 |
CN109726613A (zh) * | 2017-10-27 | 2019-05-07 | 虹软科技股份有限公司 | 一种用于检测的方法和装置 |
CN109726613B (zh) * | 2017-10-27 | 2021-09-10 | 虹软科技股份有限公司 | 一种用于检测的方法和装置 |
US11017557B2 (en) | 2017-10-27 | 2021-05-25 | Arcsoft Corporation Limited | Detection method and device thereof |
CN108171152A (zh) * | 2017-12-26 | 2018-06-15 | 深圳大学 | 深度学习人眼视线估计方法、设备、系统及可读存储介质 |
CN108171201B (zh) * | 2018-01-17 | 2021-11-09 | 山东大学 | 基于灰度形态学的睫毛快速检测方法 |
CN108171201A (zh) * | 2018-01-17 | 2018-06-15 | 山东大学 | 基于灰度形态学的睫毛快速检测方法 |
CN108289151A (zh) * | 2018-01-29 | 2018-07-17 | 维沃移动通信有限公司 | 一种应用程序的操作方法及移动终端 |
CN109033957A (zh) * | 2018-06-20 | 2018-12-18 | 同济大学 | 一种基于二次多项式的视线估计方法 |
CN109033957B (zh) * | 2018-06-20 | 2021-05-11 | 同济大学 | 一种基于二次多项式的视线估计方法 |
CN110853073A (zh) * | 2018-07-25 | 2020-02-28 | 北京三星通信技术研究有限公司 | 确定关注点的方法、装置、设备、系统及信息处理方法 |
CN109146962A (zh) * | 2018-09-07 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 检测脸部角度的方法、装置、存储介质和终端设备 |
WO2020062523A1 (zh) * | 2018-09-28 | 2020-04-02 | 北京市商汤科技开发有限公司 | 注视点判断方法和装置、电子设备和计算机存储介质 |
US11295474B2 (en) | 2018-09-28 | 2022-04-05 | Beijing Sensetime Technology Development Co., Ltd. | Gaze point determination method and apparatus, electronic device, and computer storage medium |
WO2020062960A1 (zh) * | 2018-09-29 | 2020-04-02 | 北京市商汤科技开发有限公司 | 神经网络训练、视线追踪方法和装置及电子设备 |
CN110969061A (zh) * | 2018-09-29 | 2020-04-07 | 北京市商汤科技开发有限公司 | 神经网络训练、视线检测方法和装置及电子设备 |
CN110969060A (zh) * | 2018-09-29 | 2020-04-07 | 北京市商汤科技开发有限公司 | 神经网络训练、视线追踪方法和装置及电子设备 |
JP7146087B2 (ja) | 2018-09-29 | 2022-10-03 | ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド | ニューラルネットワークのトレーニング方法、視線追跡方法及び装置並びに電子機器 |
JP2021530823A (ja) * | 2018-09-29 | 2021-11-11 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | ニューラルネットワークのトレーニング方法、視線追跡方法及び装置並びに電子機器 |
CN109472464A (zh) * | 2018-10-22 | 2019-03-15 | 佛山市顺德区中山大学研究院 | 一种基于眼动追踪的在线课程质量的评估方法 |
CN109886107A (zh) * | 2019-01-15 | 2019-06-14 | 北京奇艺世纪科技有限公司 | 眼部图像处理方法、设备、图像处理设备、介质 |
CN109840500B (zh) * | 2019-01-31 | 2021-07-02 | 深圳市商汤科技有限公司 | 一种三维人体姿态信息检测方法及装置 |
CN109840500A (zh) * | 2019-01-31 | 2019-06-04 | 深圳市商汤科技有限公司 | 一种三维人体姿态信息检测方法及装置 |
CN109949913A (zh) * | 2019-02-14 | 2019-06-28 | 北京仁泽健康服务中心 | 一种供临床医生使用的患者教育云系统 |
CN109934196A (zh) * | 2019-03-21 | 2019-06-25 | 厦门美图之家科技有限公司 | 人脸姿态参数评估方法、装置、电子设备及可读存储介质 |
CN110211115A (zh) * | 2019-06-03 | 2019-09-06 | 大连理工大学 | 一种基于深度引导元胞自动机的光场显著性检测实现方法 |
CN110503068A (zh) * | 2019-08-28 | 2019-11-26 | Oppo广东移动通信有限公司 | 视线估计方法、终端及存储介质 |
CN110537897A (zh) * | 2019-09-10 | 2019-12-06 | 北京未动科技有限公司 | 视线追踪方法和装置、计算机可读存储介质、电子设备 |
CN110794963A (zh) * | 2019-10-18 | 2020-02-14 | 天津理工大学 | 基于深度相机的眼控辅助输入方法 |
WO2021169637A1 (zh) * | 2020-02-28 | 2021-09-02 | 深圳壹账通智能科技有限公司 | 图像识别方法、装置、计算机设备及存储介质 |
CN111310705A (zh) * | 2020-02-28 | 2020-06-19 | 深圳壹账通智能科技有限公司 | 图像识别方法、装置、计算机设备及存储介质 |
CN112667078A (zh) * | 2020-12-24 | 2021-04-16 | 西安电子科技大学 | 基于视线估计的多屏场景下鼠标快速控制方法、系统及计算机可读介质 |
CN113538655A (zh) * | 2021-06-23 | 2021-10-22 | 聚好看科技股份有限公司 | 一种虚拟人脸的生成方法及设备 |
CN113538655B (zh) * | 2021-06-23 | 2023-08-04 | 聚好看科技股份有限公司 | 一种虚拟人脸的生成方法及设备 |
CN113610051A (zh) * | 2021-08-26 | 2021-11-05 | 合众新能源汽车有限公司 | 基于人脸注册的人脸测距方法、设备和计算机可读介质 |
CN113610051B (zh) * | 2021-08-26 | 2023-11-17 | 合众新能源汽车股份有限公司 | 基于人脸注册的人脸测距方法、设备和计算机可读介质 |
CN118509569A (zh) * | 2024-07-16 | 2024-08-16 | 广东方天软件科技股份有限公司 | 一种基于智慧屏的裸眼三维立体显示方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104978548B (zh) | 2018-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104978548B (zh) | 一种基于三维主动形状模型的视线估计方法与装置 | |
Fischer et al. | Rt-gene: Real-time eye gaze estimation in natural environments | |
Cheng et al. | Appearance-based gaze estimation via evaluation-guided asymmetric regression | |
Plopski et al. | Corneal-imaging calibration for optical see-through head-mounted displays | |
Zhang et al. | Multimodal spontaneous emotion corpus for human behavior analysis | |
Elhayek et al. | Efficient convnet-based marker-less motion capture in general scenes with a low number of cameras | |
CN105913487B (zh) | 一种基于人眼图像中虹膜轮廓分析匹配的视线方向计算方法 | |
US9864430B2 (en) | Gaze tracking via eye gaze model | |
Stengel et al. | An affordable solution for binocular eye tracking and calibration in head-mounted displays | |
Hammoud | Passive eye monitoring: Algorithms, applications and experiments | |
CN111696140B (zh) | 基于单目的三维手势追踪方法 | |
WO2020042542A1 (zh) | 眼动控制校准数据获取方法和装置 | |
WO2023011339A1 (zh) | 视线方向追踪方法和装置 | |
Arar et al. | A regression-based user calibration framework for real-time gaze estimation | |
CN113642393B (zh) | 基于注意力机制的多特征融合视线估计方法 | |
CN114391117A (zh) | 眼睛跟踪延迟增强 | |
Emery et al. | OpenNEEDS: A dataset of gaze, head, hand, and scene signals during exploration in open-ended VR environments | |
CN108681699A (zh) | 一种基于深度学习的视线估计方法及视线估计装置 | |
CN111046734A (zh) | 基于膨胀卷积的多模态融合视线估计方法 | |
CN112183200A (zh) | 一种基于视频图像的眼动追踪方法和系统 | |
Huynh et al. | imon: Appearance-based gaze tracking system on mobile devices | |
CN109917908B (zh) | 一种ar眼镜的图像获取方法及系统 | |
WO2024113275A1 (zh) | 凝视点获取方法和装置、电子设备和存储介质 | |
Zhang et al. | Eye gaze estimation and its applications | |
CN112651270A (zh) | 一种注视信息确定方法、装置、终端设备及展示对象 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |