CN109063539A - 眼镜虚拟佩戴方法、装置、计算机设备及存储介质 - Google Patents

眼镜虚拟佩戴方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN109063539A
CN109063539A CN201810585001.5A CN201810585001A CN109063539A CN 109063539 A CN109063539 A CN 109063539A CN 201810585001 A CN201810585001 A CN 201810585001A CN 109063539 A CN109063539 A CN 109063539A
Authority
CN
China
Prior art keywords
glasses
image
point
reference point
facial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810585001.5A
Other languages
English (en)
Other versions
CN109063539B (zh
Inventor
戴磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201810585001.5A priority Critical patent/CN109063539B/zh
Priority to PCT/CN2018/094391 priority patent/WO2019232871A1/zh
Publication of CN109063539A publication Critical patent/CN109063539A/zh
Application granted granted Critical
Publication of CN109063539B publication Critical patent/CN109063539B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种眼镜虚拟佩戴方法、装置、计算机设备及存储介质,该眼镜虚拟佩戴方法包括:获取人脸图像,基于人脸特征点检测算法从所述人脸图像中获取表征眼睛位置和鼻尖位置的目标基准点;获取眼镜选择请求,所述眼镜选择请求包括眼镜标识;基于所述眼镜标识获取眼镜图像,所述眼镜图像包括目标参考点;合并所述人脸图像和所述眼镜图像,基于所述目标基准点和所述目标参考点对所述眼镜图像进行调整。本发明的技术方案通过目标基准点和目标参考点来调整人脸图像与眼镜图像,使眼镜图像与人脸图像在匹配过程中不会产生较大形变,保证了眼镜图像与人脸图像相协调。

Description

眼镜虚拟佩戴方法、装置、计算机设备及存储介质
技术领域
本发明涉及图像处理领域,尤其涉及一种眼镜虚拟佩戴方法、装置、计算机设备及存储介质。
背景技术
随着科技的发展,越来越多的电子商务平台或者线下商家开始提供眼镜的虚拟佩戴服务,使消费者通过眼镜的虚拟佩戴模拟真实的眼镜佩戴,查看佩戴效果。
在眼镜的虚拟佩戴过程中,通常要用到人脸穿戴算法,以使人脸图像与眼镜图像合并匹配。但是,目前的人脸穿戴算法中,多是根据两个眼镜的瞳孔的距离来进行调整,只是基于两个点的位置信息进行调整,而且多是对人脸图像进行调整,由于人脸图像中数据量相对较高,会使调整过程中的计算量较大,而且很容易造成调整后的眼镜图像和人脸图像不协调。
发明内容
基于此,有必要针对上述技术问题,提供一种可以使调整后的眼镜图像与人脸图像协调的眼镜虚拟佩戴方法、装置、计算机设备及存储介质。
一种眼镜虚拟佩戴方法,包括:
获取人脸图像,基于人脸特征点检测算法从所述人脸图像中获取人脸图像中的特征点,并基于所述人脸图像中的特征点构建表征眼睛位置和鼻尖位置的目标基准点;
获取眼镜选择请求,所述眼镜选择请求包括眼镜标识;
基于所述眼镜标识获取眼镜图像,所述眼镜图像包括目标参考点;
合并所述人脸图像和所述眼镜图像,基于所述目标基准点和所述目标参考点对所述眼镜图像在所述人脸图像上进行调整,使所述眼镜图像与所述人脸图像匹配。
一种眼镜虚拟佩戴装置,包括:
人脸图像获取模块,用于获取人脸图像,基于人脸特点征检测算法从所述人脸图像中获取人脸图像中的特征点,并基于所述人脸图像中的特征点构建表征眼睛位置和鼻尖位置的目标基准点;
眼镜选择请求获取模块,用于获取眼镜选择请求,所述眼镜选择请求包括眼镜标识;
眼镜图像获取模块,用于基于所述眼镜标识获取眼镜图像,所述眼镜图像包括目标参考点;
图像合并调整模块,用于合并所述人脸图像和所述眼镜图像,基于所述目标基准点和所述目标参考点对所述眼镜图像在所述人脸图像上进行调整,使所述眼镜图像与所述人脸图像匹配。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述眼镜虚拟佩戴方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述眼镜虚拟佩戴方法的步骤。
上述眼镜虚拟佩戴方法、装置、计算机设备及存储介质,通过获取人脸图像,基于人脸特征点检测算法从人脸图像中获取人脸图像中的特征点,并基于人脸图像中的特征点构建表征眼睛位置和鼻尖位置的目标基准点,然后获取眼镜选择请求,根据眼镜选择请求的眼镜标识获取眼镜图像,最后根据眼镜图像的目标参考点和人脸图像的目标基准点对人脸图像和眼镜图像进行合并,实现眼镜虚拟佩戴的效果。通过获取人脸图像和眼镜图像以及目标基准点和目标参考点,根据目标基准点和目标参考点对人脸图像和眼镜图像进行调整合并,可以使调整的过程计算比较简便。同时,采用表征眼睛位置和鼻尖位置的特征点作为目标基准点,使人脸图像与眼镜图像的匹配调整中不会使眼镜图像产生较大形变,从而使调整后的眼镜图像与人脸图像达到协调的效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中眼镜虚拟佩戴方法的一应用环境示意图;
图2是本发明一实施例中眼镜虚拟佩戴方法的一流程图;
图3是本发明一实施例中眼镜虚拟佩戴方法的一流程图;
图4是本发明一实施例中眼镜虚拟佩戴方法的人脸图像特征点的示意图;
图5是本发明一实施例中眼镜虚拟佩戴方法的一流程图;
图6是本发明一实施例中眼镜虚拟佩戴方法的一流程图;
图7是本发明一实施例中眼镜虚拟佩戴装置的一原理框图;
图8是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请提供的眼镜虚拟佩戴方法,可应用在如图1的应用环境中,其中,客户端(计算机设备)通过网络与服务器进行通信,客户端获取人脸图像和眼镜选择请求,并将人脸图像和眼镜选择请求发送至服务器。服务器获取到人脸图像和眼镜选择请求后,根据目标基准点和目标参考点实现对人脸图像和眼镜图像的匹配调整。其中,客户端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
可选地,本申请提供的眼镜虚拟佩戴方法也可以单独应用在单个计算机设备中,通过单个计算机设备获取人脸图像,同时计算机设备中存储有眼镜图像,能根据目标基准点和目标参考点实现对人脸图像和眼镜图像的匹配调整,达到眼镜虚拟佩戴的效果。
在一实施例中,如图2所示,提供一种眼镜虚拟佩戴方法,以该方法应用在单个计算机设备中为例进行说明,包括如下步骤:
S10:获取人脸图像,基于人脸特征点检测算法从人脸图像中获取人脸图像中的特征点,并基于人脸图像中的特征点构建表征眼睛位置和鼻尖位置的目标基准点。
其中,人脸图像是指进行眼镜虚拟佩戴用户的脸部图像。可选地,人脸图像可以通过对用户的人脸进行摄像获取,例如通过摄像头或者照相机拍摄后传输数据获取;人脸图像也可以通过直接上传脸部图像数据的方式来获取。人脸特征点是指表示人的脸部各部位轮廓的点,例如眼角、鼻尖、眉心或者眼球等。人脸特征点检测算法是指根据输入的人脸图像自动定位出人脸特征点的算法。可选地,可以采用以下人脸特征点检测算法获取人脸特征点信息:
(1)OpenCV自带的基于Harr特征的Viola-Jones算法;
其中,OpenCV是一个跨平台计算机视觉库,可以运行在Linux、Windows、Android和Mac OS操作系统上,由一系列C函数和少量C++类构成,同时提供了Python、Ruby、MATLAB等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法,而基于Harr特征的Viola-Jones算法是其中一种人脸特征点检测算法。Haar特征是一种反映图像的灰度变化的特征,是反映像素分模块差值的一种特征。Haar特征分为三类:边缘特征、线性特征和中心-对角线特征。Viola-Jones算法是基于人脸的haar特征值进行人脸检测的方法。
(2)基于HOG+SVM特征的dlib;
其中,dlib是一个现代化的C++工具箱,其中包含用于在C++中创建复杂软件以解决实际问题的机器学习算法和工具,HOG是指方向梯度直方图(Histogram of OrientedGradient,HOG),SVM(Support Vector Machine)指的是支持向量机,是常见的一种判别方法,通常用来进行模式识别、分类以及回归分析,HOG特征结合SVM分类器被广泛应用于图像识别中。
(3)doppia库的三种人脸检测方法(DPM、HeadHunter和HeadHunter_baseline)。
其中,DPM(Deformable Part Model)是一个目标检测算法,目前已成为众多分类器、分割、人体姿态和行为分类的重要部分。DPM可以看做是HOG的扩展,方法是首先计算梯度方向直方图,然后用SVM训练得到目标梯度模型,再进行分类,从而使模型和目标匹配。而HeadHunter和HeadHunter_baseline算法与DPM在方法上是相同的,区别在于用到的模型不同。
以下用第(1)种人脸特征点检测算法为例说明获取人脸特征点的过程:
首先获取输入的人脸图像的样本图像,对样本图像进行预处理(归一化)后进行训练,得到人脸特征点模型,即Harr特征的Viola-Jones算法;然后获取输入的人脸图像,对人脸图像进行同样预处理,接着依次进行肤色区域分割、人脸特征区域分割和人脸特征区域分类的步骤,最后根据Harr特征的Viola-Jones算法与人脸特征区域分类进行匹配计算,得到人脸图像的人脸特征点信息。
步骤S10中,目标基准点是指在人脸图像上设定的用于作为眼镜佩戴基准的位置点。例如,选用人脸图像中表征眼睛位置和鼻尖位置的特征点作为目标基准点。
具体地,通过对人脸进行摄像或者直接上传脸部图像数据等方式获取眼镜虚拟佩戴用户的人脸图像,然后运用人脸特征点检测算法获取人脸图像中的人脸特征点信息,再从中选取表征眼睛位置和鼻尖位置的特征点作为目标基准点。
例如,用户通过计算机设备进行眼镜的虚拟佩戴,计算机设备通过摄像头对用户进行人脸图像的采集,然后运用OpenCV自带的基于Harr特征的Viola-Jones算法获取人脸特征点,通过在人脸图像中建立直角坐标系,例如以人脸左眼眼角为原点建立直角坐标系,然后获取人脸图像中的坐标数据,再选取表征眼睛位置和鼻尖位置的点作为目标基准点。
在步骤S10中,选取表征眼睛位置和鼻尖位置的目标基准点,可以较好实现后续眼镜图像与人脸图像的匹配调整。
S20:获取眼镜选择请求,其中,眼镜选择请求包括眼镜标识。
其中,眼镜选择请求是指进行眼镜虚拟佩戴的用户对计算机设备提供的眼镜信息进行选择的请求。可选地,可以根据用户在计算机设备上的点击、触摸或长按等动作来获取眼镜选择请求。眼镜标识是指用于区分不同眼镜的标识,例如眼镜的图像或型号信息等。
具体地,可以根据用户在计算机设备上的点击、触摸或长按等方式触发眼镜选择请求,其中,眼镜选择请求包括眼镜标识。例如,当用户根据计算机设备提供的具有眼镜标识的眼镜图像进行点击选择时,计算机设备即获取到包括眼镜标识的眼镜选择请求。
S30:基于眼镜标识获取眼镜图像,其中,眼镜图像包括目标参考点。
其中,眼镜图像是指用户选择的眼镜对应的图像。可选地,当获取到眼镜选择请求时,可根据眼镜标识在计算机设备中获取眼镜图像。目标参考点是指眼镜图像中预设的用于作为眼镜图像与人脸图像进行匹配调整时参考的位置点。可选地,可以根据眼镜图像建立直角坐标系,从而获取眼镜图像中眼镜各部位的位置信息,再从中选取一定数量的位置点作为目标参考点。例如,可以通过以眼镜鼻托位置为原点建立直角坐标系,再分别获取目标参考点的坐标。优选地,目标参考点可以选取三个,且三个目标参考点之中有一个点与其余两个点不在一条直线上,这样根据三个目标参考点可以确定一个平面,即确定眼镜图像这个平面。
具体地,在获取到眼镜标识之后,可以根据眼镜标识在计算机设备中获取对应的眼镜图像;然后,可以通过在眼镜图像中设立直角坐标系的方式来获取眼镜图像的参考点坐标。
例如,计算机设备获取到眼镜标识之后,例如是眼镜型号,则计算机设备根据眼镜型号获取对应的眼镜图像;然后根据眼镜图像设立直角坐标系,再选取其中三个坐标点作为目标参考点。
应理解,可以分别在人脸图像和眼镜图像中建立直角坐标系,在人脸图像与眼镜图像的合并过程中将坐标系进行合并;也可以先选取目标参考点,在将眼镜图像与人脸图像合并开始时,根据人脸图像的直角坐标系来获取目标参考点的坐标。
S40:合并人脸图像和眼镜图像,基于目标基准点和目标参考点对眼镜图像在人脸图像上进行调整,使眼镜图像与人脸图像匹配。
具体地,将人脸图像和眼镜图像这两幅图像进行合并,按照眼镜图像在上、人脸图像在下的顺序进行图像的合并。在合并的过程中,根据人脸图像的目标基准点和眼镜图像的目标参考点进行平移、旋转或者缩放等调整,使人脸图像与眼镜图像可以匹配。可选地,合并两幅图像时,以眼镜图像中鼻托和眼镜的镜腿到达人脸图像的预设位置时调整结束。其中,预设位置可以根据实际需要设定,本实施例不做具体限定。可选地,为了使调整过程有针对性,目标基准点与目标参考点可以对应进行设置,例如,如果选人脸图像的眼角和鼻尖作为目标基准点,则眼镜图像可以相应地选与眼角对应的眼镜边缘和与鼻尖对应的眼镜鼻托往下一定距离的位置点作为目标参考点。这样,在眼镜图像与人脸图像进行匹配调整时,可以根据目标参考点与目标基准点的相对位置关系实现平移、旋转或者缩放等调整,可以使调整的过程比较简便,同时更好地使眼镜图像与人脸图像相协调。
在图2对应的实施例中,通过获取人脸图像,基于人脸特征点检测算法从人脸图像中获取人脸图像中的特征点,并基于人脸图像中的特征点构建表征眼睛位置和鼻尖位置的目标基准点,然后获取眼镜选择请求,根据眼镜选择请求的眼镜标识获取眼镜图像,最后根据眼镜图像的目标参考点和人脸图像的目标基准点对人脸图像和眼镜图像进行合并,实现眼镜虚拟佩戴的效果。本发明实施例通过获取人脸图像和眼镜图像以及目标基准点和目标参考点,根据目标基准点和目标参考点对人脸图像和眼镜图像进行调整合并,可以使调整的过程计算比较简便。同时,采用表征眼睛位置和鼻尖位置的特征点作为目标基准点,使人脸图像与眼镜图像的匹配调整中不会使眼镜图像产生较大形变,从而使调整后的眼镜图像与人脸图像达到协调的效果。
在一实施例中,如图3所示,步骤S10中,即获取人脸图像,基于人脸特征点检测算法从人脸图像中获取代表眼睛和鼻尖相对位置的目标基准点,具体包括以下步骤:
S11:采用人脸特征点检测算法获取人脸图像中的特征点,特征点包括左眉中心点、右眉中心点、左眼左眼角点、左眼右眼角点、右眼左眼角点、右眼右眼角点和鼻尖点。
其中,左眉中心点和右眉中心点分别是指人脸左侧眉毛中心点和人脸右侧眉毛中心点。可选地,可以将眉毛两端连线的中垂线与眉毛的相交点作为眉毛中心点。左眼左眼角点和左眼右眼角点分别是指人脸左眼左眼角最边缘点和人脸左眼右眼角最边缘点。同样地,右眼左眼角点和右眼右眼角点同理分别是指人脸右眼左眼角最边缘点和右眼右眼角最边缘点。
S12:基于左眉中心点、左眼左眼角点和左眼右眼角点形成第一三角形,获取所述第一三角形的形心作为第一基准点。
请参考图4,其示出了本发明实施例中的人脸图像的基准点,其中,A点为第一基准点,B点为第二基准点,C点为第三基准点。
具体地,连接左眉中心点、左眼左眼角点和左眼右眼角点,将以上三个点作为三角形的顶点形成第一三角形,以第一三角形的形心位置点作为第一基准点(A点)。形心是指三角形三条中线的交点,形心位置坐标点可以先获取三角形的三个顶点坐标,例如是(x1,y1)、(x2,y2)和(x3,y3),则形心坐标的X坐标=(x1+x2+x3)/3,形心坐标的Y坐标=(y1+y2+y3)/3。
S13:基于右眉中心点、右眼左眼角点和右眼右眼角点形成第二三角形,获取所述第二三角形的形心作为第二基准点。
具体地,连接右眉中心点、右眼左眼角点和右眼右眼角点,将以上三个点作为三角形的顶点形成第二三角形,以第二三角形的形心位置点作为第二基准点(B点)。其中,第二三角形的形心位置点的确定方式和步骤S12中的相似,在此不再赘述。
S14:将鼻尖点作为第三基准点。
具体地,可以以人脸图像中鼻翼两侧最宽点的连线与鼻梁线相交的点作为鼻尖点,将鼻尖点作为第三基准点(C点)。
S15:基于第一基准点、第二基准点和第三基准点构成表征眼睛位置和鼻尖位置的目标基准点。
根据第一基准点、第二基准点和第三基准点构成目标基准点,即人脸图像表征眼睛位置和鼻尖位置的目标基准点。其中,第一基准点、第二基准点和第三基准点中有一个基准点不在同一条直线上,这样就可以用三个基准点确定了人脸图像这个平面。
在图3对应的实施例中,通过人脸特征点检测算法获取人脸图像中的特征点,然后分别基于人脸左眼特征点和右眼特征点形成三角形,根据三角形的形心分别确定第一基准点和第二基准点,最后与第三基准点(鼻尖)构成目标基准点。由于眉毛和眼睛在不同的人脸图像中会有差异化,因此基于眉心和眼角确定的基准点可以很好地减小这种差异化带来的误差。而采用三个相互之间距离较远的基准点作为目标基准点,可以使后续在匹配调整中不会使眼镜图像产生较大形变,提高眼镜虚拟佩戴的协调性。
在一实施例中,目标参考点包括第一参考点、第二参考点和第三参考点。
可选地,第一参考点为眼镜图像的左镜框的上边缘中心点,第二参考点为眼镜图像的右镜框的上边缘中心点,第三参考点为以第一参考点和第二参考点连线的中心点向下预定距离的位置,其中,当眼镜的镜框上边线不是直线而是曲线时,可以将左镜框或者右镜框的上边缘最高点作为上边缘中心点。预定距离可以根据眼镜的镜框高度来确定,而镜框高度可基于眼镜标识来获取。可选地,预定距离为向下约眼镜图像的三分之二的镜框高度。
本实施例中,以眼镜图像的左镜框的上边缘中心点为第一参考点,以右镜框的上边缘中心点为第二参考点,以第一参考点和第二参考点连线的中心点向下预定距离的位置作为第三参考点,其目的是使目标参考点的位置与目标基准点相对应,使人脸图像与眼镜图像的匹配调整过程中,以目标参考点和目标基准点来匹配调整,可以使人脸图像与眼镜图像相协调。
在一实施例中,步骤S40中,即合并人脸图像和眼镜图像,基于目标基准点和目标参考点对眼镜图像进行调整,如图5所示,具体可以包括以下步骤:
S41:基于人脸图像上的第三基准点,在人脸图像上对眼镜图像进行平移,使得第三参考点和第三基准点重合。
具体地,可以基于人脸图像获取人脸图像的第三基准点的坐标(u,v)和眼镜图像的第三参考点的坐标(u′,v′);基于人脸图像上的第三基准点的坐标(u,v),平移眼镜图像,使第三参考点的坐标(u′,v′)和第三基准点的坐标(u,v)重合;根据第三参考点的坐标(u′,v′)与第三基准点的坐标(u,v)的位置关系可以获得平移矩阵:
其中,tx为X方向的平移量,ty为Y方向的平移量。平移矩阵I可以通过下面公式计算得到:
通过上述公式计算得到平移量tx和ty,再基于该平移矩阵I对眼镜图像中的每一坐标点进行平移变换,即可实现眼镜图像的平移。
S42:获取第一基准点和第二基准点的连线,作为基准线,获取第一参考点和第二参考点的连线,作为参考线。
具体地,以连接第一基准点和第二基准点的直线作为基准线。同样地,以连接第一参考点和第二参考点的直线作为参考线。
S43:基于第三基准点使眼镜图像在人脸图像上旋转,以使得基准线和参考线平行。
具体地,获取参考线与基准线的夹角θ,以第三基准点为原点构建以下旋转矩阵,将步骤S41平移后得到的眼镜图像坐标乘上夹角为θ的旋转矩阵得到参考线和基准线平行的眼镜图像,即:
其中,(x0,y0)为眼镜图像平移后的坐标点,(x0′,y0′)为眼镜图像旋转之后对应的坐标点。
S44:基于第一参考点和第一基准点,或者基于第二参考点和第二基准点对眼镜图像在人脸图像上进行调整,使眼镜图像与人脸图像匹配。
具体地,基于第一参考点和第一基准点,或者基于第二参考点和第二基准点的位置关系获取缩放矩阵其中,缩放矩阵(S)可以用以下公式计算得出:
其中,(m,n)为第一基准点或者第二基准点的坐标,(m0′,n0′)为相应的第一参考点或者第二参考点的坐标,sx为X坐标的缩放系数,sy为Y坐标的缩放系数。
基于缩放矩阵对眼镜图像的每一坐标点进行变换,实现眼镜图像的缩放,由此,可以得到进行缩放调整后的眼镜图像。
优选地,可以基于第一基准点和第一参考点得到的缩放矩阵一,基于第二基准点和第二参考点得到的缩放矩阵二,可以将缩放矩阵一和缩放矩阵二求平均值后得到缩放矩阵三,以缩放矩阵三实现对眼镜图像的缩放调整,提高眼镜虚拟佩戴的精度。
在图5对应的实施例中,通过基于人脸图像的第三基准点对眼镜图像进行平移,然后基于第三基准点对眼镜图像进行旋转,最后根据第一参考点与第一基准点或者第二参考点与第二基准点的位置关系,对眼镜图像进行缩放调整,使眼镜图像与人脸图像协调,实现了眼镜虚拟佩戴的效果,提高了眼镜虚拟佩戴的精度。
在一实施例中,眼镜选择请求还包括用户ID,用户ID是指计算机设备上用于区别不同用户的标识。在本实施例中,步骤S40之后,即在合并人脸图像和眼镜图像,基于基准点和参考点对眼镜图像进行调整的步骤之后,如图6所示,具体可以包括以下步骤:
S51:获取自定义匹配请求,基于自定义匹配请求获取眼镜图像调整信息。
其中,自定义匹配请求是指眼镜图像与人脸图像进行匹配调整过程后,用户根据自己的需要或者喜好发出的匹配请求。例如,用户A在眼镜佩戴时,习惯将眼镜的位置向上移一点。这样,为了达到用户A眼镜虚拟佩戴的效果,需要将眼镜图像在进行前面实施例所示步骤调整的基础上,再向上移动一定距离。
具体地,可以通过开放接口的形式来获取自定义匹配请求,然后基于自定义匹配请求获取眼镜图像的调整信息。其中,开放接口是指用户可以在计算机设备上点击相应调整控件按钮或者输入相应调整参数后,计算机设备根据用户的点击或者输入的参数对眼镜图像进行相应地调整,从而满足用户的个性化需求。可选地,眼镜图像调整信息可以为矢量信息,表示往上下左右等方向移动预设的距离,例如可以是以矢量(1,0)表示X坐标向右移动预设距离为1的距离。
例如,用户通过计算机设备提供的上下左右调整按钮对眼镜图像进行调整,计算机设备根据用户的点击向上下左右移动预设的距离,当用户完成调整时,计算机设备获取眼镜图像调整信息。
S52:关联用户ID、眼镜标识和眼镜图像调整信息,并保存至自定义匹配表中。
其中,自定义匹配表可以存储在计算机设备中,用于存储用户通过自定义匹配请求产生的眼镜图像调整信息。
具体地,将眼镜标识和眼镜图像以及调整信息与用户ID进行关联,并将这些信息保存至与用户ID相对应的自定义匹配表中。这样,用户在下次登陆时可以直接使用保存在自定义匹配表中的眼镜图像调整信息,快速查看眼镜虚拟佩戴的效果。
在图6对应的实施例中,通过获取自定义匹配请求,根据自定义匹配请求获取眼镜图像的调整信息,并将眼镜标识、眼镜图像调整信息与用户ID关联后保存到自定义匹配表中,可以使用户根据自己的需要和喜好对眼镜图像进行调整,满足个性化需求,同时用户在下次进行佩戴时也可以根据之前的调整信息对新选择的眼镜进行相应的调整,提高了眼镜虚拟佩戴的便利性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种眼镜虚拟佩戴装置,该眼镜虚拟佩戴装置与上述实施例中眼镜虚拟佩戴方法一一对应。如图7所示,该眼镜虚拟佩戴装置包括人脸图像获取模块10、眼镜选择请求获取模块20、眼镜图像获取模块30和图像合并调整模块40。各功能模块详细说明如下:
人脸图像获取模块10,用于获取人脸图像,基于人脸特征点检测算法从人脸图像中获取人脸图像中的特征点,并基于人脸图像中的特征点构建表征眼睛位置和鼻尖位置的目标基准点。
眼镜选择请求获取模块20,用于获取眼镜选择请求,其中,眼镜选择请求包括眼镜标识。
眼镜图像获取模块30,用于基于眼镜标识获取眼镜图像,其中,眼镜图像包括目标参考点。
图像合并调整模块40,用于合并人脸图像和眼镜图像,基于目标基准点和目标参考点对眼镜图像在人脸图像上进行调整,使眼镜图像与人脸图像匹配。
优选地,人脸图像获取模块10包括人脸特征点获取单元11、第一基准点获取单元12、第二基准点获取单元13、第三基准点获取单元14和目标基准点获取单元15。
人脸特征点获取单元11,用于采用人脸特征点检测算法获取人脸图像中的特征点,特征点包括左眉中心点、右眉中心点、左眼左眼角点、左眼右眼角点、右眼左眼角点、右眼右眼角点和鼻尖点。
第一基准点获取单元12,用于基于左眉中心点、左眼左眼角点和左眼右眼角点形成第一三角形,获取所述第一三角形的形心作为第一基准点。
第二基准点获取单元13,用于基于右眉中心点、右眼左眼角点和右眼右眼角点形成第二三角形,获取所述第二三角形的形心作为第二基准点。
第三基准点获取单元14,用于将鼻尖点作为第三基准点。
目标基准点获取单元15,用于基于第一基准点、第二基准点和第三基准点构成表征眼睛位置和鼻尖位置的目标基准点。
优选地,眼镜图像获取模块30获取的目标参考点包括第一参考点、第二参考点和第三参考点,其中,第一参考点为眼镜图像的左镜框的上边缘中心点,第二参考点为眼镜图像的右镜框的上边缘中心点,第三参考点为以第一参考点和第二参考点连线的中心点向下预定距离的位置,其中,预定距离基于眼镜标识获取。
优选地,图像合并调整模块40包括图像平移单元41、基准线和参考线获取单元42、图像旋转单元43和图像调整单元44。
图像平移单元41,用于基于人脸图像上的第三基准点,在人脸图像上对眼镜图像进行平移,使得第三参考点和第三基准点重合。
基准线和参考线获取单元42,用于获取第一基准点和第二基准点的连线,作为基准线,获取第一参考点和第二参考点的连线,作为参考线。
图像旋转单元43,用于基于第三基准点使眼镜图像在人脸图像上旋转,以使得基准线和参考线平行。
图像调整单元44,用于基于第一参考点和第一基准点,或者基于第二参考点和第二基准点对眼镜图像在人脸图像上进行调整,使眼镜图像与人脸图像匹配。
进一步地,眼镜选择请求还包括用户ID;眼镜虚拟佩戴装置还包括自定义匹配模块50,其中自定义匹配模块50包括自定义请求获取单元51和自定义信息关联单元52。
自定义请求获取单元51,用于获取自定义匹配请求,基于自定义匹配请求获取眼镜图像调整信息。
自定义信息关联单元52,用于关联用户ID、眼镜标识和眼镜图像调整信息,并保存至自定义匹配表中。
关于眼镜虚拟佩戴装置的具体限定可以参见上文中对于眼镜虚拟佩戴方法的限定,在此不再赘述。上述眼镜虚拟佩戴装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部服务器通过网络连接通信。该计算机程序被处理器执行时以实现一种眼镜虚拟佩戴方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
获取人脸图像,基于人脸特征点检测算法从人脸图像中获取人脸图像中的特征点,并基于人脸图像中的特征点构建表征眼睛位置和鼻尖位置的目标基准点;
获取眼镜选择请求,其中,眼镜选择请求包括眼镜标识;
基于眼镜标识获取眼镜图像,其中,眼镜图像包括目标参考点;
合并人脸图像和眼镜图像,基于目标基准点和目标参考点对眼镜图像在人脸图像上进行调整,使眼镜图像与人脸图像匹配。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取人脸图像,基于人脸特征点检测算法从人脸图像中获取人脸图像中的特征点,并基于人脸图像中的特征点构建表征眼睛位置和鼻尖位置的目标基准点;
获取眼镜选择请求,其中,眼镜选择请求包括眼镜标识;
基于眼镜标识获取眼镜图像,其中,眼镜图像包括目标参考点;
合并人脸图像和眼镜图像,基于目标基准点和目标参考点对眼镜图像在人脸图像上进行调整,使眼镜图像与人脸图像匹配。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种眼镜虚拟佩戴方法,其特征在于,包括:
获取人脸图像,基于人脸特征点检测算法从所述人脸图像中获取人脸图像中的特征点,并基于所述人脸图像中的特征点构建表征眼睛位置和鼻尖位置的目标基准点;
获取眼镜选择请求,所述眼镜选择请求包括眼镜标识;
基于所述眼镜标识获取眼镜图像,所述眼镜图像包括目标参考点;
合并所述人脸图像和所述眼镜图像,基于所述目标基准点和所述目标参考点对所述眼镜图像在所述人脸图像上进行调整,使所述眼镜图像与所述人脸图像匹配。
2.如权利要求1所述的眼镜虚拟佩戴方法,其特征在于,所述基于人脸特征点检测算法从所述人脸图像中获取人脸图像中的特征点,并基于所述人脸图像中的特征点构建表征眼睛位置和鼻尖位置的目标基准点,包括以下步骤:
采用所述人脸特征点检测算法获取所述人脸图像中的特征点,所述特征点包括左眉中心点、右眉中心点、左眼左眼角点、左眼右眼角点、右眼左眼角点、右眼右眼角点和鼻尖点;
基于所述左眉中心点、所述左眼左眼角点和所述左眼右眼角点形成第一三角形,获取所述第一三角形的形心作为第一基准点;
基于所述右眉中心点、所述右眼左眼角点和所述右眼右眼角点形成第二三角形,获取所述第二三角形的形心作为第二基准点;
将所述鼻尖点作为第三基准点;
基于所述第一基准点、所述第二基准点和所述第三基准点构成表征眼睛位置和鼻尖位置的目标基准点。
3.如权利要求2所述的眼镜虚拟佩戴方法,其特征在于,所述目标参考点包括第一参考点、第二参考点和第三参考点;
所述第一参考点为所述眼镜图像的左镜框的上边缘中心点;
所述第二参考点为所述眼镜图像的右镜框的上边缘中心点;
所述第三参考点为以所述第一参考点和所述第二参考点连线的中心点向下预定距离的位置,其中,所述预定距离基于所述眼镜标识获取。
4.如权利要求3所述的眼镜虚拟佩戴方法,其特征在于,所述合并所述人脸图像和所述眼镜图像,基于所述目标基准点和所述目标参考点对所述眼镜图像在所述人脸图像上进行调整,使眼镜图像与人脸图像匹配,包括以下步骤:
基于所述人脸图像上的所述第三基准点,在所述人脸图像上对所述眼镜图像进行平移,使得所述第三参考点和所述第三基准点重合;
获取所述第一基准点和所述第二基准点的连线,作为基准线,获取所述第一参考点和所述第二参考点的连线,作为参考线;
基于所述第三基准点使所述眼镜图像在所述人脸图像上旋转,以使得所述基准线和所述参考线平行;
基于所述第一参考点和所述第一基准点,或者基于所述第二参考点和所述第二基准点对所述眼镜图像在所述人脸图像上进行调整,使眼镜图像与人脸图像匹配。
5.如权利要求1所述的眼镜虚拟佩戴方法,其特征在于,所述眼镜选择请求还包括用户ID;
在合并所述人脸图像和所述眼镜图像,基于所述目标基准点和所述目标参考点对所述眼镜图像进行调整的步骤之后,所述眼镜虚拟佩戴方法还包括以下步骤:
获取自定义匹配请求,基于所述自定义匹配请求获取眼镜图像调整信息;
关联所述用户ID、所述眼镜标识和所述眼镜图像调整信息,并保存至自定义匹配表中。
6.一种眼镜虚拟佩戴装置,其特征在于,包括:
人脸图像获取模块,用于获取人脸图像,基于人脸特点征检测算法从所述人脸图像中获取人脸图像中的特征点,并基于所述人脸图像中的特征点构建表征眼睛位置和鼻尖位置的目标基准点;
眼镜选择请求获取模块,用于获取眼镜选择请求,所述眼镜选择请求包括眼镜标识;
眼镜图像获取模块,用于基于所述眼镜标识获取眼镜图像,所述眼镜图像包括目标参考点;
图像合并调整模块,用于合并所述人脸图像和所述眼镜图像,基于所述目标基准点和所述目标参考点对所述眼镜图像在所述人脸图像上进行调整,使所述眼镜图像与所述人脸图像匹配。
7.如权利要求6所述的眼镜虚拟佩戴装置,其特征在于,所述人脸图像模块包括人脸特征点获取单元、第一基准点获取单元、第二基准点获取单元、第三基准点获取单元和目标基准点获取单元;
所述人脸特征点获取单元,用于采用所述人脸特征点检测算法获取所述人脸图像中的特征点,所述特征点包括左眉中心点、右眉中心点、左眼左眼角点、左眼右眼角点、右眼左眼角点、右眼右眼角点和鼻尖点;
所述第一基准点获取单元,用于基于所述左眉中心点、所述左眼左眼角点和所述左眼右眼角点形成第一三角形,获取所述第一三角形的形心作为第一基准点;
所述第二基准点获取单元,用于基于所述右眉中心点、所述右眼左眼角点和所述右眼右眼角点形成第二三角形,获取所述第二三角形的形心作为第二基准点;
所述第三基准点获取单元,用于将所述鼻尖点作为第三基准点;
所述目标基准点获取单元,用于基于所述第一基准点、所述第二基准点和所述第三基准点构成表征眼睛位置和鼻尖位置的目标基准点。
8.如权利要求7所述的眼镜虚拟佩戴装置,其特征在于,所述眼镜选择请求还包括用户ID;
所述眼镜虚拟佩戴装置还包括自定义匹配模块,所述自定义匹配模块包括自定义请求获取单元和自定义信息关联单元;
所述自定义请求获取单元,用于获取自定义匹配请求,基于所述自定义匹配请求获取眼镜图像调整信息;
所述自定义信息关联单元,用于关联所述用户ID、所述眼镜标识和所述眼镜图像调整信息,并保存至自定义匹配表中。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述眼镜虚拟佩戴方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述眼镜虚拟佩戴方法的步骤。
CN201810585001.5A 2018-06-08 2018-06-08 眼镜虚拟佩戴方法、装置、计算机设备及存储介质 Active CN109063539B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810585001.5A CN109063539B (zh) 2018-06-08 2018-06-08 眼镜虚拟佩戴方法、装置、计算机设备及存储介质
PCT/CN2018/094391 WO2019232871A1 (zh) 2018-06-08 2018-07-04 眼镜虚拟佩戴方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810585001.5A CN109063539B (zh) 2018-06-08 2018-06-08 眼镜虚拟佩戴方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN109063539A true CN109063539A (zh) 2018-12-21
CN109063539B CN109063539B (zh) 2023-04-18

Family

ID=64820633

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810585001.5A Active CN109063539B (zh) 2018-06-08 2018-06-08 眼镜虚拟佩戴方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN109063539B (zh)
WO (1) WO2019232871A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533775A (zh) * 2019-09-18 2019-12-03 广州智美科技有限公司 一种基于3d人脸的眼镜匹配方法、装置及终端
CN110910512A (zh) * 2019-11-29 2020-03-24 北京达佳互联信息技术有限公司 虚拟物体自适应调整方法、装置、计算机设备和存储介质
CN110958463A (zh) * 2019-12-06 2020-04-03 广州华多网络科技有限公司 虚拟礼物展示位置的检测、合成方法、装置和设备
CN111062328A (zh) * 2019-12-18 2020-04-24 中新智擎科技有限公司 一种图像处理方法、装置及智能机器人
CN112328084A (zh) * 2020-11-12 2021-02-05 北京态璞信息科技有限公司 一种三维虚拟眼镜的定位方法、装置及电子设备
CN112418138A (zh) * 2020-12-04 2021-02-26 兰州大学 一种眼镜试戴系统及程序

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723754B (zh) * 2020-06-24 2024-05-31 深圳数联天下智能科技有限公司 一种左右眼识别方法、识别装置、终端设备及存储介质
CN114267080B (zh) * 2021-12-30 2023-03-24 淮阴工学院 一种基于角度变化的无差别眨眼识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408764A (zh) * 2014-11-07 2015-03-11 成都好视界眼镜有限公司 眼镜虚拟试戴方法、装置及系统
CN105809507A (zh) * 2016-02-29 2016-07-27 北京酷配科技有限公司 一种虚拟试戴方法、虚拟试戴装置
CN105975920A (zh) * 2016-04-28 2016-09-28 上海交通大学 一种眼镜试戴方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016135078A1 (en) * 2015-02-23 2016-09-01 Fittingbox Process and method for real-time physically accurate and realistic-looking glasses try-on
US20170323374A1 (en) * 2016-05-06 2017-11-09 Seok Hyun Park Augmented reality image analysis methods for the virtual fashion items worn
CN107103513B (zh) * 2017-04-23 2020-12-29 广州帕克西软件开发有限公司 一种眼镜虚拟试戴方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408764A (zh) * 2014-11-07 2015-03-11 成都好视界眼镜有限公司 眼镜虚拟试戴方法、装置及系统
CN105809507A (zh) * 2016-02-29 2016-07-27 北京酷配科技有限公司 一种虚拟试戴方法、虚拟试戴装置
CN105975920A (zh) * 2016-04-28 2016-09-28 上海交通大学 一种眼镜试戴方法及系统

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533775A (zh) * 2019-09-18 2019-12-03 广州智美科技有限公司 一种基于3d人脸的眼镜匹配方法、装置及终端
CN110533775B (zh) * 2019-09-18 2023-04-18 广州智美科技有限公司 一种基于3d人脸的眼镜匹配方法、装置及终端
CN110910512A (zh) * 2019-11-29 2020-03-24 北京达佳互联信息技术有限公司 虚拟物体自适应调整方法、装置、计算机设备和存储介质
CN110910512B (zh) * 2019-11-29 2024-04-30 北京达佳互联信息技术有限公司 虚拟物体自适应调整方法、装置、计算机设备和存储介质
CN110958463A (zh) * 2019-12-06 2020-04-03 广州华多网络科技有限公司 虚拟礼物展示位置的检测、合成方法、装置和设备
CN111062328A (zh) * 2019-12-18 2020-04-24 中新智擎科技有限公司 一种图像处理方法、装置及智能机器人
CN111062328B (zh) * 2019-12-18 2023-10-03 中新智擎科技有限公司 一种图像处理方法、装置及智能机器人
CN112328084A (zh) * 2020-11-12 2021-02-05 北京态璞信息科技有限公司 一种三维虚拟眼镜的定位方法、装置及电子设备
CN112418138A (zh) * 2020-12-04 2021-02-26 兰州大学 一种眼镜试戴系统及程序
CN112418138B (zh) * 2020-12-04 2022-08-19 兰州大学 一种眼镜试戴系统

Also Published As

Publication number Publication date
CN109063539B (zh) 2023-04-18
WO2019232871A1 (zh) 2019-12-12

Similar Documents

Publication Publication Date Title
CN109063539A (zh) 眼镜虚拟佩戴方法、装置、计算机设备及存储介质
US11215845B2 (en) Method, device, and computer program for virtually adjusting a spectacle frame
US11250241B2 (en) Face image processing methods and apparatuses, and electronic devices
US9842246B2 (en) Fitting glasses frames to a user
US20190333262A1 (en) Facial animation implementation method, computer device, and storage medium
CN107111753B (zh) 用于注视跟踪模型的注视检测偏移
US11715231B2 (en) Head pose estimation from local eye region
CN109803574B (zh) 具有显示器、透镜、照明器和图像传感器的可穿戴设备
CN105184249A (zh) 用于人脸图像处理的方法和装置
CN104766059A (zh) 快速精确的人眼定位方法及基于人眼定位的视线估计方法
CN109886144B (zh) 虚拟试发方法、装置、计算机设备和存储介质
CN113362231B (zh) 人脸关键点的插值方法、装置、计算机设备和存储介质
CN108090463A (zh) 对象控制方法、装置、存储介质和计算机设备
CN110503068A (zh) 视线估计方法、终端及存储介质
RU2671990C1 (ru) Способ отображения трехмерного лица объекта и устройство для него
Jankó et al. Improving human-computer interaction by gaze tracking
US20180197273A1 (en) System and Method for Displaying Graphical Effects Based on Determined Facial Positions
Parada et al. ExpertEyes: Open-source, high-definition eyetracking
US20220351467A1 (en) Generation of a 3d model of a reference object to perform scaling of a model of a user's head
CN115641625A (zh) 一种视线位置定位方法、装置及终端设备控制方法
BR112019025221B1 (pt) Processo, dispositivo e programa de computador para o ajuste virtual de uma armação de óculos
BR122022022441B1 (pt) Processo e dispositivo para o ajuste virtual de uma armação de óculos
GB2629457A (en) Measuring tool
CN118696260A (zh) 用于确定人的视点的方法和移动设备
Dominec Software-based eye tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant