CN110781738A - 生成人脸图像的方法、装置、计算机设备及存储介质 - Google Patents
生成人脸图像的方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN110781738A CN110781738A CN201910886618.5A CN201910886618A CN110781738A CN 110781738 A CN110781738 A CN 110781738A CN 201910886618 A CN201910886618 A CN 201910886618A CN 110781738 A CN110781738 A CN 110781738A
- Authority
- CN
- China
- Prior art keywords
- face image
- angle
- image
- target face
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 239000013598 vector Substances 0.000 claims abstract description 172
- 238000006243 chemical reaction Methods 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims description 56
- 238000012937 correction Methods 0.000 claims description 49
- 238000012549 training Methods 0.000 claims description 40
- 210000000056 organ Anatomy 0.000 claims description 38
- 206010061274 Malocclusion Diseases 0.000 claims description 13
- 238000013145 classification model Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 claims description 5
- 230000015572 biosynthetic process Effects 0.000 abstract 1
- 238000003786 synthesis reaction Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 11
- 230000001815 facial effect Effects 0.000 description 9
- 210000003128 head Anatomy 0.000 description 9
- 238000010586 diagram Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请揭示了生成人脸图像的方法、装置、计算机设备及存储介质,其中,生成人脸图像的方法,包括:将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中;通过预训练的人脸图像生成网络,按照预设转换方式将原始人脸图像转换为第一角度向量对应的第一目标人脸图像,其中,第一角度向量包含于所有目标人脸图像对应的角度向量中,第一目标人脸图像包含于所有目标人脸图像中;通过预设判别网络评价第一角度向量与第一目标人脸图像是否匹配;若匹配,则输出第一目标人脸图像。通过原始人脸图像和角度向量一并输入至人脸图像生成网络中,通过将角度向量作用于原始人脸图像,实现角度对应的目标人脸图像的合成。
Description
技术领域
本申请涉及到计算机领域,特别是涉及到生成人脸图像的方法、装置、计算机设备及存储介质。
背景技术
人脸识别已广泛应用在机器人等学科中,对自动鉴别和人类自动分辨有着重要的意义,然而在通过人脸识别验证时,通常每个用户只采集一副前视图图像,现有的普通人脸识别神经网络,只能生成一种类型的图片,不能同时生成多个角度类型的图片,使现实的人脸识别系统的应用具有识别缺陷,导致识别率大幅下降,影响正常使用。
发明内容
本申请的主要目的为提供生成人脸图像的方法,旨在解决现有人脸识别神经网络不能同时生成多个角度类型的图片的技术问题。
本申请提出一种生成人脸图像的方法,包括:
将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中,其中,目标人脸图像的角度向量至少包括一个;
通过预训练的人脸图像生成网络,按照预设转换方式将原始人脸图像转换为第一角度向量对应的第一目标人脸图像,其中,第一角度向量包含于所有目标人脸图像对应的角度向量中,第一目标人脸图像包含于所有目标人脸图像中;
通过预设判别网络评价第一角度向量与第一目标人脸图像是否匹配;
若匹配,则输出第一目标人脸图像。
优选地,通过预训练的人脸图像生成网络,按照预设转换方式将原始人脸图像转换为第一角度向量对应的第一目标人脸图像的步骤,包括:
从原始人脸图像中裁剪出人脸头部区域图像;
根据特征点定位模型定位人脸的指定器官对应的特征点,其中,指定器官至少包括一种;
获取各指定器官分别对应的特征点的坐标数据;
将各坐标数据一一对应映射到第一角度向量对应的特征点模板中,得到第一角度向量对应的人脸区域;
根据第一角度向量对应的人脸区域,形成第一目标人脸图像。
优选地,通过预设判别网络评价第一角度向量与第一目标人脸图像是否匹配的步骤,包括:
将第一角度向量的逆角度与第一目标人脸图像,作为输入量输入至预训练的人脸图像生成网络;
根据第一角度向量的逆角度与第一目标人脸图像,生成第二目标人脸图像;
判断第二目标人脸图像是否与原始人脸图像相同;
若相同,则判定第一角度向量与第一目标人脸图像匹配。
优选地,判断第二目标人脸图像是否与原始人脸图像相同的步骤之后,包括:
若第二目标人脸图像与原始人脸图像不相同,则确定第二目标人脸图像与原始人脸图像的差异信息;
根据差异信息生成第一校正loss函数,其中,第一校正loss函数为Lg=Ladv+Lfcls+Lrec,Ladv=logD(x)+log(1-D(G(x,c)),Lfcls=-logD(G(x,c)),Lrec=||x-G(G(x,c),c’)||,G表示人脸图像生成网络,G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数,c’=-c;
根据第一校正loss函数校正预训练的人脸图像生成网络中的参量。
优选地,输出第一目标人脸图像的步骤之后,包括:
判断对各第一目标人脸图像分别对应的角度分类是否分类正确;
若否,则通过第二校正loss函数校正判别网络,其中,第二校正loss函数Ld=-Ladv+Lfcls,Ladv=logD(x)+log(1-D(G(x,c)),Lfcls=-logD(G(x,c)),G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数。
优选地,将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中的步骤之前,包括:
获取指定数量用户的人脸图像,其中,同一用户的人脸图像至少包括两个指定角度对应的角度图像;
角度图像对应的指定角度映射为指定长度的向量值;
将角度图像与指定角度对应的指定长度的向量值,组合成训练样本;
将训练样本输入至神经网络中进行训练,得到能分类指定角度对应图像域的分类模型;
将分类模型作为预训练的人脸图像生成网络。
优选地,将角度图像与指定角度对应的指定长度的向量值,组合成训练样本的步骤,包括:
获取第一角度图像中人脸器官对应的第一像素值,其中,第一角度图像包含于所有角度图像中;
获取第一指定角度对应的标准人脸图像;
根据标准人脸图像中各人脸器官对应的标准像素值,修正第一像素值,得到修正后的第一像素值;
将携带修正后的第一像素值的第二角度图像,与第一角度对应的第一向量值,组合为修正训练样本。
本申请还提供了一种生成人脸图像的装置,包括:
第一输入模块,用于将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中,其中,目标人脸图像的角度向量至少包括一个;
转换模块,用于通过预训练的人脸图像生成网络,按照预设转换方式将原始人脸图像转换为第一角度向量对应的第一目标人脸图像,其中,第一角度向量包含于所有目标人脸图像对应的角度向量中,第一目标人脸图像包含于所有目标人脸图像中;
评价模块,用于通过预设判别网络评价第一角度向量与第一目标人脸图像是否匹配;
输出模块,用于若匹配,则输出第一目标人脸图像。
本申请还提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述方法的步骤。
本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述的方法的步骤。
本申请通过原始人脸图像和角度向量一并输入至人脸图像生成网络中,通过将角度向量作用于原始人脸图像,实现角度对应的目标人脸图像的合成。本申请的人脸图像生成网络通过多用户多角度人脸图像训练而成,携带多个角度图像分别对应的生成模板,可支持一张原始人脸图像,和多个角度向量一并输入至脸图像生成网络中,同时生成原始人脸图像对应的多个角度的目标人脸图像。通过将生成网络与判别网络进行连接,通过将生成网络输出的人脸图像进行角度分类,来进一步验证生成网络的可靠性,若角度对应的人脸图像被判别网络分类到正确的角度域,表明生成网络的可靠性高,判别网络的可靠性也高。若分类不正确,但经过第一校正loss函数分析,生成网络是可靠的,则表明判别网络需要进行校正,则通过第二校正loss函数Ld进行校正。
附图说明
图1本申请一实施例的生成人脸图像的方法流程示意图;
图2本申请一实施例的生成人脸图像的装置结构示意图;
图3本申请一实施例的计算机设备内部结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
参照图1,本申请一实施例的生成人脸图像的方法,包括:
S1:将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中,其中,目标人脸图像的角度向量至少包括一个。
S2:通过预训练的人脸图像生成网络,按照预设转换方式将原始人脸图像转换为第一角度向量对应的第一目标人脸图像,其中,第一角度向量包含于所有目标人脸图像对应的角度向量中,第一目标人脸图像包含于所有目标人脸图像中。
S3:通过预设判别网络评价第一角度向量与第一目标人脸图像是否匹配。
S4:若匹配,则输出第一目标人脸图像。
本实施例中,通过将原始人脸图像和目标人脸图像的角度向量一并输入至人脸图像生成网络中,通过将角度向量作用于原始人脸图像,实现角度向量对应的目标人脸图像的合成。本实施例的人脸图像生成网络通过多用户多角度人脸图像训练而成,携带多个角度图像分别对应的生成模板,可支持一张原始人脸图像,和多个角度向量一并输入至脸图像生成网络中,同时生成并输出原始人脸图像转化各角度向量后分别对应的目标人脸图像。
进一步地,通过预训练的人脸图像生成网络,按照预设转换方式将原始人脸图像转换为第一角度向量对应的第一目标人脸图像的步骤S2,包括:
S21:从原始人脸图像中裁剪出人脸头部区域图像。
S22:根据特征点定位模型定位人脸的指定器官对应的特征点,其中,指定器官至少包括一种。
S23:获取各指定器官分别对应的特征点的坐标数据。
S24:将各坐标数据一一对应映射到第一角度向量对应的特征点模板中,得到第一角度向量对应的人脸区域。
S25:根据第一角度向量对应的人脸区域,形成第一目标人脸图像。
本实施例中在合成角度对应的目标人脸图像的过程中,为提高生成的目标人脸图像与原始人脸图像的准确匹配性,先通过裁剪使人脸头部图像放大显示,形成人脸头部区域图像,并根据定位模型识别并定位人脸器官特征点所在位置,并将特征点的坐标数据按照角度向量映射于角度向量对应的特征点模板中,得到目标人脸图像。上述人脸的特征点至少包括五个,两只眼睛分别对应的特征点、两个嘴角分别对应的特征点、鼻子对应的特征点。本实施例获取到上述五个特征点的在原始人脸图像中的坐标数据后,每个坐标按(x,y)表示,然后根据opencv的仿射变换,将获取的五个特征点的坐标数据映射到预存的角度向量对应的特征点模板中,获取角度向量对应的人脸区域,形成目标人脸图像。根据人脸检测模型(譬如mtcnn),可以获取人脸的五个特征点,并确定五个特征点分别对应的坐标数据。
进一步地,通过预设判别网络评价第一角度向量与第一目标人脸图像是否匹配的步骤S3,包括:
S31:将第一角度向量的逆角度与第一目标人脸图像,作为输入量输入至预训练的人脸图像生成网络。
S31:根据第一角度向量的逆角度与第一目标人脸图像,生成第二目标人脸图像。
S33:判断第二目标人脸图像是否与原始人脸图像相同。
S34:若相同,则判定第一角度向量与第一目标人脸图像匹配。
本实施例通过目标人脸图像和合成目标人脸图像对应角度的逆角度,作为人脸图像生成网络的输入量,是否输出原始人脸图像,来验证预训练的人脸图像生成网络的可靠性,若将目标人脸图像和合成目标人脸图像对应角度的逆角度,作为人脸图像生成网络的输入量,能输出原始人脸图像,则表明人脸图像生成网络是可靠的。上述合成目标人脸图像对应角度为c,则合成目标人脸图像对应角度的逆角度为-c。
进一步地,判断第二目标人脸图像是否与原始人脸图像相同的步骤S33之后,包括:
S35:若第二目标人脸图像与原始人脸图像不相同,则确定第二目标人脸图像与原始人脸图像的差异信息。
S36:根据差异信息生成第一校正loss函数,其中,第一校正loss函数为Lg=Ladv+Lfcls+Lrec,Ladv=logD(x)+log(1-D(G(x,c)),Lfcls=-logD(G(x,c)),Lrec=||x-G(G(x,c),c’)||,G表示人脸图像生成网络,G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数,c’=-c。
S37:根据第一校正loss函数校正预训练的人脸图像生成网络中的参量。
本实施例中若第二目标人脸图像与原始人脸图像不相同,或第二目标人脸图像与原始人脸图像的相似度小于预设阈值,则说明人脸图像生成网络的可靠性不能满足使用要求,第一校正loss函数为Lg,通过第一校正loss函数校正人脸图像生成网络G。G(x,c)表示生成角度为c的人脸图像,G(G(x,c),c')表示生成的角度为c的图像再次作为输入,生成自己原来的角度c’对应的人脸图像,c’=-c。Lfcls用来优化生成网络G,即让生成网络G生成的人脸图像能够被判别网络D分类成目标角度域c。Lrec是为了保证原始人脸图像x经过角度域c的变换后,再变换回原角度域c'对应的人脸图片,和原始人脸图像保持一致。
进一步地,输出第一目标人脸图像的步骤S4之后,包括:
S41:判断对各第一目标人脸图像分别对应的角度分类是否分类正确。
S42:若否,则通过第二校正loss函数校正判别网络,其中,第二校正loss函数Ld=-Ladv+Lfcls,Ladv=logD(x)+log(1-D(G(x,c)),Lfcls=-logD(G(x,c)),G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数。
本实施例通过将生成网络与判别网络进行连接,通过将生成网络输出的人脸图像进行角度分类,来进一步验证生成网络的可靠性,若角度对应的人脸图像被判别网络分类到正确的角度域,表明生成网络的可靠性高,判别网络的可靠性也高。若分类不正确,但经过第一校正loss函数分析,生成网络是可靠的,则表明判别网络需要进行校正,则通过第二校正loss函数Ld进行校正。本实施例通过比较第一目标人脸图像相对于原始人脸的角度向量的大小,是否在对应的角度分类范围内,若在范围内,说明分类正确。
进一步地,将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中的步骤S1之前,包括:
S11:获取指定数量用户的人脸图像,其中,同一用户的人脸图像至少包括两个指定角度对应的角度图像。
S12:角度图像对应的指定角度映射为指定长度的向量值。
S13:将角度图像与指定角度对应的指定长度的向量值,组合成训练样本。
S14:将训练样本输入至神经网络中进行训练,得到能分类指定角度对应图像域的分类模型。
S15:将分类模型作为预训练的人脸图像生成网络。
本实施例在训练人脸图像生成网络时,同时加入角度向量的参数,生成不同角度域分别对应的人脸图像生成模板。按照不同角度,将人脸图像进行分类,同一角度的放入相同分类,每一个角度使用一个长度唯一的角度向量表示。上述指定数量大于等于1000用户,每个用户对应多个角度的人脸图像,指定角度例如包括-90,-60,-45,-30,0,30,45,60,90等多个角度。
进一步地,将角度图像与指定角度对应的指定长度的向量值,组合成训练样本的步骤S13,包括:
S131:获取第一角度图像中人脸器官对应的第一像素值,其中,第一角度图像包含于所有角度图像中。
S132:获取第一指定角度对应的标准人脸图像。
S133:根据标准人脸图像中各人脸器官对应的标准像素值,修正第一像素值,得到修正后的第一像素值。
S134:将携带修正后的第一像素值的第二角度图像,与第一角度对应的第一向量值,组合为修正训练样本。
本实施例中,训练样本通过定位修正,以提高训练样本的正确性。本实施例通过裁剪,使人脸图像处于正中央,然后将人脸器官对应的特征点的像素值进行修正。比如标准人脸图像为256*256,则眼睛的标准像素值为58*58,和158*58,通过将当前用户的第一角度图像中人脸器官对应的第一像素值,矫正对准到第一指定角度对应的标准人脸图像的标准像素值,其他人脸器官对应的特征点如上过程对应校正,以减小样本差异度大,对人脸图像生成网络的训练精度影响,提高生成网络同步输出多个角度分别对应的人脸图像的精准性。
参照图2,本申请一实施例的生成人脸图像的装置,包括:
第一输入模块1,用于将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中,其中,目标人脸图像的角度向量至少包括一个。
转换模块2,用于通过预训练的人脸图像生成网络,按照预设转换方式将原始人脸图像转换为第一角度向量对应的第一目标人脸图像,其中,第一角度向量包含于所有目标人脸图像对应的角度向量中,第一目标人脸图像包含于所有目标人脸图像中。
评价模块3,用于通过预设判别网络评价第一角度向量与第一目标人脸图像是否匹配。
输出模块4,用于若匹配,则输出第一目标人脸图像。
本实施例中,通过将原始人脸图像和目标人脸图像的角度向量一并输入至人脸图像生成网络中,通过将角度向量作用于原始人脸图像,实现角度向量对应的目标人脸图像的合成。本实施例的人脸图像生成网络通过多用户多角度人脸图像训练而成,携带多个角度图像分别对应的生成模板,可支持一张原始人脸图像,和多个角度向量一并输入至脸图像生成网络中,同时生成并输出原始人脸图像转化各角度向量后分别对应的目标人脸图像。
进一步地,转换模块2,包括:
裁剪单元,用于从原始人脸图像中裁剪出人脸头部区域图像。
定位单元,用于根据特征点定位模型定位人脸的指定器官对应的特征点,其中,指定器官至少包括一种。
第一获取单元,用于获取各指定器官分别对应的特征点的坐标数据。
映射单元,用于将各坐标数据一一对应映射到第一角度向量对应的特征点模板中,得到第一角度向量对应的人脸区域。
形成单元,用于根据第一角度向量对应的人脸区域,形成第一目标人脸图像。
本实施例中在合成角度对应的目标人脸图像的过程中,为提高生成的目标人脸图像与原始人脸图像的准确匹配性,先通过裁剪使人脸头部图像放大显示,形成人脸头部区域图像,并根据定位模型识别并定位人脸器官特征点所在位置,并将特征点的坐标数据按照角度向量映射于角度向量对应的特征点模板中,得到目标人脸图像。上述人脸的特征点至少包括五个,两只眼睛分别对应的特征点、两个嘴角分别对应的特征点、鼻子对应的特征点。本实施例获取到上述五个特征点的在原始人脸图像中的坐标数据后,每个坐标按(x,y)表示,然后根据opencv的仿射变换,将获取的五个特征点的坐标数据映射到预存的角度向量对应的特征点模板中,获取角度向量对应的人脸区域,形成目标人脸图像。根据人脸检测模型(譬如mtcnn),可以获取人脸的五个特征点,并确定五个特征点分别对应的坐标数据。
进一步地,评价模块3,包括:
输入单元,用于将第一角度向量的逆角度与第一目标人脸图像,作为输入量输入至预训练的人脸图像生成网络。
第一生成单元,用于根据第一角度向量的逆角度与第一目标人脸图像,生成第二目标人脸图像。
判断单元,用于判断第二目标人脸图像是否与原始人脸图像相同。
判定单元,用于若相同,则判定第一角度向量与第一目标人脸图像匹配。
本实施例通过目标人脸图像和合成目标人脸图像对应角度的逆角度,作为人脸图像生成网络的输入量,是否输出原始人脸图像,来验证预训练的人脸图像生成网络的可靠性,若将目标人脸图像和合成目标人脸图像对应角度的逆角度,作为人脸图像生成网络的输入量,能输出原始人脸图像,则表明人脸图像生成网络是可靠的。上述合成目标人脸图像对应角度为c,则合成目标人脸图像对应角度的逆角度为-c。
进一步地,评价模块3,包括:
确定单元,用于若第二目标人脸图像与原始人脸图像不相同,则确定第二目标人脸图像与原始人脸图像的差异信息。
第二生成单元,用于根据差异信息生成第一校正loss函数,其中,第一校正loss函数为Lg=Ladv+Lfcls+Lrec,Ladv=logD(x)+log(1-D(G(x,c)),Lfcls=-logD(G(x,c)),Lrec=||x-G(G(x,c),c’)||,G表示人脸图像生成网络,G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数,c’=-c。
校正单元,用于根据第一校正loss函数校正预训练的人脸图像生成网络中的参量。
本实施例中若第二目标人脸图像与原始人脸图像不相同,或第二目标人脸图像与原始人脸图像的相似度小于预设阈值,则说明人脸图像生成网络的可靠性不能满足使用要求,第一校正loss函数为Lg,通过第一校正loss函数校正人脸图像生成网络G。G(x,c)表示生成角度为c的人脸图像,G(G(x,c),c')表示生成的角度为c的图像再次作为输入,生成自己原来的角度c’对应的人脸图像,c’=-c。Lfcls用来优化生成网络G,即让生成网络G生成的人脸图像能够被判别网络D分类成目标角度域c。Lrec是为了保证原始人脸图像x经过角度域c的变换后,再变换回原角度域c'对应的人脸图片,和原始人脸图像保持一致。
进一步地,生成人脸图像的装置,包括:
判断模块,用于判断对各第一目标人脸图像分别对应的角度分类是否分类正确。
校正模块,用于若否,则通过第二校正loss函数校正判别网络,其中,第二校正loss函数Ld=-Ladv+Lfcls,Ladv=logD(x)+log(1-D(G(x,c)),Lfcls=-logD(G(x,c)),G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数。
本实施例通过将生成网络与判别网络进行连接,通过将生成网络输出的人脸图像进行角度分类,来进一步验证生成网络的可靠性,若角度对应的人脸图像被判别网络分类到正确的角度域,表明生成网络的可靠性高,判别网络的可靠性也高。若分类不正确,但经过第一校正loss函数分析,生成网络是可靠的,则表明判别网络需要进行校正,则通过第二校正loss函数Ld进行校正。本实施例通过比较第一目标人脸图像相对于原始人脸的角度向量的大小,是否在对应的角度分类范围内,若在范围内,说明分类正确。
进一步地,生成人脸图像的装置,包括:
获取模块,用于获取指定数量用户的人脸图像,其中,同一用户的人脸图像至少包括两个指定角度对应的角度图像。
映射模块,用于角度图像对应的指定角度映射为指定长度的向量值。
组合模块,用于将角度图像与指定角度对应的指定长度的向量值,组合成训练样本。
第二输入模块,用于将训练样本输入至神经网络中进行训练,得到能分类指定角度对应图像域的分类模型。
作为模块,用于将分类模型作为预训练的人脸图像生成网络。
本实施例在训练人脸图像生成网络时,同时加入角度向量的参数,生成不同角度域分别对应的人脸图像生成模板。按照不同角度,将人脸图像进行分类,同一角度的放入相同分类,每一个角度使用一个长度唯一的角度向量表示。上述指定数量大于等于1000用户,每个用户对应多个角度的人脸图像,指定角度例如包括-90,-60,-45,-30,0,30,45,60,90等多个角度。
进一步地,组合模块,包括:
第二获取单元,用于获取第一角度图像中人脸器官对应的第一像素值,其中,第一角度图像包含于所有角度图像中。
第三获取单元,用于获取第一指定角度对应的标准人脸图像。
修正单元,用于根据标准人脸图像中各人脸器官对应的标准像素值,修正第一像素值,得到修正后的第一像素值。
组合单元,用于将携带修正后的第一像素值的第二角度图像,与第一角度对应的第一向量值,组合为修正训练样本。
本实施例中,训练样本通过定位修正,以提高训练样本的正确性。本实施例通过裁剪,使人脸图像处于正中央,然后将人脸器官对应的特征点的像素值进行修正。比如标准人脸图像为256*256,则眼睛的标准像素值为58*58,和158*58,通过将当前用户的第一角度图像中人脸器官对应的第一像素值,矫正对准到第一指定角度对应的标准人脸图像的标准像素值,其他人脸器官对应的特征点如上过程对应校正,以减小样本差异度大,对人脸图像生成网络的训练精度影响,提高生成网络同步输出多个角度分别对应的人脸图像的精准性。
参照图3,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储生成人脸图像的过程需要的所有数据。该计算机设备的网络接口用于与外部的端通过网络连接通信。该计算机程序被处理器执行时以实现生成人脸图像的方法。
上述处理器执行上述生成人脸图像的方法,包括:将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中,其中,目标人脸图像的角度向量至少包括一个;通过预训练的人脸图像生成网络,按照预设转换方式将原始人脸图像转换为第一角度向量对应的第一目标人脸图像,其中,第一角度向量包含于所有目标人脸图像对应的角度向量中,第一目标人脸图像包含于所有目标人脸图像中;通过预设判别网络评价第一角度向量与第一目标人脸图像是否匹配;若匹配,则输出第一目标人脸图像。
上述计算机设备,通过原始人脸图像和角度向量一并输入至人脸图像生成网络中,通过将角度向量作用于原始人脸图像,实现角度对应的目标人脸图像的合成。本申请的人脸图像生成网络通过多用户多角度人脸图像训练而成,携带多个角度图像分别对应的生成模板,可支持一张原始人脸图像,和多个角度向量一并输入至脸图像生成网络中,同时生成原始人脸图像对应的多个角度的目标人脸图像。通过将生成网络与判别网络进行连接,通过将生成网络输出的人脸图像进行角度分类,来进一步验证生成网络的可靠性,若角度对应的人脸图像被判别网络分类到正确的角度域,表明生成网络的可靠性高,判别网络的可靠性也高。若分类不正确,但经过第一校正loss函数分析,生成网络是可靠的,则表明判别网络需要进行校正,则通过第二校正loss函数Ld进行校正。
在一个实施例中,上述处理器通过预训练的人脸图像生成网络,按照预设转换方式将原始人脸图像转换为第一角度向量对应的第一目标人脸图像的步骤,包括:从原始人脸图像中裁剪出人脸头部区域图像;根据特征点定位模型定位人脸的指定器官对应的特征点,其中,指定器官至少包括一种;获取各指定器官分别对应的特征点的坐标数据;将各坐标数据一一对应映射到第一角度向量对应的特征点模板中,得到第一角度向量对应的人脸区域;根据第一角度向量对应的人脸区域,形成第一目标人脸图像。
在一个实施例中,上述处理器通过预设判别网络评价第一角度向量与第一目标人脸图像是否匹配的步骤,包括:将第一角度向量的逆角度与第一目标人脸图像,作为输入量输入至预训练的人脸图像生成网络;根据第一角度向量的逆角度与第一目标人脸图像,生成第二目标人脸图像;判断第二目标人脸图像是否与原始人脸图像相同;若相同,则判定第一角度向量与第一目标人脸图像匹配。
在一个实施例中,上述处理器判断第二目标人脸图像是否与原始人脸图像相同的步骤之后,包括:若第二目标人脸图像与原始人脸图像不相同,则确定第二目标人脸图像与原始人脸图像的差异信息;根据差异信息生成第一校正loss函数,其中,第一校正loss函数为Lg=Ladv+Lfcls+Lrec,Ladv=logD(x)+log(1-D(G(x,c))Lfcls=-logD(G(x,c))
,,Lrec=||x-G(G(x,c),c’)||,G表示人脸图像生成网络,G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数,c’=-c;根据第一校正loss函数校正预训练的人脸图像生成网络中的参量。
在一个实施例中,上述处理器输出第一目标人脸图像的步骤之后,包括:判断对各第一目标人脸图像分别对应的角度分类是否分类正确;若否,则通过第二校正loss函数校正判别网络,其中,第二校正loss函数Ld=-Ladv+Lfcls,Ladv=logD(x)+log(1-D(G(x,c)),Lfcls=-logD(G(x,c)),G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数。
在一个实施例中,上述处理器将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中的步骤之前,包括:获取指定数量用户的人脸图像,其中,同一用户的人脸图像至少包括两个指定角度对应的角度图像;角度图像对应的指定角度映射为指定长度的向量值;将角度图像与指定角度对应的指定长度的向量值,组合成训练样本;将训练样本输入至神经网络中进行训练,得到能分类指定角度对应图像域的分类模型;将分类模型作为预训练的人脸图像生成网络。
在一个实施例中,上述处理器将角度图像与指定角度对应的指定长度的向量值,组合成训练样本的步骤,包括:获取第一角度图像中人脸器官对应的第一像素值,其中,第一角度图像包含于所有角度图像中;获取第一指定角度对应的标准人脸图像;根据标准人脸图像中各人脸器官对应的标准像素值,修正第一像素值,得到修正后的第一像素值;将携带修正后的第一像素值的第二角度图像,与第一角度对应的第一向量值,组合为修正训练样本。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现生成人脸图像的方法,包括:将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中,其中,目标人脸图像的角度向量至少包括一个;通过预训练的人脸图像生成网络,按照预设转换方式将原始人脸图像转换为第一角度向量对应的第一目标人脸图像,其中,第一角度向量包含于所有目标人脸图像对应的角度向量中,第一目标人脸图像包含于所有目标人脸图像中;通过预设判别网络评价第一角度向量与第一目标人脸图像是否匹配;若匹配,则输出第一目标人脸图像。
上述计算机可读存储介质,通过原始人脸图像和角度向量一并输入至人脸图像生成网络中,通过将角度向量作用于原始人脸图像,实现角度对应的目标人脸图像的合成。本申请的人脸图像生成网络通过多用户多角度人脸图像训练而成,携带多个角度图像分别对应的生成模板,可支持一张原始人脸图像,和多个角度向量一并输入至脸图像生成网络中,同时生成原始人脸图像对应的多个角度的目标人脸图像。通过将生成网络与判别网络进行连接,通过将生成网络输出的人脸图像进行角度分类,来进一步验证生成网络的可靠性,若角度对应的人脸图像被判别网络分类到正确的角度域,表明生成网络的可靠性高,判别网络的可靠性也高。若分类不正确,但经过第一校正loss函数分析,生成网络是可靠的,则表明判别网络需要进行校正,则通过第二校正loss函数Ld进行校正。
在一个实施例中,上述处理器通过预训练的人脸图像生成网络,按照预设转换方式将原始人脸图像转换为第一角度向量对应的第一目标人脸图像的步骤,包括:从原始人脸图像中裁剪出人脸头部区域图像;根据特征点定位模型定位人脸的指定器官对应的特征点,其中,指定器官至少包括一种;获取各指定器官分别对应的特征点的坐标数据;将各坐标数据一一对应映射到第一角度向量对应的特征点模板中,得到第一角度向量对应的人脸区域;根据第一角度向量对应的人脸区域,形成第一目标人脸图像。
在一个实施例中,上述处理器通过预设判别网络评价第一角度向量与第一目标人脸图像是否匹配的步骤,包括:将第一角度向量的逆角度与第一目标人脸图像,作为输入量输入至预训练的人脸图像生成网络;根据第一角度向量的逆角度与第一目标人脸图像,生成第二目标人脸图像;判断第二目标人脸图像是否与原始人脸图像相同;若相同,则判定第一角度向量与第一目标人脸图像匹配。
在一个实施例中,上述处理器判断第二目标人脸图像是否与原始人脸图像相同的步骤之后,包括:若第二目标人脸图像与原始人脸图像不相同,则确定第二目标人脸图像与原始人脸图像的差异信息;根据差异信息生成第一校正loss函数,其中,第一校正loss函数为Lg=Ladv+Lfcls+Lrec,Ladv=logD(x)+log(1-D(G(x,c)),Lfcls=-logD(G(x,c)),Lrec=||x-G(G(x,c),c’)||,G表示人脸图像生成网络,G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数,c’=-c;根据第一校正loss函数校正预训练的人脸图像生成网络中的参量。
在一个实施例中,上述处理器输出第一目标人脸图像的步骤之后,包括:判断对各第一目标人脸图像分别对应的角度分类是否分类正确;若否,则通过第二校正loss函数校正判别网络,其中,第二校正loss函数Ld=-Ladv+Lfcls,Ladv=logD(x)+log(1-D(G(x,c)),Lfcls=-logD(G(x,c)),G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数。
在一个实施例中,上述处理器将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中的步骤之前,包括:获取指定数量用户的人脸图像,其中,同一用户的人脸图像至少包括两个指定角度对应的角度图像;角度图像对应的指定角度映射为指定长度的向量值;将角度图像与指定角度对应的指定长度的向量值,组合成训练样本;将训练样本输入至神经网络中进行训练,得到能分类指定角度对应图像域的分类模型;将分类模型作为预训练的人脸图像生成网络。
在一个实施例中,上述处理器将角度图像与指定角度对应的指定长度的向量值,组合成训练样本的步骤,包括:获取第一角度图像中人脸器官对应的第一像素值,其中,第一角度图像包含于所有角度图像中;获取第一指定角度对应的标准人脸图像;根据标准人脸图像中各人脸器官对应的标准像素值,修正第一像素值,得到修正后的第一像素值;将携带修正后的第一像素值的第二角度图像,与第一角度对应的第一向量值,组合为修正训练样本。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,上述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种生成人脸图像的方法,其特征在于,包括:
将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中,其中,所述目标人脸图像的角度向量至少包括一个;
通过所述预训练的人脸图像生成网络,按照预设转换方式将所述原始人脸图像转换为第一角度向量对应的第一目标人脸图像,其中,所述第一角度向量包含于所有所述目标人脸图像对应的角度向量中,所述第一目标人脸图像包含于所有所述目标人脸图像中;
通过预设判别网络评价所述第一角度向量与所述第一目标人脸图像是否匹配;
若匹配,则输出所述第一目标人脸图像。
2.根据权利要求1所述的生成人脸图像的方法,其特征在于,所述通过所述预训练的人脸图像生成网络,按照预设转换方式将所述原始人脸图像转换为第一角度向量对应的第一目标人脸图像的步骤,包括:
从所述原始人脸图像中裁剪出人脸头部区域图像;
根据特征点定位模型定位人脸的指定器官对应的特征点,其中,所述指定器官至少包括一种;
获取各所述指定器官分别对应的特征点的坐标数据;
将各所述坐标数据一一对应映射到所述第一角度向量对应的特征点模板中,得到所述第一角度向量对应的人脸区域;
根据所述第一角度向量对应的人脸区域,形成所述第一目标人脸图像。
3.根据权利要求1所述的生成人脸图像的方法,其特征在于,所述通过预设判别网络评价所述第一角度向量与所述第一目标人脸图像是否匹配的步骤,包括:
将所述第一角度向量的逆角度与所述第一目标人脸图像,作为输入量输入至所述预训练的人脸图像生成网络;
根据所述第一角度向量的逆角度与所述第一目标人脸图像,生成第二目标人脸图像;
判断所述第二目标人脸图像是否与所述原始人脸图像相同;
若相同,则判定所述第一角度向量与所述第一目标人脸图像匹配。
4.根据权利要求3所述的生成人脸图像的方法,其特征在于,所述判断所述第二目标人脸图像是否与所述原始人脸图像相同的步骤之后,包括:
若所述第二目标人脸图像与所述原始人脸图像不相同,则确定所述第二目标人脸图像与所述原始人脸图像的差异信息;
根据所述差异信息生成第一校正loss函数,其中,所述第一校正loss函数为Lg=Ladv+Lfcls+Lrec,Ladv=logD(x)+log(1-D(G(x,c)),Lfcls=-logD(G(x,c)),Lrec=||x-G(G(x,c),c’)||,G表示人脸图像生成网络,G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数,c’=-c;
根据所述第一校正loss函数校正所述预训练的人脸图像生成网络中的参量。
5.根据权利要求1所述的生成人脸图像的方法,其特征在于,所述输出所述第一目标人脸图像的步骤之后,包括:
判断对各所述第一目标人脸图像分别对应的角度分类是否分类正确;
若否,则通过第二校正loss函数校正所述判别网络,其中,第二校正loss函数Ld=-Ladv+Lfcls,Ladv=logD(x)+log(1-D(G(x,c)),Lfcls=-logD(G(x,c)),G(x,c)表示输入图像x,在生成角度为c时对应的人脸图像,D(x)代表D对真实图像计算得到的域标签概率分布,D表示判别网络函数。
6.根据权利要求1所述的生成人脸图像的方法,其特征在于,所述将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中的步骤之前,包括:
获取指定数量用户的人脸图像,其中,同一所述用户的人脸图像至少包括两个指定角度对应的角度图像;
所述角度图像对应的指定角度映射为指定长度的向量值;
将所述角度图像与所述指定角度对应的指定长度的向量值,组合成训练样本;
将所述训练样本输入至神经网络中进行训练,得到能分类所述指定角度对应图像域的分类模型;
将所述分类模型作为所述预训练的人脸图像生成网络。
7.根据权利要求6所述的生成人脸图像的方法,其特征在于,所述将所述角度图像与所述指定角度对应的指定长度的向量值,组合成训练样本的步骤,包括:
获取第一角度图像中人脸器官对应的第一像素值,其中,所述第一角度图像包含于所有所述角度图像中;
获取第一指定角度对应的标准人脸图像;
根据所述标准人脸图像中各人脸器官对应的标准像素值,修正所述第一像素值,得到修正后的第一像素值;
将携带所述修正后的第一像素值的第二角度图像,与所述第一角度对应的第一向量值,组合为修正训练样本。
8.一种生成人脸图像的装置,其特征在于,包括:
第一输入模块,用于将原始人脸图像和目标人脸图像的角度向量,同时输入至预训练的人脸图像生成网络中,其中,所述目标人脸图像的角度向量至少包括一个;
转换模块,用于通过所述预训练的人脸图像生成网络,按照预设转换方式将所述原始人脸图像转换为第一角度向量对应的第一目标人脸图像,其中,所述第一角度向量包含于所有所述目标人脸图像对应的角度向量中,所述第一目标人脸图像包含于所有所述目标人脸图像中;
评价模块,用于通过预设判别网络评价所述第一角度向量与所述第一目标人脸图像是否匹配;
输出模块,用于若匹配,则输出所述第一目标人脸图像。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910886618.5A CN110781738A (zh) | 2019-09-19 | 2019-09-19 | 生成人脸图像的方法、装置、计算机设备及存储介质 |
PCT/CN2019/116707 WO2021051510A1 (zh) | 2019-09-19 | 2019-11-08 | 生成人脸图像的方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910886618.5A CN110781738A (zh) | 2019-09-19 | 2019-09-19 | 生成人脸图像的方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110781738A true CN110781738A (zh) | 2020-02-11 |
Family
ID=69383588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910886618.5A Pending CN110781738A (zh) | 2019-09-19 | 2019-09-19 | 生成人脸图像的方法、装置、计算机设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110781738A (zh) |
WO (1) | WO2021051510A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401459A (zh) * | 2020-03-24 | 2020-07-10 | 谷元(上海)文化科技有限责任公司 | 一种动画人物形态变化视觉捕捉系统 |
WO2021217856A1 (zh) * | 2020-04-30 | 2021-11-04 | 平安科技(深圳)有限公司 | 人脸图像生成方法、装置、电子设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509915A (zh) * | 2018-04-03 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 人脸识别模型的生成方法和装置 |
JP2018165926A (ja) * | 2017-03-28 | 2018-10-25 | 株式会社Nttドコモ | 類似画像検索装置 |
CN109635745A (zh) * | 2018-12-13 | 2019-04-16 | 广东工业大学 | 一种基于生成对抗网络模型生成多角度人脸图像的方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102288280B1 (ko) * | 2014-11-05 | 2021-08-10 | 삼성전자주식회사 | 영상 학습 모델을 이용한 영상 생성 방법 및 장치 |
CN107292813B (zh) * | 2017-05-17 | 2019-10-22 | 浙江大学 | 一种基于生成对抗网络的多姿态人脸生成方法 |
CN107506702B (zh) * | 2017-08-08 | 2020-09-11 | 江西高创保安服务技术有限公司 | 基于多角度的人脸识别模型训练及测试系统及方法 |
CN108776983A (zh) * | 2018-05-31 | 2018-11-09 | 北京市商汤科技开发有限公司 | 基于重建网络的人脸重建方法和装置、设备、介质、产品 |
-
2019
- 2019-09-19 CN CN201910886618.5A patent/CN110781738A/zh active Pending
- 2019-11-08 WO PCT/CN2019/116707 patent/WO2021051510A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018165926A (ja) * | 2017-03-28 | 2018-10-25 | 株式会社Nttドコモ | 類似画像検索装置 |
CN108509915A (zh) * | 2018-04-03 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 人脸识别模型的生成方法和装置 |
CN109635745A (zh) * | 2018-12-13 | 2019-04-16 | 广东工业大学 | 一种基于生成对抗网络模型生成多角度人脸图像的方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401459A (zh) * | 2020-03-24 | 2020-07-10 | 谷元(上海)文化科技有限责任公司 | 一种动画人物形态变化视觉捕捉系统 |
WO2021217856A1 (zh) * | 2020-04-30 | 2021-11-04 | 平安科技(深圳)有限公司 | 人脸图像生成方法、装置、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021051510A1 (zh) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108968991B (zh) | 手骨x光片骨龄评估方法、装置、计算机设备和存储介质 | |
US10635893B2 (en) | Identity authentication method, terminal device, and computer-readable storage medium | |
CN108921925B (zh) | 基于激光雷达和视觉融合的语义点云生成方法和装置 | |
US6430307B1 (en) | Feature extraction system and face image recognition system | |
CN112232117A (zh) | 一种人脸识别方法、装置及存储介质 | |
US5901244A (en) | Feature extraction system and face image recognition system | |
JP4553141B2 (ja) | 重み情報を用いた物体姿勢推定・照合システム | |
AU2004282790A1 (en) | Image collation system and image collation method | |
CN110781738A (zh) | 生成人脸图像的方法、装置、计算机设备及存储介质 | |
CN111898682B (zh) | 基于多个源模型修正新模型的方法、装置以及计算机设备 | |
US8620056B2 (en) | Method, an apparatus, a system and a computer program for transferring scan geometry between subsequent scans | |
WO2021212608A1 (zh) | 定位声源用户的方法、装置和计算机设备 | |
CN111126233A (zh) | 基于距离值的通话通道构建方法、装置和计算机设备 | |
CN112214998A (zh) | 意图与实体的联合识别方法、装置、设备和存储介质 | |
CN113095187A (zh) | 一种基于图像特征匹配对齐的试卷批改方法 | |
CN113241138A (zh) | 医疗事件信息的抽取方法、装置、计算机设备及存储介质 | |
CN111046755A (zh) | 字符识别方法、装置、计算机设备和计算机可读存储介质 | |
CN111178126A (zh) | 目标检测方法、装置、计算机设备和存储介质 | |
CN114743067A (zh) | 训练数据的增强方法、装置、计算机设备及存储介质 | |
CN111126376A (zh) | 基于面部特征点检测的图片纠正方法、装置和计算机设备 | |
CN113128448A (zh) | 基于肢体识别的视频匹配方法、装置、设备及存储介质 | |
CN112580499A (zh) | 文本识别方法、装置、设备及存储介质 | |
CN113220859B (zh) | 基于图像的问答方法、装置、计算机设备及存储介质 | |
CN114973368A (zh) | 基于特征融合的人脸识别方法、装置、设备和存储介质 | |
CN111708861B (zh) | 基于双重匹配的匹配集获取方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40020093 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |