CN113763531B - 三维人脸重建方法、装置、电子设备及存储介质 - Google Patents

三维人脸重建方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113763531B
CN113763531B CN202010507034.5A CN202010507034A CN113763531B CN 113763531 B CN113763531 B CN 113763531B CN 202010507034 A CN202010507034 A CN 202010507034A CN 113763531 B CN113763531 B CN 113763531B
Authority
CN
China
Prior art keywords
parameter
dimensional face
emotion
expression
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010507034.5A
Other languages
English (en)
Other versions
CN113763531A (zh
Inventor
黄旭为
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN202010507034.5A priority Critical patent/CN113763531B/zh
Publication of CN113763531A publication Critical patent/CN113763531A/zh
Application granted granted Critical
Publication of CN113763531B publication Critical patent/CN113763531B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本公开是关于一种三维人脸重建方法、装置、电子设备及存储介质,属于图像处理技术领域。方法包括:获取标准三维人脸模型以及标准三维人脸模型对应的标准三维人脸参数;获取人脸图像的表情参数信息;根据表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取人脸图像的情绪参数信息;根据获取的至少一个表情参数和至少一个情绪参数,对标准三维人脸模型的标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。本申请提供的方案,不仅考虑人脸图像中的表情,还考虑了人脸图像中的情绪,提高了获取的虚拟三维人脸的自然度和准确性。并且,调用模型来获取情绪参数信息不需要经过复杂的运算,提高了处理效率。

Description

三维人脸重建方法、装置、电子设备及存储介质
技术领域
本公开涉及图像处理技术领域,尤其涉及一种三维人脸重建方法、装置、电子设备及存储介质。
背景技术
随着图像处理技术的快速发展,可以对图像进行多样化处理,例如,可以根据人脸图像中的人脸表情,生成一个表情与该人脸图像中的表情类似的虚拟人脸模型。
相关技术中,获取人脸图像的多个表情参数,根据获取的每个表情参数,进行人脸重建,生成与人脸图像中的表情匹配的虚拟人脸模型。但是,仅根据人脸图像的表情参数获取的虚拟人脸模型的自然度差,重建准确性低。
发明内容
本公开提供了一种三维人脸重建方法、装置、电子设备及存储介质,可以提高获取的虚拟三维人脸的自然度,且提高获取的虚拟三维人脸的准确性。
根据本公开实施例的第一方面,提供一种三维人脸重建方法,所述方法包括:
获取标准三维人脸模型以及所述标准三维人脸模型对应的标准三维人脸参数,所述标准三维人脸模型为具有自然表情和自然情绪的人脸模型,所述标准三维人脸参数用于描述所述标准三维人脸模型的表情和情绪;
获取人脸图像的表情参数信息,所述表情参数信息包括至少一个人脸部位对应的表情参数;
根据所述表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取所述人脸图像的情绪参数信息,所述情绪参数信息包括所述至少一种情绪类型对应的情绪参数,同一情绪类型对应的不同情绪参数用于表征同一情绪类型下不同程度的情绪;
根据获取的至少一个表情参数和至少一个情绪参数,对所述标准三维人脸模型的所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
在一种可能实现方式中,所述根据获取的至少一个表情参数和至少一个情绪参数,对所述标准三维人脸模型的所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸,包括:
获取所述至少一个情绪参数中每个情绪参数对应的虚拟三维人脸参数和所述至少一个表情参数中每个表情参数对应的虚拟三维人脸参数;
根据所述每个表情参数和对应的虚拟三维人脸参数、所述每个情绪参数和对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,所述根据所述每个表情参数和对应的虚拟三维人脸参数、所述每个情绪参数和对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸,包括:
根据所述每个表情参数,以及所述每个表情参数对应的虚拟三维人脸参数与所述标准三维人脸参数的差值,确定表情修正参数;
根据所述每个情绪参数,以及所述每个情绪参数对应的虚拟三维人脸参数与所述标准三维人脸参数的差值,确定情绪修正参数;
根据所述表情修正参数和所述情绪修正参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,所述根据所述每个表情参数和对应的虚拟三维人脸参数、所述每个情绪参数和对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸,包括:
采用下述公式,确定所述人脸图像对应的虚拟三维人脸参数,根据所述虚拟三维人脸参数生成所述人脸图像对应的虚拟三维人脸:
其中,F为所述人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,ai为第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数,n为表情参数的数量,m为情绪参数的数量,si为第i种情绪类型的缩放因子,用于对所述第i种情绪类型对应的虚拟三维人脸参数进行缩放,ei为第i个情绪参数,Bei为第i个情绪参数对应的虚拟三维人脸参数。
在另一种可能实现方式中,所述根据获取的至少一个表情参数和至少一个情绪参数,对所述标准三维人脸模型的所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸,包括:
根据所述至少一个情绪参数,对所述至少一个表情参数中的每个表情参数进行修正,得到修正后的每个表情参数;
根据所述修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,所述根据所述至少一个情绪参数,对所述至少一个表情参数中的每个表情参数进行修正,得到修正后的每个表情参数,包括:
采用下述公式,得到修正后的每个表情参数:
其中,bi为修正后的第i个表情参数,ai为第i个表情参数,m为情绪参数的数量,sk为第k种情绪类型的缩放因子,用于对所述第k种情绪类型对应的虚拟三维人脸参数进行缩放,ek为第k个情绪参数,为第k种情绪类型对应的预设表情参数组,/> 是第k种情绪类型对应的预设表情参数组中的第n个表情参数,n为表情参数的数量。
在另一种可能实现方式中,所述根据所述修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸,包括:
采用下述公式,确定所述人脸图像对应的虚拟三维人脸参数,根据所述虚拟三维人脸参数生成所述人脸图像对应的虚拟三维人脸:
其中,F为所述人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,n为表情参数的数量,bi为修正后的第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数。
根据本公开实施例的第二方面,提供一种三维人脸重建装置,所述装置包括:
综合信息获取单元,用于获取标准三维人脸模型以及所述标准三维人脸模型对应的标准三维人脸参数,所述标准三维人脸模型为具有自然表情和自然情绪的人脸模型,所述标准三维人脸参数用于描述所述标准三维人脸模型的表情和情绪;
表情信息获取单元,被配置为获取人脸图像的表情参数信息,所述表情参数信息包括至少一个人脸部位对应的表情参数;
情绪信息获取单元,被配置为根据所述表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取所述人脸图像的情绪参数信息,所述情绪参数信息包括所述至少一种情绪类型对应的情绪参数,同一情绪类型对应的不同情绪参数用于表征同一情绪类型下不同程度的情绪;
修正单元,被配置为根据获取的至少一个表情参数和至少一个情绪参数,对所述标准三维人脸模型的所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
在一种可能实现方式中,所述修正单元,包括:
获取子单元,被配置获取所述至少一个情绪参数中每个情绪参数对应的虚拟三维人脸参数和所述至少一个表情参数中每个表情参数对应的虚拟三维人脸参数;
人脸参数修正子单元,被配置为根据所述每个表情参数和对应的虚拟三维人脸参数、所述每个情绪参数和对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,所述人脸参数修正子单元,被配置为:
根据所述每个表情参数,以及所述每个表情参数对应的虚拟三维人脸参数与所述标准三维人脸参数的差值,确定表情修正参数;
根据所述每个情绪参数,以及所述每个情绪参数对应的虚拟三维人脸参数与所述标准三维人脸参数的差值,确定情绪修正参数;
根据所述表情修正参数和所述情绪修正参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,所述人脸参数修正子单元,被配置为采用下述公式,确定所述人脸图像对应的虚拟三维人脸参数,根据所述虚拟三维人脸参数生成所述人脸图像对应的虚拟三维人脸:
其中,F为所述人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,ai为第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数,n为表情参数的数量,m为情绪参数的数量,si为第i种情绪类型的缩放因子,用于对所述第i种情绪类型对应的虚拟三维人脸参数进行缩放,ei为第i个情绪参数,Bei为第i个情绪参数对应的虚拟三维人脸参数。
在另一种可能实现方式中,所述修正单元,包括:
表情参数修正子单元,被配置为根据所述至少一个情绪参数,对所述至少一个表情参数中的每个表情参数进行修正,得到修正后的每个表情参数;
人脸参数修正子单元,被配置为根据所述修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,所述表情参数修正子单元,被配置为采用下述公式,得到修正后的每个表情参数:
其中,bi为修正后的第i个表情参数,ai为第i个表情参数,m为情绪参数的数量,sk为第k种情绪类型的缩放因子,用于对所述第k种情绪类型对应的虚拟三维人脸参数进行缩放,ek为第k个情绪参数,为第k种情绪类型对应的预设表情参数组,/> 是第k种情绪类型对应的预设表情参数组中的第n个表情参数,n为表情参数的数量。
在另一种可能实现方式中,所述人脸参数修正子单元,被配置为采用下述公式,确定所述人脸图像对应的虚拟三维人脸参数,根据所述虚拟三维人脸参数生成所述人脸图像对应的虚拟三维人脸:
其中,F为所述人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,n为表情参数的数量,bi为修正后的第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数。
根据本公开实施例的第三方面,提供一种电子设备,所述电子设备包括:
一个或多个处理器;
用于存储所述一个或多个处理器可执行命令的易失性或非易失性存储器;
其中,所述一个或多个处理器被配置为执行如第一方面所述的三维人脸重建方法。
根据本公开实施例提供的第四方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如第一方面所述的三维人脸重建方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,当所述计算机程序产品中的指令由电子设备的处理器执行时,使得电子设备能够执行如第一方面所述的三维人脸重建方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开实施例提供的方法、装置、电子设备及存储介质,获取标准三维人脸模型和该标准三维人脸模型对应的标准三维人脸参数,以及用于表征人脸图像表情的表情参数信息和用于表征人脸图像情绪的情绪参数信息。由于标准三维人脸模型具有自然表情和自然情绪,以标准三维人脸参数为基准,根据表情参数信息和情绪参数信息对标准三维人脸参数进行修正处理,即可在标准三维人脸模型的基础上融合人脸图像的表情和情绪,以得到与人脸图像的表情和情绪均匹配的虚拟三维人脸,不仅考虑人脸图像中的表情,还考虑了人脸图像中的情绪,提高了获取的虚拟三维人脸的自然度和准确性。并且,根据表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取情绪参数信息,从而在人脸图像表情的基础上确定人脸图像的情绪,所获取的情绪参数信息更加准确,且调用模型来获取情绪参数信息不需要经过复杂的运算,提高了处理效率。
并且,还可以根据获取的至少一个情绪参数,对至少一个表情参数中的每个表情参数进行修正,得到修正后的表情参数,此时修正后的表情参数中包含了情绪参数的影响,则根据修正后的每个表情参数,在对标准三维人脸模型的表情进行修正的同时,也包括了对标准三维人脸模型的情绪的修正,以得到与人脸图像的表情和情绪均匹配的虚拟三维人脸,不仅考虑人脸图像中的表情,还考虑了人脸图像中的情绪,提高了获取的虚拟三维人脸的自然度和准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种三维人脸重建方法的流程图。
图2是根据一示例性实施例示出的一种三维人脸重建方法的流程图。
图3是根据一示例性实施例示出的一种三维人脸重建方法的流程图。
图4是根据一示例性实施例示出的一种三维人脸重建方法的流程图。
图5是根据一示例性实施例示出的一种三维人脸重建方法的流程图。
图6是根据一示例性实施例示出的一种三维人脸重建方法的流程图。
图7是根据一示例性实施例示出的一种三维人脸重建装置的结构示意图。
图8是根据一示例性实施例示出的一种终端的框图。
图9是根据一示例性实施例示出的一种服务器的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开实施例提供了一种三维人脸重建方法,能够根据人脸图像中的人脸表情和情绪,生成与该人脸表情和情绪匹配的虚拟三维人脸,可以应用于多种场景下:
例如,本公开实施例提供的方法,应用于虚拟表情生成场景中,当用户在与其他用户通信的过程中,采用本公开实施例提供的方法,可以生成任一与用户人脸的表情和情绪匹配的虚拟三维人脸,将生成的虚拟三维人脸发送给其他用户,由其他用户观看。
或者,本公开实施例提供的方法,应用于动画制作场景中,在制作动画的过程中,由于一个人物具有多种多样的表情和情绪,采用本公开实施例提供的方法,即可根据人脸图像中人脸的表情和情绪,生成与该人脸的表情和情绪匹配的虚拟三维人脸,进而采用该虚拟三维人脸制作动画。
本公开实施例提供的三维人脸重建方法应用于电子设备中,该电子设备可以包括终端,还可以包括服务器。
当电子设备包括终端时,该终端用于获取人脸图像的表情参数信息,根据表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取人脸图像的情绪参数信息,情绪参数信息包括至少一种情绪类型对应的情绪参数,根据获取的至少一个表情参数和至少一个情绪参数,对模板人脸模型进行修正处理,生成人脸图像对应的虚拟人脸模型,以使虚拟人脸模型与人脸图像的表情和情绪均匹配。
或者,当电子设备包括终端和服务器时,该终端用于获取人脸图像,将获取的人脸图像发送给服务器,服务器获取人脸图像的表情参数信息,根据表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取人脸图像的情绪参数信息,情绪参数信息包括至少一种情绪类型对应的情绪参数,根据获取的至少一个表情参数和至少一个情绪参数,对标准三维人脸模型的标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸,以使虚拟三维人脸与人脸图像的表情和情绪均匹配。之后服务器将该虚拟三维人脸发送给该终端,或者还可以发送给其他终端。
其中,该终端可以为手机、平板电脑、计算机等多种类型的终端,该服务器可以为一台服务器,或者由若干服务器组成的服务器集群,或者是一个云计算服务中心。
图1是根据一示例性实施例示出的一种三维人脸重建方法的流程图,应用于电子设备中,参见图1,该方法包括:
在步骤101中,获取标准三维人脸模型以及标准三维人脸模型对应的标准三维人脸参数。
其中,标准三维人脸模型为具有自然表情和自然情绪的人脸模型,标准三维人脸参数用于描述标准三维人脸模型的表情和情绪。
在步骤102中,获取人脸图像的表情参数信息。
其中,表情参数信息包括至少一个人脸部位对应的表情参数。
在步骤103中,根据表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取人脸图像的情绪参数信息。
其中,情绪参数信息包括至少一种情绪类型对应的情绪参数,同一情绪类型对应的不同情绪参数用于表征同一情绪类型下不同程度的情绪。
在步骤104中,根据获取的至少一个表情参数和至少一个情绪参数,对标准三维人脸模型的标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。
本公开实施例提供的方法,获取标准三维人脸模型和该标准三维人脸模型对应的标准三维人脸参数,以及用于表征人脸图像表情的表情参数信息和用于表征人脸图像情绪的情绪参数信息。由于标准三维人脸模型具有自然表情和自然情绪,以标准三维人脸参数为基准,根据表情参数信息和情绪参数信息对标准三维人脸参数进行修正处理,即可在标准三维人脸模型的基础上融合人脸图像的表情和情绪,以得到与人脸图像的表情和情绪均匹配的虚拟三维人脸,不仅考虑人脸图像中的表情,还考虑了人脸图像中的情绪,提高了获取的虚拟三维人脸的自然度和准确性。并且,根据表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取情绪参数信息,从而在人脸图像表情的基础上确定人脸图像的情绪,所获取的情绪参数信息更加准确,且调用模型来获取情绪参数信息不需要经过复杂的运算,提高了处理效率。
在一种可能实现方式中,根据获取的至少一个表情参数和至少一个情绪参数,对标准三维人脸模型的标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸,包括:
获取至少一个情绪参数中每个情绪参数对应的虚拟三维人脸参数和至少一个表情参数中每个表情参数对应的虚拟三维人脸参数;
根据每个表情参数和对应的虚拟三维人脸参数、每个情绪参数和对应的虚拟三维人脸参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,根据每个表情参数和对应的虚拟三维人脸参数、每个情绪参数和对应的虚拟三维人脸参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸,包括:
根据每个表情参数,以及每个表情参数对应的虚拟三维人脸参数与标准三维人脸参数的差值,确定表情修正参数;
根据每个情绪参数,以及每个情绪参数对应的虚拟三维人脸参数与标准三维人脸参数的差值,确定情绪修正参数;
根据表情修正参数和情绪修正参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,根据每个表情参数和对应的虚拟三维人脸参数、每个情绪参数和对应的虚拟三维人脸参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸,包括:
采用下述公式,确定人脸图像对应的虚拟三维人脸参数,根据虚拟三维人脸参数生成人脸图像对应的虚拟三维人脸:
其中,F为人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,ai为第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数,n为表情参数的数量,m为情绪参数的数量,si为第i种情绪类型的缩放因子,用于对第i种情绪类型对应的虚拟三维人脸参数进行缩放,ei为第i个情绪参数,Bei为第i个情绪参数对应的虚拟三维人脸参数。
在另一种可能实现方式中,根据获取的至少一个表情参数和至少一个情绪参数,对标准三维人脸模型的标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸,包括:
根据至少一个情绪参数,对至少一个表情参数中的每个表情参数进行修正,得到修正后的每个表情参数;
根据修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,根据至少一个情绪参数,对至少一个表情参数中的每个表情参数进行修正,得到修正后的每个表情参数,包括:
采用下述公式,得到修正后的每个表情参数:
其中,bi为修正后的第i个表情参数,ai为第i个表情参数,m为情绪参数的数量,sk为第k种情绪类型的缩放因子,用于对第k种情绪类型对应的虚拟三维人脸参数进行缩放,ek为第k个情绪参数,为第k种情绪类型对应的预设表情参数组,/>是第k种情绪类型对应的预设表情参数组中的第n个表情参数,n为表情参数的数量。
在另一种可能实现方式中,根据修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸,包括:
采用下述公式,确定人脸图像对应的虚拟三维人脸参数,根据虚拟三维人脸参数生成人脸图像对应的虚拟三维人脸:
其中,F为人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,n为表情参数的数量,bi为修正后的第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数。
图2是根据一示例性实施例示出的一种三维人脸重建方法的流程图,应用于电子设备中,参见图2,该方法包括:
在步骤201中,获取标准三维人脸模型以及标准三维人脸模型对应的标准三维人脸参数。
其中,标准三维人脸模型为具有自然表情和自然情绪的人脸模型,标准三维人脸参数用于描述标准三维人脸模型的表情和情绪。
该标准三维人脸模型为预先设置好的人脸模型,并且该标准三维人脸模型中的人脸可以认为是拥有自然表情和自然情绪,但是该标准三维人脸模型仍然会对应有标准三维人脸参数,以表示该标准三维人脸模型中的人脸的表情和情绪。
可选地,获取拥有自然的表情和情绪的人脸图像,根据该人脸图像构建标准三维人脸模型。或者直接构建一个标准三维人脸模型。
在步骤202中,获取人脸图像的表情参数信息。
其中,该人脸图像中包括人脸区域,则电子设备可以对该人脸图像中的人脸区域进行检测,以获取该人脸图像中的表情参数信息。
另外,该人脸图像可以通过拍摄得到、通过在社交平台上查找其他用户发布的图像得到、通过检索得到,或者采用其他方式得到。
该表情参数信息包括至少一个人脸部位对应的表情参数。人脸图像中包括眼睛、嘴巴、鼻子、脸颊、眉毛等人脸部位。当人脸图像有不同表情的时候,不同的人脸部位的动作也会不同,则采用表情参数信息来表示不同人脸部位的动作,可以体现出人脸的表情。
另外,当设定的表情参数信息越多时,表示的人脸图像中的表情更详细,更能体现出人脸图像中的表情。
因此,可以获取人脸图像中的表情参数信息,后续根据获取的表情参数信息,生成与人脸图像中的表情匹配的虚拟人脸模型。
例如,当采用人脸图像中的眼睛、嘴巴、鼻子、脸颊、眉毛五个人脸部位表示表情时,则获取a1、a2、a3、a4、a5五个表情参数,通过这五个表情参数代表人脸图像中的表情参数信息。
在一种可能实现方式中,采用3DMM(3D Morphable Model,3D形变统计模型)算法,获取人脸图像中的表情参数信息,或者还可以采用其他方式,获取人脸图像中的表情参数信息。
在步骤203中,根据表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取人脸图像的情绪参数信息。
其中,情绪参数信息包括至少一种情绪类型对应的情绪参数。另外,不同的情绪类型表示不同的情绪。例如,情绪类型可以包括生气、开心、愤怒、伤心、害怕、惊讶等情绪。对于每种情绪类型对应的情绪参数,不同的情绪参数代表不同程度的情绪。
例如,当生气对应的情绪参数越大时,表示生气的程度越高,而当生气对应的情绪参数越低时,表示生气的程度越低。当伤心对应的情绪参数越大时,表示伤心的程度越高,而当伤心对应的情绪参数越小时,表示伤心的程度越低。
人脸图像中的情绪类型也是由人脸部位体现的,因此,可以根据获取的表情参数信息,获取人脸图像中至少一种情绪类型的情绪参数信息。
在获取人脸图像的情绪参数信息的过程中,根据表情参数信息,调用至少一种情绪类型对应的情绪识别模型,即可获取人脸图像中的情绪参数信息。
其中,每种情绪类型对应一个情绪识别模型,采用每种情绪识别模型,即可获取该情绪识别模型对应的情绪参数类型对应的情绪参数。例如,当情绪类型为生气时,则生气对应一个情绪识别模型,当情绪类型为愤怒时,则愤怒对应一个情绪识别模型。
可选地,获取的情绪参数信息可以为ei=fi(a1,a2,…,an),ei为第i个情绪的情绪参数,fi是第i个情绪识别模型,a为表情参数,an为第n个表情参数。
例如,调用生气对应的情绪识别模型、愤怒对应的情绪识别模型、伤心对应的情绪识别模型时,可以分别获取生气对应的情绪参数、愤怒对应的情绪参数和伤心对应的情绪参数。
在一种可能实现方式中,该情绪识别模型采用深度学习、机器学习或者其他方式学习得到。另外,该情绪识别模型可以为SVM(Support Vector Machine,支持向量机)模型、神经网络模型,或者为其他类型的模型。
另外,在调用至少一个情绪识别模型之前,先构建初始情绪识别模型,再根据多个样本人脸图像获取每个样本人脸图像的至少一个样本表情参数以及该初始情绪识别模型对应的情绪类型的样本情绪参数,根据每个样本人脸图像中的至少一个样本表情参数信息以及样本情绪参数,对构建的初始情绪识别模型进行训练,得到情绪识别模型。
在训练过程中,将至少一个样本表情参数输入到情绪识别模型中,基于该情绪识别模型获取预测情绪参数,获取预测情绪参数和样本情绪参数之间的误差,对情绪识别模型的模型参数进行调整,以使基于调整后的情绪识别模型获取的误差收敛。
需要说明的是,由于情绪识别模型包括多种,则在训练情绪识别模型时,按照不同的情绪类型,构建不同情绪类型对应的情绪识别模型,在获取样本情绪参数时,也应按照情绪类型对应的获取方式获取。
例如,构建生气情绪对应的初始情绪识别模型,再根据多个样本人脸图像获取每个样本人脸图像的至少一个样本表情参数以及该生气情绪对应的样本情绪参数,根据每个样本人脸图像中的至少一个样本表情参数信息以及生气情绪对应的样本情绪参数,对构建的生气情绪对应的初始情绪识别模型进行训练,得到情绪识别模型。
在步骤204中,获取至少一个情绪参数中每个情绪参数对应的虚拟三维人脸参数。
在一种可能实现方式中,每种情绪类型对应虚拟三维人脸参数。当获取到情绪参数后,则可以根据情绪参数所属的情绪类型,获取该情绪类型对应的虚拟三维人脸参数,作为该情绪参数对应的虚拟三维人脸参数。
例如,代表生气的情绪参数对应虚拟三维人脸模型对应的第一种虚拟三维人脸参数,代表愤怒的情绪参数对应虚拟三维人脸模型对应的第二种虚拟三维人脸参数。
在另一种可能实现方式中,同一种情绪类型包括多个情绪参数,且对于每种情绪类型,设置多个情绪参数区间,每个情绪参数区间对应虚拟三维人脸参数。当获取到情绪参数后,则可以根据情绪参数所属的情绪类型,确定情绪参数所属的情绪参数区间,获取该情绪参数区间对应的虚拟三维人脸参数,作为该情绪参数对应的虚拟三维人脸参数。
例如,对于代表生气的情绪参数,设置0-0.4区间对应第一种虚拟三维人脸参数,设置0.4-1区间对应第二种虚拟三维人脸参数。而对于代表愤怒的情绪参数,设置0-0.5区域对应第三种虚拟三维人脸参数,设置0.5-1区间对应第四种虚拟三维人脸参数。
可选地,可以从虚拟人脸模型数据库中,查询至少一个情绪参数中每个情绪参数对应的虚拟三维人脸参数。
其中,该虚拟人脸模型数据库中包括多个情绪参数对应的虚拟三维人脸参数。
在一种可能实现方式中,该虚拟人脸模型数据库中存储有多种情绪类型中每种情绪类型对应的虚拟三维人脸参数。例如,该虚拟人脸模型数据库中存储有生气情绪对应的虚拟三维人脸参数,存储有开心情绪对应的虚拟三维人脸参数。
可选地,在创建该虚拟人脸模型数据库的过程中,对于每种情绪类型,获取第一预设数量的人脸图像,根据该第一预设数量的人脸图像构建对应的虚拟三维人脸参数,再获取虚拟三维人脸参数的平均值,作为该情绪类型对应的虚拟三维人脸参数。或者,在创建该虚拟人脸模型数据库的过程中,对于每种情绪类型,获取属于该情绪类型的人脸图像,根据该人脸图像构建对应的虚拟三维人脸参数,作为该情绪类型对应的虚拟三维人脸参数。
在另一种可能实现方式中,考虑到同一种情绪类型可以包括多个情绪参数,来表示该情绪的不同程度。该虚拟人脸模型数据库中存储有一种情绪类型对应的多个情绪参数,且对于每种情绪类型,对应存储了多个虚拟三维人脸参数,每个虚拟三维人脸参数对应的情绪参数不同,则表达的情绪程度不同。
可选地,在创建该虚拟人脸模型数据库的过程中,对于每种情绪类型,获取第二预设数量的人脸图像,分别确定该第二预设数量的人脸图像中的情绪参数,按照情绪参数的不同区间对人脸图像进行划分,得到多个情绪参数区间,再对于每个情绪参数区间,获取该情绪参数区间中的人脸图像对应的虚拟三维人脸参数的平均值,作为该情绪参数区间的虚拟三维人脸参数。
或者,在创建该虚拟人脸模型数据库的过程中,对于同一种情绪类型的不同情绪参数,分别获取一张人脸图像,根据该人脸图像构建对应的虚拟三维人脸参数,作为每个情绪参数对应的虚拟三维人脸参数。
当获取到情绪参数后,根据该情绪参数,在虚拟人脸模型数据库中进行查询,获取该情绪参数对应的虚拟三维人脸参数。
可选地,该本申请实施例中的虚拟三维人脸参数均为Blendshape(混合形状)。
在步骤205中,获取至少一个表情参数中每个表情参数对应的虚拟三维人脸参数。
在一种可能实现方式中,每个人脸部位的表情参数对应虚拟三维人脸参数。当获取到表情参数后,则可以根据表情参数的对应的人脸部位,再获取人脸部位对应的虚拟三维人脸参数,作为该表情参数对应的虚拟三维人脸参数。
例如,代表眼睛的表情参数对应第一种虚拟三维人脸参数,代表眉毛的表情参数对应第二种虚拟三维人脸参数。
在另一种可能实现方式中,对于每个人脸部位的表情参数,设置多个表情参数区间,每个表情参数区间对应虚拟三维人脸参数。当获取到表情参数后,确定该表情参数对应的人脸部位,再确定该表情参数所属的表情参数区间,获取该表情参数区间对应的虚拟三维人脸参数,作为该表情参数对应的虚拟三维人脸参数。
例如,对于代表眼睛的情绪参数,设置0-0.4区间对应第一种虚拟三维人脸参数,设置0.4-1区间对应第二种虚拟三维人脸参数。而对于代表眉毛的表情参数,设置0-0.5区域对应第三种虚拟三维人脸参数,设置0.5-1区间对应第四种虚拟三维人脸参数。
可选地,可以从虚拟人脸模型库中,查询至少一个表情参数中每个表情参数对应的虚拟三维人脸参数。
其中,该虚拟人脸模型数据库中包括多个表情参数对应的虚拟三维人脸参数。
在一种可能实现方式中,该虚拟人脸模型数据库中存储有多个人脸部位的表情中每个人脸部位的表情对应的虚拟三维人脸参数。例如,该虚拟人脸模型数据库中存储有眼睛对应的虚拟三维人脸参数,存储有眉毛对应的虚拟三维人脸参数。
可选地,在创建该虚拟人脸模型数据库的过程中,在同一种表情下,对于每种人脸部位对应的表情参数,获取第三预设数量的人脸图像,根据该第三预设数量的人脸图像构建对应的虚拟三维人脸参数,再获取虚拟三维人脸参数的平均值,作为该人脸部位对应的虚拟三维人脸参数。
或者,在创建该虚拟人脸模型数据库的过程中,在同一种表情下,对于每种人脸部位对应的表情参数,获取一个人脸图像,根据该人脸图像构建对应的虚拟三维人脸参数,作为该人脸部位对应的虚拟三维人脸参数。
在另一种可能实现方式中,考虑到同一种人脸部位可以包括多个表情参数,来表示该表情的不同程度。该虚拟人脸模型数据库中存储同一种人脸部位对应的多个表情参数,且对于每种人脸部位的表情参数,对应存储了多个虚拟三维人脸参数,每个虚拟三维人脸参数对应的表情参数不同,表达的人脸部位所展示的表情程度不同。
可选地,在创建该虚拟人脸模型数据库的过程中,对于每种人脸部位的表情参数,获取第四预设数量的人脸图像,分别确定该第四预设数量的人脸图像中的表情参数,按照表情参数的不同区间对人脸图像进行划分,得到多个表情参数区间,再对于每个表情参数区间,获取该每个表情参数区间中的人脸图像对应的虚拟三维人脸参数的平均值,作为该表情参数区间的虚拟三维人脸参数。
或者,在创建该虚拟人脸模型数据库的过程中,对于不同人脸部位的表情参数,分别获取一张人脸图像,根据该人脸图像构建对应的虚拟三维人脸参数,作为每个人脸部位的表情参数对应的虚拟三维人脸参数。
当获取到表情参数后,根据该表情参数,在虚拟人脸模型数据库中进行查询,获取该表情参数对应的虚拟三维人脸参数。
在步骤206中,根据每个表情参数和对应的虚拟三维人脸参数、每个情绪参数和对应的虚拟三维人脸参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。
获取到每个表情参数和对应的虚拟三维人脸参数,以及每个情绪参数和对应的虚拟三维人脸参数后,采用每个表情参数和对应的虚拟三维人脸参数,可以对标准三维人脸模型的表情进行修正处理,采用每个情绪参数和对应的虚拟三维人脸参数,可以对标准三维人脸模型的情绪进行修正处理,对标准三维人脸模型的标准三维人脸参数修正处理完毕后,就获取到了与人脸图像对应的虚拟三维人脸,且获取的虚拟三维人脸与人脸图像中的表情和情绪匹配。
可选地,根据每个表情参数,以及每个表情参数对应的虚拟三维人脸参数与标准三维人脸参数的差值,确定表情修正参数,根据每个情绪参数,以及每个情绪参数对应的虚拟三维人脸参数与标准三维人脸参数的差值,确定情绪修正参数,根据表情修正参数和情绪修正参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。
由于每个表情参数对应虚拟三维人脸参数,且表情参数对应的虚拟三维人脸参数与标准三维人脸参数存在差异,因此获取每个表情参数对应的虚拟三维人脸参数与标准三维人脸参数的差值,得到表情修正参数,每个表情修正参数可以代表每个表情参数对应的虚拟三维人脸参数与标准三维人脸参数的差异,且每个情绪参数对应虚拟三维人脸参数,情绪参数对应的虚拟三维人脸参数与标准三维人脸参数也存在差异,因此获取每个情绪参数对应的虚拟三维人脸参数与标准三维人脸参数的差值,得到情绪修正参数,每个情绪修正参数可以代表每个情绪参数对应的虚拟三维人脸参数与标准三维人脸参数的差异,再根据获取表情修正参数和情绪修正参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。
可选地,采用下述公式,确定人脸图像对应的虚拟三维人脸参数,根据虚拟三维人脸参数生成人脸图像对应的虚拟三维人脸:
/>
其中,F为人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,ai为第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数,n为表情参数的数量,m为情绪参数的数量,si为第i种情绪类型的缩放因子,用于对第i种情绪类型对应的虚拟三维人脸参数进行缩放,ei为第i个情绪参数,Bei为第i个情绪参数对应的虚拟三维人脸参数。
在一种可能实现方式中,上述实施例中确定的表情修正参数为上述公式中的ai*(Bi-B0),上述实施例中确定的情绪修正参数为上述公式中的ei*(Bei-B0)。
上述步骤201-206说明了根据至少一个表情参数和至少一个情绪参数,生成人脸图像对应的虚拟三维人脸的过程,例如,如图3所示,采用3DMM算法,获取n维的表情参数,这n维的表情参数包括嘴巴、眼睛、眉毛、脸颊、鼻子等表情参数,再根据表情参数进行情绪识别,获取m维的情绪参数,这m维情绪参数可以包括高兴、生气、悲伤、惊吓、害怕等情绪参数,再根据n维的表情参数和m维的情绪参数,获取每个表情参数对应的n个虚拟三维人脸参数和每个情绪参数对应的m个虚拟三维人脸参数,驱动m+n个虚拟三维人脸参数,对标准三维人脸参数进行修正,以生成人脸图像对应的虚拟三维人脸。其中,n和m为正整数。
需要说明的是,本申请实施例中的步骤204-206为可选步骤,在另一实施例中,还可以采用其他方式,根据获取的至少一个表情参数和至少一个情绪参数,对标准三维人脸模型对应的标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸,以使虚拟三维人脸与人脸图像的表情和情绪均匹配。
本申请实施例提供的方法,获取标准三维人脸模型和该标准三维人脸模型对应的标准三维人脸参数,以及用于表征人脸图像表情的表情参数信息和用于表征人脸图像情绪的情绪参数信息。由于标准三维人脸模型具有自然表情和自然情绪,以标准三维人脸参数为基准,根据表情参数信息和情绪参数信息对标准三维人脸参数进行修正处理,即可在标准三维人脸模型的基础上融合人脸图像的表情和情绪,以得到与人脸图像的表情和情绪均匹配的虚拟三维人脸,不仅考虑人脸图像中的表情,还考虑了人脸图像中的情绪,提高了获取的虚拟三维人脸的自然度和准确性。并且,根据表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取情绪参数信息,从而在人脸图像表情的基础上确定人脸图像的情绪,所获取的情绪参数信息更加准确,且调用模型来获取情绪参数信息不需要经过复杂的运算,提高了处理效率。
图4是根据一示例性实施例示出的一种三维人脸重建方法的流程图,应用于电子设备中,参见图4,该方法包括:
在步骤401中,获取标准三维人脸模型以及标准三维人脸模型对应的标准三维人脸参数。
其中,标准三维人脸模型为具有自然表情和自然情绪的人脸模型,标准三维人脸参数用于描述标准三维人脸模型的表情和情绪。
在步骤402中,获取人脸图像的表情参数信息。
其中,表情参数信息包括至少一个人脸部位对应的表情参数。
在步骤403中,根据表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取人脸图像的情绪参数信息。
其中,情绪参数信息包括至少一种情绪类型对应的情绪参数。
本申请实施例中的步骤401-403的过程与上述步骤201-203类似,在此不再赘述。
在步骤404中,根据至少一个情绪参数,对至少一个表情参数中的每个表情参数进行修正,得到修正后的每个表情参数。
通过上述方式获取到至少一个表情参数和至少一个情绪参数后,获取的表情参数仅仅是独立的参数,此时可以根据获取的至少一个情绪参数,对每个表情参数进行修正,得到修正后的每个表情参数,此时修正后的表情参数受到了情绪参数的影响,后续根据修正后的表情参数对标准三维人脸模型的标准三维人脸参数进行修正时,包含了表情参数和情绪参数对标准三维人脸模型的影响。
可选地,采用下述公式,得到修正后的每个表情参数:
其中,bi为修正后的第i个表情参数,ai为第i个表情参数,m为情绪参数的数量,sk为第k种情绪类型的缩放因子,用于对第k种情绪类型对应的虚拟三维人脸参数进行缩放,ek为第k个情绪参数,为第k种情绪类型对应的预设表情参数组,/>是第k种情绪类型对应的预设表情参数组中的第n个表情参数,n为表情参数的数量。
另外,每种情绪类型由预先设定的表情参数表示,则对于每种情绪类型,均预先设置有不同人脸部位的预设表情参数,将不同人脸部位的预设表情参数进行拼接,构成该情绪类型对应的预设表情参数组则由于不同情绪类型对应的人脸部位的表情也不同,不同情绪类型对应的预设表情参数也不同,因此不同情绪类型对应的预设表情参数组也不同。
例如,当情绪类型包括生气、愤怒、开心时,则生气对应生气的预设表情参数组,愤怒对应愤怒的预设表情参数组,开心对应开心的预设表情参数组。
在对表情参数进行修正时,如果表情参数包括眼睛、眉毛、嘴巴三个人脸部位的表情参数,则不同情绪类型对应的预设表情参数组中也包括眼睛、眉毛、嘴巴三个人脸部位的预设表情参数,在对眼睛的表情参数进行修正时,则需要从不同的情绪类型对应的预设表情参数组中获取眼睛对应的预设表情参数,再按照上述公式,对眼睛的表情参数进行修正,以此类推,再按照相同的方式分别对眉毛和嘴巴的表情参数进行修正。
在步骤405中,根据修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对标准三维人脸模型进行修正处理,生成人脸图像对应的虚拟三维人脸。
获取修正后的每个表情参数后,且每个表情参数对应有虚拟三维人脸参数,则根据修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对标准三维人脸模型的标准三维人脸参数进行修正,生成人脸图像对应的虚拟三维人脸。
在对每个表情参数进行修正时,需要根据情绪参数对表情参数进行修正,因此修正后的表情参数中包含了情绪参数,则根据修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对标准三维人脸模型进行修正,综合考虑了人脸图像的表情和情绪,生成的虚拟三维人脸与人脸图像的表情和情绪匹配。
可选地,采用下述公式,确定人脸图像对应的虚拟三维人脸参数,根据虚拟三维人脸参数生成人脸图像对应的虚拟三维人脸:
其中,F为人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,n为表情参数的数量,bi为修正后的第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数。
上述步骤401-405说明了根据至少一个表情参数和至少一个情绪参数,生成人脸图像对应的虚拟三维人脸的过程,例如,如图5所示,采用3DMM算法,获取n维的表情参数,这n维的表情参数包括嘴巴、眼睛、眉毛、脸颊、鼻子等表情参数,再根据表情参数进行情绪识别,获取m维的情绪参数,这m维情绪参数可以包括高兴、生气、悲伤、惊吓、害怕等情绪参数,再根据m维的情绪参数对表情参数进行修正,得到修正后的n维的表情参数,根据n维的表情参数,获取n个虚拟三维人脸参数,驱动n个虚拟三维人脸参数,对标准三维人脸模型的标准三维人脸参数进行修正,以生成人脸图像对应的虚拟三维人脸。其中,m和n为正整数。
本申请实施例提供的方法,还可以根据获取的至少一个情绪参数,对至少一个表情参数中的每个表情参数进行修正,得到修正后的表情参数,此时修正后的表情参数中包含了情绪参数的影响,则根据修正后的每个表情参数,在对标准三维人脸模型的表情进行修正的同时,也包括了对标准三维人脸模型的情绪的修正,以得到与人脸图像的表情和情绪均匹配的虚拟三维人脸,不仅考虑人脸图像中的表情,还考虑了人脸图像中的情绪,提高了获取的虚拟三维人脸的自然度和准确性。
图6是根据一示例性实施例示出的一种三维人脸重建装置的结构示意图。参见图6,该装置包括:
综合信息获取单元601,用于获取标准三维人脸模型以及标准三维人脸模型对应的标准三维人脸参数,标准三维人脸模型为具有自然表情和自然情绪的人脸模型,标准三维人脸参数用于描述标准三维人脸模型的表情和情绪;
表情信息获取单元602,被配置为获取人脸图像的表情参数信息,表情参数信息包括至少一个人脸部位对应的表情参数;
情绪信息获取单元603,被配置为根据表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取人脸图像的情绪参数信息,情绪参数信息包括至少一种情绪类型对应的情绪参数,同一情绪类型对应的不同情绪参数用于表征同一情绪类型下不同程度的情绪;
修正单元604,被配置为根据获取的至少一个表情参数和至少一个情绪参数,对标准三维人脸模型的标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。
本申请实施例提供的装置,获取标准三维人脸模型和该标准三维人脸模型对应的标准三维人脸参数,以及用于表征人脸图像表情的表情参数信息和用于表征人脸图像情绪的情绪参数信息。由于标准三维人脸模型具有自然表情和自然情绪,以标准三维人脸参数为基准,根据表情参数信息和情绪参数信息对标准三维人脸参数进行修正处理,即可在标准三维人脸模型的基础上融合人脸图像的表情和情绪,以得到与人脸图像的表情和情绪均匹配的虚拟三维人脸,不仅考虑人脸图像中的表情,还考虑了人脸图像中的情绪,提高了获取的虚拟三维人脸的自然度和准确性。并且,根据表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取情绪参数信息,从而在人脸图像表情的基础上确定人脸图像的情绪,所获取的情绪参数信息更加准确,且调用模型来获取情绪参数信息不需要经过复杂的运算,提高了处理效率。
在一种可能实现方式中,参见图7,修正单元604,包括:
获取子单元6041,被配置获取至少一个情绪参数中每个情绪参数对应的虚拟三维人脸参数和至少一个表情参数中每个表情参数对应的虚拟三维人脸参数;
人脸参数修正子单元6042,被配置为根据每个表情参数和对应的虚拟三维人脸参数、每个情绪参数和对应的虚拟三维人脸参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,人脸参数修正子单元6042,被配置为:
根据每个表情参数,以及每个表情参数对应的虚拟三维人脸参数与标准三维人脸参数的差值,确定表情修正参数;
根据每个情绪参数,以及每个情绪参数对应的虚拟三维人脸参数与标准三维人脸参数的差值,确定情绪修正参数;
根据表情修正参数和情绪修正参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,人脸参数修正子单元6042,被配置为采用下述公式,确定人脸图像对应的虚拟三维人脸参数,根据虚拟三维人脸参数生成人脸图像对应的虚拟三维人脸:
其中,F为人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,ai为第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数,n为表情参数的数量,m为情绪参数的数量,si为第i种情绪类型的缩放因子,用于对第i种情绪类型对应的虚拟三维人脸参数进行缩放,ei为第i个情绪参数,Bei为第i个情绪参数对应的虚拟三维人脸参数。
在另一种可能实现方式中,参见图7,修正单元604,包括:
表情参数修正子单元6043,被配置为根据至少一个情绪参数,对至少一个表情参数中的每个表情参数进行修正,得到修正后的每个表情参数;
人脸参数修正子单元6042,被配置为根据修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对标准三维人脸参数进行修正处理,生成人脸图像对应的虚拟三维人脸。
在另一种可能实现方式中,表情参数修正子单元6043,被配置为采用下述公式,得到修正后的每个表情参数:
其中,bi为修正后的第i个表情参数,ai为第i个表情参数,m为情绪参数的数量,sk为第k种情绪类型的缩放因子,用于对第k种情绪类型对应的虚拟三维人脸参数进行缩放,ek为第k个情绪参数,为第k种情绪类型对应的预设表情参数组,/>是第k种情绪类型对应的预设表情参数组中的第n个表情参数,n为表情参数的数量。
在另一种可能实现方式中,人脸参数修正子单元6042,被配置为采用下述公式,确定人脸图像对应的虚拟三维人脸参数,根据虚拟三维人脸参数生成人脸图像对应的虚拟三维人脸:
其中,F为人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,n为表情参数的数量,bi为修正后的第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图8是根据一示例性实施例示出的一种电子设备,如终端的框图。该终端800可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端800还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端800包括有:一个或多个处理器801和一个或多个存储器802。
处理器801可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器801可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器801也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器801可以集成有GPU(Graphics Processing Unit,数据推荐器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器801还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器802可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器802还可包括易失性存储器或非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器802中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器801所具有以实现本申请中方法实施例提供的三维人脸重建方法。
在一些实施例中,终端800还可选包括有:外围设备接口803和至少一个外围设备。处理器801、存储器802和外围设备接口803之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口803相连。具体地,外围设备包括:射频电路804、显示屏805、摄像头组件806、音频电路807、定位组件808和电源809中的至少一种。
外围设备接口803可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器801和存储器802。在一些实施例中,处理器801、存储器802和外围设备接口803被集成在同一芯片或电路板上;在一些其他实施例中,处理器801、存储器802和外围设备接口803中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路804用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路804通过电磁信号与通信网络以及其他通信设备进行通信。射频电路804将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路804包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路804可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路804还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏805用于显示UI(UserInterface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏805是触摸显示屏时,显示屏805还具有采集在显示屏805的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器801进行处理。此时,显示屏805还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏805可以为一个,设置终端800的前面板;在另一些实施例中,显示屏805可以为至少两个,分别设置在终端800的不同表面或呈折叠设计;在另一些实施例中,显示屏805可以是柔性显示屏,设置在终端800的弯曲表面上或折叠面上。甚至,显示屏805还可以设置成非矩形的不规则图形,也即异形屏。显示屏805可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件806用于采集图像或视频。可选地,摄像头组件806包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件806还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路807可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器801进行处理,或者输入至射频电路804以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端800的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器801或射频电路804的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路807还可以包括耳机插孔。
定位组件808用于定位终端800的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件808可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源809用于为终端800中的各个组件进行供电。电源809可以是交流电、直流电、一次性电池或可充电电池。当电源809包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端800还包括有一个或多个传感器810。该一个或多个传感器810包括但不限于:加速度传感器811、陀螺仪传感器812、压力传感器813、指纹传感器814、光学传感器815以及接近传感器816。
加速度传感器811可以检测以终端800建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器811可以用于检测重力加速度在三个坐标轴上的分量。处理器801可以根据加速度传感器811采集的重力加速度信号,控制触摸显示屏805以横向视图或纵向视图进行用户界面的显示。加速度传感器811还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器812可以检测终端800的机体方向及转动角度,陀螺仪传感器812可以与加速度传感器811协同采集用户对终端800的3D动作。处理器801根据陀螺仪传感器812采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器813可以设置在终端800的侧边框和/或显示屏805的下层。当压力传感器813设置在终端800的侧边框时,可以检测用户对终端800的握持信号,由处理器801根据压力传感器813采集的握持信号进行左右手识别或快捷操作。当压力传感器813设置在显示屏805的下层时,由处理器801根据用户对显示屏805的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器814用于采集用户的指纹,由处理器801根据指纹传感器814采集到的指纹识别用户的身份,或者,由指纹传感器814根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器801授权该用户具有相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器814可以被设置终端800的正面、背面或侧面。当终端800上设置有物理按键或厂商Logo时,指纹传感器814可以与物理按键或厂商标志集成在一起。
光学传感器815用于采集环境光强度。在一个实施例中,处理器801可以根据光学传感器815采集的环境光强度,控制显示屏805的显示亮度。具体地,当环境光强度较高时,调高显示屏805的显示亮度;当环境光强度较低时,调低显示屏805的显示亮度。在另一个实施例中,处理器801还可以根据光学传感器815采集的环境光强度,动态调整摄像头组件806的拍摄参数。
接近传感器816,也称距离传感器,通常设置在终端800的前面板。接近传感器816用于采集用户与终端800的正面之间的距离。在一个实施例中,当接近传感器816检测到用户与终端800的正面之间的距离逐渐变小时,由处理器801控制显示屏805从亮屏状态切换为息屏状态;当接近传感器816检测到用户与终端800的正面之间的距离逐渐变大时,由处理器801控制显示屏805从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图8中示出的结构并不构成对终端800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图9是根据一示例性实施例示出的一种服务器的结构示意图,该服务器900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(CentralProcessing Units,CPU)901和一个或一个以上的存储器902,其中,存储器902中存储有至少一条指令,至少一条指令由处理器901加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
服务器900可以用于执行上述三维人脸重建方法中服务器所执行的步骤。
在示例性实施例中,还提供了一种非临时性计算机可读存储介质,当存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行上述三维人脸重建方法中终端或服务器所执行的步骤。
在示例性实施例中,还提供了一种计算机程序产品,当计算机程序产品中的指令由电子设备的处理器执行时,使得电子设备能够执行上述三维人脸重建方法中终端或服务器所执行的步骤。
本领域技术人员在考虑说明书及实践这里的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (12)

1.一种三维人脸重建方法,其特征在于,所述方法包括:
获取标准三维人脸模型以及所述标准三维人脸模型对应的标准三维人脸参数,所述标准三维人脸模型为具有自然表情和自然情绪的人脸模型,所述标准三维人脸参数用于描述所述标准三维人脸模型的表情和情绪;
获取人脸图像的表情参数信息,所述表情参数信息包括至少一个人脸部位对应的表情参数;
根据所述表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取所述人脸图像的情绪参数信息,所述情绪参数信息包括所述至少一种情绪类型对应的情绪参数,同一情绪类型对应的不同情绪参数用于表征同一情绪类型下不同程度的情绪;
获取至少一个所述情绪参数中每个情绪参数对应的虚拟三维人脸参数和至少一个所述表情参数中每个表情参数对应的虚拟三维人脸参数;根据所述每个表情参数和对应的虚拟三维人脸参数、所述每个情绪参数和对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸;或,
根据至少一个所述情绪参数,对至少一个所述表情参数中的每个表情参数进行修正,得到修正后的每个表情参数;根据所述修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
2.根据权利要求1所述的方法,其特征在于,所述根据所述每个表情参数和对应的虚拟三维人脸参数、所述每个情绪参数和对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸,包括:
根据所述每个表情参数,以及所述每个表情参数对应的虚拟三维人脸参数与所述标准三维人脸参数的差值,确定表情修正参数;
根据所述每个情绪参数,以及所述每个情绪参数对应的虚拟三维人脸参数与所述标准三维人脸参数的差值,确定情绪修正参数;
根据所述表情修正参数和所述情绪修正参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
3.根据权利要求1所述的方法,其特征在于,所述根据所述每个表情参数和对应的虚拟三维人脸参数、所述每个情绪参数和对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸,包括:
采用下述公式,确定所述人脸图像对应的虚拟三维人脸参数,根据所述虚拟三维人脸参数生成所述人脸图像对应的虚拟三维人脸:
其中,F为所述人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,ai为第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数,n为表情参数的数量,m为情绪参数的数量,si为第i种情绪类型的缩放因子,用于对所述第i种情绪类型对应的虚拟三维人脸参数进行缩放,ei为第i个情绪参数,Bei为第i个情绪参数对应的虚拟三维人脸参数。
4.根据权利要求1所述的方法,其特征在于,所述根据至少一个所述情绪参数,对至少一个所述表情参数中的每个表情参数进行修正,得到修正后的每个表情参数,包括:
采用下述公式,得到修正后的每个表情参数:
其中,bi为修正后的第i个表情参数,ai为第i个表情参数,m为情绪参数的数量,sk为第k种情绪类型的缩放因子,用于对所述第k种情绪类型对应的虚拟三维人脸参数进行缩放,ek为第k个情绪参数,为第k种情绪类型对应的预设表情参数组,/> 是第k种情绪类型对应的预设表情参数组中的第n个表情参数,n为表情参数的数量。
5.根据权利要求1所述的方法,其特征在于,所述根据所述修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸,包括:
采用下述公式,确定所述人脸图像对应的虚拟三维人脸参数,根据所述虚拟三维人脸参数生成所述人脸图像对应的虚拟三维人脸:
其中,F为所述人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,n为表情参数的数量,bi为修正后的第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数。
6.一种三维人脸重建装置,其特征在于,所述装置包括:
综合信息获取单元,用于获取标准三维人脸模型以及所述标准三维人脸模型对应的标准三维人脸参数,所述标准三维人脸模型为具有自然表情和自然情绪的人脸模型,所述标准三维人脸参数用于描述所述标准三维人脸模型的表情和情绪;
表情信息获取单元,被配置为获取人脸图像的表情参数信息,所述表情参数信息包括至少一个人脸部位对应的表情参数;
情绪信息获取单元,被配置为根据所述表情参数信息调用至少一种情绪类型对应的情绪识别模型,获取所述人脸图像的情绪参数信息,所述情绪参数信息包括所述至少一种情绪类型对应的情绪参数,同一情绪类型对应的不同情绪参数用于表征同一情绪类型下不同程度的情绪;
修正单元包括获取子单元和人脸参数修正子单元;
所述获取子单元,被配置为获取至少一个所述情绪参数中每个情绪参数对应的虚拟三维人脸参数和至少一个所述表情参数中每个表情参数对应的虚拟三维人脸参数;
所述人脸参数修正子单元,被配置为根据所述每个表情参数和对应的虚拟三维人脸参数、所述每个情绪参数和对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸;
或,
所述修正单元包括表情参数修正子单元和人脸参数修正子单元;
所述表情参数修正子单元,被配置为根据至少一个所述情绪参数,对至少一个所述表情参数中的每个表情参数进行修正,得到修正后的每个表情参数;
所述人脸参数修正子单元,被配置为根据所述修正后的每个表情参数和每个表情参数对应的虚拟三维人脸参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
7.根据权利要求6所述的装置,其特征在于,所述人脸参数修正子单元,被配置为:
根据所述每个表情参数,以及所述每个表情参数对应的虚拟三维人脸参数与所述标准三维人脸参数的差值,确定表情修正参数;
根据所述每个情绪参数,以及所述每个情绪参数对应的虚拟三维人脸参数与所述标准三维人脸参数的差值,确定情绪修正参数;
根据所述表情修正参数和所述情绪修正参数,对所述标准三维人脸参数进行修正处理,生成所述人脸图像对应的虚拟三维人脸。
8.根据权利要求6所述的装置,其特征在于,所述人脸参数修正子单元,被配置为采用下述公式,确定所述人脸图像对应的虚拟三维人脸参数,根据所述虚拟三维人脸参数生成所述人脸图像对应的虚拟三维人脸:
其中,F为所述人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,ai为第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数,n为表情参数的数量,m为情绪参数的数量,si为第i种情绪类型的缩放因子,用于对所述第i种情绪类型对应的虚拟三维人脸参数进行缩放,ei为第i个情绪参数,Bei为第i个情绪参数对应的虚拟三维人脸参数。
9.根据权利要求6所述的装置,其特征在于,所述表情参数修正子单元,被配置为采用下述公式,得到修正后的每个表情参数:
其中,bi为修正后的第i个表情参数,ai为第i个表情参数,m为情绪参数的数量,sk为第k种情绪类型的缩放因子,用于对所述第k种情绪类型对应的虚拟三维人脸参数进行缩放,ek为第k个情绪参数,为第k种情绪类型对应的预设表情参数组,/> 是第k种情绪类型对应的预设表情参数组中的第n个表情参数,n为表情参数的数量。
10.根据权利要求6所述的装置,其特征在于,所述人脸参数修正子单元,被配置为采用下述公式,确定所述人脸图像对应的虚拟三维人脸参数,根据所述虚拟三维人脸参数生成所述人脸图像对应的虚拟三维人脸:
其中,F为所述人脸图像对应的虚拟三维人脸参数,B0为标准三维人脸参数,n为表情参数的数量,bi为修正后的第i个表情参数,Bi为第i个表情参数对应的虚拟三维人脸参数。
11.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
用于存储所述一个或多个处理器可执行命令的易失性或非易失性存储器;
其中,所述一个或多个处理器被配置为执行如权利要求1-5任一项权利要求所述的三维人脸重建方法。
12.一种非临时性计算机可读存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1-5任一项权利要求所述的三维人脸重建方法。
CN202010507034.5A 2020-06-05 2020-06-05 三维人脸重建方法、装置、电子设备及存储介质 Active CN113763531B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010507034.5A CN113763531B (zh) 2020-06-05 2020-06-05 三维人脸重建方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010507034.5A CN113763531B (zh) 2020-06-05 2020-06-05 三维人脸重建方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113763531A CN113763531A (zh) 2021-12-07
CN113763531B true CN113763531B (zh) 2023-11-28

Family

ID=78785108

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010507034.5A Active CN113763531B (zh) 2020-06-05 2020-06-05 三维人脸重建方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113763531B (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204698A (zh) * 2015-05-06 2016-12-07 北京蓝犀时空科技有限公司 为自由组合创作的虚拟形象生成及使用表情的方法和系统
CN106447785A (zh) * 2016-09-30 2017-02-22 北京奇虎科技有限公司 一种驱动虚拟角色的方法和装置
CN106910247A (zh) * 2017-03-20 2017-06-30 厦门幻世网络科技有限公司 用于生成三维头像模型的方法和装置
CN107358169A (zh) * 2017-06-21 2017-11-17 厦门中控智慧信息技术有限公司 一种人脸表情识别方法及人脸表情识别装置
CN108062546A (zh) * 2018-02-11 2018-05-22 厦门华厦学院 一种计算机人脸情绪识别系统
KR20180097915A (ko) * 2017-02-24 2018-09-03 트라이큐빅스 인크. 개인 맞춤형 3차원 얼굴 모델 생성 방법 및 그 장치
CN108563978A (zh) * 2017-12-18 2018-09-21 深圳英飞拓科技股份有限公司 一种情绪检测方法与装置
CN108875656A (zh) * 2018-06-26 2018-11-23 魏巧萍 一种智能多媒体播放系统
CN109255830A (zh) * 2018-08-31 2019-01-22 百度在线网络技术(北京)有限公司 三维人脸重建方法和装置
CN109308727A (zh) * 2018-09-07 2019-02-05 腾讯科技(深圳)有限公司 虚拟形象模型生成方法、装置及存储介质
CN109377539A (zh) * 2018-11-06 2019-02-22 北京百度网讯科技有限公司 用于生成动画的方法和装置
CN109683709A (zh) * 2018-12-17 2019-04-26 苏州思必驰信息科技有限公司 基于情绪识别的人机交互方法及系统
CN109711362A (zh) * 2018-12-29 2019-05-03 深圳有咖互动科技有限公司 人脸表情提取方法、电子设备以及存储介质
CN109767487A (zh) * 2019-01-04 2019-05-17 北京达佳互联信息技术有限公司 人脸三维重建方法、装置、电子设备及存储介质
CN109803109A (zh) * 2018-12-17 2019-05-24 中国科学院深圳先进技术研究院 一种可穿戴增强现实远程视频系统及视频通话方法
CN109844735A (zh) * 2016-07-21 2019-06-04 奇跃公司 用于使用用户的情感状态控制虚拟图像生成系统的技术
CN109978996A (zh) * 2019-03-28 2019-07-05 北京达佳互联信息技术有限公司 生成表情三维模型的方法、装置、终端及存储介质

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106204698A (zh) * 2015-05-06 2016-12-07 北京蓝犀时空科技有限公司 为自由组合创作的虚拟形象生成及使用表情的方法和系统
CN109844735A (zh) * 2016-07-21 2019-06-04 奇跃公司 用于使用用户的情感状态控制虚拟图像生成系统的技术
CN106447785A (zh) * 2016-09-30 2017-02-22 北京奇虎科技有限公司 一种驱动虚拟角色的方法和装置
KR20180097915A (ko) * 2017-02-24 2018-09-03 트라이큐빅스 인크. 개인 맞춤형 3차원 얼굴 모델 생성 방법 및 그 장치
CN106910247A (zh) * 2017-03-20 2017-06-30 厦门幻世网络科技有限公司 用于生成三维头像模型的方法和装置
CN107358169A (zh) * 2017-06-21 2017-11-17 厦门中控智慧信息技术有限公司 一种人脸表情识别方法及人脸表情识别装置
CN108563978A (zh) * 2017-12-18 2018-09-21 深圳英飞拓科技股份有限公司 一种情绪检测方法与装置
CN108062546A (zh) * 2018-02-11 2018-05-22 厦门华厦学院 一种计算机人脸情绪识别系统
CN108875656A (zh) * 2018-06-26 2018-11-23 魏巧萍 一种智能多媒体播放系统
CN109255830A (zh) * 2018-08-31 2019-01-22 百度在线网络技术(北京)有限公司 三维人脸重建方法和装置
CN109308727A (zh) * 2018-09-07 2019-02-05 腾讯科技(深圳)有限公司 虚拟形象模型生成方法、装置及存储介质
CN109377539A (zh) * 2018-11-06 2019-02-22 北京百度网讯科技有限公司 用于生成动画的方法和装置
CN109683709A (zh) * 2018-12-17 2019-04-26 苏州思必驰信息科技有限公司 基于情绪识别的人机交互方法及系统
CN109803109A (zh) * 2018-12-17 2019-05-24 中国科学院深圳先进技术研究院 一种可穿戴增强现实远程视频系统及视频通话方法
CN109711362A (zh) * 2018-12-29 2019-05-03 深圳有咖互动科技有限公司 人脸表情提取方法、电子设备以及存储介质
CN109767487A (zh) * 2019-01-04 2019-05-17 北京达佳互联信息技术有限公司 人脸三维重建方法、装置、电子设备及存储介质
CN109978996A (zh) * 2019-03-28 2019-07-05 北京达佳互联信息技术有限公司 生成表情三维模型的方法、装置、终端及存储介质

Also Published As

Publication number Publication date
CN113763531A (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
CN109978989B (zh) 三维人脸模型生成方法、装置、计算机设备及存储介质
CN110992493B (zh) 图像处理方法、装置、电子设备及存储介质
CN109308727B (zh) 虚拟形象模型生成方法、装置及存储介质
CN109977775B (zh) 关键点检测方法、装置、设备及可读存储介质
CN112907725B (zh) 图像生成、图像处理模型的训练、图像处理方法和装置
CN110059652B (zh) 人脸图像处理方法、装置及存储介质
CN109558837B (zh) 人脸关键点检测方法、装置及存储介质
CN108270794B (zh) 内容发布方法、装置及可读介质
CN112581358B (zh) 图像处理模型的训练方法、图像处理方法及装置
CN110263617B (zh) 三维人脸模型获取方法及装置
CN110147533B (zh) 编码方法、装置、设备及存储介质
CN112337105B (zh) 虚拟形象生成方法、装置、终端及存储介质
US11386586B2 (en) Method and electronic device for adding virtual item
CN109978996B (zh) 生成表情三维模型的方法、装置、终端及存储介质
CN111276122B (zh) 音频生成方法及装置、存储介质
CN113706678A (zh) 获取虚拟形象的方法、装置、设备及计算机可读存储介质
CN110796083B (zh) 图像显示方法、装置、终端及存储介质
CN110705614A (zh) 模型训练方法、装置、电子设备及存储介质
CN110991445B (zh) 竖排文字识别方法、装置、设备及介质
CN113420177A (zh) 音频数据处理方法、装置、计算机设备及存储介质
CN111539795A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN109345636B (zh) 获取虚拟人脸图的方法和装置
CN113763531B (zh) 三维人脸重建方法、装置、电子设备及存储介质
CN111310701B (zh) 手势识别方法、装置、设备及存储介质
CN111988664B (zh) 视频处理方法、装置、计算机设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant