CN110517340B - 一种基于人工智能的脸部模型确定方法和装置 - Google Patents
一种基于人工智能的脸部模型确定方法和装置 Download PDFInfo
- Publication number
- CN110517340B CN110517340B CN201910816788.6A CN201910816788A CN110517340B CN 110517340 B CN110517340 B CN 110517340B CN 201910816788 A CN201910816788 A CN 201910816788A CN 110517340 B CN110517340 B CN 110517340B
- Authority
- CN
- China
- Prior art keywords
- vertex data
- face
- target
- parameter
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例公开了一种基于人工智能的脸部模型确定方法,获取针对待建对象的采集数据中包括多组脸部顶点数据,每一组分别标识待建对象的一个脸部形象,基于其中的第一顶点数据,以及用于标识目标脸部模型的目标顶点数据,确定初始捏脸参数。通过获取采集数据中的第二顶点数据,基于初始捏脸参数和目标顶点数据确定表情参数,之后,固定该表情参数,根据第二顶点数据和目标顶点数据确定目标捏脸参数。由于第二顶点数据和第一顶点数据分别标识不同的脸部形象,二者受到完全相同的不确定性影响的几率较小,通过第二顶点数据修正出的目标捏脸参数一定程度上抵消第一顶点数据中的噪声,以目标捏脸参数确定出的待建对象对应的脸部模型精确度相对更高。
Description
技术领域
本申请涉及数据处理领域,特别是涉及一种基于人工智能的脸部模型确定方法和装置。
背景技术
目前,人机交互已经比较常见,用户可以通过与动画形象的交互。针对一段任意的语音,可以驱动一个动画形象做出该段语音对应的口型。在这一场景下,动画形象的存在能极大地增强真实感,提升表现力,带给用户更加沉浸式的体验。
该动画形象可以是卡通、虚拟人等虚拟形象,也可以是基于真人外形构建的仿真形象。在通过待建对象构建动画形象时,可以对待建对象进行视频采集,通过采集得到的数据确定待建对象的脸部模型。
然而,相关技术中常使用手机这类简易设备对待建对象进行视频采集,采集环境和方式一般也比较随意,导致在这类不确定性较高的场景下,所采集的数据往往精度不高,噪声较大,基于该采集数据建立的脸部模型质量不高,难以准确体现待建对象的实际外形。
发明内容
为了解决上述技术问题,本申请提供了一种基于人工智能的脸部模型确定方法和装置,通过第二顶点数据修正出的目标捏脸参数可以一定程度上抵消第一顶点数据中的噪声,以目标捏脸参数确定出的待建对象对应的脸部模型精确度相对更高。
本申请实施例公开了如下技术方案:
第一方面,本申请实施例提供一种基于人工智能的脸部模型确定方法,所述方法包括:
获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组脸部顶点数据,任意一组脸部顶点数据用于标识所述采集数据中所述待建对象的一个脸部形象,所述多组脸部顶点数据包括第一顶点数据;
根据所述第一顶点数据和用于标识目标脸部模型的目标顶点数据,确定所述待建对象对应的初始捏脸参数,所述初始捏脸参数用于体现所述第一顶点数据所标识脸部形象相对于所述目标脸部模型的脸部变化程度;
根据从所述多组脸部顶点数据中确定的一组第二顶点数据,基于所述初始捏脸参数和所述目标顶点数据确定表情参数;所述表情参数用于体现所述第二顶点数据所标识脸部形象相对于第一脸部模型的表情变化程度,所述第一脸部模型为所述初始捏脸参数和所述目标顶点数据所标识的;
根据所述第二顶点数据,基于所述表情参数和所述目标顶点数据确定目标捏脸参数;所述目标捏脸参数用于体现所述第二顶点数据所标识脸部形象相对于第二脸部模型的脸部变化程度,所述第二脸部模型为所述表情参数和所述目标顶点数据所标识的;
根据所述目标捏脸参数和所述目标顶点数据,确定所述待建对象对应的脸部模型。
第二方面,本申请实施例提供一种基于人工智能的脸部模型确定装置,所述装置包括获取单元、第一确定单元、第二确定单元、第三确定单元和第四确定单元:
所述获取单元,用于获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组脸部顶点数据,任意一组脸部顶点数据用于标识所述采集数据中所述待建对象的一个脸部形象,所述多组脸部顶点数据包括第一顶点数据;
所述第一确定单元,用于根据所述第一顶点数据和用于标识目标脸部模型的目标顶点数据,确定所述待建对象对应的初始捏脸参数,所述初始捏脸参数用于体现所述第一顶点数据所标识脸部形象相对于所述目标脸部模型的脸部变化程度;
所述第二确定单元,用于根据从所述多组脸部顶点数据中确定的一组第二顶点数据,基于所述初始捏脸参数和所述目标顶点数据确定表情参数;所述表情参数用于体现所述第二顶点数据所标识脸部形象相对于第一脸部模型的表情变化程度,所述第一脸部模型为所述初始捏脸参数和所述目标顶点数据所标识的;
所述第三确定单元,用于根据所述第二顶点数据,基于所述表情参数和所述目标顶点数据确定目标捏脸参数;所述目标捏脸参数用于体现所述第二顶点数据所标识脸部形象相对于第二脸部模型的脸部变化程度,所述第二脸部模型为所述表情参数和所述目标顶点数据所标识的;
所述第四确定单元,用于根据所述目标捏脸参数和所述目标顶点数据,确定所述待建对象对应的脸部模型。
第三方面,本申请实施例提供一种模型确定方法,所述方法包括:
获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组顶点数据,任意一组顶点数据用于标识所述采集数据中所述待建对象的一个结构形象,所述多组顶点数据包括第一顶点数据;
根据所述第一顶点数据和用于标识目标结构模型的目标顶点数据,确定所述待建对象对应的初始结构参数,所述初始结构参数用于体现所述第一顶点数据所标识结构形象相对于所述目标结构模型的结构变化程度;
根据从所述多组顶点数据中确定的一组第二顶点数据,基于所述初始结构参数和所述目标顶点数据确定形变参数;所述形变参数用于体现所述第二顶点数据所标识结构形象相对于第一结构模型的外形变化程度,所述第一结构模型为所述初始结构参数和所述目标顶点数据所标识的;
根据所述第二顶点数据,基于所述形变参数和所述目标顶点数据确定目标结构参数;所述目标结构参数用于体现所述第二顶点数据所标识结构形象相对于第二结构模型的结构变化程度,所述第二结构模型为所述形变参数和所述目标顶点数据所标识的;
根据所述目标结构参数和所述目标顶点数据,确定所述待建对象对应的结构模型。
第四方面,本申请实施例提供一种模型确定装置,所述装置包括获取单元、第一确定单元、第二确定单元、第三确定单元和第四确定单元:
所述获取单元,用于获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组顶点数据,任意一组顶点数据用于标识所述采集数据中所述待建对象的一个结构形象,所述多组顶点数据包括第一顶点数据;
所述第一确定单元,用于根据所述第一顶点数据和用于标识目标结构模型的目标顶点数据,确定所述待建对象对应的初始结构参数,所述初始结构参数用于体现所述第一顶点数据所标识结构形象相对于所述目标结构模型的结构变化程度;
所述第二确定单元,用于根据从所述多组顶点数据中确定的一组第二顶点数据,基于所述初始结构参数和所述目标顶点数据确定形变参数;所述形变参数用于体现所述第二顶点数据所标识结构形象相对于第一结构模型的外形变化程度,所述第一结构模型为所述初始结构参数和所述目标顶点数据所标识的;
所述第三确定单元,用于根据所述第二顶点数据,基于所述形变参数和所述目标顶点数据确定目标结构参数;所述目标结构参数用于体现所述第二顶点数据所标识结构形象相对于第二结构模型的结构变化程度,所述第二结构模型为所述形变参数和所述目标顶点数据所标识的;
所述第四确定单元,用于根据所述目标结构参数和所述目标顶点数据,确定所述待建对象对应的结构模型。
第五方面,本申请实施例提供一种设备,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行第一方面或第三方面所述的方法。
第六方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行第一方面或第三方面所述的方法。
由上述技术方案可以看出,获取针对待建对象的采集数据中包括多组脸部顶点数据,每一组可以分别标识待建对象的一个脸部形象,基于其中的第一顶点数据,以及用于标识目标脸部模型的目标顶点数据,确定初始捏脸参数,该参数可以体现这两个脸部形象相对的脸部变化程度。通过获取采集数据中的第二顶点数据,基于初始捏脸参数和目标顶点数据确定表情参数,该表情参数可以体现这两个脸部形象相对的表情变化程度,之后,固定该表情参数,继续根据第二顶点数据和目标顶点数据确定目标捏脸参数,该目标捏脸参数可以体现出在第二顶点数据所标识脸部形象,相对于目标顶点数据在固定的该表情参数下的脸部形象的脸部变化程度。从而相当于在目标脸部模型在该表情参数下,反推捏脸参数或者说反推如何变化脸型得到在该表情参数下的待建对象。由于第二顶点数据和第一顶点数据分别标识待建对象的不同脸部形象,故第二顶点数据和第一顶点数据受到完全相同的不确定性影响的几率较小,故在通过第一顶点数据确定出初始捏脸参数的基础上,通过第二顶点数据修正出的目标捏脸参数可以一定程度上抵消第一顶点数据中的噪声,以目标捏脸参数确定出的待建对象对应的脸部模型精确度相对更高。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种基于人工智能的脸部模型确定方法的应用场景示意图;
图2为本申请实施例提供的一种基于人工智能的脸部模型确定方法的流程图;
图3为本申请实施例提供的3DMM库M的各个维度分布和意义示意图;
图4为本申请实施例提供的确定待建对象的脸部模型的流程结构图;
图5为本申请实施例提供的直接根据初始捏脸参数确定待建对象的脸部模型的流程图;
图6为本申请实施例提供的修正前和修正后待建对象的脸部模型效果图;
图7a为本申请实施例提供的采集数据包括待建对象对应的视频帧时的表情基驱动效果图;
图7b为本申请实施例提供的采集数据包括待建对象对应的脸部静态建模时的表情基驱动效果图;
图8为本申请实施例提供的确定待建对象的脸部模型的流程图;
图9a为本申请实施例提供的口部的关键点示例图;
图9b为本申请实施例提供的一种基于人工智能的模型确定方法的流程图;
图10a为本申请实施例提供的一种基于人工智能的脸部模型确定装置的结构图;
图10b为本申请实施例提供的一种基于人工智能的脸部模型确定装置的结构图;
图11a为本申请实施例提供的一种基于人工智能的模型确定装置的结构图;
图11b为本申请实施例提供的一种设备的结构图;
图12为本申请实施例提供的一种服务器的结构图。
具体实施方式
下面结合附图,对本申请的实施例进行描述。
相关技术中基于采集数据建立脸部模型时,所采集的数据往往精度不高,噪声较大,使得建立的脸部模型质量不高,具有很多不确定性,难以准确体现待建对象的实际外形。例如,由于采集不规范导致建模质量低;重建过程容易受到环境光照、用户化妆等影响;重建的脸部模型中含有表情,并非自然状态;建立的脸部模型无法适应之后将要提取表情参数的视频等。
为此,本申请实施例提供一种基于人工智能的脸部模型确定方法,该方法在获取到针对待建对象的采集数据中包括的多组脸部顶点数据后,在通过其中一组脸部顶点数据例如第一顶点数据确定出初始捏脸参数的基础上,通过获取采集数据中的第二顶点数据,基于初始捏脸参数和目标顶点数据确定表情参数,之后,固定该表情参数,反推捏脸参数或者说反推如何变化脸型得到在该表情参数下的待建对象,即通过固定表情反推脸型的方式修正初始捏脸参数,使得调整后得到的目标捏脸参数可以抵消采集阶段对采集数据带来的噪声,提高建模精度。
需要强调的是,本申请实施例所提供的脸部模型确定方法是基于人工智能实现的,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
在本申请实施例中,主要涉及的人工智能技术包括计算机视觉(图像)等方向。
例如可以涉及计算机视觉(Computer Vision)中的视频处理(videoprocessing)、视频语义理解(video semantic understanding,VSU)、人脸识别(facerecognition)等。视频语义理解中包括目标识别(target recognition)、目标检测与定位(target detection/localization)等;人脸识别中包括人脸3D重建(Face3DReconstruction)、人脸检测(Face Detection)、人脸跟踪(Face Tracking)等。
本申请实施例提供的基于人工智能的脸部模型确定方法可以应用于具有脸部模型建立能力的处理设备上,该处理设备可以是终端设备,也可以是服务器。
该处理设备可以具有实施计算机视觉技术的能力。在本申请实施例中,处理设备通过实施上述计算机视觉技术,可以实现修正初始捏脸参数,从而利用修正后得到的目标捏脸参数准确的确定待建对象对应的脸部模型等功能。
其中,若处理设备是终端设备,则终端设备可以是智能终端、计算机、个人数字助理(Personal Digital Assistant,简称PDA)、平板电脑等。
若该处理设备是服务器,则服务器可以为独立服务器,也可以为集群服务器。当服务器实施该基于人工智能的脸部模型确定方法时,终端设备将采集到的针对待建对象的采集数据发送给服务器,服务器根据采集数据确定出目标捏脸参数,利用该目标捏脸参数和目标顶点数据确定待建对象的脸部模型,并将该脸部模型在终端设备上的显示。
需要说明的是,本申请实施例提供的基于人工智能的脸部模型确定方法可以应用到各种适用虚拟形象的应用场景,例如新闻播报、天气预报、游戏解说以及游戏场景中允许用于构建和用户自己脸型一样的游戏人物等,还能用于利用动画形象承担私人化的服务的场景,例如心理医生,虚拟助手等面向个人的一对一服务。在这些场景下,利用本申请实施例提供的方法可以确定出待建对象的脸部模型,以便基于该脸部模型构建动画形象。
为了便于理解本申请的技术方案,下面结合实际应用场景对本申请实施例提供的基于人工智能的脸部模型确定方法进行介绍。
参见图1,图1为本申请实施例提供的基于人工智能的脸部模型确定方法的应用场景示意图。该应用场景以处理设备为终端设备为例进行介绍。该应用场景中包括终端设备101,终端设备101可以获取针对待建对象的采集数据。待建对象是指构建的仿真形象所模仿的具有脸部的对象,待建对象例如可以是人、动物、甚至是具有脸部的玩偶等。
采集数据可以是通过传感器针对待建对象进行采集得到的,该传感器可以是深度传感器例如RGBD传感器,也可以是普通传感器(二维传感器)。采集数据中包括对应待建对象的多组脸部顶点数据,任意一组脸部顶点数据用于标识采集数据中待建对象的一个脸部形象。
由于捏脸参数可以用于调整脸部模型的脸型,为了得到待建对象的脸部模型,实际上可以利用捏脸参数对目标脸部模型进行调整,使得调整后的目标脸部模型的脸型与待建对象的脸型接近甚至相同,从而得到待建对象的脸部模型。
为此,本申请实施例的目的是确定出准确的捏脸参数,故终端设备101根据第一顶点数据和用于标识目标脸部模型的目标顶点数据,确定待建对象对应的初始捏脸参数。第一顶点数据为多组脸部顶点数据中的一组,初始捏脸参数用于体现第一顶点数据所标识脸部形象相对于目标脸部模型的脸部变化程度。初始捏脸参数可以作为各个脸型主成分的权重,通过将平均脸和各个权重下的主成分脸型进行线性组合,使得目标脸部模型像第一顶点数据所标识脸部形象的脸型。
初始捏脸参数是根据第一顶点数据确定出来的,而第一顶点数据中可能存在噪声,使得初始捏脸参数的可靠性不高。故,继续引入第二顶点数据,由于第二顶点数据和第一顶点数据分别标识待建对象的不同脸部形象,第二顶点数据和第一顶点数据受到完全相同的不确定性影响的几率较小,可以抵消第一顶点数据中不确定性影响。故,在通过第一顶点数据确定出初始捏脸参数的基础上,终端设备101通过获取采集数据中的第二顶点数据,基于初始捏脸参数和目标顶点数据确定表情参数,该表情参数可以体现这两个脸部形象相对的表情变化程度。
之后,终端设备101固定该表情参数,通过固定表情反推脸型的方式修正初始捏脸参数,使得修正后得到的目标捏脸参数可以一定程度上抵消第一顶点数据中的噪声,以目标捏脸参数确定出的待建对象对应的脸部模型精确度相对更高。其中,表情参数以及捏脸参数(例如初始捏脸参数和目标捏脸参数)的一种表现形式可以是系数,例如可以是具有某一维数的向量。
接下来,将以终端设备为例结合附图对本申请实施例提供的基于人工智能的脸部模型确定方法进行介绍。
参见图2,图2示出了一种基于人工智能的脸部模型确定方法的流程图,所述方法包括:
S201、获取针对待建对象的采集数据。
通过传感器对待建对象进行拍摄可以得到待建对象的采集数据,该采集数据可以被终端设备用于构建待建对象的脸部模型。采集数据中包括对应待建对象的多组脸部顶点数据,任意一组脸部顶点数据用于标识采集数据中待建对象的一个脸部形象,不同组脸部顶点数据表示的待建对象的脸部形象可能有所区别。
根据所使用传感器的不同,采集数据可以有所不同,采集数据包括待建对象对应的脸部静态建模,和/或,采集数据包括待建对象对应的视频帧。在一些情况下,可以通过RGBD传感器对待建对象进行拍摄,实现对脸部模型的建立。由于RGBD传感器可以采集到深度信息,得到待建对象的三维重建结果,那么,采集数据中包括待建对象对应的脸部静态建模,脸部顶点数据为脸部所包括的各个顶点的数据。在另外一些情况下,往往没有RGBD传感器而是使用二维传感器对待建对象进行拍摄,此时,没有待建对象的三维重建结果,采集数据中包括待建对象对应的视频帧,脸部顶点数据为表示脸部关键部位的顶点的数据(关键点数据)。其中,关键部位例如可以是眼睛、鼻尖、眉毛等部位。采集数据中包括待建对象对应的视频帧的情况下,不再强制要求使用RGBD传感器,弱化了确定待建对象的脸部模型的硬件要求。
S202、根据所述第一顶点数据和用于标识目标脸部模型的目标顶点数据,确定所述待建对象对应的初始捏脸参数。
其中,多组脸部顶点数据包括第一顶点数据。初始捏脸参数用于体现第一顶点数据所标识脸部形象相对于目标脸部模型的脸部变化程度。
目标脸部模型可以为模型库中的模型,也可以是通过模型库中模型的线性组合得到的。该模型库可以是人脸3D可变形模型(3DMM)库,也可以是其他模型库,本实施对此不做限定。目标脸部模型可以是一个3D网格。
以3DMM库为例,3DMM库由大量高精度脸部数据通过主成分分析方法(PrincipalComponent Analysis,PCA)得到,描述了高维脸型和表情相对平均脸的主要变化,也可以描述纹理信息。其中,所有脸部模型拥有相同的顶点序号和语义。
一般来说,3DMM库描述一个无表情的脸型时,可以通过mu+∑(Pfacei-mu)*αi得到。其中,mu是自然表情下的平均脸,Pfacei是第i个脸型主成分分量,αi就是各个脸型主成分分量的权重,也就是捏脸参数。其中,平均脸是指在3DMM库中,不同对象的脸部在自然表情下的3D点位置的均值所构成3D网格。
假设3DMM库中的M,M是一个[m×n×d]的三维矩阵,其中每一维分别为网格的顶点坐标(m)、脸型主成分(n)、表情主成分(d)。3DMM库M的各个维度分布和意义如图3所示。由于m表示xyz三个坐标的值,所以网格的顶点数为m/3,记作v。
在本申请实施例中,不考虑3DMM库中的纹理维度,假设待建对象的脸部模型为F,则:
其中,M为目标顶点数据,α为捏脸参数,β为表情参数;n为捏脸基中捏脸网格的个数,d为表情基中表情网格的个数,Mk,j,i为3DMM库中具有第i种表情网格、第j种捏脸网格的第k个目标顶点数据,αj为一组捏脸参数中的第j维,表示第j个脸型主成分分量的权重,βi为一组表情参数中的第i维,表示第i个表情主成分分量的权重。
由于本实施例中待建对象的脸部模型通常为待建对象无表情时的脸部模型,无表情时的β是已知的,例如可以是β0。故,为了得到待建对象的脸部模型,需要确定出准确的捏脸参数α,以便利用确定出的α调整目标顶点数据M得到待建对象的脸部模型。
其中,确定捏脸参数的过程为捏脸算法,确定表情参数的过程为捏表情算法。捏脸参数用于与捏脸基做线性组合得到对应的脸型,例如存在一个包括50个捏脸网格(属于可变形网格,例如blendshape)的捏脸基,该捏脸基对应的捏脸参数为一个50维的向量,每一维可以标识该捏脸参数所对应脸型与一个捏脸网格的相关程度。捏脸基所包括的捏脸网格分别代表不同脸型,每一个捏脸网格均为相对平均脸变化较大的脸部形象,是大量的脸通过PCA分解之后的得到的不同维度的脸型主成分,且同一个捏脸基中不同捏脸网格对应的顶点序号保持一致。
表情参数用于与表情基做线性组合得到对应的表情,例如存在一个包括50个(相当于维数为50)表情网格(属于可变形网格,例如blendshape)的表情基,该表情基对应的表情参数为一个50维的向量,每一维可以标识该表情参数所对应表情与一个表情网格的相关程度。表情基所包括的表情网格分别代表不同表情,每一个表情网格均由同一个3D模型在不同表情下变化而成,同一个表情基中不同表情网格对应的顶点序号保持一致。
针对前述的可变形网格,单个网格可以通过预定义形状变形,得到任意数量网格。
在通过第一顶点数据确定出初始捏脸参数的基础上,通过第二顶点数据修正出的目标捏脸参数,以便利用修正后的目标捏脸参数确定待建对象的脸部模型的整个过程可以参见图4虚线框标识的部分所示。根据第一顶点数据和目标顶点数据,利用捏脸算法确定初始捏脸参数。
在确定初始捏脸参数时,由于采集数据的不同,确定初始捏脸参数的方法有所不同,主要是所采用的约束方程有所不同。若第一顶点数据为待建对象对应的脸部静态建模,M(α,β)表示对M的二三维乘以捏脸参数和捏表情参数之后的结果,即:
M(α,β)=M×α×β
其中,M为目标顶点数据,α为捏脸参数,β为表情参数。
第一顶点数据为P3d,假定此时M(α,β)和P3d位于同一坐标系中且对齐,M(α,β)(x)表示目标顶点数据中第x个顶点的xyz三维坐标,即M(α,β)中的[3*x-2,3*x-1,3*x]这三项,P3d(x)表示第一顶点数据中第x个顶点的xyz三维坐标,由此构建约束方程:
其中,λ为正则项系数,v为顶点的数量,α为捏脸参数,β为表情参数。
采用高斯牛顿法求解当f(α)取最小值时的α例如α0为初始捏脸参数。当然,还可以采用其他优化算法例如Levenberg-Marquardt(LM)优化算法替代高斯牛顿法。
可以发现,此时β被固定,且用整个脸部中所有的顶点作约束。若目标顶点数据用于标识处于无表情时的目标脸部模型,则β被固定为β0,公式(1)中目标顶点数据实际为M(α,β0)。
若第一顶点数据为待建对象对应的视频帧,即没有P3d,则需要通过视频帧中的关键点P2d的约束,来得到捏脸参数α。假设第x个关键点的坐标为P2d(x),sM(α,β)(x)表示目标顶点数据的第x个顶点的xyz三维坐标通过正交投影得到的图像上的坐标。当然,本申请实施例还可以采用其他投影方法例如透视投影来替代正交投影。
假设检测到的关键点的数量为vlm,由此构建约束方程:
其中,λ为正则项系数,s为投影缩放系数,α为捏脸参数,β为表情参数。
求解当f(α)取最小值时的α例如α0为初始捏脸参数。可以发现,此时β被固定,且只用整个脸部中的关键点作约束。若目标顶点数据用于标识处于无表情时的目标脸部模型,则β被固定为β0,公式(2)中目标顶点数据实际为M(α,β0)。
在这种情况下,只用关键点作约束,得到的脸型和真实脸型之间存在一定的差距,但是作为约束的关键点已经和将要提取表情参数的脸部上的关键点对应,因此只用关键点约束得到的初始捏脸参数依然满足提取表情参数的要求。
S203、根据从所述多组脸部顶点数据中确定的一组第二顶点数据,基于所述初始捏脸参数和所述目标顶点数据确定表情参数。
其中,表情参数用于体现第二顶点数据所标识脸部形象相对于第一脸部模型的表情变化程度,第一脸部模型为初始捏脸参数和目标顶点数据所标识的。基于初始捏脸参数和目标顶点数据,相当于固定初始捏脸参数,利用捏表情算法确定表情参数。
可以理解的是,若无需修正初始捏脸参数,则在获取初始捏脸参数后,直接根据初始捏脸参数确定待建对象的脸部模型,参见图5所示。而在本实施例中,由于第一顶点数据直接来自于采集数据,可能具有极大的不确定性。当环境光照变化、表情变化等等情况出现时,根据第一顶点数据确定出的初始捏脸参数不能较好的反应待建对象的脸部模型。因此,本实施例需要继续引入第二顶点参数对得到修正后的目标捏脸参数,如图4所示。
在确定表情参数时,由于采集数据的不同,确定表情参数的方法有所不同,主要是所采用的约束方程有所不同。若第二顶点数据为待建对象对应的脸部静态建模,则构建约束方程:
其中,P3d(x)表示第二顶点数据中第x个顶点的xyz三维坐标,M(α,β)(x)表示目标顶点数据中第x个顶点的xyz三维坐标,λ为正则项系数,v为顶点的数量,α为捏脸参数,β为表情参数。
求解当f(β)取最小值时的β例如β1为表情参数。可以发现,此时α被固定,且用整个脸部中所有的顶点作约束。此时,固定初始捏脸参数例如α0,公式(3)中目标顶点数据实际为M(α0,β)。
若第二顶点数据为待建对象对应的视频帧,第二顶点数据为P2d(x),sM(α,β)(x)表示目标顶点数据的第x个顶点的xyz三维坐标通过正交投影得到的图像上的坐标。与确定捏脸参数的方式类似,假设检测到的关键点的数量为vlm,构建约束方程:
其中,λ为正则项系数,s为投影缩放系数,α为捏脸参数,β为表情参数。
求解当f(β)取最小值时的β例如β1为表情参数。可以发现,此时α被固定,且只用整个脸部中的关键点作约束。此时,固定初始捏脸参数例如α0,公式(4)中目标顶点数据实际为M(α0,β)。
S204、根据所述第二顶点数据,基于所述表情参数和所述目标顶点数据确定目标捏脸参数。
由于第一顶点数据中可能存在噪声,使得初始捏脸参数的可靠性不高。故,继续引入第二顶点数据,根据第二顶点数据和目标顶点数据确定目标捏脸参数。由于第二顶点数据和第一顶点数据分别标识待建对象的不同脸部形象,第二顶点数据和第一顶点数据受到完全相同的不确定性影响的几率较小,可以抵消第一顶点数据中不确定性影响。其中,目标捏脸参数用于体现第二顶点数据所标识脸部形象相对于第二脸部模型的脸部变化程度,第二脸部模型为表情参数和所述目标顶点数据所标识的。
例如可以通过固定表情参数,采用上述公式(1)或(2)确定目标捏脸参数,若表情参数为β1,此时,公式(1)或(2)中的目标顶点数据实际为M(α,β1)。
另外,由于表情参数可以体现出待建对象的实际形象在做出表情时的特点,以此确定出的目标捏脸参数相对于初始捏脸参数,可以更好的抵消视频采集时的不确定性带来的影响。
在一些情况下,公式F=M×α×β可以变化为F=F自然表情脸+Bi×α,其中,F自然表情脸是无表情时的脸部形象,Bi=Fi-F自然表情脸,表示固定了表情的第i个脸型相对F自然表情脸的变化程度,α为捏脸参数。
S204相当于在目标脸部模型做出表情参数对应的表情时,重新确定脸型。由于初始捏脸参数可以体现第一顶点数据所标识脸部形象相对于目标脸部模型的脸部变化程度,那么,根据初始捏脸参数和目标顶点数据所确定的脸部模型与待建对象的脸型更加接近。为了使得做出该表情的目标脸部模型的脸型与待建对象更加接近,进而使得修正后的目标捏脸参数更加精确,S204的一种可能实现方式为根据第二顶点数据,基于所述表情参数、初始捏脸参数和目标顶点数据确定目标捏脸参数。
根据第二顶点数据,基于所述表情参数、初始捏脸参数和目标顶点数据确定目标捏脸参数时,可以参见图4从表情基V0中提取平均脸所示的步骤,在提取平均脸后,在固定表情参数下,通过捏脸算法得到目标捏脸参数。其中,表情基V0为在初始捏脸参数下,按照预设规则调整目标顶点数据得到不同表情下脸部形象。若目标顶点数据用M表示,初始捏脸参数用α0表示,则提取的F自然表情脸=M×α0,将该自然表情脸作为平均脸,用于后续通过捏脸算法确定目标捏脸参数,该自然表情脸与待建对象的脸型相似。
此时,相当于与待建对象的脸型比较相像的脸部模型做出该表情时,反推目标捏脸参数,目标捏脸参数体现出第二顶点数据所标识脸部形象,相对于第二脸部模型的脸部变化程度。其中,第二脸部模型为表情参数、初始捏脸参数和目标顶点数据所标识的,即第二脸部模型为与待建对象相似的平均脸做出该表情时的脸部形象。
S205、根据所述目标捏脸参数和所述目标顶点数据,确定所述待建对象对应的脸部模型。
若目标顶点数据用M表示,目标捏脸参数用α1表示,则待建对象的脸部模型可以表示为M×α1。
由上述技术方案可以看出,获取针对待建对象的采集数据中包括多组脸部顶点数据,每一组可以分别标识待建对象的一个脸部形象,基于其中的第一顶点数据,以及用于标识目标脸部模型的目标顶点数据,确定初始捏脸参数,该参数可以体现这两个脸部形象相对的脸部变化程度。通过获取采集数据中的第二顶点数据,基于初始捏脸参数和目标顶点数据确定表情参数,该表情参数可以体现这两个脸部形象相对的表情变化程度,之后,固定该表情参数,继续根据第二顶点数据和目标顶点数据确定目标捏脸参数,该目标捏脸参数可以体现出在第二顶点数据所标识脸部形象,相对于目标顶点数据在固定的该表情参数下的脸部形象的脸部变化程度。从而相当于在目标脸部模型在该表情参数下,反推捏脸参数或者说反推如何变化脸型得到在该表情参数下的待建对象。由于第二顶点数据和第一顶点数据分别标识待建对象的不同脸部形象,故第二顶点数据和第一顶点数据受到完全相同的不确定性影响的几率较小,故在通过第一顶点数据确定出初始捏脸参数的基础上,通过第二顶点数据修正出的目标捏脸参数可以一定程度上抵消第一顶点数据中的噪声,以目标捏脸参数确定出的待建对象对应的脸部模型精确度相对更高。
例如,目标顶点数据用M表示,在得到初始捏脸参数α0后,待建对象的脸部模型A可以用M×α0表示。但是由于第一顶点数据中可能存在噪声,那么,脸部模型A与待建对象的实际脸相比存在噪声。因此,在脸部模型A的基础上,继续引入第二顶点数据确定表情参数,使得脸部模型A做出表情参数对应的表情,反推捏脸参数α1,此时得到待建对象的脸部模型B,脸部模型B可以用M×α1表示。由于第二顶点数据和第一顶点数据分别标识待建对象的不同脸部形象,故第二顶点数据和第一顶点数据受到完全相同的不确定性影响的几率较小,例如,第二顶点可能不存在噪声,这样得到的目标捏脸参数α1可以抵消第一顶点数据中的噪声,脸部模型B对应的捏脸参数α1可以作为目标捏脸参数,脸部模型B与待建对象的实际脸一样。
如图6所示,图6中左侧为修正之前的待建对象的脸部模型,右侧为修正之后的待建对象的脸部模型,可以发现左侧的嘴巴向右上方歪,右侧的人脸嘴唇较为平整,同时右侧的人脸上具有更少的褶皱,右侧的脸部模型与左侧的脸部模型相比更为精确。可见,该方法可以修正获取采集数据时待建对象不在自然表情的问题,同时修正由于脸部静态建模导致的待建对象的脸部模型歪嘴、大小眼等问题,且适应后期用于提取表情参数的不同采集数据中的脸部,最终提升提取表情参数的质量。
需要说明的是,由于采集数据中包括多组脸部顶点数据,这些脸部顶点数据可以是在不同时间、不同装扮、不同拍摄角度下采集的,多组脸部顶点数据之间有所差异。为了避免基于单个第二顶点数据提取表情参数而出现表情参数提取不到位的问题,在本实施例中可以采用多次迭代的方式提取表情参数,进而确定目标捏脸参数。例如,在执行S205之前,可以将目标捏脸参数作为初始捏脸参数,重复执行S203的步骤(如图4中带有箭头的虚线所示),直至满足目标条件。其中,目标条件可以是迭代次数达到预设次数等。
重复执行S203时所使用的第二顶点数据与前一次执行S203时所使用的第二顶点数据可以不同。通过重复提取表情参数,从而使得提取的表情参数较为准确,进而确定提高目标捏脸参数的准确性,以便建立的脸部模型更为精确。
在得到准确的目标捏脸参数后,可以确定精确的表情基,即S205的一种实现方式可以是根据目标捏脸参数和所述目标顶点数据,生成待建对象对应的表情基,表情基用于标识待建对象对应的脸部模型处于不同表情时的3D网格。
通过生成待建对象的表情基,在获取到待建对象新的采集数据时,可以基于该表情基通过捏表情算法提取表情参数,从而驱动表情基,使得待建对象的脸部模型做出对应的表情。
图7a示出了采集数据包括待建对象对应的视频帧时的表情基驱动效果,图7b示出了采集数据包括待建对象对应的脸部静态建模时的表情基驱动效果。图7a中左侧为脸部正面驱动效果,右侧为脸部侧面驱动效果;图7b中左侧为脸部正面驱动效果,右侧为脸部侧面驱动效果。可见,在采集数据不同的情况下,针对同一表情基的驱动效果相似,进一步表明了通过本申请实施例提供的方法得到的脸部模型较为精确。
需要说明的是,在S202中利用了第一顶点数据和目标顶点数据,为了避免表情对确定待建对象的脸部模型的影响,提高脸部模型的精确度,在本实施例中,第一顶点数据用于标识待建对象处于无表情时的脸部形象,目标顶点数据用于标识处于无表情时的目标脸部模型。
然而,在采集数据中包括待建对象对应的脸部静态建模,即没有P3d,而是包括待建对象对应的视频帧的情况下,由于视频帧中的脸部不一定处于自然状态(即无表情),因此,首先需要在所有视频帧中,找到脸部处于无表情,或者接近无表情的所有帧。此时,确定待建对象的脸部模型的整个过程可以参见图8所示,图8与图4相比增加了从视频帧中确定第一顶点数据的步骤。
由于采集数据中包括待建对象对应的视频帧的情况下,第一顶点数据所涉及的顶点主要指脸部中的关键点,有一部分关键点位于口部,如图9a所示,关键点例如为图9a中编号为1、2、……、6的点,当然也包括图9a标注出的其他点。通过分析脸部在无表情时候的状态可知,影响最大的为口部的张合。因此,本实施例通过判别口部是否闭合作为判别无表情的一个标志。同时,处于无表情时,头部往往不会倾斜,本实施例同样将头部姿态作为判断是否为无表情的标志。
故,在一种可能的实现方式中,从视频帧中确定第一顶点数据的方式可以是从采集数据中确定候选视频帧,候选视频帧中待建对象的头部姿态未倾斜;根据口部顶点坐标,从候选视频帧中确定目标视频帧,目标视频帧中待建对象的口部闭合;从目标视频帧中确定第一顶点数据。
其中,判断头部姿态未倾斜的方式可以是判断头部关键点的坐标相对于x,y,z轴的旋转角度,若满足预设条件则头部姿态为倾斜。当满足头部姿态未倾斜的情况下,判断口部是否闭合。
继续以图9a所示的口部关键点为例,介绍口部是否闭合的判断方式。当pti表示编号为i的关键点的像素坐标时,假设水平方向为x方向,垂直方向为y方向,判断口部是否闭合所依据的公式可以是:
其中,i,j分别是对应的口部上下嘴唇的关键点,pti,y代表上嘴唇的i关键点的y坐标,ptj,y代表下嘴唇的i关键点的y坐标,n为上下嘴唇分别对应的关键点的个数。
当dis小于预设阈值时,可以认为口部闭合,将该视频帧作为目标视频帧,由此得到所有脸部为无表情的目标视频帧。
其中预设阈值可以是根据视频帧的大小进行设置的,在本实施例中,根据视频帧的大小,预设阈值可以设置为30。
在本实施例中,除了可以针对待建对象的脸部进行建模外,还可以对待建对象的各种结构进行建模,得到待建对象的结构形象。应理解,用于建模的各种结构是待建对象的一个可形变组成部分,以待建对象是人为例,由于人的手、脚等可以发生形变(例如弯曲),则用于建模的结构可以是手、脚等。
为此,本申请实施例提供一种模型确定方法,参见图9b,所述方法包括:
S901、获取针对待建对象的采集数据。
其中,采集数据中包括对应待建对象的多组顶点数据,任意一组顶点数据用于标识采集数据中待建对象的一个结构形象,多组顶点数据包括第一顶点数据。该结构形象为待建对象的一个可形变组成部分的结构形象,以待建对象是人为例,则该结构形象可以是手的结构形象。
S902、根据第一顶点数据和用于标识目标结构模型的目标顶点数据,确定待建对象对应的初始结构参数。
本实施例中所涉及的结构参数(例如初始结构参数和后续的目标结构参数)体现了顶点数据相对于目标结构模型的结构变化程度。以结构形象是手的结构形象为例,结构参数可以包括手指长度、手指粗细、手掌宽度和厚度、手指的位置等等。当然,若结构形象是脸部的结构形象,结构参数即为前述实施例提到的捏脸参数。
其中,初始结构参数用于体现第一顶点数据所标识结构形象相对于目标结构模型的结构变化程度。
S903、根据从多组顶点数据中确定的一组第二顶点数据,基于初始结构参数和目标顶点数据确定形变参数。
其中,形变参数用于体现第二顶点数据所标识结构形象相对于第一结构模型的外形变化程度。以结构形象是手的结构形象为例,形变参数可以包括手指的弯曲程度等。第一结构模型为初始结构参数和目标顶点数据所标识的。
当然,若结构形象是脸部的结构形象,形变参数即为前述实施例提到的表情参数。
S904、根据第二顶点数据,基于形变参数和目标顶点数据确定目标结构参数。
其中,目标结构参数用于体现第二顶点数据所标识结构形象相对于第二结构模型的结构变化程度,第二结构模型为形变参数和目标顶点数据所标识的。
S905、根据目标结构参数和目标顶点数据,确定待建对象对应的结构模型。
需要说明的是,由于采集数据中包括多组顶点数据,这些顶点数据可以是在不同时间、不同装扮、不同拍摄角度下采集的,多组顶点数据之间有所差异。为了避免基于单个第二顶点数据提取形变参数而出现形变参数提取不到位的问题,在本实施例中可以采用多次迭代的方式提取形变参数,进而确定目标结构参数。例如,在执行S905之前,可以将目标结构参数作为初始结构参数,重复执行S903的步骤,直至满足目标条件。其中,目标条件可以是迭代次数达到预设次数等。
重复执行S903时所使用的第二顶点数据与前一次执行S903时所使用的第二顶点数据可以不同。通过重复提取形变参数,从而使得提取的形变参数较为准确,进而确定提高目标结构参数的准确性,以便建立的结构模型更为精确。
接下来,将结合实际应用场景对本申请实施例提供的基于人工智能的脸部模型确定方法进行介绍。
在该应用场景中,待建对象为主持人,希望仿照该主持人构建脸部模型用于新闻播报。为此,可以针对该主持人进行拍摄,得到该主持人的采集数据。根据采集数据中的第一顶点数据和3DMM库中的目标顶点数据M,采用捏脸算法确定该主持人对应的初始捏脸参数α0。然后,从采集数据中确定第二顶点数据,固定初始捏脸参数α0,采用捏表情算法确定表情参数β1。之后,固定表情参数β1,采用捏脸算法得到修正后的目标捏脸参数α1。将目标捏脸参数α1作为初始捏脸参数α0重新确定表情参数,通过多次迭代得到最终准确的目标捏脸参数,从而利用最终得到的目标捏脸参数和目标顶点数据M构建该主持人的脸部模型。这样,在新闻播报时,可以驱动该脸部模型做出与播报新闻的语音对应的表情。
基于前述实施例提供的方法,本实施例还提供一种基于人工智能的脸部模型确定装置。参见图10a,所述装置包括获取单元1001、第一确定单元1002、第二确定单元1003、第三确定单元1004和第四确定单元1005:
所述获取单元1001,用于获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组脸部顶点数据,任意一组脸部顶点数据用于标识所述采集数据中所述待建对象的一个脸部形象,所述多组脸部顶点数据中包括第一顶点数据;
所述第一确定单元1002,用于根据所述第一顶点数据和用于标识目标脸部模型的目标顶点数据,确定所述待建对象对应的初始捏脸参数,所述初始捏脸参数用于体现所述第一顶点数据所标识脸部形象相对于所述目标脸部模型的脸部变化程度;
所述第二确定单元1003,用于根据从所述多组脸部顶点数据中确定的一组第二顶点数据,基于所述初始捏脸参数和所述目标顶点数据确定表情参数;所述表情参数用于体现所述第二顶点数据所标识脸部形象相对于第一脸部模型的表情变化程度,所述第一脸部模型为所述初始捏脸参数和所述目标顶点数据所标识的;
所述第三确定单元1004,用于根据所述第二顶点数据,基于所述表情参数和所述目标顶点数据确定目标捏脸参数;所述目标捏脸参数用于体现所述第二顶点数据所标识脸部形象相对于第二脸部模型的脸部变化程度,所述第二脸部模型为所述表情参数和所述目标顶点数据所标识的;
所述第四确定单元1005,用于根据所述目标捏脸参数和所述目标顶点数据,确定所述待建对象对应的脸部模型。
在一种可能的实现方式中,在所述第四确定单元1005根据所述目标捏脸参数和所述目标顶点数据,确定所述待建对象对应的脸部模型之前,所述第二确定单元1003,还用于:
将所述目标捏脸参数作为所述初始捏脸参数,重复执行所述根据从所述多组脸部顶点数据中确定的一组第二顶点数据,基于所述初始捏脸参数和所述目标顶点数据确定表情参数的步骤,直至满足目标条件。
在一种可能的实现方式中,所述第三确定单元1004,用于:
根据所述第二顶点数据,基于所述表情参数、所述初始捏脸参数和所述目标顶点数据确定目标捏脸参数,所述第二脸部模型为所述表情参数、所述初始捏脸参数和所述目标顶点数据所标识的。
在一种可能的实现方式中,所述采集数据包括所述待建对象对应的脸部静态建模,和/或,所述采集数据包括所述待建对象对应的视频帧。
在一种可能的实现方式中,所述第一顶点数据用于标识所述待建对象处于无表情时的脸部形象;所述目标顶点数据用于标识处于无表情时的所述目标脸部模型。
在一种可能的实现方式中,若所述采集数据包括所述待建对象对应的视频帧,参见图10b,所述装置还包括第五确定单元1006:
所述第五确定单元1006,用于:
从所述采集数据中确定候选视频帧,所述候选视频帧中所述待建对象的头部姿态未倾斜;
根据口部顶点坐标,从所述候选视频帧中确定目标视频帧,所述目标视频帧中所述待建对象的口部闭合;
从所述目标视频帧中确定所述第一顶点数据。
在一种可能的实现方式中,所述第四确定单元1005,用于:
根据所述目标捏脸参数和所述目标顶点数据,生成所述待建对象对应的表情基,所述表情基用于标识所述待建对象对应的脸部模型处于不同表情时的3D网格。
本申请实施例还提供一种模型确定装置,参见图11a,所述装置包括获取单元1101、第一确定单元1102、第二确定单元1103、第三确定单元1104和第四确定单元1105:
所述获取单元1101,用于获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组顶点数据,任意一组顶点数据用于标识所述采集数据中所述待建对象的一个结构形象,所述多组顶点数据包括第一顶点数据;
所述第一确定单元1102,用于根据所述第一顶点数据和用于标识目标结构模型的目标顶点数据,确定所述待建对象对应的初始结构参数,所述初始结构参数用于体现所述第一顶点数据所标识结构形象相对于所述目标结构模型的结构变化程度;
所述第二确定单元1103,用于根据从所述多组顶点数据中确定的一组第二顶点数据,基于所述初始结构参数和所述目标顶点数据确定形变参数;所述形变参数用于体现所述第二顶点数据所标识结构形象相对于第一结构模型的外形变化程度,所述第一结构模型为所述初始结构参数和所述目标顶点数据所标识的;
所述第三确定单元1104,用于根据所述第二顶点数据,基于所述形变参数和所述目标顶点数据确定目标结构参数;所述目标结构参数用于体现所述第二顶点数据所标识结构形象相对于第二结构模型的结构变化程度,所述第二结构模型为所述形变参数和所述目标顶点数据所标识的;
所述第四确定单元1105,用于根据所述目标结构参数和所述目标顶点数据,确定所述待建对象对应的结构模型。
在一种可能的实现方式中,在所述第四确定单元1105根据所述目标结构参数和所述目标顶点数据,确定所述待建对象对应的结构模型之前,所述第二确定单元1103,还用于:
将所述目标结构参数作为所述初始结构参数,重复执行所述根据从所述多组第一类顶点数据中确定的一组第二顶点数据,基于所述初始结构参数和所述目标顶点数据确定形变参数的步骤,直至满足目标条件。
本申请实施例还提供了一种设备,该设备可以基于人工智能确定脸部模型。下面结合附图对该设备进行介绍。请参见图11b所示,本申请实施例提供了一种的设备1100,该设备1100还可以是终端设备,该终端设备可以为包括手机、平板电脑、个人数字助理(Personal Digital Assistant,简称PDA)、销售终端(Point of Sales,简称POS)、车载电脑等任意智能终端,以终端设备为手机为例:
图11b示出的是与本申请实施例提供的终端设备相关的手机的部分结构的框图。参考图11b,手机包括:射频(Radio Frequency,简称RF)电路1110、存储器1120、输入单元1130、显示单元1140、传感器1150、音频电路1160、无线保真(wireless fidelity,简称WiFi)模块1170、处理器1180、以及电源1190等部件。本领域技术人员可以理解,图11b中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图11b对手机的各个构成部件进行具体的介绍:
RF电路1110可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器1180处理;另外,将设计上行的数据发送给基站。通常,RF电路1110包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low NoiseAmplifier,简称LNA)、双工器等。此外,RF电路1110还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System of Mobile communication,简称GSM)、通用分组无线服务(GeneralPacket Radio Service,简称GPRS)、码分多址(Code Division Multiple Access,简称CDMA)、宽带码分多址(Wideband Code Division Multiple Access,简称WCDMA)、长期演进(Long Term Evolution,简称LTE)、电子邮件、短消息服务(Short Messaging Service,简称SMS)等。
存储器1120可用于存储软件程序以及模块,处理器1180通过运行存储在存储器1120的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器1120可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1120可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元1130可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元1130可包括触控面板1131以及其他输入设备1132。触控面板1131,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1131上或在触控面板1131附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1131可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1180,并能接收处理器1180发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1131。除了触控面板1131,输入单元1130还可以包括其他输入设备1132。具体地,其他输入设备1132可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1140可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元1140可包括显示面板1141,可选的,可以采用液晶显示器(LiquidCrystal Display,简称LCD)、有机发光二极管(Organic Light-Emitting Diode,简称OLED)等形式来配置显示面板1141。进一步的,触控面板1131可覆盖显示面板1141,当触控面板1131检测到在其上或附近的触摸操作后,传送给处理器1180以确定触摸事件的类型,随后处理器1180根据触摸事件的类型在显示面板1141上提供相应的视觉输出。虽然在图11b中,触控面板1131与显示面板1141是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板1131与显示面板1141集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器1150,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1141的亮度,接近传感器可在手机移动到耳边时,关闭显示面板1141和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路1160、扬声器1161,传声器1162可提供用户与手机之间的音频接口。音频电路1160可将接收到的音频数据转换后的电信号,传输到扬声器1161,由扬声器1161转换为声音信号输出;另一方面,传声器1162将收集的声音信号转换为电信号,由音频电路1160接收后转换为音频数据,再将音频数据输出处理器1180处理后,经RF电路1110以发送给比如另一手机,或者将音频数据输出至存储器1120以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块1170可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图11b示出了WiFi模块1170,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器1180是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1120内的软件程序和/或模块,以及调用存储在存储器1120内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器1180可包括一个或多个处理单元;优选的,处理器1180可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1180中。
手机还包括给各个部件供电的电源1190(比如电池),优选的,电源可以通过电源管理系统与处理器1180逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本实施例中,该终端设备所包括的处理器1180还具有以下功能:
获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组脸部顶点数据,任意一组脸部顶点数据用于标识所述采集数据中所述待建对象的一个脸部形象,第一顶点数据为所述多组脸部顶点数据中的一组;
根据所述第一顶点数据和用于标识目标脸部模型的目标顶点数据,确定所述待建对象对应的初始捏脸参数,所述初始捏脸参数用于体现所述第一顶点数据所标识脸部形象相对于所述目标脸部模型的脸部变化程度;
根据从所述多组脸部顶点数据中确定的一组第二顶点数据,基于所述初始捏脸参数和所述目标顶点数据确定表情参数;所述表情参数用于体现所述第二顶点数据所标识脸部形象相对于第一脸部模型的表情变化程度,所述第一脸部模型为所述初始捏脸参数和所述目标顶点数据所标识的;
根据所述第二顶点数据,基于所述表情参数和所述目标顶点数据确定目标捏脸参数;所述目标捏脸参数用于体现所述第二顶点数据所标识脸部形象相对于第二脸部模型的脸部变化程度,所述第二脸部模型为所述表情参数和所述目标顶点数据所标识的;
根据所述目标捏脸参数和所述目标顶点数据,确定所述待建对象对应的脸部模型。
或,
获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组顶点数据,任意一组顶点数据用于标识所述采集数据中所述待建对象的一个结构形象,所述多组顶点数据包括第一顶点数据;
根据所述第一顶点数据和用于标识目标结构模型的目标顶点数据,确定所述待建对象对应的初始结构参数,所述初始结构参数用于体现所述第一顶点数据所标识结构形象相对于所述目标结构模型的结构变化程度;
根据从所述多组顶点数据中确定的一组第二顶点数据,基于所述初始结构参数和所述目标顶点数据确定形变参数;所述形变参数用于体现所述第二顶点数据所标识结构形象相对于第一结构模型的外形变化程度,所述第一结构模型为所述初始结构参数和所述目标顶点数据所标识的;
根据所述第二顶点数据,基于所述形变参数和所述目标顶点数据确定目标结构参数;所述目标结构参数用于体现所述第二顶点数据所标识结构形象相对于第二结构模型的结构变化程度,所述第二结构模型为所述形变参数和所述目标顶点数据所标识的;
根据所述目标结构参数和所述目标顶点数据,确定所述待建对象对应的结构模型。
本申请实施例还提供服务器,请参见图12所示,图12为本申请实施例提供的服务器1200的结构图,服务器1200可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(Central Processing Units,简称CPU)1222(例如,一个或一个以上处理器)和存储器1232,一个或一个以上存储应用程序1242或数据1244的存储介质1230(例如一个或一个以上海量存储设备)。其中,存储器1232和存储介质1230可以是短暂存储或持久存储。存储在存储介质1230的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1222可以设置为与存储介质1230通信,在服务器1200上执行存储介质1230中的一系列指令操作。
服务器1200还可以包括一个或一个以上电源1226,一个或一个以上有线或无线网络接口1250,一个或一个以上输入输出接口1258,和/或,一个或一个以上操作系统1241,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于该图12所示的服务器结构。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行前述各个实施例所述的基于人工智能的脸部模型或模型确定方法。
本申请实施例还提供一种包括指令的计算机程序产品,当其在计算机上运行时,使得计算机执行前述各个实施例所述的基于人工智能的脸部模型或模型确定。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (15)
1.一种脸部模型确定方法,其特征在于,所述方法包括:
获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组脸部顶点数据,任意一组脸部顶点数据用于标识所述采集数据中所述待建对象的一个脸部形象,所述多组脸部顶点数据包括第一顶点数据;
根据所述第一顶点数据和用于标识目标脸部模型的目标顶点数据,确定所述待建对象对应的初始捏脸参数,所述初始捏脸参数用于体现所述第一顶点数据所标识脸部形象相对于所述目标脸部模型的脸部变化程度;
根据从所述多组脸部顶点数据中确定的一组第二顶点数据,基于所述初始捏脸参数和所述目标顶点数据确定表情参数;所述表情参数用于体现所述第二顶点数据所标识脸部形象相对于第一脸部模型的表情变化程度,所述第一脸部模型为所述初始捏脸参数和所述目标顶点数据所标识的;
根据所述第二顶点数据,基于所述表情参数和所述目标顶点数据确定目标捏脸参数;所述目标捏脸参数用于体现所述第二顶点数据所标识脸部形象相对于第二脸部模型的脸部变化程度,所述第二脸部模型为所述表情参数和所述目标顶点数据所标识的;
根据所述目标捏脸参数和所述目标顶点数据,确定所述待建对象对应的脸部模型。
2.根据权利要求1所述的方法,其特征在于,在所述根据所述目标捏脸参数和所述目标顶点数据,确定所述待建对象对应的脸部模型之前,所述方法还包括:
将所述目标捏脸参数作为所述初始捏脸参数,重复执行所述根据从所述多组脸部顶点数据中确定的一组第二顶点数据,基于所述初始捏脸参数和所述目标顶点数据确定表情参数的步骤,直至满足目标条件。
3.根据权利要求1所述的方法,其特征在于,所述根据所述第二顶点数据,基于所述表情参数和所述目标顶点数据确定目标捏脸参数,包括:
根据所述第二顶点数据,基于所述表情参数、所述初始捏脸参数和所述目标顶点数据确定目标捏脸参数,所述第二脸部模型为所述表情参数、所述初始捏脸参数和所述目标顶点数据所标识的。
4.根据权利要求1所述的方法,其特征在于,所述采集数据包括所述待建对象对应的脸部静态建模,和/或,所述采集数据包括所述待建对象对应的视频帧。
5.根据权利要求1-4任意一项所述的方法,其特征在于,所述第一顶点数据用于标识所述待建对象处于无表情时的脸部形象;所述目标顶点数据用于标识处于无表情时的所述目标脸部模型。
6.根据权利要求5所述的方法,其特征在于,若所述采集数据包括所述待建对象对应的视频帧,所述方法还包括:
从所述采集数据中确定候选视频帧,所述候选视频帧中所述待建对象的头部姿态未倾斜;
根据口部顶点坐标,从所述候选视频帧中确定目标视频帧,所述目标视频帧中所述待建对象的口部闭合;
从所述目标视频帧中确定所述第一顶点数据。
7.根据权利要求1-4任意一项所述的方法,其特征在于,所述根据所述目标捏脸参数和所述目标顶点数据,确定所述待建对象对应的脸部模型,包括:
根据所述目标捏脸参数和所述目标顶点数据,生成所述待建对象对应的表情基,所述表情基用于标识所述待建对象对应的脸部模型处于不同表情时的3D网格。
8.一种模型确定方法,其特征在于,所述方法包括:
获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组顶点数据,任意一组顶点数据用于标识所述采集数据中所述待建对象的一个结构形象,所述多组顶点数据包括第一顶点数据;
根据所述第一顶点数据和用于标识目标结构模型的目标顶点数据,确定所述待建对象对应的初始结构参数,所述初始结构参数用于体现所述第一顶点数据所标识结构形象相对于所述目标结构模型的结构变化程度;
根据从所述多组顶点数据中确定的一组第二顶点数据,基于所述初始结构参数和所述目标顶点数据确定形变参数;所述形变参数用于体现所述第二顶点数据所标识结构形象相对于第一结构模型的外形变化程度,所述第一结构模型为所述初始结构参数和所述目标顶点数据所标识的;
根据所述第二顶点数据,基于所述形变参数和所述目标顶点数据确定目标结构参数;所述目标结构参数用于体现所述第二顶点数据所标识结构形象相对于第二结构模型的结构变化程度,所述第二结构模型为所述形变参数和所述目标顶点数据所标识的;
根据所述目标结构参数和所述目标顶点数据,确定所述待建对象对应的结构模型。
9.根据权利要求8所述的方法,其特征在于,在所述根据所述目标结构参数和所述目标顶点数据,确定所述待建对象对应的结构模型之前,所述方法还包括:
将所述目标结构参数作为所述初始结构参数,重复执行所述根据从多组第一类顶点数据中确定的一组第二顶点数据,基于所述初始结构参数和所述目标顶点数据确定形变参数的步骤,直至满足目标条件。
10.一种脸部模型确定装置,其特征在于,所述装置包括获取单元、第一确定单元、第二确定单元、第三确定单元和第四确定单元:
所述获取单元,用于获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组脸部顶点数据,任意一组脸部顶点数据用于标识所述采集数据中所述待建对象的一个脸部形象,所述多组脸部顶点数据包括第一顶点数据;
所述第一确定单元,用于根据所述第一顶点数据和用于标识目标脸部模型的目标顶点数据,确定所述待建对象对应的初始捏脸参数,所述初始捏脸参数用于体现所述第一顶点数据所标识脸部形象相对于所述目标脸部模型的脸部变化程度;
所述第二确定单元,用于根据从所述多组脸部顶点数据中确定的一组第二顶点数据,基于所述初始捏脸参数和所述目标顶点数据确定表情参数;所述表情参数用于体现所述第二顶点数据所标识脸部形象相对于第一脸部模型的表情变化程度,所述第一脸部模型为所述初始捏脸参数和所述目标顶点数据所标识的;
所述第三确定单元,用于根据所述第二顶点数据,基于所述表情参数和所述目标顶点数据确定目标捏脸参数;所述目标捏脸参数用于体现所述第二顶点数据所标识脸部形象相对于第二脸部模型的脸部变化程度,所述第二脸部模型为所述表情参数和所述目标顶点数据所标识的;
所述第四确定单元,用于根据所述目标捏脸参数和所述目标顶点数据,确定所述待建对象对应的脸部模型。
11.根据权利要求10所述的装置,其特征在于,在所述第四确定单元根据所述目标捏脸参数和所述目标顶点数据,确定所述待建对象对应的脸部模型之前,所述第二确定单元,还用于:
将所述目标捏脸参数作为所述初始捏脸参数,重复执行所述根据从所述多组脸部顶点数据中确定的一组第二顶点数据,基于所述初始捏脸参数和所述目标顶点数据确定表情参数的步骤,直至满足目标条件。
12.根据权利要求10所述的装置,其特征在于,所述第三确定单元,用于:
根据所述第二顶点数据,基于所述表情参数、所述初始捏脸参数和所述目标顶点数据确定目标捏脸参数,所述第二脸部模型为所述表情参数、所述初始捏脸参数和所述目标顶点数据所标识的。
13.一种模型确定装置,其特征在于,所述装置包括获取单元、第一确定单元、第二确定单元、第三确定单元和第四确定单元:
所述获取单元,用于获取针对待建对象的采集数据;所述采集数据中包括对应所述待建对象的多组顶点数据,任意一组顶点数据用于标识所述采集数据中所述待建对象的一个结构形象,所述多组顶点数据包括第一顶点数据;
所述第一确定单元,用于根据所述第一顶点数据和用于标识目标结构模型的目标顶点数据,确定所述待建对象对应的初始结构参数,所述初始结构参数用于体现所述第一顶点数据所标识结构形象相对于所述目标结构模型的结构变化程度;
所述第二确定单元,用于根据从所述多组顶点数据中确定的一组第二顶点数据,基于所述初始结构参数和所述目标顶点数据确定形变参数;所述形变参数用于体现所述第二顶点数据所标识结构形象相对于第一结构模型的外形变化程度,所述第一结构模型为所述初始结构参数和所述目标顶点数据所标识的;
所述第三确定单元,用于根据所述第二顶点数据,基于所述形变参数和所述目标顶点数据确定目标结构参数;所述目标结构参数用于体现所述第二顶点数据所标识结构形象相对于第二结构模型的结构变化程度,所述第二结构模型为所述形变参数和所述目标顶点数据所标识的;
所述第四确定单元,用于根据所述目标结构参数和所述目标顶点数据,确定所述待建对象对应的结构模型。
14.一种基于人工智能确定脸部模型的设备,其特征在于,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-9任一项所述的方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行权利要求1-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910816788.6A CN110517340B (zh) | 2019-08-30 | 2019-08-30 | 一种基于人工智能的脸部模型确定方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910816788.6A CN110517340B (zh) | 2019-08-30 | 2019-08-30 | 一种基于人工智能的脸部模型确定方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110517340A CN110517340A (zh) | 2019-11-29 |
CN110517340B true CN110517340B (zh) | 2020-10-23 |
Family
ID=68629605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910816788.6A Active CN110517340B (zh) | 2019-08-30 | 2019-08-30 | 一种基于人工智能的脸部模型确定方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110517340B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111325846B (zh) * | 2020-02-13 | 2023-01-20 | 腾讯科技(深圳)有限公司 | 表情基确定方法、虚拟形象驱动方法、装置及介质 |
CN111768488B (zh) * | 2020-07-07 | 2023-12-29 | 网易(杭州)网络有限公司 | 一种虚拟角色脸部模型的处理方法和装置 |
CN112699791A (zh) * | 2020-12-29 | 2021-04-23 | 百果园技术(新加坡)有限公司 | 虚拟对象的脸部生成方法、装置、设备和可读存储介质 |
CN113808277B (zh) * | 2021-11-05 | 2023-07-18 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及相关装置 |
CN114529640B (zh) * | 2022-02-17 | 2024-01-26 | 北京字跳网络技术有限公司 | 一种运动画面生成方法、装置、计算机设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101944238A (zh) * | 2010-09-27 | 2011-01-12 | 浙江大学 | 基于拉普拉斯变换的数据驱动人脸表情合成方法 |
CN104040593A (zh) * | 2012-01-12 | 2014-09-10 | 阿尔卡特朗讯 | 用于3d模型变形的方法和装置 |
CN106327571A (zh) * | 2016-08-23 | 2017-01-11 | 北京的卢深视科技有限公司 | 一种三维人脸建模方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4760349B2 (ja) * | 2005-12-07 | 2011-08-31 | ソニー株式会社 | 画像処理装置および画像処理方法、並びに、プログラム |
CN101916454B (zh) * | 2010-04-08 | 2013-03-27 | 董洪伟 | 基于网格变形和连续优化的高分辨率人脸重建方法 |
CN103116902A (zh) * | 2011-11-16 | 2013-05-22 | 华为软件技术有限公司 | 三维虚拟人头像生成方法、人头像运动跟踪方法和装置 |
-
2019
- 2019-08-30 CN CN201910816788.6A patent/CN110517340B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101944238A (zh) * | 2010-09-27 | 2011-01-12 | 浙江大学 | 基于拉普拉斯变换的数据驱动人脸表情合成方法 |
CN104040593A (zh) * | 2012-01-12 | 2014-09-10 | 阿尔卡特朗讯 | 用于3d模型变形的方法和装置 |
CN106327571A (zh) * | 2016-08-23 | 2017-01-11 | 北京的卢深视科技有限公司 | 一种三维人脸建模方法及装置 |
Non-Patent Citations (2)
Title |
---|
Reconstructing 3D Face Model with Associated Expression Deformation from a Single Face Image via Constructing a Low-Dimensional Expression Deformation Manifold;Shu-Fan Wang 等;《 IEEE Transactions on Pattern Analysis and Machine Intelligence》;20111031;第33卷(第10期);第2115-2121页 * |
面向虚拟化身的人脸表情模拟技术;姚世明 等;《图学学报》;20190630;第40卷(第3期);第525-531页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110517340A (zh) | 2019-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11605193B2 (en) | Artificial intelligence-based animation character drive method and related apparatus | |
CN110517340B (zh) | 一种基于人工智能的脸部模型确定方法和装置 | |
CN111652121B (zh) | 一种表情迁移模型的训练方法、表情迁移的方法及装置 | |
EP3992845A1 (en) | Action identification method based on artificial intelligence and related apparatus | |
CN110517339B (zh) | 一种基于人工智能的动画形象驱动方法和装置 | |
WO2020253663A1 (zh) | 基于人工智能的图像区域识别方法、模型训练方法及装置 | |
CN110163054B (zh) | 一种人脸三维图像生成方法和装置 | |
CN109949412B (zh) | 一种三维对象重建方法和装置 | |
EP3805982B1 (en) | Gesture recognition method, apparatus and device | |
CN108184050B (zh) | 一种拍照方法、移动终端 | |
CN111340211B (zh) | 一种动作控制模型的训练方法、相关装置及存储介质 | |
CN108985220B (zh) | 一种人脸图像处理方法、装置及存储介质 | |
CN111225237B (zh) | 一种视频的音画匹配方法、相关装置以及存储介质 | |
CN111009031B (zh) | 一种人脸模型生成的方法、模型生成的方法及装置 | |
CN109426343B (zh) | 基于虚拟现实的协作训练方法及系统 | |
CN115244495A (zh) | 针对虚拟环境运动的实时式样 | |
CN111556337B (zh) | 一种媒体内容植入方法、模型训练方法以及相关装置 | |
CN111914106B (zh) | 纹理与法线库构建方法、纹理与法线图生成方法及装置 | |
CN115171196B (zh) | 人脸图像处理方法、相关装置及存储介质 | |
CN115578542A (zh) | 三维模型的处理方法、装置、设备及计算机可读存储介质 | |
CN112037315A (zh) | 一种局部描述子的生成方法、模型生成的方法及装置 | |
CN113559500B (zh) | 动作数据的生成方法、装置、电子设备及存储介质 | |
CN112948273B (zh) | 一种游戏资源的测试方法、相关装置、设备及存储介质 | |
CN109636898B (zh) | 3d模型生成方法及终端 | |
CN114550185B (zh) | 一种文档生成的方法、相关装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |