CN112541956A - 动画合成方法、装置、移动终端和电子设备 - Google Patents

动画合成方法、装置、移动终端和电子设备 Download PDF

Info

Publication number
CN112541956A
CN112541956A CN202011226145.5A CN202011226145A CN112541956A CN 112541956 A CN112541956 A CN 112541956A CN 202011226145 A CN202011226145 A CN 202011226145A CN 112541956 A CN112541956 A CN 112541956A
Authority
CN
China
Prior art keywords
lip
voice
model
animation
lip movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011226145.5A
Other languages
English (en)
Inventor
鲍冠伯
刘玉强
彭哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202011226145.5A priority Critical patent/CN112541956A/zh
Publication of CN112541956A publication Critical patent/CN112541956A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请公开了动画合成方法、装置、移动终端和电子设备,涉及计算机技术领域,具体涉及语音技术和深度学习等人工智能技术领域。具体实现方案为:获取声音文件;获取声音文件;获取声音文件中的语音识别特征;根据唇动参数获取模型对语音识别特征进行处理,以获取语音唇动参数;以及根据语音唇动参数和人脸模型生成唇动动画。本申请实施例的动画合成方法,通过将语音识别特征作为语音唇动参数提取的输入特征,无需音素时长,且能够做到音色无关,既可提升合成效率,又可减少合成误差。

Description

动画合成方法、装置、移动终端和电子设备
技术领域
本申请涉及计算机技术领域,具体涉及语音技术和深度学习等人工智能技术领域,尤其涉及一种动画合成方法、装置、移动终端和电子设备。
背景技术
模态合成是TTS(TextToSpeech,从文本到语音)的扩展,目标是合成与合成声音相匹配的动画形象,其中最核心和关键的是合成形象的唇动唇形需要与语音相匹配。
然而,现有的3D唇动合成基本都是基于驱动Blendshape(混合形状)变形器的方案,输入特征多种多样,有的是文本特征,有的是语音的梅尔频谱,并且现有的方案中很多要使用音素时长,并且都不是面向移动端的。
发明内容
本公开提供了一种动画合成方法、装置、移动终端和电子设备。
根据第一方面,提供了一种动画合成方法,包括:
获取声音文件;
获取所述声音文件中的语音识别特征;
根据唇动参数获取模型对所述语音识别特征进行处理,以获取语音唇动参数;以及
根据所述语音唇动参数和人脸模型生成唇动动画。
本申请实施例的动画合成方法,首先获取声音文件,并获取声音文件中的语音识别特征,然后根据唇动参数获取模型对语音识别特征进行处理,以获取语音唇动参数,最后根据语音唇动参数和人脸模型生成唇动动画。由此,通过将语音识别特征作为语音唇动参数提取的输入特征,无需音素时长,且能够做到音色无关,既可提升合成效率,又可减少合成误差。
根据第二方面,提供了一种动画合成装置,包括:
第一获取模块,用于获取声音文件;
第二获取模块,用于获取所述声音文件中的语音识别特征;
第三获取模块,用于根据唇动参数获取模型对所述语音识别特征进行处理,以获取语音唇动参数;以及
生成模块,用于根据所述语音唇动参数和人脸模型生成唇动动画。
本申请实施例的动画合成装置,通过第一获取模块获取声音文件,通过第二获取模块获取声音文件中的语音识别特征,通过第三获取模块根据唇动参数获取模型对语音识别特征进行处理,以获取语音唇动参数;通过生成模块根据语音唇动参数和人脸模型生成唇动动画。由此,通过将语音识别特征作为语音唇动参数提取的输入特征,无需音素时长,且能够做到音色无关,既可提升合成效率,又可减少合成误差。
根据第三方面,提供了一种移动终端,包括上述一方面实施例所述的动画合成装置。
本申请实施例的移动终端,通过上述动画合成装置,将语音识别特征作为语音唇动参数提取的输入特征,无需音素时长,且能够做到音色无关,既可提升合成效率,又可减少合成误差。
根据第四方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述一方面实施例所述的动画合成方法。
根据第五方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其上存储有计算机程序,所述计算机指令用于使所述计算机执行上述一方面实施例所述的动画合成方法。
根据本申请的技术解决了相关技术中,唇动合成基本都是基于驱动Blendshape变形器的方案,输入特征多种多样,有的是文本特征,有的是语音的梅尔频谱,并且现有的方案中很多要使用音素时长,且无法做到音色无关,导致合成效率较低,误差较大的问题。同时减少了唇动动画合成需求的带宽。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请实施例提供的一种动画合成方法的流程示意图;
图2是本申请实施例提供的另一种动画合成方法的流程示意图;
图3是本申请实施例提供的又一种动画合成方法的流程示意;
图4是本申请实施例提供的一种动画合成装置的方框示意图;
图5是本申请实施例提供的另一种动画合成装置的方框示意图;
图6是本申请实施例提供的一种移动终端的方框示意图;以及
图7是根据本申请实施例的动画合成方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面参考附图描述本申请实施例的动画合成方法、装置、移动终端、电子设备和存储介质。
本申请实施例,针对相关技术中,唇动合成基本都是基于驱动Blendshape变形器的方案,输入特征多种多样,有的是文本特征,有的是语音的梅尔频谱,并且现有的方案中很多要使用音素时长,且无法做到音色无关,导致合成效率较低,误差较大的问题,提出了一种动画合成方法。
本申请实施例的动画合成方法,根据唇动参数获取模型对从声音文件中获取的语音识别特征进行处理,以获取语音唇动参数,并根据语音唇动参数和人脸模型生成唇动动画,解决了上述相关技术中的问题,同时减少了唇动动画合成需求的带宽。
本申请实施例提供的动画合成方法,可以由电子设备来执行,该电子设备可为PC(Personal Computer,个人计算机)电脑、平板电脑或掌上电脑等,此处不做任何限定。
在本申请实施例中,电子设备中可以设置有处理组件、存储组件和驱动组件。可选的,该驱动组件和处理组件可以集成设置,该存储组件可以存储操作系统、应用程序或其他程序模块,该处理组件通过执行存储组件中存储的应用程序来实现本申请实施例提供的动画合成方法。
图1是本申请实施例提供的一种动画合成方法的流程示意图。
本申请实施例的动画合成方法,还可由本申请实施例提供的动画合成装置执行,该装置可配置于移动终端中,以实现根据唇动参数获取模型对从声音文件中获取的语音识别特征进行处理,以获取语音唇动参数,并根据语音唇动参数和人脸模型生成唇动动画。应说明的是,该实施例中所描述的装置还可配置于电子设备中。
作为一种可能的情况,本申请实施例的动画合成方法还可以在服务器端执行,服务器可以为云服务器,可以在云端执行该动画合成方法。
在本申请实施例中,本申请实施例的动画合成方法可应用在搜索虚拟助理APP(Application,应用程序)上,且该搜索虚拟助理APP可安装在移动终端上。应说明的是,该实施例中所描述的搜索虚拟助理APP的应用界面上可包含一个人脸(人物)模型,用户可通过语音与该人脸(人物)模型进行互动,比如,用户询问“今天的天气如何”,该人脸(人物)模型可进行语音回答,例如“今天气温13-20度,多云”。
如图1所示,该动画合成方法可以包括以下步骤:
步骤101,获取声音文件。其中,该声音文件可为WAV格式的文件。
为了更好描述本申请,将本申请实施例的动画合成方法应用在搜索虚拟助理APP上为例,其中,移动终端可通过搜索虚拟助理APP获取声音文件,应说明的是,该声音文件可为该搜索虚拟助理APP中人脸模型回复用户询问的声音文件。
具体地,当用户需要使用上述的搜索虚拟助理APP时,先在移动终端中启动该搜索虚拟助理APP进入应用界面,然后用户在该应用界面可通过语音或文字进行询问,该搜索虚拟助理APP接收到询问的内容,并基于询问的内容,联网进行查找,并将查找到的答案信息转化为声音文件。
步骤102,获取声音文件中的语音识别特征。应说明的是,该实施例中所描述的语音识别特征可为语音的近场识别特征,该近场识别特征可做到音色无关。
步骤103,根据唇动参数获取模型对语音识别特征进行处理,以获取语音唇动参数。其中,该唇动参数获取模型可为单向循环神经网络模型。
需要说明的是,该实施例中所描述的唇动参数获取模型可以是提前训练好的,并将其预存在移动终端的存储空间中,以方便调取应用,该存储空间不仅限于基于实体的存储空间,例如,硬盘,上述存储空间还可以是连接移动终端的网络硬盘的存储空间(云存储空间)。
具体地,移动终端在通过搜索虚拟助理APP获取到声音文件后,还可通过该搜索虚拟助理APP获取声音文件中的语音识别特征,然后将该语音识别特征输入至唇动参数获取模型,从而通过该唇动参数获取模型对该语音识别特征进行处理,以从该语音识别特征中提取出语音唇动参数。
步骤104,根据语音唇动参数和人脸模型生成唇动动画。其中,该人脸模型可为3D人脸模型。
具体地,移动终端在通过搜索虚拟助理APP获取到语音唇动参数后,可通过该搜索虚拟助理APP将该语音唇动参数代入人脸模型进行计算,以生成唇动动画,其中,上述的计算过程可依据预设的算法,该预设的算法可根据实际情况进行标定,此处不做任何限定。
在本申请实施例中,首先获取声音文件,并获取声音文件中的语音识别特征,然后根据唇动参数获取模型对语音识别特征进行处理,以获取语音唇动参数,最后根据语音唇动参数和人脸模型生成唇动动画。由此,通过将语音识别特征作为语音唇动参数提取的输入特征,无需音素时长,且能够做到音色无关,既可提升合成效率,又可减少合成误差。
为了清楚说明上一实施例,在本申请的一个实施例中,根据语音唇动参数和人脸模型生成唇动动画,可包括将人脸模型转化为人脸网格模型,并将语音唇动参数代入人脸网格模型进行计算,以生成唇动动画。
需要说明的是,假设人脸模型为3D人脸模型,则该实施例中所描述的人脸网格模型中可包括至少一个三维坐标系和多个特征点。
具体地,移动终端在通过搜索虚拟助理APP获取到语音唇动参数后,可先将人脸模型转化为人脸网格模型,并将语音唇动参数代入人脸网格模型进行计算,以得到人脸网格模型中嘴唇附近特征点的向量,并通过执行人脸网格模型中嘴唇附近特征点的向量生成唇动动画,由此,无需使用GPU(Graphics Processing Unit,图形处理器)集群的渲染农场进行绘制,可以大大减少唇动动画合成需求的带宽。
为了提升唇动动画合成的精确度,在本申请的一个实施例中,获取声音文件中的语音识别特征,可包括将声音文件输入至近场识别模型,并通过近场识别模型提取声音文件中的语音信息,以得到语音识别特征。
需要说明的是,该实施例中所描述的近场识别模型可以预存在移动终端的存储空间中,以方便调取应用,该存储空间不仅限于基于实体的存储空间,例如,硬盘,上述存储空间还可以是连接移动终端的网络硬盘的存储空间(云存储空间)。
具体地,移动终端在通过搜索虚拟助理APP获取到声音文件后,还可通过该搜索虚拟助理APP将该声音文件输入至近场识别模型,该近场识别模型提取声音文件中的语音信息,并对该语音信息进行相关的处理,从而得到语音识别特征。由此,通过该近场识别模型得到的语音识别特征,可做到音色无关,从而提升唇动动画合成的精确度。
为了进一步提高获取唇动参数的精确度,在本申请的一个实施例中,如图2所示,唇动参数获取模型可通过以下方式训练得到:
步骤201,获取样本人脸视频和对应的声音。其中,样本人脸视频和对应的声音可以是多个。
在本申请实施例中,获取样本人脸视频和对应的声音的途径有多条,其中,可通过视频设备采集多个发言人说话时的人脸视频和对应的声音,或者,直接获取网络中的视频(例如,新闻联播的主持人说话时的视频),将其作为样本人脸视频和对应的声音。
步骤202,根据所述近场识别模型对所述声音进行处理,以获取样本语音识别特征。
步骤203,根据人脸建模模型对所述样本人脸视频进行处理,以获取目标唇动参数。其中,该人脸建模模型可为3DMM人脸建模模型。
需要说明的是,该实施例中所描述的人脸建模模型可以预存在移动终端的存储空间中,以方便调取应用。
具体地,在获取到样本人脸视频和对应的声音后,可将样本人脸视频输入至人脸建模模型进行处理,以得到目标唇动参数,应说明的是,该实施例中所描述的目标唇动参数可为一种脸部的形变系数。将该声音输入至近场识别模型进行处理,从而得到样本语音识别特征。
步骤204,将样本语音识别特征输入唇动参数获取模型,以生成预测的语音唇动参数。
步骤205,根据预测的语音唇动参数和目标唇动参数生成损失值,并根据损失值对唇动参数获取模型进行训练。
具体地,获取到样本语音识别特征后,可将该样本语音识别特征输入唇动参数获取模型以生成预测的语音唇动参数,并根据预测的语音唇动参数和目标唇动参数生成损失值,以及根据损失值对唇动参数获取模型进行训练,从而优化唇动参数获取模型进,进一步提高获取唇动参数的精确度。
在本申请实施例中,唇动参数获取模型的训练与生成可由相关的服务器进行,该服务器可以是云端服务器,也可以是一台电脑的主机,该服务器与可执行申请实施例提供的动画合成方法的移动终端(或电子设备)之间,建立有通信连接,该通信连接可以是无线网络连接和有线网络连接的至少一种。服务器可将训练完成的唇动参数获取模型发送给移动终端(或电子设备),以便移动终端(或电子设备)在需要时调用,从而大大减少移动终端(或电子设备)的计算压力。
为了使合成的唇动动画更加的自然和精确,在本申请的一个实施例中,如图3示,该动画合成方法还可以包括以下步骤:
步骤301,获取人脸模型的迁移权重。
需要说明的是,该实施例中所描述的迁移权重可以是相对于不同的移动终端的系统而言的,例如,不同品牌的移动终端系统,是由不同的美术工程师设计的,然而每个人的设计上肯定有所差异,因此相同的语音唇动参数放在不同移动终端系统中的人脸模型上时,作用到形变后唇动的形状并不一样。
在本申请实施例中,为了解决上述的问题,现将人脸模型放入某个品牌的移动终端系统中,而后将该人脸模型转化为人脸网格模型,并得到该人脸网格模型中多个特征点的坐标,最后将该多个特征点的坐标与预设的多个特征点的标准坐标进行比对计算,从而获得多个特征点的坐标与预设的多个特征点的标准坐标之间的差异值(例如,位移向量),并可将其作为该人脸模型相对于某个品牌的移动终端系统的迁移权重。
步骤302,根据迁移权重和语音唇动参数,获取加权唇动参数。
在本申请的一个实施例中,可通过以下公式(1)获取加权唇动参数:
bs2=bs1*W (1)
其中,bs2为加权唇动参数,bs1为语音唇动参数,W为迁移权重。
步骤303,根据加权唇动参数和人脸模型生成唇动动画。
具体地,在获取到人脸模型的迁移权重之后,可通过上述的公式(1)将该迁移权重和语音唇动参数进行相乘,以得到加权唇动参数。然后将人脸模型转化为人脸网格模型,并将该加权唇动参数代入人脸网格模型进行计算,以得到人脸网格模型中嘴唇附近特征点的向量,并通过执行人脸网格模型中嘴唇附近特征点的向量生成唇动动画,从而可以避免因不同的移动终端系统,相同的语音唇动参数作用到形变后唇动的形状并不一样的问题,使合成的唇动动画更加的自然和精确。
图4是本申请实施例提供的一种动画合成装置的方框示意图。
本申请实施例的动画合成装置,可配置于移动终端中,以实现根据唇动参数获取模型对从声音文件中获取的语音识别特征进行处理,以获取语音唇动参数,并根据语音唇动参数和人脸模型生成唇动动画。应说明的是,该实施例中所描述的装置还可配置于电子设备中。
在本申请实施例中,本申请实施例的动画合成装置可应用在搜索虚拟助理APP(Appli cation,应用程序)上,且该搜索虚拟助理APP可安装在移动终端上。应说明的是,该实施例中所描述的搜索虚拟助理APP的应用界面上可包含一个人脸(人物)模型,用户可通过语音与该人脸(人物)模型进行互动,比如,用户询问“今天的天气如何”,该人脸(人物)模型可进行语音回答,例如“今天气温13-20度,多云”。
如图4所示,该动画合成装置400可以包括:第一获取模块410、第二获取模块420、第三获取模块430和生成模块440。
其中,第一获取模块410用于获取声音文件。其中,该声音文件可为WAV格式的文件。
为了更好描述本申请,将本申请实施例的动画合成装置应用在搜索虚拟助理APP上为例,其中,第一获取模块410可通过搜索虚拟助理APP获取声音文件,应说明的是,该声音文件可为该搜索虚拟助理APP中人脸模型回复用户询问的声音文件。
具体地,当用户需要使用上述的搜索虚拟助理APP时,先在移动终端中启动该搜索虚拟助理APP进入应用界面,然后用户在该应用界面可通过语音或文字进行询问,该搜索虚拟助理APP接收到询问的内容,并基于询问的内容,联网进行查找,并将查找到的答案信息转化为声音文件,而后第一获取模块410获取该声音文件。
第二获取模块420用于获取声音文件中的语音识别特征。应说明的是,该实施例中所描述的语音识别特征可为语音的近场识别特征,该近场识别特征可做到音色无关。
第三获取模块430用于根据唇动参数获取模型对语音识别特征进行处理,以获取语音唇动参数。
需要说明的是,该实施例中所描述的唇动参数获取模型可以是提前训练好的,并将其预存在移动终端的存储空间中,以方便调取应用,该存储空间不仅限于基于实体的存储空间,例如,硬盘,上述存储空间还可以是连接移动终端的网络硬盘的存储空间(云存储空间)。
具体地,第一获取模块410在通过搜索虚拟助理APP获取到声音文件后,第二获取模块420可获取声音文件中的语音识别特征,然后第三获取模块430将该语音识别特征输入至唇动参数获取模型,从而通过该唇动参数获取模型对该语音识别特征进行处理,以从该语音识别特征中提取出语音唇动参数。
生成模块440用于根据语音唇动参数和人脸模型生成唇动动画。其中,该人脸模型可为3D人脸模型。
具体地,在第三获取模块430获取到语音唇动参数后,生成模块440可将该语音唇动参数代入人脸模型进行计算,以生成唇动动画,其中,上述的计算过程可依据预设的算法,该预设的算法可根据实际情况进行标定,此处不做任何限定。
在本申请实施例中,通过第一获取模块获取声音文件,通过第二获取模块获取声音文件中的语音识别特征,通过第三获取模块根据唇动参数获取模型对语音识别特征进行处理,以获取语音唇动参数;通过生成模块根据语音唇动参数和人脸模型生成唇动动画。由此,通过将语音识别特征作为语音唇动参数提取的输入特征,无需音素时长,且能够做到音色无关,既可提升合成效率,又可减少合成误差。
为了清楚说明上一实施例,在本申请的一个实施例中,如图4所示,生成模块440,具体用于将人脸模型转化为人脸网格模型,并将语音唇动参数代入人脸网格模型进行计算,以生成唇动动画。
需要说明的是,假设人脸模型为3D人脸模型,则该实施例中所描述的人脸网格模型中可包括至少一个三维坐标系和多个特征点。
具体地,在第三获取模块430获取到语音唇动参数后,生成模块440可先将人脸模型转化为人脸网格模型,并将语音唇动参数代入人脸网格模型进行计算,以得到人脸网格模型中嘴唇附近特征点的向量,并通过执行人脸网格模型中嘴唇附近特征点的向量生成唇动动画,由此,无需使用GPU(Graphics Processing Unit,图形处理器)集群的渲染农场进行绘制,可以大大减少唇动动画合成需求的带宽。
在本申请的一个实施例中,如图4所示,第二获取模块420具体用于将声音文件输入至近场识别模型,并通过近场识别模型提取声音文件中的语音信息,以得到语音识别特征。
在本申请的另一个实施例中,如图5所示,动画合成装置500可以包括:第一获取模块510、第二获取模块520、第三获取模块530、生成模块540和训练模块550,其中,训练模块550用于获取样本人脸视频和对应的声音;根据近场识别模型对声音进行处理,以获取样本语音识别特征;根据人脸建模模型对样本人脸视频进行处理,以获取目标唇动参数;将样本语音识别特征输入唇动参数获取模型,以生成预测的语音唇动参数;以及根据预测的语音唇动参数和目标唇动参数生成损失值,并根据损失值对唇动参数获取模型进行训练。
需要说明的是,上述实施例中所描述的第一获取模块510和第一获取模块410、第二获取模块520和第二获取模块420、第三获取模块530和第三获取模块430以及生成模块540和生成模块440可具有相同的功能和结构。
在本申请的一个实施例中,如图5所示,生成模块540还用于获取人脸模型的迁移权重,并根据迁移权重和语音唇动参数,获取加权唇动参数,以及根据加权唇动参数和人脸模型生成唇动动画。
在本申请的一个实施例中,如图5所示,生成模块540可通过以下公式获取加权唇动参数:bs2=bs1*W,其中,bs2为加权唇动参数,bs1为语音唇动参数,W为迁移权重。
需要说明的是,前述对动画合成方法实施例的解释说明也适用于该实施例的动画合成装置,此处不再赘述。
本申请实施例的动画合成装置,通过第一获取模块获取声音文件,通过第二获取模块获取声音文件中的语音识别特征,通过第三获取模块根据唇动参数获取模型对语音识别特征进行处理,以获取语音唇动参数;通过生成模块根据语音唇动参数和人脸模型生成唇动动画。由此,通过将语音识别特征作为语音唇动参数提取的输入特征,无需音素时长,且能够做到音色无关,既可提升合成效率,又可减少合成误差。
为了实现上述实施例,如图6所示,本申请还提出一种移动终端600,包括上述动画合成装置610。
需要说明的是,上述实施例中所描述的动画合成装置400、动画合成装置500和动画合成装置610可具有相同的功能和结构。
本申请实施例的移动终端,通过上述动画合成装置,将语音识别特征作为语音唇动参数提取的输入特征,无需音素时长,且能够做到音色无关,既可提升合成效率,又可减少合成误差。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图7所示,是根据本申请实施例的动画合成方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的动画合成方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的动画合成方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的动画合成方法对应的程序指令/模块(例如,附图4所示的动画合成装置1000可以包括:第一获取模块100、第二获取模块200、第三获取模块300和生成模块400)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的动画合成方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据动画合成方法的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至动画合成方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
动画合成方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与动画合成方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请实施例的技术方案,通过将语音识别特征作为语音唇动参数提取的输入特征,无需音素时长,且能够做到音色无关,既可提升合成效率,又可减少合成误差。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (15)

1.一种动画合成方法,包括:
获取声音文件;
获取所述声音文件中的语音识别特征;
根据唇动参数获取模型对所述语音识别特征进行处理,以获取语音唇动参数;以及
根据所述语音唇动参数和人脸模型生成唇动动画。
2.根据权利要求1所述的动画合成方法,其中,所述获取所述声音文件中的语音识别特征,包括:
将所述声音文件输入至近场识别模型;以及
通过所述近场识别模型提取所述声音文件中的语音信息,以得到所述语音识别特征。
3.根据权利要求2所述的动画合成方法,其中,所述唇动参数获取模型通过以下方式训练得到:
获取样本人脸视频和对应的声音;
根据所述近场识别模型对所述声音进行处理,以获取样本语音识别特征;
根据人脸建模模型对所述样本人脸视频进行处理,以获取目标唇动参数;
将所述样本语音识别特征输入所述唇动参数获取模型,以生成预测的语音唇动参数;以及
根据所述预测的语音唇动参数和所述目标唇动参数生成损失值,并根据所述损失值对所述唇动参数获取模型进行训练。
4.根据权利要求1所述的动画合成方法,其中,还包括:
获取所述人脸模型的迁移权重;
根据所述迁移权重和所述语音唇动参数,获取加权唇动参数;以及
根据所述加权唇动参数和所述人脸模型生成唇动动画。
5.根据权利要求4所述的动画合成方法,其中,通过以下公式获取所述加权唇动参数:
bs2=bs1*W,
其中,所述bs2为所述加权唇动参数,所述bs1为所述语音唇动参数,所述W为所述迁移权重。
6.根据权利要求1所述的动画合成方法,其中,所述根据所述语音唇动参数和人脸模型生成唇动动画,包括:
将所述人脸模型转化为人脸网格模型;以及
将所述语音唇动参数代入所述人脸网格模型进行计算,以生成唇动动画。
7.一种动画合成装置,包括:
第一获取模块,用于获取声音文件;
第二获取模块,用于获取所述声音文件中的语音识别特征;
第三获取模块,用于根据唇动参数获取模型对所述语音识别特征进行处理,以获取语音唇动参数;以及
生成模块,用于根据所述语音唇动参数和人脸模型生成唇动动画。
8.根据权利要求7所述的动画合成装置,其中,所述第二获取模块,具体用于:
将所述声音文件输入至近场识别模型;以及
通过所述近场识别模型提取所述声音文件中的语音信息,以得到所述语音识别特征。
9.根据权利要求8所述的动画合成装置,还包括:
训练模块,用于获取样本人脸视频和对应的声音;根据所述近场识别模型对所述声音进行处理,以获取样本语音识别特征;根据人脸建模模型对所述样本人脸视频进行处理,以获取目标唇动参数;将所述样本语音识别特征输入所述唇动参数获取模型,以生成预测的语音唇动参数;以及根据所述预测的语音唇动参数和所述目标唇动参数生成损失值,并根据所述损失值对所述唇动参数获取模型进行训练。
10.根据权利要求7所述的动画合成装置,其中,所述生成模块,还用于:
获取所述人脸模型的迁移权重;
根据所述迁移权重和所述语音唇动参数,获取加权唇动参数;以及
根据所述加权唇动参数和所述人脸模型生成唇动动画。
11.根据权利要求10所述的动画合成装置,其中,所述生成模块通过以下公式获取所述加权唇动参数:
bs2=bs1*W,
其中,所述bs2为所述加权唇动参数,所述bs1为所述语音唇动参数,所述W为所述迁移权重。
12.根据权利要求7所述的动画合成装置,其中,所述生成模块,具体用于:
将所述人脸模型转化为人脸网格模型;以及
将所述语音唇动参数代入所述人脸网格模型进行计算,以生成唇动动画。
13.一种移动终端,包括如权利要求7-12中任一项所述的动画合成装置。
14.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的动画合成方法。
15.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的动画合成方法。
CN202011226145.5A 2020-11-05 2020-11-05 动画合成方法、装置、移动终端和电子设备 Pending CN112541956A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011226145.5A CN112541956A (zh) 2020-11-05 2020-11-05 动画合成方法、装置、移动终端和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011226145.5A CN112541956A (zh) 2020-11-05 2020-11-05 动画合成方法、装置、移动终端和电子设备

Publications (1)

Publication Number Publication Date
CN112541956A true CN112541956A (zh) 2021-03-23

Family

ID=75013844

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011226145.5A Pending CN112541956A (zh) 2020-11-05 2020-11-05 动画合成方法、装置、移动终端和电子设备

Country Status (1)

Country Link
CN (1) CN112541956A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114898018A (zh) * 2022-05-24 2022-08-12 北京百度网讯科技有限公司 数字对象的动画生成方法、装置、电子设备及存储介质
CN115050354A (zh) * 2022-08-10 2022-09-13 北京百度网讯科技有限公司 数字人驱动方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015154419A1 (zh) * 2014-09-03 2015-10-15 中兴通讯股份有限公司 一种人机交互装置及方法
CN109308731A (zh) * 2018-08-24 2019-02-05 浙江大学 级联卷积lstm的语音驱动唇形同步人脸视频合成算法
CN110880315A (zh) * 2019-10-17 2020-03-13 深圳市声希科技有限公司 一种基于音素后验概率的个性化语音和视频生成系统
CN111294665A (zh) * 2020-02-12 2020-06-16 百度在线网络技术(北京)有限公司 视频的生成方法、装置、电子设备及可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015154419A1 (zh) * 2014-09-03 2015-10-15 中兴通讯股份有限公司 一种人机交互装置及方法
CN109308731A (zh) * 2018-08-24 2019-02-05 浙江大学 级联卷积lstm的语音驱动唇形同步人脸视频合成算法
CN110880315A (zh) * 2019-10-17 2020-03-13 深圳市声希科技有限公司 一种基于音素后验概率的个性化语音和视频生成系统
CN111294665A (zh) * 2020-02-12 2020-06-16 百度在线网络技术(北京)有限公司 视频的生成方法、装置、电子设备及可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114898018A (zh) * 2022-05-24 2022-08-12 北京百度网讯科技有限公司 数字对象的动画生成方法、装置、电子设备及存储介质
CN115050354A (zh) * 2022-08-10 2022-09-13 北京百度网讯科技有限公司 数字人驱动方法和装置

Similar Documents

Publication Publication Date Title
CN112131988B (zh) 确定虚拟人物唇形的方法、装置、设备和计算机存储介质
CN112382271B (zh) 语音处理方法、装置、电子设备和存储介质
CN112286366B (zh) 用于人机交互的方法、装置、设备和介质
CN113963087B (zh) 图像处理方法、图像处理模型训练方法、装置及存储介质
KR20210106397A (ko) 음성 전환 방법, 장치 및 전자 기기
JP6875572B2 (ja) 音声合成方法、装置、電子デバイス、及びプログラム
CN111539514A (zh) 用于生成神经网络的结构的方法和装置
CN112509552B (zh) 语音合成方法、装置、电子设备和存储介质
CN112667068A (zh) 虚拟人物的驱动方法、装置、设备及存储介质
CN114895817B (zh) 交互信息处理方法、网络模型的训练方法及装置
CN111259671A (zh) 文本实体的语义描述处理方法、装置及设备
CN111862987B (zh) 语音识别方法和装置
CN111354370B (zh) 一种唇形特征预测方法、装置和电子设备
CN112541956A (zh) 动画合成方法、装置、移动终端和电子设备
CN111539897A (zh) 用于生成图像转换模型的方法和装置
CN114429767A (zh) 视频生成方法、装置、电子设备以及存储介质
CN115050354A (zh) 数字人驱动方法和装置
CN112289305A (zh) 韵律预测方法、装置、设备以及存储介质
CN111833391A (zh) 图像深度信息的估计方法及装置
CN115359166B (zh) 一种图像生成方法、装置、电子设备和介质
EP4152269A1 (en) Method and apparatus of generating 3d video, method and apparatus of training model, device, and medium
CN112527105B (zh) 人机互动方法、装置、电子设备及存储介质
CN113327311B (zh) 基于虚拟角色的显示方法、装置、设备、存储介质
CN112201259A (zh) 声源定位方法、装置、设备和计算机存储介质
CN113223500B (zh) 语音识别方法、训练语音识别模型的方法及对应装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination