CN114581980A - 用于生成说话人像视频和训练人脸渲染模型的方法、装置 - Google Patents
用于生成说话人像视频和训练人脸渲染模型的方法、装置 Download PDFInfo
- Publication number
- CN114581980A CN114581980A CN202210201928.0A CN202210201928A CN114581980A CN 114581980 A CN114581980 A CN 114581980A CN 202210201928 A CN202210201928 A CN 202210201928A CN 114581980 A CN114581980 A CN 114581980A
- Authority
- CN
- China
- Prior art keywords
- mouth shape
- portrait
- features
- generating
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 86
- 238000012549 training Methods 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000001815 facial effect Effects 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 59
- 238000010586 diagram Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 241000288105 Grus Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000013604 expression vector Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本公开的实施例公开了用于生成说话人像视频和用于训练人脸渲染模型的方法、装置。该方法的一具体实施方式包括:将预先获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与该语音对应的口型特征序列;将该口型特征序列输入至基于预先获取的目标人像训练得到的人脸渲染模型,生成利用该语音操控该目标人像的说话人像视频,其中,该人脸渲染模型中包括第一解码器,该第一解码器用于表征人像特征与说话人像之间的对应关系,该人像特征包括预设表情特征和该口型特征序列中的口型特征。该实施方式实现了表情人为可控的说话人像视频的生成。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于生成说话人像视频和训练人脸渲染模型的方法、装置、电子设备和介质。
背景技术
随着人工智能技术的发展,通过控制一张人脸图像根据给定音频生成该人像的说话视频的说话人像生成技术也展示出广泛的应用前景。例如,影视行业工作者可以根据演员人像和语音直接生成演员的表演镜头;游戏等娱乐行业人员可以通过语音操纵虚拟人物的面部动作,并可以通过结合人机对话的方式实现更加逼真的人机交互;在线上会议软件中,该技术可以根据音频恢复因网络故障缺失的说话人像视频帧。
现有技术主要关注生成的嘴形是否与音频对应,或者通过语音判断表情类别进而据此调整人像表情,因而,并不能实现说话人像表情的人为可控。
发明内容
本公开的实施例提出了用于生成说话人像视频和用于训练人脸渲染模型的方法和装置。
第一方面,本公开的实施例提供了一种用于生成说话人像视频的方法,该方法包括:将预先获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与语音对应的口型特征序列;将口型特征序列输入至基于预先获取的目标人像训练得到的人脸渲染模型,生成利用语音操目标人像的说话人像视频,其中,人脸渲染模型中包括第一解码器,第一解码器用于表征人像特征与说话人像之间的对应关系,人像特征包括预设表情特征和口型特征序列中的口型特征。
在一些实施例中,上述口型生成模型包括第二编码器和第二解码器;以及上述将预先获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与语音对应的口型特征序列,包括:将音频特征序列输入至预先训练的第二编码器,生成基于注意力机制的音频特征;将当前时刻的上一时刻的口型特征、基于注意力机制的音频特征和当前时刻的姿态特征输入至预先训练的第二解码器,生成当前时刻的口型特征,其中,姿态特征包括除嘴部之外的面部其他关键点的特征;基于所得到的多个当前时刻的口型特征,生成与语音的时长对应的口型特征序列。
在一些实施例中,上述第二编码器和第二解码器分别为Transformer编码器和Transformer解码器,上述Transformer解码器采用将姿态特征组成的姿态特征序列映射至与口型特征序列相匹配的维度的方式作为位置编码。
在一些实施例中,上述人像特征还包括利用与第一解码器对应的第一编码器从目标人像中提取的其他特征。
第二方面,本公开的实施例提供了一种用于训练人脸渲染模型的方法,该方法包括:获取训练样本集合,其中,训练样本集合中的训练样本包括样本人像;获取初始人脸渲染模型,其中,初始人脸渲染模型中包括初始编码器、初始解码器和初始判别器;将样本人像输入至初始编码器,得到对应的人脸图像特征;将人脸图像特征输入至初始解码器,生成与样本人像对应的生成人像;利用预设损失函数生成损失值,其中,预设损失函数包括重构损失函数和对抗损失函数,重构损失函数用于表征样本人像与生成人像之间的差异;基于所生成的损失值,调整初始人脸渲染模型的参数。
在一些实施例中,上述人脸图像特征包括口型子特征和表情子特征,上述预设损失函数还包括以下至少一项:表情损失函数,口型损失函数;以及上述利用预设损失函数生成损失值,包括:将生成人像输入至预先训练的分类器,生成口型生成特征和表情生成特征;执行以下至少一项:基于口型生成特征和口型子特征之间的差异,利用口型损失函数生成口型损失值;基于表情生成特征和表情子特征之间的差异,利用表情损失函数生成表情损失值;基于所生成的口型损失值和表情损失值中的至少一项,生成总损失值。
第三方面,本公开的实施例提供了一种用于生成说话人像视频的装置,该装置包括:口型生成单元,被配置成将预先获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与语音对应的口型特征序列;视频生成单元,被配置成将口型特征序列输入至基于预先获取的目标人像训练得到的人脸渲染模型,生成利用语音操控目标人像的说话人像视频,其中,人脸渲染模型中包括第一解码器,第一解码器用于表征人像特征与说话人像之间的对应关系,人像特征包括预设表情特征和口型特征序列中的口型特征。
在一些实施例中,上述口型生成模型包括第二编码器和第二解码器;以及上述口型生成单元,被进一步配置成:将音频特征序列输入至预先训练的第二编码器,生成基于注意力机制的音频特征;将当前时刻的上一时刻的口型特征、基于注意力机制的音频特征和当前时刻的姿态特征输入至预先训练的第二解码器,生成当前时刻的口型特征,其中,姿态特征包括除嘴部之外的面部其他关键点的特征;基于所得到的多个当前时刻的口型特征,生成与语音的时长对应的口型特征序列。
在一些实施例中,上述第二编码器和第二解码器分别为Transformer编码器和Transformer解码器,Transformer解码器采用将姿态特征组成的姿态特征序列映射至与口型特征序列相匹配的维度的方式作为位置编码。
在一些实施例中,上述人像特征还包括利用与第一解码器对应的第一编码器从目标人像中提取的其他特征。
第四方面,本公开的实施例提供了一种用于训练人脸渲染模型的装置,该装置包括:第一获取单元,被配置成获取训练样本集合,其中,训练样本集合中的训练样本包括样本人像;第二获取单元,被配置成获取初始人脸渲染模型,其中,初始人脸渲染模型中包括初始编码器、初始解码器和初始判别器;特征生成单元,被配置成将样本人像输入至初始编码器,得到对应的人脸图像特征;人像生成单元,被配置成将人脸图像特征输入至初始解码器,生成与样本人像对应的生成人像;损失确定单元,被配置成利用预设损失函数生成损失值,其中,预设损失函数包括重构损失函数和对抗损失函数,重构损失函数用于表征样本人像与生成人像之间的差异;调整单元,被配置成基于所生成的损失值,调整初始人脸渲染模型的参数。
在一些实施例中,上述人脸图像特征包括口型子特征和表情子特征,预设损失函数还包括以下至少一项:表情损失函数,口型损失函数;以及上述损失确定单元,被进一步配置成:将生成人像输入至预先训练的分类器,生成口型生成特征和表情生成特征;执行以下至少一项:基于口型生成特征和口型子特征之间的差异,利用口型损失函数生成口型损失值;基于表情生成特征和表情子特征之间的差异,利用表情损失函数生成表情损失值;基于所生成的口型损失值和表情损失值中的至少一项,生成总损失值。
第五方面,本公开的实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第六方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本公开的实施例提供的用于生成说话人像视频和用于训练人脸渲染模型的方法、装置、电子设备和介质,通过先利用预先训练的口型生成模型生成与语音对应的口型特征序列,再将所生成的口型特征序列输入至人脸渲染模型以及通过预设表情特征的设置生成利用语音操控目标人像的说话人像视频,实现了人为控制表情的说话人像视频的生成。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的用于生成说话人像视频的方法的一个实施例的流程图;
图3是根据本公开的实施例的用于生成说话人像视频的方法的一个应用场景的示意图;
图4是根据本公开的用于训练人脸渲染模型的方法的又一个实施例的流程图;
图5是根据本公开的用于生成说话人像视频的装置的一个实施例的结构示意图;
图6是根据本公开的用于训练人脸渲染模型的装置的一个实施例的结构示意图;
图7是适于用来实现本公开的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的用于生成说话人像视频和训练人脸渲染模型的方法或用于生成说话人像视频和训练人脸渲染模型的装置的示例性架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、视频编辑类应用、机器学习模型训练类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持人机交互的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如为终端设备101、102、103上视频编辑类应用提供支持的后台服务器。后台服务器可以对口型生成模型和人脸渲染模型进行训练,以及将训练完成的口型生成模型和人脸渲染模型提供给终端101、102、103,以使终端101、102、103利用训练完成的口型生成模型和人脸渲染模型生成说话人像视频。
需要说明的是,可选地,终端设备101、102、103也可以将所获取的语音的音频特征序列、预设表情特征发送给后台服务器,以使后台服务器利用训练完成的口型生成模型和人脸渲染模型生成说话人像视频。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本公开的实施例所提供的用于生成说话人像视频的方法一般由终端设备101、102、103执行,相应地,用于生成说话人像视频的装置也可以设置于终端设备101、102、103中。本公开的实施例所提供的用于训练人脸渲染模型的方法一般由服务器105执行,相应地,用于训练人脸渲染模型的装置一般设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本公开的用于生成说话人像视频的方法的一个实施例的流程200。该用于生成说话人像视频的方法包括以下步骤:
步骤201,将预先获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与语音对应的口型特征序列。
在本实施例中,用于生成说话人像视频的方法的执行主体(如图1所示的终端设备101、102、103或服务器105)可以通过有线连接方式或者无线连接方式首先获取语音的音频特征序列。其中,上述音频特征序列可以包括各种能够体现音频特性的特征所组成的序列。例如,上述音频特征可以为MFCC(Mel-Frequency Cepstral Coefficients,梅尔频率倒谱系数)。
因而,上述执行主体既可以直接获取语音的音频特征序列,也可以先获取语音,再利用各种音频特征提取方式生成所获取的语音的音频特征序列。
之后,上述执行主体可以将所获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与上述语音对应的口型特征序列。其中,上述口型特征序列中的口型特征可以用于表征人脸图像中嘴部关键点的位置信息。从而,上述口型特征序列中的口型特征可以用于表征时间连续的嘴部关键点的位置信息的变化。作为示例,上述口型生成模型可以包括各种预先训练的RNN(Recurrent Neural Network,循环神经网络),例如GRU、LSTM(Long Short-Term Memory,长短期记忆网络)等。可选地,当输出的音频的帧率(例如100FPS)与口型特征的帧率(例如30FPS)不属于对应整数比例关系时,可以利用插值方法对口型特征进行扩展,以使口型特征的帧率与音频的帧率成整数比例。
在本实施例的一些可选的实现方式中,上述口型生成模型可以包括第二编码器和第二解码器。上述执行主体可以按照如下步骤生成与上述语音对应的口型特征序列:
第一步,将音频特征序列输入至预先训练的第二编码器,生成基于注意力机制的音频特征。
在这些实现方式中,上述执行主体可以将上述步骤201中预先获取的音频特征序列输入至预先训练的第二编码器,生成基于注意力机制的音频特征。其中,上述第二编码器可以是基于注意力机制训练的各种能够实现特征降维的模型。
第二步,将当前时刻的上一时刻的口型特征、基于注意力机制的音频特征和当前时刻的姿态特征输入至预先训练的第二解码器,生成当前时刻的口型特征。
在这些实现方式中,上述执行主体可以将当前时刻的上一时刻(例如T-1时刻)的口型特征、上述第一步所生成的基于注意力机制的音频特征和当前时刻(例如T时刻)的姿态特征输入至预先训练的第二解码器,生成当前时刻的口型特征。其中,上述姿态特征可以包括除嘴部之外的面部其他关键点的特征。上述姿态特征通常可以预先获取。由于人的面部各关键点之间具有相对位置关系,因而增加姿态特征能够有助于增强所生成人像的表情真实性。
第三步,基于所得到的多个当前时刻的口型特征,生成与语音的时长对应的口型特征序列。
在这些实现方式中,上述执行主体可以循环执行上述第二步,生成例如从0时刻至音频结束时刻对应的口型特征,从而组成与上述语音的时长对应的口型特征序列。
基于上述可选的实现方式,本方案可以利用由第二编码器和第二解码器所组成的口型生成模型,结合注意力机制和姿态特征生成与语音的时长对应的口型特征序列,丰富了口型特征序列的生成方式,有助于生成表情自然、口型与语音更加一致的说话人像。
可选地,基于上述可选的实现方式,上述第二编码器和上述第二解码器可以分别为Transformer编码器和Transformer解码器。上述Transformer解码器可以采用将上述姿态特征组成的姿态特征序列映射至与上述口型特征序列相匹配的维度的方式作为位置编码。
在这些实现方式中,上述Transformer编码器负责处理音频的全局特征(例如MFCC特征),通过交叉注意力的形式将音频特征传递到上述Transformer解码器中。上述Transformer解码器负责结合音频特征和上一时间戳的口形特征,输出当前帧的口形特征。
由于Transformer机制具有自注意力(Self-attention)及交叉注意力(Cross-attention)的灵活性,因而不需要任何插值方法也能够进行时序不同步的音频到口形预测,即对于音频的帧率与口形的帧率(即视频的帧率)不存在整数比例的对应关系的情况也可以实现口型特征序列的对应生成。
在这些实现方式中,作为示例,预先获取的语音的音频特征序列例如可以用表示。其中,上述Ls和Ds可以分别用于表征音频特征序列的长度和音频特征的维度。在Transformer编码器中,上述执行主体可以将其映射为Query,Key,Value。在多头注意力模块中,上述执行主体可以将Query,Key,Value向量进行分组,而后进行自注意力运算。之后,对于已经得到的口型特征(例如在当前时刻之前的时间戳对应的口型特征)序列,通过Transformer解码器映射为Query。再通过Transformer编码器最后一层输出Value和Key。同样,在多头注意力模块中,上述执行主体可以将Query,Key,Value向量进行分组,而后进行交叉注意力运算。而后,继续进入下一层Transformer解码器运算。
需要说明的是,在自然语音处理和语音识别任务中,基于Transformer的模型需要特别的定义起始字(Start Token)屏蔽字(Mask Token)和结束字(End Token)。基于此,上述Transformer编码器和Transformer解码器的起始字定义为全零向量,屏蔽字定义为全一向量。同时,由于音频和口形的时间戳对应关系已知,可以在对应音频停止的口形时间戳停止预测,因此不需要定义结束字。此外,经典Transformer使用sin/cos编码作为Transformer编码器和Transformer解码器输入的位置编码用于表示时间序列中的距离关系。在这些实现方式中,上述Transformer编码器仍然可以使用位置编码。而在Transformer解码器中,上述执行主体可以采用将上述姿态特征组成的姿态特征序列映射至与上述口型特征序列相匹配的维度的方式作为位置编码。作为示例,上述执行主体可以将姿态序列与预设的矩阵相乘再与上述口型特征向量相加,以作为Transformer编码器的输入。其中,上述预设的矩阵可以用于表征上述姿态特征组成的姿态特征序列与上述口型特征序列的维度之间的变换关系。
基于上述可选的实现方式,本方案可以将传统应用于语音识别任务的Transformer创新性地应用于口型特征序列的生成,并且通过位置编码的改进进一步提升所生成的口型特征与音频的一致性。
步骤202,将口型特征序列输入至基于预先获取的目标人像训练得到的人脸渲染模型,生成利用语音操控目标人像的说话人像视频。
在本实施例中,上述执行主体可以将上述步骤201所生成的口型特征序列输入至基于预先获取的目标人像训练得到的人脸渲染模型,生成利用语音操控上述目标人像的说话人像视频。其中,上述人脸渲染模型中可以包括第一解码器。上述第一解码器可以用于表征人像特征与说话人像之间的对应关系。上述人像特征可以包括预设表情特征和上述口型特征序列中的口型特征。
在本实施例中,上述人脸渲染模型可以包括利用目标人像训练得到的生成对抗网络中的生成器中的解码器部分作为上述第一解码器。其中,上述生成对抗网络中的生成器可以包括第一编码器和第一解码器。上述第一编码器用于提取上述目标人像的特征。上述第一解码器用于根据上述第一编码器所提取的特征恢复人像,以使得上述恢复人像尽可能与上述目标人像一致。
在本实施例中,上述预设表情特征例如可以是独热编码,例如“001”表示“开心”,“010”表示“平静”,“100”表示“生气”。上述执行主体可以将上述步骤201所生成的口型特征序列、预设表情特性输入至上述人脸渲染模型中的第一解码器,从而生成利用上述语音操控上述目标人像的说话人像视频。
在本实施例的一些可选的实现方式中,上述人像特征还包括利用与上述第一解码器对应的第一编码器从上述目标人像中提取的其他特征。
在这些实现方式中,上述执行主体还可以通过各种方式从上述第一编码器所提取的目标人像的特征进行解耦,从而形成除上述预设表情特征和口型特征之外的其他特征。
基于上述可选的实现方式,本方案可以对特征进行解耦,从而有助于实现在表情维度上的人为控制。
在本实施例的一些可选的实现方式中,上述执行主体还可以进一步将步骤202所生成的说话人像视频作为扩充样本,以训练唇语识别模型。
基于上述可选的实现方式,本方案可以利用生成说话人像视频的方式为唇语识别模型扩充训练所需的数据样本,以提升唇语识别模型的效果。
在本实施例的一些可选的实现方式中,上述人脸渲染模型可以根据如图4所描述的用于训练人脸渲染模型的方法训练得到。
继续参见图3,图3是根据本公开的实施例的用于生成说话人像视频的方法的应用场景的一个示意图。在图3的应用场景中,用户301可以通过终端302录制一段语音。终端302可以提取上述语音的音频特征序列303并将其输入至预先训练的口型生成模型304,生成对应的口型特征序列305。之后,终端302可以将口型特征序列305输入至基于预先获取的目标人像(例如卡通人物)训练得到的人脸渲染模型306,生成说话人像视频307。其中,上述预设表情特征308可以是用户301指定的,也可以是默认的,此处不作限定。可选地,上述口型生成模型304和人脸渲染模型306可以由与终端302通信连接的服务器309训练得到。
目前,现有技术之一通常是主要关注生成的嘴形是否与音频对应,或者通过语音判断表情类别进而据此调整人像表情,导致并不能实现说话人像表情的人为可控。而本公开的上述实施例提供的方法,通过先利用预先训练的口型生成模型生成与语音对应的口型特征序列,再将所生成的口型特征序列输入至人脸渲染模型以及通过预设表情特征的设置生成利用语音操控目标人像的说话人像视频,实现了人为控制表情的说话人像视频的生成。
进一步参考图4,其示出了用于训练人脸渲染模型的方法的又一个实施例的流程400。该用于训练人脸渲染模型的方法的流程400,包括以下步骤:
步骤401,获取训练样本集合。
在本实施例中,用于训练人脸渲染模型的方法的执行主体(例如图1所示的服务器105)可以通过有线或无线连接的方式从本地或通信连接的电子设备获取训练样本集合。其中,上述训练样本集合中的训练样本可以包括样本人像。
步骤402,获取初始人脸渲染模型。
在本实施例中,上述执行主体可以通过有线或无线连接的方式从本地或通信连接的电子设备获取初始人脸渲染模型。其中,上述初始人脸渲染模型中可以包括初始编码器、初始解码器和初始判别器。其中,上述初始编码器用于实现特征的降维,上述初始解码器用于实现特征的升维。上述初始判别器用于判别上述初始解码器的输出相对于样本人像的“真”或“假”。
步骤403,将样本人像输入至初始编码器,得到对应的人脸图像特征。
在本实施例中,上述执行主体可以将步骤401所获取的训练样本集合中的样本人像输入至步骤402所获取的初始编码器,从而得到对应的人脸图像特征。
在本实施例的一些可选的实现方式中,上述执行主体还可以在训练时以一定几率将口型向量替换为另一数据点的对应口型;同理,可以以一定几率将表情向量替换为另一数据点的对应表情。从而可以实现从人像渲染器中将口型特征、表情特征与其他特征解耦。
步骤404,将人脸图像特征输入至初始解码器,生成与样本人像对应的生成人像。
在本实施例中,上述执行主体可以将上述步骤403所生成的人脸图像特征输入至上述步骤402所获取的初始解码器,生成与样本人像对应的生成人像。
步骤405,利用预设损失函数生成损失值。
在本实施例中,上述执行主体可以利用预设损失函数通过各种方式生成损失值。其中,上述预设损失函数可以包括重构损失函数和对抗损失函数。上述重构损失函数可以用于表征上述样本人像与上述生成人像之间的差异。
作为示例,上述对抗损失函数可以为:
其中,上述De和D可以分别用于表征上述解码器和判别器。上述i和i’可以分别用于表征样本人像和生成人像。
在本实施例的一些可选的实现方式中,上述人脸图像特征可以包括口型子特征和表情子特征。上述预设损失函数还可以包括以下至少一项:表情损失函数,口型损失函数。上述执行主体可以按照如下步骤利用预设损失函数生成损失值:
第一步,将生成人像输入至预先训练的分类器,生成口型生成特征和表情生成特征。
在这些实现方式中,上述分类器可以用于表征口型生成特征和上述生成人像之间的对应关系以及表情生成特征和上述生成人像之间的对应关系。可选地,上述分类器还可以生成所得到的口型生成特征和表情生成特征各自对应的概率。
第二步,执行以下至少一项:基于口型生成特征和口型子特征之间的差异,利用口型损失函数生成口型损失值;基于表情生成特征和表情子特征之间的差异,利用表情损失函数生成表情损失值;
在这些实现方式中,作为示例,上述口型损失函数可以是最小二乘损失;上述表情损失函数可以是交叉熵损失。
第三步,基于所生成的口型损失值和表情损失值中的至少一项,生成总损失值。
在这些实现方式中,基于所生成的口型损失值和表情损失值中的至少一项,上述执行主体可以通过各种方式生成总损失值。作为示例,上述执行主体可以将上述第二步所生成的口型损失值和表情损失值中的至少一项与上述步骤405中的重构损失函数和对抗损失函数分别对应的损失值进行加权求和,从而生成总损失值。
基于上述可选的实现方式,本方案可以在人像整体细节方面尽可能逼真的基础上,从表情和口型两个维度监督所生成的图像,从而进一步提升人脸渲染模型的效果。
步骤406,基于所生成的损失值,调整初始人脸渲染模型的参数。
在本实施例中,基于所生成的损失值,上述执行主体可以利用机器学习方法调整上述步骤402所获取的初始人脸渲染模型的参数。
在本实施例的一些可选的实现方式中,上述执行主体可以判断是否满足训练结束条件,在满足训练结束条件时结束训练并将参数调整后的初始人脸渲染模型确定为训练完成的人脸渲染模型。在不满足训练结束条件时,上述执行主体可以将参数调整后的初始人脸渲染模型重新确定为上述步骤403中的初始人脸渲染模型,以及继续执行步骤403至步骤406,以迭代进行训练。
从图4中可以看出,本实施例中的用于训练人脸渲染模型的方法的流程400体现了利用样本人像训练包含初始编码器、初始解码器和初始判别器的初始人脸渲染模型的步骤。由此,本实施例描述的方案丰富了人脸渲染模型的生成方式。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了用于生成说话人像视频的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例提供的用于生成说话人像视频的装置500包括口型生成单元501和视频生成单元502。其中,口型生成单元501,被配置成将预先获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与语音对应的口型特征序列;视频生成单元502,被配置成将口型特征序列输入至基于预先获取的目标人像训练得到的人脸渲染模型,生成利用语音操控目标人像的说话人像视频,其中,人脸渲染模型中包括第一解码器,第一解码器用于表征人像特征与说话人像之间的对应关系,人像特征包括预设表情特征和口型特征序列中的口型特征。
在本实施例中,用于生成说话人像视频的装置500中:口型生成单元501和视频生成单元502的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201和步骤202的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述口型生成模型可以包括第二编码器和第二解码器。上述口型生成单元501可以被进一步配置成:将音频特征序列输入至预先训练的第二编码器,生成基于注意力机制的音频特征;将当前时刻的上一时刻的口型特征、基于注意力机制的音频特征和当前时刻的姿态特征输入至预先训练的第二解码器,生成当前时刻的口型特征,其中,姿态特征可以包括除嘴部之外的面部其他关键点的特征;基于所得到的多个当前时刻的口型特征,生成与语音的时长对应的口型特征序列。
在本实施例的一些可选的实现方式中,上述第二编码器和第二解码器可以分别为Transformer编码器和Transformer解码器。Transformer解码器可以采用将姿态特征组成的姿态特征序列映射至与口型特征序列相匹配的维度的方式作为位置编码。
在本实施例的一些可选的实现方式中,上述人像特征还可以包括利用与第一解码器对应的第一编码器从目标人像中提取的其他特征。
本公开的上述实施例提供的装置,通过口型生成单元501先利用预先训练的口型生成模型生成与语音对应的口型特征序列,再通过视频生成单元502将所生成的口型特征序列输入至人脸渲染模型以及通过预设表情特征的设置生成利用语音操控目标人像的说话人像视频,实现了人为控制表情的说话人像视频的生成。
进一步参考图6,作为对上述各图所示方法的实现,本公开提供了用于训练人脸渲染模型的装置的一个实施例,该装置实施例与图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例提供的用于训练人脸渲染模型的装置600包括第一获取单元601,被配置成获取训练样本集合,其中,训练样本集合中的训练样本包括样本人像;第二获取单元602,被配置成获取初始人脸渲染模型,其中,初始人脸渲染模型中包括初始编码器、初始解码器和初始判别器;特征生成单元603,被配置成将样本人像输入至初始编码器,得到对应的人脸图像特征;人像生成单元604,被配置成将人脸图像特征输入至初始解码器,生成与样本人像对应的生成人像;损失确定单元605,被配置成利用预设损失函数生成损失值,其中,预设损失函数包括重构损失函数和对抗损失函数,重构损失函数用于表征样本人像与生成人像之间的差异;调整单元606,被配置成基于所生成的损失值,调整初始人脸渲染模型的参数。
在本实施例中,用于训练人脸渲染模型的装置600中:第一获取单元601、第二获取单元602、特征生成单元603、人像生成单元604、损失确定单元605和调整单元606的具体处理及其所带来的技术效果可分别参考图4对应实施例中的步骤401-步骤406的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述人脸图像特征可以包括口型子特征和表情子特征。预设损失函数还可以包括以下至少一项:表情损失函数,口型损失函数。上述损失确定单元605可以被进一步配置成:将生成人像输入至预先训练的分类器,生成口型生成特征和表情生成特征;执行以下至少一项:基于口型生成特征和口型子特征之间的差异,利用口型损失函数生成口型损失值;基于表情生成特征和表情子特征之间的差异,利用表情损失函数生成表情损失值;基于所生成的口型损失值和表情损失值中的至少一项,生成总损失值。
本公开的上述实施例提供的装置,通过第一获取单元601、第二获取单元602、特征生成单元603、人像生成单元604、损失确定单元605和调整单元606实现了利用样本人像训练包含初始编码器、初始解码器和初始判别器的初始人脸渲染模型,以生成人脸渲染模型。从而丰富了人脸渲染模型的生成方式。
下面参考图7,其示出了适于用来实现本申请的实施例的电子设备(例如图1中的服务器105)700的结构示意图。图7示出的服务器仅仅是一个示例,不应对本申请的实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、等的输入装置706;包括例如液晶显示器(LCD,Liquid Crystal Display)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图7中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本申请的实施例的方法中限定的上述功能。
需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(Radio Frequency,射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:将预先获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与语音对应的口型特征序列;将口型特征序列输入至基于预先获取的目标人像训练得到的人脸渲染模型,生成利用语音操控目标人像的说话人像视频,其中,人脸渲染模型中包括第一解码器,第一解码器用于表征人像特征与说话人像之间的对应关系,人像特征包括预设表情特征和口型特征序列中的口型特征;或者,使得该电子设备:获取训练样本集合,其中,训练样本集合中的训练样本包括样本人像;获取初始人脸渲染模型,其中,初始人脸渲染模型中包括初始编码器、初始解码器和初始判别器;将样本人像输入至初始编码器,得到对应的人脸图像特征;将人脸图像特征输入至初始解码器,生成与样本人像对应的生成人像;利用预设损失函数生成损失值,其中,预设损失函数包括重构损失函数和对抗损失函数,重构损失函数用于表征样本人像与生成人像之间的差异;基于所生成的损失值,调整初始人脸渲染模型的参数。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”、Python语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开的各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器,包括口型生成单元和视频生成单元;或者可以描述为:一种处理器,包括第一获取单元、第二获取单元、特征生成单元、人像生成单元、损失确定单元和调整单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,口型生成单元还可以被描述为“将预先获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与语音对应的口型特征序列的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种用于生成说话人像视频的方法,包括:
将预先获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与所述语音对应的口型特征序列;
将所述口型特征序列输入至基于预先获取的目标人像训练得到的人脸渲染模型,生成利用所述语音操控所述目标人像的说话人像视频,其中,所述人脸渲染模型中包括第一解码器,所述第一解码器用于表征人像特征与说话人像之间的对应关系,所述人像特征包括预设表情特征和所述口型特征序列中的口型特征。
2.根据权利要求1所述的方法,其中,所述口型生成模型包括第二编码器和第二解码器;以及
所述将预先获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与所述语音对应的口型特征序列,包括:
将所述音频特征序列输入至预先训练的所述第二编码器,生成基于注意力机制的音频特征;
将当前时刻的上一时刻的口型特征、所述基于注意力机制的音频特征和所述当前时刻的姿态特征输入至预先训练的所述第二解码器,生成所述当前时刻的口型特征,其中,所述姿态特征包括除嘴部之外的面部其他关键点的特征;
基于所得到的多个当前时刻的口型特征,生成与所述语音的时长对应的口型特征序列。
3.根据权利要求2所述的方法,其中,所述第二编码器和所述第二解码器分别为Transformer编码器和Transformer解码器,所述Transformer解码器采用将所述姿态特征组成的姿态特征序列映射至与所述口型特征序列相匹配的维度的方式作为位置编码。
4.根据权利要求1-3之一所述的方法,其中,所述人像特征还包括利用与所述第一解码器对应的第一编码器从所述目标人像中提取的其他特征。
5.一种用于训练人脸渲染模型的方法,包括:
获取训练样本集合,其中,所述训练样本集合中的训练样本包括样本人像;
获取初始人脸渲染模型,其中,所述初始人脸渲染模型中包括初始编码器、初始解码器和初始判别器;
将所述样本人像输入至所述初始编码器,得到对应的人脸图像特征;
将所述人脸图像特征输入至所述初始解码器,生成与所述样本人像对应的生成人像;
利用预设损失函数生成损失值,其中,所述预设损失函数包括重构损失函数和对抗损失函数,所述重构损失函数用于表征所述样本人像与所述生成人像之间的差异;
基于所生成的损失值,调整所述初始人脸渲染模型的参数。
6.根据权利要求5所述的方法,其中,所述人脸图像特征包括口型子特征和表情子特征,所述预设损失函数还包括以下至少一项:表情损失函数,口型损失函数;以及
所述利用预设损失函数生成损失值,包括:
将所述生成人像输入至预先训练的分类器,生成口型生成特征和表情生成特征;
执行以下至少一项:基于所述口型生成特征和所述口型子特征之间的差异,利用所述口型损失函数生成口型损失值;基于所述表情生成特征和所述表情子特征之间的差异,利用所述表情损失函数生成表情损失值;
基于所生成的口型损失值和表情损失值中的至少一项,生成总损失值。
7.一种用于生成说话人像视频的装置,包括:
口型生成单元,被配置成将预先获取的语音的音频特征序列输入至预先训练的口型生成模型,生成与所述语音对应的口型特征序列;
视频生成单元,被配置成将所述口型特征序列输入至基于预先获取的目标人像训练得到的人脸渲染模型,生成利用所述语音操控所述目标人像的说话人像视频,其中,所述人脸渲染模型中包括第一解码器,所述第一解码器用于表征人像特征与说话人像之间的对应关系,所述人像特征包括预设表情特征和所述口型特征序列中的口型特征。
8.一种用于训练人脸渲染模型的装置,包括:
第一获取单元,被配置成获取训练样本集合,其中,所述训练样本集合中的训练样本包括样本人像;
第二获取单元,被配置成获取初始人脸渲染模型,其中,所述初始人脸渲染模型中包括初始编码器、初始解码器和初始判别器;
特征生成单元,被配置成将所述样本人像输入至所述初始编码器,得到对应的人脸图像特征;
人像生成单元,被配置成将所述人脸图像特征输入至所述初始解码器,生成与所述样本人像对应的生成人像;
损失确定单元,被配置成利用预设损失函数生成损失值,其中,所述预设损失函数包括重构损失函数和对抗损失函数,所述重构损失函数用于表征所述样本人像与所述生成人像之间的差异;
调整单元,被配置成基于所生成的损失值,调整所述初始人脸渲染模型的参数。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210201928.0A CN114581980A (zh) | 2022-03-03 | 2022-03-03 | 用于生成说话人像视频和训练人脸渲染模型的方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210201928.0A CN114581980A (zh) | 2022-03-03 | 2022-03-03 | 用于生成说话人像视频和训练人脸渲染模型的方法、装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114581980A true CN114581980A (zh) | 2022-06-03 |
Family
ID=81775823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210201928.0A Pending CN114581980A (zh) | 2022-03-03 | 2022-03-03 | 用于生成说话人像视频和训练人脸渲染模型的方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114581980A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035604A (zh) * | 2022-08-10 | 2022-09-09 | 南京硅基智能科技有限公司 | 一种音频驱动人物口型方法、模型及其训练方法 |
CN115294622A (zh) * | 2022-06-15 | 2022-11-04 | 北京邮电大学 | 语音驱动说话人头动视频合成增强方法、系统和存储介质 |
CN116778040A (zh) * | 2023-08-17 | 2023-09-19 | 北京百度网讯科技有限公司 | 基于口型的人脸图像生成方法、模型的训练方法以及设备 |
WO2024078303A1 (zh) * | 2022-10-09 | 2024-04-18 | 马上消费金融股份有限公司 | 人脸驱动模型的训练方法、视频生成方法及装置 |
-
2022
- 2022-03-03 CN CN202210201928.0A patent/CN114581980A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115294622A (zh) * | 2022-06-15 | 2022-11-04 | 北京邮电大学 | 语音驱动说话人头动视频合成增强方法、系统和存储介质 |
CN115294622B (zh) * | 2022-06-15 | 2023-04-18 | 北京邮电大学 | 语音驱动说话人头动视频合成增强方法、系统和存储介质 |
CN115035604A (zh) * | 2022-08-10 | 2022-09-09 | 南京硅基智能科技有限公司 | 一种音频驱动人物口型方法、模型及其训练方法 |
US11928767B2 (en) | 2022-08-10 | 2024-03-12 | Nanjing Silicon Intelligence Technology Co., Ltd. | Method for audio-driven character lip sync, model for audio-driven character lip sync and training method therefor |
WO2024078303A1 (zh) * | 2022-10-09 | 2024-04-18 | 马上消费金融股份有限公司 | 人脸驱动模型的训练方法、视频生成方法及装置 |
CN116778040A (zh) * | 2023-08-17 | 2023-09-19 | 北京百度网讯科技有限公司 | 基于口型的人脸图像生成方法、模型的训练方法以及设备 |
CN116778040B (zh) * | 2023-08-17 | 2024-04-09 | 北京百度网讯科技有限公司 | 基于口型的人脸图像生成方法、模型的训练方法以及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11158102B2 (en) | Method and apparatus for processing information | |
EP3889912B1 (en) | Method and apparatus for generating video | |
CN111415677B (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN114581980A (zh) | 用于生成说话人像视频和训练人脸渲染模型的方法、装置 | |
US11151765B2 (en) | Method and apparatus for generating information | |
US11308671B2 (en) | Method and apparatus for controlling mouth shape changes of three-dimensional virtual portrait | |
CN111599343B (zh) | 用于生成音频的方法、装置、设备和介质 | |
CN111432233A (zh) | 用于生成视频的方法、装置、设备和介质 | |
KR20220097121A (ko) | 랜덤 널링 인공신경망을 이용한 입모양 합성 장치 및 방법 | |
CN114895817B (zh) | 交互信息处理方法、网络模型的训练方法及装置 | |
CN109697978B (zh) | 用于生成模型的方法和装置 | |
JP2023552854A (ja) | ヒューマンコンピュータインタラクション方法、装置、システム、電子機器、コンピュータ可読媒体及びプログラム | |
CN113205793B (zh) | 音频生成方法、装置、存储介质及电子设备 | |
CN113299312A (zh) | 一种图像生成方法、装置、设备以及存储介质 | |
CN114255737B (zh) | 语音生成方法、装置、电子设备 | |
CN112364144A (zh) | 交互方法、装置、设备和计算机可读介质 | |
CN110288683B (zh) | 用于生成信息的方法和装置 | |
CN115376482A (zh) | 面部动作视频生成方法及装置、可读介质和电子设备 | |
CN112634413B (zh) | 生成模型和生成3d动画的方法、装置、设备和存储介质 | |
CN112910761B (zh) | 即时通讯方法、装置、设备、存储介质以及程序产品 | |
CN112383721B (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN114882151A (zh) | 虚拟形象视频的生成方法及装置、设备、介质和产品 | |
CN115731917A (zh) | 语音数据处理方法、模型训练方法、装置及存储介质 | |
CN112383722B (zh) | 用于生成视频的方法和装置 | |
CN117635784B (zh) | 三维数字人脸部动画自动生成系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |