CN111415677B - 用于生成视频的方法、装置、设备和介质 - Google Patents

用于生成视频的方法、装置、设备和介质 Download PDF

Info

Publication number
CN111415677B
CN111415677B CN202010183109.9A CN202010183109A CN111415677B CN 111415677 B CN111415677 B CN 111415677B CN 202010183109 A CN202010183109 A CN 202010183109A CN 111415677 B CN111415677 B CN 111415677B
Authority
CN
China
Prior art keywords
audio
target person
audio frame
target
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010183109.9A
Other languages
English (en)
Other versions
CN111415677A (zh
Inventor
殷翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Douyin Vision Beijing Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010183109.9A priority Critical patent/CN111415677B/zh
Publication of CN111415677A publication Critical patent/CN111415677A/zh
Application granted granted Critical
Publication of CN111415677B publication Critical patent/CN111415677B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本公开的实施例公开了用于生成视频的方法、装置、设备和介质。该方法的一具体实施方式包括:获取目标语音音频;针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作;基于目标语音音频和所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频。该实施方式可以根据获取的语音音频,生成表征目标人员执行与该语音音频相对应的动作的视频,从而丰富了视频的生成方式,提高了所生成的视频中的语音和图像的同步性。

Description

用于生成视频的方法、装置、设备和介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于生成视频的方法、装置、设备和介质。
背景技术
视频的流行是现在社会的一个趋势。这一现象的产生除了一些科技方面的音素(例如,智能手机的出现、4G网络的普及)之外,和人们自身也有关系。从用户的角度来说,人们的行为习惯正在改变,越来越多的用户通过视频来获取信息、记录自己的生活。
现阶段,用户对视频的制作需求呈日益多样化的发展趋势。用户希望视频中呈现的图像、声音、动作等更具美感,并且,拍摄和制作的流程简单、操作方便。此外,现有技术中,在为视频进行配音时,往往需要配音者模仿视频中的人物的口型,并且,需要配音者精确掌握视频中人物的语音节奏,从而提升配音效果。
发明内容
本公开提出了用于生成视频的方法、装置、设备和介质。
第一方面,本公开的实施例提供了一种用于生成视频的方法,该方法包括:获取目标语音音频;针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员;基于目标语音音频和所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频。
在一些实施例中,确定与该音频帧相对应的音频表达信息,包括:基于该音频帧指示的音素,确定与该音频帧相对应的音频表达信息。
在一些实施例中,基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,包括:基于与该音频帧相对应的音频表达信息,生成与该音频帧相对应的融合变形信息;基于与该音频帧相对应的融合变形信息,生成与该音频帧相匹配的目标人员图像序列。
在一些实施例中,针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,包括:针对目标语音音频包括的音频帧,将该音频帧输入至针对目标人员预先训练的图像生成模型中的第一网络模型,得到与该音频帧相对应的音频表达信息,其中,图像生成模型用于表征音频帧与目标人员的目标人员图像序列之间的对应关系,第一网络模型用于表征音频帧与音频表达信息之间的对应关系;将该音频帧相对应的音频表达信息输入至图像生成模型中的第二网络模型,生成与该音频帧相匹配的目标人员图像序列,其中,第二网络模型用于表征音频表达信息与目标人员的目标人员图像序列之间的对应关系。
在一些实施例中,第一网络模型包括音素确定子模型,音素确定子模型用于表征音频帧与音素信息之间的对应关系;以及,音素确定子模型通过如下步骤训练得到:获取训练样本集合,其中,训练样本集合中的训练样本包括音频帧和音频帧指示的音素信息;采用机器学习算法,将训练样本集合中的音频帧作为输入数据,将输入的音频帧指示的音素信息作为期望输出数据,训练得到音素确定子模型。
在一些实施例中,第一网络模型的实际输出数据通过如下步骤得到:将音素确定子模型输出的音素信息输入至预先训练的全球风格迁移GST模型,得到音频表达信息,以及将所得到的音频表达信息作为第一网络模型的实际输出数据。
在一些实施例中,图像生成模型通过如下步骤训练得到:获取目标人员视频,其中,目标人员视频是对目标人员进行语音音频和影像录制而获得的视频;从目标人员视频中提取语音音频和与所提取的语音音频相匹配的图像序列;获取用于训练得到图像生成模型的初始模型;采用训练得到的音素确定子模型的模型参数,初始化初始模型中,与所训练得到的音素确定子模型的模型参数相应的模型参数,得到中间模型;采用机器学习算法,将所提取的语音音频中的音频帧作为中间模型的输入数据,将与输入的音频帧相匹配的图像序列作为中间模型的期望输出数据,训练得到图像生成模型。
在一些实施例中,目标人员图像序列中两相邻目标人员图像的相关度大于或等于预设相关度阈值,其中,相关度用于表征两目标人员图像在视频中相邻的概率。
在一些实施例中,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,包括:确定与该音频帧相对应的多个音频表达信息;对多个音频表达信息进行聚类处理,得到聚类中心;基于聚类中心,生成与该音频帧相匹配的目标人员图像序列。
在一些实施例中,目标人员图像包括目标人员的面部图像;与该音频帧相对应的动作表征:目标人员发出该音频帧指示的语音;与目标语音音频相对应的动作表征:目标人员发出目标语音音频指示的语音。
第二方面,本公开的实施例提供了一种用于生成视频的装置,该装置包括:获取单元,被配置成获取目标语音音频;确定单元,被配置成针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员;生成单元,被配置成基于目标语音音频和所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频。
第三方面,本公开的实施例提供了一种用于生成视频的电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得该一个或多个处理器实现如上述用于生成视频的方法中任一实施例的方法。
第四方面,本公开的实施例提供了一种用于生成视频的计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上述用于生成视频的方法中任一实施例的方法。
本公开的实施例提供的用于生成视频的方法、装置、设备和介质,通过获取目标语音音频,然后,针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员,最后,基于目标语音音频和所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频,由此可以根据获取的语音音频,生成表征目标人员执行与该语音音频相对应的动作的视频,从而丰富了视频的生成方式,提高了所生成的视频中的语音和图像的同步性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的用于生成视频的方法的一个实施例的流程图;
图3是根据本公开的用于生成视频的方法的一个应用场景的示意图;
图4是根据本公开的用于生成视频的方法的又一个实施例的流程图;
图5是根据本公开的用于生成视频的装置的一个实施例的结构示意图;
图6是适于用来实现本公开的实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本公开,而非对本公开的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本公开相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的用于生成视频的方法或用于生成视频的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送数据(例如发送目标语音音频)等。终端设备101、102、103上可以安装有各种客户端应用,例如视频播放软件、视频处理应用、新闻资讯类应用、图像处理类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有信息处理功能的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如基于终端设备101、102、103发送的目标语音音频,生成表征目标人员执行与目标语音音频相对应的动作的视频的后台视频处理服务器。后台视频处理服务器可以对接收到的目标语音音频等数据进行分析等处理,从而生成表征目标人员执行与目标语音音频相对应的动作的视频。可选的,后台视频处理服务器还可以将所生成的视频反馈给终端设备,以供终端设备播放。作为示例,服务器105可以是云端服务器。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
还需要说明的是,本公开的实施例所提供的用于生成视频的方法可以由服务器执行,也可以由终端设备执行,还可以由服务器和终端设备彼此配合执行。相应地,用于生成视频的装置包括的各个部分(例如各个单元、子单元、模块、子模块)可以全部设置于服务器中,也可以全部设置于终端设备中,还可以分别设置于服务器和终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。当用于生成视频的方法运行于其上的电子设备不需要与其他电子设备进行数据传输时,该系统架构可以仅包括用于生成视频的方法运行于其上的电子设备(例如服务器或终端设备)。
继续参考图2,示出了根据本公开的用于生成视频的方法的一个实施例的流程200。该用于生成视频的方法,包括以下步骤:
步骤201,获取目标语音音频。
在本实施例中,用于生成视频的方法的执行主体(例如图1所示的服务器或终端设备)可以通过有线连接方式或者无线连接方式从其他电子设备,或者本地获取目标语音音频。
其中,上述目标语音音频可以是任意语音音频。作为示例,目标语音音频可以是用户使用的终端设备对该用户发出的语音进行录制而得到的音频。可选的,上述目标语音音频也可以是用户预先存储的语音音频。
在这里,在上述执行主体为终端设备的情况下,上述执行主体可以直接对用户发出的语音进行录制,从而获得目标语音音频;在上述执行主体为服务器的情况下,上述执行主体可以从用户使用的终端设备获取语音音频(即目标语音音频)。
步骤202,针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列。
在本实施例中,针对步骤201获取到的目标语音音频包括的音频帧,上述执行主体可以确定出与该音频帧相对应的音频表达(audio-expression)信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列。其中,上述音频表达信息可以包括用于表征情感(例如喜悦、伤心)的信息和用于表征发音(例如口型)的信息。
与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员。示例性的,与该音频帧相对应的动作可以表征:目标人员发出该音频帧指示的语音。例如,如果该音频帧为“啊”的音频,那么,由于发出该音频帧指示的语音时需要张嘴,因而,与该音频帧相对应的动作可以表征:目标人员张嘴。此外,与该音频帧相对应的动作也可以表征:目标人员执行与该音频帧相对应的肢体动作。例如,如果该音频帧为“敬礼”的音频,那么,与该音频帧相对应的动作可以表征:目标人员敬礼。
在这里,上述执行主体可以采用内容感知的时间过滤(content-aware temporalfiltering)算法,或者采用风格转换(Global style token,GST)算法,获得与音频帧相对应的音频表达信息。
作为示例,上述执行主体可以将与该音频帧相对应的音频表达信息输入至预先训练的图像序列生成模型,从而获得与该音频帧相匹配的目标人员图像序列。其中,上述图像序列生成模型可以表征音频表达信息与目标人员图像序列之间的对应关系。图像序列生成模型可以与人员具有一一对应的关系。例如,如果用户最终想要获得A人员的图像(或视频),则可以将A人员作为目标人员,采用与A人员相对应的图像序列生成模型,来获得与该音频帧相匹配的A人员的图像序列(即目标人员图像序列);如果用户最终想要获得B人员的图像(或视频),则可以将B人员作为目标人员,采用与B人员相对应的图像序列生成模型,来获得与该音频帧相匹配的B人员的图像序列(即目标人员图像序列)。
需要说明的是,上述执行主体可以通过预先训练的判定模型,来判断目标人员图像序列与音频帧是否相匹配。上述判定模型可以采用机器学习算法训练得到。示例性的,上述判定模型可以是帧鉴别器
(frame discriminator)。
实践中,可以通过损失函数的函数值与预设阈值之间的大小关系来体现目标人员图像序列与音频帧是否相匹配。例如,在目标人员图像序列与音频帧不相匹配的情况下,计算得到的损失函数的函数值可以大于预设阈值。在此情况下,可以通过调整模型的模型参数,以便提高后续生成的视频中的目标人员图像序列与音频帧的匹配程度,确保二者的同步性。作为示例,可以将频帧和目标人员图像序列的互信息(Mutual Information,MI),作为损失函数的函数值,来确保目标人员图像序列与音频帧相匹配,从而确保二者的同步性。
具体地,上述执行主体可以将与该音频帧相对应的音频表达信息输入至上述图像序列生成模型,从而生成与该音频帧相匹配的目标人员图像序列。
作为示例,上述图像序列生成模型可以是采用机器学习算法训练得到的生成式对抗网络。其中,该生成式对抗网络可以包括生成模型和判别模型。在该生成式对抗网络的训练过程中,生成模型可以用于根据与所输入的音频帧相对应的音频表达信息生成图像序列。判别模型可以用于判断所生成的图像序列是否与音频帧相匹配。作为示例,判别模型可以采用如上所述的方式,根据损失函数的函数值与预设阈值之间的大小关系,来判断所生成的目标人员图像序列是否与音频帧相匹配。
应该理解,通常音频帧的播放需要持续一段时长,因而可以每间隔预定时长生成一张音频帧在该时刻对应的目标人员图像,从而获得目标人员图像序列。例如,如果音频帧的播放时长为22毫秒,示例性的,可以每间隔2毫秒生成一张音频帧在该时刻对应的目标人员图像,从而依次获得音频帧在0毫秒、2毫秒、4毫秒、6毫秒、8毫秒、10毫秒、12毫秒、14毫秒、16毫秒、18毫秒、20毫秒、22毫秒分别对应的目标人员图像。在这里,如果音频帧为“啊”的音频,那么在发出该音频帧指示的语音的过程中,通常需要产生由闭合到张开再到闭合的口型变化,在此情况下,所生成的目标人员图像序列可以指示口型由闭合逐渐过渡到张开,再由张开逐渐过渡到闭合的过程。
可选的,上述图像序列生成模型也可以是关联存储大量的与音频帧相对应的音频表达信息,以及与音频帧相匹配的目标人员图像序列的二维表或数据库。由此,可以将与该步骤中的音频帧相对应的音频表达信息关联存储的目标人员图像序列,作为该音频帧相匹配的目标人员图像序列。
步骤203,基于目标语音音频和所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频。
在本实施例中,上述执行主体可以基于步骤201获取到的目标语音音频和步骤202中所生成的各个目标人员图像序列,生成表征目标人员执行与该目标语音音频相对应的动作的视频。
在一些情况下,目标人员可以是明星或者电影中的人物,由此,可以实现基于目标语音音频对明星或者电影中的人物的动作进行调整,从而生成表征明星或者电影中的人物执行与目标语音音频相对应的动作的视频。
实践中,上述实施例提供的方法可以应用于配音领域,由此可以根据所获得的任意目标语音音频,来控制视频中目标人员的肢体动作、表情、嘴型,配音人员无需精确把握待配音视频中的人物的用词、语气、说话节奏等信息,即可实现待配音视频随配音人员的语音而调整。
可以理解,通常视频包括音频和图像序列(即视频帧序列)。上述步骤203生成的视频包括的音频可以为步骤201获取到的目标语音音频,上述步骤203生成的视频包括的图像序列可以由步骤202中所生成的各个目标人员图像序列组成。
继续参见图3,图3是根据本实施例的用于生成视频的方法的应用场景的一个示意图。在图3的应用场景中,终端设备301首先获取目标语音音频302(图示中为“我来了!”的语音音频)。然后,针对目标语音音频302包括的音频帧,终端设备301确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列。其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员。图示中,终端设备301分别确定出了与目标语音音频302包括的各帧音频帧相对应的音频表达信息303、304、305。以及基于音频表达信息303,生成了目标人员图像序列306;基于音频表达信息304,生成了目标人员图像序列307;基于音频表达信息305,生成了目标人员图像序列308。最后,终端设备301基于目标语音音频302和所生成的目标人员图像序列306、307、308,生成了表征目标人员执行与目标语音音频302相对应的动作的视频309。
本公开的上述实施例提供的方法,通过获取目标语音音频,然后,针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员,最后,基于目标语音音频和所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频,从而可以根据任意语音音频,来调整预定人员的动作,生成预定人员执行与该语音音频相对应的动作的视频,并且,可以针对不同人员生成不同的视频,由此丰富了视频的生成方式,提高了所生成的视频中的语音和图像的同步性。并且,有助于提高所生成的视频中的肢体语言的表现力。
在本实施例的一些可选的实现方式中,上述执行主体可以采用如下方式来确定与该音频帧相对应的音频表达信息:
基于该音频帧指示的音素,确定与该音频帧相对应的音频表达信息。
作为示例,上述执行主体可以将该音频帧指示的音素输入至预先确定的信息生成模型,生成与该音频帧相对应的音频表达信息。其中,上述信息生成模型可以表征音频帧指示的音素和音频表达信息之间的对应关系。例如,信息生成模型可以是表征音频帧指示的音素和音素表达信息的对应关系的二维表或数据库,也可以是采用机器学习算法训练得到的模型。
可以理解,上述可选的实现方式可以基于音素和音频表达信息,生成图像序列,从而可以提高最终生成的视频中的图像(即视频帧)与步骤201获取的目标语音音频的匹配度,提高表征目标人员执行与音频帧相对应的动作的准确度。
在本实施例的一些可选的实现方式中,基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,包括:
步骤一,基于与该音频帧相对应的音频表达信息,生成与该音频帧相对应的融合变形(Blendshap)信息。其中,融合变形信息可以表征预先确定的各个元素的形变信息。作为示例,预先确定的元素可以包括但不限于图像中的以下任一项:眼睛、嘴巴、眉毛等等。实践中,通常在微笑时,可以执行眨眼和嘴角上扬的动作。在此情况下,融合变形信息可以表征眨眼和嘴角上扬。
作为示例,上述执行主体可以将与该音频帧相对应的音频表达信息输入至预先确定的信息生成模型,生成与该音频帧相对应的融合变形信息。其中,上述信息生成模型可以表征与该音频帧相对应的音频表达信息和融合变形信息之间的对应关系。例如,信息生成模型可以是表征与该音频帧相对应的音频表达信息和融合变形信息的对应关系的二维表或数据库,也可以是采用机器学习算法训练得到的模型。
步骤二,基于与该音频帧相对应的融合变形信息,生成与该音频帧相匹配的目标人员图像序列。
作为示例,上述执行主体可以在获得融合变形信息之后,采用该融合变形信息,对目标人员的人员图像进行调整,从而获得生成与该音频帧相匹配的目标人员图像序列。例如,如果融合变形信息表征眨眼和嘴角上扬,那么,上述执行主体可以目标人员的图像进行调整,从而获得表征目标人员图像指示的目标人员眨眼和嘴角上扬的图像序列。示例性的,上述执行主体可以将获得的融合变形信息输入至针对目标人员预先训练的图像生成模型,从而得到与该音频帧相匹配的目标人员图像序列。其中,图像生成模型可以表征与音频帧相对应的融合变形信息,以及与音频帧相匹配的目标人员图像序列之间的对应关系。每个目标人员可以对应一个图像生成模型,不同的目标人员对应不同的图像生成模型。例如,针对A目标人员的图像生成模型可以是采用机器学习算法,基于训练样本集合训练得到的模型。其中,训练样本集合中的训练样本可以包括融合变形信息和A目标人员的目标人员图像序列。包含于同一训练样本中的融合变形信息和目标人员图像序列与指示相同文本的音频帧相对应。可选的,上述针对A目标人员的图像生成模型也可以是关联存储有融合变形信息和A目标人员的目标人员图像序列的二维表或数据库,还可以是基于融合变形信息,计算得到A目标人员的目标人员图像序列的算法或公式。
在这里,该音频帧的播放时长,通常和与该音频帧相匹配的目标人员图像序列组成的视频的播放时长相同。
可以理解,上述可选的实现方式可以基于与音频帧相对应的音频表达信息和融合变形信息,来生成目标人员图像序列,从而可以提高最终生成的视频中的图像(即视频帧)与步骤201获取的目标语音音频的同步性,提高表征目标人员执行与音频帧相对应的动作的准确度。
在本实施例的一些可选的实现方式中,目标人员图像序列中两相邻目标人员图像的相关度大于或等于预设相关度阈值。其中,相关度用于表征两目标人员图像在视频中相邻的概率。
其中,上述执行主体可以通过预先训练的判定模型,来判断目标人员图像序列中两相邻目标人员图像的相关度是否大于或等于预设相关度阈值。上述判定模型可以采用机器学习算法训练得到。示例性的,上述判定模型可以是序列鉴别器(Sequencediscriminator)。
可以理解,上述可选的实现方式可以提高最终获得的视频中的两相邻图像的衔接性,使得所生成的视频与直接录制的视频更为接近。
在本实施例的一些可选的实现方式中,针对目标语音音频包括的音频帧,上述执行主体还可以采用如下步骤来执行上述步骤202:
步骤一,确定与该音频帧相对应的多个音频表达信息。
实践中,可以采用多种不同的算法(例如内容感知的时间过滤(content-awaretemporal filtering)算法、风格转换(Global style token GST)算法),或者,采用卷积神经网络等模型的多个中间特征向量得到多个音频表达信息。各个音频表达信息之间通常存在差异。
步骤二,对多个音频表达信息进行聚类处理,得到聚类中心。
步骤三,基于聚类中心,生成与该音频帧相匹配的目标人员图像序列。
可以理解,上述可选的实现方式可以通过对音频表达信息进行聚类处理,从而实现对最终生成的视频中的人员图像的表情控制,例如,可以将所得到的多个音频表达信息聚类成4大类,以聚类中心点作为目标,从而实现视频中的人员图像的表情控制。
在本实施例的一些可选的实现方式中,目标人员图像包括目标人员的面部图像。与该音频帧相对应的动作表征:目标人员发出该音频帧指示的语音。与目标语音音频相对应的动作表征:目标人员发出目标语音音频指示的语音。
可以理解,上述可选的实现方式可以根据语音音频,对目标人员的面部图像进行调整(例如调整面部图像中的口型、眼睛、眉毛,使其与上述语音音频相匹配),从而获得表征目标人员发出目标语音音频指示的语音的视频,进一步丰富了视频的生成方式,提高了所生成的视频中的语音和图像的同步性。并且,使得所生成的视频中的面部表情更丰富。
进一步参考图4,其示出了用于生成视频的方法的又一个实施例的流程400。该用于生成视频的方法的流程400,包括以下步骤:
步骤401,获取目标语音音频。
在本实施例中,步骤401与图2对应实施例中的步骤201基本一致,这里不再赘述。
步骤402,针对目标语音音频包括的音频帧,基于该音频帧执行如下步骤4021和步骤4022:
步骤4021,将该音频帧输入至针对目标人员预先训练的图像生成模型中的第一网络模型,得到与该音频帧相对应的音频表达信息。
在本实施例中,针对目标语音音频包括的音频帧,用于生成视频的方法的执行主体(例如图1所示的服务器或终端设备)可以将该音频帧输入至针对目标人员预先训练的图像生成模型中的第一网络模型,得到与该音频帧相对应的音频表达信息。其中,图像生成模型用于表征音频帧与目标人员的目标人员图像序列之间的对应关系,第一网络模型用于表征音频帧与音频表达信息之间的对应关系。
示例性的,上述第一网络模型可以包括用ASR(Automatic Speech Recognition自动语音识别)模型(如DeepSpeech)。由此,上述执行主体可以将该音频帧输入至第一网络模型中的ASR模型,从而获得音素信息。其中,该音素信息可以指示音素,也可以是预先确定的音素集合中的各个音素的后验概率(即未经归一化处理的数值)。然后,上述执行主体可以采用内容感知的时间过滤(content-aware temporal filtering)算法,或者采用风格转换(Global style token GST)算法,基于音素信息,得到与该音频帧相对应的音频表达信息。
步骤4022,将该音频帧相对应的音频表达信息输入至图像生成模型中的第二网络模型,生成与该音频帧相匹配的目标人员图像序列。
在本实施例中,上述执行主体可以将该音频帧相对应的音频表达信息输入至图像生成模型中的第二网络模型,生成与该音频帧相匹配的目标人员图像序列。其中,第二网络模型用于表征音频表达信息与目标人员的目标人员图像序列之间的对应关系。
作为示例,上述第二网络模型可以与人员具有一一对应的关系。例如,如果用户最终想要获得A人员的图像,则可以将A人员作为目标人员,采用与A人员相对应的第二网络模型,来获得与该音频帧相匹配的A人员的图像序列(即目标人员图像序列);如果用户最终想要获得B人员的图像,则可以将B人员作为目标人员,采用与B人员相对应的第二网络模型,来获得与该音频帧相匹配的B人员的图像序列(即目标人员图像序列)。
上述第二网络模型可以采用机器学习算法训练得到。可选的,第二网络模型可以也可以是关联存储有音频表达信息和目标人员的目标人员图像序列的二维表或数据库。
步骤403,基于目标语音音频和所生成的各个图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频。
在本实施例中,步骤403与图2对应实施例中的步骤203基本一致,这里不再赘述。
需要说明的是,除上面所记载的内容外,本申请实施例还可以包括与图2对应的实施例相同或类似的特征、效果,在此不再赘述。
从图4中可以看出,本实施例中的用于生成视频的方法的流程400可以采用图像生成模型,来生成表征目标人员图像指示的目标人员执行与该音频帧相对应的动作的目标人员图像序列,从而有助于提高所生成的视频中图像与语音的匹配程度。
在本实施例的一些可选的实现方式中,第一网络模型包括音素确定子模型,音素确定子模型用于表征音频帧与音素信息之间的对应关系。由此,音素确定子模型通过如下步骤训练得到:
获取训练样本集合。其中,训练样本集合中的训练样本包括音频帧和音频帧指示的音素信息。音素信息可以指示音素(例如单音素或三音素等),也可以是预先确定的音素集合中的各个音素的后验概率(即未经归一化处理的数值)。
采用机器学习算法,将训练样本集合中的音频帧作为输入数据,将输入的音频帧指示的音素信息作为期望输出数据,训练得到音素确定子模型。
实践中,在训练过程中,可以将训练样本集合中的音频帧作为初始模型的输入数据,从而得到初始模型的实际输出数据。其中,实际输出数据可以是初始模型计算得到的音素信息。之后,采用梯度下降法,基于实际输出数据和期望输出数据,调整初始模型的参数,从而获得满足预设条件的初始模型,以及将上述满足预设条件的初始模型作为音素确定子模型。或者,也可以将满足预设条件的初始模型中的、除输出层之外的模型结构作为音素确定子模型。
上述初始模型可以是包含卷积层、输出层等模型结构的卷积神经网络。上述预设条件可以包括但不限于以下至少一项:训练次数大于等于预设次数,训练时长超过预设时长,基于期望输出数据和实际输出数据计算得到的损失函数的函数值小于或等于预设阈值。
可以理解,在上述实现方式中,可以采用机器学习算法训练得到音素确定子模型,提高音素信息确定的准确度。
在本实施例的一些可选的实现方式中,第一网络模型的实际输出数据通过如下步骤得到:
将音素确定子模型输出的音素信息输入至预先训练的全球风格迁移GST(Globalstyle token)模型,得到音频表达信息,以及将所得到的音频表达信息作为第一网络模型的实际输出数据。
实践证明,相对于采用内容感知的时间过滤(content-aware temporalfiltering)等算法,采用全球风格迁移GST(Global style token)模型,可以进一步提高所生成的视频中图像与语音的匹配程度。
在上述可选的实现方式的一些应用场景中,图像生成模型通过如下步骤训练得到:
步骤一,获取目标人员视频。其中,目标人员视频是对目标人员进行语音音频和影像录制而获得的视频。作为示例,该目标人员视频的播放时长可以大于或等于预设时间阈值(例如200小时)。
步骤二,从目标人员视频中提取语音音频和与所提取的语音音频相匹配的图像序列。其中,与语音音频相匹配的图像序列可以指示人员执行该语音音频指示的动作。
步骤三,获取用于训练得到图像生成模型的初始模型。其中,上述初始模型可以包括但不限于以下模型结构:卷积层、全连接层、输出层等等。该初始模型与上述音素确定子模型可以包含相同的模型结构和模型参数。
步骤四,采用训练得到的音素确定子模型的模型参数,初始化初始模型中,与所训练得到的音素确定子模型的模型参数相应的模型参数,得到中间模型。其中,与音素确定子模型的模型参数相对应的模型参数可以是:与音素确定子模型的模型参数相同的模型参数。
步骤五,采用机器学习算法,将所提取的语音音频中的音频帧作为中间模型的输入数据,将与输入的音频帧相匹配的图像序列作为中间模型的期望输出数据,训练得到图像生成模型。
可以理解,在上述应用场景中,可以首先采用音素确定子模型的模型参数,对初始模型中与该音素确定子模型的模型参数相对应的模型参数进行初始化,得到中间模型,然后,基于中间模型训练得到图像生成模型,从而可以使得音素信息作为最终训练得到的图像生成模型的中间特征信息,进而提高了图像生成模型生成图像序列的准确度。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种用于生成视频的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,除下面所记载的特征外,该装置实施例还可以包括与图2所示的方法实施例相同或相应的特征,以及产生与图2所示的方法实施例相同或相应的效果。该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于生成视频的装置500包括:获取单元501、确定单元502和生成单元503。其中,获取单元501,被配置成获取目标语音音频;确定单元502,被配置成针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员;生成单元503,被配置成基于目标语音音频和所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频。
在本实施例中,用于生成视频的装置500的获取单元501可以通过有线连接方式或者无线连接方式从其他电子设备,或者本地获取目标语音音频。
在本实施例中,针对获取单元501获取到的目标语音音频包括的音频帧,上述确定单元502可以确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员。
在本实施例中,上述生成单元503可以基于获取单元501获取到的目标语音音频和确定单元502所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频。
在本实施例的一些可选的实现方式中,确定单元502包括:确定子单元(图中未示出),被配置成基于该音频帧指示的音素,确定与该音频帧相对应的音频表达信息。
在本实施例的一些可选的实现方式中,确定单元502包括:第一生成子单元(图中未示出),被配置成基于与该音频帧相对应的音频表达信息,生成与该音频帧相对应的融合变形信息;第二生成子单元(图中未示出),被配置成基于与该音频帧相对应的融合变形信息,生成与该音频帧相匹配的目标人员图像序列。
在本实施例的一些可选的实现方式中,确定单元502包括:第一输入子单元(图中未示出),被配置成针对目标语音音频包括的音频帧,将该音频帧输入至针对目标人员预先训练的图像生成模型中的第一网络模型,得到与该音频帧相对应的音频表达信息,其中,图像生成模型用于表征音频帧与目标人员的目标人员图像序列之间的对应关系,第一网络模型用于表征音频帧与音频表达信息之间的对应关系;第二输入子单元(图中未示出),被配置成将该音频帧相对应的音频表达信息输入至图像生成模型中的第二网络模型,生成与该音频帧相匹配的目标人员图像序列,其中,第二网络模型用于表征音频表达信息与目标人员的目标人员图像序列之间的对应关系。
在本实施例的一些可选的实现方式中,第一网络模型包括音素确定子模型,音素确定子模型用于表征音频帧与音素信息之间的对应关系;以及,音素确定子模型通过如下步骤训练得到:获取训练样本集合,其中,训练样本集合中的训练样本包括音频帧和音频帧指示的音素信息;采用机器学习算法,将训练样本集合中的音频帧作为输入数据,将输入的音频帧指示的音素信息作为期望输出数据,训练得到音素确定子模型。
在本实施例的一些可选的实现方式中,第一网络模型的实际输出数据通过如下步骤得到:将音素确定子模型输出的音素信息输入至预先训练的全球风格迁移GST模型,得到音频表达信息,以及将所得到的音频表达信息作为第一网络模型的实际输出数据。
在本实施例的一些可选的实现方式中,图像生成模型通过如下步骤训练得到:获取目标人员视频,其中,目标人员视频是对目标人员进行语音音频和影像录制而获得的视频;从目标人员视频中提取语音音频和与所提取的语音音频相匹配的图像序列;获取用于训练得到图像生成模型的初始模型;采用训练得到的音素确定子模型的模型参数,初始化初始模型中,与所训练得到的音素确定子模型的模型参数相应的模型参数,得到中间模型;采用机器学习算法,将所提取的语音音频中的音频帧作为中间模型的输入数据,将与输入的音频帧相匹配的图像序列作为中间模型的期望输出数据,训练得到图像生成模型。
在本实施例的一些可选的实现方式中,目标人员图像序列中两相邻目标人员图像的相关度大于或等于预设相关度阈值,其中,相关度用于表征两目标人员图像在视频中相邻的概率。
在本实施例的一些可选的实现方式中,确定单元502包括:第二确定子单元(图中未示出),被配置成确定与该音频帧相对应的多个音频表达信息;聚类子单元(图中未示出),被配置成对多个音频表达信息进行聚类处理,得到聚类中心;第三生成子单元(图中未示出),被配置成基于聚类中心,生成与该音频帧相匹配的目标人员图像序列。
在本实施例的一些可选的实现方式中,目标人员图像包括目标人员的面部图像;与该音频帧相对应的动作表征:目标人员发出该音频帧指示的语音;与目标语音音频相对应的动作表征:目标人员发出目标语音音频指示的语音。
本公开的上述实施例提供的装置,通过获取单元501获取目标语音音频,然后,确定单元502针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员,最后,生成单元503基于目标语音音频和所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频,从而可以根据任意语音音频,来调整图像中呈现的预定人员的动作,从而生成预定人员执行与该语音音频相对应的动作的视频,并且,可以针对不同人员生成不同的视频,由此丰富了视频的生成方式,提高了所生成的视频中的语音和图像的同步性。并且,有助于提高所生成的视频中的肢体语言的表现力。
下面参考图6,其示出了适于用来实现本公开的实施例的电子设备的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本公开的方法中限定的上述功能。
需要说明的是,本公开所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,所述程序设计语言包括面向目标的程序设计语言—诸如Python、Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
根据本公开的一个或多个实施例,本公开提供了一种用于生成视频的方法,该方法包括:获取目标语音音频;针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员;基于目标语音音频和所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的方法中,确定与该音频帧相对应的音频表达信息,包括:基于该音频帧指示的音素,确定与该音频帧相对应的音频表达信息。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的方法中,基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,包括:基于与该音频帧相对应的音频表达信息,生成与该音频帧相对应的融合变形信息;基于与该音频帧相对应的融合变形信息,生成与该音频帧相匹配的目标人员图像序列。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的方法中,针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,包括:针对目标语音音频包括的音频帧,将该音频帧输入至针对目标人员预先训练的图像生成模型中的第一网络模型,得到与该音频帧相对应的音频表达信息,其中,图像生成模型用于表征音频帧与目标人员的目标人员图像序列之间的对应关系,第一网络模型用于表征音频帧与音频表达信息之间的对应关系;将该音频帧相对应的音频表达信息输入至图像生成模型中的第二网络模型,生成与该音频帧相匹配的目标人员图像序列,其中,第二网络模型用于表征音频表达信息与目标人员的目标人员图像序列之间的对应关系。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的方法中,第一网络模型包括音素确定子模型,音素确定子模型用于表征音频帧与音素信息之间的对应关系;以及,音素确定子模型通过如下步骤训练得到:获取训练样本集合,其中,训练样本集合中的训练样本包括音频帧和音频帧指示的音素信息;采用机器学习算法,将训练样本集合中的音频帧作为输入数据,将输入的音频帧指示的音素信息作为期望输出数据,训练得到音素确定子模型。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的方法中,第一网络模型的实际输出数据通过如下步骤得到:将音素确定子模型输出的音素信息输入至预先训练的全球风格迁移GST模型,得到音频表达信息,以及将所得到的音频表达信息作为第一网络模型的实际输出数据。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的方法中,图像生成模型通过如下步骤训练得到:获取目标人员视频,其中,目标人员视频是对目标人员进行语音音频和影像录制而获得的视频;从目标人员视频中提取语音音频和与所提取的语音音频相匹配的图像序列;获取用于训练得到图像生成模型的初始模型;采用训练得到的音素确定子模型的模型参数,初始化初始模型中,与所训练得到的音素确定子模型的模型参数相应的模型参数,得到中间模型;采用机器学习算法,将所提取的语音音频中的音频帧作为中间模型的输入数据,将与输入的音频帧相匹配的图像序列作为中间模型的期望输出数据,训练得到图像生成模型。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的方法中,目标人员图像序列中两相邻目标人员图像的相关度大于或等于预设相关度阈值,其中,相关度用于表征两目标人员图像在视频中相邻的概率。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的方法中,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,包括:确定与该音频帧相对应的多个音频表达信息;对多个音频表达信息进行聚类处理,得到聚类中心;基于聚类中心,生成与该音频帧相匹配的目标人员图像序列。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的方法中,目标人员图像包括目标人员的面部图像;与该音频帧相对应的动作表征:目标人员发出该音频帧指示的语音;与目标语音音频相对应的动作表征:目标人员发出目标语音音频指示的语音。
根据本公开的一个或多个实施例,本公开提供了一种用于生成视频的装置,该装置包括:获取单元,被配置成获取目标语音音频;确定单元,被配置成针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员;生成单元,被配置成基于目标语音音频和所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的装置中,确定单元包括:确定子单元,被配置成基于该音频帧指示的音素,确定与该音频帧相对应的音频表达信息。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的装置中,确定单元包括:第一生成子单元,被配置成基于与该音频帧相对应的音频表达信息,生成与该音频帧相对应的融合变形信息;第二生成子单元,被配置成基于与该音频帧相对应的融合变形信息,生成与该音频帧相匹配的目标人员图像序列。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的装置中,确定单元包括:第一输入子单元,被配置成针对目标语音音频包括的音频帧,将该音频帧输入至针对目标人员预先训练的图像生成模型中的第一网络模型,得到与该音频帧相对应的音频表达信息,其中,图像生成模型用于表征音频帧与目标人员的目标人员图像序列之间的对应关系,第一网络模型用于表征音频帧与音频表达信息之间的对应关系;第二输入子单元,被配置成将该音频帧相对应的音频表达信息输入至图像生成模型中的第二网络模型,生成与该音频帧相匹配的目标人员图像序列,其中,第二网络模型用于表征音频表达信息与目标人员的目标人员图像序列之间的对应关系。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的装置中,第一网络模型包括音素确定子模型,音素确定子模型用于表征音频帧与音素信息之间的对应关系;以及,音素确定子模型通过如下步骤训练得到:获取训练样本集合,其中,训练样本集合中的训练样本包括音频帧和音频帧指示的音素信息;采用机器学习算法,将训练样本集合中的音频帧作为输入数据,将输入的音频帧指示的音素信息作为期望输出数据,训练得到音素确定子模型。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的装置中,第一网络模型的实际输出数据通过如下步骤得到:将音素确定子模型输出的音素信息输入至预先训练的全球风格迁移GST模型,得到音频表达信息,以及将所得到的音频表达信息作为第一网络模型的实际输出数据。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的装置中,图像生成模型通过如下步骤训练得到:获取目标人员视频,其中,目标人员视频是对目标人员进行语音音频和影像录制而获得的视频;从目标人员视频中提取语音音频和与所提取的语音音频相匹配的图像序列;获取用于训练得到图像生成模型的初始模型;采用训练得到的音素确定子模型的模型参数,初始化初始模型中,与所训练得到的音素确定子模型的模型参数相应的模型参数,得到中间模型;采用机器学习算法,将所提取的语音音频中的音频帧作为中间模型的输入数据,将与输入的音频帧相匹配的图像序列作为中间模型的期望输出数据,训练得到图像生成模型。
根据本公开的一个或多个实施例,目标人员图像序列中两相邻目标人员图像的相关度大于或等于预设相关度阈值,其中,相关度用于表征两目标人员图像在视频中相邻的概率。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的装置中,确定单元包括:第二确定子单元,被配置成确定与该音频帧相对应的多个音频表达信息;聚类子单元,被配置成对多个音频表达信息进行聚类处理,得到聚类中心;第三生成子单元,被配置成基于聚类中心,生成与该音频帧相匹配的目标人员图像序列。
根据本公开的一个或多个实施例,本公开提供的用于生成视频的装置中,目标人员图像包括目标人员的面部图像;与该音频帧相对应的动作表征:目标人员发出该音频帧指示的语音;与目标语音音频相对应的动作表征:目标人员发出目标语音音频指示的语音。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、确定单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取目标语音音频的单元”。
作为另一方面,本公开还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标语音音频;针对目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,目标人员为目标人员图像序列中的目标人员图像指示的人员;基于目标语音音频和所生成的各个目标人员图像序列,生成表征目标人员执行与目标语音音频相对应的动作的视频。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离本公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (13)

1.一种用于生成视频的方法,包括:
获取目标语音音频;
针对所述目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,所述目标人员为所述目标人员图像序列中的目标人员图像指示的人员;所述针对所述目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,包括:针对所述目标语音音频包括的音频帧,将该音频帧输入至针对目标人员预先训练的图像生成模型中的第一网络模型,得到与该音频帧相对应的音频表达信息,其中,所述第一网络模型用于表征音频帧与音频表达信息之间的对应关系;
基于所述目标语音音频和所生成的各个目标人员图像序列,生成表征所述目标人员执行与所述目标语音音频相对应的动作的视频。
2.根据权利要求1所述的方法,其中,所述确定与该音频帧相对应的音频表达信息,包括:
基于该音频帧指示的音素,确定与该音频帧相对应的音频表达信息。
3.根据权利要求1所述的方法,其中,所述基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,包括:
基于与该音频帧相对应的音频表达信息,生成与该音频帧相对应的融合变形信息;
基于与该音频帧相对应的融合变形信息,生成与该音频帧相匹配的目标人员图像序列。
4.根据权利要求1所述的方法,其中,所述基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,包括:
将该音频帧相对应的音频表达信息输入至所述图像生成模型中的第二网络模型,生成与该音频帧相匹配的目标人员图像序列,其中,所述图像生成模型用于表征音频帧与所述目标人员的目标人员图像序列之间的对应关系;所述第二网络模型用于表征音频表达信息与所述目标人员的目标人员图像序列之间的对应关系。
5.根据权利要求4所述的方法,其中,所述第一网络模型包括音素确定子模型,所述音素确定子模型用于表征音频帧与音素信息之间的对应关系;以及
所述音素确定子模型通过如下步骤训练得到:
获取训练样本集合,其中,所述训练样本集合中的训练样本包括音频帧和音频帧指示的音素信息;
采用机器学习算法,将所述训练样本集合中的音频帧作为输入数据,将输入的音频帧指示的音素信息作为期望输出数据,训练得到音素确定子模型。
6.根据权利要求5所述的方法,其中,所述第一网络模型的实际输出数据通过如下步骤得到:
将所述音素确定子模型输出的音素信息输入至预先训练的全球风格迁移GST模型,得到音频表达信息,以及将所得到的音频表达信息作为第一网络模型的实际输出数据。
7.根据权利要求5所述的方法,其中,所述图像生成模型通过如下步骤训练得到:
获取目标人员视频,其中,所述目标人员视频是对目标人员进行语音音频和影像录制而获得的视频;
从所述目标人员视频中提取语音音频和与所提取的语音音频相匹配的图像序列;
获取用于训练得到图像生成模型的初始模型;
采用训练得到的音素确定子模型的模型参数,初始化所述初始模型中,与所训练得到的音素确定子模型的模型参数相应的模型参数,得到中间模型;
采用机器学习算法,将所提取的语音音频中的音频帧作为中间模型的输入数据,将与输入的音频帧相匹配的图像序列作为中间模型的期望输出数据,训练得到图像生成模型。
8.根据权利要求1-7之一所述的方法,其中,目标人员图像序列中两相邻目标人员图像的相关度大于或等于预设相关度阈值,其中,所述相关度用于表征两目标人员图像在视频中相邻的概率。
9.根据权利要求1-7之一所述的方法,其中,所述确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,包括:
确定与该音频帧相对应的多个音频表达信息;
对所述多个音频表达信息进行聚类处理,得到聚类中心;
基于所述聚类中心,生成与该音频帧相匹配的目标人员图像序列。
10.根据权利要求1-7之一所述的方法,其中,目标人员图像包括目标人员的面部图像;与该音频帧相对应的动作表征:目标人员发出该音频帧指示的语音;与所述目标语音音频相对应的动作表征:目标人员发出目标语音音频指示的语音。
11.一种用于生成视频的装置,包括:
获取单元,被配置成获取目标语音音频;
确定单元,被配置成针对所述目标语音音频包括的音频帧,确定与该音频帧相对应的音频表达信息,以及基于与该音频帧相对应的音频表达信息,生成与该音频帧相匹配的目标人员图像序列,其中,与该音频帧相匹配的目标人员图像序列表征目标人员执行与该音频帧相对应的动作,所述目标人员为所述目标人员图像序列中的目标人员图像指示的人员;所述确定单元包括:第一输入子单元,被配置成针对所述目标语音音频包括的音频帧,将该音频帧输入至针对目标人员预先训练的图像生成模型中的第一网络模型,得到与该音频帧相对应的音频表达信息,其中,所述第一网络模型用于表征音频帧与音频表达信息之间的对应关系;
生成单元,被配置成基于所述目标语音音频和所生成的各个目标人员图像序列,生成表征所述目标人员执行与所述目标语音音频相对应的动作的视频。
12.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的方法。
13.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-10中任一所述的方法。
CN202010183109.9A 2020-03-16 2020-03-16 用于生成视频的方法、装置、设备和介质 Active CN111415677B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010183109.9A CN111415677B (zh) 2020-03-16 2020-03-16 用于生成视频的方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010183109.9A CN111415677B (zh) 2020-03-16 2020-03-16 用于生成视频的方法、装置、设备和介质

Publications (2)

Publication Number Publication Date
CN111415677A CN111415677A (zh) 2020-07-14
CN111415677B true CN111415677B (zh) 2020-12-25

Family

ID=71493035

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010183109.9A Active CN111415677B (zh) 2020-03-16 2020-03-16 用于生成视频的方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN111415677B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111432233B (zh) * 2020-03-20 2022-07-19 北京字节跳动网络技术有限公司 用于生成视频的方法、装置、设备和介质
CN113689880B (zh) * 2020-05-18 2024-05-28 北京搜狗科技发展有限公司 实时驱动虚拟人的方法、装置、电子设备及介质
CN114117086A (zh) * 2020-08-31 2022-03-01 脸萌有限公司 多媒体作品的制作方法、装置及计算机可读存储介质
CN112383722B (zh) * 2020-11-13 2023-04-07 北京有竹居网络技术有限公司 用于生成视频的方法和装置
CN112383721B (zh) * 2020-11-13 2023-04-07 北京有竹居网络技术有限公司 用于生成视频的方法、装置、设备和介质
CN112887789B (zh) * 2021-01-22 2023-02-21 北京百度网讯科技有限公司 视频生成模型的构建和视频生成方法、装置、设备及介质
CN112927712B (zh) * 2021-01-25 2024-06-04 网易(杭州)网络有限公司 视频生成方法、装置和电子设备
CN112837401B (zh) * 2021-01-27 2024-04-09 网易(杭州)网络有限公司 一种信息处理方法、装置、计算机设备及存储介质
CN113111813B (zh) * 2021-04-20 2024-07-19 深圳追一科技有限公司 基于asr声学模型的嘴部动作驱动模型训练方法及组件
CN113507627B (zh) * 2021-07-08 2022-03-25 北京的卢深视科技有限公司 视频生成方法、装置、电子设备及存储介质
CN113709548B (zh) * 2021-08-09 2023-08-25 北京达佳互联信息技术有限公司 基于图像的多媒体数据合成方法、装置、设备及存储介质
CN113935418A (zh) * 2021-10-15 2022-01-14 北京字节跳动网络技术有限公司 视频生成方法及设备
CN113901267A (zh) * 2021-10-18 2022-01-07 深圳追一科技有限公司 动作视频的生成方法、装置、设备及介质
CN113763519B (zh) * 2021-11-09 2022-02-08 江苏原力数字科技股份有限公司 一种基于深度学习的语音驱动3d人物面部表情方法
CN115278382B (zh) * 2022-06-29 2024-06-18 北京捷通华声科技股份有限公司 基于音频片段的视频片段确定方法及装置
CN115187727B (zh) * 2022-06-29 2023-06-13 北京百度网讯科技有限公司 一种虚拟面部图像的生成方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101419499A (zh) * 2008-11-14 2009-04-29 东南大学 基于摄像头和话筒的多媒体人机交互方法
CN101482976A (zh) * 2009-01-19 2009-07-15 腾讯科技(深圳)有限公司 语音驱动嘴唇形状变化的方法、获取嘴唇动画的方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101751692B (zh) * 2009-12-24 2012-05-30 四川大学 语音驱动唇形动画的方法
GB2510200B (en) * 2013-01-29 2017-05-10 Toshiba Res Europe Ltd A computer generated head
CN103218842B (zh) * 2013-03-12 2015-11-25 西南交通大学 一种语音同步驱动三维人脸口型与面部姿势动画的方法
US20170039750A1 (en) * 2015-03-27 2017-02-09 Intel Corporation Avatar facial expression and/or speech driven animations
US9911218B2 (en) * 2015-12-01 2018-03-06 Disney Enterprises, Inc. Systems and methods for speech animation using visemes with phonetic boundary context
CN106653052B (zh) * 2016-12-29 2020-10-16 Tcl科技集团股份有限公司 虚拟人脸动画的生成方法及装置
CN109377539B (zh) * 2018-11-06 2023-04-11 北京百度网讯科技有限公司 用于生成动画的方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101419499A (zh) * 2008-11-14 2009-04-29 东南大学 基于摄像头和话筒的多媒体人机交互方法
CN101482976A (zh) * 2009-01-19 2009-07-15 腾讯科技(深圳)有限公司 语音驱动嘴唇形状变化的方法、获取嘴唇动画的方法及装置

Also Published As

Publication number Publication date
CN111415677A (zh) 2020-07-14

Similar Documents

Publication Publication Date Title
CN111415677B (zh) 用于生成视频的方法、装置、设备和介质
CN111432233B (zh) 用于生成视频的方法、装置、设备和介质
US11475897B2 (en) Method and apparatus for response using voice matching user category
WO2022052481A1 (zh) 基于人工智能的vr互动方法、装置、计算机设备及介质
JP7126613B2 (ja) ドメイン分類器を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法
CN110555126B (zh) 旋律的自动生成
US20190392625A1 (en) Method and apparatus for generating animation
KR102346046B1 (ko) 3차원 가상 인물 입모양 변화 제어 방법 및 장치
US20200126566A1 (en) Method and apparatus for voice interaction
JP7108144B2 (ja) クロスドメインバッチ正規化を使用したニューラルネットワークにおけるドメイン適応のためのシステム及び方法
US20170084295A1 (en) Real-time speaker state analytics platform
CN107409061A (zh) 语音总结程序
US20230215068A1 (en) Method for outputting blend shape value, storage medium, and electronic device
CN109697978B (zh) 用于生成模型的方法和装置
CN109545192A (zh) 用于生成模型的方法和装置
CN114999441B (zh) 虚拟形象生成方法、装置、设备、存储介质以及程序产品
JP2023552854A (ja) ヒューマンコンピュータインタラクション方法、装置、システム、電子機器、コンピュータ可読媒体及びプログラム
CN110516083A (zh) 相册管理方法、存储介质及电子设备
CN111192659A (zh) 用于抑郁检测的预训练方法和抑郁检测方法及装置
CN113299312A (zh) 一种图像生成方法、装置、设备以及存储介质
CN113282791B (zh) 视频生成方法和装置
CN112383721B (zh) 用于生成视频的方法、装置、设备和介质
CN117635383A (zh) 一种虚拟导师与多人协作口才培训系统、方法及设备
CN111415662A (zh) 用于生成视频的方法、装置、设备和介质
US20240320519A1 (en) Systems and methods for providing a digital human in a virtual environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: Tiktok vision (Beijing) Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.