WO2023061229A1 - 视频生成方法及设备 - Google Patents
视频生成方法及设备 Download PDFInfo
- Publication number
- WO2023061229A1 WO2023061229A1 PCT/CN2022/122332 CN2022122332W WO2023061229A1 WO 2023061229 A1 WO2023061229 A1 WO 2023061229A1 CN 2022122332 W CN2022122332 W CN 2022122332W WO 2023061229 A1 WO2023061229 A1 WO 2023061229A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image generation
- image
- target
- target audio
- input vector
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
Abstract
本公开实施例提供一种视频生成方法、一种模型确定方法、设备、存储介质、计算机程序产品及计算机程序,该视频生成方法包括:获取目标音频;根据目标音频的特征信息和图像生成模型,生成图像序列,图像生成模型用于根据随机输入的向量生成对应的图像;对目标音频和图像序列进行结合,生成目标音频对应的目标视频。
Description
本申请要求于2021年10月15日提交中国专利局、申请号为202111204221.7、申请名称为“视频生成方法及设备”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
本公开实施例涉及计算机技术领域,尤其涉及一种视频生成方法、一种模型确定方法、设备、存储介质、计算机程序产品及计算机程序。
随着网络技术的发展,融合了图像、文字、声音等丰富元素的视频,逐渐成为互联网的主流表达方式。
除视频之外,音频也是互联网的表达方式。例如,用户可以在社交平台上传自己录制的歌曲,或者,在社交平台分享自己最近听的歌曲,来表达自己的听歌喜好、最近动态等。
发明内容
本公开实施例提供一种视频生成方法、一种模型确定方法、设备、存储介质、计算机程序产品及计算机程序。
第一方面,本公开实施例提供一种视频生成方法,包括:
获取目标音频;
根据所述目标音频的特征信息和图像生成模型,生成图像序列,所述图像生成模型用于根据随机输入的向量生成对应的图像;
对所述目标音频和所述图像序列进行结合,生成所述目标音频对应的目标视频。
第二方面,本公开实施例提供一种模型确定方法,包括:
获取训练数据,所述训练数据包括多个图像;
基于所述训练数据,多次训练图像生成模型,所述图像生成模型用于根据随机输入的向量生成对应的图像;
所述图像生成模型的一次训练过程包括:
随机确定输入向量,并在所述多个图像中随机确定标签数据;
将所述输入向量输入所述图像生成模型,得到输出图像;
根据所述输出图像与所述标签数据的差异,调整所述图像生成模型。
第三方面,本公开实施例提供一种视频生成设备,包括:
获取单元,用于获取目标音频;
图像生成单元,用于根据所述目标音频的特征信息和图像生成模型,生成图像序列,所述图像生成模型用于根据随机输入的向量生成对应的图像;
视频生成单元,用于对所述目标音频和所述图像序列进行结合,生成所述目标音频对应的目标视频。
第四方面,本公开实施例提供一种模型确定设备,包括:
获取单元,用于获取训练数据,所述训练数据包括多个图像;
训练单元,用于基于所述训练数据,多次训练图像生成模型,所述图像生成模型用于根据随机输入的向量生成对应的图像;
在所述图像生成模型的一次训练过程中,所述训练单元还用于:
随机确定输入向量,并在所述多个图像中随机确定标签数据;
将所述输入向量输入所述图像生成模型,得到输出图像;
根据所述输出图像与所述标签数据的差异,调整所述图像生成模型。
第五方面,本公开实施例提供一种电子设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如第一方面或第一方面各种可能的设计所述的视频生成方法,或者,使得所述至少一个处理器执行如第二方面或第二方面各种可能的设计所述的模型确定方法。
第六方面,本公开实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面或第一方面各种可能的设计所述的视频生成方法,或者,实现如第二方面或第二方面各种可能的设计所述的模型确定方法。
第七方面,本公开实施例提供一种计算机程序产品,所述计算机程序产品包含计算机执行指令,当处理器执行所述计算机执行指令时,实现如第一方面或第一方面各种可能的设计所述的视频生成方法,或者,实现如第二方面或第二方面各种可能的设计所述的模型确定方法。
第八方面,本公开实施例提供一种计算机程序,所述计算机程序包含计算机执行指令,当处理器执行所述计算机执行指令时,实现如第一方面或第一方面各种可能的设计所述的视频生成方法,或者,实现如第二方面或第二方面各种可能的设计所述的模型确定方法。
本实施例提供的视频生成方法、模型确定方法、设备、存储介质、计算机程序产品及计算机程序,基于目标音频的特征信息和图像生成模型,生成图像序列,将目标音频与图像序列进行结合,生成该音频对应的目标视频,其中,图像生成模型用于根据随机输入的向量生成对应的图像。
为了更清楚地说明本公开实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例适用的应用场景的示意图;
图2为本公开实施例提供的视频生成方法的流程示意图一;
图3为本公开实施例提供的视频生成方法的流程示意图二;
图4为本公开实施例提供的视频生成方法的流程示意图三;
图5为本公开实施例提供的模型确定方法的流程示意图一;
图6为本公开实施例提供的将音乐转换为视频的过程示意图;
图7为本公开实施例提供的视频生成设备的结构框图;
图8为本公开实施例提供的模型确定设备的结构框图;
图9为本公开实施例提供的电子设备的硬件结构示意图。
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
在相关技术中,将音频转换为视频,通常由用户手动收集作为视频素材的图像,基于音频的播放时间轴安排图像的播放时间。该方式存在以下不足之处:1、整个过程耗时较长,效率较低;2、视频内容的丰富程度局限于用户收集和组织视频素材的能力,视频质量受主观因素影响较大;3、制作出与音频的风格或类型等特征相契合的视频的难度较大;4、用户在网络上手动收集视频素材,需要注意视频素材是否经过授权,存在版权风险。
此外,相较于视频,音频的表达形式单一,而且用户在视频网站上传音频时常遇见没有适合音频的视频素材的问题。因此,如何将音频转换为内容更为丰富的视频是目前需要解决的问题。
为解决上述问题,本公开实施例提供了一种视频生成方法、一种模型确定方法、设备、存储介质、计算机程序产品及计算机程序,根据目标音频的特征信息和用于根据随机输入的向量生成对应图像的图像生成模型,生成图像序列,再将目标音频与图像序列进行结合,生成目标音频对应的目标视频。可见,本公开实施例存在以下有益效果:1、有效地提高了将音频转换为视频的效率,用户只需要输入目标音频,便可得到与目标音频对应的目标视频;2、视频内容质量稳定,对用户的视频制作能力要求较低,能够为广泛的用户群体提供音频转换为视频的服务,提高用户体验;3、在生成图像序列的过程中,参考了目标音频的特征信息,能够生成与音频的特征信息相契合的视频,提高视频的个性化和独特性;4、作为视频素材的图像序列,是由图像生成模型基于随机输入的向量生成的,不存在版权风险。
参考图1,图1为本公开实施例适用的应用场景的示意图。
如图1所示,在该应用场景中,涉及的设备包括终端101和服务器102。用户可在终端101上输入音频,终端101将用户输入的音频发送给服务器102,由服务器102将该音频转换为视频,将该视频发送给终端101,终端101向用户展示该视频。其中,终端101与服务器102例如通过网络进行通信。
以用户在视频平台上传音频为例,终端101上安装有视频平台的应用程序,服务器102为视频平台对应的后台服务器(或称为产品服务器),用户在终端101上的应用程序上输入待上传的音频,终端101将音频发送给服务器102,由服务器102将音频转换为视频并将视频 返回给终端101,终端101向用户展示该视频,用户确认该视频符合自身需求后,确定上传该视频。
其中,在终端101的计算能力较强时,可由终端101将音频转换为视频。
其中,终端可以是个人数字助理(personal digital assistant,简称PDA)设备、手持设备(例如智能手机、平板电脑)、计算设备(例如个人电脑(personal computer,简称PC))、车载设备、可穿戴设备(例如智能手表、智能手环)、以及智能家居设备(例如智能显示设备)等。服务器可以是分布式服务器、集中式服务器、云服务器等。
下面,提供本公开的多个实施例。其中,本公开的多个实施例的执行主体可以为电子设备,电子设备可以为终端或者服务器。
参考图2,图2为本公开实施例提供的视频生成方法流程示意图一。如图2所示,该视频生成方法包括:
S201、获取目标音频。
其中,目标音频的数量可为一个或多个,目标音频的种类例如为歌曲、语音等,在此,对目标音频的种类、格式不做限制。
一示例中,获取用户输入的目标音频。例如,获取用户在音乐播放器、视频平台等应用程序上录制或上传的音乐。
又一示例中,获取音频数据库中的一个或多个目标音频。例如,可从音频数据库中,随机获取目标音频,或者,按存储顺序获取目标音频,或者,按用户指定顺序获取目标音频,或者,获取用户指定的目标音频。其中,音频数据库可以为本地数据库或者云端数据库。
又一示例中,获取来自另一设备的目标音频。例如,当前执行主体为服务器时,可获取来自终端的目标音频。
本实施例中,可响应于面向目标音频的视频制作请求,从视频制作请求中获得目标音频,或者,采用上述任一示例中的方式获得目标音频。其中,面向目标音频的视频制作请求可由预设用户操作触发,例如,在视频平台对应的应用程序中,用户在上传了目标音频后,点击“制作视频”的按键,触发面向目标音频的视频制作请求。
S202、根据目标音频的特征信息和图像生成模型,生成图像序列,图像生成模型用于根据随机输入的向量生成对应的图像。
其中,目标音频的特征信息可反映目标音频一个或多个方面的特征。
其中,图像生成模型可为输入数据为向量、输出数据为图像的深度学习模型,以通过深度学习模型来提高图像生成质量。
本实施例中,从目标音频中提取得到目标音频的特征信息。随机生成输入向量,在结合目标音频的特征信息和随机生成的输入向量的基础上,利用图像生成模型生成多张图像,得到图像序列。其中,在图像的生成过程中,利用目标音频的特征信息,使得图像生成模型生成的图像符合音频一个或多个方面的特征,提高图像与音频的一个或多个方面特征的契合程度,利用随机生成的输入向量,使得图像序列中的图像具备随机性,从而,为目标音频生成了独特的、个性化的且适合目标音频的图像序列,并避免了版权风险。
S203、对目标音频和图像序列进行结合,生成目标音频对应的目标视频。
本实施例中,可基于目标音频的播放时间轴,安排目标视频中每帧图像的播放时间,在目标音频的播放时间轴上实现目标音频与图像序列的结合,得到以目标音频为视频音频、以 图像序列为视频画面的目标视频。从而,为音频生成了独特的、个性化的且适合目标音频的视频。
本公开实施例中,基于目标音频的特征信息和用于根据随机输入的向量生成对应图像的图像生成模型,生成图像序列,结合目标音频和图像序列,生成目标视频。从而,提高了音频转换为视频的效率,降低了对用户视频制作能力的要求,为更多的用户提供音频转换视频的服务,而且转换得到的视频具有独特性、个性化、与音频契合程度较高的特点,并避免版权风险。
考虑到不同场景类型的音频适合不同场景类型的图像,而受训练数据的限制,一个图像生成模型应用于生成某一特定场景类型的图像时的模型效果更好,更能够生成质量较好、场景类型更准确的图像。鉴于此,本公开又提供了一实施例,以提高转换得到的视频与音频在场景类型上的契合程度,即实现将音频转换为场景类型相同或相近的视频。
参考图3,图3为本公开实施例提供的视频生成方法流程示意图二。如图3所示,该视频生成方法包括:
S301、获取目标音频。
其中,S301的实现原理和技术效果可参照前述实施例,不再赘述。
S302、确定目标音频所属的目标场景类型。
其中,音频所属的场景类型能够从场景角度反映音频的特点,使得音频具有画面感。例如,场景类型包括星空场景、自然场景、烟花场景等。可见,在将音频转换为视频的过程中,利用音频所属的场景类型有利于转换得到视频画面与音频的契合度更高的视频。
一示例中,获取用户输入的目标场景类型。
例如,用户输入目标音频的同时,输入目标音频所属的目标场景类型;又如,在获得目标音频后,提醒用户输入目标音频所属的目标场景类型,再获取用户输入的目标场景类型。
又一示例中,可通过自然语言处理方式和目标音频的音频信息,确定目标音频所属的目标场景类型。
其中,目标音频的音频信息包括如下一种或多种:目标音频的名称、目标音频的简介、目标音频的内容。
具体的,可利用预设的场景词典,对目标音频的音频信息进行自然语言处理,例如切词、匹配等,提取得到与场景类型相关的词语,基于这些词语得到目标音频所属的目标场景类型。从而,利用自然语言处理方式,提高确定目标音频所属的目标场景类型的准确性。
以歌曲为例,歌曲的音频信息包括歌曲的名称、简介和歌词,利用自然语言处理方法,从歌曲的名称、简介和歌词中提取出“星空”、“月亮”等与场景相关的词语,可由这些词语构成歌曲的场景信息。
又一示例中,在多个场景类型中,确定目标场景类型为与目标音频的标识信息相匹配的场景类型。
其中,预先设置多个场景类型,例如星空场景、自然场景、烟花场景。目标音频的标识信息包括目标音频的名称、标签词和/或标识图。例如,针对一些与星空场景相关的歌曲,在音乐播放平台,用户可能为这些歌曲添加类似于“星空”、“月亮”、“星星”的标签词;标识图为目标音频的封面图。
具体的,将多个场景类型与目标音频的标识信息进行匹配,得到多个场景类型与目标音频的标识信息的匹配度,确定目标场景类型为多个场景类型中与目标音频的标识信息的匹配度最高的场景类型。其中,将多个场景类型与目标音频的标识信息进行匹配包括如下至少一种:将多个场景类型的名称与目标音频的名称和/或标识词进行匹配、将多个场景类型的场景图像与目标音频的标识图进行匹配。从而,通过图文匹配的方式,提高确定目标音频所属的目标场景类型的准确性。
S303、确定目标场景类型对应的图像生成模型,目标场景类型对应的图像生成模型用于根据随机输入的向量生成对应目标场景类型的图像。
其中,可预先训练得到多个场景类型分别对应的图像场景模型,得到多个场景类型与图像生成模型的对应关系。在该对应关系中,场景类型对应的图像生成模型用于生成对应该场景类型的图像。
例如,星空场景对应的图像生成模型,用于生成对应星空场景的图像;自然场景对应的图像生成模型用于生成对应自然场景的图像;烟花场景对应的图像生成模型用于生成对应烟花场景的图像。
本实施例中,可基于场景类型与图像生成模型的对应关系,确定目标场景类型对应的图像生成模型。具体的,在该对应关系中,查找目标场景类型,再确定与目标场景类型对应的图像生成模型,从而,提高图像生成模型所生成的图像与音频在场景类型上的契合度,进而提高后续生成的视频与音频在场景类型上的契合度,提高视频生成效果。
可选的,不同场景类型对应的图像生成模型的模型结构相同。
可选的,不同场景类型对应的图像生成模型的模型结构不同,从而,可以适应于不同场景的实际情况,设计相应的图像生成模型,提高图像生成模型的模型性能。例如,人脸场景下的图像生成模型包括人脸识别的网络结构,而其他场景下的图像生成模型无需设计该网络结构。
S304、根据目标音频的特征信息和图像生成模型,生成图像序列。
S305、对目标音频和图像序列进行结合,生成目标音频对应的目标视频。
其中,S304~S305的实现原理和技术效果可参照前述实施例,不再赘述。
本公开实施例中,基于目标音频的特征信息和与目标音频所属的目标场景类型对应的图像生成模型,生成图像序列,结合目标音频和图像序列,生成目标视频。从而,在前述实施例的有益效果上,进一步提高了目标视频与目标音频的契合度,使得目标视频的视频画面能够更准确反映音频所属场景。
在前述任一实施例的基础上,本公开又提供了一实施例。
参考图4,图4为本公开实施例提供的视频生成方法流程示意图三。如如图4所示,该视频生成方法包括:
S401、获取目标音频。
其中,S401的实现原理和技术效果可参照前述实施例,不再赘述。
S402、随机确定初始的输入向量。
本实施例中,可按照预设的数据分布,随机确定初始的输入向量。例如,按照正态分布,随机确定初始的输入向量。其中,输入向量例如为向量规模为1*512的一维向量。
S403、根据输入向量和特征信息,通过图像生成模型进行多次图像生成,得到图像序列,多次图像生成中目标音频的特征信息用于输入向量的更新。
本实施例中,在第一次图像生成中,将初始的输入向量输入图像生成模型,得到图像生成模型输出的第一张图像。接着,在第二次图像生成中,根据目标音频的特征信息,更新输入向量,该更新后的输入向量为第二次图像生成中的输入向量,将输入向量输入图像生成模型,得到图像模型输出的第二张图像。在第三次图像生成中,根据目标音频的特征信息,再次更新输入向量。如此循环,得到多张图像。从而,通过在每次图像生成过程中采用目标音频的特征信息对输入向量进行更新的方式,使得基于随机的输入向量生成的图像能够体现音频的特征信息。
一示例中,在根据目标音频的特征信息更新输入向量时,可基于目标特征的特征信息确定目标变化值,根据目标变化值对输入向量进行增大或减少,例如,目标向量为目标音频的某一特征值,在输入向量的基础上加上该特征值,或者在输入向量的基础上减去该特征值。
又一示例中,考虑到音频和视频的变化都是连贯或连续的,为确保目标视频中各帧图像变化的连贯性或连续性,提高音频的变化与视频的变化的步调一致性,在多次图像生成过程中输入向量的更新方向一致。此时,如图4所示,S403的一种可能的实现方式包括:确定方向向量;根据输入向量、音频的特征信息和方向向量,通过图像生成模型进行多次图像生成,得到图像序列,其中,方向向量与每次图像生成中输入向量的更新方向相关。
可选的,在确定方向向量时,随机确定方向向量,从而,同一视频中视频画面的变化方向是一致的,不同视频中视频画面的变化方向是随机的,进一步增加音频转换得到的视频的随机性。
可选的,在确定方向向量时,获取用户输入的方向向量。
可选的,在确定方向向量时,获取预设的方向向量。
具体的,先确定方向向量。在更新输入向量时,根据音频的特征信息,确定输入向量的变化量,结合变化量和方向向量,更新输入向量。从而,使得多次图像生成中输入向量的更新方向是一致的,使得多次图像生成中输入向量发生连续的变化,进而图像生成模型输出的图像也随着输入向量的连续变化也发生连续变化,提高目标视频变化的连续性。
可选的,输入向量的变化量与音频的特征信息成正比,从而,提高输入向量的变化与音频的特征信息的变化在幅度上的相似性。
一示例中,目标音频的特征信息随时间发生变化。此时,上述多次图像生成的一次图像生成过程,包括:确定目标音频在目标单位时间的特征信息,其中,目标单位时间为与当前图像生成次数对应的单位时间;根据目标音频在单位时间的特征信息和方向向量,更新输入向量。从而,基于目标音频随时间变化的特征信息,提高音频的特性信息的变化与输入向量的变化的步调一致性,进而提高音频的变化与视频的变化的步调一致性。
其中,音频的特性信息的变化与输入向量的变化的步调一致性,包括如下一个或多个方面:音频的特征信息的变化和输入向量的变化在时间上的一致性、音频的特征信息的变化和输入向量的变化在变化幅度上的一致性。例如,音频的某一特征值在时刻a减小,则输入向量在时刻a也减小,和/或,音频的某一特征值的变化幅度较大,输入向量的变化幅度也较大。
同样的,音频的变化与视频的变化的步调一致性,包括如下一个或多个方面:音频的变化和视频的变化在时间上的一致性、音频的变化和视频的变化在变化幅度上的一致性。例如, 音频的旋律发生变化时视频的画面也发生变化,音频的旋律发生较大变化,则视频的画面也发生较大变化。
具体的,可先确定目标音频的播放时间轴上的多个单位时间与图像生成次数的对应关系,其中,在播放时间轴上,第一个单位时间对应第一次图像生成,第二个单位时间对应第二次图像生成,……,依次类推。此时,图像序列的生成过程包括:在第一次图像生成中,将随机确定的初始的输入向量输入图像生成模型,得到第一张图像;在第二次图像生成中,根据目标音频在第二个单位时间的特征信息和方向向量,更新输入向量,将更新后的输入向量输入图像生成模型,得到第二张图像;在第三次图像生成中,根据目标音频在第三个单位时间的特征信息和方向向量,更新输入向量,将更新后的输入向量输入图像生成模型,得到第三张图像;……,依次类推。其中,图像生成的总次数等于单位时间的总数量,在图像生成次数大于总次数时,结束图像生成过程,得到由第一张图像、第二张图像……等构成的图像序列。
可选的,目标音频的特征信息包括目标音频在多个单位时间的频率。此时,一次图像生成过程包括:上述多次图像生成的一次图像生成过程,包括:确定目标音频在目标单位时间的频率;根据目标音频在目标单位时间的频率和方向向量,更新输入向量。其中,目标音频在多个单位时间的频率反映目标音频的旋律,从而使得视频的画面随着目标音频的旋律变化而连续变化,提高了由音频转换得到的视频与音频的契合度,提高了视频质量。
进一步的,根据目标音频在单位时间的频率和方向向量,更新输入向量,包括:根据第一比例系数、目标音频在目标单位时间的频率和方向向量,更新输入向量。其中,第一比例系数和目标音频在目标单位时间的频率用于确定输入向量更新前后的变化量,从而,通过比例系数的方式,使得输入向量随目标音频的频率变化而变化。
进一步的,根据第一比例系数、目标音频在目标单位时间的频率和方向向量,更新输入向量的公式可表示为:更新后的输入向量=第一比例系数*频率*方向向量+用于上一次图像生成的输入向量。
可选的,目标音频的特征信息包括目标音频在多个单位时间的振幅,从而从振幅的角度提高由音频转换得到的视频与音频的契合度,使得视频的画面变化体现出音频的振幅变化。例如,当音频的振幅变化较大时,视频的画面变化较大,当音频的振幅变化较小时,视频的画面变化较小。以音乐为例,音乐的振幅反映音乐的鼓点变化,当音乐出现鼓点突变时,视频的画面变化较大,当音乐的鼓点较为平缓时,视频的画面变化较小。
其中,在每次图像生成中,基于目标音频在目标单位时间的振幅和方向向量去更新输入向量的过程,可以参照前述实施例中基于目标音频在目标单位时间的频率和方向向量去更新输入向量的过程,不再赘述。
可选的,目标音频的特征信息包括目标音频在多个单位时间的频率和目标音频在多个单位时间的振幅。此时,在基于目标音频在目标单位时间的频率和方向向量更新输入向量之后,如果目标音频在目标单位时间的振幅与上一单位时间的振幅的振幅差异大于差异阈值,则根据振幅差异和方向向量,确定扰动量;根据扰动量,对更新后的输入向量进行再次更新。从而,在目标音频的振幅变化较小的情况下,基于目标音频的频率更新输入向量,在目标音频的振幅变化较大的情况下(包括振幅大幅度的下降或者振幅大幅度上升的情况),基于目标 音频的频率和振幅更新输入向量,进一步提高由音频转换得到的视频与音频的契合度,使得视频的画面能够体现出音频的频率变化和振幅变化,提高视频质量。
其中,差异阈值为预设阈值。
其中,振幅差异决定扰动量的大小,方向向量决定扰动量的方向。
进一步的,根据振幅差异和方向向量,确定扰动量,包括:根据第二比例系数、振幅差异和方向向量,再次更新输入向量。其中,第二比例系数和振幅差异用于确定扰动量的大小,从而,通过比例系数与振幅结合的方式,使得输入向量随目标音频的振幅变化而变化。
进一步的,输入向量的总更新公式表示为L:更新后的输入向量=第二比例系数*振幅差异*方向向量+第一比例系数*频率*方向向量+用于上一次图像生成的输入向量。
作为示例的,以音乐为例,基于用户输入的音乐的频率,连续更新输入向量,并通过图像生成模型,不断生成对应的图片序列,进而形成视频。其中,对于音乐中脉冲式鼓点突变(振幅变化较大)的位置,可给输入向量一个和振幅变化成正比的扰动(即上述扰动量),并在鼓点过后(振幅变化也较大)将扰动去掉,可将控制向量还原成和脉冲到来前相同的样子。
S404、对目标音频和图像序列进行结合,生成目标音频对应的目标视频。
其中,S404的实现原理和技术效果可参照前述实施例,不再赘述。
本公开实施例中,随机确定初始的输入向量,基于输入向量和目标音频的特征信息,通过图像生成模型生成图像序列,目标音频的特征信息用于在每次图像生成中更新输入向量,从而,在前述任一实施例的有益效果的基础上,实现由音频转换得到的视频的画面随音频的特征变化而变化,使得由音频转换得到的视频的画面能够更生动地体现音频的特征。
基于前述任一实施例,可选的,图像生成模型为生成式对抗模型,根据目标音频的特征信息和图像生成模型,生成图像序列,包括:根据目标音频的特征信息和图像生成模型中的生成器,生成图像序列。其中,生成式对抗模型可以用于生成逼真的图像,因此,将生成式对抗模型作为图像生成模型,有利于提高图像生成质量,进而提高由音频转换得到的视频的质量。
具体的,可在训练过程中,训练图像生成模型,提高图像生成模型中生成器所生成的图像质量。在应用过程中,可基于目标音频的特征信息,通过训练后的图像生成模型中的生成器,生成图像序列。其中,图像序列的生成过程可参照前述实施例。不再赘述。
下面,通过实施例对前述任一实施例中的图像生成模型的训练的描述。
需要说明的是,图像生成模型的应用过程(即前述多个实施例)与图像生成模型的训练过程可以均在相同的电子设备上执行,也可以在不同的电子设备上执行。例如:图像生成模型的应用过程在终端上进行,图像生成模型的训练过程在服务器上进行;图像生成模型的应用过程和训练过程在相同或不同服务器上进行,或者在相同或不同终端上进行,在此不一一举例。
参照图5,图5为本公开实施例提供的模型确定方法的流程示意图一。如图5所示,模型确定方法包括:
S501、获取训练数据,训练数据包括多个图像。
本实施例中,可从训练数据库中,获取用作图像生成模型训练过程中训练数据的多个图像。其中,训练数据库中包括一个或多个预先采集的图像。
一示例中,可训练不同场景类型对应的图像生成模型,场景类型对应的图像生成模型用于生成该场景类型下的图像(可参照前述实施例,例如图2所示实施例)。此时,S501包括:获取多个场景类型下的多个场景图像,针对各场景类型,确定场景类型对应的训练数据,该训练数据包括该场景类型下的多个场景图像。其中,可从数据库中获取多个场景类型下的多个场景图像。
例如,参照图6,图6为本公开实施例提供的将音乐转换为视频的过程示意图。如图6所示,获取星空场景下的多张图像、自然场景下的多张图像以及烟花场景下的多张图像,星空场景下的多张图像、自然场景下的多张图像以及烟花场景下的多张图像分别用于训练星空场景对应的图像生成模型、自然场景对应的图像生成模型、烟花场景对应的图像生成模型。
S502、基于训练数据,多次训练图像生成模型,图像生成模型用于根据随机输入的向量生成对应的图像。
其中,如图5所示,图像生成模型的一次训练过程包括:
S5021、随机确定输入向量,并在多个图像中随机确定标签数据;
S5022、将输入向量输入图像生成模型,得到输出图像;
S5023、根据输出图像与标签数据的差异,调整图像生成模型。
本实施例中,在每次训练过程中,随机确定输入向量,从训练数据中的多个图像中选取图像作为标签数据,输入向量输入图像生成模型,得到图像生成模型的输出图像,根据图像生成模型的损失函数、输出图像和标签数据,确定损失值,基于损失值,调整图像生成模型的参数。如此,执行多次训练过程,直至训练次数大于次数阈值,或者,直至损失函数的损失值小于或等于损失阈值。在此,对损失函数不做限制。
一示例中,在训练不同场景类型对应的图像生成模型的情况下,可针对各场景类型,基于场景类型对应的训练数据,训练场景类型对应的图像生成模型,以使一个图像生成模型用于生成一个场景类型对应的图像。其中,针对各场景类型,每次训练过程中,从场景类型对应的训练数据中,选取场景类型下的场景图像作为标签数据。
一示例中,可基于预设的数据分布,随机确定输入向量。例如,基于正态分布,随机确定输入向量。
一示例中,可采用不放回抽样方式,在多个图像中选取标签数据。从而,避免输入向量不同时抽取到相同的图像作为标签数据,影响图像生成模型根据不同的输入向量生成不同图像的准确性。
一示例中,图像生成模型为生成式对抗模型,此时,在每次训练过程中,将随机确定的输入向量输入图像生成模型中的生成器,得到生成器的输出图像,利用图像生成模型中的判别器,对生成器的输出图像和标签数据进行判别,如此,得到生成器对应的损失值和判别器对应的损失值,根据这些损失值,分别调整生成器和判别器。如此,在训练过程中,使得图像生成模型的输出图像不断逼近标签数据,最终,得到训练完成的图像生成模型。
需要说明的是,本实施例中训练得到的图像生成模型可以应用于前述任一实施例提供的视频生成方法,实现将音频转换为视频。
例如,如图6所示,在应用过程中,可基于训练后的各种场景类型对应的图像生成模型和音乐的频率、振幅,生成视频。
对应于上文实施例的视频生成方法,图7为本公开实施例提供的视频生成设备的结构框图。为了便于说明,仅示出了与本公开实施例相关的部分。参照图7,视频生成设备包括:获取单元701、图像生成单元702和视频生成单元703。
获取单元701,用于获取目标音频。
图像生成单元702,用于根据目标音频的特征信息和图像生成模型,生成图像序列,图像生成模型用于根据随机输入的向量生成对应的图像。
视频生成单元703,用于对目标音频和图像序列进行结合,生成目标音频对应的目标视频。
在一些实施例中,视频生成设备还包括确定单元704,确定单元704用于:确定目标音频所属的目标场景类型;确定目标场景类型对应的图像生成模型,目标场景类型对应的图像生成模型用于根据随机输入的向量生成对应目标场景类型的图像。
在一些实施例中,确定单元704还用于:在多个场景类型中,确定目标场景类型为与目标音频的标识信息相匹配的场景类型。
在一些实施例中,确定单元704还用于:基于场景类型与图像生成模型的对应关系,确定目标场景类型对应的图像生成模型。
在一些实施例中,图像生成单元702还用于:随机确定初始的输入向量;根据输入向量和特征信息,通过图像生成模型进行多次图像生成,得到图像序列,其中,在多次图像生成中,目标音频的特征信息用于输入向量的更新。
在一些实施例中,多次图像生成中输入向量的更新方向一致,图像生成单元702还用于:确定方向向量;根据输入向量、特征信息和方向向量,通过图像生成模型进行多次图像生成,得到图像序列,其中,方向向量与每次图像生成中输入向量的更新方向相关。
在一些实施例中,特征信息包括目标音频在多个单位时间的频率,图像生成单元702在多次图像生成中的一次图像生成过程中,用于:确定目标音频在目标单位时间的频率,其中,目标单位时间为与当前图像生成次数对应的单位时间;根据目标音频在目标单位时间的频率和方向向量,更新输入向量;将更新后的输入向量输入图像生成模型,得到当前帧图像。
在一些实施例中,特征信息还包括目标音频在多个单位时间的振幅,图像生成单元702还用于:如果目标音频在目标单位时间的振幅与上一单位时间的振幅的振幅差异大于差异阈值,则根据振幅差异和方向向量,确定扰动量;根据扰动量,对更新后的输入向量进行再次更新。
在一些实施例中,图像生成模型为生成式对抗模型,图像生成单元702还用于:根据目标音频的特征信息和图像生成模型中的生成器,生成图像序列。
本实施例提供的视频生成设备,可用于执行上述与视频生成方法相关的实施例的技术方案,其实现原理和技术效果类似,本实施例此处不再赘述。
对应于上文实施例的视频生成方法,图8为本公开实施例提供的模型确定设备的结构框图。为了便于说明,仅示出了与本公开实施例相关的部分。参照图8,模型确定设备包括:获取单元801和训练单元802。
获取单元801,用于获取训练数据,训练数据包括多个图像;
训练单元802,用于基于训练数据,多次训练图像生成模型,图像生成模型用于根据随机输入的向量生成对应的图像;
在图像生成模型的一次训练过程中,训练单元802还用于:
随机确定输入向量,并在多个图像中随机确定标签数据;
将输入向量输入图像生成模型,得到输出图像;
根据输出图像与标签数据的差异,调整图像生成模型。
在一些实施例中,获取单元801还用于:获取多个场景类型下的多个场景图像;针对各场景类型,确定场景类型对应的训练数据,该训练数据包括该场景类型下的多个场景图像。
在一些实施例中,训练单元802还用于:针对各场景类型,基于场景类型对应的训练数据,训练场景类型对应的图像生成模型。
在一些实施例中,训练单元802还用于:基于预设的数据分布,随机确定输入向量;采用不放回抽样方式,在多个图像中选取标签数据。
在一些实施例中,图像生成模型为生成式对抗网络模型。
本实施例提供的模型确定设备,可用于执行上述与模型确定方法相关的实施例的技术方案,其实现原理和技术效果类似,本实施例此处不再赘述。
参考图9,其示出了适于用来实现本公开实施例的电子设备900的结构示意图,该电子设备900可以为终端设备或服务器。其中,终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、个人数字助理(PDA)、平板电脑(Portable Android Device,简称PAD)、便携式多媒体播放器(Portable Media Player,简称PMP)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图9示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900可以包括处理装置(例如中央处理器、图形处理器等)901,其可以根据存储在只读存储器(Read Only Memory,简称ROM)902中的程序或者从存储装置908加载到随机访问存储器(Random Access Memory,简称RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有电子设备900操作所需的各种程序和数据。处理装置901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(Input/Output,I/O)接口905也连接至总线904。
通常,以下装置可以连接至I/O接口905:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置906;包括例如液晶显示器(Liquid Crystal Display,简称LCD)、扬声器、振动器等的输出装置907;包括例如磁带、硬盘等的存储装置908;以及通信装置909。通信装置909可以允许电子设备900与其他设备进行无线或有线通信以交换数据。虽然图9示出了具有各种装置的电子设备900,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置909从网络上被下载和安装,或者从存储装置908被安装,或者从ROM 902被安装。在该计算机程序被处理装置901执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机 可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,简称EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(Compact disc Read Only Memory,简称CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(Radio Frequency,射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行上述实施例所示的方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(Local Area Network,简称LAN)或广域网(Wide Area Network,简称WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法、计算机程序产品、计算机程序的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取目标音频的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、专用标准产品(Application Specific Standard Product,简称ASSP)、片上系统(system on chip,简称SOC)、复杂可编程逻辑设备(Complex Programmable Logic Device,简称CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
第一方面,根据本公开的一个或多个实施例,提供了一种视频生成方法,包括:获取目标音频;根据所述目标音频的特征信息和图像生成模型,生成图像序列,所述图像生成模型用于根据随机输入的向量生成对应的图像;对所述目标音频和所述图像序列进行结合,生成所述目标音频对应的目标视频。
根据本公开的一个或多个实施例,所述根据所述目标音频的特征信息和图像生成模型,生成图像序列之前,还包括:确定所述目标音频所属的目标场景类型;确定所述目标场景类型对应的图像生成模型,所述目标场景类型对应的图像生成模型用于根据随机输入的向量生成对应所述目标场景类型的图像。
根据本公开的一个或多个实施例,所述确定所述目标音频所属的目标场景类型,包括:在多个场景类型中,确定所述目标场景类型为与所述目标音频的标识信息相匹配的场景类型。
根据本公开的一个或多个实施例,所述确定所述目标场景类型对应的图像生成模型,包括:基于场景类型与图像生成模型的对应关系,确定所述目标场景类型对应的图像生成模型。
根据本公开的一个或多个实施例,所述根据所述目标音频的特征信息和图像生成模型,生成图像序列,包括:随机确定初始的输入向量;根据所述输入向量和所述特征信息,通过所述图像生成模型进行多次图像生成,得到所述图像序列,其中,在所述多次图像生成中,所述目标音频的特征信息用于所述输入向量的更新。
根据本公开的一个或多个实施例,所述多次图像生成中所述输入向量的更新方向一致,所述根据所述输入向量和所述特征信息,通过所述图像生成模型进行多次图像生成,得到所述图像序列,包括:确定方向向量;根据所述输入向量、所述特征信息和所述方向向量,通过所述图像生成模型进行多次图像生成,得到所述图像序列,其中,所述方向向量与每次图像生成中所述输入向量的更新方向相关。
根据本公开的一个或多个实施例,所述特征信息包括所述目标音频在多个单位时间的频率,所述多次图像生成中的一次图像生成过程包括:确定所述目标音频在目标单位时间的频率,其中,所述目标单位时间为与当前图像生成次数对应的单位时间;根据所述目标音频在目标单位时间的频率和所述方向向量,更新所述输入向量;将更新后的输入向量输入所述图像生成模型,得到当前帧图像。
根据本公开的一个或多个实施例,所述特征信息还包括所述目标音频在多个单位时间的振幅,所述根据所述目标音频在目标单位时间的频率和所述方向向量,更新所述输入向量之 后,还包括:如果所述目标音频在目标单位时间的振幅与上一单位时间的振幅的振幅差异大于差异阈值,则根据所述振幅差异和所述方向向量,确定扰动量;根据所述扰动量,对更新后的输入向量进行再次更新。
根据本公开的一个或多个实施例,所述图像生成模型为生成式对抗模型,所述根据所述目标音频的特征信息和图像生成模型,生成图像序列,包括:根据所述目标音频的特征信息和所述图像生成模型中的生成器,生成所述图像序列。
第二方面,根据本公开的一个或多个实施例,提供了一种模型确定方法,包括:获取训练数据,所述训练数据包括多个图像;基于所述训练数据,多次训练图像生成模型,所述图像生成模型用于根据随机输入的向量生成对应的图像。所述图像生成模型的一次训练过程包括:随机确定输入向量,并在所述多个图像中随机确定标签数据;将所述输入向量输入所述图像生成模型,得到输出图像;根据所述输出图像与所述标签数据的差异,调整所述图像生成模型。
根据本公开的一个或多个实施例,所述获取训练数据,包括:获取多个场景类型下的多个场景图像;针对各场景类型,确定所述场景类型对应的训练数据,该训练数据包括所述场景类型下的多个场景图像。
根据本公开的一个或多个实施例,所述基于所述训练数据,多次训练图像生成模型,包括:针对各场景类型,基于所述场景类型对应的训练数据,训练所述场景类型对应的图像生成模型。
根据本公开的一个或多个实施例,所述随机确定输入向量,并在所述多个图像中随机确定标签数据,包括:基于预设的数据分布,随机确定输入向量;采用不放回抽样方式,在所述多个图像中选取所述标签数据。
根据本公开的一个或多个实施例,所述图像生成模型为生成式对抗网络模型。
第三方面,根据本公开的一个或多个实施例,提供了一种视频生成设备,包括:获取单元,用于获取目标音频;图像生成单元,用于根据所述目标音频的特征信息和图像生成模型,生成图像序列,所述图像生成模型用于根据随机输入的向量生成对应的图像;视频生成单元,用于对所述目标音频和所述图像序列进行结合,生成所述目标音频对应的目标视频。
根据本公开的一个或多个实施例,所述视频生成设备还包括确定单元,所述确定单元用于:确定所述目标音频所属的目标场景类型;确定所述目标场景类型对应的图像生成模型,所述目标场景类型对应的图像生成模型用于根据随机输入的向量生成对应所述目标场景类型的图像。
根据本公开的一个或多个实施例,所述确定单元还用于:在多个场景类型中,确定所述目标场景类型为与所述目标音频的标识信息相匹配的场景类型。
根据本公开的一个或多个实施例,所述确定单元还用于:基于场景类型与图像生成模型的对应关系,确定所述目标场景类型对应的图像生成模型。
根据本公开的一个或多个实施例,所述图像生成单元还用于:随机确定初始的输入向量;根据所述输入向量和所述特征信息,通过所述图像生成模型进行多次图像生成,得到所述图像序列,其中,在所述多次图像生成中,所述目标音频的特征信息用于所述输入向量的更新。
根据本公开的一个或多个实施例,所述多次图像生成中所述输入向量的更新方向一致,所述图像生成单元还用于:确定方向向量;根据所述输入向量、所述特征信息和所述方向向 量,通过所述图像生成模型进行多次图像生成,得到所述图像序列,其中,所述方向向量与每次图像生成中所述输入向量的更新方向相关。
根据本公开的一个或多个实施例,所述特征信息包括所述目标音频在多个单位时间的频率,所述图像生成单元在所述多次图像生成中的一次图像生成过程中,用于:确定所述目标音频在目标单位时间的频率,其中,所述目标单位时间为与当前图像生成次数对应的单位时间;根据所述目标音频在目标单位时间的频率和所述方向向量,更新所述输入向量;将更新后的输入向量输入所述图像生成模型,得到当前帧图像。
根据本公开的一个或多个实施例,所述特征信息还包括所述目标音频在多个单位时间的振幅,所述图像生成单元还用于:如果所述目标音频在目标单位时间的振幅与上一单位时间的振幅的振幅差异大于差异阈值,则根据所述振幅差异和所述方向向量,确定扰动量;根据所述扰动量,对更新后的输入向量进行再次更新。
根据本公开的一个或多个实施例,所述图像生成模型为生成式对抗模型,所述图像生成单元还用于:根据所述目标音频的特征信息和所述图像生成模型中的生成器,生成所述图像序列。
第四方面,根据本公开的一个或多个实施例,提供了一种模型确定设备,包括:获取单元,用于获取训练数据,所述训练数据包括多个图像;训练单元,用于基于所述训练数据,多次训练图像生成模型,所述图像生成模型用于根据随机输入的向量生成对应的图像。在所述图像生成模型的一次训练过程中,所述训练单元还用于:随机确定输入向量,并在所述多个图像中随机确定标签数据;将所述输入向量输入所述图像生成模型,得到输出图像;根据所述输出图像与所述标签数据的差异,调整所述图像生成模型。
根据本公开的一个或多个实施例,所述获取单元还用于:获取多个场景类型下的多个场景图像;针对各场景类型,确定所述场景类型对应的训练数据,该训练数据包括所述场景类型下的多个场景图像。
根据本公开的一个或多个实施例,所述训练单元还用于:针对各场景类型,基于所述场景类型对应的训练数据,训练所述场景类型对应的图像生成模型。
根据本公开的一个或多个实施例,所述训练单元还用于:基于预设的数据分布,随机确定输入向量;采用不放回抽样方式,在所述多个图像中选取所述标签数据。
根据本公开的一个或多个实施例,所述图像生成模型为生成式对抗网络模型。
第五方面,根据本公开的一个或多个实施例,提供了一种电子设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第一方面或第一方面各种可能的设计所述的视频生成方法,或者,使得所述至少一个处理器执行如上第二方面或第二方面各种可能的设计所述的模型确定方法。
第六方面,根据本公开的一个或多个实施例,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面或第一方面各种可能的设计所述的视频生成方法,或者,实现如上第二方面或第二方面各种可能的设计所述的模型确定方法。
第七方面,根据本公开的一个或多个实施例,提供了一种计算机程序产品,所述计算机程序产品包含计算机执行指令,当处理器执行所述计算机执行指令时,实现如第一方面或第一方面各种可能的设计所述的视频生成方法,或者,实现如第二方面或第二方面各种可能的设计所述的模型确定方法。
第八方面,根据本公开的一个或多个实施例,提供了一种计算机程序,所述计算机程序包含计算机执行指令,当处理器执行所述计算机执行指令时,实现如第一方面或第一方面各种可能的设计所述的视频生成方法,或者,实现如第二方面或第二方面各种可能的设计所述的模型确定方法。
本实施例提供的视频生成方法、模型确定方法、设备、存储介质、计算机程序产品及计算机程序,基于目标音频的特征信息和图像生成模型,生成图像序列,将目标音频与图像序列进行结合,生成该音频对应的目标视频,其中,图像生成模型用于根据随机输入的向量生成对应的图像。从而,结合音频的特征信息和用于根据随机输入的向量生成对应图像的图像生成模型,为音频生成适合音频的、个性化的且无版权风险的视频,且提高了音频转换为视频的效率。由此,可以将音频转换为内容更为丰富的视频。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
可以理解的是,在使用本公开各实施例公开的技术方案之前,均应当依据相关法律法规通过恰当的方式对本公开所涉及个人信息的类型、使用范围、使用场景等告知用户并获得用户的授权。
例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确地提示用户,其请求执行的操作将需要获取和使用到用户的个人信息。从而,使得用户可以根据提示信息来自主地选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供个人信息。
作为一种可选的但非限定性的实现方式,响应于接收到用户的主动请求,向用户发送提示信息的方式例如可以是弹窗的方式,弹窗中可以以文字的方式呈现提示信息。此外,弹窗中还可以承载供用户选择“同意”或者“不同意”向电子设备提供个人信息的选择控件。
可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实现方式构成限定,其它满足相关法律法规的方式也可应用于本公开的实现方式中。
可以理解的是,本技术方案所涉及的数据(包括但不限于数据本身、数据的获取或使用)应当遵循相应法律法规及相关规定的要求。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相 反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (20)
- 一种视频生成方法,包括:获取目标音频;根据所述目标音频的特征信息和图像生成模型,生成图像序列,所述图像生成模型用于根据随机输入的向量生成对应的图像;对所述目标音频和所述图像序列进行结合,生成所述目标音频对应的目标视频。
- 根据权利要求1所述的视频生成方法,所述根据所述目标音频的特征信息和图像生成模型,生成图像序列之前,还包括:确定所述目标音频所属的目标场景类型;确定所述目标场景类型对应的图像生成模型,所述目标场景类型对应的图像生成模型用于根据随机输入的向量生成对应所述目标场景类型的图像。
- 根据权利要求2所述的视频生成方法,所述确定所述目标音频所属的目标场景类型,包括:在多个场景类型中,确定所述目标场景类型为与所述目标音频的标识信息相匹配的场景类型。
- 根据权利要求2或3所述的视频生成方法,所述确定所述目标场景类型对应的所述图像生成模型,包括:基于场景类型与图像生成模型的对应关系,确定所述目标场景类型对应的图像生成模型。
- 根据权利要求1至4任一项所述的视频生成方法,所述根据所述目标音频的所述特征信息和所述图像生成模型,生成所述图像序列,包括:随机确定初始的输入向量;根据所述输入向量和所述特征信息,通过所述图像生成模型进行多次图像生成,得到所述图像序列,其中,在所述多次图像生成中,所述目标音频的所述特征信息用于所述输入向量的更新。
- 根据权利要求5所述的视频生成方法,所述多次图像生成中所述输入向量的更新方向一致,所述根据所述输入向量和所述特征信息,通过所述图像生成模型进行多次图像生成,得到所述图像序列,包括:确定方向向量;根据所述输入向量、所述特征信息和所述方向向量,通过所述图像生成模型进行所述多次图像生成,得到所述图像序列,其中,所述方向向量与每次图像生成中所述输入向量的更新方向相关。
- 根据权利要求5或6所述的视频生成方法,所述特征信息包括所述目标音频在多个单位时间的频率,所述多次图像生成中的一次图像生成过程包括:确定所述目标音频在目标单位时间的频率,其中,所述目标单位时间为与当前图像生成次数对应的单位时间;根据所述目标音频在所述目标单位时间的频率和所述方向向量,更新所述输入向量;将更新后的输入向量输入所述图像生成模型,得到当前帧图像。
- 根据权利要求7所述的视频生成方法,所述特征信息还包括所述目标音频在多个单位时间的振幅,所述根据所述目标音频在目标单位时间的频率和所述方向向量,更新所述输入向量之后,还包括:如果所述目标音频在所述目标单位时间的振幅与上一单位时间的振幅的振幅差异大于差异阈值,则根据所述振幅差异和所述方向向量,确定扰动量;根据所述扰动量,对所述更新后的输入向量进行再次更新。
- 根据权利要求1至8任一项所述的视频生成方法,所述图像生成模型为生成式对抗模型,所述根据所述目标音频的特征信息和图像生成模型,生成图像序列,包括:根据所述目标音频的所述特征信息和所述图像生成模型中的生成器,生成所述图像序列。
- 一种模型确定方法,包括:获取训练数据,所述训练数据包括多个图像;基于所述训练数据,多次训练图像生成模型,所述图像生成模型用于根据随机输入的向量生成对应的图像;所述图像生成模型的一次训练过程包括:随机确定输入向量,并在所述多个图像中随机确定标签数据;将所述输入向量输入所述图像生成模型,得到输出图像;根据所述输出图像与所述标签数据的差异,调整所述图像生成模型。
- 根据权利要求10所述的模型确定方法,所述获取训练数据,包括:获取多个场景类型下的多个场景图像;针对各场景类型,确定所述场景类型对应的所述训练数据,所述训练数据包括所述场景类型下的多个场景图像。
- 根据权利要求11所述的模型确定方法,所述基于所述训练数据,多次训练图像生成模型,包括:针对各场景类型,基于所述场景类型对应的所述训练数据,训练所述场景类型对应的所述图像生成模型。
- 根据权利要求10至12任一项所述的模型确定方法,所述随机确定输入向量,并在所述多个图像中随机确定标签数据,包括:基于预设的数据分布,随机确定所述输入向量;采用不放回抽样方式,在所述多个图像中选取所述标签数据。
- 根据权利要求10至13任一项所述的模型确定方法,所述图像生成模型为生成式对抗网络模型。
- 一种视频生成设备,包括:获取单元,用于获取目标音频;图像生成单元,用于根据所述目标音频的特征信息和图像生成模型,生成图像序列,所述图像生成模型用于根据随机输入的向量生成对应的图像;视频生成单元,用于对所述目标音频和所述图像序列进行结合,生成所述目标音频对应的目标视频。
- 一种模型确定设备,包括:获取单元,用于获取训练数据,所述训练数据包括多个图像;训练单元,用于基于所述训练数据,多次训练图像生成模型,所述图像生成模型用于根据随机输入的向量生成对应的图像;在所述图像生成模型的一次训练过程中,所述训练单元还用于:随机确定输入向量,并在所述多个图像中随机确定标签数据;将所述输入向量输入所述图像生成模型,得到输出图像;根据所述输出图像与所述标签数据的差异,调整所述图像生成模型。
- 一种电子设备,包括:至少一个处理器和存储器;所述存储器存储计算机执行指令;所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求1至9任一项所述的视频生成方法,或者执行如权利要求10至14任一项所述的模型确定方法。
- 一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求1至9任一项所述的视频生成方法,或者执行如权利要求10至14任一项所述的模型确定方法。
- 一种计算机程序产品,所述计算机程序产品包含计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求1至9任一项所述的视频生成方法,或者执行如权利要求10至14任一项所述的模型确定方法。
- 一种计算机程序,所述计算机程序包含计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求1至9任一项所述的视频生成方法,或者执行如权利要求10至14任一项所述的模型确定方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111204221.7 | 2021-10-15 | ||
CN202111204221.7A CN113935418A (zh) | 2021-10-15 | 2021-10-15 | 视频生成方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023061229A1 true WO2023061229A1 (zh) | 2023-04-20 |
Family
ID=79279951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2022/122332 WO2023061229A1 (zh) | 2021-10-15 | 2022-09-28 | 视频生成方法及设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113935418A (zh) |
WO (1) | WO2023061229A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113935418A (zh) * | 2021-10-15 | 2022-01-14 | 北京字节跳动网络技术有限公司 | 视频生成方法及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110858924A (zh) * | 2018-08-22 | 2020-03-03 | 北京优酷科技有限公司 | 视频背景音乐的生成方法及装置 |
CN111415677A (zh) * | 2020-03-16 | 2020-07-14 | 北京字节跳动网络技术有限公司 | 用于生成视频的方法、装置、设备和介质 |
CN111933110A (zh) * | 2020-08-12 | 2020-11-13 | 北京字节跳动网络技术有限公司 | 视频生成方法、生成模型训练方法、装置、介质及设备 |
JP6865705B2 (ja) * | 2018-03-06 | 2021-04-28 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 画像生成装置、画像生成方法および画像生成プログラム |
CN112738634A (zh) * | 2019-10-14 | 2021-04-30 | 北京字节跳动网络技术有限公司 | 视频文件的生成方法、装置、终端及存储介质 |
CN112752118A (zh) * | 2020-12-29 | 2021-05-04 | 北京字节跳动网络技术有限公司 | 视频生成方法、装置、设备及存储介质 |
CN113935418A (zh) * | 2021-10-15 | 2022-01-14 | 北京字节跳动网络技术有限公司 | 视频生成方法及设备 |
-
2021
- 2021-10-15 CN CN202111204221.7A patent/CN113935418A/zh active Pending
-
2022
- 2022-09-28 WO PCT/CN2022/122332 patent/WO2023061229A1/zh unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6865705B2 (ja) * | 2018-03-06 | 2021-04-28 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 画像生成装置、画像生成方法および画像生成プログラム |
CN110858924A (zh) * | 2018-08-22 | 2020-03-03 | 北京优酷科技有限公司 | 视频背景音乐的生成方法及装置 |
CN112738634A (zh) * | 2019-10-14 | 2021-04-30 | 北京字节跳动网络技术有限公司 | 视频文件的生成方法、装置、终端及存储介质 |
CN111415677A (zh) * | 2020-03-16 | 2020-07-14 | 北京字节跳动网络技术有限公司 | 用于生成视频的方法、装置、设备和介质 |
CN111933110A (zh) * | 2020-08-12 | 2020-11-13 | 北京字节跳动网络技术有限公司 | 视频生成方法、生成模型训练方法、装置、介质及设备 |
CN112752118A (zh) * | 2020-12-29 | 2021-05-04 | 北京字节跳动网络技术有限公司 | 视频生成方法、装置、设备及存储介质 |
CN113935418A (zh) * | 2021-10-15 | 2022-01-14 | 北京字节跳动网络技术有限公司 | 视频生成方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113935418A (zh) | 2022-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11158102B2 (en) | Method and apparatus for processing information | |
WO2022121601A1 (zh) | 一种直播互动方法、装置、设备及介质 | |
WO2020253806A1 (zh) | 展示视频的生成方法、装置、设备及存储介质 | |
CN109543064B (zh) | 歌词显示处理方法、装置、电子设备及计算机存储介质 | |
WO2020113733A1 (zh) | 动画生成方法、装置、电子设备及计算机可读存储介质 | |
CN111402842B (zh) | 用于生成音频的方法、装置、设备和介质 | |
CN111599343B (zh) | 用于生成音频的方法、装置、设备和介质 | |
KR102346046B1 (ko) | 3차원 가상 인물 입모양 변화 제어 방법 및 장치 | |
JP6906584B2 (ja) | デバイスをウェイクアップするための方法及び装置 | |
JP6971292B2 (ja) | 段落と映像を整列させるための方法、装置、サーバー、コンピュータ可読記憶媒体およびコンピュータプログラム | |
CN112153460B (zh) | 一种视频的配乐方法、装置、电子设备和存储介质 | |
CN111798821B (zh) | 声音转换方法、装置、可读存储介质及电子设备 | |
CN110047121B (zh) | 端到端的动画生成方法、装置及电子设备 | |
CN113257218B (zh) | 语音合成方法、装置、电子设备和存储介质 | |
CN109600559B (zh) | 一种视频特效添加方法、装置、终端设备及存储介质 | |
WO2021057740A1 (zh) | 视频生成方法、装置、电子设备和计算机可读介质 | |
JP2023552854A (ja) | ヒューマンコンピュータインタラクション方法、装置、システム、電子機器、コンピュータ可読媒体及びプログラム | |
WO2023051246A1 (zh) | 视频录制方法、装置、设备及存储介质 | |
CN113205793B (zh) | 音频生成方法、装置、存储介质及电子设备 | |
CN112287168A (zh) | 用于生成视频的方法和装置 | |
CN110312162A (zh) | 精选片段处理方法、装置、电子设备及可读介质 | |
WO2024001545A1 (zh) | 歌单展示信息生成方法、装置、电子设备及存储介质 | |
WO2023061229A1 (zh) | 视频生成方法及设备 | |
CN112383721B (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN113205569A (zh) | 图像绘制方法及装置、计算机可读介质和电子设备 |