CN114513706A - 视频生成方法和装置、计算机设备、存储介质 - Google Patents

视频生成方法和装置、计算机设备、存储介质 Download PDF

Info

Publication number
CN114513706A
CN114513706A CN202210283681.1A CN202210283681A CN114513706A CN 114513706 A CN114513706 A CN 114513706A CN 202210283681 A CN202210283681 A CN 202210283681A CN 114513706 A CN114513706 A CN 114513706A
Authority
CN
China
Prior art keywords
video
voice
text
preset
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210283681.1A
Other languages
English (en)
Other versions
CN114513706B (zh
Inventor
涂必超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202210283681.1A priority Critical patent/CN114513706B/zh
Publication of CN114513706A publication Critical patent/CN114513706A/zh
Application granted granted Critical
Publication of CN114513706B publication Critical patent/CN114513706B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/117Tagging; Marking up; Designating a block; Setting of attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本申请实施例提供一种视频生成方法和装置、计算机设备、存储介质,属于人工智能技术领域。包括:获取原始文本数据;对原始文本数据进行分句得到文本分句;对文本分句进行标注得到文本标注标签;根据文本标注标签对预设视频素材库进行筛选得到候选视频;对文本分句进行语音合成得到语音数据;根据语音时长对候选视频进行采样得到采样视频;对采样视频进行视频合成得到初步视频;根据参考语音对初步视频进行合成得到目标视频。本申请公开实施例通过文本分句对应的文本标注标签,对预设视频素材库进行筛选,能够从预设视频素材库中筛选出符合文本主题的筛选视频,通过对筛选视频进行处理,生成场景更丰富的目标视频,进一步提高视频生成的质量。

Description

视频生成方法和装置、计算机设备、存储介质
技术领域
本申请涉及人工智能技术领域,尤其涉及一种视频生成方法和装置、计算机设备、存储介质。
背景技术
随着互联网和多媒体设备的发展,基于文本自动生成视频的研究受到越来越广泛的关注。目前,通常是基于文本生成多张图像,并由多张图像生成目标视频。但是,采用该方式所生成的目标视频的质量较差。
发明内容
本申请公开实施例的主要目的在于提出一种视频生成方法和装置、计算机设备、存储介质,通过引入预设视频素材库生成场景更丰富的目标视频,能够提高视频生成质量。
为实现上述目的,本申请公开实施例的第一方面提出了一种视频生成方法,所述方法包括:
获取原始文本数据;
对所述原始文本数据进行分句处理,得到文本分句;
对所述文本分句进行文本标注,得到文本标注标签;
根据所述文本标注标签对预设视频素材库进行筛选处理,得到候选视频;
对所述文本分句进行语音合成,得到语音数据;其中,所述语音数据包括参考语音和语音时长;
根据所述语音时长对所述候选视频进行采样处理,得到采样视频;其中,所述采样视频的视频时长与所述语音时长相同;
对所述采样视频进行视频合成,得到初步视频;
根据所述参考语音对所述初步视频进行合成,得到目标视频。
在一些实施例,在所述根据所述文本标注标签对预设视频素材库进行筛选处理,得到候选视频之前,所述方法还包括:构建所述预设视频素材库,具体包括:
获取多个样本视频;
根据预设的过滤条件对所述多个样本视频进行过滤处理,得到初始视频;
对所述初始视频进行视频解析,得到视频解析片段;
根据所述视频解析片段构建所述预设视频素材库。
在一些实施例,在所述根据所述视频解析片段构建所述预设视频素材库之后,所述方法还包括:
对所述视频解析片段进行视频分类,得到视频分类标签;
建立所述视频解析片段和所述视频分类标签之间的第一映射关系;
对所述初始视频进行语音解析,得到语音解析片段;
对所述语音解析片段进行语音识别,得到语音识别数据;
建立所述视频解析片段和所述语音识别数据之间的第二映射关系;
将所述第一映射关系和所述第二映射关系添加至所述预设视频素材库,得到更新后的所述预设视频素材库。
在一些实施例,所述根据所述文本标注标签对预设视频素材库进行筛选处理,得到候选视频,包括:
根据所述文本标注标签从更新后的所述预设视频素材库中获取对应的视频分类标签,作为目标分类标签;
根据所述第一映射关系获取与所述目标分类标签对应的视频解析片段,作为初步筛选视频;
根据所述第二映射关系获取与所述初步筛选视频对应的语音识别数据,作为目标识别数据;
计算所述目标分类标签和所述目标识别数据之间的相似度;
将最大的相似度对应的初步筛选视频,作为所述候选视频。
在一些实施例,所述初步视频包括第一合成视频;所述对所述采样视频进行视频合成,得到初步视频,包括:
获取所述采样视频的起始帧和结束帧;
对所述采样视频进行拼接处理,得到拼接视频;
根据所述起始帧的位置和所述结束帧的位置,对所述拼接视频进行过渡处理,得到所述第一合成视频;其中,所述过渡处理包括如下至少之一:渐出处理、渐入处理和转场处理。
在一些实施例,所述初步视频包括第二合成视频;所述对所述采样视频进行视频合成,得到初步视频,还包括:
获取预设语音和预设虚拟人脸视频;
将所述预设虚拟人脸视频和所述预设语音输入至口型同步模型中进行视频生成,得到目标人脸视频;其中,所述目标人脸视频中的语音口型和所述预设语音的语音口型相同;
对所述采样视频和所述第一合成视频进行拼接处理,得到所述第二合成视频。
在一些实施例,所述根据所述参考语音对所述初步视频进行合成,得到目标视频,包括:
对所述参考语音进行合并处理,得到目标语音;
根据所述目标语音对所述初步视频进行语音合成,得到所述目标视频。
本申请公开实施例的第二方面提出了一种视频生成装置,所述装置包括:
数据获取模块:用于获取原始文本数据;
文本分句模块:用于对所述原始文本数据进行分句处理,得到文本分句;
文本标注模块:用于对所述文本分句进行文本标注,得到文本标注标签;
视频筛选模块:用于根据所述文本标注标签对预设视频素材库进行筛选处理,得到候选视频;
语音合成模块:用于对所述文本分句进行语音合成,得到语音数据;其中,所述语音数据包括参考语音和语音时长;
视频采样模块:用于根据所述语音时长对所述候选视频进行采样处理,得到采样视频;其中,所述采样视频的视频时长与所述语音时长相同;
第一合成模块:用于对所述采样视频进行视频合成,得到初步视频;
第二合成模块:用于根据所述参考语音对所述初步视频进行合成,得到目标视频。
本申请公开实施例的第三方面提出了一种计算机设备,所述计算机设备包括存储器和处理器,其中,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,所述处理器用于执行如本申请第一方面实施例任一项所述的视频生成方法。
本申请公开实施例的第四方面提出了一种存储介质,该存储介质为计算机可读存储介质,所述存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如本申请第一方面实施例任一项所述的视频生成方法。
本申请公开实施例提出的视频生成方法和装置、计算机设备、存储介质,通过获取原始文本数据;对原始文本数据进行分句处理,得到文本分句;对文本分句进行文本标注,得到文本标注标签;根据文本标注标签对预设视频素材库进行筛选处理,得到候选视频;对文本分句进行语音合成,得到语音数据;其中,语音数据包括参考语音和语音时长;根据语音时长对候选视频进行采样处理,得到采样视频;其中,采样视频的视频时长与语音时长相同;对采样视频进行视频合成,得到初步视频;根据参考语音对初步视频进行合成,得到目标视频。本申请公开实施例通过文本分句对应的文本标注标签,对预设视频素材库进行筛选处理,能够从预设视频素材库中筛选出符合文本主题的筛选视频,通过对筛选视频进行处理,能够生成场景更丰富的目标视频,进一步提高视频生成的质量。
本申请公开实施例的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请公开实施例而了解。本申请公开实施例的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本申请公开实施例技术方案的进一步理解,并且构成说明书的一部分,与本申请公开实施例的实施例一起用于解释本申请公开实施例的技术方案,并不构成对本申请公开实施例技术方案的限制。
图1是本申请公开实施例提供的视频生成方法的第一流程图;
图2是本申请公开实施例提供的视频生成方法的第二流程图;
图3是本申请公开实施例提供的视频生成方法的第三流程图;
图4是图1中的步骤S140的流程图;
图5是图1中的步骤S170的第一流程图;
图6是图1中的步骤S170的第二流程图;
图7是图1中的步骤S180的流程图;
图8是本申请公开实施例提供的视频生成装置的模块结构框图;
图9是本申请公开实施例提供的计算机设备的硬件结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
首先,对本申请中涉及的若干名词进行解析:
人工智能(Artificial Intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
自然语言处理(Natural Language Processing,NLP):是计算机科学领域与人工智能领域中的一个重要方向,它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,主要应用于机器翻译、自动摘要、观点提取、文本分类、语音识别等方面。
文本分类:用计算机对文本(或其他实体)按照一定的分类体系或标准进行自动分类标记。
语音合成(Text-To-Speech,TTS):TTS是一种从文本到语音的一种技术,TTS一般包括两个步骤:第一步是文本处理,主要是将文本转化成音素序列,并标出每个音素的起止时间、频率变化等信息;第二步是语音合成,主要是根据音素序列(以及标注好的起止时间、频率变化等信息)生成语音。
余弦相似度:又称为余弦相似性,是通过计算两个向量的夹角余弦值来评估他们的相似度,通过余弦相似度测量两个向量的夹角的余弦值来度量它们之间的相似性。余弦相似度将向量根据坐标值,绘制到向量空间中,如最常见的二维空间。
虚拟主播(Virtual YouTuber):虚拟主播以原创的虚拟人格设定,是基于语音、视觉等领先科技,使用虚拟形象在视频中与用户进行交互的主播或者客服。
Wav2lip:是一个基于GAN的唇形动作迁移算法模型,Wav2Lip可以直接将动态的视频进行唇形转换,输出与目标语音相匹配的视频结果。
随着互联网和多媒体设备的发展,基于文本自动生成视频的研究受到越来越广泛的关注。目前,通常是基于文本生成多张图像,并由多张图像生成目标视频。但是,采用该方式所生成的目标视频的质量较差。
具体地,目前的视频生成方法主要生成的是动画风格的视频,其中动画风格的视频主要是基于图像或者动图生成的,接着对生成的视频做一些变换以输出目标视频;或者根据文本内容逐句生成对应的图像,即一句话对应一张图像,根据多张图像生成对应的目标视频,但是采用以上方式生成的目标视频不连续、场景切换突然、视频风格不统一,并且缺乏真实感,这会导致其所生成的目标视频的质量较差。
基于此,本申请公开实施例提出的视频生成方法和装置、计算机设备、存储介质,通过获取原始文本数据;对原始文本数据进行分句处理,得到文本分句;对文本分句进行文本标注,得到文本标注标签;根据文本标注标签对预设视频素材库进行筛选处理,得到候选视频;对文本分句进行语音合成,得到语音数据;其中,语音数据包括参考语音和语音时长;根据语音时长对候选视频进行采样处理,得到采样视频;其中,采样视频的视频时长与语音时长相同;对采样视频进行视频合成,得到初步视频;根据参考语音对初步视频进行合成,得到目标视频。本申请公开实施例通过文本分句对应的文本标注标签,对预设视频素材库进行筛选处理,能够从预设视频素材库中筛选出符合文本主题的筛选视频,通过对筛选视频进行处理,能够生成场景更丰富的目标视频,进一步提高视频生成的质量。
本申请公开实施例提供视频生成方法和装置、计算机设备、存储介质,具体通过如下实施例进行说明,首先描述本申请公开实施例中的视频生成方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请公开实施例提供的视频生成方法,涉及人工智能领域。本申请公开实施例提供的视频生成方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机或者智能手表等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现视频生成方法的应用等,但并不局限于以上形式。
本申请公开实施例可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
参照图1,根据本申请公开实施例第一方面实施例的视频生成方法,包括但不限于包括步骤S110、步骤S120、步骤S130、步骤S140、步骤S150、步骤S160、步骤S170和步骤S180。
步骤S110,获取原始文本数据;
步骤S120,对原始文本数据进行分句处理,得到文本分句;
步骤S130,对文本分句进行文本标注,得到文本标注标签;
步骤S140,根据文本标注标签对预设视频素材库进行筛选处理,得到候选视频;
步骤S150,对文本分句进行语音合成,得到语音数据;
步骤S160,根据语音时长对候选视频进行采样处理,得到采样视频;
步骤S170,对采样视频进行视频合成,得到初步视频;
步骤S180,根据参考语音对初步视频进行合成,得到目标视频。
在一些实施例的步骤S110中,获取原始文本数据,其中,原始文本数据指的是需要将文本或者剧本转换成视频文件的文本内容,原始文本数据。
在一些实施例的步骤S120中,对原始文本数据进行NLP处理,包括对原始文本数据进行分句处理,得到文本分句。具体地,可利用预设的分句策略,具体地,从原始文本数据的开头至结尾,对其字符进行逐一扫描,并根据原始文本数据的标点符号进行分句,例如:根据中文里的句号、逗号、问号和分号等结尾符号进行分句,或者根据英文里的句号等结尾符号进行分句,在对原始文本数据进行分句的过程中,由于中文和英文语法存在差异,导致中文分句和英文分句也存在很大区别,本领域技术人员可根据不同的语言类型,设置不同的分句策略,在此不再赘述。需要说明的是,对原始文本数据进行分句,拆分后的文本中每一行表示一个文本分句。
在一些实施例的步骤S130中,对文本分句进行文本标注,得到文本标注标签,其中文本标注指的是对每一个文本分句进行分类或者行标注,得到每个文本分句对应的文本标注标签,例如文本分句1对应的文本标注标签为人物介绍,文本分句2对应的文本标注标签为事件描述,文本分句3对应的文本描述标签为应用程序A等,对文本分句进行文本标注是为了后续根据文本标注标签自动搜索和处理该文本分句对应的视频素材,能够生成符合剧本主题的视频,简单易用。
在一些实施例的步骤S140中,根据文本标注标签对预设视频素材库进行筛选处理,得到候选视频,其中预设视频素材库包括收集整理到的多个视频素材,根据文本标注标签从预设素材库中的多个视频素材中选取符合要求的候选视频,能够提高视频素材与每个文本分句主题的相关性。
在一些实施例的步骤S150中,对文本分句进行语音合成,得到语音数据;其中,语音数据包括参考语音和语音时长。在实际应用中,可利用TTS模型对文本分句进行语音合成,具体地,将每一文本分句输入至预先训练好的TTS模型中,由TTS模型对文本分句进行语音合成,得到每一文本分句对应的语音数据。
在一些实施例的步骤S160中,根据语音时长对候选视频进行采样处理,得到采样视频;其中,采样视频的视频时长与语音时长相同;具体地,根据该文本分句对应的语音时长,对文本分句对应的候选视频进行采样,以使采样得到采样视频的时长与语音时长相同。
在实际应用中,若候选视频的视频时长大于该文本分句对应的语音时长,则需要对候选视频进行剪裁得到采样视频,使采样视频的视频时长与语音时长相同;若候选视频的视频时长等于该文本分句对应的语音时长,则不需要对候选视频进行采样处理,直接将候选视频作为采样视频;若候选视频的视频时长小于该文本分句对应的语音时长,则需要对候选视频进行一些过渡处理,或者将某些视频片段的时长进行延长等操作,使采样视频的时长与语音时长相同。
在一些实施例的步骤S170中,对采样视频进行视频合成,得到一个初步视频,其中初步视频为根据原始文本数据的内容生成的没有语音的视频。
在一些实施例的步骤S180中,根据参考语音对初步视频进行合成,得到目标视频,其中目标视频为:在没有声音的初步视频的基础上生成的有语音的视频。
本申请公开实施例通过获取原始文本数据;对原始文本数据进行分句处理,得到文本分句;对文本分句进行文本标注,得到文本标注标签;根据文本标注标签对预设视频素材库进行筛选处理,得到候选视频;对文本分句进行语音合成,得到语音数据;其中,语音数据包括参考语音和语音时长;根据语音时长对候选视频进行采样处理,得到采样视频;其中,采样视频的视频时长与语音时长相同;对采样视频进行视频合成,得到初步视频;根据参考语音对初步视频进行合成,得到目标视频。本申请公开实施例通过文本分句对应的文本标注标签,对预设视频素材库进行筛选处理,能够从预设视频素材库中筛选出符合文本主题的筛选视频,通过对筛选视频进行处理,能够生成场景更丰富的目标视频,进一步提高视频生成的质量。
在一些实施例中,如图2所示,在步骤S140之前,本申请公开实施例的视频生成方法还包括步骤:构建预设视频素材库,具体包括但不限于步骤S210、步骤S220、步骤S230和步骤S240。
步骤S210,获取多个样本视频;
步骤S220,根据预设的过滤条件对多个样本视频进行过滤处理,得到初始视频;
步骤S230,对初始视频进行视频解析,得到视频解析片段;
步骤S240,根据视频解析片段构建预设视频素材库。
在一些实施例的步骤S210中,获取多个样本视频,具体地,可以利用爬虫技术对视频网站进行爬取得到,或者通过收集本地的视频素材得到。需要说明的是,样本视频的个数和类型越多,生成视频的质量就越好。需要说明的是,本申请公开实施例的样本视频可以包括动画风格的视频,还可以包括真实场景风格的视频,通过引入真实场景的剪辑风格视频代替单张图像,能够生成更丰富场景的视频,更容易吸引观看者。
在一些实施例的步骤S220中,根据预设的过滤条件对多个样本视频进行过滤处理,得到初始视频。具体地,预设的过滤条件可以为预设清晰度、预设质量以及合规等条件,以预设清晰度为例,例如过滤条件为视频的清晰度大于或等于1080P,则将样本视频中,清晰度低于1080P的视频过滤掉,将清晰度大于或等于1080P的视频保留,以整理出符合要求的初始视频。
在一些实施例的步骤S230中,对初始视频进行视频解析,得到视频解析片段。具体地,可以利用一些视频摘要算法,例如VAS_Net来对初始视频的各个分镜头进行解析,得到各个分镜头对应的视频解析片段。
在一些实施例的步骤S240中,根据视频解析片段构建视频素材库,用于根据文本内容从视频素材库中筛选出合适的视频解析片段。
在一些实施例中,如图3所示,在步骤S240之后,本申请公开实施例的视频生成方法还包括但不限于步骤S310、步骤S320、步骤S330、步骤S340、步骤S350和步骤S360。
步骤S310,对视频解析片段进行视频分类,得到视频分类标签;
步骤S320,建立视频解析片段和视频分类标签之间的第一映射关系;
步骤S330,对初始视频进行语音解析,得到语音解析片段;
步骤S340,对语音解析片段进行语音识别,得到语音识别数据;
步骤S350,建立视频解析片段和语音识别数据之间的第二映射关系;
步骤S360,将第一映射关系和第二映射关系添加至预设视频素材库,得到更新后的预设视频素材库。
在一些实施例的步骤S310中,对视频解析片段进行视频分类,得到视频分类标签,具体地,可以使用一些视频分类模型或者视频算法,对每个视频解析片段进行分类,得到对应的视频分类标签。
在一些实施例的步骤S320中,建立视频解析片段和视频分类标签之间的映射关系,作为第一映射关系,意思是该视频分类标签表达这个视频解析片段。
在一些实施例的步骤S330中,对初始视频进行语音解析,得到语音解析片段,具体地,具体地,可以利用一些视频摘要算法,例如VAS_Net对初始视频进行语音解析,得到初始视频对应的语音解析片段,即语音片段。
在一些实施例的步骤S340中,对语音解析片段进行语音识别,得到语音识别数据,具体地,可以使用一些语音识别算法,得到一串识别结果字符,即语音识别数据。
在一些实施例的步骤S350中,建立视频解析片段和语音识别数据之间的映射关系,作为第二映射关系,意思是语音识别数据表达这个视频解析片段。
在一些实施例的步骤S360中,将第一映射关系和第二映射关系添加至预设视频素材库,以更新预设视频素材库,得到更新后的预设视频素材库。
在一些实施例中,如图4所示,步骤S140具体包括但不限于步骤S410、步骤S420、步骤S430、步骤S440和步骤S450。
步骤S410,根据文本标注标签从更新后的预设视频素材库中获取对应的视频分类标签,作为目标分类标签;
步骤S420,根据第一映射关系获取与目标分类标签对应的视频解析片段,作为初步筛选视频;
步骤S430,根据第二映射关系获取与初步筛选视频对应的语音识别数据,作为目标识别数据;
步骤S440,计算目标分类标签和目标识别数据之间的相似度;
步骤S450,将最大的相似度对应的初步筛选视频,作为候选视频。
在一些实施例的步骤S410中,根据文本标注标签,从更新后的预设视频素材库中找到对应的视频分类标签,即文本分句的类型和该视频分类标签的类型一致,接着将对应的视频分类标签作为目标分类标签。
在一些实施例的步骤S420中,根据第一映射关系获取与目标分类标签对应的视频解析片段,作为初步筛选视频;其中,初步筛选视频的类型与文本分句的类型一致。
在一些实施例的步骤S430中,根据第二映射关系获取与初步筛选视频对应的语音识别数据,作为目标识别数据。
在一些实施例的步骤S440中,使用文本相似度计算目标分类标签和目标识别数据之间的相似度,例如可以计算目标分类标签和目标识别数据之间的余弦相似度。
在一些实施例的步骤S450中,将最大的相似度对应的初步筛选视频,作为对应文本分句的候选视频。
在实际应用中,预设视频素材库包括视频标签文件夹,每一视频标签文件内存储有对应分类的视频片段,根据文本标注标签对预设视频素材库进行筛选处理,得到候选视频的过程还可以为:首先,需要结合文本分句和对应的文本标注标签、语音时长和音频名称,得到结构化的文本文件。接着,循环处理文本文件中的每一行,即每个文本分句,具体地,根据该行的文本标注标签找到对应的视频标签文件夹,接着使用文本相似度计算并查找到该视频标签文件夹中,与这行文本最相似的视频片段,并标记这个视频片段已被使用,用于后续查找时排除这个视频片段,避免重复使用同一个视频片段,保证视频质量。
在一些实施例中,如图5所示,步骤S170具体包括但不限于步骤S510、步骤S520和步骤S530。
步骤S510,获取采样视频的起始帧和结束帧;
步骤S520,对采样视频进行拼接处理,得到拼接视频;
步骤S530,根据起始帧的位置和结束帧的位置,对拼接视频进行过渡处理,得到第一合成视频。
在一些实施例的步骤S510中,获取采样视频的起始帧和结束帧。
在一些实施例的步骤S520中,对采样视频进行拼接处理,得到拼接视频。
在一些实施例的步骤S530中,根据采样视频起始帧的位置和结束帧的位置,对拼接视频进行过渡处理,得到第一合成视频。其中,过渡处理包括如下至少之一:渐出处理、渐入处理和转场处理。
在一些实施例中,如图6所示,步骤S170具体还包括但不限于步骤S610、步骤S620和步骤S630。
步骤S610,获取预设语音和预设虚拟人脸视频;
步骤S620,将预设虚拟人脸视频和预设语音输入至口型同步模型中进行视频生成,得到目标人脸视频;
步骤S630,对采样视频和第一合成视频进行拼接处理,得到第二合成视频。
在一些实施例的步骤S610中,本申请公开实施例除了能够直接生成第一合成视频之外,还能够结合虚拟主播技术生成第二合成视频。具体地,获取预设语音和预设虚拟人脸视频,预设语音指的是需要生成视频的语音内容,预设虚拟人脸视频指的是包括虚拟人脸的视频。
在一些实施例的步骤S620中,将预设虚拟人脸视频和预设语音输入至口型同步模型,例如wav2lip,以使口型同步模型输出与预设语音的语音口型一致的虚拟人视频,即目标人脸视频;其中,目标人脸视频中的语音口型和预设语音的语音口型相同。
在一些实施例的步骤S630中,对采样视频和第一合成视频进行拼接处理,得到第二合成视频。在实际应用中,第一合成视频为真实场景的视频,将真实场景的视频和虚拟人视频进行结合,得到第二合成视频,第二合成视频在第一合成视频的基础上添加了虚拟人讲解,能够增加视频的丰富度,提高视频生成质量。
在实际应用中,对采样视频进行视频合成,得到初步视频的步骤还可以包括:首先,合成各个初步视频,具体地,为了使各个采样视频片段过渡自然,需要在采样视频片段的前后帧增加图像的渐出渐入处理进行过渡,或者在每个采样视频片段的前后帧增加转场进行过渡。其次,可以根据预设的配置参数判断是否需要增加虚拟人,如果需要增加虚拟人,则输入语音和一段虚拟人视频,并使用口型同步模型输出与语音口型一致的虚拟人视频,合成到经过过渡处理后的采样视频,即真实场景视频中。最后,可以根据视频配置参数,例如视频帧率和视频尺寸调整视频的参数,还可以给视频增加字幕,还能够增加视频的片头和片尾等,经过一系列处理后输出无声视频,即初步视频。
在一些实施例中,如图7所示,步骤S180具体包括但不限于步骤S710至步骤S720。
步骤S710,对参考语音进行合并处理,得到目标语音;
步骤S720,根据目标语音对初步视频进行语音合成,得到目标视频。
在一些实施例的步骤S710中,对参考语音进行合并处理,得到目标语音。具体地,将每一文本分句经过TTS模型转换得到的参考语音进行合并,得到连贯的目标语音。
在一些实施例的步骤S720中,将目标语音合成到初步视频中,得到目标视频。在实际应用中,除了对初步视频进行语音合成之外,还可以匹配合适主题的背景音乐,并将背景音乐添加至初步视频中,输出最终的目标视频。
本公开实施例提出了一套基于文本自动生成虚拟人与真实场景剪辑分割视频的生成方法及系统,能够填补真实场景视频的空白,还可以灵活加上虚拟人讲解。本公开实施例的前期可以通过剧本积累视频素材,然后通过对新输入的剧本进行解析,搜索与文本行相关的真实场景片段,然后对各个搜索到的真实场景片段进行融合,并加上语音以输出视频,从而达到节省人工成本、提高效率以及适用于更多场景的目的。
本公开实施例的创新点如下:第一,实现了视频生成的自动化,降低了人工制作视频的制作成本和时间成本;第二,通过视频摘要、视频分类等算法解决视频素材与主题的相关性问题;第三,从视频素材到视频生成形成闭环,视频素材越多,生成视频的质量越好。
本申请公开实施例提出的视频生成方法,通过获取原始文本数据;对原始文本数据进行分句处理,得到文本分句;对文本分句进行文本标注,得到文本标注标签;根据文本标注标签对预设视频素材库进行筛选处理,得到候选视频;对文本分句进行语音合成,得到语音数据;其中,语音数据包括参考语音和语音时长;根据语音时长对候选视频进行采样处理,得到采样视频;其中,采样视频的视频时长与语音时长相同;对采样视频进行视频合成,得到初步视频;根据参考语音对初步视频进行合成,得到目标视频。本申请公开实施例通过文本分句对应的文本标注标签,对预设视频素材库进行筛选处理,能够从预设视频素材库中筛选出符合文本主题的筛选视频,通过对筛选视频进行处理,能够生成场景更丰富的目标视频,进一步提高视频生成的质量。
此外,通过使用本公开实施例的视频生成方法,能够自动生成对应的目标视频,大大降低人工制作视频的成本;通过算法自动收集和处理视频素材,能够生成出符合剧本主题的真实场景风格的视频,简单易用;随着视频素材库越来越丰富,视频质量和效果会越来越好;能够灵活替换视频素材,为了准确表达出视频语义,还能够进行人工标注;真实场景视频更有画面感,更能引人入胜。
在一些实施例中,如图8所示,本申请公开实施例还提供一种视频生成装置,可以实现上述视频生成方法,该视频生成装置包括:数据获取模块810、文本分句模块820、文本标注模块830、视频筛选模块840、语音合成模块850、视频采样模块860、第一合成模块870和第二合成模块880,数据获取模块810用于获取原始文本数据;文本分句模块820用于对原始文本数据进行分句处理,得到文本分句;文本标注模块830用于对文本分句进行文本标注,得到文本标注标签;视频筛选模块840用于根据文本标注标签对预设视频素材库进行筛选处理,得到候选视频;语音合成模块850用于对文本分句进行语音合成,得到语音数据;其中,语音数据包括参考语音和语音时长;视频采样模块860用于根据语音时长对候选视频进行采样处理,得到采样视频;其中,采样视频的视频时长与语音时长相同;第一合成模块870用于对采样视频进行视频合成,得到初步视频;第二合成模块880用于根据参考语音对初步视频进行合成,得到目标视频。
本申请公开实施例的视频生成装置用于执行上述实施例中的视频生成方法,其具体处理过程与上述实施例中的视频生成方法相同,此处不再一一赘述。
本申请公开实施例提出的视频生成装置,通过获取原始文本数据;对原始文本数据进行分句处理,得到文本分句;对文本分句进行文本标注,得到文本标注标签;根据文本标注标签对预设视频素材库进行筛选处理,得到候选视频;对文本分句进行语音合成,得到语音数据;其中,语音数据包括参考语音和语音时长;根据语音时长对候选视频进行采样处理,得到采样视频;其中,采样视频的视频时长与语音时长相同;对采样视频进行视频合成,得到初步视频;根据参考语音对初步视频进行合成,得到目标视频。本申请公开实施例通过文本分句对应的文本标注标签,对预设视频素材库进行筛选处理,能够从预设视频素材库中筛选出符合文本主题的筛选视频,通过对筛选视频进行处理,能够生成场景更丰富的目标视频,进一步提高视频生成的质量。
在实际应用中,本申请公开实施例的视频生成装置可以由5大模块构成,分别是素材爬取和处理模块、剧本解析模块、TTS模块、结构化剧本模块、视频合成模块和音视频合成模块,其中素材爬取和处理模块用于建设视频素材库,剧本解析模块用于对原始文本数据,即剧本进行解析,TTS模块用于对文本进行语音合成,结构化剧本模块用于输出结构化的文本文件,视频合成模块用于对多个视频进行视频合成,音视频合成模块用于对语音和视频进行合成。
本申请公开实施例还提供了一种计算机设备,包括:
至少一个处理器,以及,
与至少一个处理器通信连接的存储器;其中,
存储器存储有指令,指令被至少一个处理器执行,以使至少一个处理器执行指令时实现如本申请第一方面实施例中任一项的视频生成方法。
下面结合图9对计算机设备的硬件结构进行详细说明。该计算机设备包括:处理器910、存储器920、输入/输出接口930、通信接口940和总线950。
处理器910,可以采用通用的中央处理器(Central Processin Unit,CPU)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请公开实施例所提供的技术方案;
存储器920,可以采用只读存储器(Read Only Memory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(Random Access Memory,RAM)等形式实现。存储器920可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器920中,并由处理器910来调用执行本申请公开实施例的视频生成方法;
输入/输出接口930,用于实现信息输入及输出;
通信接口940,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;和
总线950,在设备的各个组件(例如处理器910、存储器920、输入/输出接口930和通信接口940)之间传输信息;
其中处理器910、存储器920、输入/输出接口930和通信接口940通过总线950实现彼此之间在设备内部的通信连接。
本申请公开实施例还提供一种存储介质,该存储介质是计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令用于使计算机执行本申请公开实施例的视频生成方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请公开实施例提出的视频生成方法和装置、计算机设备、存储介质,通过获取原始文本数据;对原始文本数据进行分句处理,得到文本分句;对文本分句进行文本标注,得到文本标注标签;根据文本标注标签对预设视频素材库进行筛选处理,得到候选视频;对文本分句进行语音合成,得到语音数据;其中,语音数据包括参考语音和语音时长;根据语音时长对候选视频进行采样处理,得到采样视频;其中,采样视频的视频时长与语音时长相同;对采样视频进行视频合成,得到初步视频;根据参考语音对初步视频进行合成,得到目标视频。本申请公开实施例通过文本分句对应的文本标注标签,对预设视频素材库进行筛选处理,能够从预设视频素材库中筛选出符合文本主题的筛选视频,通过对筛选视频进行处理,能够生成场景更丰富的目标视频,进一步提高视频生成的质量。
本申请公开实施例描述的实施例是为了更加清楚的说明本申请公开实施例的技术方案,并不构成对于本申请公开实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请公开实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1、图2、图3、图4、图5、图6和图7中示出的技术方案并不构成对本申请公开实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例除了能够在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请公开实施例的优选实施例,并非因此局限本申请公开实施例的权利范围。本领域技术人员不脱离本申请公开实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请公开实施例的权利范围之内。

Claims (10)

1.一种视频生成方法,其特征在于,所述方法包括:
获取原始文本数据;
对所述原始文本数据进行分句处理,得到文本分句;
对所述文本分句进行文本标注,得到文本标注标签;
根据所述文本标注标签对预设视频素材库进行筛选处理,得到候选视频;
对所述文本分句进行语音合成,得到语音数据;其中,所述语音数据包括参考语音和语音时长;
根据所述语音时长对所述候选视频进行采样处理,得到采样视频;其中,所述采样视频的视频时长与所述语音时长相同;
对所述采样视频进行视频合成,得到初步视频;
根据所述参考语音对所述初步视频进行合成,得到目标视频。
2.根据权利要求1所述的方法,其特征在于,在所述根据所述文本标注标签对预设视频素材库进行筛选处理,得到候选视频之前,所述方法还包括:构建所述预设视频素材库,具体包括:
获取多个样本视频;
根据预设的过滤条件对所述多个样本视频进行过滤处理,得到初始视频;
对所述初始视频进行视频解析,得到视频解析片段;
根据所述视频解析片段构建所述预设视频素材库。
3.根据权利要求2所述的方法,其特征在于,在所述根据所述视频解析片段构建所述预设视频素材库之后,所述方法还包括:
对所述视频解析片段进行视频分类,得到视频分类标签;
建立所述视频解析片段和所述视频分类标签之间的第一映射关系;
对所述初始视频进行语音解析,得到语音解析片段;
对所述语音解析片段进行语音识别,得到语音识别数据;
建立所述视频解析片段和所述语音识别数据之间的第二映射关系;
将所述第一映射关系和所述第二映射关系添加至所述预设视频素材库,得到更新后的所述预设视频素材库。
4.根据权利要求3所述的方法,其特征在于,所述根据所述文本标注标签对预设视频素材库进行筛选处理,得到候选视频,包括:
根据所述文本标注标签从更新后的所述预设视频素材库中获取对应的视频分类标签,作为目标分类标签;
根据所述第一映射关系获取与所述目标分类标签对应的视频解析片段,作为初步筛选视频;
根据所述第二映射关系获取与所述初步筛选视频对应的语音识别数据,作为目标识别数据;
计算所述目标分类标签和所述目标识别数据之间的相似度;
将最大的相似度对应的初步筛选视频,作为所述候选视频。
5.根据权利要求1所述的方法,其特征在于,所述初步视频包括第一合成视频;所述对所述采样视频进行视频合成,得到初步视频,包括:
获取所述采样视频的起始帧和结束帧;
对所述采样视频进行拼接处理,得到拼接视频;
根据所述起始帧的位置和所述结束帧的位置,对所述拼接视频进行过渡处理,得到所述第一合成视频;其中,所述过渡处理包括如下至少之一:渐出处理、渐入处理和转场处理。
6.根据权利要求5所述的方法,其特征在于,所述初步视频包括第二合成视频;所述对所述采样视频进行视频合成,得到初步视频,还包括:
获取预设语音和预设虚拟人脸视频;
将所述预设虚拟人脸视频和所述预设语音输入至口型同步模型中进行视频生成,得到目标人脸视频;其中,所述目标人脸视频中的语音口型和所述预设语音的语音口型相同;
对所述采样视频和所述第一合成视频进行拼接处理,得到所述第二合成视频。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述根据所述参考语音对所述初步视频进行合成,得到目标视频,包括:
对所述参考语音进行合并处理,得到目标语音;
根据所述目标语音对所述初步视频进行语音合成,得到所述目标视频。
8.一种视频生成装置,其特征在于,所述装置包括:
数据获取模块:用于获取原始文本数据;
文本分句模块:用于对所述原始文本数据进行分句处理,得到文本分句;
文本标注模块:用于对所述文本分句进行文本标注,得到文本标注标签;
视频筛选模块:用于根据所述文本标注标签对预设视频素材库进行筛选处理,得到候选视频;
语音合成模块:用于对所述文本分句进行语音合成,得到语音数据;其中,所述语音数据包括参考语音和语音时长;
视频采样模块:用于根据所述语音时长对所述候选视频进行采样处理,得到采样视频;其中,所述采样视频的视频时长与所述语音时长相同;
第一合成模块:用于对所述采样视频进行视频合成,得到初步视频;
第二合成模块:用于根据所述参考语音对所述初步视频进行合成,得到目标视频。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,其中,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时所述处理器用于执行:如权利要求1至7中任一项所述的方法。
10.一种存储介质,所述存储介质为计算机可读存储介质,其特征在于,所述计算机可读存储有计算机程序,在所述计算机程序被计算机执行时,所述计算机用于执行:如权利要求1至7中任一项所述的方法。
CN202210283681.1A 2022-03-22 2022-03-22 视频生成方法和装置、计算机设备、存储介质 Active CN114513706B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210283681.1A CN114513706B (zh) 2022-03-22 2022-03-22 视频生成方法和装置、计算机设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210283681.1A CN114513706B (zh) 2022-03-22 2022-03-22 视频生成方法和装置、计算机设备、存储介质

Publications (2)

Publication Number Publication Date
CN114513706A true CN114513706A (zh) 2022-05-17
CN114513706B CN114513706B (zh) 2023-07-25

Family

ID=81555512

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210283681.1A Active CN114513706B (zh) 2022-03-22 2022-03-22 视频生成方法和装置、计算机设备、存储介质

Country Status (1)

Country Link
CN (1) CN114513706B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114938462A (zh) * 2022-06-07 2022-08-23 平安科技(深圳)有限公司 授课视频的智能剪辑方法、系统、电子设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130124206A1 (en) * 2011-05-06 2013-05-16 Seyyer, Inc. Video generation based on text
US20150213793A1 (en) * 2014-01-29 2015-07-30 Social IT Pty Ltd Methods and systems for converting text to video
CN110807126A (zh) * 2018-08-01 2020-02-18 腾讯科技(深圳)有限公司 文章转换成视频的方法、装置、存储介质及设备
CN111935537A (zh) * 2020-06-30 2020-11-13 百度在线网络技术(北京)有限公司 音乐短片视频生成方法、装置、电子设备和存储介质
CN112004137A (zh) * 2020-09-01 2020-11-27 天脉聚源(杭州)传媒科技有限公司 一种智能视频创作方法及装置
CN112015949A (zh) * 2020-08-26 2020-12-01 腾讯科技(上海)有限公司 视频生成方法和装置、存储介质及电子设备
CN113434733A (zh) * 2021-06-28 2021-09-24 平安科技(深圳)有限公司 基于文本的视频文件生成方法、装置、设备及存储介质
CN113923475A (zh) * 2021-09-30 2022-01-11 宿迁硅基智能科技有限公司 一种视频合成方法及视频合成器

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130124206A1 (en) * 2011-05-06 2013-05-16 Seyyer, Inc. Video generation based on text
US20150213793A1 (en) * 2014-01-29 2015-07-30 Social IT Pty Ltd Methods and systems for converting text to video
CN110807126A (zh) * 2018-08-01 2020-02-18 腾讯科技(深圳)有限公司 文章转换成视频的方法、装置、存储介质及设备
CN111935537A (zh) * 2020-06-30 2020-11-13 百度在线网络技术(北京)有限公司 音乐短片视频生成方法、装置、电子设备和存储介质
CN112015949A (zh) * 2020-08-26 2020-12-01 腾讯科技(上海)有限公司 视频生成方法和装置、存储介质及电子设备
CN112004137A (zh) * 2020-09-01 2020-11-27 天脉聚源(杭州)传媒科技有限公司 一种智能视频创作方法及装置
CN113434733A (zh) * 2021-06-28 2021-09-24 平安科技(深圳)有限公司 基于文本的视频文件生成方法、装置、设备及存储介质
CN113923475A (zh) * 2021-09-30 2022-01-11 宿迁硅基智能科技有限公司 一种视频合成方法及视频合成器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114938462A (zh) * 2022-06-07 2022-08-23 平安科技(深圳)有限公司 授课视频的智能剪辑方法、系统、电子设备及存储介质
CN114938462B (zh) * 2022-06-07 2023-06-30 平安科技(深圳)有限公司 授课视频的智能剪辑方法、系统、电子设备及存储介质

Also Published As

Publication number Publication date
CN114513706B (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
CN109688463B (zh) 一种剪辑视频生成方法、装置、终端设备及存储介质
CN113569088B (zh) 一种音乐推荐方法、装置以及可读存储介质
CN109756751B (zh) 多媒体数据处理方法及装置、电子设备、存储介质
CN110781347A (zh) 一种视频处理方法、装置、设备以及可读存储介质
CN114827752B (zh) 视频生成方法、视频生成系统、电子设备及存储介质
CN110446066B (zh) 用于生成视频的方法和装置
WO2023045635A1 (zh) 多媒体文件的字幕处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品
CN112800263A (zh) 一种基于人工智能的视频合成系统、方法及介质
CN113704506A (zh) 一种媒体内容排重方法和相关装置
CN115580758A (zh) 视频内容生成方法及装置、电子设备、存储介质
CN112199932A (zh) Ppt生成方法、装置、计算机可读存储介质及处理器
CN114513706B (zh) 视频生成方法和装置、计算机设备、存储介质
CN113572976A (zh) 视频处理方法、装置、电子设备及可读存储介质
CN115497448A (zh) 语音动画的合成方法、装置、电子设备及存储介质
CN116665083A (zh) 一种视频分类方法、装置、电子设备及存储介质
CN110555117B (zh) 一种数据处理方法、装置及电子设备
CN115129806A (zh) 数据处理方法、装置、电子设备及计算机存储介质
CN116703797A (zh) 图像融合方法、图像融合系统、计算机设备及存储介质
US20220375223A1 (en) Information generation method and apparatus
CN114820891A (zh) 唇形生成方法、装置、设备及介质
CN115474088A (zh) 一种视频处理方法、计算机设备及存储介质
CN113411517B (zh) 视频模板的生成方法、装置、电子设备及存储介质
CN115033643A (zh) 数据同步方法、电子设备及计算机可读存储介质
CN116561294A (zh) 手语视频的生成方法、装置、计算机设备及存储介质
CN113762056A (zh) 演唱视频识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant