CN112929746A - 视频生成方法和装置、存储介质和电子设备 - Google Patents

视频生成方法和装置、存储介质和电子设备 Download PDF

Info

Publication number
CN112929746A
CN112929746A CN202110168882.2A CN202110168882A CN112929746A CN 112929746 A CN112929746 A CN 112929746A CN 202110168882 A CN202110168882 A CN 202110168882A CN 112929746 A CN112929746 A CN 112929746A
Authority
CN
China
Prior art keywords
video
scene
user
document
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110168882.2A
Other languages
English (en)
Other versions
CN112929746B (zh
Inventor
张昊宇
张同新
姚佳立
陈婉君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Youzhuju Network Technology Co Ltd
Original Assignee
Beijing Youzhuju Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Youzhuju Network Technology Co Ltd filed Critical Beijing Youzhuju Network Technology Co Ltd
Priority to CN202110168882.2A priority Critical patent/CN112929746B/zh
Publication of CN112929746A publication Critical patent/CN112929746A/zh
Application granted granted Critical
Publication of CN112929746B publication Critical patent/CN112929746B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Databases & Information Systems (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本公开涉及一种视频生成方法和装置、存储介质和电子设备,所述方法包括:获取用户输入的视频文案,并确定所述视频文案中各场景对应的文案子句;基于各场景对应的所述文案子句,检索各场景对应的视频资源和/或图像资源;基于所述视频文案生成配音音频;将所述视频资源和/或图像资源整合为目标视频,并将所述配音音频插入至所述目标视频。本公开可以提升视频制作效率。

Description

视频生成方法和装置、存储介质和电子设备
技术领域
本公开涉及视频制作领域,具体地,涉及一种视频生成方法和装置、存储介质和电子设备。
背景技术
视频是一种常见的多媒体形式,可以同时展示声音和图像,信息的传递效率很高。人们可以通过视频获取大量的信息,也可以通过制作视频传递信息。但是,目前的视频制作从选材、配音、合成等步骤均由人手动完成,效率较低。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种视频生成方法,所述方法包括:获取用户输入的视频文案,并确定所述视频文案中各场景对应的文案子句;基于各场景对应的所述文案子句,检索各场景对应的视频资源和/或图像资源;基于所述视频文案生成配音音频;将所述视频资源和/或图像资源整合为目标视频,并将所述配音音频插入至所述目标视频。
第二方面,本公开提供一种视频生成装置,所述装置包括:获取模块,用于获取用户输入的视频文案,并确定所述视频文案中各场景对应的文案子句;检索模块,用于基于各场景对应的所述文案子句,检索各场景对应的视频资源和/或图像资源;生成模块,用于基于所述视频文案生成配音音频;合成模块,用于将所述视频资源和/或图像资源整合为目标视频,并将所述配音音频插入至所述目标视频。
第三方面,本公开提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现本公开第一方面所述方法的步骤。
第四方面,本公开提供一种电子设备,包括存储装置和处理装置,存储装置上存储有计算机程序的,处理装置用于执行所述计算机程序,以实现本公开第一方面所述方法的步骤。
通过上述技术方案,可以基于用户输入的视频文案中各场景对应的文案子句自动获取各场景对应的视频、图像资源,并自动生成配音,从而合成出与视频文案相适应的视频,解决了目前视频制作中需要人工进行资源的获取和音频的制作导致的制作效率较低的问题,提高了视频的制作效率。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
图1是根据一示例性公开实施例示出的一种视频生成方法的流程图。
图2是根据一示例性公开实施例示出的一种视频生成界面的示意图。
图3是根据一示例性公开实施例示出的一种视频生成装置的框图。
图4是根据一示例性公开实施例示出的一种电子设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1是根据一示例性公开实施例示出的一种视频生成方法的流程图,如图1所示,所述方法包括以下步骤:
S11、获取用户输入的视频文案,并确定所述视频文案中各场景对应的文案子句。
视频文案可以是由用户分段输入的,每一个段落对应一个场景,视频文案还可以是整体输入的,可以通过用于区分场景的模型进行场景划分得到各场景对应的段落。在得到各场景对应的段落之后,可以根据各段落对应的子句确定各场景对应的子句。值得说明的是,本公开中提到的“段落”并不指代文学作品中的自然段,本公开中的段落可以包括多个自然段,也可以由一个自然段构成。
在一种可能的实施方式中,获取用户分段输入的视频文案,以及该视频文案的各段落对应的输入位置,其中,一个输入位置对应一个场景;将各输入位置对应的段落的文案子句确定为该输入位置对应的场景所对应的文案子句。也就是说,可以预先设置各场景对应的输入位置,根据在各输入位置输入的内容确定各场景对应的文案子句。
可选的,还可以在各输入位置之上或周围设置用于接收用户的点击操作的控件,基于用户对控件的点击操作,添加、删除、拆分或合并场景,同时对场景对应的输入位置和文案内容进行对应的更改。
在一种可能的实施方式中,将用户输入的视频文案进行分句,得到多个文案子句,并通过场景判别模型,判别所述文案子句在所述视频文案中所属的场景。
可以通过场景判别模型,判别文案子句在文案内容中所属的场景,文案内容的可以包括开端、发展、高光、结尾等结构性场景,还可以包括背景、生平、代表作、发展前景等内容性场景,根据不同的视频制作需要,还可以包括其他任意的场景类型。
在一种可能的实施方式中,场景判别模型是通过以下方式训练得到的:将标注场景分割点的第一样本文案输入所述场景判别模型,以使所述场景判别模型基于所述第一样本文案和预设的损失函数调整所述场景判别模型中的参数。
该场景判别模型可以通过标注了场景分割点的文案训练得到,该文案可以是与待制作的视频同类视频的字幕内容或旁白内容,还可以是与待制作的视频同题材的文章内容。例如,当待制作的视频是百科类视频时,可以获取多个百科视频,并将其字幕或旁白的文案按照场景进行分割,并标注场景分割点;或者,将百科类读物按照场景进行分割,并标注场景分割点。值得说明的是,不同题材的文案的场景可能不同,例如,人物百科题材的文案的场景可能为“背景”“幼年经历”“学业”“职业生涯”“高光”等。
S12、基于各场景对应的所述文案子句,检索各场景对应的视频资源和/或图像资源。
在本公开中,检索可以在互联网中进行,也可以在任意的数据库中进行,在通过互联网进行检索的方式中,检索得到的视频和图像可以存储于本地的服务器或数据库中,以便以后使用。
在一种可能的实施方式中,可以将用户输入的视频文案进行分句,并通过关键词提取模型,提取各场景对应的文案子句的关键词;基于各场景对应的文案子句的关键词,检索该场景对应的视频资源和/或图像资源。
分句可以是基于文案内容的符号进行的,也可以是基于文案内容的语义进行的,例如,可以以结束符(句号、问号、叹号等)为分句点进行分句,也可以识别文本的语义,基于语义对文案内容进行分句。
在确定了各场景所包括的文案子句的关键词之后,可以统计各场景对应的关键词并进行处理,以减少检索所用的关键词的数量,例如,可以对一个场景中的各文案子句的关键词进行去重处理,或者将该场景中的各文案子句的关键词中出现频率较高的关键词作为场景对应的关键词。
关键词提取模型可以通过标注有关键词的语句作为样本训练得到,根据不同的视频制作需求,可以将不同类型的词语设置为关键词,例如,当需要制作人物百科视频时,可以将“地点名”“时间点”“作品名”等作为关键词。值得说明的是,一个文案子句可能提取出一个关键词或多个关键词,本公开对此不作限制。
在一种可能的实施方式中,在制作人物介绍类的视频时,可以获取所述文案内容对应的目标人物名称,基于各文案子句的关键词和所述目标人物名称,检索与所述文案内容对应的视频信息和/或图像信息,其中,所述视频信息和/或图像信息与所述目标人物相关。
在制作的视频为人物百科视频的情况下,所需要的视频或图像信息应当与人物主题相贴切,为了减少无关的素材,可以获取目标人物的名称,并基于该名称和关键词进行检索,得到符合需求的素材。例如,从文案子句“他的家乡是一个贫瘠的地方,经过十年寒窗苦读,他终于进入了理想的院校”中可以提取出“家乡”“院校”等关键词,但是,这些关键词所搜索出的视频、图像等很可能与主角无关,则在检索时,可以增加目标人物的名称,通过名称和关键词结合的方式进行检索,可以过滤掉大量的无关素材。
该目标人物名称可以通过以下的两种形式获取:
第一种:获取用户输入的目标人物名称,也就是说,在进行信息检索前,可以预先获取用户输入的人物名称,在检索时围绕该名称进行,提升素材的相关性。
第二种:从所述文案内容中提取人物名称,并将频率最高的人物名称作为所述目标人物名称。重要的人物名称可能在文案内容中多次重复出现,因此,可以将频率最高的人物名称作为目标人物名称,这样,在针对没有出现过人物名称的文案子句进行检索时,可以结合文案内容整体的重要人物进行,避免检索出大量无关的素材。
例如,文章内容中多次出现了人名“张三”,在针对没有出现人名的文案子句进行资源检索时,可以结合人名“张三”和文案子句本身的关键词进行检索,得到与“张三”相关的视频、图像资源。
S13、基于所述视频文案生成配音音频。
视频文案可以通过文字转语音的软件进行,为了方便后期对语音进行插入,还可以对视频文案的各分句逐句进行语音转换。
在一种可能的实施方式中,将用户输入的视频文案进行分句,得到多个文案子句;通过风格预测模型,确定各文案子句的风格标签;基于各文案子句对应的风格标签,将各文案子句转换为音频。
通过风格预测模型,可以为待配音文案标注风格标签,风格标签包括情感类的标签,例如,兴奋、快乐、悲伤等。
该风格预测模型的训练步骤如下:将样本文本输入待训练的风格预测模型,并获取所述风格预测模型输出的风格标签,并基于样本文本的样本标签、所述风格预测模型输出的风格标签以及预设的损失函数调整所述风格预测模型中的参数,以使风格预测模型输出的风格标签与样本标签接近,可以在前述两种标签的差异度满足预设条件,或者在训练迭代次数达到预设次数时停止训练。该预设的损失函数是用于惩罚模型输出的风格标签与样本标签的差值的损失函数
考虑到语音的风格还可能与文章的场景相关,例如,同样是带有“开心”风格的语句,在处于文章的高光部分时所需要的语言风格比在处于文章的背景部分时所需要的语言风格更激烈,将场景作为判别文案子句的风格标签的条件中,可以进一步提升配音的自然程度。因此,在一种可能的实施方式中,将用户输入的视频文案进行分句,得到多个文案子句;将各场景对应的多个文案子句的输入风格预测模型,并获取所述风格预测模型基于所述场景和所述文案子句的文本内容输出的风格标签;基于各场景对应的风格标签和文案子句,生成该场景的音频。在这种实施方式中,风格预测模型的训练样本还需要标注该样本文本的场景。
可以利用具有风格化配音功能的配音模型、程序或引擎进行配音音频的生成,根据不同的配音程序的风格种类为风格预测模型设置可选的标签,例如,当配音程序的风格种类包括开心、激动、难过三种种类时,可以将风格预测模型可输出的标签种类与这三种风格种类对应,例如将分别表征开心、快乐、高兴的标签均对应到开心的风格种类下。
S14、将所述视频资源和/或图像资源整合为目标视频,并将所述配音音频插入至所述目标视频。
其中,可以基于视频文案中关键词的出现顺序排列视频、图像资源以生成目标视频。在基于场景或基于文案子句进行检索的情况下,还可以根据场景或文案子句在视频文案中的排列顺序,来排列其检索到的视频、图像资源。
在生成配音音频之后,可以将各文案子句对应的配音音频插入至视频中该文案子句对应的视频、图像资源所在的视频位置,或者,将各场景对应的配音音频插入至视频中该场景对应的视频、图像位置。
在检索到多个视频、图像资源的情况下,用户可以针对各文案子句或各场景,从对应的视频、图像资源中选择一个或多个视频、图像资源,通过对用户选择的视频、图像资源进行整合,可以得到目标视频。
在一种可能的实施方式中,响应于用户对目标视频中的任意视频片段的编辑操作,调整该视频片段在所述目标视频中的位置。用户还可以从视频、图像资源中进行选择,还可以上传其他的视频、图像资源以用于视频制作。
例如,可以响应于用户的编辑操作,添加、删除、移动任意的视频、图像资源,或响应于用户的上传操作,将用户上传的资源作为目标视频的片段插入在用户选择的视频位置。
用户还可以选择需要调整的场景,对该场景对应的内容进行调整。例如,在一种可能的实施方式中,可以获取用户的选择操作,从多个场景中确定用户选择的场景,基于用户对所述场景的编辑操作,对所述场景对应的文案子句、视频资源和/或图像资源、所述场景对应的子视频中的至少一者进行与所述编辑操作对应的修改。
在用户选中一个场景后,可以将该场景对应的文案子句和/或视频图像资源和/或子视频进行突出显示,例如,可以强化该场景对应的文案子句或弱化其他场景对应的文案子句的显示,将该场景对应的视频图像资源覆盖于视频资源的显示位置,同时隐藏其他场景对应的视频图像资源,在视频时间轴中将该场景对应的子视频所在的时间轴突出显示,还可以在时间轴中显示子视频中的部分视频帧,以便用户选择编辑的位置。
在一种可能的实施方式中,可以基于人脸识别算法,从至少一个视频资源中提取包括人脸图像的视频片段;基于人脸分类算法,对所述人脸图像进行聚类,得到多个人物分类;基于用户对人物分类的选择操作,从所述多个人物分类中确定目标人物分类,并将所述待处理视频中包括所述目标人物分类的视频片段整合为待选视频;基于用户对待选视频的选择操作,从多个待选视频中确定目标人物视频;基于用户对所述目标人物视频的剪辑操作,确定所述目标人物视频中的至少一个目标视频片段;将所述目标视频片段整合为目标视频。
在一种可能的实施方式中,响应于用户对所述视频文案的编辑操作,从多个文案子句中确定用户调整的目标文案子句;基于用户的编辑操作,更新所述目标文案子句。
也就是说,在对视频文案进行分句后,可以向用户展示各文案子句,用户可以选择并编辑任意的文案子句。在更新目标文案子句之后,还可以基于目标文案子句重新提取该文案子句对应的关键词,并重新检索该文案子句对应的视频、图像资源,并重新对该文案子句进行配音,还可以基于该文案子句重新检索得到的资源和重新配音得到的音频对原本的目标视频中的视频片段或音频片段进行替换。
对文案子句的编辑操作还可以包括合并操作、拆分操作、删除操作等,对应地,可以对合并、拆分、删除后的文案子句进行更新。
在一种可能的实施方式中,响应于用户对所述目标视频的视频片段或音频片段的调速操作,对该视频片段或音频片段进行调速。
在一种可能的实施方式中,用户还可以选择将各文案子句作为文案子句对应的视频片段的字幕,或者输入其他文字作为字幕,还可以添加其他的文字、图像等作为视频特效。
如图2所示的是一种视频编辑界面的示意图,如图2所示的由虚线框区分的区域1为文案编辑区,区域2为视频编辑区,区域3为资源选择区。用户可以在区域1中对文案子句进行合并、拆分、删除和修改编辑,并通过点击“选择素材”的功能按键,在区域3对应的资源展示区快速展示与该文案子句对应的可选资源;通过时间轴编辑框,可以调整各文案子句在目标视频中对应的时间位置,通过字幕编辑框可以在该文案子句对应的视频片段中添加字幕或特效字幕。用户可以在区域2中对目标视频进行编辑,编辑可以是基于分镜进行的,一个分镜可以对应一个文案子句,或者对应一个场景,本公开对此不做限制。通过“选择人物”的功能按键,可以对各视频资源中的人物进行聚类,并基于用户选择的人物预览图像展示该人物对应的视频片段,以便用户对该人物对应的视频片段进行编辑。通过“选择片段”的功能按键,用户可以对目标视频中的任意视频片段进行选择,并对选中的片段进行编辑,包括插入、删除或者利用拖拽来改变视频片段位置的操作。用户可以在区域3中对可选的视频、图像资源进行选择,可以通过资源类型来选择视频资源或者图像资源,通过选择分镜来从选择各分镜对应的视频、图像资源中选择用于目标视频的资源,还可以通过“上传资源”的功能按键添加本地的资源。
通过上述技术方案,可以基于用户输入的视频文案中各场景对应的文案子句自动获取各场景对应的视频、图像资源,并自动生成配音,从而合成出与视频文案相适应的视频,解决了目前视频制作中需要人工进行资源的获取和音频的制作导致的制作效率较低的问题,提高了视频的制作效率。
图3是根据一示例性公开实施例示出的一种视频生成装置的框图,如图3所示,所述装置300包括:
获取模块310,用于获取用户输入的视频文案,并确定所述视频文案中各场景对应的文案子句。
检索模块310,用于基于各场景对应的所述文案子句,检索各场景对应的视频资源和/或图像资源。
生成模块330,用于基于所述视频文案生成配音音频。
合成模块340,用于将所述视频资源和/或图像资源整合为目标视频,并将所述配音音频插入至所述目标视频。
在一种可能的实施方式中,所述获取模块310,用于获取用户分段输入的视频文案,以及该视频文案的各段落对应的输入位置,其中,一个输入位置对应一个场景;将各输入位置对应的段落的文案子句确定为该输入位置对应的场景所对应的文案子句。
在一种可能的实施方式中,所述获取模块310,用于将用户输入的视频文案进行分句,得到多个文案子句;通过场景判别模型,判别所述文案子句在所述视频文案中所属的场景。
在一种可能的实施方式中,所述检索模块320,用于通过各场景对应的关键词提取模型,提取各场景对应的文案子句的关键词;基于各场景对应的文案子句的关键词,检索该场景对应的视频资源和/或图像资源。
在一种可能的实施方式中,所述装置还包括分句模块,用于将用户输入的视频文案进行分句,得到多个文案子句;所述生成模块330,用于将各场景对应的多个文案子句的输入风格预测模型,并获取所述风格预测模型基于所述场景和所述文案子句的文本内容输出的风格标签;基于各场景对应的风格标签和文案子句,生成该场景的配音音频,或者,所述生成模块330,用于通过风格预测模型,确定各文案子句的风格标签,并基于各文案子句对应的风格标签,将各文案子句转换为音频。
在一种可能的实施方式中,检索到的内容为视频资源,所述装置还包括聚类模块,用于基于人脸识别算法,从至少一个视频资源中提取包括人脸图像的视频片段;基于人脸分类算法,对所述人脸图像进行聚类,得到多个人物分类;基于用户对人物分类的选择操作,从所述多个人物分类中确定目标人物分类,并将所述待处理视频中包括所述目标人物分类的视频片段整合为待选视频;基于用户对待选视频的选择操作,从多个待选视频中确定目标人物视频;基于用户对所述目标人物视频的剪辑操作,确定所述目标人物视频中的至少一个目标视频片段;所述合成模块340,用于将所述目标视频片段整合为目标视频。
在一种可能的实施方式中,所述装置还包括编辑模块,用于响应于用户对目标视频中的任意视频片段的编辑操作,调整该视频片段在所述目标视频中的位置。
在一种可能的实施方式中,所述装置还包括编辑模块,用于响应于用户对所述视频文案的编辑操作,从多个文案子句中确定用户调整的目标文案子句;基于用户的编辑操作,更新所述目标文案子句。
在一种可能的实施方式中,所述装置还包括选择模块,用于获取用户的选择操作,从多个场景中确定用户选择的场景;基于用户对所述场景的编辑操作,对所述场景对应的文案子句、视频资源和/或图像资源、所述场景对应的子视频中的至少一者进行与所述编辑操作对应的修改。
上述各模块所具体执行的步骤在该模块对应的方法实施例中已经进行了详细的阐述,在此不做赘述。
通过上述技术方案,可以基于用户输入的视频文案中各场景对应的文案子句自动获取各场景对应的视频、图像资源,并自动生成配音,从而合成出与视频文案相适应的视频,解决了目前视频制作中需要人工进行资源的获取和音频的制作导致的制作效率较低的问题,提高了视频的制作效率。
下面参考图4,其示出了适于用来实现本公开实施例的电子设备(400的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图4示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图4所示,电子设备400可以包括处理装置(例如中央处理器、图形处理器等)401,其可以根据存储在只读存储器(ROM)402中的程序或者从存储装置408加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM 403中,还存储有电子设备400操作所需的各种程序和数据。处理装置401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
通常,以下装置可以连接至I/O接口405:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置406;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置407;包括例如磁带、硬盘等的存储装置408;以及通信装置409。通信装置409可以允许电子设备400与其他设备进行无线或有线通信以交换数据。虽然图4示出了具有各种装置的电子设备400,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置409从网络上被下载和安装,或者从存储装置408被安装,或者从ROM 402被安装。在该计算机程序被处理装置401执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,电子设备可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取至少两个网际协议地址;向节点评价设备发送包括所述至少两个网际协议地址的节点评价请求,其中,所述节点评价设备从所述至少两个网际协议地址中,选取网际协议地址并返回;接收所述节点评价设备返回的网际协议地址;其中,所获取的网际协议地址指示内容分发网络中的边缘节点。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种视频生成方法,所述方法包括:获取用户输入的视频文案,并确定所述视频文案中各场景对应的文案子句;基于各场景对应的所述文案子句,检索视频资源和/或图像资源;基于所述视频文案生成配音音频;将所述视频资源和/或图像资源整合为目标视频,并将所述配音音频插入至所述目标视频。
根据本公开的一个或多个实施例,示例2提供了示例1的方法,所述获取用户输入的视频文案,并确定所述视频文案中各场景对应的文案子句,包括:获取用户分段输入的视频文案,以及该视频文案的各段落对应的输入位置,其中,一个输入位置对应一个场景;将各输入位置对应的段落的文案子句确定为该输入位置对应的场景所对应的文案子句。
根据本公开的一个或多个实施例,示例3提供了示例1的方法,所述确定所述视频文案中各场景对应的文案子句,包括:将用户输入的视频文案进行分句,得到多个文案子句;通过场景判别模型,判别所述文案子句在所述视频文案中所属的场景。
根据本公开的一个或多个实施例,示例4提供了示例1的方法,所述基于各场景对应的所述文案子句,检索各场景对应的视频资源和/或图像资源,包括:通过各场景对应的关键词提取模型,提取各场景对应的文案子句的关键词;基于各场景对应的文案子句的关键词,检索该场景对应的视频资源和/或图像资源。
根据本公开的一个或多个实施例,示例5提供了示例2的方法,所述方法还包括:将用户输入的视频文案进行分句,得到多个文案子句;所述基于所述视频文案生成配音音频,包括:将各场景对应的多个文案子句的输入风格预测模型,并获取所述风格预测模型基于所述场景和所述文案子句的文本内容输出的风格标签,并基于各场景对应的风格标签和文案子句,生成该场景的配音音频;或者,通过风格预测模型,确定各文案子句的风格标签,并基于各文案子句对应的风格标签,将各文案子句转换为音频。
根据本公开的一个或多个实施例,示例6提供了示例1的方法,在检索到的内容为视频资源的情况下,所述方法还包括:基于人脸识别算法,从至少一个视频资源中提取包括人脸图像的视频片段;基于人脸分类算法,对所述人脸图像进行聚类,得到多个人物分类;基于用户对人物分类的选择操作,从所述多个人物分类中确定目标人物分类,并将所述待处理视频中包括所述目标人物分类的视频片段整合为待选视频;基于用户对待选视频的选择操作,从多个待选视频中确定目标人物视频;基于用户对所述目标人物视频的剪辑操作,确定所述目标人物视频中的至少一个目标视频片段;所述将所述视频资源和/或图像资源整合为目标视频,包括:将所述目标视频片段整合为目标视频。
根据本公开的一个或多个实施例,示例6提供了示例1-5的方法,所述方法还包括:响应于用户对目标视频中的任意视频片段的编辑操作,调整该视频片段在所述目标视频中的位置。
根据本公开的一个或多个实施例,示例7提供了示例1-6的方法,所述方法还包括:响应于用户对目标视频中的任意视频片段的编辑操作,调整该视频片段在所述目标视频中的位置。
根据本公开的一个或多个实施例,示例8提供了示例1-6的方法,响应于用户对所述视频文案的编辑操作,从多个文案子句中确定用户调整的目标文案子句;基于用户的编辑操作,更新所述目标文案子句。
根据本公开的一个或多个实施例,示例9提供了示例1-6的方法,所述方法还包括:获取用户的选择操作,从多个场景中确定用户选择的场景;基于用户对所述场景的编辑操作,对所述场景对应的文案子句、视频资源和/或图像资源、所述场景对应的子视频中的至少一者进行与所述编辑操作对应的修改。
根据本公开的一个或多个实施例,示例10提供了一种视频生成装置,所述装置包括:获取模块,用于获取用户输入的视频文案,并确定所述视频文案中各场景对应的文案子句;检索模块,用于基于各场景对应的所述文案子句,检索各场景对应的视频资源和/或图像资源;生成模块,用于基于所述视频文案生成配音音频;合成模块,用于将所述视频资源和/或图像资源整合为目标视频,并将所述配音音频插入至所述目标视频。
根据本公开的一个或多个实施例,示例11提供了示例10的装置,所述获取模块,用于获取用户分段输入的视频文案,以及该视频文案的各段落对应的输入位置,其中,一个输入位置对应一个场景;将各输入位置对应的段落的文案子句确定为该输入位置对应的场景所对应的文案子句。
根据本公开的一个或多个实施例,示例12提供了示例10的装置,所述获取模块,用于将用户输入的视频文案进行分句,得到多个文案子句;通过场景判别模型,判别所述文案子句在所述视频文案中所属的场景。
根据本公开的一个或多个实施例,示例13提供了示例10的装置,所述检索模块,用于通过各场景对应的关键词提取模型,提取各场景对应的文案子句的关键词;基于各场景对应的文案子句的关键词,检索该场景对应的视频资源和/或图像资源。
根据本公开的一个或多个实施例,示例14提供了示例11的装置,所述装置还包括分句模块,用于将用户输入的视频文案进行分句,得到多个文案子句;所述生成模块,用于将各场景对应的多个文案子句的输入风格预测模型,并获取所述风格预测模型基于所述场景和所述文案子句的文本内容输出的风格标签;基于各场景对应的风格标签和文案子句,生成该场景的配音音频,或者,所述生成模块,用于通过风格预测模型,确定各文案子句的风格标签,并基于各文案子句对应的风格标签,将各文案子句转换为音频。
根据本公开的一个或多个实施例,示例15提供了示例10的装置,检索到的内容为视频资源,所述装置还包括聚类模块,用于基于人脸识别算法,从至少一个视频资源中提取包括人脸图像的视频片段;基于人脸分类算法,对所述人脸图像进行聚类,得到多个人物分类;基于用户对人物分类的选择操作,从所述多个人物分类中确定目标人物分类,并将所述待处理视频中包括所述目标人物分类的视频片段整合为待选视频;基于用户对待选视频的选择操作,从多个待选视频中确定目标人物视频;基于用户对所述目标人物视频的剪辑操作,确定所述目标人物视频中的至少一个目标视频片段;所述合成模块,用于将所述目标视频片段整合为目标视频。
根据本公开的一个或多个实施例,示例16提供了示例10-14的装置,所述装置还包括编辑模块,用于响应于用户对目标视频中的任意视频片段的编辑操作,调整该视频片段在所述目标视频中的位置。
根据本公开的一个或多个实施例,示例17提供了示例10-14的装置,所述装置还包括编辑模块,用于响应于用户对所述视频文案的编辑操作,从多个文案子句中确定用户调整的目标文案子句;基于用户的编辑操作,更新所述目标文案子句。
根据本公开的一个或多个实施例,示例18提供了示例10-14的装置,所述装置还包括选择模块,用于获取用户的选择操作,从多个场景中确定用户选择的场景;基于用户对所述场景的编辑操作,对所述场景对应的文案子句、视频资源和/或图像资源、所述场景对应的子视频中的至少一者进行与所述编辑操作对应的修改。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

Claims (12)

1.一种视频生成方法,其特征在于,所述方法包括:
获取用户输入的视频文案,并确定所述视频文案中各场景对应的文案子句;
基于各场景对应的所述文案子句,检索视频资源和/或图像资源;
基于所述视频文案生成配音音频;
将所述视频资源和/或图像资源整合为目标视频,并将所述配音音频插入至所述目标视频。
2.根据权利要求1所述的方法,其特征在于,所述获取用户输入的视频文案,并确定所述视频文案中各场景对应的文案子句,包括:
获取用户分段输入的视频文案,以及该视频文案的各段落对应的输入位置,其中,一个输入位置对应一个场景;
将各输入位置对应的段落的文案子句确定为该输入位置对应的场景所对应的文案子句。
3.根据权利要求1所述的方法,其特征在于,所述确定所述视频文案中各场景对应的文案子句,包括:
将用户输入的视频文案进行分句,得到多个文案子句;
通过场景判别模型,判别所述文案子句在所述视频文案中所属的场景。
4.根据权利要求1所述的方法,其特征在于,所述基于各场景对应的所述文案子句,检索各场景对应的视频资源和/或图像资源,包括:
通过各场景对应的关键词提取模型,提取各场景对应的文案子句的关键词;
基于各场景对应的文案子句的关键词,检索该场景对应的视频资源和/或图像资源。
5.根据权利要求2所述的方法,其特征在于,所述方法还包括:
将用户输入的视频文案进行分句,得到多个文案子句;
所述基于所述视频文案生成配音音频,包括:
将各场景对应的多个文案子句的输入风格预测模型,并获取所述风格预测模型基于所述场景和所述文案子句的文本内容输出的风格标签,并基于各场景对应的风格标签和文案子句,生成该场景的配音音频;或者,
通过风格预测模型,确定各文案子句的风格标签,并基于各文案子句对应的风格标签,将各文案子句转换为音频。
6.根据权利要求1所述的方法,其特征在于,在检索到的内容为视频资源的情况下,所述方法还包括:
基于人脸识别算法,从至少一个视频资源中提取包括人脸图像的视频片段;
基于人脸分类算法,对所述人脸图像进行聚类,得到多个人物分类;
基于用户对人物分类的选择操作,从所述多个人物分类中确定目标人物分类,并将所述待处理视频中包括所述目标人物分类的视频片段整合为待选视频;
基于用户对待选视频的选择操作,从多个待选视频中确定目标人物视频;
基于用户对所述目标人物视频的剪辑操作,确定所述目标人物视频中的至少一个目标视频片段;
所述将所述视频资源和/或图像资源整合为目标视频,包括:
将所述目标视频片段整合为目标视频。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述方法还包括:
响应于用户对目标视频中的任意视频片段的编辑操作,调整该视频片段在所述目标视频中的位置。
8.根据权利要求1-6任一项所述的方法,其特征在于,所述方法还包括:
响应于用户对所述视频文案的编辑操作,从多个文案子句中确定用户调整的目标文案子句;
基于用户的编辑操作,更新所述目标文案子句。
9.根据权利要求1-6任一项所述的方法,其特征在于,所述方法还包括:
获取用户的选择操作,从多个场景中确定用户选择的场景;
基于用户对所述场景的编辑操作,对所述场景对应的文案子句、视频资源和/或图像资源、所述场景对应的子视频中的至少一者进行与所述编辑操作对应的修改。
10.一种视频生成装置,其特征在于,所述装置包括:
获取模块,用于获取用户输入的视频文案,并确定所述视频文案中各场景对应的文案子句;
检索模块,用于基于各场景对应的所述文案子句,检索各场景对应的视频资源和/或图像资源;
生成模块,用于基于所述视频文案生成配音音频;
合成模块,用于将所述视频资源和/或图像资源整合为目标视频,并将所述配音音频插入至所述目标视频。
11.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-9中任一项所述方法的步骤。
12.一种电子设备,其特征在于,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求1-9中任一项所述方法的步骤。
CN202110168882.2A 2021-02-07 2021-02-07 视频生成方法和装置、存储介质和电子设备 Active CN112929746B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110168882.2A CN112929746B (zh) 2021-02-07 2021-02-07 视频生成方法和装置、存储介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110168882.2A CN112929746B (zh) 2021-02-07 2021-02-07 视频生成方法和装置、存储介质和电子设备

Publications (2)

Publication Number Publication Date
CN112929746A true CN112929746A (zh) 2021-06-08
CN112929746B CN112929746B (zh) 2023-06-16

Family

ID=76171153

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110168882.2A Active CN112929746B (zh) 2021-02-07 2021-02-07 视频生成方法和装置、存储介质和电子设备

Country Status (1)

Country Link
CN (1) CN112929746B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114286169A (zh) * 2021-08-31 2022-04-05 腾讯科技(深圳)有限公司 视频生成方法、装置、终端、服务器及存储介质
CN115460459A (zh) * 2022-09-02 2022-12-09 百度时代网络技术(北京)有限公司 基于ai的视频生成方法、装置和电子设备
CN115811639A (zh) * 2022-11-15 2023-03-17 百度国际科技(深圳)有限公司 漫画视频生成方法、装置、电子设备和存储介质
CN117082293A (zh) * 2023-10-16 2023-11-17 成都华栖云科技有限公司 一种基于文字创意的视频自动生成方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107688571A (zh) * 2016-08-04 2018-02-13 上海德拓信息技术股份有限公司 多元化的视频检索方法
CN109819313A (zh) * 2019-01-10 2019-05-28 腾讯科技(深圳)有限公司 视频处理方法、装置及存储介质
US20200066293A1 (en) * 2017-05-04 2020-02-27 Rovi Guides, Inc. Systems and methods for adjusting dubbed speech based on context of a scene
CN112270920A (zh) * 2020-10-28 2021-01-26 北京百度网讯科技有限公司 一种语音合成方法、装置、电子设备和可读存储介质
CN112287168A (zh) * 2020-10-30 2021-01-29 北京有竹居网络技术有限公司 用于生成视频的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107688571A (zh) * 2016-08-04 2018-02-13 上海德拓信息技术股份有限公司 多元化的视频检索方法
US20200066293A1 (en) * 2017-05-04 2020-02-27 Rovi Guides, Inc. Systems and methods for adjusting dubbed speech based on context of a scene
CN109819313A (zh) * 2019-01-10 2019-05-28 腾讯科技(深圳)有限公司 视频处理方法、装置及存储介质
CN112270920A (zh) * 2020-10-28 2021-01-26 北京百度网讯科技有限公司 一种语音合成方法、装置、电子设备和可读存储介质
CN112287168A (zh) * 2020-10-30 2021-01-29 北京有竹居网络技术有限公司 用于生成视频的方法和装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114286169A (zh) * 2021-08-31 2022-04-05 腾讯科技(深圳)有限公司 视频生成方法、装置、终端、服务器及存储介质
CN114286169B (zh) * 2021-08-31 2023-06-20 腾讯科技(深圳)有限公司 视频生成方法、装置、终端、服务器及存储介质
CN115460459A (zh) * 2022-09-02 2022-12-09 百度时代网络技术(北京)有限公司 基于ai的视频生成方法、装置和电子设备
CN115460459B (zh) * 2022-09-02 2024-02-27 百度时代网络技术(北京)有限公司 基于ai的视频生成方法、装置和电子设备
CN115811639A (zh) * 2022-11-15 2023-03-17 百度国际科技(深圳)有限公司 漫画视频生成方法、装置、电子设备和存储介质
CN117082293A (zh) * 2023-10-16 2023-11-17 成都华栖云科技有限公司 一种基于文字创意的视频自动生成方法和装置
CN117082293B (zh) * 2023-10-16 2023-12-19 成都华栖云科技有限公司 一种基于文字创意的视频自动生成方法和装置

Also Published As

Publication number Publication date
CN112929746B (zh) 2023-06-16

Similar Documents

Publication Publication Date Title
CN109688463B (zh) 一种剪辑视频生成方法、装置、终端设备及存储介质
CN112929746B (zh) 视频生成方法和装置、存储介质和电子设备
CN112579826A (zh) 视频显示及处理方法、装置、系统、设备、介质
CN112231498A (zh) 互动信息处理方法、装置、设备及介质
JP2021168117A (ja) 動画クリップの検索方法及び装置
CN113010698B (zh) 多媒体的交互方法、信息交互方法、装置、设备及介质
CN111753558B (zh) 视频翻译方法和装置、存储介质和电子设备
JP7240505B2 (ja) 音声パケット推薦方法、装置、電子機器およびプログラム
CN111263186A (zh) 视频生成、播放、搜索以及处理方法、装置和存储介质
WO2023016349A1 (zh) 一种文本输入方法、装置、电子设备和存储介质
CN112287168A (zh) 用于生成视频的方法和装置
JP2022541358A (ja) ビデオ処理方法および装置、電子機器、記憶媒体、並びにコンピュータプログラム
CN111767740A (zh) 音效添加方法和装置、存储介质和电子设备
US20230368448A1 (en) Comment video generation method and apparatus
CN113889113A (zh) 分句方法、装置、存储介质及电子设备
CN113886612A (zh) 一种多媒体浏览方法、装置、设备及介质
CN112954453B (zh) 视频配音方法和装置、存储介质和电子设备
CN112182255A (zh) 用于存储媒体文件和用于检索媒体文件的方法和装置
CN110827085A (zh) 文本处理方法、装置及设备
CN112949430A (zh) 视频处理方法和装置、存储介质和电子设备
CN112905838A (zh) 信息检索方法和装置、存储介质和电子设备
CN111027332B (zh) 生成翻译模型的方法和装置
CN111767259A (zh) 内容分享的方法、装置、可读介质和电子设备
CN112699687A (zh) 内容编目方法、装置和电子设备
US20230328336A1 (en) Processing method and apparatus, electronic device and medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant