CN113316019B - 视频合成方法及装置 - Google Patents

视频合成方法及装置 Download PDF

Info

Publication number
CN113316019B
CN113316019B CN202110578976.7A CN202110578976A CN113316019B CN 113316019 B CN113316019 B CN 113316019B CN 202110578976 A CN202110578976 A CN 202110578976A CN 113316019 B CN113316019 B CN 113316019B
Authority
CN
China
Prior art keywords
picture
video
audio
display
time interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110578976.7A
Other languages
English (en)
Other versions
CN113316019A (zh
Inventor
李雪侠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Soufun Science & Technology Development Co ltd
Original Assignee
Beijing Soufun Science & Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Soufun Science & Technology Development Co ltd filed Critical Beijing Soufun Science & Technology Development Co ltd
Priority to CN202110578976.7A priority Critical patent/CN113316019B/zh
Publication of CN113316019A publication Critical patent/CN113316019A/zh
Application granted granted Critical
Publication of CN113316019B publication Critical patent/CN113316019B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供了一种视频合成方法及装置,该方法包括:获取各个图片及每个图片对应的音频;确定总视频时长;获取编辑信息;基于总视频时长及编辑信息,设定每个图片的播放时间区间;基于每个图片的展示图层及展示顺序对各个图片进行叠加,构建视频渲染流水线;确定视频帧率;基于视频帧率、每个图片的展示效果及播放时间区间,对各个图片进行计算和渲染,获得图片对应的各个视频帧;将各个视频帧替换掉图片在视频渲染流水线中的位置,并将各个音频按对应的播放时间区间,合成至视频渲染流水线中,生成最终的目标视频。应用本发明提供的方法,可以在合成视频中按照每个图片对应的展示效果进行计算和渲染,增加视频的趣味性,提高用户观看视频兴趣。

Description

视频合成方法及装置
技术领域
本发明涉及视频合成技术领域,特别是涉及一种视频合成方法及装置。
背景技术
随着网络技术发展,视频越来越多的取代图片等传统方式成为新的信息传递方式。公司在过去的运营中,积累了大量的图片资源。为挖掘公司现有大量图片资源的价值,并积极向新媒体模式转型,图片合成视频技术成为新环境下重要的技术方案。
现有技术的视频合成方案是直接将图片按照顺序合成无音乐视频,再在视频中添加背景音乐和水印生成最终视频。但是现有技术中,图片与图片之间过渡效果单调,都是单一对图片进行展示后直接进行切换,降低了用户观看视频的兴趣。
发明内容
有鉴于此,本发明提供一种视频合成方法,通过该方法,可以在合成视频中按照每个图片对应的展示效果进行计算和渲染,增加视频的趣味性,提高用户观看视频兴趣。
本发明还提供了一种视频合成装置,用以保证上述方法在实际中的实现及应用。
一种视频合成方法,包括:
获取多个用于合成视频的图片及每个所述图片对应的音频;
确定待合成视频的总视频时长;
获取预先设定的各个所述图片对应的编辑信息,所述编辑信息包含每个所述图片的展示效果、展示顺序、展示时长及展示图层;
基于所述总视频时长及所述编辑信息,设定每个所述图片在所述待合成视频中的播放时间区间;
基于所述每个所述图片的展示图层及展示顺序,对各个所述图片进行叠加,构建视频渲染流水线;
确定预先设置的视频帧率;
基于所述视频帧率、每个所述图片的展示效果及播放时间区间,对各个所述图片进行计算和渲染,获得每个所述图片对应的各个视频帧;
将每个所述图片对应的各个视频帧,替换掉该图片在所述视频渲染流水线中的位置,并将各个所述音频按照其对应的图片对应的播放时间区间,合成至所述视频渲染流水线中,生成最终的目标视频。
上述的方法,可选的,所述基于所述总视频时长及所述编辑信息,设定每个所述图片在所述待合成视频中的播放时间区间,包括:
基于所述编辑信息,在各个所述图片中,确定展示图层为背景图层的各个图片为第一目标图片,以及展示图层为显示图层的各个图片为第二目标图片;
获取所述编辑信息中每个所述第一目标图片的第一展示时长,及每个所述第二目标图片的第二展示时长;
基于每个所述第一目标图片的第一展示时长及所述总视频时长,计算每个所述第一目标图片在所述总视频时长中的展示时长占比;
基于每个所述第一目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第一图片在所述待合成视频的背景图层中的播放时间区间;
基于每个所述第二目标图片的第二展示时长及所述总视频时长,计算每个所述第二目标图片在所述总视频时长中的展示时长占比;
基于每个所述第二目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第二图片在所述待合成视频的显示图层中的播放时间区间。
上述的方法,可选的,所述基于所述每个所述图片的展示图层及展示顺序,对各个所述图片进行叠加,构建视频渲染流水线,包括:
基于每个所述第一目标图片的展示顺序,将各个所述第一目标图片按照人眼视觉方向进行排序;
将已排序的各个第一目标图片设置于所述背景图层中;
基于每个所述第二目标图片的展示顺序,将各个所述第二目标图片按照人眼视觉方向进行排序;
将已排序的各个第二目标图片设置于所述显示图层中,并将所述显示图层叠加于所述背景图层之上,生成视频渲染流水线。
上述的方法,可选的,所述基于所述视频帧率、每个所述图片的展示效果及播放时间区间,对各个所述图片进行计算和渲染,获得每个所述图片对应的各个视频帧,包括:
基于所述视频帧率及每个所述图片对应的播放时间区间,计算每个所述图片对应的视频帧数量;
按照每个所述图片对应的视频帧数量,生成每个所述图片对应的各个初始视频帧;
基于每个所述图片的展示效果,对每个所述图片进行计算,确定每个所述图片对应的每个初始视频帧的渲染参数;
基于每个所述初始视频帧的渲染参数,对所述初始视频帧进行效果渲染,以获得已渲染的每个所述图片对应的各个视频帧。
上述的方法,可选的,所述将各个所述音频按照其对应的图片对应的播放时间区间,合成至所述视频渲染流水线中,包括:
对于每个所述音频,确定所述音频的音频时长;
判断所述音频的音频时长是否超出所述音频对应的图片的播放时间区间;
若所述音频的音频时长超出所述音频对应的图片的播放时间区间,则对所述音频进行处理,使得已处理的音频的音频时长与所述播放时间区间相匹配,按照所述图片的播放时间区间,将所述已处理的音频合成至所述视频渲染流水线中;
若所述音频的音频时长未超出所述音频对应的图片的播放时间区间,则在所述音频对应的图片的播放时间区间内,标记所述音频对应的起始播放时间点,并基于所述起始播放时间点,将所述音频合成至所述视频渲染流水线中。
一种视频合成装置,包括:
第一获取单元,用于获取多个用于合成视频的图片及每个所述图片对应的音频;
第一确定单元,用于确定待合成视频的总视频时长;
第二获取单元,用于获取预先设定的各个所述图片对应的编辑信息,所述编辑信息包含每个所述图片的展示效果、展示顺序、展示时长及展示图层;
设置单元,用于基于所述总视频时长及所述编辑信息,设定每个所述图片在所述待合成视频中的播放时间区间;
构建单元,用于基于所述每个所述图片的展示图层及展示顺序,对各个所述图片进行叠加,构建视频渲染流水线;
第二确定单元,用于确定预先设置的视频帧率;
计算单元,用于基于所述视频帧率、每个所述图片的展示效果及播放时间区间,对各个所述图片进行计算和渲染,获得每个所述图片对应的各个视频帧;
合成单元,用于将每个所述图片对应的各个视频帧,替换掉该图片在所述视频渲染流水线中的位置,并将各个所述音频按照其对应的图片对应的播放时间区间,合成至所述视频渲染流水线中,生成最终的目标视频。
上述的装置,可选的,所述设置单元,包括:
第一确定子单元,用于基于所述编辑信息,在各个所述图片中,确定展示图层为背景图层的各个图片为第一目标图片,以及展示图层为显示图层的各个图片为第二目标图片;
第一获取子单元,用于获取所述编辑信息中每个所述第一目标图片的第一展示时长,及每个所述第二目标图片的第二展示时长;
第一计算子单元,用于基于每个所述第一目标图片的第一展示时长及所述总视频时长,计算每个所述第一目标图片在所述总视频时长中的展示时长占比;
第二确定子单元,用于基于每个所述第一目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第一图片在所述待合成视频的背景图层中的播放时间区间;
第二计算子单元,用于基于每个所述第二目标图片的第二展示时长及所述总视频时长,计算每个所述第二目标图片在所述总视频时长中的展示时长占比;
第三确定子单元,用于基于每个所述第二目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第二图片在所述待合成视频的显示图层中的播放时间区间。
上述的装置,可选的,所述构建单元,包括:
第一排序子单元,用于基于每个所述第一目标图片的展示顺序,将各个所述第一目标图片按照人眼视觉方向进行排序;
设置子单元,用于将已排序的各个第一目标图片设置于所述背景图层中;
第二排序子单元,用于基于每个所述第二目标图片的展示顺序,将各个所述第二目标图片按照人眼视觉方向进行排序;
叠加子单元,用于将已排序的各个第二目标图片设置于所述显示图层中,并将所述显示图层叠加于所述背景图层之上,生成视频渲染流水线。
上述的装置,可选的,所述计算单元,包括:
第三计算子单元,用于基于所述视频帧率及每个所述图片对应的播放时间区间,计算每个所述图片对应的视频帧数量;
生成子单元,用于按照每个所述图片对应的视频帧数量,生成每个所述图片对应的各个初始视频帧;
第四计算子单元,用于基于每个所述图片的展示效果,对每个所述图片进行计算,确定每个所述图片对应的每个初始视频帧的渲染参数;
渲染子单元,用于基于每个所述初始视频帧的渲染参数,对所述初始视频帧进行效果渲染,以获得已渲染的每个所述图片对应的各个视频帧。
上述的装置,可选的,所述合成单元,包括:
第四确定子单元,用于对于每个所述音频,确定所述音频的音频时长;
判断子单元,用于判断所述音频的音频时长是否超出所述音频对应的图片的播放时间区间;
第一合成子单元,用于若所述音频的音频时长超出所述音频对应的图片的播放时间区间,则对所述音频进行处理,使得已处理的音频的音频时长与所述播放时间区间相匹配,按照所述图片的播放时间区间,将所述已处理的音频合成至所述视频渲染流水线中;
第二合成子单元,用于若所述音频的音频时长未超出所述音频对应的图片的播放时间区间,则在所述音频对应的图片的播放时间区间内,标记所述音频对应的起始播放时间点,并基于所述起始播放时间点,将所述音频合成至所述视频渲染流水线中。
一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行上述的视频合成方法。
一种电子设备,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行上述的视频合成方法。
与现有技术相比,本发明包括以下优点:
本发明提供了一种视频合成方法,包括:获取多个用于合成视频的图片及每个所述图片对应的音频;确定待合成视频的总视频时长;获取预先设定的各个所述图片对应的编辑信息,所述编辑信息包含每个所述图片的展示效果、展示顺序、展示时长及展示图层;基于所述总视频时长及所述编辑信息,设定每个所述图片在所述待合成视频中的播放时间区间;基于所述每个所述图片的展示图层及展示顺序,对各个所述图片进行叠加,构建视频渲染流水线;确定预先设置的视频帧率;基于所述视频帧率、每个所述图片的展示效果及播放时间区间,对各个所述图片进行计算和渲染,获得每个所述图片对应的各个视频帧;将每个所述图片对应的各个视频帧,替换掉该图片在所述视频渲染流水线中的位置,并将各个所述音频按照其对应的图片对应的播放时间区间,合成至所述视频渲染流水线中,生成最终的目标视频。应用本发明提供的方法,可以在合成视频中按照每个图片对应的展示效果进行计算和渲染,增加视频的趣味性,提高用户观看视频兴趣。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种视频合成方法的方法流程图;
图2为本发明实施例提供的一种视频合成方法的又一方法流程图;
图3为本发明实施例提供的一种视频合成方法的再一方法流程图;
图4为本发明实施例提供的一种视频合成装置的装置结构图;
图5为本发明实施例提供的一种电子设备结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明可用于众多通用或专用的计算装置环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器装置、包括以上任何装置或设备的分布式计算环境等等。
本发明实施例提供了一种视频合成方法,该方法可以应用在多种系统平台,其执行主体可以为计算机终端或各种移动设备的处理器,所述方法的方法流程图如图1所示,具体包括:
S101:获取多个用于合成视频的图片及每个所述图片对应的音频。
在本发明中,获取用户上传的需要合成视频的各个图片以及每个图片对应的音频。
其中,用户可以上传图片对应的文字内容,处理器将该文字内容转换成该图片对应的音频。
S102:确定待合成视频的总视频时长。
在本发明中,在合成视频前,可以根据展示需求设定总视频时长,此处不作任何限定。
S103:获取预先设定的各个所述图片对应的编辑信息。
其中,所述编辑信息包含每个所述图片的展示效果、展示顺序、展示时长及展示图层。
在本发明中,展示效果包含对图片进行展示时图片的进出方式以及在视频中的渲染方式。进出方式可以是从左至右进入视频画面、从右到左进入视频画面、从上到下进入视频画面、从下到上进行视频画面或从视频中间逐渐展开等进出方式。渲染方式可以是图片由模糊逐渐变清晰、图片由清晰逐渐变模糊、图片逐渐变大或图片逐渐变小等。展示顺序表征该图片在其所属的展示图层中展示顺序。展示时长为用户初步设定的图片的展示时长。展示图层包括背景图层和显示图层,属于背景图层的图片作为视频背景进行展示,属于显示图层的图片作为视频主画面进行展示。
S104:基于所述总视频时长及所述编辑信息,设定每个所述图片在所述待合成视频中的播放时间区间。
在本发明中,在待合成视频中,每个图片需要按照对应的展示效果和展示顺序进行展示,并根据编辑信息中每个图片的展示时长和待合成视频的总视频时长,设定每个图片在待合成视频中的播放时间区间。
例如,当前共有5张图片,每个图片的展示时长为1秒,总视频时长为5秒,则按照图片的展示顺序,第一张图片的播放时间区间为[0,1),第一张图片的播放时间区间为[1,2),第一张图片的播放时间区间为[2,3),第一张图片的播放时间区间为[3,4),第一张图片的播放时间区间为[4,5]。
S105:基于所述每个所述图片的展示图层及展示顺序,对各个所述图片进行叠加,构建视频渲染流水线。
在本发明中,先将各个图片按照其对应的展示图层进行分层,并按照每个分层中各个图片的展示顺序,将各个图片进行排序后按照人眼视觉方向进行叠加,构建出待合成视频的视频渲染流水线。
其中,该视频渲染流水线相当于一个初始的视频,每个图片在该视频渲染流水线中具有对应播放的位置。
S106:确定预先设置的视频帧率。
在本发明中,视频帧率为每秒钟播放的视频帧的个数。
S107:基于所述视频帧率、每个所述图片的展示效果及播放时间区间,对各个所述图片进行计算和渲染,获得每个所述图片对应的各个视频帧。
在本发明中,为了防止合成的视频只单一的展示一张图片,按照每个图片的展示效果、视频帧图以及播放时间区间,计算出每个图片对应的各个视频帧。对于每个图片对应的各个视频帧,该图片对应的各个视频帧可以在视频过程中实现该图片的展示效果。
可选的,在对各个图片进行计算和渲染时,应用多个子线程实现图片的计算和渲染过程,每个子线程分别执行一个图片对应的计算和渲染过程。
S108:将每个所述图片对应的各个视频帧,替换掉该图片在所述视频渲染流水线中的位置,并将各个所述音频按照其对应的图片对应的播放时间区间,合成至所述视频渲染流水线中,生成最终的目标视频。
在本发明中,将各个视频帧替换掉视频渲染流水线中的各个图片,并将每个图片对应的音频合成至该流水线中,生成最终的目标视频。
可选的,在生成最终的目标视频后,可以对该目标视频进行添加水印。
本发明实施例提供的视频合成方法中,获取多个用于合成视频的图片和每个图片对应的音频,确定待合成视频的总视频时长,及获取各个图片对应的编辑信息。基于该总视频时长和编辑信息,设定每个图片在待合成视频中的播放时间区间。其中,该编辑信息中包含每个图片的展示效果、展示顺序、展示时长及展示图层。确定预先设置的视频帧率,并基于视频帧率、展示效果和播放时间区间对图片进行计算和渲染,获得每个图片对应的各个视频帧,并将各个视频帧替换掉视频渲染流水线中的各个图片,再合成音频,生成最终的目标视频。
应用本发明实施例提供的方法,可以在合成视频中按照每个图片对应的展示效果进行计算和渲染,增加视频的趣味性,提高用户观看视频兴趣。
本发明实施例提供的方法中,基于上述S104的内容,所述基于所述总视频时长及所述编辑信息,设定每个所述图片在所述待合成视频中的播放时间区间,具体可以包括:
基于所述编辑信息,在各个所述图片中,确定展示图层为背景图层的各个图片为第一目标图片,以及展示图层为显示图层的各个图片为第二目标图片;
获取所述编辑信息中每个所述第一目标图片的第一展示时长,及每个所述第二目标图片的第二展示时长;
基于每个所述第一目标图片的第一展示时长及所述总视频时长,计算每个所述第一目标图片在所述总视频时长中的展示时长占比;
基于所述每个所述第一目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第一图片在所述待合成视频的背景图层中的播放时间区间;
基于每个所述第二目标图片的第二展示时长及所述总视频时长,计算每个所述第二目标图片在所述总视频时长中的展示时长占比;
基于所述每个所述第二目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第二图片在所述待合成视频的显示图层中的播放时间区间。
可以理解的是,在视频展示过程中,视频可以分为两个展示图层,一个为背景图层,另一个为显示图层。基于该编辑信息中每个图片的展示图层,在各个图片中,确定展示图层为背景图层的各个第一目标图片,以及展示图层为显示图层的第二目标图片。计算每个第一目标图片在总视频时长中的展示时长占比的计算方式为:
a%=t1/T1 (1)
其中,t1为第一目标图片的第一展示时长,T1为各个第一目标图片的第一展示时长之和。
基于每个第一目标图片的展示顺序以展示时长占比,计算第一目标时间在总视频时长中的实际展示时长:
t2=T2×a% (2)
其中,T2为总视频时长。根据每个第一目标图片的在总视频时长中的实际展示时长,确定每个第一目标图片的播放时间区间。
同样的,计算每个第二目标图片在总视频时长中的展示时长占比的计算方式与上述公式(1)一致。当需要计算第二目标图片的展示时长占比时,t1为第二目标图片的第二展示时长,T1为各个第二目标图片的第二展示时长之和。基于第二目标目标图片的展示顺序以及展示时长占比,计算第二目标时间在总视频时长中的实际展示时长的方式与上述公式(2)一致。根据每个第二目标图片的在总视频时长中的实际展示时长,确定每个第二目标图片的播放时间区间。
基于上述实施例提供的方法,以三个图片为例,图片1的展示时长为2秒,图片2为4秒,图片3为4秒,总视频时长为20秒。三个图片均属于背景图层,则三个图片的展示时长和为10秒。因此,图片1的展示时长占比为20%,图片2的展示时长占比为40%,图片3的展示时长占比为40%。图片1、图片2和图片3在总视频时长中的实际展示时长分别为4秒、8秒和8秒。因此,图片1的播放时间区间为[0,4),图片2的播放时间区间为[4,12),图片3的播放时间区间为[12,20]。通过本实施例提供的方法,保证每个图层中的各个图片合理按照总视频时长分配每个图片对应的播放时间区间。
本发明实施例提供的方法中,在获得各个第一目标图片的播放时间区间以及各个第二目标时间区间后,还需要按照每个图片的展示图层和展示顺序,对各个图片进行叠加,以构建视频渲染流水线,对各个图片进行叠加的过程,具体可以包括:
基于每个所述第一目标图片的展示顺序,将各个所述第一目标图片按照人眼视觉方向进行排序;
将已排序的各个第一目标图片设置于所述背景图层中;
基于每个所述第二目标图片的展示顺序,将各个所述第二目标图片按照人眼视觉方向进行排序;
将已排序的各个第二目标图片设置于所述显示图层中,并将所述显示图层叠加于所述背景图层之上,生成视频渲染流水线。
本发明实施例提供的视频合成方法中,人眼视觉方向为三维立体图的Z轴方向。在用户观看视频的过程中,是在Z轴方向进行观看,因此,在对各个图片进行叠加过程中,先按照每个图片的展示图层各个图片进行排序,在按照人眼视觉方向进行叠加。
其中,先将属于背景图层的各个第一目标图片按照展示顺序及人眼视觉方向进行排序,并将已排序的各个第一目标图片设置于背景图层中。再将各个第二目标图片按照展示顺序及人眼视觉方向进行排序,将已排序的各个第二目标图片设置于显示图层中。最后再将显示图层叠加在背景图层之上,以生成视频渲染流水线。
可选的,可以在背景图层中开设一个显示窗口,将该显示图层叠加于背景图层的显示窗口中。
应用本发明实施例提供的方法,可以满足人眼视觉效果对各个图片进行叠加,以在后续合成视频后提高用户的观看体验。
本发明实施例提供的方法中,基于上述S107的内容,基于所述视频帧率、每个所述图片的展示效果及播放时间区间,对各个所述图片进行计算和渲染,获得每个所述图片对应的各个视频帧的过程如图2所示,具体可以包括:
S201:基于所述视频帧率及每个所述图片对应的播放时间区间,计算每个所述图片对应的视频帧数量。
在本发明中,视频帧数量的计算公式为:
P=k×t′ (3)
其中,k为视频帧率,t′为播放区间对应的区间时长。
S202:按照每个所述图片对应的视频帧数量,生成每个所述图片对应的各个初始视频帧。
需要说明的是,各个初始视频帧的展示内容与其对应的图片的展示内容一致。
S203:基于每个所述图片的展示效果,对每个所述图片进行计算,确定每个所述图片对应的每个初始视频帧的渲染参数。
在本发明中,基于每个图片对应的展示效果,需要计算图片的各个视频帧在该播放时间区间内,每一帧对该展示效果的展示形式,并确定每个初始视频帧对应的渲染参数。
例如,图片A的展示效果由清晰编模糊,最终展示效果为100%模糊,该图片A的视频帧数量为100张,则每张视频帧对应的渲染参数为依次递增的1%模糊度,即,第一张视频帧渲染参数为1%模糊度,第二张视频帧渲染参数为2%模糊度,第三张视频帧渲染参数为3%模糊度,以此类推,第一百张视频帧渲染参数为100%模糊度。
S204:基于每个所述初始视频帧的渲染参数,对所述初始视频帧进行效果渲染,以获得已渲染的每个所述图片对应的各个视频帧。
在本发明中,按照每个初始视频帧的渲染参数对各个初始视频进行效果渲染后,获得最终的视频帧。
本发明实施例提供的视频合成方法中,基于视频真理以及每个图片对应的播放时间区间,计算出每个图片在合成视频过程中需要的视频帧数量,并按照视频帧数量生成每个图片对应的各个初始视频帧。基于每个图片的展示效果,对各个图片进行计算获得每个初始视频帧的渲染参数,并按照每个初始视频帧对应的渲染参数对各个初始视频帧进行渲染,获得最终的视频帧。
需要说明的是,对各个图片及视频帧进行处理的过程中,为保证总体时间效率,方案中采用了多级多线程处理,只要子任务相互之间不存在关联性,即采用多线程并行处理,尤其是在各个初始视频帧的渲染过程中,可以由多个子线程实现渲染过程。
应用本发明实施例提供的方法,生成每个图片对应的各个视频帧,并按照展示效果对各个视频帧进行渲染,避免视频中的图片进行单一的播放。
本发明实施例提供的方法中,基于上述S108的内容,所述将各个所述音频按照其对应的图片对应的播放时间区间,合成至所述视频渲染流水线的过程如图3所示,具体可以包括:
S301:对于每个所述音频,确定所述音频的音频时长。
在本发明中,每个音频可以是由文本内容进行转换而来的音频数据,因此,在将音频合成至视频渲染流水线中前,需要确定音频时长。
S302:判断所述音频的音频时长是否超出所述音频对应的图片的播放时间区间。
在本发明中,若所述音频的音频时长超出所述音频对应的图片的播放时间区间,则执行S303;若所述音频的音频时长未超出所述音频对应的图片的播放时间区间,则S305。
可以理解的是,该音频可以是背景音频或者是对其对应的图片进行描述的介绍音频。因此,在视频播放过程中,音频需与其对应的图片相匹配。
S303:对所述音频进行处理,使得已处理的音频的音频时长与所述播放时间区间相匹配。
在本发明中,若音频时长超出播放时间区间,即,音频时长大于播放时间区间对应的时长,则对音频进行剪裁、压缩或加倍速等,使得该音频时长可以控制在该播放时间区间内播放完成。
S304:按照所述图片的播放时间区间,将所述已处理的音频合成至所述视频渲染流水线中。
在本发明中,在该播放时间区间中,将时间区间的起点作为音频播放的起始播放时间点,以根据起始播放时间点将该已处理的音频合成至该视频渲染流水线中。
S305:在所述音频对应的图片的播放时间区间内,标记所述音频对应的起始播放时间点。
在本发明中,若音频时长未超出播放时间区间,即,音频时长不大于播放时间区间对应的时长,则在保证音频播放时间不超出该播放时间区间的前提下,在该播放时间区间中标记一个起始播放时间点,当视频在播放到该起始播放时间点时,开始播放该音频。
S306:基于所述起始播放时间点,将所述音频合成至所述视频渲染流水线中。
在本发明中,在保证音频播放时间不超出该播放时间区间的前提下,基于该起始播放时间点,将音频合成至视频渲染流水线中。
本发明实施例提供的视频合成方法中,在对各个图片进行叠加后,需要将音频同样叠加进去。对于每个音频均质性上述S301至S306的过程。对于任意一个音频,先确定该音频的音频时长,并判断音频的音频时长是否超出其对应的播放时间区间。若是,则对其进行剪裁或加倍速播放等处理,在处理后将该音频按照该播放时间区间合成至该视频渲染流水线中;若否,则在保证音频不超出播放时间区间的情况下,标记一个起始播放时间点作为该音频播放的起始点,并基于该起始播放时间点将该音频合成至该视频渲染流水线中。
需要说明的是,在将音频合成是该视频渲染流水线后,获得最终合成的目标视频。
本发明实施例中,以视频时间轴为主维度,以视频帧为副维度,以效果间叠加顺序分层,构建立体渲染流水线。时间主轴下,以视频帧率为参数,划分播放时间区间,将每个播放时间区间作为视频渲染流水线中基准效果单元。
应用本发明实施例提供的方法,可以合理为每个图片合成对应的音频,以向用户展示趣味性视频,提高用户观看体验。
上述各个实施例的具体实施过程及其衍生方式,均在本发明的保护范围之内。
与图1所述的方法相对应,本发明实施例还提供了一种视频合成装置,用于对图1中方法的具体实现,本发明实施例提供的视频合成装置可以应用计算机终端或各种移动设备中,其结构示意图如图4所示,具体包括:
第一获取单元401,用于获取多个用于合成视频的图片及每个所述图片对应的音频;
第一确定单元402,用于确定待合成视频的总视频时长;
第二获取单元403,用于获取预先设定的各个所述图片对应的编辑信息,所述编辑信息包含每个所述图片的展示效果、展示顺序、展示时长及展示图层;
设置单元404,用于基于所述总视频时长及所述编辑信息,设定每个所述图片在所述待合成视频中的播放时间区间;
构建单元405,用于基于所述每个所述图片的展示图层及展示顺序,对各个所述图片进行叠加,构建视频渲染流水线;
第二确定单元406,用于确定预先设置的视频帧率;
计算单元407,用于基于所述视频帧率、每个所述图片的展示效果及播放时间区间,对各个所述图片进行计算和渲染,获得每个所述图片对应的各个视频帧;
合成单元408,用于将每个所述图片对应的各个视频帧,替换掉该图片在所述视频渲染流水线中的位置,并将各个所述音频按照其对应的图片对应的播放时间区间,合成至所述视频渲染流水线中,生成最终的目标视频。
本发明实施例提供的视频合成装置中,获取多个用于合成视频的图片和每个图片对应的音频,确定待合成视频的总视频时长,及获取各个图片对应的编辑信息。基于该总视频时长和编辑信息,设定每个图片在待合成视频中的播放时间区间。其中,该编辑信息中包含每个图片的展示效果、展示顺序、展示时长及展示图层。确定预先设置的视频帧率,并基于视频帧率、展示效果和播放时间区间对图片进行计算和渲染,获得每个图片对应的各个视频帧,并将各个视频帧替换掉视频渲染流水线中的各个图片,再合成音频,生成最终的目标视频。
应用本发明实施例提供的装置,可以在合成视频中按照每个图片对应的展示效果进行计算和渲染,增加视频的趣味性,提高用户观看视频兴趣。
本发明实施例提供的装置中,所述设置单元404,包括:
第一确定子单元,用于基于所述编辑信息,在各个所述图片中,确定展示图层为背景图层的各个图片为第一目标图片,以及展示图层为显示图层的各个图片为第二目标图片;
第一获取子单元,用于获取所述编辑信息中每个所述第一目标图片的第一展示时长,及每个所述第二目标图片的第二展示时长;
第一计算子单元,用于基于每个所述第一目标图片的第一展示时长及所述总视频时长,计算每个所述第一目标图片在所述总视频时长中的展示时长占比;
第二确定子单元,用于基于每个所述第一目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第一图片在所述待合成视频的背景图层中的播放时间区间;
第二计算子单元,用于基于每个所述第二目标图片的第二展示时长及所述总视频时长,计算每个所述第二目标图片在所述总视频时长中的展示时长占比;
第三确定子单元,用于基于每个所述第二目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第二图片在所述待合成视频的显示图层中的播放时间区间。
本发明实施例提供的装置中,所述构建单元405,包括:
第一排序子单元,用于基于每个所述第一目标图片的展示顺序,将各个所述第一目标图片按照人眼视觉方向进行排序;
设置子单元,用于将已排序的各个第一目标图片设置于所述背景图层中;
第二排序子单元,用于基于每个所述第二目标图片的展示顺序,将各个所述第二目标图片按照人眼视觉方向进行排序;
叠加子单元,用于将已排序的各个第二目标图片设置于所述显示图层中,并将所述显示图层叠加于所述背景图层之上,生成视频渲染流水线。
本发明实施例提供的装置中,所述计算单元407,包括:
第三计算子单元,用于基于所述视频帧率及每个所述图片对应的播放时间区间,计算每个所述图片对应的视频帧数量;
生成子单元,用于按照每个所述图片对应的视频帧数量,生成每个所述图片对应的各个初始视频帧;
第四计算子单元,用于基于每个所述图片的展示效果,对每个所述图片进行计算,确定每个所述图片对应的每个初始视频帧的渲染参数;
渲染子单元,用于基于每个所述初始视频帧的渲染参数,对所述初始视频帧进行效果渲染,以获得已渲染的每个所述图片对应的各个视频帧。
本发明实施例提供的装置中,所述合成单元408,包括:
第四确定子单元,用于对于每个所述音频,确定所述音频的音频时长;
判断子单元,用于判断所述音频的音频时长是否超出所述音频对应的图片的播放时间区间;
第一合成子单元,用于若所述音频的音频时长超出所述音频对应的图片的播放时间区间,则对所述音频进行处理,使得已处理的音频的音频时长与所述播放时间区间相匹配,按照所述图片的播放时间区间,将所述已处理的音频合成至所述视频渲染流水线中;
第二合成子单元,用于若所述音频的音频时长未超出所述音频对应的图片的播放时间区间,则在所述音频对应的图片的播放时间区间内,标记所述音频对应的起始播放时间点,并基于所述起始播放时间点,将所述音频合成至所述视频渲染流水线中。
以上本发明实施例公开的视频合成装置中各个单元及子单元的具体工作过程,可参见本发明上述实施例公开的视频合成方法中的对应内容,这里不再进行赘述。
本发明实施例还提供了一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行上述视频合成方法。
本发明实施例还提供了一种电子设备,其结构示意图如图5所示,具体包括存储器501,以及一个或者一个以上的指令502,其中一个或者一个以上指令502存储于存储器501中,且经配置以由一个或者一个以上处理器503执行所述一个或者一个以上指令502进行以下操作:
获取多个用于合成视频的图片及每个所述图片对应的音频;
确定待合成视频的总视频时长;
获取预先设定的各个所述图片对应的编辑信息,所述编辑信息包含每个所述图片的展示效果、展示顺序、展示时长及展示图层;
基于所述总视频时长及所述编辑信息,设定每个所述图片在所述待合成视频中的播放时间区间;
基于所述每个所述图片的展示图层及展示顺序,对各个所述图片进行叠加,构建视频渲染流水线;
确定预先设置的视频帧率;
基于所述视频帧率、每个所述图片的展示效果及播放时间区间,对各个所述图片进行计算和渲染,获得每个所述图片对应的各个视频帧;
将每个所述图片对应的各个视频帧,替换掉该图片在所述视频渲染流水线中的位置,并将各个所述音频按照其对应的图片对应的播放时间区间,合成至所述视频渲染流水线中,生成最终的目标视频。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现。
为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种视频合成方法,其特征在于,包括:
获取多个用于合成视频的图片及每个所述图片对应的音频;
确定待合成视频的总视频时长;
获取预先设定的各个所述图片对应的编辑信息,所述编辑信息包含每个所述图片的展示效果、展示顺序、展示时长及展示图层;
基于所述总视频时长及所述编辑信息,设定每个所述图片在所述待合成视频中的播放时间区间;
基于所述每个所述图片的展示图层及展示顺序,对各个所述图片进行叠加,构建视频渲染流水线;
确定预先设置的视频帧率;
基于所述视频帧率、每个所述图片的展示效果及播放时间区间,对各个所述图片进行计算和渲染,获得每个所述图片对应的各个视频帧;
将每个所述图片对应的各个视频帧,替换掉该图片在所述视频渲染流水线中的位置,并将各个所述音频按照其对应的图片对应的播放时间区间,合成至所述视频渲染流水线中,生成最终的目标视频。
2.根据权利要求1所述的方法,其特征在于,所述基于所述总视频时长及所述编辑信息,设定每个所述图片在所述待合成视频中的播放时间区间,包括:
基于所述编辑信息,在各个所述图片中,确定展示图层为背景图层的各个图片为第一目标图片,以及展示图层为显示图层的各个图片为第二目标图片;
获取所述编辑信息中每个所述第一目标图片的第一展示时长,及每个所述第二目标图片的第二展示时长;
基于每个所述第一目标图片的第一展示时长及所述总视频时长,计算每个所述第一目标图片在所述总视频时长中的展示时长占比;
基于每个所述第一目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第一目标 图片在所述待合成视频的背景图层中的播放时间区间;
基于每个所述第二目标图片的第二展示时长及所述总视频时长,计算每个所述第二目标图片在所述总视频时长中的展示时长占比;
基于每个所述第二目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第二目标 图片在所述待合成视频的显示图层中的播放时间区间。
3.根据权利要求2所述的方法,其特征在于,所述基于所述每个所述图片的展示图层及展示顺序,对各个所述图片进行叠加,构建视频渲染流水线,包括:
基于每个所述第一目标图片的展示顺序,将各个所述第一目标图片按照人眼视觉方向进行排序;
将已排序的各个第一目标图片设置于所述背景图层中;
基于每个所述第二目标图片的展示顺序,将各个所述第二目标图片按照人眼视觉方向进行排序;
将已排序的各个第二目标图片设置于所述显示图层中,并将所述显示图层叠加于所述背景图层之上,生成视频渲染流水线。
4.根据权利要求1所述的方法,其特征在于,所述基于所述视频帧率、每个所述图片的展示效果及播放时间区间,对各个所述图片进行计算和渲染,获得每个所述图片对应的各个视频帧,包括:
基于所述视频帧率及每个所述图片对应的播放时间区间,计算每个所述图片对应的视频帧数量;
按照每个所述图片对应的视频帧数量,生成每个所述图片对应的各个初始视频帧;
基于每个所述图片的展示效果,对每个所述图片进行计算,确定每个所述图片对应的每个初始视频帧的渲染参数;
基于每个所述初始视频帧的渲染参数,对所述初始视频帧进行效果渲染,以获得已渲染的每个所述图片对应的各个视频帧。
5.根据权利要求1所述的方法,其特征在于,所述将各个所述音频按照其对应的图片对应的播放时间区间,合成至所述视频渲染流水线中,包括:
对于每个所述音频,确定所述音频的音频时长;
判断所述音频的音频时长是否超出所述音频对应的图片的播放时间区间;
若所述音频的音频时长超出所述音频对应的图片的播放时间区间,则对所述音频进行处理,使得已处理的音频的音频时长与所述播放时间区间相匹配,按照所述图片的播放时间区间,将所述已处理的音频合成至所述视频渲染流水线中;
若所述音频的音频时长未超出所述音频对应的图片的播放时间区间,则在所述音频对应的图片的播放时间区间内,标记所述音频对应的起始播放时间点,并基于所述起始播放时间点,将所述音频合成至所述视频渲染流水线中。
6.一种视频合成装置,其特征在于,包括:
第一获取单元,用于获取多个用于合成视频的图片及每个所述图片对应的音频;
第一确定单元,用于确定待合成视频的总视频时长;
第二获取单元,用于获取预先设定的各个所述图片对应的编辑信息,所述编辑信息包含每个所述图片的展示效果、展示顺序、展示时长及展示图层;
设置单元,用于基于所述总视频时长及所述编辑信息,设定每个所述图片在所述待合成视频中的播放时间区间;
构建单元,用于基于所述每个所述图片的展示图层及展示顺序,对各个所述图片进行叠加,构建视频渲染流水线;
第二确定单元,用于确定预先设置的视频帧率;
计算单元,用于基于所述视频帧率、每个所述图片的展示效果及播放时间区间,对各个所述图片进行计算和渲染,获得每个所述图片对应的各个视频帧;
合成单元,用于将每个所述图片对应的各个视频帧,替换掉该图片在所述视频渲染流水线中的位置,并将各个所述音频按照其对应的图片对应的播放时间区间,合成至所述视频渲染流水线中,生成最终的目标视频。
7.根据权利要求6所述的装置,其特征在于,所述设置单元,包括:
第一确定子单元,用于基于所述编辑信息,在各个所述图片中,确定展示图层为背景图层的各个图片为第一目标图片,以及展示图层为显示图层的各个图片为第二目标图片;
第一获取子单元,用于获取所述编辑信息中每个所述第一目标图片的第一展示时长,及每个所述第二目标图片的第二展示时长;
第一计算子单元,用于基于每个所述第一目标图片的第一展示时长及所述总视频时长,计算每个所述第一目标图片在所述总视频时长中的展示时长占比;
第二确定子单元,用于基于每个所述第一目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第一目标 图片在所述待合成视频的背景图层中的播放时间区间;
第二计算子单元,用于基于每个所述第二目标图片的第二展示时长及所述总视频时长,计算每个所述第二目标图片在所述总视频时长中的展示时长占比;
第三确定子单元,用于基于每个所述第二目标图片的展示顺序及在所述总视频时长中的展示时长占比,确定每个所述第二目标 图片在所述待合成视频的显示图层中的播放时间区间。
8.根据权利要求7所述的装置,其特征在于,所述构建单元,包括:
第一排序子单元,用于基于每个所述第一目标图片的展示顺序,将各个所述第一目标图片按照人眼视觉方向进行排序;
设置子单元,用于将已排序的各个第一目标图片设置于所述背景图层中;
第二排序子单元,用于基于每个所述第二目标图片的展示顺序,将各个所述第二目标图片按照人眼视觉方向进行排序;
叠加子单元,用于将已排序的各个第二目标图片设置于所述显示图层中,并将所述显示图层叠加于所述背景图层之上,生成视频渲染流水线。
9.根据权利要求6所述的装置,其特征在于,所述计算单元,包括:
第三计算子单元,用于基于所述视频帧率及每个所述图片对应的播放时间区间,计算每个所述图片对应的视频帧数量;
生成子单元,用于按照每个所述图片对应的视频帧数量,生成每个所述图片对应的各个初始视频帧;
第四计算子单元,用于基于每个所述图片的展示效果,对每个所述图片进行计算,确定每个所述图片对应的每个初始视频帧的渲染参数;
渲染子单元,用于基于每个所述初始视频帧的渲染参数,对所述初始视频帧进行效果渲染,以获得已渲染的每个所述图片对应的各个视频帧。
10.根据权利要求6所述的装置,其特征在于,所述合成单元,包括:
第四确定子单元,用于对于每个所述音频,确定所述音频的音频时长;
判断子单元,用于判断所述音频的音频时长是否超出所述音频对应的图片的播放时间区间;
第一合成子单元,用于若所述音频的音频时长超出所述音频对应的图片的播放时间区间,则对所述音频进行处理,使得已处理的音频的音频时长与所述播放时间区间相匹配,按照所述图片的播放时间区间,将所述已处理的音频合成至所述视频渲染流水线中;
第二合成子单元,用于若所述音频的音频时长未超出所述音频对应的图片的播放时间区间,则在所述音频对应的图片的播放时间区间内,标记所述音频对应的起始播放时间点,并基于所述起始播放时间点,将所述音频合成至所述视频渲染流水线中。
CN202110578976.7A 2021-05-26 2021-05-26 视频合成方法及装置 Active CN113316019B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110578976.7A CN113316019B (zh) 2021-05-26 2021-05-26 视频合成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110578976.7A CN113316019B (zh) 2021-05-26 2021-05-26 视频合成方法及装置

Publications (2)

Publication Number Publication Date
CN113316019A CN113316019A (zh) 2021-08-27
CN113316019B true CN113316019B (zh) 2022-04-26

Family

ID=77375216

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110578976.7A Active CN113316019B (zh) 2021-05-26 2021-05-26 视频合成方法及装置

Country Status (1)

Country Link
CN (1) CN113316019B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581609A (zh) * 2012-07-23 2014-02-12 中兴通讯股份有限公司 一种视频处理方法及装置、系统
CN103595925A (zh) * 2013-11-15 2014-02-19 深圳市中兴移动通信有限公司 照片合成视频的方法和装置
CN104967893A (zh) * 2014-07-10 2015-10-07 腾讯科技(北京)有限公司 便携电子设备的视频生成方法和装置
CN111246122A (zh) * 2020-01-15 2020-06-05 齐力软件科技(广州)有限公司 一种多张照片合成视频的方法和装置
CN112312161A (zh) * 2020-06-29 2021-02-02 北京沃东天骏信息技术有限公司 用于生成视频的方法、装置、电子设备及可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100592341C (zh) * 2007-09-24 2010-02-24 腾讯科技(深圳)有限公司 一种图片的处理方法及处理系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581609A (zh) * 2012-07-23 2014-02-12 中兴通讯股份有限公司 一种视频处理方法及装置、系统
CN103595925A (zh) * 2013-11-15 2014-02-19 深圳市中兴移动通信有限公司 照片合成视频的方法和装置
CN104967893A (zh) * 2014-07-10 2015-10-07 腾讯科技(北京)有限公司 便携电子设备的视频生成方法和装置
CN111246122A (zh) * 2020-01-15 2020-06-05 齐力软件科技(广州)有限公司 一种多张照片合成视频的方法和装置
CN112312161A (zh) * 2020-06-29 2021-02-02 北京沃东天骏信息技术有限公司 用于生成视频的方法、装置、电子设备及可读存储介质

Also Published As

Publication number Publication date
CN113316019A (zh) 2021-08-27

Similar Documents

Publication Publication Date Title
CN109462776B (zh) 一种视频特效添加方法、装置、终端设备及存储介质
CN108566519B (zh) 视频制作方法、装置、终端和存储介质
CN112215927B (zh) 人脸视频的合成方法、装置、设备及介质
EP3889912B1 (en) Method and apparatus for generating video
CN107770626A (zh) 视频素材的处理方法、视频合成方法、装置及存储介质
CN112669417B (zh) 虚拟形象的生成方法、装置、存储介质及电子设备
US20130321566A1 (en) Audio source positioning using a camera
US20090262139A1 (en) Video image display device and video image display method
JP7473676B2 (ja) オーディオ処理方法、装置、可読媒体及び電子機器
CN107333164B (zh) 一种图像数据处理方法及装置
JP2002342789A (ja) 3次元キャラクタ画像を生成する画像処理装置および画像処理方法ならびに画像処理プログラムを記録した記録媒体
US6924803B1 (en) Methods and systems for a character motion animation tool
JP2024523812A (ja) オーディオ共有方法、装置、機器及び媒体
CN109600559B (zh) 一种视频特效添加方法、装置、终端设备及存储介质
US20210166461A1 (en) Avatar animation
CN113038185B (zh) 弹幕处理方法及装置
CN107343206A (zh) 支持多视角观看的视频生成方法、装置、介质和电子设备
CN108604389A (zh) 连续深度排序图像合成
CN113781660A (zh) 一种用于直播间在线渲染加工虚拟场景的方法及装置
JP2003125361A (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
CN112929683A (zh) 视频处理方法、装置、电子设备及存储介质
CN116152416A (zh) 基于扩展现实的画面渲染方法、装置及存储介质
CN114222076B (zh) 一种换脸视频生成方法、装置、设备以及存储介质
CN113316019B (zh) 视频合成方法及装置
JP2004178036A (ja) 遠隔者の映像を伴う仮想空間の提示装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant