WO2022156169A1 - 一种导出动画视频的方法与装置 - Google Patents

一种导出动画视频的方法与装置 Download PDF

Info

Publication number
WO2022156169A1
WO2022156169A1 PCT/CN2021/107130 CN2021107130W WO2022156169A1 WO 2022156169 A1 WO2022156169 A1 WO 2022156169A1 CN 2021107130 W CN2021107130 W CN 2021107130W WO 2022156169 A1 WO2022156169 A1 WO 2022156169A1
Authority
WO
WIPO (PCT)
Prior art keywords
scene page
element change
scene
page
sequential
Prior art date
Application number
PCT/CN2021/107130
Other languages
English (en)
French (fr)
Inventor
韦森林
魏博
Original Assignee
深圳市前海手绘科技文化有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市前海手绘科技文化有限公司 filed Critical 深圳市前海手绘科技文化有限公司
Publication of WO2022156169A1 publication Critical patent/WO2022156169A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Definitions

  • the invention belongs to the technical field of hand-painted animation, and in particular relates to an application method, device, electronic device and storage medium for exporting animation video.
  • the present invention provides an application method for exporting animation video, comprising the following steps:
  • a first scene page with element changes is formed by splicing a part with element changes and a part without element changes on the scene page with element change;
  • the first scene page with element change and the first scene page without element change are synthesized into a new video according to time.
  • an application device for exporting animation video including:
  • the first splitting module splitting the template video into multiple scene page videos
  • a second segmenting module segmenting the scene page video into sequential pictures of several frames, and associating the sequential pictures of the several frames with time;
  • a recording module recording the scene page without element change in the template video, to form a first scene page without element change
  • the splicing module which splices the element-changed part and the non-element-changed part of the scene page with element change to form the first scene page with element change;
  • the synthesizing module synthesizes the first scene page with element change and the first scene page without element change into a new video according to time.
  • the method for exporting animation video proposed by the present invention mainly aims at further modification based on animation video template, and then exporting to generate demonstration video.
  • the sequential pictures of the several frames are associated with time, and the video and the scene page thereof are demarcated.
  • the animation video is composed of multiple scene pages, and the scene pages are composed of multiple frames of animation pictures.
  • the scene page has a certain time sequence for the animation video to advance according to the storyline expressed by the scene page, and the animation picture also has a certain time sequence, so that the scene page can be played according to the set storyline.
  • the spliced element change scene page has element change part and no element change part, and the steps of forming the first element change scene page include:
  • the screenshot of the element change part is a sequential picture, so as to form the first scene page with element change
  • the above device also includes:
  • a recording unit recording the original template picture in the time period without element change in the scene page with element change, so as to form the first scene page without element change;
  • the screenshot unit for the scene page with element change, the screenshot of the part of the scene page with element change is a sequential picture, so as to form the first scene page with element change;
  • a splicing unit which splices the first scene page without element change and the first scene page with element change into a first new scene page according to time.
  • the steps of synthesizing the first scene page with element change and the first scene page without element change according to time to synthesize a new video include:
  • the new scene pages are spliced into a new video according to time.
  • the above device also includes:
  • the first synthesizing unit splicing the first scene page with element change and the first scene page without element change into a new scene page according to time and the corresponding scene page;
  • the second synthesizing unit splicing the new scene pages into a new video according to time.
  • the screenshot of the part with element change is a sequential picture, so as to form the first scene page with element change, including:
  • the first scene page with elements in the first form is stored separately for all the sequential pictures, so that the sequential pictures corresponding to each time point are stored separately.
  • first scene page with element change in the second form is formed, and the first scene page with element change in the second form is generated through the following steps:
  • a time point set is generated based on a plurality of time points having the same sequential pictures, the time point sets corresponding to the same sequential pictures.
  • the sequential pictures in the time point set include sequential pictures at adjacent moments and/or non-adjacent moments.
  • a first scene page with element changes is generated based on the sequential pictures and the set of time points.
  • the recording module includes:
  • the picture generation unit is used to generate sequential pictures of the screenshots of the changed parts of the scene page with element changes according to the preset interval time;
  • a judging unit for judging whether any sequential picture is the same as other sequential pictures adjacent to it;
  • the first forming unit is used for forming a first scene page with element change in a first form if different.
  • the first scene page with elements in the first form is stored separately for all the sequential pictures, so that the sequential pictures corresponding to each time point are stored separately.
  • the first scene page with element changes in the second form is formed, and the first scene page with element changes in the second form is generated by the following units:
  • an acquisition unit used to acquire time points with the same sequential pictures
  • a time point generating unit configured to generate a time point set based on a plurality of time points having the same sequential pictures, where the time point sets correspond to the same sequential pictures.
  • the sequential pictures in the time point set include sequential pictures at adjacent moments and/or non-adjacent moments.
  • the scene page generating unit is used for generating the first scene page with element changes based on the sequential pictures and the set of time points.
  • the video of Adong's scene page without elements and the newly synthesized scene page video are spliced according to the scene page sequence of the original template video, and finally a new scene page video can be obtained.
  • This method greatly reduces the time spent in the screenshot process, and can also save the synthesis of repeated frames, save the memory for saving repeated pictures, so that users do not need to consume too much running when exporting animation videos. memory space, so exporting animated videos is faster and less expensive.
  • FIG. 1 is a flowchart of a method for exporting an animation video provided by an embodiment
  • FIG. 2 is an apparatus architecture diagram corresponding to the method in FIG. 1 provided by an embodiment
  • FIG. 3 is a flowchart of a splicing scene page provided by an embodiment
  • FIG. 4 is an apparatus architecture diagram corresponding to the method in FIG. 3 provided by an embodiment
  • FIG. 5 is a flowchart of synthesizing a picture frame provided by an embodiment
  • FIG. 6 is a device architecture diagram corresponding to the method in FIG. 5 provided by an embodiment
  • the term “storage medium” may be various media that can store computer programs, such as ROM, RAM, magnetic disk or optical disk.
  • the term "processor” can be CPLD (Complex Programmable Logic Device: Complex Programmable Logic Device), FPGA (Field-Programmable Gate Array: Field Programmable Gate Array), MCU (Microcontroller Unit: Micro Control Unit), PLC (Programmable Logic) Controller: programmable logic controller) and CPU (Central Processing Unit: central processing unit) and other chips or circuits with data processing functions.
  • electronic device can be any device with data processing and storage functions, and can generally include both stationary and mobile terminals. Fixed terminals such as desktops, etc. Mobile terminals such as mobile phones, PADs and mobile robots. In addition, the technical features involved in the different embodiments of the present invention described later can be combined with each other as long as there is no conflict with each other.
  • the present embodiment provides an application method for exporting an animation video, including the following steps:
  • this embodiment provides an application device for exporting animation video, including:
  • the first splitting module 1, splitting the template video into multiple scene page videos
  • the second splitting module splitting the scene page video into sequential pictures of several frames, and associating the sequential pictures of several frames with time;
  • Recording module 3 recording the scene page without element change in the template video, to form the first scene page without element change;
  • the splicing module 4 splicing the element change scene page with the element change part and the element change part without element change to form the first element change scene page;
  • the synthesis module 5 synthesizes a new video according to time between the first scene page with element changes and the first scene page without element change.
  • the present invention divides the animation video into scene pages, then divides the scene pages into picture frames, associates the scene pages and the picture frames with time, and then records the scene pages without element changes in the template video, and then Splicing the part with element change and the part without element change on the scene page with element change, and finally synthesizing a new video from the scene page with element change and the scene page without element change according to the time sequence.
  • This new type of animation video export method does not need to take screenshots of the entire animation video, saves the synthesis of repeated frames, and saves running memory and storage space.
  • step S4 includes:
  • the association module 4 includes:
  • the recording unit 41 records the original template picture in the time period without element change in the scene page with element change, so as to form the first scene page without element change;
  • the screenshot unit 42 takes a screenshot of the element-changed part of the scene page with the element-change as sequential pictures, so as to form a first scene page with the element-change;
  • the splicing unit 43 splices the first scene page without element change and the first scene page with element change into a first new scene page according to time.
  • step S5 includes:
  • the synthesis module 5 also includes:
  • the first synthesizing unit 51 splices the first scene page with element change and the first scene page without element change into a new scene page according to time and the corresponding scene page;
  • the second synthesizing unit 52 splices the new scene pages into a new video according to time.
  • the pictures found in the original video and the pictures captured from the new video content are grouped and arranged in the order of the new video content and the scene page to which they belong, and then a new scene page video is synthesized according to the sequence of Meizu pictures.
  • the video of Adong's scene page without elements and the newly synthesized scene page video are spliced according to the scene page sequence of the original template video, and finally a new scene page video can be obtained.
  • This method greatly reduces the time spent in the screenshot process, and can also save the synthesis of repeated frames, save the memory for saving repeated pictures, so that users do not need to consume too much running when exporting animation videos. memory space, so exporting animated videos is faster and less expensive.
  • the present invention takes a screenshot of the element-changed part of the scene page with element change as sequential pictures, and the steps of forming the first scene page with element-change include:
  • a sequenced picture is generated from a screenshot of the part of the scene page with element changes that is changed according to a preset interval.
  • the present invention will take screenshots of scene pages with element changes to generate sequential pictures, and the sequential pictures may be pictures generated according to time points.
  • a first scene page with element change in the first form is formed. If each sequential picture is different, store the first scene page with elements that changes in the first form. Wherein, the first scene page with elements of the first form is stored separately for all the sequential pictures, so that the sequential pictures corresponding to each time point are stored separately.
  • the present invention also includes:
  • first scene page with element change in the second form is formed, and the first scene page with element change in the second form is generated through the following steps:
  • the time points with the same sequential pictures obtain the time points with the same sequential pictures.
  • the time points of all the sequential pictures are acquired, and the sequential pictures can be clustered through the time points.
  • a time point set is generated based on a plurality of time points having the same sequential picture, the time point set corresponding to the same sequential picture.
  • the present invention can generate a time point set from a plurality of time points having the same sequential pictures, so as to realize the effect of clustering.
  • the present invention can adopt different processing methods for the sequential pictures according to different situations of the sequential pictures, and when multiple sequential pictures are the same, perform clustering processing on the sequential pictures, reducing the number of sequential pictures amount of data storage.
  • the sequential pictures in the time point set include sequential pictures of adjacent moments and/or non-adjacent moments.
  • the sequential pictures at adjacent times can be clustered, and the sequential pictures at different times can also be clustered.
  • the present invention also includes:
  • a first scene page with element changes is generated based on the sequential pictures and the set of time points.
  • the present invention When the present invention generates the first scene with element changes, it will be generated according to the clustering result of the element pictures, and the expression form of the clustering result can be a collection of time points. generate.
  • the recording module of the present invention includes:
  • the picture generating unit is configured to generate sequential pictures of the screenshots of the part of the scene page with the element changes that are changed according to the preset interval time.
  • the present invention will take screenshots of scene pages with element changes to generate sequential pictures, and the sequential pictures may be pictures generated according to time points.
  • the judgment unit is used for judging whether any sequential picture is the same as other sequential pictures adjacent to it. In an actual scene, there may be a situation in which one picture appears in a time period, and the same situation may exist in the sequential pictures captured according to the preset interval at this time. Therefore, there may be cases where the sequential pictures are the same.
  • the present invention also includes:
  • the first scene page with element changes in the second form is formed, and the first scene page with element changes in the second form is generated by the following units:
  • the acquisition unit is used to acquire time points with the same sequential pictures. When there are multiple sequential pictures that are the same, the time points of all the sequential pictures are acquired, and the sequential pictures can be clustered through this time point.
  • a time point generating unit configured to generate a time point set based on a plurality of time points having the same sequential pictures, where the time point sets correspond to the same sequential pictures.
  • the present invention can generate a time point set from a plurality of time points having the same sequential pictures, so as to realize the effect of clustering.
  • the present invention can adopt different processing methods for the sequential pictures according to different situations of the sequential pictures, and when multiple sequential pictures are the same, perform clustering processing on the sequential pictures, reducing the number of sequential pictures amount of data storage.
  • the sequential pictures in the set of time points include sequential pictures of adjacent moments and/or non-adjacent moments.
  • the sequential pictures at adjacent times can be clustered, and the sequential pictures at different times can also be clustered.
  • the present invention also includes:
  • the scene page generating unit is configured to generate a first scene page with element changes based on the sequential pictures and the set of time points.
  • the present invention When the present invention generates the first scene with element changes, it will be generated according to the clustering result of the element pictures, and the expression form of the clustering result can be a collection of time points. generate.
  • the present invention also provides an electronic device including a memory and a processor, the memory stores a computer program, and the computer program is executed in the processor to implement any of the above methods.
  • the electronic device may be a mobile terminal or a web terminal.
  • the present invention also provides a storage medium storing a computer program, and the computer program can implement any of the above methods when executed in a processor.

Abstract

本申请属于手绘动画技术领域,提供一种导出动画视频的应用方法,通过将动画视频分截成场景页,再将场景页分截成图片帧,并将场景页和图片帧与时间关联,然后记录模板视频中没有元素变动的场景页,接着将有元素变动场景页中有元素变动部分和无元素变动部分进行拼接,最后将有元素变动场景页和没有元素变动场景页按照时序合成新视频。本申请让用户在将手绘动画导出成动画视频的过程中,缩短了对整个视频进行截图的过程,减少了截帧图片的数量,使得用户在导出一个动画视频的过程中减少对运行内存和存储空间的消耗。

Description

一种导出动画视频的方法与装置 技术领域
本发明属于手绘动画技术领域,尤其涉及一种导出动画视频的应用方法、装置、电子设备和存储介质。
背景技术
用户进行动画视频的导出一般需要先在一定环境中进行编辑后的视频内容的播放,然后在播放过程中按照指定速度进行截图,最后再将截出来的图片合成视频。大部分用户在制作动画视频的时候都是根据模板去做一些个人定制化修改,这些修改相对于整个动画视频的模板来说只是更改一部分帧,其他会存在数量不一的与原视频一致的帧。现有的技术在导出动画视频的过程的时候,会将由模板修改成的草稿在播放过程中的全部帧截成图片,然后再用工具将这些视频的图片合成视频,由此在截图过程中与原视频模板重复了很多一样的帧,使得截图这一过程花费很多时间和内存,效率极低。
综上所述,现有技术中,在保存动画视频的过程中,存在对整个动画视频进行截图会消耗过多内存的问题。
发明内容
为解决上述技术问题,本发明提供一种导出动画视频的应用方法,包括如下步骤:
分截模板视频成多段场景页视频;
分截场景页视频为若干帧的按序图片,并将所述若干帧的按序图片与时间关联;
记录所述模板视频中无元素变动的场景页,以形成第一无元素变动场景页;
拼接有元素变动场景页中有元素变动部分和无元素变动部分,形 成第一有元素变动场景页;
将所述第一有元素变动场景页与第一无元素变动场景页按照时间合成新视频。
对应的,本发明提供一种导出动画视频的应用装置,包括:
第一分截模块,分截模板视频成多段场景页视频;
第二分截模块,分截场景页视频为若干帧的按序图片,并将所述若干帧的按序图片与时间关联;
记录模块,记录所述模板视频中无元素变动的场景页,以形成第一无元素变动场景页;
拼接模块,拼接有元素变动场景页中有元素变动部分和无元素变动部分,形成第一有元素变动场景页;
合成模块,将所述第一有元素变动场景页与第一无元素变动场景页按照时间合成新视频。
技术效果说明:本发明提出的导出动画视频的方法,该方法主要是针对基于动画视频模板去做进一步的修改,然后进行导出生成演示视频。先是将模板视频按照不同场景页截成几段视频,然后将模板视频按照一定的帧率截成具有时序的多张图片,并且将图片所属序列跟视频以及所属场景页的时间节点关联,接着在用户进行动画视频的内容的编辑过程中记录下没有元素变动的时间节点及所属场景页,以便于后期合成动画视频。
改进的,所述若干帧的按序图片与时间关联,并标定其所述视频和所述场景页。
需要说明的是,动画视频由多个场景页组成,场景页由多帧动画图片组成。场景页具有一定的时序,以用于动画视频按照场景页所表达的故事情节推进,动画图片也具有一定的时序,以用于场景页能够 按照所设定的故事情节播放。
改进的,所述拼接有元素变动场景页中有元素变动部分和无元素变动部分,形成第一有元素变动场景页的步骤包括:
记录有元素变动的场景页中无元素变动的时间段内原模板图片,以形成第一无元素变动场景页;
对有元素变动的场景页有元素变动部分截图为按序图片,以形成第一有元素变动场景页;
将所述第一无元素变动场景页与所述第一有元素变动场景页按照时间拼接为第一新场景页;
对应的,上述装置还包括:
记录单元,记录有元素变动的场景页中无元素变动的时间段内原模板图片,以形成第一无元素变动场景页;
截图单元,对有元素变动的场景页有元素变动部分截图为按序图片,以形成第一有元素变动场景页;
拼接单元,将所述第一无元素变动场景页与所述第一有元素变动场景页按照时间拼接为第一新场景页。
技术效果说明,在原视频截出来的图片中,找到对应编辑过程中有元素变动的场景页中没有元素变动的时间节点的所有图片,然后按照指定帧率将有元素变动的场景页中有变动元素的时间节点的图片进行截图;接着,将原视频中找到的图片与新视频内容截取出来的图片按照新视频内容的所属场景页的时序分组排好,以达到将每组图片合成一个新的场景页视频的目的;最后将没有元素变动的场景页的视频与新合成出来的场景页视频按照原模板视频的场景页时序进行视频拼接,最终得到一个新的动画视频。
改进的,将所述第一有元素变动场景页与第一无元素变动场景页 按照时间合成新视频的步骤包括:
对第一有元素变动场景页与第一无元素变动场景页,按照时间和对应的场景页拼接为新的场景页;
拼接所述新的场景页按照时间拼接为新视频。
对应的,上述装置还包括:
第一合成单元,对第一有元素变动场景页与第一无元素变动场景页,按照时间和对应的场景页拼接为新的场景页;
第二合成单元,拼接所述新的场景页按照时间拼接为新视频。
技术效果说明,将原视频中找到的图片与新视频内容截取出来的图片按照新视频内容以及所属场景页的顺序分组排好,然后按照魅族图片的时序合成一个新的场景页视频。
改进的,对有元素变动的场景页有元素变动部分截图为按序图片,以形成第一有元素变动场景页包括:
对所述有元素变动的场景页按照预设间隔时间进行变动部分的截图生成按序图片;
判断任意一个按序图片与其相邻的其他按序图片是否相同;
若不同,则形成第一形式的第一有元素变动场景页。
改进的,其中,所述第一形式的第一有元素变动场景页为对所有按序图片分别保存以使每个时间点所对应的按序图片分别存储。
改进的,还包括:
若存在部分相邻的按序图片是相同的,则形成第二形式的第一有元素变动场景页,第二形式的第一有元素变动场景页通过以下步骤生成:
则获取具有相同按序图片的时间点;
基于多个具有相同按序图片的时间点生成时间点集合,所述时间 点集合对应相同的按序图片。
改进的,其中,所述时间点集合中的按序图片包括相邻时刻和\或非相邻时刻的按序图片。
改进的,还包括:
基于按序图片和时间点集合生成第一有元素变动场景页。
对应的,所述记录模块包括:
图片生成单元,用于对所述有元素变动的场景页按照预设间隔时间进行变动部分的截图生成按序图片;
判断单元,用于判断任意一个按序图片与其相邻的其他按序图片是否相同;
第一形成单元,用于若不同,则形成第一形式的第一有元素变动场景页。
对应的,其中,所述第一形式的第一有元素变动场景页为对所有按序图片分别保存以使每个时间点所对应的按序图片分别存储。
对应的,还包括:
若存在部分相邻的按序图片是相同的,则形成第二形式的第一有元素变动场景页,第二形式的第一有元素变动场景页通过以下单元生成:
获取单元,用于获取具有相同按序图片的时间点;
时间点生成单元,用于基于多个具有相同按序图片的时间点生成时间点集合,所述时间点集合对应相同的按序图片。
对应的,其中,所述时间点集合中的按序图片包括相邻时刻和\或非相邻时刻的按序图片。
对应的,还包括:
场景页生成单元,用于基于按序图片和时间点集合生成第一有元 素变动场景页。
还需要说明的是,将没有元素便阿东的场景页视频与新合成出来的场景页视频按照原模板视频的场景页顺序进行视频拼接,最终就可以得到一个新的场景页视频。这种方式,很大程度上减少了在截图过程中花费的时间,还可以省去重复帧的合成,节省了保存重复图片的内存,使得用户在导出动画视频的时候不需要消耗过多的运行内存空间,因此导出动画视频的速度更快、消耗更小。
附图说明
图1为一实施例提供的导出动画视频方法的流程图;
图2为一实施例提供的对应图1中方法的装置架构图;
图3为一实施例提供的拼接场景页的流程图;
图4为一实施例提供的对应图3中方法的装置架构图;
图5为一实施例提供的合成图片帧的流程图;
图6为一实施例提供的对应图5中方法的装置架构图;
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,在本发明的描述中,除非另有明确的规定和限定,术语“存储介质”可以是ROM、RAM、磁碟或者光盘等各种可以存储计算机程序的介质。术语“处理器”可以是CPLD(Complex Programmable Logic Device:复杂可编程逻辑器件)、FPGA(Field-Programmable Gate Array:现场可编程门阵列)、MCU(Microcontroller Unit:微控制单元)、PLC(Programmable Logic Controller:可编程逻辑控制器)以及CPU(Central Processing Unit:中央处理器)等具备数据处理功能的芯片或电路。术语“电子设备”可以是具有数据处理功能和存储功能的任 何设备,通常可以包括固定终端和移动终端。固定终端如台式机等。移动终端如手机、PAD以及移动机器人等。此外,后续所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
下面,本发明提出部分优选实施例以教导本领域技术人员实现。
实施例一
参见图1,本实施例提供一种导出动画视频的应用方法,包括如下步骤:
S1、分截模板视频成多段场景页视频;
S2、分截场景页视频为若干帧的按序图片,并将若干帧的按序图片与时间关联;
S3、记录模板视频中无元素变动的场景页,以形成第一无元素变动场景页;
S4、拼接有元素变动场景页中有元素变动部分和无元素变动部分,形成第一有元素变动场景页;
S5、将第一有元素变动场景页与第一无元素变动场景页按照时间合成新视频。
实施例二
参见图2,对应的,本实施例提供一种导出动画视频的应用装置,包括:
第一分截模块1,分截模板视频成多段场景页视频;
第二分截模块2,分截场景页视频为若干帧的按序图片,并将若干帧的按序图片与时间关联;
记录模块3,记录模板视频中无元素变动的场景页,以形成第一无元素变动场景页;
拼接模块4,拼接有元素变动场景页中有元素变动部分和无元素变动部分,形成第一有元素变动场景页;
合成模块5,将第一有元素变动场景页与第一无元素变动场景页按照时间合成新视频。
技术效果说明:本发明通过将动画视频分截成场景页,再将场景页分截成图片帧,并将场景页和图片帧与时间关联,然后记录模板视频中没有元素变动的场景页,接着将有元素变动场景页中有元素变动部分和无元素变动部分进行拼接,最后将由元素变动场景页和没有元素变动场景页按照时序合成新视频。这种新型的动画视频的导出方法,不用对整个动画视频进行截图,省去了重复帧的合成,节省了运行内存和存储空间。
实施例三
参见图3,具体的,步骤S4包括:
S41、记录有元素变动的场景页中无元素变动的时间段内原模板图片,以形成第一无元素变动场景页;
S42、对有元素变动的场景页有元素变动部分截图为按序图片,以形成第一有元素变动场景页;
S43、将第一无元素变动场景页与第一有元素变动场景页按照时间拼接为第一新场景页。
实施例四
参见图4,对应的,关联模块4包括:
记录单元41,记录有元素变动的场景页中无元素变动的时间段内原模板图片,以形成第一无元素变动场景页;
截图单元42,对有元素变动的场景页有元素变动部分截图为按序图片,以形成第一有元素变动场景页;
拼接单元43,将第一无元素变动场景页与第一有元素变动场景页按照时间拼接为第一新场景页。
需要说明的是,在原视频截出来的图片中,找到对应编辑过程中有元素变动的场景页中没有元素变动的时间节点的所有图片,然后按照指定帧率将有元素变动的场景页中有变动元素的时间节点的图片进行截图;接着,将原视频中找到的图片与新视频内容截取出来的图片按照新视频内容的所属场景页的时序分组排好,以达到将每组图片合成一个新的场景页视频的目的;最后将没有元素变动的场景页的视频与新合成出来的场景页视频按照原模板视频的场景页时序进行视频拼接,最终得到一个新的动画视频。
实施例五
参见图5,对应的,步骤S5包括:
S51、对第一有元素变动场景页与第一无元素变动场景页,按照时间和对应的场景页拼接为新的场景页;
S52、拼接新的场景页按照时间拼接为新视频。
实施例六
参见图6,对应的,合成模块5还包括:
第一合成单元51,对第一有元素变动场景页与第一无元素变动场景页,按照时间和对应的场景页拼接为新的场景页;
第二合成单元52,拼接新的场景页按照时间拼接为新视频。
需要说明的是,将原视频中找到的图片与新视频内容截取出来的图片按照新视频内容以及所属场景页的顺序分组排好,然后按照魅族图片的时序合成一个新的场景页视频。
还需要说明的是,将没有元素便阿东的场景页视频与新合成出来的场景页视频按照原模板视频的场景页顺序进行视频拼接,最终就可 以得到一个新的场景页视频。这种方式,很大程度上减少了在截图过程中花费的时间,还可以省去重复帧的合成,节省了保存重复图片的内存,使得用户在导出动画视频的时候不需要消耗过多的运行内存空间,因此导出动画视频的速度更快、消耗更小。
实施例七
本发明对有元素变动的场景页有元素变动部分截图为按序图片,以形成第一有元素变动场景页的步骤中包括:
对所述有元素变动的场景页按照预设间隔时间进行变动部分的截图生成按序图片。本发明会针对有元素变动的场景页进行截图,生成按序图片,该按序图片可以是按照时间点生成的图片。
判断任意一个按序图片与其相邻的其他按序图片是否相同。在实际的场景中,可能会存在一个时间段出现一个图片的情况,则此时按照预设间隔时间截取的按序图片可能会存在相同的情况。所以,可能会出现按序图片相同的情况。
若不同,则形成第一形式的第一有元素变动场景页。如果每个按序图片都不相同的话,则以第一形式对变动第一有元素变动场景页进行存储。其中,所述第一形式的第一有元素变动场景页为对所有按序图片分别保存以使每个时间点所对应的按序图片分别存储。
本发明还包括:
若存在部分相邻的按序图片是相同的,则形成第二形式的第一有元素变动场景页,第二形式的第一有元素变动场景页通过以下步骤生成:
则获取具有相同按序图片的时间点。当存在多个按序图片为相同时,则获取所有按序图片的时间点,通过该时间点可以将按序图片进行聚类处理。
基于多个具有相同按序图片的时间点生成时间点集合,所述时间点集合对应相同的按序图片。本发明可以将多个具有相同按序图片的时间点生成时间点集合,实现聚类的效果。
通过上述的技术方案,本发明可以根据按序图片的不同情况对按序图片采取不同的处理方式,并且在多个按序图片相同时,对按序图片进行聚类处理,降低了按序图片的数据存储量。
其中,时间点集合中的按序图片包括相邻时刻和\或非相邻时刻的按序图片。本发明在对按序图片进行聚类时,可以将相邻时刻的按序图片进行聚类,也可以将不同时刻的按序图片聚类。
本发明还包括:
基于按序图片和时间点集合生成第一有元素变动场景页。本发明在生成第一有元素变动场景时,会根据元素图片的聚类结果生成,该聚类结果的表现形式可以是时间点集合,通过以上方式实现了第一有元素变动场景页的制作、生成。
实施例八
本发明所述记录模块包括:
图片生成单元,用于对所述有元素变动的场景页按照预设间隔时间进行变动部分的截图生成按序图片。本发明会针对有元素变动的场景页进行截图,生成按序图片,该按序图片可以是按照时间点生成的图片。
判断单元,用于判断任意一个按序图片与其相邻的其他按序图片是否相同。在实际的场景中,可能会存在一个时间段出现一个图片的情况,则此时按照预设间隔时间截取的按序图片可能会存在相同的情况。所以,可能会出现按序图片相同的情况。
第一形成单元,用于若不同,则形成第一形式的第一有元素变动 场景页。如果每个按序图片都不相同的话,则以第一形式对变动第一有元素变动场景页进行存储。其中,所述第一形式的第一有元素变动场景页为对所有按序图片分别保存以使每个时间点所对应的按序图片分别存储。其中,所述第一形式的第一有元素变动场景页为对所有按序图片分别保存以使每个时间点所对应的按序图片分别存储。
本发明还包括:
若存在部分相邻的按序图片是相同的,则形成第二形式的第一有元素变动场景页,第二形式的第一有元素变动场景页通过以下单元生成:
获取单元,用于获取具有相同按序图片的时间点。当存在多个按序图片为相同时,则获取所有按序图片的时间点,通过该时间点可以将按序图片进行聚类处理。
时间点生成单元,用于基于多个具有相同按序图片的时间点生成时间点集合,所述时间点集合对应相同的按序图片。本发明可以将多个具有相同按序图片的时间点生成时间点集合,实现聚类的效果。
通过上述的技术方案,本发明可以根据按序图片的不同情况对按序图片采取不同的处理方式,并且在多个按序图片相同时,对按序图片进行聚类处理,降低了按序图片的数据存储量。
其中,所述时间点集合中的按序图片包括相邻时刻和\或非相邻时刻的按序图片。本发明在对按序图片进行聚类时,可以将相邻时刻的按序图片进行聚类,也可以将不同时刻的按序图片聚类。
本发明还包括:
场景页生成单元,用于基于按序图片和时间点集合生成第一有元素变动场景页。本发明在生成第一有元素变动场景时,会根据元素图片的聚类结果生成,该聚类结果的表现形式可以是时间点集合,通过 以上方式实现了第一有元素变动场景页的制作、生成。
另外,本发明还提供一种电子设备,包括存储器和处理器,存储器存储计算机程序,计算机程序在处理器中执行可实现上述任一种方法。其中,电子设备可以为移动终端或web端。
本发明还提供一种存储介质,存储计算机程序,计算机程序在处理器中执行可实现上述任一种方法。
以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (19)

  1. 一种导出动画视频的方式,其特征在于,包括步骤:
    分截模板视频成多段场景页视频;
    分截场景页视频为若干帧的按序图片,并将所述若干帧的按序图片与时间关联;
    记录所述模板视频中无元素变动的场景页,以形成第一无元素变动场景页;
    拼接有元素变动场景页中有元素变动部分和无元素变动部分,形成第一有元素变动场景页;
    将所述第一有元素变动场景页与第一无元素变动场景页按照时间合成新视频。
  2. 如权利要求1所述的方法,其特征在于,所述若干帧的按序图片与时间关联,并标定其所述视频和所述场景页。
  3. 如权利要求1所述的方法,其特征在于,所述拼接有元素变动场景页中有元素变动部分和无元素变动部分,形成第一有元素变动场景页的步骤包括:
    记录有元素变动的场景页中无元素变动的时间段内原模板图片,以形成第一无元素变动场景页;
    对有元素变动的场景页有元素变动部分截图为按序图片,以形成第一有元素变动场景页;
    将所述第一无元素变动场景页与所述第一有元素变动场景页按照时间拼接为第一新场景页。
  4. 如权利要求1所述的方法,其特征在于,所述将所述第一有元素变动场景页与第一无元素变动场景页按照时间合成新视频的步骤包括:
    对第一有元素变动场景页与第一无元素变动场景页,按照时间和 对应的场景页拼接为新的场景页;
    拼接所述新的场景页按照时间拼接为新视频。
  5. 一种导出动画视频的应用装置,其特征在于,包括:
    第一分截模块,分截模板视频成多段场景页视频;
    第二分截模块,分截场景页视频为若干帧的按序图片,并将所述若干帧的按序图片与时间关联;
    记录模块,记录所述模板视频中无元素变动的场景页,以形成第一无元素变动场景页;
    拼接模块,拼接有元素变动场景页中有元素变动部分和无元素变动部分,形成第一有元素变动场景页;
    合成模块,将所述第一有元素变动场景页与第一无元素变动场景页按照时间合成新视频。
  6. 如权利要求5所述的装置,其特征在于,所述拼接模块还包括:
    记录单元,记录有元素变动的场景页中无元素变动的时间段内原模板图片,以形成第一无元素变动场景页;
    截图单元,对有元素变动的场景页有元素变动部分截图为按序图片,以形成第一有元素变动场景页;
    拼接单元,将所述第一无元素变动场景页与所述第一有元素变动场景页按照时间拼接为第一新场景页。
  7. 如权利要求6所述的装置,其特征在于,所述合成模块还包括:
    第一合成单元,对第一有元素变动场景页与第一无元素变动场景页,按照时间和对应的场景页拼接为新的场景页;
    第二合成单元,拼接所述新的场景页按照时间拼接为新视频。
  8. 如权利要求1所述的方法,其特征在于,对有元素变动的场景页有元素变动部分截图为按序图片,以形成第一有元素变动场景页包括:
    对所述有元素变动的场景页按照预设间隔时间进行变动部分的截图生成按序图片;
    判断任意一个按序图片与其相邻的其他按序图片是否相同;
    若不同,则形成第一形式的第一有元素变动场景页。
  9. 如权利要求9所述的方法,其特征在于,其中,所述第一形式的第一有元素变动场景页为对所有按序图片分别保存以使每个时间点所对应的按序图片分别存储。
  10. 如权利要求8所述的方法,其特征在于,还包括:
    若存在部分相邻的按序图片是相同的,则形成第二形式的第一有元素变动场景页,第二形式的第一有元素变动场景页通过以下步骤生成:
    则获取具有相同按序图片的时间点;
    基于多个具有相同按序图片的时间点生成时间点集合,所述时间点集合对应相同的按序图片。
  11. 如权利要求10所述的方法,其特征在于,其中,所述时间点集合中的按序图片包括相邻时刻和\或非相邻时刻的按序图片。
  12. 如权利要求10所述的方法,其特征在于,还包括:
    基于按序图片和时间点集合生成第一有元素变动场景页。
  13. 如权利要求1所述的装置,其特征在于,所述记录模块包括:
    图片生成单元,用于对所述有元素变动的场景页按照预设间隔时间进行变动部分的截图生成按序图片;
    判断单元,用于判断任意一个按序图片与其相邻的其他按序图片 是否相同;
    第一形成单元,用于若不同,则形成第一形式的第一有元素变动场景页。
  14. 如权利要求13所述的装置,其特征在于,其中,所述第一形式的第一有元素变动场景页为对所有按序图片分别保存以使每个时间点所对应的按序图片分别存储。
  15. 如权利要求13所述的装置,其特征在于,还包括:
    若存在部分相邻的按序图片是相同的,则形成第二形式的第一有元素变动场景页,第二形式的第一有元素变动场景页通过以下单元生成:
    获取单元,用于获取具有相同按序图片的时间点;
    时间点生成单元,用于基于多个具有相同按序图片的时间点生成时间点集合,所述时间点集合对应相同的按序图片。
  16. 如权利要求15所述的装置,其特征在于,其中,所述时间点集合中的按序图片包括相邻时刻和\或非相邻时刻的按序图片。
  17. 如权利要求15所述的装置,其特征在于,还包括:
    场景页生成单元,用于基于按序图片和时间点集合生成第一有元素变动场景页。
  18. 一种电子设备,包括存储器和处理器,所述存储器存储计算机程序,其特征在于,所述计算机程序在所述处理器中执行可实现权利要求1-4、8-12中任一种方法。
  19. 一种存储介质,存储计算机程序,其特征在于,所述计算机程序在处理器中执行可实现权利要求1-4、8-12中任一种方法。
PCT/CN2021/107130 2021-01-19 2021-07-19 一种导出动画视频的方法与装置 WO2022156169A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110070877.8 2021-01-19
CN202110070877.8A CN112738423B (zh) 2021-01-19 2021-01-19 一种导出动画视频的方法与装置

Publications (1)

Publication Number Publication Date
WO2022156169A1 true WO2022156169A1 (zh) 2022-07-28

Family

ID=75592517

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/107130 WO2022156169A1 (zh) 2021-01-19 2021-07-19 一种导出动画视频的方法与装置

Country Status (2)

Country Link
CN (1) CN112738423B (zh)
WO (1) WO2022156169A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112738423B (zh) * 2021-01-19 2022-02-25 深圳市前海手绘科技文化有限公司 一种导出动画视频的方法与装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1668097A (zh) * 2005-04-07 2005-09-14 北京北大方正电子有限公司 一种视频文件快速生成的方法
US20120284625A1 (en) * 2011-05-03 2012-11-08 Danny Kalish System and Method For Generating Videos
CN105472207A (zh) * 2015-11-19 2016-04-06 中央电视台 一种视音频文件渲染方法及装置
CN106251390A (zh) * 2016-08-15 2016-12-21 网易(杭州)网络有限公司 动画编辑方法和动画编辑装置
CN107333176A (zh) * 2017-08-14 2017-11-07 北京百思科技有限公司 一种分布式视频渲染的方法及系统
CN112738423A (zh) * 2021-01-19 2021-04-30 深圳市前海手绘科技文化有限公司 一种导出动画视频的方法与装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101324963A (zh) * 2008-07-24 2008-12-17 上海交通大学 基于静止图像的流体视频合成方法
US8937620B1 (en) * 2011-04-07 2015-01-20 Google Inc. System and methods for generation and control of story animation
CN103002309B (zh) * 2012-09-25 2014-12-24 浙江大学 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法
US11069109B2 (en) * 2014-06-12 2021-07-20 Dreamworks Animation L.L.C. Seamless representation of video and geometry
CN104199841B (zh) * 2014-08-06 2018-01-02 武汉图歌信息技术有限责任公司 一种图片生成动画并与视频片段拼接合成的视频编辑方法
CN105118081B (zh) * 2015-09-15 2018-05-01 北京金山安全软件有限公司 图片合成视频的处理方法和装置
CN105872675A (zh) * 2015-12-22 2016-08-17 乐视网信息技术(北京)股份有限公司 截取视频动画的方法及装置
CN108460818A (zh) * 2017-02-17 2018-08-28 阿里巴巴集团控股有限公司 一种数据导出及动画播放的方法及装置
CN111603771B (zh) * 2020-05-22 2023-06-23 腾讯科技(深圳)有限公司 动画生成方法、装置、设备及介质
CN111949330B (zh) * 2020-08-11 2022-06-24 深圳市前海手绘科技文化有限公司 一种手绘草稿加载方法
CN111968200A (zh) * 2020-08-11 2020-11-20 深圳市前海手绘科技文化有限公司 一种基于手绘视频的gif文件生成方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1668097A (zh) * 2005-04-07 2005-09-14 北京北大方正电子有限公司 一种视频文件快速生成的方法
US20120284625A1 (en) * 2011-05-03 2012-11-08 Danny Kalish System and Method For Generating Videos
CN105472207A (zh) * 2015-11-19 2016-04-06 中央电视台 一种视音频文件渲染方法及装置
CN106251390A (zh) * 2016-08-15 2016-12-21 网易(杭州)网络有限公司 动画编辑方法和动画编辑装置
CN107333176A (zh) * 2017-08-14 2017-11-07 北京百思科技有限公司 一种分布式视频渲染的方法及系统
CN112738423A (zh) * 2021-01-19 2021-04-30 深圳市前海手绘科技文化有限公司 一种导出动画视频的方法与装置

Also Published As

Publication number Publication date
CN112738423B (zh) 2022-02-25
CN112738423A (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
JP5522894B2 (ja) 動画のフレーム情報を生成する装置及び方法並びに動画を再生する装置及び方法
US8443276B2 (en) System and data model for shared viewing and editing of time-based media
KR20090094826A (ko) 스토리 셰어 제품을 자동으로 생성하는 시스템, 컴퓨터로 구현되는 방법 및 프로그램 저장 디바이스
US9812169B2 (en) Operational system and architectural model for improved manipulation of video and time media data from networked time-based media
WO2022061806A1 (zh) 影片生成方法、终端设备、拍摄设备及影片生成系统
CN112004137A (zh) 一种智能视频创作方法及装置
CN112004138A (zh) 一种智能视频素材搜索匹配的方法及装置
WO2022156169A1 (zh) 一种导出动画视频的方法与装置
CN111968200A (zh) 一种基于手绘视频的gif文件生成方法
US20050265692A1 (en) Apparatus, method, and program for image reproduction
WO2022134548A1 (zh) 一种手绘动画素材编辑方法及装置
US20020136529A1 (en) Caption subject matter creating system, caption subject matter creating method and a recording medium in which caption subject matter creating program is stored
JP2008084021A (ja) 動画シナリオ生成方法、プログラムおよび装置
JP2005033276A (ja) 画像再生システム及び画像再生プログラム、並びに画像再生方法
US7610554B2 (en) Template-based multimedia capturing
CN111913641A (zh) 一种实现图片语音化的方法和系统
WO2022083223A1 (zh) 一种动画视频导出的优化方法和装置
WO2022033318A1 (zh) 一种有声素材在手绘动画中的应用方法
US20060248472A1 (en) Clip history
KR20080104415A (ko) 동영상 편집 시스템 및 방법과 그 방법을 구현한프로그램이 기록된 기록매체
WO2013181756A1 (en) System and method for generating and disseminating digital video
CN114025103A (zh) 视频制作方法及装置
CN112312196A (zh) 一种视频字幕制作方法
CN112200897A (zh) 基于意图的智能动画生成方法和装置以及设备
CN115917647A (zh) 自动非线性编辑风格转移

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21920550

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 26/10/2023)

122 Ep: pct application non-entry in european phase

Ref document number: 21920550

Country of ref document: EP

Kind code of ref document: A1