CN107888963A - 基于节奏合成视频的方法及系统 - Google Patents
基于节奏合成视频的方法及系统 Download PDFInfo
- Publication number
- CN107888963A CN107888963A CN201711020209.4A CN201711020209A CN107888963A CN 107888963 A CN107888963 A CN 107888963A CN 201711020209 A CN201711020209 A CN 201711020209A CN 107888963 A CN107888963 A CN 107888963A
- Authority
- CN
- China
- Prior art keywords
- video
- voice
- sub
- cross
- rhythm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
- H04N21/8113—Monomedia components thereof involving special audio data, e.g. different tracks for different languages comprising music, e.g. song in MP3 format
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Abstract
本发明涉及视频合成技术领域,具体涉及基于节奏合成视频的方法及系统,所述方法包括:以预定分割方式分割用户的语音为多段子语音;所述用户的语音对应有多个不同节奏的伴奏视频;用户每开始生成一段子语音时,就同时根据频率算法,计算出所述子语音的节奏;以预定分割方式将每个伴奏视频分别对应的分割为多段子视频;每个伴奏视频的各段子视频都与各段子语音一一对应;针对每段子语音,找出与每段子语音的节奏相匹配的唯一对应子视频;将各段子语音的唯一对应子视频组合成组合伴奏视频。本发明能够让视频的节奏主动配合用户的节奏,提高用户的歌唱体验。
Description
技术领域
本发明涉及视频合成技术领域,具体涉及基于节奏合成视频的方法及系统。
背景技术
无论是传统的KTV还是最近兴起的喊麦,用户有根据视频(MV)来唱歌的情况。现有技术仅仅满足按初始播放速度(初始节奏)播放MV,经常会出现MV的画面与用户唱歌的内筒共享冲突、节奏不配合,以及内容不协调的情况。现有技术无法让MV的画面内容的节奏和用户唱歌的节奏完全配合,所以通常情况下,是用户唱歌时去配合对应MV的初始节奏,这样容易导致用户的节奏感失衡,歌唱体验差。
发明内容
本发明要解决的技术问题在于,克服现有的技术的不足,提供基于节奏合成视频的方法及系统,其能够让视频的节奏主动配合用户的节奏,提高用户的歌唱体验。
为达到上述技术目的,一方面,本发明提供的基于节奏合成视频的方法,包括:
以预定分割方式分割用户的语音为多段子语音;所述用户的语音对应有多个不同节奏的伴奏视频;
用户每开始生成一段子语音时,就同时根据频率算法,计算出所述子语音的节奏;
以预定分割方式将每个伴奏视频分别对应的分割为多段子视频;每个伴奏视频的各段子视频都与各段子语音一一对应;
针对每段子语音,找出与每段子语音的节奏相匹配的唯一对应子视频;
将各段子语音的唯一对应子视频组合成组合伴奏视频。
另一方面,本发明提供的基于节奏合成视频的系统,包括:
第一分割单元,用于以预定分割方式分割用户的语音为多段子语音;所述用户的语音对应有多个不同节奏的伴奏视频;
计算单元,用于用户每开始生成一段子语音时,就同时根据频率算法,计算出所述子语音的节奏;
第二分割单元,用于以预定分割方式将每个伴奏视频分别对应的分割为多段子视频;每个伴奏视频的各段子视频都与各段子语音一一对应;
选取单元,用于针对每段子语音,找出与每段子语音的节奏相匹配的唯一对应子视频;
合成单元,用于将各段子语音的唯一对应子视频组合成组合伴奏视频。
在本发明中,用户每开始生成一段子语音时,就计算该段子语音的节奏;然后根据这段子语音的节奏去找与该子语音节奏最为匹配的唯一对应子视频;最后,将找到的各唯一对应子视频组成新的伴奏视频。这样就可以使用户在唱歌时,MV播放的速度是根据用户的节奏来的,换而言之就是MV在播放时是在去主动适应用户。因此,本发明就增加了用户的歌唱体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例的方法流程示意图;
图2为本发明实施例的系统结构示意图;
图3为本发明实施例中选取单元的结构示意图;
图4为本发明实施例中合成单元的结构示意图;
图5为本发明实施例中优先列队排序效果示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明所述的基于节奏合成视频的方法,包括:
101、以预定分割方式分割用户的语音为多段子语音;所述用户的语音对应有多个不同节奏的伴奏视频;
102、用户每开始生成一段子语音时,就同时根据频率算法,计算出所述子语音的节奏;
103、以预定分割方式将每个伴奏视频分别对应的分割为多段子视频;每个伴奏视频的各段子视频都与各段子语音一一对应;
104、针对每段子语音,找出与每段子语音的节奏相匹配的唯一对应子视频;
105、将各段子语音的唯一对应子视频组合成组合伴奏视频。
进一步地,所述针对每段子语音,找出与每段子语音的节奏相匹配的唯一对应子视频,具体包括:
将当前子语音的节奏分别与对应的每段子视频的节奏进行对比,得到当前子语音对应的各段子视频的节奏差值;
将当前子语音对应的各段子视频按对应的节奏差值组成对应优先级列队;节奏差值越小的子视频在对应优先级列队中优先级越高;
将当前优先列队中优先级最高的子视频选取为当面子语音的唯一对应子视频。
更进一步地,所述将各段子语音的唯一对应子视频组合成组合伴奏视频,具体包括:
获取各段子语音的唯一对应子视频;
将各段子语音的唯一对应子视频按照对应的子语音在用户的语音中的排列顺序进行动态合成,得到组合伴奏视频。
再进一步地,所述将用户发出的一段语音,以预定分割方式分割为多段子语音,具体为:
以预定频率将用户的语音依次分割为时间长度相同的多段子语音;
所述以预定分割方式将每个伴奏视频分别对应的分割为多段子视频,具体为:
将每个伴奏视频以预定频率分割为长度相同的多段子视频。
在上述技术方案中,所述将当前优先列队中优先级最高的子视频选取为当面子语音的唯一对应子视频之后,还包括:
若当前优先列队中被选定为唯一对应子视频的文件缺失或丢失,则选取下一级优先级的子视频为唯一对应子视频。
如图2所示,本发明所述的基于节奏合成视频的系统,包括:
第一分割单元11,用于以预定分割方式分割用户的语音为多段子语音;所述用户的语音对应有多个不同节奏的伴奏视频;
计算单元12,用于用户每开始生成一段子语音时,就同时根据频率算法,计算出所述子语音的节奏;
第二分割单元13,用于以预定分割方式将每个伴奏视频分别对应的分割为多段子视频;每个伴奏视频的各段子视频都与各段子语音一一对应;
选取单元14,用于针对每段子语音,找出与每段子语音的节奏相匹配的唯一对应子视频;
合成单元15,用于将各段子语音的唯一对应子视频组合成组合伴奏视频。
如图3所示,作为一种可能结构,所述选取单元14包括:
对比模块141,用于将当前子语音的节奏分别与对应的每段子视频的节奏进行对比,得到当前子语音对应的各段子视频的节奏差值;
列队模块142,用于将当前子语音对应的各段子视频按对应的节奏差值组成对应优先级列队;节奏差值越小的子视频在对应优先级列队中优先级越高;
选取模块143,用于将当前优先列队中优先级最高的子视频选取为当面子语音的唯一对应子视频。
如图4所示,作为一种可能结构,所述合成单元15包括:
获取模块151,用于获取各段子语音的唯一对应子视频;
组合模块152,用于将各段子语音的唯一对应子视频按照对应的子语音在用户的语音中的排列顺序进行动态合成,得到组合伴奏视频。
所述第一分割单元11,具体用于以预定频率将用户的语音依次分割为时间长度相同的多段子语音;
所述第二分割单元13,具体用于将每个伴奏视频以预定频率分割为长度相同的多段子视频。
所述选取模块151,还用于若当前优先列队中被选定为唯一对应子视频的文件缺失或丢失,则选取下一级优先级的子视频为唯一对应子视频。
下面结合实例详述本发明的技术方案:
假设用户在喊麦,用户的语音为歌曲A。按时间顺序,每隔3s将歌曲A依次分割成n段子语音:A1、A2……An;每段子语音的时长都是3s。
歌曲A对应伴奏视频B(假设歌曲A的总时长和视频B的总时长相等),视频B有m个不同节奏的播放源:B1、B2……Bm;将B1、B2……Bm分别以相同的分割方式分为对应的多个子视频。例如:将B1分割为子视频:B11、B12……B1n。
因此,子语音A1对应B11、B12……B1n;子语音A2对应B21、B22……B2n;以此类推。
用户在唱歌的过程中,首先会发出子语音A1;在用户开始发出子语音A1的同时,根据频率算法,计算得到子语音A1的节奏。
根据子语音A1的节奏,将子视频:B11、B12……B1n的节奏分别与子语音A1的节奏进行对比,得到子视频:B11、B12……B1n与语音A1的节奏差值。所述节奏差值代表了B11、B12……B1n的节奏接近语音A1的节奏的程度。
如图5所示,图中,举例说明了子语音A1的优选列队的排序方式。假设子语音A1的节奏值为2.7。假设n=4,子视频:B11、B12、B13和B14的节奏值分别为1.0、2.0、3.0和4.0。子视频:B11、B12、B13和B14的初始排序按照节奏值有小到大排序。将子语音A1的节奏与子视频:B11、B12、B13和B14比较后,按照节奏差值,有小到大排序;A1的优先列队为:B13、B12、B14、B11。因此子视频B13为子语音A1的唯一对应子视频。
当用户开始唱出子语音A2的时候,依照上述方式,选出子语音A2的唯一对应子视频。以此类推,选出所有子语音的唯一对应子视频(假设个优选列队中,最高优先级的子视频数据没有缺失或丢失)。获取各段子语音的唯一对应子视频;将子语音:A1、A2……An的唯一对应子视频,按照对应的子语音在用户的语音中的排列顺序(即按时间顺序)进行动态合成,得到组合伴奏视频。
在本发明中,用户每开始生成一段子语音时,就计算该段子语音的节奏;然后根据这段子语音的节奏去找与该子语音节奏最为匹配的唯一对应子视频;最后,将找到的各唯一对应子视频组成新的伴奏视频。这样就可以使用户在唱歌时,MV播放的速度是根据用户的节奏来的,换而言之就是MV在播放时是在去主动适应用户。因此,本发明就增加了用户的歌唱体验。
应该明白,公开的过程中的步骤的特定顺序或层次是示例性方法的实例。基于设计偏好,应该理解,过程中的步骤的特定顺序或层次可以在不脱离本公开的保护范围的情况下得到重新安排。所附的方法权利要求以示例性的顺序给出了各种步骤的要素,并且不是要限于所述的特定顺序或层次。
在上述的详细描述中,各种特征一起组合在单个的实施方案中,以简化本公开。不应该将这种公开方法解释为反映了这样的意图,即,所要求保护的主题的实施方案需要比清楚地在每个权利要求中所陈述的特征更多的特征。相反,如所附的权利要求书所反映的那样,本发明处于比所公开的单个实施方案的全部特征少的状态。因此,所附的权利要求书特此清楚地被并入详细描述中,其中每项权利要求独自作为本发明单独的优先实施方案。
为使本领域内的任何技术人员能够实现或者使用本发明,上面对所公开实施例进行了描述。对于本领域技术人员来说;这些实施例的各种修改方式都是显而易见的,并且本文定义的一般原理也可以在不脱离本公开的精神和保护范围的基础上适用于其它实施例。因此,本公开并不限于本文给出的实施例,而是与本申请公开的原理和新颖性特征的最广范围相一致。
上文的描述包括一个或多个实施例的举例。当然,为了描述上述实施例而描述部件或方法的所有可能的结合是不可能的,但是本领域普通技术人员应该认识到,各个实施例可以做进一步的组合和排列。因此,本文中描述的实施例旨在涵盖落入所附权利要求书的保护范围内的所有这样的改变、修改和变型。此外,就说明书或权利要求书中使用的术语“包含”,该词的涵盖方式类似于术语“包括”,就如同“包括,”在权利要求中用作衔接词所解释的那样。此外,使用在权利要求书的说明书中的任何一个术语“或者”是要表示“非排它性的或者”。
本领域技术人员还可以了解到本发明实施例列出的各种说明性逻辑块(illustrative logical block),单元,和步骤可以通过电子硬件、电脑软件,或两者的结合进行实现。为清楚展示硬件和软件的可替换性(interchangeability),上述的各种说明性部件(illustrative components),单元和步骤已经通用地描述了它们的功能。这样的功能是通过硬件还是软件来实现取决于特定的应用和整个系统的设计要求。本领域技术人员可以对于每种特定的应用,可以使用各种方法实现所述的功能,但这种实现不应被理解为超出本发明实施例保护的范围。
本发明实施例中所描述的各种说明性的逻辑块,或单元都可以通过通用处理器,数字信号处理器,专用集成电路(ASIC),现场可编程门阵列或其它可编程逻辑装置,离散门或晶体管逻辑,离散硬件部件,或上述任何组合的设计来实现或操作所描述的功能。通用处理器可以为微处理器,可选地,该通用处理器也可以为任何传统的处理器、控制器、微控制器或状态机。处理器也可以通过计算装置的组合来实现,例如数字信号处理器和微处理器,多个微处理器,一个或多个微处理器联合一个数字信号处理器核,或任何其它类似的配置来实现。
本发明实施例中所描述的方法或算法的步骤可以直接嵌入硬件、处理器执行的软件模块、或者这两者的结合。软件模块可以存储于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM或本领域中其它任意形式的存储媒介中。示例性地,存储媒介可以与处理器连接,以使得处理器可以从存储媒介中读取信息,并可以向存储媒介存写信息。可选地,存储媒介还可以集成到处理器中。处理器和存储媒介可以设置于ASIC中,ASIC可以设置于用户终端中。可选地,处理器和存储媒介也可以设置于用户终端中的不同的部件中。
在一个或多个示例性的设计中,本发明实施例所描述的上述功能可以在硬件、软件、固件或这三者的任意组合来实现。如果在软件中实现,这些功能可以存储与电脑可读的媒介上,或以一个或多个指令或代码形式传输于电脑可读的媒介上。电脑可读媒介包括电脑存储媒介和便于使得让电脑程序从一个地方转移到其它地方的通信媒介。存储媒介可以是任何通用或特殊电脑可以接入访问的可用媒体。例如,这样的电脑可读媒体可以包括但不限于RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁性存储装置,或其它任何可以用于承载或存储以指令或数据结构和其它可被通用或特殊电脑、或通用或特殊处理器读取形式的程序代码的媒介。此外,任何连接都可以被适当地定义为电脑可读媒介,例如,如果软件是从一个网站站点、服务器或其它远程资源通过一个同轴电缆、光纤电缆、双绞线、数字用户线(DSL)或以例如红外、无线和微波等无线方式传输的也被包含在所定义的电脑可读媒介中。所述的碟片(disk)和磁盘(disc)包括压缩磁盘、镭射盘、光盘、DVD、软盘和蓝光光盘,磁盘通常以磁性复制数据,而碟片通常以激光进行光学复制数据。上述的组合也可以包含在电脑可读媒介中。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于节奏合成视频的方法,其特征在于,所述方法包括:
以预定分割方式分割用户的语音为多段子语音;所述用户的语音对应有多个不同节奏的伴奏视频;
用户每开始生成一段子语音时,就同时根据频率算法,计算出所述子语音的节奏;
以预定分割方式将每个伴奏视频分别对应的分割为多段子视频;每个伴奏视频的各段子视频都与各段子语音一一对应;
针对每段子语音,找出与每段子语音的节奏相匹配的唯一对应子视频;
将各段子语音的唯一对应子视频组合成组合伴奏视频。
2.根据权利要求1所述的基于节奏合成视频的方法,其特征在于,所述针对每段子语音,找出与每段子语音的节奏相匹配的唯一对应子视频,具体包括:
将当前子语音的节奏分别与对应的每段子视频的节奏进行对比,得到当前子语音对应的各段子视频的节奏差值;
将当前子语音对应的各段子视频按对应的节奏差值组成对应优先级列队;节奏差值越小的子视频在对应优先级列队中优先级越高;
将当前优先列队中优先级最高的子视频选取为当面子语音的唯一对应子视频。
3.根据权利要求1或2所述的基于节奏合成视频的方法,其特征在于,所述将各段子语音的唯一对应子视频组合成组合伴奏视频,具体包括:
获取各段子语音的唯一对应子视频;
将各段子语音的唯一对应子视频按照对应的子语音在用户的语音中的排列顺序进行动态合成,得到组合伴奏视频。
4.根据权利要求1所述的基于节奏合成视频的方法,其特征在于,所述将用户发出的一段语音,以预定分割方式分割为多段子语音,具体为:
以预定频率将用户的语音依次分割为时间长度相同的多段子语音;
所述以预定分割方式将每个伴奏视频分别对应的分割为多段子视频,具体为:
将每个伴奏视频以预定频率分割为长度相同的多段子视频。
5.根据权利要求2所述的基于节奏合成视频的方法,其特征在于,所述将当前优先列队中优先级最高的子视频选取为当面子语音的唯一对应子视频之后,还包括:
若当前优先列队中被选定为唯一对应子视频的文件缺失或丢失,则选取下一级优先级的子视频为唯一对应子视频。
6.一种基于节奏合成视频的系统,其特征在于,所述方法包括:
第一分割单元,用于以预定分割方式分割用户的语音为多段子语音;所述用户的语音对应有多个不同节奏的伴奏视频;
计算单元,用于用户每开始生成一段子语音时,就同时根据频率算法,计算出所述子语音的节奏;
第二分割单元,用于以预定分割方式将每个伴奏视频分别对应的分割为多段子视频;每个伴奏视频的各段子视频都与各段子语音一一对应;
选取单元,用于针对每段子语音,找出与每段子语音的节奏相匹配的唯一对应子视频;
合成单元,用于将各段子语音的唯一对应子视频组合成组合伴奏视频。
7.根据权利要求6所述的基于节奏合成视频的系统,其特征在于,所述选取单元包括:
对比模块,用于将当前子语音的节奏分别与对应的每段子视频的节奏进行对比,得到当前子语音对应的各段子视频的节奏差值;
列队模块,用于将当前子语音对应的各段子视频按对应的节奏差值组成对应优先级列队;节奏差值越小的子视频在对应优先级列队中优先级越高;
选取模块,用于将当前优先列队中优先级最高的子视频选取为当面子语音的唯一对应子视频。
8.根据权利要求6或7所述的基于节奏合成视频的系统,其特征在于,所述合成单元包括:
获取模块,用于获取各段子语音的唯一对应子视频;
组合模块,用于将各段子语音的唯一对应子视频按照对应的子语音在用户的语音中的排列顺序进行动态合成,得到组合伴奏视频。
9.根据权利要求8所述的基于节奏合成视频的系统,其特征在于,所述第一分割单元,具体用于以预定频率将用户的语音依次分割为时间长度相同的多段子语音;
所述第二分割单元,具体用于将每个伴奏视频以预定频率分割为长度相同的多段子视频。
10.根据权利要求7所述的基于节奏合成视频的系统,其特征在于,所述选取模块,还用于若当前优先列队中被选定为唯一对应子视频的文件缺失或丢失,则选取下一级优先级的子视频为唯一对应子视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711020209.4A CN107888963B (zh) | 2017-10-27 | 2017-10-27 | 基于节奏合成视频的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711020209.4A CN107888963B (zh) | 2017-10-27 | 2017-10-27 | 基于节奏合成视频的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107888963A true CN107888963A (zh) | 2018-04-06 |
CN107888963B CN107888963B (zh) | 2021-02-23 |
Family
ID=61782578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711020209.4A Active CN107888963B (zh) | 2017-10-27 | 2017-10-27 | 基于节奏合成视频的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107888963B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109379643A (zh) * | 2018-11-21 | 2019-02-22 | 北京达佳互联信息技术有限公司 | 视频合成方法、装置、终端及存储介质 |
CN110797055A (zh) * | 2019-10-29 | 2020-02-14 | 北京达佳互联信息技术有限公司 | 多媒体资源合成方法、装置、电子设备及存储介质 |
CN113658570A (zh) * | 2021-10-19 | 2021-11-16 | 腾讯科技(深圳)有限公司 | 歌曲处理方法、装置、计算机设备、存储介质及程序产品 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101640057A (zh) * | 2009-05-31 | 2010-02-03 | 北京中星微电子有限公司 | 一种音视频匹配方法及装置 |
CN101739864A (zh) * | 2009-12-11 | 2010-06-16 | 汪银海 | 帮助学生右脑记忆的运动型音乐伴奏终端和处理方法 |
CN103928039A (zh) * | 2014-04-15 | 2014-07-16 | 北京奇艺世纪科技有限公司 | 一种视频合成方法及装置 |
CN104065869A (zh) * | 2013-03-18 | 2014-09-24 | 三星电子株式会社 | 在电子装置中与播放音频组合地显示图像的方法 |
CN105989823A (zh) * | 2015-02-03 | 2016-10-05 | 中国移动通信集团四川有限公司 | 一种自动跟拍伴奏方法及装置 |
US20170041684A1 (en) * | 2015-08-05 | 2017-02-09 | Surewaves Mediatech Private Limited | System and method for monitoring and detecting television ads in real-time using content databases (adex reporter) |
-
2017
- 2017-10-27 CN CN201711020209.4A patent/CN107888963B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101640057A (zh) * | 2009-05-31 | 2010-02-03 | 北京中星微电子有限公司 | 一种音视频匹配方法及装置 |
CN101739864A (zh) * | 2009-12-11 | 2010-06-16 | 汪银海 | 帮助学生右脑记忆的运动型音乐伴奏终端和处理方法 |
CN104065869A (zh) * | 2013-03-18 | 2014-09-24 | 三星电子株式会社 | 在电子装置中与播放音频组合地显示图像的方法 |
CN103928039A (zh) * | 2014-04-15 | 2014-07-16 | 北京奇艺世纪科技有限公司 | 一种视频合成方法及装置 |
CN105989823A (zh) * | 2015-02-03 | 2016-10-05 | 中国移动通信集团四川有限公司 | 一种自动跟拍伴奏方法及装置 |
US20170041684A1 (en) * | 2015-08-05 | 2017-02-09 | Surewaves Mediatech Private Limited | System and method for monitoring and detecting television ads in real-time using content databases (adex reporter) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109379643A (zh) * | 2018-11-21 | 2019-02-22 | 北京达佳互联信息技术有限公司 | 视频合成方法、装置、终端及存储介质 |
US11551726B2 (en) | 2018-11-21 | 2023-01-10 | Beijing Dajia Internet Information Technology Co., Ltd. | Video synthesis method terminal and computer storage medium |
CN110797055A (zh) * | 2019-10-29 | 2020-02-14 | 北京达佳互联信息技术有限公司 | 多媒体资源合成方法、装置、电子设备及存储介质 |
CN110797055B (zh) * | 2019-10-29 | 2021-09-03 | 北京达佳互联信息技术有限公司 | 多媒体资源合成方法、装置、电子设备及存储介质 |
CN113658570A (zh) * | 2021-10-19 | 2021-11-16 | 腾讯科技(深圳)有限公司 | 歌曲处理方法、装置、计算机设备、存储介质及程序产品 |
CN113658570B (zh) * | 2021-10-19 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 歌曲处理方法、装置、计算机设备、存储介质及程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN107888963B (zh) | 2021-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105308682B (zh) | 用于蓝牙聚会模式的系统、方法和设备 | |
US8359370B2 (en) | System and method for managing digital media content | |
JP5840560B2 (ja) | オブジェクト基盤オーディオサービスのための多重オブジェクトオーディオコンテンツファイルの生成、編集、および再生方法と、オーディオプリセット生成方法 | |
US10455284B2 (en) | Dynamic customization and monetization of audio-visual content | |
CN107888963A (zh) | 基于节奏合成视频的方法及系统 | |
KR101963753B1 (ko) | 음악의 분절별 동영상 재생 방법 및 장치 | |
CN106465057A (zh) | 设备组标识 | |
CN105096990B (zh) | 一种播放系统的分组播放控制方法及终端 | |
CN108766410A (zh) | 基于智能音响的k歌方法、装置、智能音响及存储介质 | |
CN105161081A (zh) | 一种app哼唱作曲系统及其方法 | |
CN105824895A (zh) | 一种ktv点歌方法和系统 | |
CN104469477B (zh) | 媒体资源推送方法及装置 | |
CN106686431A (zh) | 一种音频文件的合成方法和设备 | |
CN106506325A (zh) | 图片分享方法及装置 | |
CN104750868A (zh) | 一种多媒体文件播放列表建立方法及装置 | |
CN105491440B (zh) | 一种播放控件的应用方法、终端及服务器 | |
CN104954858B (zh) | 多媒体播放节点注释和快速播放的方法、移动终端及播放设备 | |
CN108282678A (zh) | 一种多媒体数据的播放方法、装置及系统 | |
CN107657951A (zh) | 一种在直播过程中处理声音的方法及终端设备 | |
CN107911342A (zh) | 一种智能轮播方法及系统 | |
CN107564503A (zh) | 一种点歌方法及系统 | |
CN103714838A (zh) | 用于音频文件转换的系统和方法 | |
CN110069657A (zh) | 一种交互式音乐点播方法、装置及终端 | |
JP2012053959A (ja) | コンテンツ再生システム、制御装置及び再生装置 | |
CN105185402B (zh) | 一种音乐播放的方法及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |