CN114495916B - 背景音乐的插入时间点确定方法、装置、设备和存储介质 - Google Patents
背景音乐的插入时间点确定方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN114495916B CN114495916B CN202210393110.3A CN202210393110A CN114495916B CN 114495916 B CN114495916 B CN 114495916B CN 202210393110 A CN202210393110 A CN 202210393110A CN 114495916 B CN114495916 B CN 114495916B
- Authority
- CN
- China
- Prior art keywords
- audio
- features
- video
- feature
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 103
- 238000003780 insertion Methods 0.000 title claims abstract description 36
- 230000037431 insertion Effects 0.000 title claims abstract description 36
- 238000003860 storage Methods 0.000 title claims abstract description 18
- 230000007246 mechanism Effects 0.000 claims abstract description 43
- 238000000605 extraction Methods 0.000 claims description 115
- 238000011176 pooling Methods 0.000 claims description 79
- 238000000926 separation method Methods 0.000 claims description 43
- 238000012549 training Methods 0.000 claims description 18
- 230000015654 memory Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 15
- 238000002372 labelling Methods 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 34
- 238000005516 engineering process Methods 0.000 abstract description 13
- 238000013473 artificial intelligence Methods 0.000 abstract description 12
- 239000013598 vector Substances 0.000 description 42
- 230000000875 corresponding effect Effects 0.000 description 34
- 239000000284 extract Substances 0.000 description 19
- 238000010606 normalization Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 238000012937 correction Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 230000002093 peripheral effect Effects 0.000 description 10
- 238000010276 construction Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 108010001267 Protein Subunits Proteins 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 101100153586 Caenorhabditis elegans top-1 gene Proteins 0.000 description 1
- 101100370075 Mus musculus Top1 gene Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Circuits (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
本申请公开了一种背景音乐的插入时间点确定方法、装置、设备和存储介质,可应用于计算机技术中的背景音乐插入、人工智能以及车载等场景。在本申请实施例提供中,结合了目标视频的音频特征和图像特征来确定目标视频的视频特征,该视频特征能够较为准确地表示目标视频的内容。基于注意力机制对视频特征进行编码,得到多个目标参数。基于多个时间点的目标参数,从多个时间点中确定出候选时间点,该候选时间点也即是可以在目标视频中插入背景音乐的时间点。在上述确定候选时间点的过程中,由于结合了注意力机制,使得确定出的候选时间点较为准确。同时在插入背景音乐时,在保证准确性的前提下,提高了在视频中插入背景音乐的效率。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种背景音乐的插入时间点确定方法、装置、设备和存储介质。
背景技术
随着互联网技术的发展,观看视频已成为常见的一种娱乐形式。在视频制作过程中,往往会在视频中插入背景音乐,通过背景音乐来烘托视频的氛围,从而提高视频的观看效果。
相关技术中,背景音乐的插入时间点是通过人工选择的方法实现的,即在观看视频的过程中,由视频制作人员根据视频的内容来确定在视频中插入背景音乐的时间点。
但是,采用人工选择的方法需要消耗大量的时间和人力资源,导致在视频中插入背景音乐的效率较低。
发明内容
本申请实施例提供了一种背景音乐的插入时间点确定方法、装置、设备和存储介质,能够提高在视频中插入背景音乐的效率,技术方案如下。
一方面,提供了一种背景音乐的插入时间点确定方法,所述方法包括:
提取目标视频的音频特征以及图像特征;
将所述音频特征以及所述图像特征进行融合,得到所述目标视频的视频特征;
基于注意力机制对所述目标视频的视频特征进行编码,得到多个目标参数,所述多个目标参数对应于所述目标视频的多个时间点,所述目标参数用于表示在对应时间点插入背景音乐的概率;
将所述多个时间点中目标参数符合目标条件的时间点,确定为插入背景音乐的候选时间点。
一方面,提供了一种背景音乐的插入时间点确定装置,所述装置包括:
特征提取模块,用于提取目标视频的音频特征以及图像特征;
特征融合模块,用于将所述音频特征以及所述图像特征进行融合,得到所述目标视频的视频特征;
编码模块,用于基于注意力机制对所述目标视频的视频特征进行编码,得到多个目标参数,所述多个目标参数对应于所述目标视频的多个时间点,所述目标参数用于表示在对应时间点插入背景音乐的概率;
候选时间点确定模块,用于将所述多个时间点中目标参数符合目标条件的时间点,确定为插入背景音乐的候选时间点。
在一种可能的实施方式中,所述特征提取模块,用于对所述目标视频的多个音频帧进行特征提取,得到所述目标视频的音频特征;对所述目标视频的多个视频帧进行特征提取,得到所述目标视频的图像特征。
在一种可能的实施方式中,所述特征提取模块,用于对所述多个音频帧的时域信息进行特征提取,得到所述多个音频帧的时域音频特征;对所述多个音频帧的频域信息进行特征提取,得到所述多个音频帧的频域音频特征;基于所述多个音频帧的时域音频特征和频域音频特征,获取所述目标视频的音频特征。
在一种可能的实施方式中,所述特征提取模块,用于采用多个一维卷积核对所述多个音频帧的时域信息进行特征提取,得到所述多个音频帧的时域音频特征;所述对所述多个音频帧的频域信息进行特征提取,得到所述多个音频帧的频域音频特征包括:采用多个二维卷积核对所述多个音频帧的频域信息进行特征提取,得到所述多个音频帧的频域音频特征。
在一种可能的实施方式中,所述特征融合模块,用于将所述多个音频帧的时域音频特征和频域音频特征进行融合,得到所述目标视频的初始音频特征;分别对所述初始音频特征进行最大值池化和均值池化,得到所述目标视频的第一池化特征和第二池化特征;将所述第一池化特征以及所述第二池化特征进行融合,得到所述目标视频的音频特征。
在一种可能的实施方式中,所述视频特征包括多个子特征,所述多个子特征对应于所述目标视频的多个时间点,所述编码模块用于通过时间点确定模型,基于注意力机制对所述多个子特征中每两个子特征进行编码,得到各个所述子特征的目标参数。
在一种可能的实施方式中,所述编码模块用于对于所述多个子特征中的第一子特征,基于注意力机制确定所述多个子特征中的多个第二子特征对所述第一子特征的多个注意力参数;将所述多个注意力参数进行融合,得到所述第一子特征的目标参数。
在一种可能的实施方式中,所述编码模块用于对所述第一子特征进行全连接,得到所述第一子特征的嵌入特征;对于所述多个第二子特征中的任一第二子特征,对所述第二子特征进行全连接,得到所述第二子特征的嵌入特征;基于所述第一子特征的嵌入特征和所述第二子特征的嵌入特征,确定所述第一子特征和所述第二子特征之间的相似度参数;基于所述第一子特征以及所述第一子特征和所述第二子特征之间的相似度参数,确定所述第二子特征对所述第一子特征的注意力参数。
在一种可能的实施方式中,所述装置还包括:
训练模块,用于将样本视频输入所述时间点确定模型,通过所述时间点确定模型对所述样本视频进行特征提取,得到所述样本视频的样本音频特征以及样本图像特征;通过所述时间点确定模型,将所述样本音频特征以及所述样本图像特征进行融合,得到所述样本视频的视频特征;通过所述时间点确定模型,基于注意力机制对所述样本视频的视频特征进行编码,得到多个样本参数,所述多个样本参数对应于所述样本视频的多个时间点,所述样本参数用于表示在对应时间点插入背景音乐的概率;基于所述样本视频的多个时间点的标签与所述多个样本参数之间的差异信息,对所述时间点确定模型进行训练,所述标签用于表示所述样本视频中背景音乐的出现时间。
在一种可能的实施方式中,所述装置还包括:
音频分离模块,用于通过所述时间点确定模型对所述样本视频进行音频分离,得到所述样本视频的原始音频和背景音乐;
所述训练模块还用于通过所述时间点确定模型,对所述样本视频的所述原始音频和多个样本视频帧进行特征提取,得到所述样本视频的样本音频特征以及样本图像特征。
在一种可能的实施方式中,所述音频分离模块用于通过所述时间点确定模型对所述样本视频的多个样本音频帧的样本频域信息进行特征提取,得到所述样本视频的第一音频特征;通过所述时间点确定模型,采用多种尺度对所述第一音频特征进行池化,得到所述样本视频的多个第二音频特征;通过所述时间点确定模型,将所述多个第二音频特征进行融合,得到所述样本视频的音频分离特征;通过所述时间点确定模型,基于所述音频分离特征对所述样本频域信息进行分离,得到所述样本视频的原始音频和背景音乐。
在一种可能的实施方式中,所述音频分离模块用于对所述多个第二音频特征进行卷积,得到所述样本视频的多个第三音频特征;对所述多个第三音频特征进行上采样,得到所述样本视频的多个第四音频特征,所述多个第四音频特征的尺寸均与所述第一音频特征相同;将所述多个第四音频特征与所述第一音频特征进行融合,得到所述样本视频的音频分离特征。
在一种可能的实施方式中,所述音频分离模块用于基于所述音频分离特征,确定所述样本频域信息的边界信息,所述边界信息用于表示所述样本频域信息中原始音频和背景音乐之间的边界;基于所述边界信息对所述样本频域信息进行处理,得到所述样本视频的原始音频和背景音乐。
在一种可能的实施方式中,所述装置还包括:
标签添加模块,用于基于所述样本视频的背景音乐在所述样本视频中的出现时间,为所述样本视频的多个时间点添加标签。
在一种可能的实施方式中,所述特征提取模块还用于提取所述目标视频的所述音频特征、所述图像特征以及字幕特征;
所述特征融合模块,还用于将所述目标视频的所述音频特征、所述图像特征以及字幕特征进行融合,得到所述目标视频的视频特征。
一方面,提供了一种计算机设备,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条计算机程序,所述计算机程序由所述一个或多个处理器加载并执行以实现所述背景音乐的插入时间点确定方法。
一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条计算机程序,所述计算机程序由处理器加载并执行以实现所述背景音乐的插入时间点确定方法。
一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述背景音乐的插入时间点确定方法。
通过本申请实施例提供的技术方案,结合了目标视频的音频特征和图像特征来确定目标视频的视频特征,该视频特征能够较为准确地表示目标视频的内容。基于注意力机制对视频特征进行编码,得到多个目标参数,多个目标参数表示在对应时间点插入背景音乐的概率。基于多个时间点的目标参数,从多个时间点中确定出候选时间点,该候选时间点也即是可以在目标视频中插入背景音乐的时间点。在上述确定候选时间点的过程中,由于结合了注意力机制,使得确定出的候选时间点较为准确。同时在插入背景音乐时,无需视频制作人员完整地观看目标视频,只需在确定出的候选时间点中进行选择即可,在保证准确性的前提下,提高了在视频中插入背景音乐的效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种背景音乐的插入时间点确定方法的实施环境的示意图;
图2是本申请实施例提供的一种背景音乐的插入时间点确定方法的流程图;
图3是本申请实施例提供的另一种背景音乐的插入时间点确定方法的流程图;
图4是本申请实施例提供的一种特征提取单元的结构示意图;
图5是本申请实施例提供的一种残差构建子单元的结构示意图;
图6是本申请实施例提供的一种目标参数获取单元的结构示意图;
图7是本申请实施例提供的一种效果示意图;
图8是本申请实施例提供的再一种背景音乐的插入时间点确定方法的流程图;
图9是本申请实施例提供的一种时间点确定模型的训练方法的流程图;
图10是本申请实施例提供的一种音频分离单元的结构示意图;
图11是本申请实施例提供的另一种时间点确定模型的训练方法的流程图;
图12是本申请实施例提供的一种背景音乐的插入时间点确定装置的结构示意图;
图13是本申请实施例提供的一种终端的结构示意图;
图14是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式做进一步的详细描述。
本申请中术语“第一”“第二”等字样用于对作用和功能基本相同的相同项或相似项进行区分,应理解,“第一”、“第二”、“第n”之间不具有逻辑或时序上的依赖关系,也不对数量和执行顺序进行限定。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识子模型使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
语义特征:用于表示文本所表达语义的特征,不同的文本可以对应于相同的语义特征,例如文本“今天天气怎么样”和文本“今天天气如何”可以对应于同一个语义特征。计算机设备可以将文本中的字符映射为字符向量,根据字符之间的关系,对字符向量进行组合和运算,得到文本的语义特征。例如计算机设备可以采用编解码器的双向编码器表示(Bidirectional Encoder Representations from Transformers,BERT)。
归一化:将取值范围不同的数列映射到(0,1)区间上,便于数据的处理。在一些情况下,归一化后的数值可以直接被实现为概率。
嵌入编码(Embedded Coding):嵌入编码在数学上表示一个对应关系,即通过一个函数F将X空间上的数据映射到Y空间上,其中该函数F是单射函数,映射的结果是结构保存,单射函数表示映射后的数据与映射前的数据唯一对应,结构保存表示映射前数据的大小关系后映射后数据的大小关系相同,例如映射前存在数据X1以及X2,映射后得到X1对应的Y1以及X2对应的Y2。若映射前的数据X1>X2,那么相应地,映射后的数据Y1大于Y2。对于词语来说,就是将词语映射到另外一个空间,便于后续的机器学习和处理。
注意力权重:可以表示训练或预测过程中某个数据的重要性,重要性表示输入的数据对输出数据影响的大小。重要性高的数据其对应的注意力权重的值较高,重要性低的数据其对应的注意力权重的值较低。在不同的场景下,数据的重要性并不相同,模型的训练注意力权重的过程也即是确定数据重要性的过程。
需要说明的是,本申请所涉及的信息(包括但不限于用户设备信息、用户个人信息等)、数据(包括但不限于用于分析的数据、存储的数据、展示的数据等)以及信号,均为经用户授权或者经过各方充分授权的,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
以下,对本申请的实施环境进行介绍。
本申请实施例提供的背景音乐的插入时间点确定方法,能够由计算机设备执行。在一些实施例中,该计算机设备为终端或服务器。下面介绍一下本申请实施例提供的背景音乐的插入时间点确定方法的实施环境,图1是本申请实施例提供的一种背景音乐的插入时间点确定方法的实施环境示意图,参见图1,该实施环境中可以包括终端110和服务器140。
终端110通过无线网络或有线网络与服务器140相连。可选地,终端110是车载终端、智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表以及智能电视等,但并不局限于此。终端110安装和运行有支持确定插入背景音乐的时间点的应用程序。
服务器140是独立的物理服务器,或者是多个物理服务器构成的服务器集群或者分布式系统,或者是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。服务器140为终端110上运行的应用程序提供后台服务。
可选地,终端110和服务器140的数量不受限制。
在介绍完本申请实施例的实施环境之后,下面将结合上述实施环境对本申请实施例的应用场景进行介绍,在下述说明过程中,终端也即是上述实施环境中的终端110,服务器也即是上述实施环境中的服务器140。
本申请实施例提供的技术方案能够应用在向各类视频中插入背景音乐的场景下,比如,应用在向影视作品中插入背景音乐的场景下,或者应用在向短视频中插入背景音乐的场景下。
在向影视作品中插入背景音乐的场景下,视频制作人员通过终端选择待插入背景音乐的影视作品,该影视作品也即是目标视频。终端将该影视作品发送至服务器,由该服务器对该影视作品进行处理,得到该影视作品中的候选时间点,该候选时间点也即是可供在影视作品中插入背景音乐的时间点。服务器将该影视作品的候选时间点发送给终端,终端显示该影视作品的候选时间点。视频制作人员能够在终端上显示的候选时间点中选择插入背景音乐的目标时间点。视频制作人员通过终端选择影视作品之后,服务器就能够直接确定出该影视作品中的候选时间点,无需视频制作人员完整地观看影视作品后再确定候选时间点,大大提高了在影视作品中插入背景音乐的效率。
在短视频中插入背景音乐的场景下,短视频作者通过终端选择待插入背景音乐的短视频,该短视频也即是目标视频。终端将该短视频发送至服务器,由该服务器对该短视频进行处理,得到该短视频中的候选时间点,该候选时间点也即是可供在短视频中插入背景音乐的时间点。服务器将该短视频的候选时间点发送给终端,终端显示该短视频的候选时间点。短视频作者能够在终端上显示的候选时间点中选择插入背景音乐的目标时间点。短视频作者通过终端选择短视频之后,服务器就能够直接确定出该短视频中的候选时间点,无需短视频作者在完整短视频的范围内进行选择,大大提高了在短视频中插入背景音乐的效率。
需要说明的是,本申请实施例提供的技术方案除了能够应用在向影视作品或者短视频中插入背景音乐之外,还能够应用在向其他类型的视频中插入背景音乐的场景下,本申请实施例对此不做限定。
在介绍完本申请实施例的实施环境和应用场景之后,下面对本申请实施例提供的技术方案进行介绍。参见图2,本申请实施例提供的技术方案可以由终端或服务器执行,也可以由终端和服务器共同执行,在本申请实施例中,以执行主体为服务器为例进行说明,方法包括下述步骤。
201、服务器提取目标视频的音频特征以及图像特征。
其中,目标视频为待插入背景音乐的视频,比如为尚未插入背景音乐的影视作品,或者为二次创作时的视频片段等,本申请实施例对此不做限定。音频特征能够反映目标视频在音频上的特性,音频特征也被称为听觉特征;图像特征能够反映目标视频的图像上的特性,图像特征也被称为视觉特征。
202、服务器将该音频特征以及该图像特征进行融合,得到该目标视频的视频特征。
其中,在获取该目标视频的视频特征的过程中,融合了目标视频的音频特征以及图像特征,使得该目标视频的视频特征能够从听觉和视觉两个维度上反映该目标视频的特性,该视频特征具有较强的表达能力。
203、服务器基于注意力机制对该目标视频的视频特征进行编码,得到多个目标参数,该多个目标参数对应于该目标视频的多个时间点,该目标参数用于表示在对应时间点插入背景音乐的概率。
其中,基于注意力机制对目标视频的视频特征进行处理时,能够充分利用视频特征中的信息,提高确定出的目标参数的准确性。
204、服务器将该多个时间点中目标参数符合目标条件的时间点,确定为插入背景音乐的候选时间点。
其中,候选时间点为插入背景音乐的概率较高的时间点,视频制作人员能够在确定出的候选时间点中进行选择插入背景音乐的目标时间点。
通过本申请实施例提供的技术方案,结合了目标视频的音频特征和图像特征来确定目标视频的视频特征,该视频特征能够较为准确地表示目标视频的内容。基于注意力机制对视频特征进行编码,得到多个目标参数,多个目标参数表示在对应时间点插入背景音乐的概率。基于多个时间点的目标参数,从多个时间点中确定出候选时间点,该候选时间点也即是可以在目标视频中插入背景音乐的时间点。在上述确定候选时间点的过程中,由于结合了注意力机制,使得确定出的候选时间点较为准确。同时在插入背景音乐时,无需视频制作人员完整地观看目标视频,只需在确定出的候选时间点中进行选择即可,在保证准确性的前提下,提高了在视频中插入背景音乐的效率。
需要说明的是,上述步骤201-204是对本申请实施例提供的技术方案的简单说明,下面将结合一些例子,对本申请实施例提供的技术方案进行更加详细的说明,参见图3,本申请实施例提供的技术方案可以由终端或服务器执行,也可以由终端和服务器共同执行,在本申请实施例中,以技术方案由终端和服务器共同执行为例进行说明,方法包括下述步骤。
301、服务器获取目标视频。
其中,该目标视频为待插入背景音乐的视频。在一些实施例中,该目标视频为影视作品中的电影或者电视剧等,或者为短视频等其他类型的视频等,本申请实施例对此不做限定。
在一种可能的实施方式中,响应于对目标视频的操作,终端向服务器发送该目标视频。在这种实施方式下,视频制作人员能够通过对该目标视频的操作来控制终端向服务器发送该目标视频,视频制作人员能够自行选择目标视频,人机交互的效率较高。
举例来说,终端显示视频选择页面,该视频选择页面包括多个候选视频。响应于对该多个候选视频中目标视频的点击操作,终端向服务器发送该目标视频,服务器获取该目标视频。在这种情况下,该多个候选视频为存储在终端上的视频。在该多个候选视频为存储在服务器上的视频的情况下,响应于在视频选择页面上对目标视频的点击操作,终端向服务器发送视频选择指令,该视频选择指令携带该目标视频的标识。服务器接收到该视频选择指令之后,从该视频选择指令中获取该目标视频的标识。服务器基于该目标视频的标识进行查询,获取该目标视频。
302、服务器对该目标视频的多个音频帧进行特征提取,得到该目标视频的音频特征。
在一种可能的实施方式中,服务器对该多个音频帧的时域信息进行特征提取,得到该多个音频帧的时域音频特征。服务器对该多个音频帧的频域信息进行特征提取,得到该多个音频帧的频域音频特征。服务器基于该多个音频帧的时域音频特征和频域音频特征,获取该目标视频的音频特征。
在这种实施方式下,服务器能够提取该目标视频的多个音频帧的时域音频特征和频域音频特征,该音频特征能够更加准确地反映目标视频的音频特性。
在一些实施例中,服务器上部署有时间点确定模型,服务器通过该时间点确定模型来实现上述实施方式。在一些实施例中,该时间点确定模型包括音频特征提取单元,服务器通过该时间点确定模型的音频特征提取单元来获取该目标视频的音频特征。
在一些实施例中,该目标视频的音频特征为一个音频特征序列,该音频特征序列包括多个音频子特征,每个音频子特征对应于该目标视频的一个时间点,每个音频子特征用于反映对应时间点的音频特性。
为了对上述实施方式进行更加清楚的说明,下面分为三个部分对上述实施方式进行说明。
第一部分、服务器对该多个音频帧的时域信息进行特征提取,得到该多个音频帧的时域音频特征。
其中,该多个音频帧为该目标视频中在时间上连续的音频帧,该多个音频帧的时域信息用于描述多个音频帧的幅值在时间上的变化情况,时域音频特征能够反映该多个音频帧在时域上的特性。
在一些实施例中,该多个音频帧的时域音频特征为一个时域音频特征序列,该时域音频特征序列包括多个子特征,每个子特征对应于该目标视频的一个时间点,每个子特征用于反映对应时间点的时域音频特性。
在一种可能的实施方式中,服务器采用多个一维卷积核对该多个音频帧的时域信息进行特征提取,得到该多个音频帧的时域音频特征。
在这种实施方式下,服务器通过多个一维卷积核来提取时域音频特征,多个一维卷积核能够较为准确地提取时域音频特征。
举例来说,服务器将该多个音频帧的时域信息输入时间点确定模型,通过该时间点确定模型对该时域信息进行特征提取,得到该多个音频帧的时域音频特征。在一些实施例中,该时间点确定模型包括音频特征提取单元,该音频特征提取单元包括时域特征提取支路和频域特征提取支路,该时域特征提取支路用于提取该多个音频帧的时域音频特征,该频域支路用于提取该多个音频帧的频域音频特征。在一些实施例中,该音频特征提取单元的时域特征提取支路包括多个一维卷积子单元和多个池化子单元,每个一维卷积子单元包括至少一个一维卷积核。服务器将该多个音频帧的时域信息输入该时间点确定模型之后,通过该时间点确定模型的时域特征提取支路对该多个音频帧的时域信息进行特征提取,也即是通过该时域特征提取支路上的多个一维卷积子单元对该时域信息进行卷积,得到多个时域特征图。服务器通过该时域特征提取支路上的多个池化子单元,对该多个时域特征图进行池化,得到该多个音频帧的频域音频特征。
在提取该多个音频帧的时域音频特征的过程中使用了多个一维卷积核,能够从多个音频帧的时域信息中提取到多个音频帧的时域特性,特别是多个音频帧的响度和采样幅度能够被准确提取。在提取时域音频特征时通过池化层来降低复杂度,提高时域音频特征的提取效率。
第二部分、服务器对该多个音频帧的频域信息进行特征提取,得到该多个音频帧的频域音频特征。
在一些实施例中,该多个音频帧的频域音频特征为一个频域音频特征序列,该频域音频特征序列包括多个子特征,每个子特征对应于该目标视频的一个时间点,每个子特征用于反映对应时间点的频域音频特性。
其中,该多个音频帧的频域信息为该多个音频帧的频谱,比如为该多个音频帧的梅尔倒频谱。该多个音频帧的频域信息是基于该多个音频帧的时域信息确定的,比如,对该多个音频帧的时域信息进行傅里叶变换,得到该多个音频帧的傅里叶频谱。服务器通过三角窗函数将该多个音频帧的傅里叶频谱映射至梅尔刻度,得到该多个音频帧的第一梅尔参数。服务器获取该多个音频帧的第一梅尔参数的对数,得到该多个音频帧的第二梅尔参数。服务器对该多个音频帧的第二梅尔参数进行离散余弦变换,得到该多个音频帧的梅尔倒频谱,梅尔倒频谱也即是该多个音频帧的频域信息。需要说明的是,上述说明是本申请实施例提供的一种基于时域信息获取梅尔倒频谱的方式,在其他可能的实施方式中,服务器还能够通过其他方法来基于时域信息获取梅尔倒频谱,本申请实施例对此不做限定。另外,在下述说明过程中,以该多个音频帧的频域信息为该多个音频帧的梅尔倒频谱为例进行说明,在其他可能的实施方式中,该多个音频帧的频域信息也可以为其他类型的频谱,本申请实施例对此不做限定。
在一种可能的实施方式中,服务器采用多个二维卷积核对该多个音频帧的频域信息进行特征提取,得到该多个音频帧的频域音频特征。
在这种实施方式下,服务器通过多个二维卷积核来提取频域音频特征,多个二维卷积核能够较为准确地提取频域音频特征。
举例来说,服务器将该多个音频帧的频域信息输入时间点确定模型,通过该时间点确定模型对该频域信息进行特征提取,得到该多个音频帧的频域音频特征。在一些实施例中,该时间点确定模型包括音频特征提取单元,如上述第一部分的描述,该音频特征提取单元包括时域特征提取支路和频域特征提取支路,该时域特征提取支路用于提取该多个音频帧的时域音频特征,该频域支路用于提取该多个音频帧的频域音频特征。在一些实施例中,该音频特征提取单元的频域特征提取支路包括多个二维卷积子单元,每个二维卷积子单元包括至少一个二维卷积核。服务器将该多个音频帧的频域信息输入该时间点确定模型之后,通过该时间点确定模型的频域特征提取支路对该多个音频帧的频域信息进行特征提取,也即是通过该频域特征提取支路上的多个二维卷积子单元对该频域信息进行卷积,得到该多个音频帧的频域音频特征。
在提取该多个音频帧的频域音频特征的过程中使用了多个二维卷积核,能够从多个音频帧的频域信息中提取到多个音频帧的频域特性。
第三部分、服务器基于该多个音频帧的时域音频特征和频域音频特征,获取该目标视频的音频特征。
在一种可能的实施方式中,服务器将该多个音频帧的时域音频特征和频域音频特征进行融合,得到该目标视频的初始音频特征。服务器对该目标视频的初始音频特征进行卷积,得到该目标视频的音频特征。
在这种实施方式下,服务器通过相加这种方式将该多个音频帧的时域音频特征和频域音频特征进行融合,得到该目标视频的初始音频特征,通过对该初始音频特征进行卷积来进一步融合时域音频特征和频域音频特征,得到的音频特征能够更加准确地表达目标视频的音频特性。
举例来说,在服务器通过多个一维卷积核来提取时域音频特征,通过多个二维卷积核来提取频域音频特征的情况下,得到的时域音频特征的维度为一维,频域音频特征的维度为二维。在这种情况下,服务器对该多个音频帧的时域音频特征进行上采样,将一维的时域音频特征变为二维的时域音频特征。服务器将该二维的时域音频特征与频域音频特征相加,得到该目标视频的初始音频特征,这个相加过程也即是融合时域音频特征和频域音频特征的过程。服务器通过至少一个二维卷积核对该初始音频特征进行卷积,得到该目标视频的音频特征。在一些实施例中,服务器通过时间点确定模型来基于该多个音频帧的时域音频特征和频域音频特征来获取目标视频的音频特征。该时间点确定模型包括音频特征融合单元,服务器通过该时间点确定模型的音频特征融合子单元,来将该多个音频帧的时域音频特征和频域音频特征融合为该目标视频的音频特征,该音频特征融合子单元属于该音频特征提取单元。
在一种可能的实施方式中,服务器将该多个音频帧的时域音频特征和频域音频特征进行融合,得到该目标视频的初始音频特征。服务器分别对该初始音频特征进行最大值池化和均值池化,得到该目标视频的第一池化特征和第二池化特征。服务器将该第一池化特征以及该第二池化特征进行融合,得到该目标视频的音频特征。
在这种实施方式下,服务器通过最大值池化和均值池化两种方式来降低初始音频特征的复杂度,提高后续运算的效率。
举例来说,在服务器通过多个一维卷积核来提取时域音频特征,通过多个二维卷积核来提取频域音频特征的情况下,得到的时域音频特征的维度为一维,频域音频特征的维度为二维。在这种情况下,服务器对该多个音频帧的时域音频特征进行上采样,将一维的时域音频特征变为二维的时域音频特征。服务器将该二维的时域音频特征与频域音频特征相加后进行卷积,得到该目标视频的初始音频特征,这个相加和卷积的过程也即是融合时域音频特征和频域音频特征的过程。服务器分别对该初始音频特征进行最大值池化和均值池化,得到该目标视频的第一池化特征和第二池化特征,其中,该第一池化特征为对该初始音频特征进行最大值池化得到的池化特征,该第二池化特征为对该初始音频特征进行均支池化得到的池化特征。服务器将该第一池化特征和该第二池化特征相加,得到第三池化特征。服务器对该第三池化特征进行线性整流,得到该目标视频的音频特征,其中,线性整流(Rectified Linear)也被称为线性修正,服务器能够通过线性整流函数来对第三池化特征进行线性整流,得到该目标视频的音频特征,该线性整流函数也被称为斜坡函数。在一些实施例中,服务器通过时间点确定模型来基于该多个音频帧的时域音频特征和频域音频特征来获取目标视频的音频特征。该时间点确定模型包括音频特征融合单元,服务器通过该时间点确定模型的音频特征融合子单元,来将该多个音频帧的时域音频特征和频域音频特征融合为该目标视频的音频特征,该音频特征融合子单元属于该音频特征提取单元。
下面将结合上述实施方式以及图4,对上述步骤302进行说明。
参见图4,服务器将该多个音频帧的时域信息401输入时间点确定模型,通过该时间点确定模型的音频特征提取单元的时域特征提取支路402对该多个音频帧的时域信息401进行特征提取,也即是通过多个一维卷积子单元和多个最大值池化子单元对该时域信息401进行特征提取,得到该多个音频帧的时域音频特征,其中,每个一维卷积子单元对应于一个一维卷积核。在一些实施例中,该一维卷积子单元的数量为四个,分别命名为第一卷积子单元、第二卷积子单元、第三卷积子单元以及第四卷积子单元;该最大值池化子单元的数量为三个,分别命名为第一最大值池化子单元、第二最大值池化子单元以及第三最大值池化子单元。服务器通过第一卷积子单元对该时域信息进行卷积,得到该时域信息的第一时域特征向量。服务器通过第二卷积子单元对该第二时域特征向量进行卷积,得到该时域信息的第二时域特征向量。服务器通过该第一最大值池化子单元度该第二时域特征向量进行最大值池化,得到该时域信息的第一池化向量。服务器通过该第三卷积子单元对该第一池化向量进行卷积,得到该时域信息的第三时域特征向量。服务器通过该第二最大值池化子单元对该第三时域特征向量进行最大值池化,得到该时域信息的第二池化向量。服务器通过该第四卷积子单元对该第二池化向量进行卷积,得到该时域信息的第四时域特征向量。服务器通过该第三最大值池化子单元度该第二时域特征向量进行最大值池化,得到该目标视频的时域音频特征向量,该时域音频特征向量用于表示该目标视频的时域音频特征。服务器通过该音频特征提取单元的重塑子单元4021,对该时域音频特征向量进行上采样,得到二维的时域音频特征向量4022。
获取该二维的时域音频特征向量之后,服务器通过该时间点确定模型的音频特征提取单元的频域特征提取支路403对该多个音频帧的时域信息401进行特征提取,得到该多个音频帧的频域音频特征。也即是服务器通过该频域特征提取支路403上的频域信息获取子单元4031对该多个音频帧的时域信息401进行处理,得到该多个音频帧的频域信息,在一些实施例中,该频域信息为梅尔倒频谱。服务器通过该频域特征提取支路403上的至少一个二维卷积子单元对该频域信息进行卷积,得到该目标视频的频域音频特征向量4032。服务器通过该时间点确定模型的音频特征融合子单元404,将该二维的时域音频特征向量4022和该频域音频特征向量4032相加后通过该音频特征提取单元的二维卷积子单元405进行卷积,得到该目标视频的初始音频特征。服务器通过该音频特征提取单元的最大池化子单元406和均值池化子单元407分别对该初始音频特征进行处理,得到第一池化特征和第二池化特征。服务器将该第一池化特征和该第二池化特征相加,得到第三池化特征。服务器通过线性整流子单元408(Rectified Linear Unit)对该第三池化特征进行线性整流,得到该目标视频的音频特征409。
在一些实施例中,该时间点确定模型的音频特征提取单元为预训练音频神经网络(Pretrained Audio Neural Networks,PANNs)。
需要说明的是,在步骤301之后,服务器既能够先执行步骤302,再执行下述步骤303,也能够先执行下述步骤303,再执行步骤302,或者能够同时执行步骤302和下述步骤303,本申请实施例对此不做限定。在本申请实施例中,以服务器先执行步骤302,再执行下述步骤303为例进行说明。
303、服务器对该目标视频的多个视频帧进行特征提取,得到该目标视频的图像特征。
其中,该目标视频的多个视频帧为该目标视频中在时间上连续的视频帧。在一些实施例中,该目标视频的视频特征为一个视频特征序列,该视频特征序列包括多个视频子特征,每个视频子特征对应于该目标视频的一个时间点,每个视频子特征用于反映对应时间点的视频特性。
在一种可能的实施方式中,服务器将该多个视频帧输入时间点确定模型,通过该时间点确定模型对该多个视频帧进行特征提取,得到该多个视频帧的图像特征,该多个视频帧的图像特征也即是该目标视频的图像特征。
在这种实施方式下,通过时间点确定模型对多个视频帧进行特征提取,得到该目标视频的图像特征,从而实现对该多个视频帧的抽象表达,提高后续的运算效率。
为了对上述实施方式进行说明,下面通过四个例子对上述实施方式进行说明。
例1、服务器将该多个视频帧输入时间点确定模型,通过该时间点确定模型对该多个视频帧进行卷积、归一化和线性修正,得到该多个视频帧的图像特征。
举例来说,服务器将该多个视频帧输入时间点确定模型,该时间点确定模型包括图像特征提取单元。服务器通过该时间点确定模型的图像特征提取单元的至少一个二维卷积层,对该多个视频帧进行卷积,得到该多个视频帧的特征图。服务器通过该时间点确定模型的至少一个归一化层和至少一个线性修正层,对该多个视频帧的特征图进行归一化和线性修正,得到该多个视频帧的图像特征。在一些实施例中,服务器以矩阵的形式来表示视频帧,以向量的形式来表示图像特征,在对视频帧进行卷积的过程中,采用卷积核在视频帧上进行滑动的方式来实现。
比如,该图像特征提取单元包括三种类型的残差构建子单元,分别记作第一类残差构建子单元、第二类残差构建子单元以及第三类残差构建子单元,该图像特征提取单元分为多个网络阶段,每个网络阶段均包括上述三种类型的残差构建子单元。其中,三种类型的残差构建子单元均包括至少一个卷积层、至少一个归一化层以及至少一个线性修正层,不同类型的残差构建子单元中卷积层、归一化层以及线性修正层的数量和连接方式有所不同。在一些实施例中,该多个网络阶段包括开始阶段、中间阶段以及结束阶段。服务器将该多个视频帧输入该时间点确定模型的图像特征提取单元之后,通过该图像特征提取单元的多个网络阶段,也即是该多个网络阶段中第一类残差构建子单元、第二类残差构建子单元以及第三类残差构建子单元对该多个视频帧进行卷积、归一化以及线性修正,得到该多个视频帧的图像特征。
在一些实施例中,第一类残差构建子单元也被称为开始残差块(StartResBlock),第二类残差构建子单元也被称为中间残差块(Middle ResBlock),第三类残差构建子单元也被称为结束残差块(End ResBlock)。参见图5,示出了一种第一类残差构建子单元501、第二类残差构建子单元502以及第三类残差构建子单元503的结构示意图。在图5中,第一类残差构建子单元501依次包括一维卷积层5011、归一化层5012、线性修正层5013、三维卷积层5014、归一化层5015、线性修正层5016、一维卷积层5017以及归一化层5018。第二类残差构建子单元502依次包括归一化层5021、线性修正层5022、一维卷积层5023、归一化层5024、线性修正层5025、三维卷积层5026、归一化层5027、线性修正层5028以及一维卷积层5029。第三类残差构建子单元503依次包括归一化层5031、线性修正层5032、一维卷积层5033、归一化层5034、线性修正层5035、三维卷积层5036、归一化层5037、线性修正层5038以及一维卷积层5039。其中,卷积层用于进行卷积、归一化层用于进行归一化,线性修正层用于进行线性修正。
在一些实施例中,该图像特征提取单元为神经网络IResNet(Improved ResidualNetworks,改进残差网络)。该神经网络IResNet的输出结果为该目标视频的图像特征。在IResNet中,网络层数为50为例,该50层网络包括三个阶段,分别是一个开始阶段,四个中间阶段以及一个结束阶段。四个中间阶段的每个中间阶段包括多个残差构建子单元。IResNet能够在准确性和学习收敛性方面上都超过ResNet,例如,在ImageNet数据集上,使用具有50层的ResNet,同时在相同配置下使用IResNet,top-1精度提升范围在1.19%到2.33%之间。同时,这些改进是在不增加模型复杂性的情况下获得的。
需要说明的是,上述是以时间点确定模型的图像特征提取单元为IResNet为例进行说明的,在其他可能的实施方式中,该时间点确定模型的图像特征提取单元还可以为其他结构,本申请实施例对此不做限定。
例2、服务器将该多个视频帧输入时间点确定模型,通过时间点确定模型,基于注意力机制对该多个视频帧进行编码,得到该多个视频帧的图像特征,其中,通过该时间点确定模型获取的图像特征也即是对应内容项的语义特征。在这种实施方式下,该时间点确定模型为语义特征编码器,比如为Transformer编码器。
在一种可能的实施方式中,服务器将该多个视频帧输入该时间点确定模型的图像特征提取单元,通过该时间点确定模型的图像特征提取单元,对该多个视频帧进行嵌入编码,得到多个嵌入特征,一个嵌入特征对应于该多个视频帧的一个视频帧,嵌入特征用于表示各个视频帧在该多个视频帧中的位置以及各个视频帧的内容。服务器将多个嵌入特征输入时间点确定模型,通过时间点确定模型的三个线性变换矩阵,对多个嵌入特征进行线性变换,得到该多个视频帧的每个视频帧对应的查询(Query)向量、键(Key)向量以及值(Value)向量。服务器通过时间点确定模型,基于该多个视频帧对应的查询向量以及键向量,获取视频帧的多个视频帧的注意力权重。服务器通过时间点确定模型,基于该多个视频帧的各个视频帧的注意力权重和该多个视频帧的各个视频帧的值向量,获取该多个视频帧的注意力编码向量,注意力编码向量也即是视频帧的图像特征。
比如,服务器通过时间点确定模型,将每个嵌入特征分别与三个线性变换矩阵相乘,得到该多个视频帧中每个视频帧分别对应的查询向量、键向量以及值向量。对于该多个视频帧中的第一个视频帧,服务器通过时间点确定模型,基于第一个视频帧的查询向量,与该多个视频帧的多个其他视频帧的键向量,确定多个其他视频帧对第一个视频帧的多个注意力权重。服务器通过时间点确定模型,将多个其他视频帧对第一个视频帧的注意力权重,与多个其他视频帧的值向量进行加权求和,得到该第一个视频帧的注意力编码向量。需要说明的是,上述是以服务器通过该时间点确定模型,对该多个视频帧的第一个视频帧进行编码,得到该第一个视频帧的注意力编码向量为例进行说明的,服务器对该多个视频帧的其他视频帧进行编码的方式与上述对该第一个视频帧进行编码的方法属于同一发明构思,实现过程参见上述描述,在此不再赘述。
例3、服务器将该多个视频帧输入时间点确定模型,通过时间点确定模型对多个视频帧进行卷积、归一化和线性修正,得到多个视频帧的第一图像特征。服务器通过该时间点确定模型,基于注意力机制对该多个视频帧进行编码,得到该多个视频帧的第二图像特征。服务器将该多个视频帧的第一图像特征和第二图像特征进行融合,得到该多个视频帧的图像特征。
举例来说,该时间点确定模型包括第一图像特征提取单元和第二图像特征提取单元,该第一图像特征提取单元用于提取目标视频的第一图像特征,该第二图像特征提取单元用于提取目标视频的第二图像特征。服务器将该多个视频帧输入时间点确定模型之后,通过该第一图像特征提取单元来获取该多个视频帧的第一图像特征,通过第二图像特征提取单元来获取该多个视频帧的第二图像特征。服务器将该多个视频帧的第一图像特征和第二图像特征进行融合时,可以采用加权求和的方式,加权求和的权重由技术人员根据实际情况进行设置,比如设置为0.3、0.5或者0.8等,本申请实施例对此不做限定。
例4、服务器将该多个视频帧输入时间点确定模型,通过该时间点确定模型对该多个视频帧进行全连接和池化,得到该多个视频帧的图像特征。
举例来说,服务器将该多个视频帧输入时间点确定模型,通过该时间点确定模型的至少一个全连接层,对该多个视频帧进行全连接,得到该多个视频帧的全连接特征。服务器通过该时间点确定模型的池化层,对该多个视频帧的全连接特征进行最大值池化或者平均池化中的任一项,得到该多个视频帧的图像特征,该图像特征也被称为深度特征或者底层特征。在一些实施例中,服务器以矩阵的形式来表示视频帧,以向量的形式来表示图像特征,在对视频帧进行全连接的过程中,采用将全连接矩阵与视频帧的矩阵进行相乘的方式来实现。在一些实施例中,该时间点确定模型为基于深度神经网络(Deep NeuralNetworks,DNN)的特征提取器。
需要说明的是,上述是以时间点确定模型提取内容项的底层特征和语义特征为例进行说明的,随着科学技术的发展,服务器还能够采用其他结构的时间点确定模型来获取图像特征,本申请实施例对此不做限定。
另外,上述步骤302-303是分别对提取目标视频的音频特征和视频特征进行说明的,在其他可能的实施方式中,服务器还能够提取该目标视频的字幕特征,通过结合目标视频的音频特征、图像特征以及字幕特征来确定该目标视频的视频特征,能够提高视频特征的表达能力。
在一种可能的实施方式中,服务器提取该目标视频的音频特征、图像特征以及字幕特征。
其中,服务器提取该目标视频的音频特征和图像特征的方法与上述步骤302和303属于同一发明构思,实现过程参见上述步骤302和303的说明,在此不再赘述。下面对服务器提取该目标视频的字幕特征的方法进行说明。
在一种可能的实施方式中,服务器将该目标视频的字幕输入该时间点确定模型,通过该时间点确定模型度该目标视频的字幕进行特征提取,得到该目标视频的字幕特征。在一些实施例中,该时间点确定模型包括字幕特征提取单元,服务器通过该字幕特征提取单元能够提取该目标视频的字幕特征。比如,服务器通过该字幕特征提取单元,对该目标视频的字幕进行嵌入编码,得到该目标视频的字幕嵌入特征。服务器通过该字幕特征提取单元,对该目标视频的字幕嵌入特征进行卷积以及池化,得到该目标视频的字幕特征。
当然,服务器除了能够采用卷积和池化的方式来获取该目标视频的字幕特征之外,还能够通过其他文本特征提取方法来获取该目标视频的字幕特征,本申请实施例对此不做限定。
304、服务器将该音频特征以及该图像特征进行融合,得到该目标视频的视频特征。
在一种可能的实施方式中,服务器将该音频特征和该图像特征进行叠加,得到该目标视频的视频特征。在该音频特征为音频特征序列,该图像特征为图像特征序列的情况下,服务器将该音频特征序列和该图像特征序列相加,得到该目标视频的视频特征序列。
在一些实施例中,由于该目标视频的视频特征融合了音频特征和图像特征,该目标视频的视频特征也被称为该目标视频的音视频高级语义特征。在该视频特征为视频特征序列的情况下,该视频特征序列中的每个子特征表示该目标视频中对应时间点的视频特征,也即是对应时间点的语义信息。
在这种实施方式下,确定目标视频的视频特征时结合了目标视频的音频特征和图像特征,得到的视频特征能够在音频和图像两个维度上体现目标视频的特性,视频特征的准确性较高。
在一些实施例中,在该音频特征和该图像特征的维度不同的情况下,服务器对该音频特征或该图像特征的维度进行调整,以使得在调整之后,该音频特征和该图像特征的维度相同。
在一种可能的实施方式中,在服务器提取该目标视频的字幕特征的情况下,服务器将该目标视频的该音频特征、该图像特征以及字幕特征进行融合,得到该目标视频的视频特征。在该音频特征为音频特征序列,该图像特征为图像特征序列,该字幕特征为字幕特征序列的情况下,服务器将该音频特征序列、该图像特征序列以及该字幕特征序列相加,得到该目标视频的视频特征序列。
在这种实施方式下,确定目标视频的视频特征时结合了目标视频的音频特征、图像特征和字幕特征,得到的视频特征能够在音频、图像以及字幕三个维度上体现目标视频的特性,视频特征的准确性较高。
在一些实施例中,上述步骤302-304由时间点确定模型的特征提取子模型实现。
305、服务器基于注意力机制对该目标视频的视频特征进行编码,得到多个目标参数,该多个目标参数对应于该目标视频的多个时间点,该目标参数用于表示在对应时间点插入背景音乐的概率。
在一种可能的实施方式中,该视频特征包括多个子特征,服务器通过时间点确定模型,基于注意力机制对该多个子特征中每两个子特征进行编码,得到各个子特征的目标参数。
其中,该视频特征包括的多个子特征对应于该目标视频的多个时间点,各个子特征用于表示对应时间点的视频特征。
举例来说,对于该多个子特征中的第一子特征,服务器通过时间点确定模型,基于注意力机制确定该多个子特征中的多个第二子特征对该第一子特征的多个注意力参数。服务器通过时间点确定模型,将该多个注意力参数进行融合,得到该第一子特征的目标参数。
为了对上述举例进行更加清楚的说明,下面将分为两个部分对上述举例进行进一步说明。
部分A、服务器通过时间点确定模型,基于注意力机制确定该多个子特征中的多个第二子特征对该第一子特征的多个注意力参数。
在一种可能的实施方式中,服务器通过时间点确定模型,对该第一子特征进行全连接,得到该第一子特征的嵌入特征。对于该多个第二子特征中的任一第二子特征,服务器通过时间点确定模型,对该第二子特征进行全连接,得到该第二子特征的嵌入特征。服务器通过时间点确定模型,基于该第一子特征的嵌入特征和该第二子特征的嵌入特征,确定该第一子特征和该第二子特征之间的相似度参数。服务器通过时间点确定模型,基于该第一子特征以及该第一子特征和该第二子特征之间的相似度参数,确定该第二子特征对该第一子特征的注意力参数。
其中,该第一子特征和该第二子特征之间的相似度参数用于描述该第一子特征和该第二子特征之间的相似程度,在一些实施例中,该第一子特征和该第二子特征之间的相似度参数与该第一子特征和该第二子特征之间的相似程度正相关,也即是相似度参数越高,表示该第一子特征和该第二子特征之间的相似程度越高;相似度参数越低,表示该第一子特征和该第二子特征之间的相似程度越低。注意力参数也被称为注意力权重。
举例来说,该时间点确定模型包括目标参数获取单元,服务器通过时间点确定模型的目标参数获取单元,对该第一子特征进行全连接,得到该第一子特征的嵌入特征。也即是,服务器将该第一子特征输入该目标参数获取单元的全连接层,将该第一子特征与该目标参数获取单元的全连接层的全连接矩阵相乘,得到该第一子特征的嵌入特征。服务器将该第二子特征输入该目标参数获取单元的全连接层,将该第二子特征与该目标参数获取单元的全连接层的全连接矩阵相乘,得到该第二子特征的嵌入特征。服务器通过该目标参数获取单元,基于该第一子特征的嵌入特征和该第二子特征的嵌入特征,确定该第一子特征和该第二子特征之间的相似度参数,其中,该相似度参数为该第一子特征和该第二子特征的点积,或者为该第一子特征和该第二子特征之间的余弦相似度,本申请实施例对此不做限定。服务器通过该目标参数获取单元,将该第一子特征以及该第一子特征和该第二子特征之间的相似度参数相乘,得到该第二子特征对该第一子特征的注意力参数。
需要说明的是,上述是以确定多个第二子特征中的一个第二子特征对该第一子特征的注意力参数为例进行说明的,服务器通过该时间点确定模型确定其他第二子特征对该第一子特征的注意力参数的方法与上述描述属于同一发明构思,实现过程不再赘述。
比如,图6提供了一种目标参数获取单元的架构图,参见图6,服务器将该目标视频的视频特征序列{a1-an}输入该目标参数获取单元,通过该目标参数获取单元,基于注意力机制确定该多个第二子特征 {a2-an}对该第一子特征(a1)的多个注意力参数{c12-c1n},n为视频特征中子特征的数量,n为正整数。以服务器第二子特征ai对该第一子特征a1的注意力参数为例,服务器通过目标参数获取单元,对该第一子特征a1和该第二子特征ai进行全连接(FC),得到该第一子特征a1的嵌入特征和该第二子特征ai的嵌入特征。服务器通过目标参数获取单元,将该第一子特征a1的嵌入特征和该第二子特征ai的嵌入特征相乘,得到该第一子特征a1的嵌入特征和该第二子特征ai的嵌入特征之间的相似度参数m1i。服务器通过目标参数获取单元,将该相似度参数m1i与该第一子特征a1相乘,得到该第二子特征ai对该第一子特征a1的注意力参数c1i,其中,i为正整数,2≤i≤n。
部分B、服务器通过时间点确定模型,将该多个注意力参数进行融合,得到该第一子特征的目标参数。
在一些实施例中,该第一子特征的目标参数也被称为该第一子特征的注意力权重或者在该第一子特征对应的时间点插入背景音乐的置信度。
在一种可能的实施方式中,服务器通过该时间点确定模型的目标参数获取单元,将该多个注意力参数进行相加,得到该第一子特征的目标参数。也就是说,该第一子特征的目标参数是由多个第二子特征对该第一子特征的多个注意力参数融合后得到的。
比如,参见图6,服务器通过该目标参数获取单元,将该多个第二子特征 {a2-an}对该第一子特征(a1)的多个注意力参数{c12-c1n}相加,得到该子特征的目标参数w1。
需要说明的是,上述是以服务器通过该时间点确定模型获取该多个子特征中的第一子特征的目标参数为例进行说明,服务器获取该多个子特征中其他子特征的目标参数的方法与上述描述属于同一发明构思,实现过程不再赘述。
为了直观地体现本申请实施例提供的技术方案所带来的效果,将实验过程中得到的视频特征的多个子特征的目标参数绘制为折线图,将该目标视频的多个视频帧、多个音频帧的时域信息以及多个音频帧的频域信息以时间点为基准进行对齐,得到图7。参见图7,包括该目标视频的多个视频帧701、该目标视频的多个音频帧的频域信息702,该目标视频的多个音频帧的时域信息703以及该多个子特征的目标参数绘制成的折线图704,704能够从整体上反映多个子特征的目标参数的变化情况。
在一些实施例中,上述步骤305由时间点确定模型的目标参数确定子模型实现。
306、服务器将该多个时间点中目标参数符合目标条件的时间点,确定为插入背景音乐的候选时间点。
其中,候选时间点也即是服务器确定出的适合插入背景音乐的时间点,视频制作人员能够在候选时间点中进行选择,确定在目标视频中插入背景音乐的目标时间点。候选时间点的数量为一个或者多个,本申请实施例对此不做限定。
在一种可能的实施方式中,目标参数符合目标条件是指,目标参数大于或等于参数阈值,该参数阈值由技术人员根据实际情况进行设置,本申请实施例对此不做限定。服务器将该多个时间点中,目标参数大于或等于该参数阈值的时间点,确定为插入背景音乐的候选时间点。
在一些实施例中,在服务器确定出候选时间点之后,视频制作人员能够在确定出的候选时间点中进行选择,确定最终插入背景音乐的目标时间点。比如,服务器将该目标视频的候选时间点发送给终端,由终端将该目标视频的候选时间点展示给视频制作人员。响应于任一候选时间点被选中,终端在被选中的候选时间点插入背景音乐,该被选中的候选时间点也即是目标时间点。在一些实施例中,终端接收到服务器发送的目标视频的候选时间点之后,能够将该候选时间点显示在该目标视频的时间轴上,比如,终端在该目标视频的时间轴上以圆点的形式显示该候选时间点。视频制作人员能够通过点击不同的候选时间点来控制终端播放目标视频的不同内容,并根据播放的内容来从候选时间点中选择插入背景音乐的目标时间点。基于候选时间点进行选择时,大大缩小了确定插入背景音乐的目标时间点的范围,提高了背景音乐的插入效率。
下面将结合图8以及上述步骤301-306中各个可能的实施方式,对本申请实施例提供的背景音乐的插入时间点确定方法进行说明,参见图8,服务器获取目标视频801,服务器对该目标视频的视频轨道(多个视频帧)进行特征提取,得到该目标视频的图像特征802,在对目标视频的视频轨道进行特征提取时,采用了IResNet模型来实现。服务器对该目标视频的音频轨道(多个音频帧)进行特征提取,得到该目标视频的音频特征803,在对目标视频的音频轨道进行特征提取时,采用了PANNs模型来实现。服务器通过时间点确定模型,将该目标视频的图像特征802和音频特征803进行融合,得到该目标视频的视频特征804。服务器基于注意力机制,对该视频特征804中每两个子特征进行编码,得到各个子特征的目标参数805。
需要说明的是,在上述说明过程中,是以服务器为执行主体为例进行说明的,在其他可能的实施方式中,本申请实施例提供的技术方案也能够由终端执行,本申请实施例对此不做限定。
通过本申请实施例提供的技术方案,结合了目标视频的音频特征和图像特征来确定目标视频的视频特征,该视频特征能够较为准确地表示目标视频的内容。基于注意力机制对视频特征进行编码,得到多个目标参数,多个目标参数表示在对应时间点插入背景音乐的概率。基于多个时间点的目标参数,从多个时间点中确定出候选时间点,该候选时间点也即是可以在目标视频中插入背景音乐的时间点。在上述确定候选时间点的过程中,无需视频制作人员完整地观看目标视频,只需在确定出的候选时间点中进行选择即可,提高了在视频中插入背景音乐的效率。
在本申请实施例提供的技术方案中,提供了一种全自动的插曲(背景音乐)位置的确定方法,该方案能够通过音视频的高级语义特征来自动确定视频的插曲位置,然后为视频的后期制作或者视频的二创提供插曲位置备选,能够摆脱人工选择的方式,大大减少了视频的制作成本。同时使用时间点确定模型来对插入背景音乐的位置进行定位,可以模块化的科学计算数据,避免了因为人类感官差异而造成的时间点差异。
通过本申请实施例提供的技术方案,结合了目标视频的音频特征和图像特征来确定目标视频的视频特征,该视频特征能够较为准确地表示目标视频的内容。基于注意力机制对视频特征进行编码,得到多个目标参数,多个目标参数表示在对应时间点插入背景音乐的概率。基于多个时间点的目标参数,从多个时间点中确定出候选时间点,该候选时间点也即是可以在目标视频中插入背景音乐的时间点。在上述确定候选时间点的过程中,由于结合了注意力机制,使得确定出的候选时间点较为准确。同时在插入背景音乐时,无需视频制作人员完整地观看目标视频,只需在确定出的候选时间点中进行选择即可,在保证准确性的前提下,提高了在视频中插入背景音乐的效率。
上述步骤301-306包括服务器利用时间点确定模型来获取目标视频的候选时间点的实施方式,为了进行更加清楚的说明,下面以执行主体为服务器为例,对训练该时间点确定模型的方法进行说明,参见图9,方法包括下述步骤。
901、服务器将样本视频输入该时间点确定模型,通过该时间点确定模型对该样本视频进行音频分离,得到该样本视频的原始音频和背景音乐。
在一种可能的实施方式中,服务器将样本视频输入该时间点确定模型,通过该时间点确定模型对该样本视频的多个样本音频帧的样本频域信息进行特征提取,得到该样本视频的第一音频特征。服务器通过该时间点确定模型,采用多种尺度对该第一音频特征进行池化,得到该样本视频的多个第二音频特征。服务器通过该时间点确定模型,将该多个第二音频特征进行融合,得到该样本视频的音频分离特征。服务器通过该时间点确定模型,基于该音频分离特征对该样本频域信息进行分离,得到该样本视频的原始音频和背景音乐。
为了对上述实施方式进行更加清楚的说明,下面将分为四个部分对上述实施方式进行说明。
部分M、服务器将样本视频输入该时间点确定模型,通过该时间点确定模型对该样本视频的多个样本音频帧的样本频域信息进行特征提取,得到该样本视频的第一音频特征。
在一种可能的实施方式中,服务器将样本视频的多个样本音频帧的时域信息输入该时间点确定模型,通过该时间点确定模型将该多个样本音频帧的时域信息转化为该多个样本音频帧的频域信息。服务器通过该时间点确定模型,对该多个样本音频帧的频域信息进行卷积,得到该样本视频的第一音频特征。在一些实施例中,该时间点确定模型对该多个样本音频帧的频域信息进行卷积时采用的是空洞卷积核。比如,参见图10,服务器通过该时间点确定模型的音频分离单元,对该多个样本音频帧的频域信息1001进行卷积,得到该样本视频的第一音频特征1002。
部分N、服务器通过该时间点确定模型,采用多种尺度对该第一音频特征进行池化,得到该样本视频的多个第二音频特征。
其中,采用不同尺度对第一音频特征进行池化时,得到是不同尺寸的第二音频特征,也即是,一个尺度对应于一个尺寸,该多个第二音频特征为多个不同尺寸的第二音频特征。这种基于不同尺度的池化方法也被称为金字塔池化。
在一种可能的实施方式中,服务器通过该时间点确定模型的多个池化核,采用多种尺度对该第一音频特征进行池化,得到该样本视频的多个第二音频特征,该多个池化核对应于该多种尺度。比如,参见图10,服务器通过该时间点确定模型的音频分离单元的多个池化核,采用多种尺度对该第一音频特征1001进行池化,得到该样本视频的多个第二音频特征1002,从图10中可以看出,多个第二音频特征1002的尺寸均不相同。
部分O、服务器通过该时间点确定模型,将该多个第二音频特征进行融合,得到该样本视频的音频分离特征。
在一种可能的实施方式中,服务器通过该时间点确定模型,对该多个第二音频特征进行卷积,得到该样本视频的多个第三音频特征。服务器通过该时间点确定模型,对该多个第三音频特征进行上采样,得到该样本视频的多个第四音频特征,该多个第四音频特征的尺寸均与该第一音频特征相同。服务器通过该时间点确定模型,将该多个第四音频特征与该第一音频特征进行融合,得到该样本视频的音频分离特征。比如,参见图10,服务器通过该时间点确定模型的音频分离单元,对该多个第二音频特征1002进行卷积,得到该样本视频的多个第三音频特征1003。服务器通过该时间点确定模型,对该多个第三音频特征1003进行上采样,得到该样本视频的多个第四音频特征1004。服务器通过该时间点确定模型,将该多个第四音频特征1004与该第一音频特征1001进行融合后再进行卷积,得到该样本视频的音频分离特征。
在一些实施例中,上述实施方式由时间点确定模型的音频分离子模型实现。在一些实施例中,该音频分离子模型为金字塔结构网络(Pyramid Scene Parsing Network,PSPnet)。在PSPnet中,金字塔池化生成的不同尺度的特征图最终被拼接起来,再输入到全连接层以进行分类。在一些实施例中,金字塔结构可以融合四种不同尺度的特征:第一层突出显示的是最粗糙尺度的单个全局池化输出。其他层将第一音频特征映射划分为不同的尺度的第二音频特征,并形成针对不同第一音频特征中不同位置的集合表示。使用4层金字塔结构,池化核覆盖了第一音频特征的全部、一半和小部分。为了维护全局特性的权重,如果金字塔结构共有N个尺度,则在每个尺度后使用1×1卷积,将对应尺度的通道数量降为原本的1/N,N为正整数。然后通过双线性插值直接对低维特征进行上采样,得到与原始特征相同尺寸的特征。最后,将不同尺度的特征拼接起来,作为最终的音频分离特征。
部分P、服务器通过该时间点确定模型,基于该音频分离特征对该样本频域信息进行分离,得到该样本视频的原始音频和背景音乐。
在一种可能的实施方式中,服务器通过该时间点确定模型,基于该音频分离特征,确定该样本频域信息的边界信息,该边界信息用于表示该样本频域信息中原始音频和背景音乐之间的边界。服务器通过该时间点确定模型,基于该边界信息对该样本频域信息进行处理,得到该样本视频的原始音频和背景音乐。
在一种可能的实施方式中,服务器基于该样本视频的背景音乐在该样本视频中的出现时间,为该样本视频的多个时间点添加标签。
由于时间点的标签用于表示样本视频中背景音乐的出现时间,那么在服务器将该样本视频中的背景音乐和原始音频分离之后,基于分离出的背景音乐在样本视频中的出现时间为多个时间点添加标签即可,无需技术人员再手动添加标签,标签添加的效率较高。
需要说明的是,上述步骤901是可选步骤,在样本视频中存在背景音乐的情况下,服务器通过执行该步骤901能够去除该样本视频中的背景音乐,这样可以让时间点确定模型在训练阶段不受已有背景音乐的影响。在该样本视频中不存在背景音乐的情况下,服务器无须执行步骤901,直接执行下述步骤902即可,在直接执行下述步骤902的情况下,下述步骤902中的原始音频也即是该样本视频的音频。
902、服务器通过该时间点确定模型,对该样本视频的该原始音频和多个样本视频帧进行特征提取,得到该样本视频的样本音频特征以及样本图像特征。
其中,该样本视频的原始音频包括该样本视频的多个样本音频帧,服务器对样本视频的原始音频和该多个样本视频帧进行特征提取,得到该样本视频的样本音频特征以及样本图像特征的方法,与上述步骤302和303属于同一发明构思,实现过程参见上述步骤302和303的描述,在此不再赘述。
903、服务器通过该时间点确定模型,将该样本音频特征以及该样本图像特征进行融合,得到该样本视频的视频特征。
其中,服务器通过该时间点确定模型,将该样本音频特征以及该样本图像特征进行融合,得到该样本视频的视频特征的方法与上述步骤304属于同一发明构思,实现过程参见上述步骤304的描述,在此不再赘述。
904、服务器通过该时间点确定模型,基于注意力机制对该样本视频的视频特征进行编码,得到多个样本参数,该多个样本参数对应于该样本视频的多个时间点,该样本参数用于表示在对应时间点插入背景音乐的概率。
其中,服务器通过该时间点确定模型,基于注意力机制对该样本视频的视频特征进行编码,得到多个样本参数与上述步骤305属于同一发明构思,实现过程参见上述步骤305的描述,在此不再赘述。
905、服务器基于该样本视频的多个时间点的标签与该多个样本参数之间的差异信息,对该时间点确定模型进行训练,该标签用于表示该样本视频中背景音乐的出现时间。
其中,样本参数用于表示在对应时间点插入背景音乐的概率,在一些实施例中,样本参数与在对应时间点插入背景音乐的概率正相关,也即是样本参数越大,表示在对应时间点插入背景音乐的概率越高;样本参数越小,表示在对应时间点插入背景音乐的概率越低。标签用于表示该样本视频中背景音乐的出现时间,那么基于标签和样本参数之间的差异信息对时间点模型进行训练,就能够还得时间点确定模型学习到背景音乐在样本视频中的出现时间,从而在使用过程中输出候选时间点。
在一种可能的实施方式中,服务器基于该样本视频的多个时间点的标签与该多个样本参数之间的差异信息,构建目标损失函数。服务器采用梯度下降法,基于目标损失函数对该时间点确定模型进行训练。
比如,服务器将该多个样本参数进行归一化,使得该多个样本参数处于目标范围内。该多个时间点的标签包括该目标范围的最大值和最小值,该最大值表示对应时间点出现了背景音乐,该最小值表示对应时间点没有出现背景音乐。基于归一化后的多个样本参数与该多个时间点的标签对该时间点确定模型进行训练的目的是,使得确定出的样本参数在归一化后尽量接近该目标范围的最大值或者最小值,其中,在某个时间点出现了背景音乐的情况下,训练的目的也即是使得该时间点的样本参数尽量接近该目标范围的最大值;在该时间点没有出现了背景音乐的情况下,训练的目的也即是使得该时间点的样本参数尽量接近该目标范围的最小值。
下面将结合图11以及上述步骤901-905中各个可能的实施方式,对本申请实施例提供的背景音乐的插入时间点确定方法进行说明,参见图11,服务器从样本视频集合中获取样本视频1101,服务器对该样本视频的视频轨道(多个视频帧)进行特征提取,得到该样本视频的样本图像特征1102,在对样本视频的视频轨道进行特征提取时,采用了IResNet模型来实现。服务器对该样本视频的音频轨道(多个音频帧)进行音频分离,得到该目标视频的原始音频1103和背景音乐1104。服务器对该原始音频进行特征提取,得到该样本视频的样本音频特征1105,在对样本视频的音频轨道进行特征提取时,采用了PANNs模型来实现。服务器通过时间点确定模型,将该样本视频的样本图像特征1102和样本音频特征1105进行融合,得到该样本视频的视频特征1106。服务器基于注意力机制,对该视频特征1106中每两个子特征进行编码,得到各个子特征的样本参数1107。服务器基于背景音乐1104在样本视频中的出现时间,为该样本视频的多个时间点添加标签。服务器基于该多个样本参数与多个时间点之间的标签构建损失函数,基于该损失函数对该时间点确定模型进行训练。
相关技术中,往往会通过人工标注的时间点的相关信息作为标签参与到模型的训练中。本申请实施例提供技术方案使用了基于语义分割模型搭建的音频分离子模型,对样本视频的音轨进行音频分离,把音轨中原有的背景音乐分离开,计算出其时间位置作为时间点的标签直接参与到模型的训练中。该方法能够让模型通过样本视频学习到人类添加插曲位置的习惯信息。同时使用分离背景音乐得到的原始音频进行模型训练,能够让原始音频更趋向于实际落地推测时的音频,从而让时间点确定模型学习到更准确的音频特征。
在本申请实施例提供的技术方案中,使用了基于注意力机制来基于视频特征序列确定目标参数,也就是对整个视频特征序列中每个时间点可以当作候选时间点的置信度进行计算。该机制能够让时间点确定模型在整个视频特征序列上计算出每两个时间点之间的注意力参数,能够更准确的训练时间点确定模型的定位能力。
图12是本申请实施例提供的一种背景音乐的插入时间点确定装置的结构示意图,参见图12,装置包括:特征提取模块1201、特征融合模块1202 、编码模块1203以及候选时间点确定模块1204。
特征提取模块1201,用于提取目标视频的音频特征以及图像特征。
特征融合模块1202,用于将该音频特征以及该图像特征进行融合,得到该目标视频的视频特征。
编码模块1203,用于基于注意力机制对该目标视频的视频特征进行编码,得到多个目标参数,该多个目标参数对应于该目标视频的多个时间点,该目标参数用于表示在对应时间点插入背景音乐的概率。
候选时间点确定模块1204,用于将该多个时间点中目标参数符合目标条件的时间点,确定为插入背景音乐的候选时间点。
在一种可能的实施方式中,该特征提取模块1201,用于对该目标视频的多个音频帧进行特征提取,得到该目标视频的音频特征。对该目标视频的多个视频帧进行特征提取,得到该目标视频的图像特征。
在一种可能的实施方式中,该特征提取模块1201,用于对该多个音频帧的时域信息进行特征提取,得到该多个音频帧的时域音频特征。对该多个音频帧的频域信息进行特征提取,得到该多个音频帧的频域音频特征。基于该多个音频帧的时域音频特征和频域音频特征,获取该目标视频的音频特征。
在一种可能的实施方式中,该特征提取模块1201,用于采用多个一维卷积核对该多个音频帧的时域信息进行特征提取,得到该多个音频帧的时域音频特征。该对该多个音频帧的频域信息进行特征提取,得到该多个音频帧的频域音频特征包括:采用多个二维卷积核对该多个音频帧的频域信息进行特征提取,得到该多个音频帧的频域音频特征。
在一种可能的实施方式中,该特征融合模块1202,用于将该多个音频帧的时域音频特征和频域音频特征进行融合,得到该目标视频的初始音频特征。分别对该初始音频特征进行最大值池化和均值池化,得到该目标视频的第一池化特征和第二池化特征。将该第一池化特征以及该第二池化特征进行融合,得到该目标视频的音频特征。
在一种可能的实施方式中,该视频特征包括多个子特征,该多个子特征对应于该目标视频的多个时间点,该编码模块1203用于通过时间点确定模型,基于注意力机制对该多个子特征中每两个子特征进行编码,得到各个该子特征的目标参数。
在一种可能的实施方式中,该编码模块1203用于对于该多个子特征中的第一子特征,基于注意力机制确定该多个子特征中的多个第二子特征对该第一子特征的多个注意力参数。将该多个注意力参数进行融合,得到该第一子特征的目标参数。
在一种可能的实施方式中,该编码模块1203用于对该第一子特征进行全连接,得到该第一子特征的嵌入特征。对于该多个第二子特征中的任一第二子特征,对该第二子特征进行全连接,得到该第二子特征的嵌入特征。基于该第一子特征的嵌入特征和该第二子特征的嵌入特征,确定该第一子特征和该第二子特征之间的相似度参数。基于该第一子特征以及该第一子特征和该第二子特征之间的相似度参数,确定该第二子特征对该第一子特征的注意力参数。
在一种可能的实施方式中,该装置还包括:
训练模块,用于将样本视频输入该时间点确定模型,通过该时间点确定模型对该样本视频进行特征提取,得到该样本视频的样本音频特征以及样本图像特征。通过该时间点确定模型,将该样本音频特征以及该样本图像特征进行融合,得到该样本视频的视频特征。通过该时间点确定模型,基于注意力机制对该样本视频的视频特征进行编码,得到多个样本参数,该多个样本参数对应于该样本视频的多个时间点,该样本参数用于表示在对应时间点插入背景音乐的概率。基于该样本视频的多个时间点的标签与该多个样本参数之间的差异信息,对该时间点确定模型进行训练,该标签用于表示该样本视频中背景音乐的出现时间。
在一种可能的实施方式中,该装置还包括:
音频分离模块,用于通过该时间点确定模型对该样本视频进行音频分离,得到该样本视频的原始音频和背景音乐。
该训练模块还用于通过该时间点确定模型,对该样本视频的该原始音频和多个样本视频帧进行特征提取,得到该样本视频的样本音频特征以及样本图像特征。
在一种可能的实施方式中,该音频分离模块用于通过该时间点确定模型对该样本视频的多个样本音频帧的样本频域信息进行特征提取,得到该样本视频的第一音频特征。通过该时间点确定模型,采用多种尺度对该第一音频特征进行池化,得到该样本视频的多个第二音频特征。通过该时间点确定模型,将该多个第二音频特征进行融合,得到该样本视频的音频分离特征。通过该时间点确定模型,基于该音频分离特征对该样本频域信息进行分离,得到该样本视频的原始音频和背景音乐。
在一种可能的实施方式中,该音频分离模块用于对该多个第二音频特征进行卷积,得到该样本视频的多个第三音频特征。对该多个第三音频特征进行上采样,得到该样本视频的多个第四音频特征,该多个第四音频特征的尺寸均与该第一音频特征相同。将该多个第四音频特征与该第一音频特征进行融合,得到该样本视频的音频分离特征。
在一种可能的实施方式中,该音频分离模块用于基于该音频分离特征,确定该样本频域信息的边界信息,该边界信息用于表示该样本频域信息中原始音频和背景音乐之间的边界。基于该边界信息对该样本频域信息进行处理,得到该样本视频的原始音频和背景音乐。
在一种可能的实施方式中,该装置还包括:
标签添加模块,用于基于该样本视频的背景音乐在该样本视频中的出现时间,为该样本视频的多个时间点添加标签。
在一种可能的实施方式中,该特征提取模块1201还用于提取该目标视频的该音频特征、该图像特征以及字幕特征。
该特征融合模块1202,还用于将该目标视频的该音频特征、该图像特征以及字幕特征进行融合,得到该目标视频的视频特征。
需要说明的是:上述实施例提供的背景音乐的插入时间点确定装置在确定背景音乐的插入时间点时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将计算机设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的背景音乐的插入时间点确定装置与背景音乐的插入时间点确定方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
通过本申请实施例提供的技术方案,结合了目标视频的音频特征和图像特征来确定目标视频的视频特征,该视频特征能够较为准确地表示目标视频的内容。基于注意力机制对视频特征进行编码,得到多个目标参数,多个目标参数表示在对应时间点插入背景音乐的概率。基于多个时间点的目标参数,从多个时间点中确定出候选时间点,该候选时间点也即是可以在目标视频中插入背景音乐的时间点。在上述确定候选时间点的过程中,由于结合了注意力机制,使得确定出的候选时间点较为准确。同时在插入背景音乐时,无需视频制作人员完整地观看目标视频,只需在确定出的候选时间点中进行选择即可,在保证准确性的前提下,提高了在视频中插入背景音乐的效率。
本申请实施例提供了一种计算机设备,用于执行上述方法,该计算机设备可以实现为终端或者服务器,下面先对终端的结构进行介绍:
图13是本申请实施例提供的一种终端的结构示意图。
通常,终端1300包括有:一个或多个处理器1301和一个或多个存储器1302。
处理器1301可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1301可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1301也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1301可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1301还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1302可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1302还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1302中的非暂态的计算机可读存储介质用于存储至少一个计算机程序,该至少一个计算机程序用于被处理器1301所执行以实现本申请中方法实施例提供的背景音乐的插入时间点确定方法。
在一些实施例中,终端1300还可选包括有:外围设备接口1303和至少一个外围设备。处理器1301、存储器1302和外围设备接口1303之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1303相连。具体地,外围设备包括:射频电路1304、显示屏1305、摄像头组件1306、音频电路1307和电源1308中的至少一种。
外围设备接口1303可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1301和存储器1302。在一些实施例中,处理器1301、存储器1302和外围设备接口1303被集成在同一芯片或电路板上;在一些其他实施例中,处理器1301、存储器1302和外围设备接口1303中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1304用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1304通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1304将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1304包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。
显示屏1305用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1305是触摸显示屏时,显示屏1305还具有采集在显示屏1305的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1301进行处理。此时,显示屏1305还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。
摄像头组件1306用于采集图像或视频。可选地,摄像头组件1306包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。
音频电路1307可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1301进行处理,或者输入至射频电路1304以实现语音通信。
电源1308用于为终端1300中的各个组件进行供电。电源1308可以是交流电、直流电、一次性电池或可充电电池。
在一些实施例中,终端1300还包括有一个或多个传感器1309。该一个或多个传感器1309包括但不限于:加速度传感器1310、陀螺仪传感器1311、压力传感器1312、光学传感器1313以及接近传感器1314。
加速度传感器1310可以检测以终端1300建立的坐标系的三个坐标轴上的加速度大小。
陀螺仪传感器1311可以终端1300的机体方向及转动角度,陀螺仪传感器1311可以与加速度传感器1310协同采集用户对终端1300的3D动作。
压力传感器1312可以设置在终端1300的侧边框和/或显示屏1305的下层。当压力传感器1312设置在终端1300的侧边框时,可以检测用户对终端1300的握持信号,由处理器1301根据压力传感器1312采集的握持信号进行左右手识别或快捷操作。当压力传感器1312设置在显示屏1305的下层时,由处理器1301根据用户对显示屏1305的压力操作,实现对UI界面上的可操作性控件进行控制。
光学传感器1313用于采集环境光强度。在一个实施例中,处理器1301可以根据光学传感器1313采集的环境光强度,控制显示屏1305的显示亮度。
接近传感器1314用于采集用户与终端1300的正面之间的距离。
本领域技术人员可以理解,图13中示出的结构并不构成对终端1300的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
上述计算机设备还可以实现为服务器,下面对服务器的结构进行介绍:
图14是本申请实施例提供的一种服务器的结构示意图,该服务器1400可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器(Central Processing Units,CPU)1401和一个或多个的存储器1402,其中,所述一个或多个存储器1402中存储有至少一条计算机程序,所述至少一条计算机程序由所述一个或多个处理器1401加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器1400还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器1400还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条计算机程序,该计算机程序由处理器加载并执行以实现上述实施例中的背景音乐的插入时间点确定方法。例如,该计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述背景音乐的插入时间点确定方法。
在一些实施例中,本申请实施例所涉及的计算机程序可被部署在一个计算机设备上执行,或者在位于一个地点的多个计算机设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算机设备上执行,分布在多个地点且通过通信网络互连的多个计算机设备可以组成区块链系统。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来控制相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
上述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (18)
1.一种背景音乐的插入时间点确定方法,其特征在于,所述方法包括:
提取目标视频的音频特征以及图像特征;
将所述音频特征以及所述图像特征进行融合,得到所述目标视频的视频特征;
基于注意力机制对所述目标视频的视频特征进行编码,得到多个目标参数,所述多个目标参数对应于所述目标视频的多个时间点,所述目标参数用于表示在对应时间点插入背景音乐的概率;
将所述多个时间点中目标参数符合目标条件的时间点,确定为插入背景音乐的候选时间点。
2.根据权利要求1所述的方法,其特征在于,所述提取目标视频的音频特征以及图像特征包括:
对所述目标视频的多个音频帧进行特征提取,得到所述目标视频的音频特征;
对所述目标视频的多个视频帧进行特征提取,得到所述目标视频的图像特征。
3.根据权利要求2所述的方法,其特征在于,所述对所述目标视频的多个音频帧进行特征提取,得到所述目标视频的音频特征包括:
对所述多个音频帧的时域信息进行特征提取,得到所述多个音频帧的时域音频特征;
对所述多个音频帧的频域信息进行特征提取,得到所述多个音频帧的频域音频特征;
基于所述多个音频帧的时域音频特征和频域音频特征,获取所述目标视频的音频特征。
4.根据权利要求3所述的方法,其特征在于,所述对所述多个音频帧的时域信息进行特征提取,得到所述多个音频帧的时域音频特征包括:
采用多个一维卷积核对所述多个音频帧的时域信息进行特征提取,得到所述多个音频帧的时域音频特征;
所述对所述多个音频帧的频域信息进行特征提取,得到所述多个音频帧的频域音频特征包括:
采用多个二维卷积核对所述多个音频帧的频域信息进行特征提取,得到所述多个音频帧的频域音频特征。
5.根据权利要求3所述的方法,其特征在于,所述基于所述多个音频帧的时域音频特征和频域音频特征,获取所述目标视频的音频特征包括:
将所述多个音频帧的时域音频特征和频域音频特征进行融合,得到所述目标视频的初始音频特征;
分别对所述初始音频特征进行最大值池化和均值池化,得到所述目标视频的第一池化特征和第二池化特征;
将所述第一池化特征以及所述第二池化特征进行融合,得到所述目标视频的音频特征。
6.根据权利要求1所述的方法,其特征在于,所述视频特征包括多个子特征,所述多个子特征对应于所述目标视频的多个时间点,所述基于注意力机制对所述目标视频的视频特征进行编码,得到多个目标参数包括:
通过时间点确定模型,基于注意力机制对所述多个子特征中每两个子特征进行编码,得到各个所述子特征的目标参数。
7.根据权利要求6所述的方法,其特征在于,所述基于注意力机制对所述多个子特征中每两个子特征进行编码,得到各个所述子特征的目标参数包括:
对于所述多个子特征中的第一子特征,基于注意力机制确定所述多个子特征中的多个第二子特征对所述第一子特征的多个注意力参数;
将所述多个注意力参数进行融合,得到所述第一子特征的目标参数。
8.根据权利要求7所述的方法,其特征在于,所述基于注意力机制确定所述多个子特征中的多个第二子特征对所述第一子特征的多个注意力参数包括:
对所述第一子特征进行全连接,得到所述第一子特征的嵌入特征;
对于所述多个第二子特征中的任一第二子特征,对所述第二子特征进行全连接,得到所述第二子特征的嵌入特征;
基于所述第一子特征的嵌入特征和所述第二子特征的嵌入特征,确定所述第一子特征和所述第二子特征之间的相似度参数;
基于所述第一子特征以及所述第一子特征和所述第二子特征之间的相似度参数,确定所述第二子特征对所述第一子特征的注意力参数。
9.根据权利要求6-8任一项所述的方法,其特征在于,所述方法还包括:
将样本视频输入所述时间点确定模型,通过所述时间点确定模型对所述样本视频进行特征提取,得到所述样本视频的样本音频特征以及样本图像特征;
通过所述时间点确定模型,将所述样本音频特征以及所述样本图像特征进行融合,得到所述样本视频的视频特征;
通过所述时间点确定模型,基于注意力机制对所述样本视频的视频特征进行编码,得到多个样本参数,所述多个样本参数对应于所述样本视频的多个时间点,所述样本参数用于表示在对应时间点插入背景音乐的概率;
基于所述样本视频的多个时间点的标签与所述多个样本参数之间的差异信息,对所述时间点确定模型进行训练,所述标签用于表示所述样本视频中背景音乐的出现时间。
10.根据权利要求9所述的方法,其特征在于,所述通过所述时间点确定模型对所述样本视频进行特征提取,得到所述样本视频的样本音频特征以及样本图像特征之前,所述方法还包括:
通过所述时间点确定模型对所述样本视频进行音频分离,得到所述样本视频的原始音频和背景音乐;
所述通过所述时间点确定模型对所述样本视频进行特征提取,得到所述样本视频的样本音频特征以及样本图像特征包括:
通过所述时间点确定模型,对所述样本视频的所述原始音频和多个样本视频帧进行特征提取,得到所述样本视频的样本音频特征以及样本图像特征。
11.根据权利要求10所述的方法,其特征在于,所述通过所述时间点确定模型对所述样本视频进行音频分离,得到所述样本视频的原始音频和背景音乐包括:
通过所述时间点确定模型对所述样本视频的多个样本音频帧的样本频域信息进行特征提取,得到所述样本视频的第一音频特征;
通过所述时间点确定模型,采用多种尺度对所述第一音频特征进行池化,得到所述样本视频的多个第二音频特征;
通过所述时间点确定模型,将所述多个第二音频特征进行融合,得到所述样本视频的音频分离特征;
通过所述时间点确定模型,基于所述音频分离特征对所述样本频域信息进行分离,得到所述样本视频的原始音频和背景音乐。
12.根据权利要求11所述的方法,其特征在于,所述将所述多个第二音频特征进行融合,得到所述样本视频的音频分离特征包括:
对所述多个第二音频特征进行卷积,得到所述样本视频的多个第三音频特征;
对所述多个第三音频特征进行上采样,得到所述样本视频的多个第四音频特征,所述多个第四音频特征的尺寸均与所述第一音频特征相同;
将所述多个第四音频特征与所述第一音频特征进行融合,得到所述样本视频的音频分离特征。
13.根据权利要求11所述的方法,其特征在于,所述基于所述音频分离特征对所述样本频域信息进行分离,得到所述样本视频的原始音频和背景音乐包括:
基于所述音频分离特征,确定所述样本频域信息的边界信息,所述边界信息用于表示所述样本频域信息中原始音频和背景音乐之间的边界;
基于所述边界信息对所述样本频域信息进行处理,得到所述样本视频的原始音频和背景音乐。
14.根据权利要求10所述的方法,其特征在于,所述方法还包括:
基于所述样本视频的背景音乐在所述样本视频中的出现时间,为所述样本视频的多个时间点添加标签。
15.根据权利要求1所述的方法,其特征在于,所述提取目标视频的音频特征以及图像特征包括:
提取所述目标视频的所述音频特征、所述图像特征以及字幕特征;
所述将所述音频特征以及所述图像特征进行融合,得到所述目标视频的视频特征包括:
将所述目标视频的所述音频特征、所述图像特征以及字幕特征进行融合,得到所述目标视频的视频特征。
16.一种背景音乐的插入时间点确定装置,其特征在于,所述装置包括:
特征提取模块,用于提取目标视频的音频特征以及图像特征;
特征融合模块,用于将所述音频特征以及所述图像特征进行融合,得到所述目标视频的视频特征;
编码模块,用于基于注意力机制对所述目标视频的视频特征进行编码,得到多个目标参数,所述多个目标参数对应于所述目标视频的多个时间点,所述目标参数用于表示在对应时间点插入背景音乐的概率;
候选时间点确定模块,用于将所述多个时间点中目标参数符合目标条件的时间点,确定为插入背景音乐的候选时间点。
17.一种计算机设备,其特征在于,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条计算机程序,所述计算机程序由所述一个或多个处理器加载并执行以实现如权利要求1至权利要求15任一项所述的背景音乐的插入时间点确定方法。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,所述计算机程序由处理器加载并执行以实现如权利要求1至权利要求15任一项所述的背景音乐的插入时间点确定方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210393110.3A CN114495916B (zh) | 2022-04-15 | 2022-04-15 | 背景音乐的插入时间点确定方法、装置、设备和存储介质 |
PCT/CN2023/077645 WO2023197749A1 (zh) | 2022-04-15 | 2023-02-22 | 背景音乐的插入时间点确定方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210393110.3A CN114495916B (zh) | 2022-04-15 | 2022-04-15 | 背景音乐的插入时间点确定方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114495916A CN114495916A (zh) | 2022-05-13 |
CN114495916B true CN114495916B (zh) | 2022-07-12 |
Family
ID=81489589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210393110.3A Active CN114495916B (zh) | 2022-04-15 | 2022-04-15 | 背景音乐的插入时间点确定方法、装置、设备和存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114495916B (zh) |
WO (1) | WO2023197749A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114495916B (zh) * | 2022-04-15 | 2022-07-12 | 腾讯科技(深圳)有限公司 | 背景音乐的插入时间点确定方法、装置、设备和存储介质 |
CN117854535B (zh) * | 2024-03-08 | 2024-05-07 | 中国海洋大学 | 基于交叉注意力的视听语音增强方法及其模型搭建方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107682642A (zh) * | 2017-09-19 | 2018-02-09 | 广州艾美网络科技有限公司 | 识别视频特效触发时间点的方法、装置和终端设备 |
CN110335625A (zh) * | 2019-07-08 | 2019-10-15 | 百度在线网络技术(北京)有限公司 | 背景音乐的提示及识别方法、装置、设备以及介质 |
CN110740262A (zh) * | 2019-10-31 | 2020-01-31 | 维沃移动通信有限公司 | 背景音乐的添加方法、装置及电子设备 |
CN111970579A (zh) * | 2020-08-14 | 2020-11-20 | 苏州思萃人工智能研究所有限公司 | 基于ai视频理解的视频音乐适配方法与系统 |
WO2021057740A1 (zh) * | 2019-09-26 | 2021-04-01 | 北京字节跳动网络技术有限公司 | 视频生成方法、装置、电子设备和计算机可读介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111198958A (zh) * | 2018-11-19 | 2020-05-26 | Tcl集团股份有限公司 | 匹配背景音乐的方法、装置及终端 |
CN109462776B (zh) * | 2018-11-29 | 2021-08-20 | 北京字节跳动网络技术有限公司 | 一种视频特效添加方法、装置、终端设备及存储介质 |
CN109862393B (zh) * | 2019-03-20 | 2022-06-14 | 深圳前海微众银行股份有限公司 | 视频文件的配乐方法、系统、设备及存储介质 |
US10841666B1 (en) * | 2020-03-31 | 2020-11-17 | Amazon Technologies, Inc. | Generation of points of insertion of directed content into a video asset |
CN111988663B (zh) * | 2020-08-28 | 2022-09-06 | 北京百度网讯科技有限公司 | 视频播放节点的定位方法、装置、设备以及存储介质 |
CN113569088B (zh) * | 2021-09-27 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 一种音乐推荐方法、装置以及可读存储介质 |
CN114495916B (zh) * | 2022-04-15 | 2022-07-12 | 腾讯科技(深圳)有限公司 | 背景音乐的插入时间点确定方法、装置、设备和存储介质 |
-
2022
- 2022-04-15 CN CN202210393110.3A patent/CN114495916B/zh active Active
-
2023
- 2023-02-22 WO PCT/CN2023/077645 patent/WO2023197749A1/zh unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107682642A (zh) * | 2017-09-19 | 2018-02-09 | 广州艾美网络科技有限公司 | 识别视频特效触发时间点的方法、装置和终端设备 |
CN110335625A (zh) * | 2019-07-08 | 2019-10-15 | 百度在线网络技术(北京)有限公司 | 背景音乐的提示及识别方法、装置、设备以及介质 |
WO2021057740A1 (zh) * | 2019-09-26 | 2021-04-01 | 北京字节跳动网络技术有限公司 | 视频生成方法、装置、电子设备和计算机可读介质 |
CN110740262A (zh) * | 2019-10-31 | 2020-01-31 | 维沃移动通信有限公司 | 背景音乐的添加方法、装置及电子设备 |
CN111970579A (zh) * | 2020-08-14 | 2020-11-20 | 苏州思萃人工智能研究所有限公司 | 基于ai视频理解的视频音乐适配方法与系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2023197749A1 (zh) | 2023-10-19 |
WO2023197749A9 (zh) | 2024-01-04 |
CN114495916A (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109117777B (zh) | 生成信息的方法和装置 | |
CN111597779B (zh) | 文本生成方法、装置、设备以及存储介质 | |
CN111930992A (zh) | 神经网络训练方法、装置及电子设备 | |
CN114495916B (zh) | 背景音乐的插入时间点确定方法、装置、设备和存储介质 | |
CN113515942A (zh) | 文本处理方法、装置、计算机设备及存储介质 | |
CN109271542A (zh) | 封面确定方法、装置、设备及可读存储介质 | |
CN111491187B (zh) | 视频的推荐方法、装置、设备及存储介质 | |
CN111078940B (zh) | 图像处理方法、装置、计算机存储介质及电子设备 | |
CN113487618B (zh) | 人像分割方法、装置、电子设备及存储介质 | |
CN112069309A (zh) | 信息获取方法、装置、计算机设备及存储介质 | |
CN113254684B (zh) | 一种内容时效的确定方法、相关装置、设备以及存储介质 | |
CN113392687A (zh) | 视频标题生成方法、装置、计算机设备及存储介质 | |
CN115858826A (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
CN116050496A (zh) | 图片描述信息生成模型的确定方法及装置、介质、设备 | |
CN113766299A (zh) | 一种视频数据播放方法、装置、设备以及介质 | |
CN113569607A (zh) | 动作识别方法、装置、设备以及存储介质 | |
CN112085120A (zh) | 多媒体数据的处理方法、装置、电子设备及存储介质 | |
CN117094362B (zh) | 一种任务处理方法及相关装置 | |
CN113515994A (zh) | 视频特征提取方法、装置、设备以及存储介质 | |
CN113763931A (zh) | 波形特征提取方法、装置、计算机设备及存储介质 | |
CN113569002A (zh) | 文本搜索方法、装置、设备以及存储介质 | |
CN116721449A (zh) | 视频识别模型的训练方法、视频识别方法、装置以及设备 | |
CN114419514B (zh) | 一种数据处理方法、装置、计算机设备及存储介质 | |
CN115131291A (zh) | 对象计数模型的训练方法、装置、设备以及存储介质 | |
CN114462539A (zh) | 一种内容分类模型的训练方法、内容分类的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40070908 Country of ref document: HK |