CN114189738B - 音效合成方法、装置、电子设备及存储介质 - Google Patents
音效合成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114189738B CN114189738B CN202111547899.5A CN202111547899A CN114189738B CN 114189738 B CN114189738 B CN 114189738B CN 202111547899 A CN202111547899 A CN 202111547899A CN 114189738 B CN114189738 B CN 114189738B
- Authority
- CN
- China
- Prior art keywords
- audio
- video
- visual
- information
- target video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000694 effects Effects 0.000 title claims description 48
- 238000001308 synthesis method Methods 0.000 title abstract description 13
- 230000009012 visual motion Effects 0.000 claims abstract description 66
- 230000000007 visual effect Effects 0.000 claims abstract description 63
- 230000003287 optical effect Effects 0.000 claims abstract description 47
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 30
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 30
- 238000012512 characterization method Methods 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 37
- 230000033001 locomotion Effects 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 23
- 238000013527 convolutional neural network Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 14
- 230000002194 synthesizing effect Effects 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 230000001052 transient effect Effects 0.000 claims description 7
- 230000002902 bimodal effect Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 13
- 230000004913 activation Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术,提供一种音效合成方法,将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口,将预训练的上下文表示模型与所述光流帧滑动窗口相连接以形成视觉表征信息模型,将目标视频输入视觉表征信息模型中以提取视觉运动表征信息,通过预设的对齐器判断目标视频中的音频与视觉运动表征信息是否同源,若同源,则将目标视频中的音频作为目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与视觉运动表征信息相对应的匹配音频,再基于时间戳将匹配音频与目标视频中的视频相对应以完成视频音效合成,提高音视频的匹配性。
Description
技术领域
本发明涉及人工智能领域下的跨模态转换技术领域,尤其涉及一种音效合成方法、装置、电子设备及计算机可读存储介质。
背景技术
短视频自媒体时代,从互联网伊始发送的文字图像到现在以短视频为主的传播的爆发,使得互联网的媒介形式发生了翻天覆地的变化,从而也导致了网络平台上的待处理信息的数据处理难度呈指数级增长。尤其是在蓬勃发展的短视频领域,短视频制作的需求激增,为了从短视频中获取有效信息,并辅助用户通过音效来增进短视频内容的情感表达,基于视频理解的音效合成处理技术应运而生。
目前,智能音效匹配合成已经在短视频制作、电影配音、游戏音效等诸多领域发挥了重要作用,成为现代互联网应用场景中不可缺少的一部分。然而,现有的智能音效匹配合成方法主要是基于类别检索或是运动信息不敏感的合成,忽略了视频表达的丰富性和视频内发声物体运动的动态变化。
因此,亟需一种能够增加视频表达丰富性,使得媒体更加智能化的音效合成方法。
发明内容
本发明提供一种音效合成方法、装置、电子设备及计算机可读存储介质,以解决现有的智能音效匹配合成方法主要是基于类别检索或是运动信息不敏感的合成,忽略了视频表达的丰富性和视频内发声物体运动的动态变化的问题。
为实现上述目的,本发明提供的一种音效合成方法,包括:
将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口;
将预训练的上下文表示模型与所述光流帧滑动窗口相连接以形成视觉表征信息模型;其中,所述上下文表示模型通过对预设的卷积神经网络进行反复训练形成;
将目标视频输入所述视觉表征信息模型中以提取视觉运动表征信息;
通过预设的对齐器判断所述目标视频中的音频与所述视觉运动表征信息是否同源,若同源,则将所述目标视频中的音频作为所述目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与所述视觉运动表征信息相对应的匹配音频;所述对齐器为音视频对齐器;
基于所述时间戳将所述匹配音频与所述目标视频中的视频相对应以完成视频音效合成。
可选地,将目标视频输入所述视觉表征信息模型中以提取视觉运动表征信息的过程,包括:
将目标视频输入所述视觉表征信息模型以通过所述光流帧滑动窗口接收所述目标视频,并使所述双流模型在每个时间戳的滑动窗口上提取关于所述目标视频的RGB图像帧和光流帧的视觉信息;
对所述光流帧的视觉信息进行特征提取以形成运动特征,并对所述RGB图像帧进行采样以获取外观特征;
基于所述运动特征与所述外观特征进行级联以获取视觉的瞬时嵌入特征;
通过所述调节器对所述瞬时嵌入特征进行多时间尺度的运动信息提取以提取视觉运动表征信息。
可选地,所述双流模型为双流BN-Inception模型;
所述调节器为具有时间感受野的一维CNN网络。
可选地,通过预设的对齐器判断所述目标视频中的音频与所述视觉运动表征信息的过程包括:
对所述目标视频进行解析处理以形成视频和音频;
判断所述视频与所述音频是否同源,若同源则输出同源结果,若不同源则输出非同源结果。
可选地,判断所述视频与所述音频是否同源的过程,包括:
通过所述对齐器中的编码器对所述音频进行编码处理以形成频谱图;其中,所述编码器包括短时傅里叶变换和梅尔滤波器;
通过间隔采样卷积对所述频谱图进行降采样以生成卷积块处理特征;
将所述卷积块处理特征作为两层双向LSTM网络的输入以生成音频嵌入数据,并将所述音频嵌入数据和所述视觉运动表征信息的双模态特征输入至两层前馈网络中以生成关于所述音频是否同源的结果。
可选地,通过预设的音效生成模块生成与所述视觉运动表征信息相对应的匹配音频的过程,包括:
通过所述音效生成模块获取关于所述目标视频的匹配视觉嵌入数据;
将所述匹配视觉嵌入数据转换为匹配频谱图,并通过预设的声码器生成与所述匹配频谱图相对应的匹配音频。
为了解决上述问题,本发明还提供一种音效合成装置,所述装置包括:
窗口创建单元,用于将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口;
模型创建单元,用于将预训练的上下文表示模型与所述光流帧滑动窗口相连接以形成视觉表征信息模型;其中,所述上下文表示模型通过对预设的卷积神经网络进行反复训练形成;
信息生成单元,用于将目标视频输入所述视觉表征信息模型中以提取视觉运动表征信息;
音频匹配单元,用于通过预设的对齐器判断所述目标视频中的音频与所述视觉运动表征信息是否同源,若同源,则将所述目标视频中的音频作为所述目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与所述视觉运动表征信息相对应的匹配音频;所述对齐器为音视频对齐器;
音效合成单元,用于基于时间戳将所述匹配音频与所述目标视频中的视频相对应以完成视频音效合成。
优选地,所述信息生成单元包括:
数据双流模块,用于将目标视频输入所述视觉表征信息模型通过光流帧滑动窗口接收所述目标视频,并使所述双流模型在每个时间戳的滑动窗口上提取关于所述目标视频的RGB图像帧和光流帧的视觉信息;
特征提取模块,用于对所述光流帧的视觉信息进行特征提取以形成运动特征,并对所述RGB图像帧进行采样以获取外观特征;
数据嵌入模块,用于基于所述运动特征与所述外观特征进行级联以获取视觉的瞬时嵌入特征;
信息表征模块,通过所述的调节器对所述瞬时嵌入特征进行多时间尺度的运动信息提取以提取视觉运动表征信息。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的音效合成方法中的步骤。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的音效合成方法。
本发明实施例首先将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口,将预训练的上下文表示模型与所述光流帧滑动窗口相连接以形成视觉表征信息模型,再将目标视频输入所述视觉表征信息模型中以提取视觉运动表征信息,而后通过预设的对齐器判断所述目标视频中的音频与所述视觉运动表征信息是否同源,若同源,则将所述目标视频中的音频作为所述目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与所述视觉运动表征信息相对应的匹配音频,再基于时间戳将所述匹配音频与所述目标视频中的视频相对应以完成视频音效合成,如此,通过对发声运动进行建模,充分挖掘发声运动和静止之间的区别,提高模型对于运动状态的判别力,从而更有效的捕获局部的瞬时运动,同时引入对齐机制,以更加准确地进行短视频发声运动的表示,提高音效合成的同步性能。
附图说明
图1为本发明一实施例提供的音效合成方法的流程示意图;
图2为本发明一实施例提供的音效合成装置的模块示意图;
图3为本发明一实施例提供的音效合成方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,在本实施例中,音效合成方法包括:
S1:将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口;
S2:将预训练的上下文表示模型与光流帧滑动窗口相连接以形成视觉表征信息模型;其中,上下文表示模型通过对预设的卷积神经网络与非线性激活函数进行反复训练形成;
S3:将目标视频输入视觉表征信息模型中以提取视觉运动表征信息;
S4:通过预设的对齐器判断目标视频中的音频与视觉运动表征信息是否同源,若同源,则将目标视频中的音频作为目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与视觉运动表征信息相对应的匹配音频;
S5:基于时间戳将匹配音频与目标视频中的视频相对应以完成视频音效合成。
在图1所示的实施例中,步骤S1为将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口的过程,该过程为设计一个以每个时间戳为中心的连续五个光流帧的重叠时间滑动窗口来提取运动特征,同时对一个RGB帧进行采样以获得外观特征的过程,在本实施例中,该双流模型为双流BN-Inception模型,即利用双流BN-Inception模型作为主干网络,在每个时间戳提取RGB帧(RGB图像帧)和光流帧的视觉信息,采用双流模型进行分流的目的是通过增加的光流通道来捕捉细粒度的运动线索,例如一些瞬时运动,这在短视频的案例中是至关重要的,因为视频主要以快速变化的物体运动构成,由于BN-Inception在有效性和效率之间有着很好的平衡,故在本实施例中选择BN-Inception作为网络主干。
在图1所示的实施例中,步骤S2为对预设的卷积神经网络与非线性激活函数进行反复训练以形成上下文表示模型,并将上下文表示模型与光流帧滑动窗口相连接以形成视觉表征信息模型的过程,在该过程中,由于时间上下文相关信息中的视觉表示之间存在着序列及语义关系,而卷积神经网络CNN可以有效的学习局部感受野的上下文表示,因此在本实施例中,涉及到的卷积神经网络为一维CNN网络,调节器也为具有时间感受野的一维CNN网络,即通过使用具有时间感受野的一维CNN与一种非线性激活函数ReLU方法来获取这些信息表示以获取视觉运动表征信息,同时结合dropout来对局部的时间连接进行随机丢弃,从而获得冗余的多时间尺度建模能力。
在图1所示的实施例中,步骤S3为将目标视频输入视觉表征信息模型中以提取视觉运动表征信息的过程,在该过程中,将目标视频输入视觉表征信息模型中以提取视觉运动表征信息的过程,包括:
S31:将目标视频输入视觉表征信息模型以通过光流帧滑动窗口接收目标视频,并使双流模型在每个时间戳上提取关于所述目标视频的RGB图像帧和光流帧的视觉信息;
S32:对光流帧的视觉信息进行特征提取以形成运动特征,并对RGB图像帧进行采样以获取外观特征;
S33:基于运动特征与外观特征进行级联以获取视觉的瞬时嵌入数据;
S34:通过所述的调节器对所述瞬时嵌入特征进行多时间尺度的运动信息提取以提取视觉运动表征信息。
在图1所示的实施例中,步骤S4为通过预设的对齐器判断目标视频中的音频与视觉运动表征信息是否同源的过程,若同源,则将目标视频中的音频作为目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与视觉运动表征信息相对应的匹配音频;其中,通过预设的对齐器判断目标视频中的音频与视觉运动表征信息是否同源的过程包括:
S41:对目标视频进行解析处理以形成视频和音频;
S42:判断视频与音频是否同源,若同源则输出同源结果,若不同源则输出非同源结果;
在本实施例中,该对齐器为时间尺度对齐器,时间尺度对齐器可以看作是一个二分类器,该同源结果和非同源结果可以以数字表示,也可以以字符表示,在本实施例中以数字表示,如果输入的音频流和视频帧来自同一视频样本,则输出结果1,相反,如果音频流采集自另一个视频中,它将输出结果0;时间尺度对齐器旨在寻找具有时间同步敏感的音视频联合嵌入空间,在这个联合嵌入空间中,视觉嵌入V t 期望接近与其成对的音频嵌入A t ,以狗叫为例,在嵌入空间中,狗的张嘴动作的视觉嵌入表示要与狗叫声的音频嵌入表示足够接近,例如都是声音隶属于狗叫这一类别的音效,但是来自于另一个狗叫视频,是为了迫使网络识别时间同步,而不仅仅是音频和视频输入之间的类别信息关联。
其中,判断视频与音频是否同源的过程,包括:
S421:通过对齐器中的编码器对音频进行编码处理以形成频谱图;其中,编码器包括卷积块;
S422:通过间隔采样卷积对频谱图进行降采样以生成卷积块处理特征;
S423:将卷积块处理特征作为两层双向LSTM网络的输入以生成音频嵌入数据,并将音频嵌入数据和视觉嵌入数据的双模态特征输入至两层前馈网络中以生成关于音频是否同源的结果;
并且,在步骤S4中通过预设的音效生成模块生成与视觉运动表征信息相对应的匹配音频的过程,包括:
通过音效生成模块获取关于目标视频的匹配视觉嵌入数据;
将匹配视觉嵌入数据转换为匹配频谱图,并生成与匹配频谱图相对应的匹配音频。
在图1所示的实施例中,步骤S5为基于时间戳将匹配音频与目标视频中的视频相对应以完成视频音效合成的过程,在该过程中,基于上述瞬时嵌入数据进行二次时间戳比对,如此确保视频与匹配音频完美契合。
如上所述,本发明提供的音效合成方法首先将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口,将预训练的上下文表示模型与所述光流帧滑动窗口相连接以形成视觉表征信息模型,再将目标视频输入视觉表征信息模型中以提取视觉运动表征信息,而后通过预设的对齐器判断目标视频中的音频与视觉运动表征信息是否同源,若同源,则将目标视频中的音频作为目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与视觉运动表征信息相对应的匹配音频,再基于时间戳将匹配音频与目标视频中的视频相对应以完成视频音效合成,如此,通过对发声运动进行建模,充分挖掘发声运动和静止之间的区别,提高模型对于运动状态的判别力,从而更有效的捕获局部的瞬时运动,同时引入对齐机制,以更加准确地进行短视频发声运动的表示,提高音效合成的同步性能。
如图2所示,本发明提供一种音效合成装置100,本发明可以安装于电子设备中。根据实现的功能,该音效合成装置100可以包括窗口创建单元101、模型训练单元102、信息生成单元103、音频匹配单元104、音效合成单元105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
窗口创建单元101,用于将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口;
模型创建单元102,用于将预训练的上下文表示模型与光流帧滑动窗口相连接以形成视觉表征信息模型;其中,上下文表示模型通过对预设的卷积神经网络与非线性激活函数进行反复训练形成;
信息生成单元103,用于将目标视频输入视觉表征信息模型中以提取视觉运动表征信息;
音频匹配单元104,用于通过预设的对齐器判断目标视频中的音频与视觉运动表征信息是否同源,若同源,则将目标视频中的音频作为目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与视觉运动表征信息相对应的匹配音频;
音效合成单元105,用于基于时间戳将匹配音频与目标视频中的视频相对应以完成视频音效合成。
信息生成单元103包括:
数据双流模块103-1,用于将目标视频输入所述视觉表征信息模型通过光流帧滑动窗口接收所述目标视频,并使所述双流模型在每个时间戳的滑动窗口上提取关于目标视频的RGB图像帧和光流帧的视觉信息;
特征提取模块103-2,用于对光流帧的视觉信息进行特征提取以形成运动特征,并对RGB图像帧进行采样以获取外观特征;
数据嵌入模块103-3,用于基于所述运动特征与所述外观特征进行级联以获取视觉的瞬时嵌入特征;
信息表征模块103-4,用于通过所述的调节器对所述瞬时嵌入特征进行多时间尺度的运动信息提取以提取视觉运动表征信息。
如上所述,本发明提供的音效合成装置,首先通过窗口创建单元101将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口,再通过模型训练单元102将预训练的上下文表示模型与所述光流帧滑动窗口相连接以形成视觉表征信息模型,再由信息生成单元103将目标视频输入视觉表征信息模型中以提取视觉运动表征信息,而后由音频匹配单元104通过预设的对齐器判断目标视频中的音频与视觉运动表征信息是否同源,若同源,则将所述目标视频中的音频作为目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与视觉运动表征信息相对应的匹配音频,再通过音效合成单元105基于时间戳将所述匹配音频与目标视频中的视频相对应以完成视频音效合成,如此,通过对发声运动进行建模,充分挖掘发声运动和静止之间的区别,提高模型对于运动状态的判别力,从而更有效的捕获局部的瞬时运动,同时引入对齐机制,以更加准确地进行短视频发声运动的表示,提高音效合成的同步性能。
如图3所示,本发明提供一种实现音效合成方法的电子设备1。
该电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在存储器11中并可在所述处理器10上运行的计算机程序,如音效合成方法程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如音效合成的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如音效合成程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的音效合成程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口;
将预训练的上下文表示模型与光流帧滑动窗口相连接以形成视觉表征信息模型;其中,上下文表示模型通过对预设的卷积神经网络与非线性激活函数进行反复训练形成;
将目标视频输入视觉表征信息模型中以提取视觉运动表征信息;
通过预设的对齐器判断目标视频中的音频与视觉运动表征信息是否同源,若同源,则将目标视频中的音频作为目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与视觉运动表征信息相对应的匹配音频;
基于时间戳将匹配音频与目标视频中的视频相对应以完成视频音效合成。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。需要强调的是,为进一步保证上述音效合成的私密和安全性,上述音效合成的数据存储于本服务器集群所处区块链的节点中。
本发明实施例还提供一种计算机可读存储介质,所述存储介质可以是非易失性的,也可以是易失性的,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现:
将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口;
将预训练的上下文表示模型与所述光流帧滑动窗口相连接以形成视觉表征信息模型;其中,所述上下文表示模型通过对预设的卷积神经网络与非线性激活函数进行反复训练形成;
将目标视频输入视觉表征信息模型中以提取视觉运动表征信息;
通过预设的对齐器判断目标视频中的音频与视觉运动表征信息是否同源,若同源,则将目标视频中的音频作为目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与视觉运动表征信息相对应的匹配音频;
基于时间戳将匹配音频与目标视频中的视频相对应以完成视频音效合成。
具体地,所述计算机程序被处理器执行时具体实现方法可参考实施例音效合成方法中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用音效合成方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (7)
1.一种音效合成方法,其特征在于,包括:
将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口;
将预训练的上下文表示模型与所述光流帧滑动窗口相连接以形成视觉表征信息模型;其中,所述上下文表示模型通过对预设的卷积神经网络进行反复训练形成;
将目标视频输入所述视觉表征信息模型中以提取视觉运动表征信息;
通过预设的对齐器判断所述目标视频中的音频与所述视觉运动表征信息是否同源,若同源,则将所述目标视频中的音频作为所述目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与所述视觉运动表征信息相对应的匹配音频;所述对齐器为音视频对齐器;
其中,通过预设的对齐器判断所述目标视频中的音频与所述视觉运动表征信息的过程包括:对所述目标视频进行解析处理以形成视频和音频;判断所述视频与所述音频是否同源,若同源则输出同源结果,若不同源则输出非同源结果;判断所述视频与所述音频是否同源的过程,包括:通过所述对齐器中的编码器对所述音频进行编码处理以形成频谱图;其中,所述编码器包括短时傅里叶变换和梅尔滤波器;通过间隔采样卷积对所述频谱图进行降采样以生成卷积块处理特征;将所述卷积块处理特征作为两层双向LSTM网络的输入以生成音频嵌入数据,并将所述音频嵌入数据和所述视觉运动表征信息的双模态特征输入至两层前馈网络中以生成关于所述视频与所述音频是否同源的结果;通过预设的音效生成模块生成与所述视觉运动表征信息相对应的匹配音频的过程,包括:通过所述音效生成模块获取关于所述目标视频的视觉运动表征信息;将所述视觉运动表征信息转换为匹配频谱图,并通过预设的声码器生成与所述匹配频谱图相对应的匹配音频;
其中,所述同源为来源于同一视频样本;
基于所述时间戳将所述匹配音频与所述目标视频中的视频相对应以完成视频音效合成。
2.如权利要求1所述的音效合成方法,其特征在于,将目标视频输入所述视觉表征信息模型中以提取视觉运动表征信息的过程,包括:
将目标视频输入所述视觉表征信息模型以通过所述光流帧滑动窗口接收所述目标视频,并使所述双流模型在每个时间戳的滑动窗口上提取关于所述目标视频的RGB图像帧和光流帧的视觉信息;
对所述光流帧的视觉信息进行特征提取以形成运动特征,并对所述RGB图像帧进行采样以获取外观特征;
基于所述运动特征与所述外观特征进行级联以获取视觉的瞬时嵌入特征;
通过调节器对所述瞬时嵌入特征进行多时间尺度的运动信息提取以提取视觉运动表征信息。
3.如权利要求2所述的音效合成方法,其特征在于,
所述双流模型为双流BN-Inception模型;
所述调节器为具有时间感受野的一维CNN网络。
4.一种音效合成装置,其特征在于,所述装置包括:
窗口创建单元,用于将双流模型作为主干网络形成以时间戳为中心的光流帧滑动窗口;
模型创建单元,用于将预训练的上下文表示模型与所述光流帧滑动窗口相连接以形成视觉表征信息模型;其中,所述上下文表示模型通过对预设的卷积神经网络进行反复训练形成;
信息生成单元,用于将目标视频输入所述视觉表征信息模型中以提取视觉运动表征信息;
音频匹配单元,用于通过预设的对齐器判断所述目标视频中的音频与所述视觉运动表征信息是否同源,若同源,则将所述目标视频中的音频作为所述目标视频的匹配音频,若不同源,则通过预设的音效生成模块生成与所述视觉运动表征信息相对应的匹配音频;所述对齐器为音视频对齐器;
其中,通过预设的对齐器判断所述目标视频中的音频与所述视觉运动表征信息的过程包括:对所述目标视频进行解析处理以形成视频和音频;判断所述视频与所述音频是否同源,若同源则输出同源结果,若不同源则输出非同源结果;判断所述视频与所述音频是否同源的过程,包括:通过所述对齐器中的编码器对所述音频进行编码处理以形成频谱图;其中,所述编码器包括短时傅里叶变换和梅尔滤波器;通过间隔采样卷积对所述频谱图进行降采样以生成卷积块处理特征;将所述卷积块处理特征作为两层双向LSTM网络的输入以生成音频嵌入数据,并将所述音频嵌入数据和所述视觉运动表征信息的双模态特征输入至两层前馈网络中以生成关于所述视频与所述音频是否同源的结果;通过预设的音效生成模块生成与所述视觉运动表征信息相对应的匹配音频的过程,包括:通过所述音效生成模块获取关于所述目标视频的视觉运动表征信息;将所述视觉运动表征信息转换为匹配频谱图,并通过预设的声码器生成与所述匹配频谱图相对应的匹配音频;
其中,所述同源为来源于同一视频样本;
音效合成单元,用于基于时间戳将所述匹配音频与所述目标视频中的视频相对应以完成视频音效合成。
5.如权利要求4所述的音效合成装置,其特征在于,所述信息生成单元包括:
数据双流模块,用于将目标视频输入所述视觉表征信息模型通过光流帧滑动窗口接收所述目标视频,并使所述双流模型在每个时间戳的滑动窗口上提取关于所述目标视频的RGB图像帧和光流帧的视觉信息;
特征提取模块,用于对所述光流帧的视觉信息进行特征提取以形成运动特征,并对所述RGB图像帧进行采样以获取外观特征;
数据嵌入模块,用于基于所述运动特征与所述外观特征进行级联以获取视觉的瞬时嵌入特征;
信息表征模块,通过调节器对所述瞬时嵌入特征进行多时间尺度的运动信息提取以提取视觉运动表征信息。
6.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至3中任一所述的音效合成方法中的步骤。
7.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3中任一所述的音效合成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111547899.5A CN114189738B (zh) | 2021-12-17 | 2021-12-17 | 音效合成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111547899.5A CN114189738B (zh) | 2021-12-17 | 2021-12-17 | 音效合成方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114189738A CN114189738A (zh) | 2022-03-15 |
CN114189738B true CN114189738B (zh) | 2023-06-30 |
Family
ID=80544203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111547899.5A Active CN114189738B (zh) | 2021-12-17 | 2021-12-17 | 音效合成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114189738B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118245226A (zh) * | 2024-05-20 | 2024-06-25 | 国家超级计算天津中心 | 视听数据集制作方法和系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10334202B1 (en) * | 2018-02-28 | 2019-06-25 | Adobe Inc. | Ambient audio generation based on visual information |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5546846B2 (ja) * | 2009-12-16 | 2014-07-09 | 株式会社スクウェア・エニックス | 効果音情報生成装置、効果音情報生成方法、及び効果音情報生成プログラム |
CN108289180B (zh) * | 2018-01-30 | 2020-08-21 | 广州市百果园信息技术有限公司 | 根据肢体动作处理视频的方法、介质和终端装置 |
CN109040641B (zh) * | 2018-08-30 | 2020-10-16 | 维沃移动通信有限公司 | 一种视频数据合成方法及装置 |
US11276419B2 (en) * | 2019-07-30 | 2022-03-15 | International Business Machines Corporation | Synchronized sound generation from videos |
CN110753238B (zh) * | 2019-10-29 | 2022-05-06 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置、终端及存储介质 |
US11244696B2 (en) * | 2019-11-06 | 2022-02-08 | Microsoft Technology Licensing, Llc | Audio-visual speech enhancement |
CN111243626B (zh) * | 2019-12-30 | 2022-12-09 | 清华大学 | 一种说话视频生成方法及系统 |
CN111681678B (zh) * | 2020-06-09 | 2023-08-22 | 杭州星合尚世影视传媒有限公司 | 自动生成音效并匹配视频的方法、系统、装置及存储介质 |
CN113763922A (zh) * | 2021-05-12 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 音频合成方法和装置、存储介质及电子设备 |
CN113382263B (zh) * | 2021-06-10 | 2022-06-28 | 青岛海洋科学与技术国家实验室发展中心 | 一种基于人工智能的视频通讯数据高效压缩方法和系统 |
-
2021
- 2021-12-17 CN CN202111547899.5A patent/CN114189738B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10334202B1 (en) * | 2018-02-28 | 2019-06-25 | Adobe Inc. | Ambient audio generation based on visual information |
Also Published As
Publication number | Publication date |
---|---|
CN114189738A (zh) | 2022-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210294833A1 (en) | System and method for rich media annotation | |
CN112001175B (zh) | 流程自动化方法、装置、电子设备及存储介质 | |
CN110246512A (zh) | 声音分离方法、装置及计算机可读存储介质 | |
CN112287914B (zh) | Ppt视频段提取方法、装置、设备及介质 | |
CN111681681A (zh) | 语音情绪识别方法、装置、电子设备及存储介质 | |
CN114189738B (zh) | 音效合成方法、装置、电子设备及存储介质 | |
CN113064994A (zh) | 会议质量评估方法、装置、设备及存储介质 | |
CN115221276A (zh) | 基于clip的中文图文检索模型训练方法、装置、设备及介质 | |
CN111950255B (zh) | 诗词生成方法、装置、设备及存储介质 | |
CN113555003B (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN114639152A (zh) | 基于人脸识别的多模态语音交互方法、装置、设备及介质 | |
CN113052025B (zh) | 图像融合模型的训练方法、图像融合方法及电子设备 | |
CN112861750B (zh) | 基于拐点检测的视频提取方法、装置、设备及介质 | |
CN112542172A (zh) | 基于在线会议的沟通辅助方法、装置、设备及介质 | |
CN113254814A (zh) | 网络课程视频打标签方法、装置、电子设备及介质 | |
CN112528265A (zh) | 基于在线会议的身份识别方法、装置、设备及介质 | |
CN112364068A (zh) | 课程标签生成方法、装置、设备及介质 | |
WO2023167496A1 (ko) | 인공지능을 이용한 음악 작곡 방법 | |
Esposito et al. | Cultural specific effects on the recognition of basic emotions: A study on Italian subjects | |
CN116450797A (zh) | 基于多模态对话的情感分类方法、装置、设备及介质 | |
CN116761013A (zh) | 数字人脸形象更换方法、装置、设备及存储介质 | |
CN113611332B (zh) | 一种基于神经网络的智能控制开关电源方法及装置 | |
CN103309643B (zh) | 图像处理器及图像处理方法 | |
CN111859985B (zh) | Ai客服模型测试方法、装置、电子设备及存储介质 | |
CN106095435A (zh) | 一种信息处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |