CN114582367B - 一种音乐混响强度估计方法、装置及电子设备 - Google Patents

一种音乐混响强度估计方法、装置及电子设备 Download PDF

Info

Publication number
CN114582367B
CN114582367B CN202210187168.2A CN202210187168A CN114582367B CN 114582367 B CN114582367 B CN 114582367B CN 202210187168 A CN202210187168 A CN 202210187168A CN 114582367 B CN114582367 B CN 114582367B
Authority
CN
China
Prior art keywords
vector
reverberation
original
voice signal
human voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210187168.2A
Other languages
English (en)
Other versions
CN114582367A (zh
Inventor
于洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mgjia Beijing Technology Co ltd
Original Assignee
Mgjia Beijing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mgjia Beijing Technology Co ltd filed Critical Mgjia Beijing Technology Co ltd
Priority to CN202210187168.2A priority Critical patent/CN114582367B/zh
Publication of CN114582367A publication Critical patent/CN114582367A/zh
Application granted granted Critical
Publication of CN114582367B publication Critical patent/CN114582367B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/69Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Telephone Function (AREA)

Abstract

本发明公开了一种音乐混响强度估计方法,该方法包括:通过获取原始音乐中带有混响的原始人声信号;对原始人声信号分别进行编码和声纹处理,得到编码向量和声纹向量;将编码向量和声纹向量进行拼接,并将拼接后的向量输入分离网络得到掩码向量;将掩码向量和编码向量叠加后进行解码得到去除混响后的人声信号;基于去除混响后的人声信号和带有混响的原始人声信号估计原始音乐的混响强度。本发明通过对原始人声信号进行处理,然后根据处理结果进行预测,不会存在相位缺失的情况,有效提高了预测结果的准确度;同时加入了声纹处理,利用了不同人嗓音不同的特点,使音乐混响强度的估计更加准确。

Description

一种音乐混响强度估计方法、装置及电子设备
技术领域
本发明涉及音频处理技术领域,具体涉及一种音乐混响强度估计方法、装置及电子设备。
背景技术
在狭小的空间内,播放音乐的效果会受到限制,尤其是混响较小的音乐,音乐效果不够自然。如果可以给歌曲加入混响,会为用户打造更好的听歌体验。为了区别需要加入混响的音乐种类,以及需要加入混响的强度,需要先准确估计出音乐自身的混响大小。
现有技术中通常采用滤波后的混合信号提供对混响感知水平的度量,但是这种方案除了需要输入原始信号分量,还需要把原始信号分量进行混响器处理,然后将原始信号分量和处理后的信号分量共同输入用于感知强度的度量装置,进而估计出需要多大的混响强度加入到原始信号分量上。所以这个技术的输出极大的依赖于混响器的混响强度。而现在的商业音乐是经过录音房录制并经过混响处理的,由于我们不知道是采用何种方式进行的混响,对音乐中的混响强度的估计值准确度较低。
发明内容
有鉴于此,本发明实施例提供了一种音乐混响强度估计方法,以解决对音乐中的混响强度的估计值准确度较低的问题。
为达到上述目的,本发明提供如下技术方案:
本发明实施例提供了一种音乐混响强度估计方法,包括:
获取原始音乐中带有混响的原始人声信号;
对所述原始人声信号分别进行编码和声纹处理,得到编码向量和声纹向量;
将所述编码向量和所述声纹向量进行拼接,并将拼接后的向量输入分离网络得到掩码向量;
将所述掩码向量和所述编码向量叠加后进行解码得到去除混响后的人声信号;
基于所述去除混响后的人声信号和带有混响的原始人声信号估计所述原始音乐的混响强度。
可选的,所述对所述原始人声信号分别进行编码和声纹处理,得到编码向量和声纹向量,包括:
将所述原始人声信号按照预设的步长进行划分;
将划分后的原始人声信号进行编码得到编码向量;
通过预设算法从所述原始人声信号中提取频谱特征向量;
将所述频谱特征向量进行声纹处理得到声纹向量。
可选的,所述通过预设算法从所述原始人声信号中提取频谱特征向量,包括:
将所述原始人声信号进行傅里叶分析,得到第一频谱;
对所述第一频谱进行滤波得到第二频谱;
基于所述第一频谱和所述第二频谱计算得到所述频谱特征向量。
可选的,所述将所述频谱特征向量进行声纹处理得到声纹向量,包括:
将所述频谱特征向量通过帧表示层得到隐层向量;
将所述隐层向量输入统计池化层提取特征表达向量;
将所述特征表达向量输入全连接层进行降维得到声纹向量。
可选的,所述将拼接后的向量输入分离网络得到掩码向量,包括:
通过多头注意力机制对所述拼接后的向量进行识别得到多个局部特征向量;
通过多头注意力机制对所述局部特征向量进行识别得到掩码向量。
可选的,所述基于所述去除混响后的人声信号和带有混响的原始人声信号估计所述原始音乐的混响强度,包括:
从所述原始人声信号中提取第一强度和信号频率分布;
从所述去除混响后的人声信号提取第二强度;
计算所述第一强度和第二强度的比值;
基于所述第一强度、第二强度、信号频率分布和比值计算所述原始音乐的混响强度。
可选的,所述获取原始音乐中带有混响的原始人声信号,包括:
对所述原始音乐进行音轨分离;
从音轨分离后的原始音乐中提取带有混响的原始人声信号。
本发明实施例还提供了一种音乐混响强度估计装置,包括:
获取模块,用于获取原始音乐中带有混响的原始人声信号;
处理模块,用于对所述原始人声信号分别进行编码和声纹处理,得到编码向量和声纹向量;
分离模块,用于将所述编码向量和所述声纹向量进行拼接,并将拼接后的向量输入分离网络得到掩码向量;
解码模块,用于将所述掩码向量和所述编码向量叠加后进行解码得到去除混响后的人声信号;
估计模块,用于基于所述去除混响后的人声信号和带有混响的原始人声信号估计所述原始音乐的混响强度。
本发明实施例还提供了一种电子设备,包括:
存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行本发明实施例提供的音乐混响强度估计方法。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行本发明实施例提供的音乐混响强度估计方法。
本发明技术方案,具有如下优点:
本发明提供了一种音乐混响强度估计方法,通过获取原始音乐中带有混响的原始人声信号;对原始人声信号分别进行编码和声纹处理,得到编码向量和声纹向量;将编码向量和声纹向量进行拼接,并将拼接后的向量输入分离网络得到掩码向量;将掩码向量和编码向量叠加后进行解码得到去除混响后的人声信号;基于去除混响后的人声信号和带有混响的原始人声信号估计原始音乐的混响强度。本发明通过对原始人声信号进行处理,然后根据处理结果进行预测,不会存在相位缺失的情况,有效提高了预测结果的准确度;同时加入了声纹处理,利用了不同人嗓音不同的特点,使音乐混响强度的估计更加准确。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中的音乐混响强度估计方法的流程图;
图2为根据本发明实施例中获取原始人声信号的流程图;
图3为根据本发明实施例中对原始人声信号进行处理的流程图;
图4为根据本发明实施例中从原始人声信号中提取频谱特征向量的流程图;
图5为根据本发明实施例中将频谱特征向量进行声纹处理得到声纹向量的流程图;
图6为根据本发明实施例中得到掩码向量的流程图;
图7为根据本发明实施例中得到去除混响后的人声信号的流程图;
图8为本发明实施例中的音乐混响强度估计装置的结构示意图;
图9为本发明实施例中的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
根据本发明实施例,提供了一种音乐混响强度估计方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在本实施例中提供了一种音乐混响强度估计方法,可用于需要对音乐混响进行估计的场合,如图1所示,该音乐混响强度估计方法包括如下步骤:
步骤S1:获取原始音乐中带有混响的原始人声信号。具体的,音乐分为伴奏部分和人声部分,本申请中主要考虑通过计算人声的混响对音乐混响进行估计,所以会首先通过音轨分离器(例如:spleeter)从一段音乐中分离出原始人声信号。
步骤S2:对原始人声信号分别进行编码和声纹处理,得到编码向量和声纹向量。具体的,可以通过声纹向量对编码向量进行补充,因为不同人的嗓音有所不同,会影响混响的结果,通过声纹向量可以增加后续的预测精度。
步骤S3:将编码向量和声纹向量进行拼接,并将拼接后的向量输入分离网络得到掩码向量。
步骤S4:将掩码向量和编码向量叠加后进行解码得到去除混响后的人声信号。
步骤S5:基于去除混响后的人声信号和带有混响的原始人声信号估计原始音乐的混响强度。
通过上述步骤S1至步骤S5,本发明实施例提供的音乐混响强度估计方法,通过对原始人声信号进行处理,然后根据处理结果进行预测,不会存在相位缺失的情况,有效提高了预测结果的准确度;同时加入了声纹处理,利用了不同人嗓音不同的特点,使音乐混响强度的估计更加准确。
具体地,在一实施例中,上述的步骤S1,如图2所示,具体包括如下步骤:
步骤S11:对原始音乐进行音轨分离。具体的,通过音轨分离器可以将原始音乐中的人声信号完整分离出来,不破坏信号的完整性。
步骤S12:从音轨分离后的原始音乐中提取带有混响的原始人声信号。具体的,由于音轨分离得到的有人声信号和伴奏信号,需要从里面提取带有混响的原始人声信号,以便于提高混响的计算精度。
具体地,在一实施例中,上述的步骤S2,如图3所示,具体包括如下步骤:
步骤S21:将原始人声信号按照预设的步长进行划分;
步骤S22:将划分后的原始人声信号进行编码得到编码向量;
步骤S23:通过预设算法从原始人声信号中提取频谱特征向量;
步骤S24:将频谱特征向量进行声纹处理得到声纹向量。
具体的,人声信号经过预设算法(例如:MFC梅尔倒谱频率)提取特征,然后经过声纹处理得到声纹向量,通过声纹向量对原始人声信号进行补充,使音乐混响强度的估计更加准确。
具体地,在一实施例中,上述的步骤S23,如图4所示,具体包括如下步骤:
步骤S231:将原始人声信号进行傅里叶分析,得到第一频谱。具体的,原始人声信号经过短时傅里叶分析,得到FFT对应的第一频谱。
步骤S232:对第一频谱进行滤波得到第二频谱。具体的,例如将第一频谱通过Mel滤波器组得到Mel频谱。
步骤S233:基于第一频谱和第二频谱计算得到频谱特征向量。具体的,将第一频谱和第二频谱点乘,再取对数,便可以得到MFC的频谱特征向量。
具体地,在一实施例中,上述的步骤S24,如图5所示,具体包括如下步骤:
步骤S241:将频谱特征向量通过帧表示层得到隐层向量。
步骤S242:将隐层向量输入统计池化层提取特征表达向量。
步骤S243:将特征表达向量输入全连接层进行降维得到声纹向量。
具体的,音频信号的MFC特征向量输入帧表示层,帧表示层由一组全连接构成,输出送入polling层用于提取全局特征信息,polling的输出最后送入embedding层,可以得到这个人的声纹表示。声纹向量可以对编码向量进行补充,因为不同人的嗓音有所不同,所以也会影响混响的结果,通过补充声纹向量可以有效提升预测精度。
具体地,在一实施例中,上述的步骤S3,如图6所示,具体包括如下步骤:
步骤S31:通过多头注意力机制对所述拼接后的向量进行识别得到多个局部特征向量。
步骤S32:通过多头注意力机制对所述局部特征向量进行识别得到掩码向量。
具体的,将拼接后的向量输入分离网络,分离网络可采用例如Transformer架构,把拼接后的向量按照步长P分为S块,这样就得到了S个维度的基本向量,针对每个基本向量,采用多头注意力机制,得到S个带有局部音频特征的局部特征向量,A1~As;再对A1~As采用多头注意力机制,得到最后的带有全局音频特征的掩码向量。此处通过采用多头注意力机制,相比与RNN等网络结构,训练速度更快,并行度更好。
具体地,在一实施例中,上述的步骤S4,如图7所示,具体包括如下步骤:
步骤S41:从原始人声信号中提取第一强度和信号频率分布。
步骤S42:从去除混响后的人声信号提取第二强度。
步骤S43:计算第一强度和第二强度的比值。
步骤S44:基于第一强度、第二强度、信号频率分布和比值计算原始音乐的混响强度。
具体的,通过采用线性回归拟合的方式,根据原始人声信号的第一强度,去混响后人声信号的第二强度,第一强度和第二强度的比值,原始人声信号的频率分布,预测原始人声信号中的混响强度。
现有技术中通常会对信号进行滤波,滤波可能会使相位产生损失,从而影响预测结果,本发明通过对原始人声信号进行处理,然后根据处理结果进行预测,不会存在相位缺失的情况,有效提高了预测结果的准确度;同时加入了声纹处理,利用了不同人嗓音不同的特点,使音乐混响强度的估计更加准确。
在本实施例中还提供了一种音乐混响强度估计装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本实施例提供一种音乐混响强度估计装置,如图8所示,包括:
获取模块101,用于获取原始音乐中带有混响的原始人声信号,详细内容参见上述方法实施例中步骤S1的相关描述,在此不再进行赘述。
处理模块102,用于对原始人声信号分别进行编码和声纹处理,得到编码向量和声纹向量,详细内容参见上述方法实施例中步骤S2的相关描述,在此不再进行赘述。
分离模块103,用于将编码向量和声纹向量进行拼接,并将拼接后的向量输入分离网络得到掩码向量,详细内容参见上述方法实施例中步骤S3的相关描述,在此不再进行赘述。
解码模块104,用于将掩码向量和编码向量叠加后进行解码得到去除混响后的人声信号,详细内容参见上述方法实施例中步骤S4的相关描述,在此不再进行赘述。
估计模块105,用于基于所述去除混响后的人声信号和带有混响的原始人声信号估计所述原始音乐的混响强度,详细内容参见上述方法实施例中步骤S5的相关描述,在此不再进行赘述。
本实施例中的音乐混响强度估计装置是以功能单元的形式来呈现,这里的单元是指ASIC电路,执行一个或多个软件或固定程序的处理器和存储器,和/或其他可以提供上述功能的器件。
上述各个模块的更进一步的功能描述与上述对应实施例相同,在此不再赘述。
根据本发明实施例还提供了一种电子设备,如图9所示,该电子设备可以包括处理器901和存储器902,其中处理器901和存储器902可以通过总线或者其他方式连接,图9中以通过总线连接为例。
处理器901可以为中央处理器(Central Processing Unit,CPU)。处理器901还可以为其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等芯片,或者上述各类芯片的组合。
存储器902作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如本发明方法实施例中的方法所对应的程序指令/模块。处理器901通过运行存储在存储器902中的非暂态软件程序、指令以及模块,从而执行处理器的各种功能应用以及数据处理,即实现上述方法实施例中的方法。
存储器902可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储处理器901所创建的数据等。此外,存储器902可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器902可选包括相对于处理器901远程设置的存储器,这些远程存储器可以通过网络连接至处理器901。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
一个或者多个模块存储在存储器902中,当被处理器901执行时,执行上述方法实施例中的方法。
上述电子设备具体细节可以对应参阅上述方法实施例中对应的相关描述和效果进行理解,此处不再赘述。
本领域技术人员可以理解,实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)、随机存储记忆体(Random Access Memory,RAM)、快闪存储器(Flash Memory)、硬盘(Hard Disk Drive,缩写:HDD)或固态硬盘(Solid-StateDrive,SSD)等;存储介质还可以包括上述种类的存储器的组合。
虽然结合附图描述了本发明的实施例,但是本领域技术人员可以在不脱离本发明的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。

Claims (10)

1.一种音乐混响强度估计方法,其特征在于,包括:
获取原始音乐中带有混响的原始人声信号;
对所述原始人声信号分别进行编码和声纹处理,得到编码向量和声纹向量;
将所述编码向量和所述声纹向量进行拼接,并将拼接后的向量输入分离网络得到掩码向量;
将所述掩码向量和所述编码向量叠加后进行解码得到去除混响后的人声信号;
基于所述去除混响后的人声信号和带有混响的原始人声信号估计所述原始音乐的混响强度。
2.根据权利要求1所述的音乐混响强度估计方法,其特征在于,所述对所述原始人声信号分别进行编码和声纹处理,得到编码向量和声纹向量,包括:
将所述原始人声信号按照预设的步长进行划分;
将划分后的原始人声信号进行编码得到编码向量;
通过预设算法从所述原始人声信号中提取频谱特征向量;
将所述频谱特征向量进行声纹处理得到声纹向量。
3.根据权利要求2所述的音乐混响强度估计方法,其特征在于,所述通过预设算法从所述原始人声信号中提取频谱特征向量,包括:
将所述原始人声信号进行傅里叶分析,得到第一频谱;
对所述第一频谱进行滤波得到第二频谱;
基于所述第一频谱和所述第二频谱计算得到所述频谱特征向量。
4.根据权利要求2所述的音乐混响强度估计方法,其特征在于,所述将所述频谱特征向量进行声纹处理得到声纹向量,包括:
将所述频谱特征向量通过帧表示层得到隐层向量;
将所述隐层向量输入统计池化层提取特征表达向量;
将所述特征表达向量输入全连接层进行降维得到声纹向量。
5.根据权利要求1所述的音乐混响强度估计方法,其特征在于,所述将拼接后的向量输入分离网络得到掩码向量,包括:
通过多头注意力机制对所述拼接后的向量进行识别得到多个局部特征向量;
通过多头注意力机制对所述局部特征向量进行识别得到掩码向量。
6.根据权利要求1所述的音乐混响强度估计方法,其特征在于,所述基于所述去除混响后的人声信号和带有混响的原始人声信号估计所述原始音乐的混响强度,包括:
从所述原始人声信号中提取第一强度和信号频率分布;
从所述去除混响后的人声信号提取第二强度;
计算所述第一强度和第二强度的比值;
基于所述第一强度、第二强度、信号频率分布和比值计算所述原始音乐的混响强度。
7.根据权利要求1所述的音乐混响强度估计方法,其特征在于,所述获取原始音乐中带有混响的原始人声信号,包括:
对所述原始音乐进行音轨分离;
从音轨分离后的原始音乐中提取带有混响的原始人声信号。
8.一种音乐混响强度估计装置,其特征在于,包括:
获取模块,用于获取原始音乐中带有混响的原始人声信号;
处理模块,用于对所述原始人声信号分别进行编码和声纹处理,得到编码向量和声纹向量;
分离模块,用于将所述编码向量和所述声纹向量进行拼接,并将拼接后的向量输入分离网络得到掩码向量;
解码模块,用于将所述掩码向量和所述编码向量叠加后进行解码得到去除混响后的人声信号;
估计模块,用于基于所述去除混响后的人声信号和带有混响的原始人声信号估计所述原始音乐的混响强度。
9.一种电子设备,其特征在于,包括:
存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行权利要求1-7中任一项所述的音乐混响强度估计方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的音乐混响强度估计方法。
CN202210187168.2A 2022-02-28 2022-02-28 一种音乐混响强度估计方法、装置及电子设备 Active CN114582367B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210187168.2A CN114582367B (zh) 2022-02-28 2022-02-28 一种音乐混响强度估计方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210187168.2A CN114582367B (zh) 2022-02-28 2022-02-28 一种音乐混响强度估计方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN114582367A CN114582367A (zh) 2022-06-03
CN114582367B true CN114582367B (zh) 2023-01-24

Family

ID=81776622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210187168.2A Active CN114582367B (zh) 2022-02-28 2022-02-28 一种音乐混响强度估计方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN114582367B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044647A1 (ja) * 2019-09-04 2021-03-11 日本電信電話株式会社 到来方向推定装置、モデル学習装置、到来方向推定方法、モデル学習方法、プログラム
CN113470672A (zh) * 2021-07-23 2021-10-01 平安科技(深圳)有限公司 语音增强方法、装置、设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044647A1 (ja) * 2019-09-04 2021-03-11 日本電信電話株式会社 到来方向推定装置、モデル学習装置、到来方向推定方法、モデル学習方法、プログラム
CN113470672A (zh) * 2021-07-23 2021-10-01 平安科技(深圳)有限公司 语音增强方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN114582367A (zh) 2022-06-03

Similar Documents

Publication Publication Date Title
CN109473123B (zh) 语音活动检测方法及装置
CN112435684B (zh) 语音分离方法、装置、计算机设备和存储介质
CN111370019A (zh) 声源分离方法及装置、神经网络的模型训练方法及装置
JP7176627B2 (ja) 信号抽出システム、信号抽出学習方法および信号抽出学習プログラム
CN108847253A (zh) 车辆型号识别方法、装置、计算机设备及存储介质
US20210125628A1 (en) Method and device for audio recognition
CN114596879A (zh) 一种虚假语音的检测方法、装置、电子设备及存储介质
CN106033671B (zh) 确定声道间时间差参数的方法和装置
CN114491140A (zh) 音频匹配检测方法及装置、电子设备、存储介质
CN114582367B (zh) 一种音乐混响强度估计方法、装置及电子设备
Raj et al. Multilayered convolutional neural network-based auto-CODEC for audio signal denoising using mel-frequency cepstral coefficients
FR3020732A1 (fr) Correction de perte de trame perfectionnee avec information de voisement
CN115116469B (zh) 特征表示的提取方法、装置、设备、介质及程序产品
CN104715756A (zh) 音频数据的处理方法及装置
CN114420136A (zh) 一种声纹识别模型训练的方法、装置以及存储介质
CN112786016B (zh) 一种语音识别方法、装置、介质和设备
CN111862967B (zh) 一种语音识别方法、装置、电子设备及存储介质
CN114446308A (zh) 基于transformer框架的多通道声纹识别方法及装置、设备
CN114329042A (zh) 数据处理方法、装置、设备、存储介质及计算机程序产品
CN115985347B (zh) 基于深度学习的语音端点检测方法、装置和计算机设备
KR20190069192A (ko) 오디오 신호의 채널 파라미터 예측 방법 및 장치
WO2024055752A1 (zh) 语音合成模型的训练方法、语音合成方法和相关装置
CN107195028B (zh) 一种高精度无线语音识别门禁系统
CN113782034A (zh) 一种音频识别方法、装置及电子设备
JP2023183390A (ja) ディープラーニングに基づくノイズ除去方法および装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant