CN110600055A - 一种使用旋律提取与语音合成技术的歌声分离方法 - Google Patents
一种使用旋律提取与语音合成技术的歌声分离方法 Download PDFInfo
- Publication number
- CN110600055A CN110600055A CN201910754151.9A CN201910754151A CN110600055A CN 110600055 A CN110600055 A CN 110600055A CN 201910754151 A CN201910754151 A CN 201910754151A CN 110600055 A CN110600055 A CN 110600055A
- Authority
- CN
- China
- Prior art keywords
- audio
- frequency
- representing
- voice
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000926 separation method Methods 0.000 title claims abstract description 48
- 238000000605 extraction Methods 0.000 title claims abstract description 42
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 21
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 21
- 238000005516 engineering process Methods 0.000 title abstract description 15
- 238000000034 method Methods 0.000 claims abstract description 78
- 238000006243 chemical reaction Methods 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 17
- 239000011159 matrix material Substances 0.000 claims description 46
- 230000006870 function Effects 0.000 claims description 33
- 241000282414 Homo sapiens Species 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 claims description 23
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 17
- 238000003066 decision tree Methods 0.000 claims description 14
- 230000001755 vocal effect Effects 0.000 claims description 13
- 238000009826 distribution Methods 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 12
- 238000007476 Maximum Likelihood Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 9
- 210000002569 neuron Anatomy 0.000 claims description 9
- 238000000354 decomposition reaction Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000009432 framing Methods 0.000 claims description 4
- 238000000513 principal component analysis Methods 0.000 claims description 4
- 238000012847 principal component analysis method Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 230000005284 excitation Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000002156 mixing Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- 238000012821 model calculation Methods 0.000 claims description 2
- 238000001308 synthesis method Methods 0.000 claims 1
- 230000002194 synthesizing effect Effects 0.000 abstract description 8
- 230000000694 effects Effects 0.000 description 12
- 238000002474 experimental method Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本发明公开一种使用旋律提取与语音合成技术的歌声分离方法。该方法对给定的输入音频作主旋律提取操作,得到歌曲的主旋律与音符时长;建立说话人语音音库并进行HMM训练,得到说话人音库特征模型;对输入音频提取其发音特征,完成说话人音色转换;使用给定的歌词文本利用TTS技术输出语音,结合提取的旋律与音符时长等信息合成得到最终的人声音频。通过合成语音来模拟人声,相较传统歌声分离方法,能极大减少分离后带有的伴奏信息。
Description
技术领域
本发明涉及音乐信息检索领域,具体地,涉及一种使用旋律提取与语音合成技术的歌声分离方法。
背景技术
歌声分离是一种将歌曲中的人声部分与乐器伴奏部分分离的技术。利用歌声分离,可以将一首复杂的歌曲音频分离出纯净的人声音频,是歌词对齐、人声识别、歌曲高层语义分析等应用的前置技术。传统的歌声分离方法针对多声道歌曲多采用基于音频信号空间位置差异的提取方法,利用歌曲制作者在制作过程中多将人声音轨放入中置声道这一特点,结合歌曲左右声道音频,计算出远离中置声道的音频信息,并利用该信息与原始音频信息进一步处理得到所需的人声音频。近年来的歌声分离方法则多使用神经网络,利用神经网络具有的高层抽象特征提取能力,对歌曲进行分离。但因人声与伴奏有强烈的泛音重叠,且中置声道往往带有多种打击乐器,上述方法的分离效果并不理想,且最终结果多利用人耳听觉的掩蔽效应得到人类可接受的结果。但作为歌词对齐等方法的前置技术,分离效果中带有的非人声部分会对后继步骤带来不可预见的影响。
针对上述问题,仍未有一套行之有效的方法被提出。
发明内容
本发明目的在于,针对目前歌曲歌声分离质量差,分离音频中带有非人声部分这一现状,提供一种高效、准确、清晰的分离方法,以弥补传统歌声分离方法的不足。
为实现上述目的,本发明提供了一种使用旋律提取与语音合成技术的歌声分离方法,该方法包括以下步骤:对给定的输入音频作主旋律提取操作,得到歌曲的主旋律与音符时长;建立说话人语音音库并进行HMM(隐马尔可夫模型)训练,得到说话人音库特征模型;对输入音频提取其发音特征,完成说话人音色转换;使用给定的歌词文本利用TTS(文字到语音)技术输出语音,结合提取的旋律与音符时长等信息合成得到最终的人声音频。
本发明的技术方案如下:
一种使用旋律提取与语音合成技术的歌声分离方法,包含如下步骤:
步骤S1:歌曲主旋律提取,是利用输入原始歌曲音频的信息,提取其中人声的声乐主旋律,即查找其中的人声基音并绘制旋律线。具体包括以下步骤:
步骤S11:原始歌曲音频预处理,包括音频下采样、分帧加窗、DFT(离散傅里叶变换)。具体地:
步骤S111:对原始歌曲音频作下采样处理。优选地,使用线性插值法将原始音频采样降至8kHz。下采样数学公式如下:
其中Sd[i]表示下采样后的音频信息,S表示原始歌曲音频信息,符号表示向下取整,i代表每个采样点,sf为下采样因子,若原始歌曲音频采样率为44.1kHz,则
步骤S112:对S111下采样后的音频作分帧加窗操作,优选地,设定窗长为5帧,窗函数使用汉明窗。其公式如下:
Sh[i]=Sd[i]*H[i] 式(3)
其中Sh[i]表示处理后的音频信息,符号*表示卷积运算,H[i]表示汉明窗函数。
步骤S113:DFT变换,对上述分帧后的音频数据做离散傅里叶变换,公式如下:
其中x[i]为DFT变换后的音频信息,符号j为虚数符号。
步骤S12:歌曲音符分割,包括音频特征提取,分割函数计算,确定分割点。具体地:
步骤S121:音频特征提取,优选地,使用OSCC(八度音阶倒谱系数)作为音频的特征参数,OSCC转换公式如下:
Octave(f)=12log225f×mod12 式(6)
其中f表示原始歌曲音频频率,Octave(f)表示转换后的音频频率,即所需要的音频特征,符号mod表示取模运算。
经公式(6)处理后得到的音频频率范围为64-16384Hz,对应的八度音阶符号为C2B2-C9B9。
步骤S122:分割函数计算,其计算公式如下:
D[n]=(ΔMV[n]T×ΔMV[n])/(∑kcov[n]b,k+∑icov[n]a,k) 式(7)
其中ΔMV[n]表示第n帧音频前后1帧音频OSCC特征均值的差,符号T表示转置运算,cov[n]b,k表示第n帧前1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素,cov[n]a,k表示第n帧后1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素。
步骤S123:确定分割点。计算D[n]中所有的极大值点,并删除其中小于给定阈值T1的点,剩余的极大值点即为所求的分割点,依据分割点将原始音频划分为不同的音频段。
步骤S13:浊音段检测。对上述步骤S12划分的音频段作浊音段检测,检测公式如下:
其中sign为符号函数,N表示该音频段的帧数,var[n]表示该帧频谱方差,T2为给定阈值,符号∨表示取大运算。
若上式(8)结果为1则该段为非浊音段,上式(8)结果为-1或0则该段为浊音段。
步骤S14:基频提取,包括基频音高显著度函数计算,候选基频选取。具体地:
步骤S141:基频音高显著度函数计算,对步骤S13中得到的浊音段作基频音高显著度计算,其计算公式如下:
S(logf)=Y(logf)*(1/(α-cos(2πe-logf))-β) 式(9)
其中S(logf)表示基频音高显著度,Y(logf)表示对数频域,α表示基频控制参数,在本例中,选取α=1.8,β为显著度控制因子,β需满足∫S(logf)dlogf=0,f表示上述浊音段音频的频率。
步骤S142:候选基频选取。查找上述步骤S141计算得的基频音高显著度函数峰值所对应的频率集Ω1;保留频率集Ω1其中80-1000Hz的频率,得到新集合Ω2;选择Ω2中具有最大显著度的频率,将其放入集合Ω3,同时删去Ω2中与该频率有倍数关系的频率及其半频,重复以上过程直到选取Ω3中显著度最大的3个作为候选基频集合Ω。
步骤S15:维特比基音对齐。计算每个浊音段中满足的维特比基音对齐的基频,得到其轨迹。其公式如下:
其中Sn,k表示第n帧中第k个候选基频的音高显著度,p(·)表示音高转移概率。
步骤S16:歌声判别。利用反向传播神经网络,判断上述提取的基频是否为歌声基频。优选地,使用一个结构为13-26-13-2的反向传播神经网络,即输入层含有13个神经元,隐藏层分别含有26个和13个神经元,输出层含有2个神经元。特别地,在训练神经网络时,对训练样本作同步骤S11相同的预处理操作,再计算其OSCC,以保证神经网络输入参数的一致性。若是歌声基频则统计该浊音段的基频帧数,若该基频帧数大于总帧数的1/2,则认为该段的主导基频为歌声主旋律,记为f0。对原始音频中每一段浊音段均作如上操作,最终得到基频合集F0。注意到,当已知基频合集时,同时也得到了由基频确定的音符位置及持续时间,由浊音段确定的音节位置及持续时间。
步骤S2:说话人音库特征模型构建。首先构建说话人音库,并通过对多个说话人音库的音频特征进行提取,训练其HMM模型,生成决策树,最终得到特征模型。具体地,包括如下步骤:
步骤S21:说话人音库准备。选择不同的说话人构建说话人音库。在本例中,建立了包含5个男声音库和5个女声音库的说话人音库集。每个音库中包含有带人工标注的5个声调(包括拼音一至四声及轻声)的拼音发音音频共计2060个。
步骤S22:音库音频特征提取。对说话人音库中的音频重复步骤S112,S113操作后计算其MFCC(梅尔频率倒谱系数),并将MFCC作为该音频的特征信息。MFCC的计算公式如下:
Mel(f)=2595×lg(1+f/700) 式(11)
其中Mel(f)即为所求的MFCC。
步骤S23:HMM模型训练。对上述步骤提取的音库音频特征信息,采用HMM模型对其进行训练,即将MFCC作为模型的输入,并求解其MLE(最大似然估计)。其中最大似然估计的公式如下:
其中,表示最大似然估计,O表示HMM的输出序列,λ表示HMM的状态序列,P为HMM中的概率,S表示输入模型(即HMM)。之后配合MAP(最大后验概率)算法修正模型,得到单个说话人音库的相关模型。注意到,在此对所有的说话人音库作上述操作,每个音库均生成一个相关模型。
步骤S24:决策树生成。对经由上述步骤计算出每个音库的相关模型做决策树生成。选择其中最大似然估计值贡献最大的问题进行节点分裂,并利用MDL(最小描述长度)作结束标志。利用MDL作结束标志的决策树模型计算公式如下:
DT=argmin(Len(DT)min+Len(Ξ|DT)min) 式(13)
其中DT为所求模型,Len(DT)min表示对DT编码的所需求的最小的编码长度,Len(Ξ|DT)min表示在给定的DT下对Ξ编码的所需的最小的编码长度。
步骤S25:主成分分析及特征模型建立。
将上述步骤建立的决策树中的叶节点参数提取并以此构建矩阵,矩阵行数等同于叶节点个数,矩阵列数等同于叶节点个数与参数维度的乘积。
利用主成分分析法对矩阵作降维处理:首先,将矩阵每列减去相应列的期望,并计算协方差矩阵,协方差矩阵的计算公式如下:
其中ξ,ζ表示矩阵任意两行向量,N表示行向量中元素个数。
利用奇异值分解法计算该协方差矩阵式(14)的特征值与特征向量,属于现有成熟技术,故不详解;取特征值中最大的前k个,并将其对应的k个特征向量作为列向量组成一新的矩阵;然后对新矩阵减去相应行向量的均值与权系数的积,得到特征模型。其中k≤N,在实际中依具体情况选择。
步骤S3:说话人音色转换。具体地,包括以下步骤:
步骤S31:人声析取。通过对原始歌曲音频做中置声道析取,得到相对纯净的人声音频,具体地,包括以下步骤:
步骤S311:非中置声道计算。利用左右声道音频的不同,结合歌曲制作者在后期混音过程中多将人声音轨声相设置于声场中间这一特点,计算出非中置声道音频信息,其计算公式如下:
其中,Vl(t)表示歌曲中左声道的信息,Vr(t)表示右声道信息,Vc(t)表示中置声道信息,表示左声道中除中置声道外的音频信息,表示右声道中除中置声道外的音频信息,表示非中置声道音频的估计信息。
步骤S312:中置声道析取。
中置声道的音频信息可由如下公式获取:
其中表示中置声道音频信息的估计值,V(t)表示原始音频信息。
然后对该中置声道音频作滤波处理,保留其中80-1000Hz的频率,得到最终的人声音频即中置声道音频
步骤S32:重复步骤S22,S23操作,得到经HMM模型训练后的人声音频特征信息。
步骤S33:特征模型权系数计算。对步骤S2得到的特征模型计算其权系数,计算公式如下:
其中,spread表示分布,t表示时刻,Pspread(t)表示t时刻下由分布spread确定的概率,espread(i)表示单位矩阵,i=1,2,…,K,K表示列数,表示由分布spread确定的协方差矩阵的逆,ot表示t时刻的观测序列,即由每个状态生成一个观测,而由此生成的观测的随机序列,μspread表示分布spread下的均值。而μspread又可表示为:
其中ρi即为所需的特征模型权系数。
步骤S34:自适应模型构建。利用上述步骤S33得到的权系数对步骤S2中的特征模型作线性加权,得到目标说话人音色的自适应模型。
步骤S4:人声合成。具体地,包括以下步骤:
步骤S41:TTS(文字到语音)转换。利用原始歌曲音频的歌词,使用TTS系统生成对应的发音,即通过建立一个汉字到拼音的映射表(多音字将由人工在输入歌词时手动标注),利用步骤S3中建立的目标说话人音库模型,生成单字的读音。
步骤S42:歌曲演唱发音生成。其发音由以下公式计算得出:
其中y(t)表示目标音频,G(·)表示基频映射函数,该函数只需满足对基频具有一一映射关系即可,ω表示相位,φ(ω)表示相位激励函数,V(ω,t)在给定相位及时刻下的最小位相冲击响应值经DFT转换后的结果,表示基频合集各基频所对应的时间位置,tk表示基频合集中第k个基频对应的时间位置;
步骤S43:音节时长变换。利用步骤S1得到的音节持续时间,由如下公式计算变换系数:
TS(i)=(TB(i+1)-len(i-1))/(TB(i+1)-TB(i)) 式(21)
其中TS(i)表示第i个音符下的变换系数,TB(i)表示第i个音符输出起点,len表示音符时长。
步骤S45:利用步骤S1中得到的基频及音符持续时间,结合上述音节时长变换系数TS(i)、演唱发音y(t)等信息,合成得到最终的人声发音。
与现有技术相比,本发明所提供的方法具有如下有益效果:
伴奏干扰少:通过合成语音来模拟人声,相较传统对现有歌声进行分离的方法,能极大减少分离后带有的伴奏信息。同时,作为MIR领域其他技术的前置方法也能减小因掩蔽效应而遗留的伴奏声所带来的不可预见的影响。
分离程度高:本方法创新性的采用了语音合成技术进行歌声分离,相较传统方法,把分离问题转换为旋律提取及歌声合成问题。其最终结果仅与旋律提取及合成效果有关,不存在其它因素的干扰。
附图说明
图1为本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法框架流程图;
图2为本发明步骤S1中主旋律提取方法的流程图;
图3为旋律基频语谱图;
图4为本发明步骤S2中说话人音库特征模型构建的流程图;
图5为本发明步骤S3中话说人音色转换方法的流程图;
图6为本发明步骤S4中人声合成方法的流程图;
图7为本发明与其它分离方法效果主观评分对比图;
具体实施方式
以下将结合附图对本发明所提供的方法作进一步解释说明。
使用旋律提取与语音合成技术的歌声分离,在音乐信息检索领域,与传统分离方法相比,将分离问题转换为提取与合成问题,有效避免伴奏干扰,较以往方法具有分离声音清晰,伴奏杂声少的特点,同时在多数情形下的分离程度与传统方法相比更为理想。在主旋律提取中使用OSCC而非传统的MFCC作为音频特征,有着更适用于音乐旋律提取的优点,能在特征提取时就获得其乐理特点。利用多个说话人音库经HMM训练后生成一个均值模型较单一音库模型能在说话人单色转换时有更好的效果,同时亦能大幅降低所需的目标说话人语料,适合歌曲演唱的特点。针对已提取的音节音符时长作时长变换能防止因音符与音节不匹配而导致的词句不对齐错误。因此,本发明提供了一种使用旋律提取与语音合成技术的歌声分离方法。
本发明提供了一种使用旋律提取与语音合成技术的歌声分离方法,整体而言,本发明包括四大步骤,步骤S1:歌曲主旋律提取;步骤S2:说话人音库特征模型构建;步骤S3:说话人音色转换;步骤S4:歌曲人声合成。
参见图1,为本发明所提供方法的实施步骤流程图,具体地,包括如下步骤:
步骤S1:歌曲主旋律提取,是利用输入原始歌曲音频的信息,提取其中人声的声乐主旋律,即查找其中的人声基音并绘制旋律线。参见图2所示,为本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法中主旋律提取步骤的流程图,具体包括以下步骤:
步骤S11:原始歌曲音频预处理,包括音频下采样、分帧加窗、DFT(离散傅里叶变换)。具体地:
步骤S111:对原始歌曲音频作下采样处理。优选地,使用线性插值法将原始音频采样降至8kHz。下采样数学公式如下:
其中Sd[i]表示下采样后的音频信息,S表示原始歌曲音频信息,符号表示向下取整,i代表每个采样点,sf为下采样因子,若原始歌曲音频采样率为44.1kHz,则
步骤S112:对S111下采样后的音频作分帧加窗操作,优选地,设定窗长为5帧,窗函数使用汉明窗。其公式如下:
Sh[i]=Sd[i]*H[i] 式(3)
其中Sh[i]表示处理后的音频信息,符号*表示卷积运算,H[i]表示汉明窗函数。
步骤S113:DFT变换,对上述分帧后的音频数据做离散傅里叶变换,公式如下:
其中x[i]为DFT变换后的音频信息,符号j为虚数符号。
步骤S12:歌曲音符分割,包括音频特征提取,分割函数计算,确定分割点。具体地:
步骤S121:音频特征提取,优选地,使用OSCC(八度音阶倒谱系数)作为音频的特征参数,OSCC转换公式如下:
Octave(f)=12log225f×mod12 式(6)
其中f表示原始歌曲音频频率,Octave(f)表示转换后的音频频率,即所需要的音频特征,符号mod表示取模运算。
经公式(6)处理后得到的音频频率范围为64-16384Hz,对应的八度音阶符号为C2B2-C9B9。
步骤S122:分割函数计算,其计算公式如下:
D[n]=(ΔMV[n]T×ΔMV[n])/(∑kcov[n]b,k+∑icov[n]a,k) 式(7)
其中ΔMV[n]表示第n帧音频前后1帧音频OSCC特征均值的差,符号T表示转置运算,cov[n]b,k表示第n帧前1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素,cov[n]a,k表示第n帧后1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素。
步骤S123:确定分割点。计算D[n]中所有的极大值点,并删除其中小于给定阈值T1的点,剩余的极大值点即为所求的分割点,依据分割点将原始音频划分为不同的音频段。
步骤S13:浊音段检测。对上述步骤S12划分的音频段作浊音段检测,检测公式如下:
其中sign为符号函数,N表示该音频段的帧数,var[n]表示该帧频谱方差,T2为给定阈值,符号∨表示取大运算。
若上式(8)结果为1则该段为非浊音段,上式(8)结果为-1或0则该段为浊音段。
步骤S14:基频提取,包括基频音高显著度函数计算,候选基频选取。具体地:
步骤S141:基频音高显著度函数计算,对步骤S13中得到的浊音段作基频音高显著度计算,其计算公式如下:
S(logf)=Y(logf)*(1/(α-cos(2πe-logf))-β) 式(9)
其中S(logf)表示基频音高显著度,Y(logf)表示对数频域,α表示基频控制参数,在本例中,选取α=1.8,β为显著度控制因子,β需满足∫S(logf)dlogf=0,f表示上述浊音段音频的频率。
步骤S142:候选基频选取。查找上述步骤S141计算得的基频音高显著度函数峰值所对应的频率集Ω1;保留频率集Ω1其中80-1000Hz的频率,得到新集合Ω2;选择Ω2中具有最大显著度的频率,将其放入集合Ω3,同时删去Ω2中与该频率有倍数关系的频率及其半频,重复以上过程直到选取Ω3中显著度最大的3个作为候选基频集合Ω。
步骤S15:维特比基音对齐。计算每个浊音段中满足的维特比基音对齐的基频,得到其轨迹。其公式如下:
其中Sn,k表示第n帧中第k个候选基频的音高显著度,p(·)表示音高转移概率。
步骤S16:歌声判别。利用反向传播神经网络,判断上述提取的基频是否为歌声基频。优选地,使用一个结构为13-26-13-2的反向传播神经网络,即输入层含有13个神经元,隐藏层分别含有26个和13个神经元,输出层含有2个神经元。特别地,在训练神经网络时,对训练样本作同步骤S11相同的预处理操作,再计算其OSCC,以保证神经网络输入参数的一致性。若是歌声基频则统计该浊音段的基频帧数,若该基频帧数大于总帧数的1/2,则认为该段的主导基频为歌声主旋律,记为f0。对原始音频中每一段浊音段均作如上操作,最终得到基频合集F0。注意到,当已知基频合集时,同时也得到了由基频确定的音符位置及持续时间,由浊音段确定的音节位置及持续时间。参见图3基频语谱图所示,其中亮色(浅灰色)代表上述步骤提取的基频,被框中的部分则为该步骤中被选中的歌声基频。
步骤S2:说话人音库特征模型构建。首先构建说话人音库,并通过对多个说话人音库的音频特征进行提取,训练其HMM模型,生成决策树,最终得到特征模型。参见图4,本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法中说话人音库特征模型构建步骤的流程图。具体地,包括如下步骤:
步骤S21:说话人音库准备。选择不同的说话人构建说话人音库。在本例中,建立了包含5个男声音库和5个女声音库的说话人音库集。每个音库中包含有带人工标注的5个声调(包括拼音一至四声及轻声)的拼音发音音频共计2060个。
步骤S22:音库音频特征提取。对说话人音库中的音频重复步骤S112,S113操作后计算其MFCC(梅尔频率倒谱系数),并将MFCC作为该音频的特征信息。MFCC的计算公式如下:
Mel(f)=2595×lg(1+f/700) 式(11)
其中Mel(f)即为所求的MFCC。
步骤S23:HMM模型训练。对上述步骤提取的音库音频特征信息,采用HMM模型对其进行训练,并求解其MLE(最大似然估计)。其中最大似然估计的公式如下:
其中,表示最大似然估计,O表示HMM的输出序列,λ表示HMM的状态序列,P为HMM中的概率,S表示输入模型。之后配合MAP(最大后验概率)算法修正模型,得到单个说话人音库的相关模型。注意到,在此对所有的说话人音库作上述操作,每个音库均生成一个相关模型。
步骤S24:决策树生成。对经由上述步骤计算出每个音库的相关模型做决策树生成。选择其中最大似然估计值贡献最大的问题进行节点分裂,并利用MDL(最小描述长度)作结束标志。MDL计算公式如下:
DT=argmin(Len(DT)min+Len(Ξ|DT)min) 式(13)
其中DT为所求模型,Len(DT)min表示对DT编码的所需求的最小的编码长度,Len(Ξ|DT)min表示在给定的DT下对Ξ编码的所需的最小的编码长度。
步骤S25:主成分分析及特征模型建立。
将上述步骤建立的决策树中的叶节点参数提取并以此构建矩阵,矩阵行数等同于叶节点个数,矩阵列数等同于叶节点个数与参数维度的乘积。
利用主成分分析法对矩阵作降维处理:首先,将矩阵每列减去相应列的期望,并计算协方差矩阵,协方差矩阵的计算公式如下:
其中ξ,ζ表示矩阵任意两行向量,N表示行向量中元素个数。
利用奇异值分解法计算该协方差矩阵式(14)的特征值与特征向量,属于现有成熟技术,故不详解;取特征值中最大的前k个,并将其对应的k个特征向量作为列向量组成一新的矩阵;然后对新矩阵减去相应行向量的均值与权系数的积,得到特征模型。其中k≤N,在实际中依具体情况选择。
步骤S3:说话人音色转换。参见图5所示,为本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法中说话人音色转换步骤的流程图。具体地,包括以下步骤:
步骤S31:人声析取。通过对原始歌曲音频做中置声道析取,得到相对纯净的人声音频,具体地,包括以下步骤:
步骤S311:非中置声道计算。利用左右声道音频的不同,结合歌曲制作者在后期混音过程中多将人声音轨声相设置于声场中间这一特点,计算出非中置声道音频信息,其计算公式如下:
其中,Vl(t)表示歌曲中左声道的信息,Vr(t)表示右声道信息,Vc(t)表示中置声道信息,表示左声道中除中置声道外的音频信息,表示右声道中除中置声道外的音频信息,表示非中置声道音频的估计信息。
步骤S312:中置声道析取。
中置声道的音频信息可由如下公式获取:
其中表示中置声道音频信息的估计值,V(t)表示原始音频信息。
然后对该中置声道音频作滤波处理,保留其中80-1000Hz的频率,得到最终的人声音频即中置声道音频
步骤S32:重复步骤S22,S23操作,得到经HMM模型训练后的人声音频特征信息。
步骤S33:特征模型权系数计算。对步骤S2得到的特征模型计算其权系数,计算公式如下:
其中,spread表示分布,t表示时刻,Pspread(t)表示t时刻下由分布spread确定的概率,espread(i)表示单位矩阵,i=1,2,…,K,K表示列数,表示由分布spread确定的协方差矩阵的逆,ot表示t时刻的观测序列,即由每个状态生成一个观测,而由此生成的观测的随机序列,μspread表示分布spread下的均值。而μspread又可表示为:
其中ρi即为所需的特征模型权系数。
步骤S34:自适应模型构建。利用上述步骤S33得到的权系数对步骤S2中的特征模型作线性加权,得到目标说话人音色的自适应模型。
步骤S4:人声合成。参见图6所示,为本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法中人声合成步骤的流程图。具体地,包括以下步骤:
步骤S41:TTS(文字到语音)转换。利用原始歌曲音频的歌词,使用TTS系统生成对应的发音,即通过建立一个汉字到拼音的映射表(多音字将由人工在输入歌词时手动标注),利用步骤S3中建立的目标说话人音库模型,生成单字的读音。
步骤S42:歌曲演唱发音生成。其发音由以下公式计算得出:
其中y(t)表示目标音频,G(·)表示基频映射函数,该函数只需满足对基频具有一一映射关系即可,ω表示相位,φ(ω)表示相位激励函数,V(ω,t)在给定相位及时刻下的最小位相冲击响应值经DFT转换后的结果,表示基频合集各基频所对应的时间位置,tk表示基频合集中第k个基频对应的时间位置;
步骤S43:音节时长变换。利用步骤S1得到的音节持续时间,由如下公式计算变换系数:
TS(i)=(TB(i+1)-len(i-1))/(TB(i+1)-TB(i)) 式(21)
其中TS(i)表示第i个音符下的变换系数,TB(i)表示第i个音符输出起点,len表示音符时长。
步骤S45:利用步骤S1中得到的基频及音符持续时间,结合上述音节时长变换系数TS(i)、演唱发音y(t)等信息,合成得到最终的人声发音。
下面将对本发明所提供的一种使用旋律提取与语音合成技术的歌声分离方法与传统歌声分离比较,以验证本方法的技术效果:
实验所使用的测试歌曲均为双声道立体声音乐,采样率44100Hz,采样深度16位(无抖动),储存格式为wave格式。因本发明使用立体声歌曲作为分离样本,传统的MIR-1K数据集不再适用。为此,本次对比实验邀请10位非专业音乐人士对歌曲分离程度进行打分,作为本实验的主观评价标准。打分标准分为1-5分,1分表示分离效果最差,5分表示分离效果最好。
对比实验将本发明提供方法与传统的中置声道析取方法,矩阵分解方法,神经网络方法进行比较。中置声道析取法是传统的基于声源空间差异而分离歌声的方法,其假设所分离的歌声位于中央信道,从而利用歌曲左右声道信息差异来估计中央信道。矩阵分解方法,包括非负矩阵分解,鲁棒主成成分析等方法,在本次实验中使用鲁棒主成成分析法,把音频信息分解为一个低秩成分与一个稀疏成分,其中歌声内容一般认为是中等稀疏的,而伴奏则往往是低秩的。神经网络方法则是利用神经网络的高效学习能力,分别学习人声与伴奏模型,得到对应的分离模型,在本次实验中,使用DNN(深度神经网络)进行分离训练。
图7展示了不同分离方法的主观评分对比。可以看到传统的中置析取方法的分离效果无法满足人类听觉需要,仅具有研究意义,无法在应用于实际工作中;基于矩阵分解的方法效果较中置析取法有明显改善,但仍能听出较明显的伴奏声;使用神经网络的分离方法分离效果良好,基本满足人类听觉的需求,但在部分歌曲上因训练集不足而导致分离效果不理想;本发明提供的一种使用旋律提取与语音合成技术的歌声分离方法则在多数情况下优于上述方案,且具有良好的鲁棒性,不易因训练不足而导致分离效果不理想,亦能节约分离所需的计算量。
以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (5)
1.一种使用旋律提取与语音合成技术的歌声分离方法,其特征在于该方法包括以下步骤:
步骤S1:歌曲主旋律提取,是利用输入原始歌曲音频的信息,提取其中人声的声乐主旋律,即查找其中的人声基音并绘制旋律线;具体包括以下步骤:
步骤S11:原始歌曲音频预处理,包括音频下采样、分帧加窗、DFT(离散傅里叶变换);
步骤S12:歌曲音符分割,包括音频特征提取,分割函数计算,确定分割点;
步骤S13:浊音段检测;对上述步骤S12划分的音频段作浊音段检测,检测公式如下:
其中sign为符号函数,N表示该音频段的帧数,var[n]表示该帧频谱方差,T2为阈值,符号v表示取大运算;
若上式(8)结果为1则该段为非浊音段,上式(8)结果为-1或0则该段为浊音段;
步骤S14:基频提取,包括基频音高显著度函数计算,候选基频选取;具体地:
步骤S141:基频音高显著度函数计算,对步骤S13中得到的浊音段作基频音高显著度计算,其计算公式如下:
S(logf)=Y(logf)*(1/(α-cos(2πe-logf))-β)式(9)
其中S(logf)表示基频音高显著度,Y(logf)表示对数频域,α表示基频控制参数,β为显著度控制因子,β需满足∫S(logf)dlogf=0,f表示上述浊音段音频的频率;
步骤S142:候选基频选取:
查找上述步骤S141计算得的基频音高显著度函数峰值所对应的频率集Ω1;保留频率集Ω1其中80-1000Hz的频率,得到新集合Ω2;选择Ω2中具有最大显著度的频率,将其放入集合Ω3,同时删去Ω2中与该频率有倍数关系的频率及其半频,重复以上过程直到选取Ω3中显著度最大的3个作为候选基频集合Ω;
步骤S15:维特比基音对齐:
计算每个浊音段中满足的维特比基音对齐的基频,得到其轨迹;其公式如下:
其中Sn,k表示第n帧中第k个候选基频的音高显著度,p(·)表示音高转移概率;
步骤S16:歌声判别:
利用反向传播神经网络,判断上述提取的基频是否为歌声基频;
若判断为歌声基频,且满足该浊音段基频帧数大于总帧数的1/2,则认为该段的主导基频为歌声主旋律,记为f0;对原始音频中每一段浊音段均作如上操作,最终得到基频合集F0;注意到,当已知基频合集时,同时也得到了由基频确定的音符位置及持续时间,由浊音段确定的音节位置及持续时间;
步骤S2:说话人音库特征模型构建:
首先构建说话人音库,并通过对多个说话人音库的音频特征进行提取,训练其HMM模型,生成决策树,最终得到特征模型;具体包括如下步骤:
步骤S21:说话人音库准备:选择不同的说话人构建说话人音库,每个说话人音库中包含有带人工标注的5个声调的拼音发音音频;
步骤S22:音库音频特征提取:对说话人音库中的音频进行分帧加窗、DFT操作后计算其梅尔频率倒谱系数MFCC,并将MFCC作为该音频的特征信息;
MFCC的计算公式如下:
Mel(f)=2595×lg(1+f/700)式(11)
其中Mel(f)即为所求的MFCC;
步骤S23:HMM模型训练:
对上述步骤提取的音库音频特征信息MFCC,采用HMM模型对其进行训练,即将MFCC作为模型的输入,并根据公式(12)求解其最大似然估计MLE;
其中,表示最大似然估计,O表示HMM的输出序列,λ表示HMM的状态序列,P为HMM中的概率,S表示输入模型;之后配合MAP最大后验概率算法修正模型,得到单个说话人音库的相关模型;
步骤S24:决策树生成:
对经由上述步骤计算出每个说话人音库的相关模型做决策树生成;选择其中最大似然估计值贡献最大的问题进行节点分裂,并利用最小描述长度MDL作结束标志;利用MDL作结束标志的决策树模型计算公式如下:
DT=argmin(Len(DT)min+Len(Ξ|DT)min)式(13)
其中DT为所求模型,Len(DT)min表示对DT编码的所需求的最小的编码长度,Len(Ξ|DT)min表示在给定的DT下对Ξ编码的所需的最小的编码长度;
步骤S25:主成分分析及特征模型建立;
将上述步骤建立的决策树中的叶节点参数提取并以此构建矩阵,矩阵行数等同于叶节点个数,矩阵列数等同于叶节点个数与参数维度的乘积;
利用主成分分析法对矩阵作降维处理:首先,将矩阵每列减去相应列的期望,并计算协方差矩阵,协方差矩阵的计算公式如下:
其中ξ,ζ表示矩阵任意两行向量,N表示行向量中元素个数;
利用奇异值分解法计算该协方差矩阵式(14)的特征值与特征向量;取特征值中最大的前k个,并将其对应的k个特征向量作为列向量组成一新的矩阵;然后对新矩阵减去相应行向量的均值与权系数的积,得到特征模型;其中k≤N;
步骤S3:说话人音色转换,具体包括如下:
步骤S31:人声析取:
通过对原始歌曲音频做中置声道析取,得到相对纯净的人声音频,具体地,包括以下步骤:
步骤S311:非中置声道计算;利用左右声道音频的不同,结合歌曲制作者在后期混音过程中多将人声音轨声相设置于声场中间这一特点,计算出非中置声道音频信息,其计算公式如下:
其中,Vl(t)表示歌曲中左声道的信息,Vr(t)表示右声道信息,Vc(t)表示中置声道信息,表示左声道中除中置声道外的音频信息,表示右声道中除中置声道外的音频信息,表示非中置声道音频的估计信息;
步骤S312:中置声道析取;
中置声道的音频信息可由如下公式(17)获取:
其中表示中置声道音频信息的估计值,V(t)表示原始音频信息;
然后对该中置声道音频作滤波处理,保留其中80-1000Hz的频率,得到最终的人声音频即中置声道音频
步骤S32:重复步骤S22,S23操作,得到经HMM模型训练后的人声音频特征信息;
步骤S33:特征模型权系数计算;对步骤S2得到的特征模型计算其权系数,计算公式如下:
其中,spread表示分布,t表示时刻,Pspread(t)表示t时刻下由分布spread确定的概率,espread(i)表示单位矩阵,i=1,2,…,K,K表示列数,表示由分布spread确定的协方差矩阵的逆,ot表示t时刻的观测序列,即由每个状态生成一个观测,而由此生成的观测的随机序列,μspread表示分布spread下的均值;而μspread又可表示为:
其中ρi即为所需的特征模型权系数;
步骤S34:自适应模型构建;利用上述步骤S33得到的权系数对步骤S2中的特征模型作线性加权,得到目标说话人音色的自适应模型;
步骤S4:人声合成,具体包括以下步骤:
步骤S41:TTS(文字到语音)转换:
利用原始歌曲音频的歌词,使用TTS系统生成对应的发音,即通过建立一个汉字到拼音的映射表,利用步骤S3中建立的目标说话人音库模型,生成单字的读音;
步骤S42:歌曲演唱发音生成;其发音由以下公式(20)计算得出:
其中y(t)表示目标音频,G(·)表示基频映射函数,该函数只需满足对基频具有一一映射关系即可,ω表示相位,φ(ω)表示相位激励函数,V(ω,t)在给定相位及时刻下的最小位相冲击响应值经DFT转换后的结果,表示基频合集各基频所对应的时间位置,tk表示基频合集中第k个基频对应的时间位置;
步骤S43:音节时长变换;利用步骤S1得到的音节持续时间,由如下公式计算变换系数:
TS(i)=(TB(i+1)-len(i-1))/(TB(i+1)-TB(i)) 式(21)
其中TS(i)表示第i个音符下的变换系数,TB(i)表示第i个音符输出起点,len表示音符时长;
步骤S45:利用步骤S1中得到的基频及音符持续时间,结合上述音节时长变换系数TS(i)、演唱发音y(t),合成得到最终的人声发音。
2.如权利要求1所述的一种使用旋律提取与语音合成技术的歌声分离方法,其特征在于步骤S11具体是:
步骤S111:对原始歌曲音频作下采样处理;使用线性插值法将原始音频采样降至8kHz:下采样数学公式如下:
其中Sd[i]表示下采样后的音频信息,S表示原始歌曲音频信息,符号表示向下取整,i代表每个采样点,sf为下采样因子,若原始歌曲音频采样率为44.1kHz,则
步骤S112:对S111下采样后的音频作分帧加窗操作,设定窗长为5帧,窗函数使用汉明窗;其公式如下:
Sh[i]=Sd[i]*H[i]式(3)
其中Sh[i]表示处理后的音频信息,符号*表示卷积运算,H[i]表示汉明窗函数;
步骤S113:DFT变换,对上述分帧后的音频数据做离散傅里叶变换,公式如下:
其中x[i]为DFT变换后的音频信息,符号j为虚数符号。
3.如权利要求1所述的一种使用旋律提取与语音合成技术的歌声分离方法,其特征在于步骤S12具体是:
步骤S121:音频特征提取,优选地,使用八度音阶倒谱系数OSCC作为音频的特征参数,OSCC转换公式如下:
Octave(f)=12log225f×mod12式(6)
其中f表示原始歌曲音频频率,Octave(f)表示转换后的音频频率,即所需要的音频特征,符号mod表示取模运算;
经公式(6)处理后得到的音频频率范围为64-16384Hz,对应的八度音阶符号为C2B2-C9B9;
步骤S122:分割函数计算,其计算公式如下:
D[n]=(ΔMV[n]T×ΔMV[n])/(∑kcov[n]b,k+∑icov[n]a,k)式(7)
其中ΔMV[n]表示第n帧音频前后1帧音频OSCC特征均值的差,符号T表示转置运算,cov[n]b,k表示第n帧前1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素,cov[n]a,k表示第n帧后1帧音频的特征协方差矩阵中第k行,第k列位置对应的元素;
步骤S123:确定分割点;计算D[n]中所有的极大值点,并删除其中小于给定阈值T1的点,剩余的极大值点即为所求的分割点,依据分割点将原始音频划分为不同的音频段。
4.如权利要求1所述的一种使用旋律提取与语音合成技术的歌声分离方法,其特征在于步骤S16使用一个结构为13-26-13-2的反向传播神经网络,即输入层含有13个神经元,隐藏层分别含有26个和13个神经元,输出层含有2个神经元。
5.如权利要求2所述的一种使用旋律提取与语音合成技术的歌声分离方法,其特征在于步骤S22中分帧加窗、DFT分别与步骤S112、S113相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910754151.9A CN110600055B (zh) | 2019-08-15 | 2019-08-15 | 一种使用旋律提取与语音合成技术的歌声分离方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910754151.9A CN110600055B (zh) | 2019-08-15 | 2019-08-15 | 一种使用旋律提取与语音合成技术的歌声分离方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110600055A true CN110600055A (zh) | 2019-12-20 |
CN110600055B CN110600055B (zh) | 2022-03-01 |
Family
ID=68854389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910754151.9A Active CN110600055B (zh) | 2019-08-15 | 2019-08-15 | 一种使用旋律提取与语音合成技术的歌声分离方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110600055B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111326164A (zh) * | 2020-01-21 | 2020-06-23 | 大连海事大学 | 一种半监督式音乐主旋律提取方法 |
CN111429881A (zh) * | 2020-03-19 | 2020-07-17 | 北京字节跳动网络技术有限公司 | 声音复制方法、装置、可读介质及电子设备 |
CN111599347A (zh) * | 2020-05-27 | 2020-08-28 | 广州科慧健远医疗科技有限公司 | 一种提取病理语音mfcc特征用于人工智能分析的标准化采样方法 |
CN111739493A (zh) * | 2020-06-23 | 2020-10-02 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频处理方法、装置及存储介质 |
CN112331222A (zh) * | 2020-09-23 | 2021-02-05 | 北京捷通华声科技股份有限公司 | 一种转换歌曲音色的方法、系统、设备及存储介质 |
CN112562726A (zh) * | 2020-10-27 | 2021-03-26 | 昆明理工大学 | 一种基于mfcc相似矩阵的语音音乐分离方法 |
CN114093383A (zh) * | 2022-01-17 | 2022-02-25 | 北京远鉴信息技术有限公司 | 一种参会者语音的确定方法、装置、电子设备及存储介质 |
WO2022082607A1 (en) * | 2020-10-22 | 2022-04-28 | Harman International Industries, Incorporated | Vocal track removal by convolutional neural network embedded voice finger printing on standard arm embedded platform |
CN117475360A (zh) * | 2023-12-27 | 2024-01-30 | 南京纳实医学科技有限公司 | 基于改进型mlstm-fcn的音视频特点的生物体征提取与分析方法 |
WO2024103302A1 (zh) * | 2022-11-16 | 2024-05-23 | 广州酷狗计算机科技有限公司 | 人声音符识别模型的训练方法、人声音符识别方法及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102592607A (zh) * | 2012-03-30 | 2012-07-18 | 北京交通大学 | 一种使用盲语音分离的语音转换系统和方法 |
EP2960899A1 (en) * | 2014-06-25 | 2015-12-30 | Thomson Licensing | Method of singing voice separation from an audio mixture and corresponding apparatus |
CN108461079A (zh) * | 2018-02-02 | 2018-08-28 | 福州大学 | 一种面向音色转换的歌声合成方法 |
CN110516102A (zh) * | 2019-07-18 | 2019-11-29 | 杭州电子科技大学 | 一种基于语谱图识别的歌词时间戳生成方法 |
-
2019
- 2019-08-15 CN CN201910754151.9A patent/CN110600055B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102592607A (zh) * | 2012-03-30 | 2012-07-18 | 北京交通大学 | 一种使用盲语音分离的语音转换系统和方法 |
EP2960899A1 (en) * | 2014-06-25 | 2015-12-30 | Thomson Licensing | Method of singing voice separation from an audio mixture and corresponding apparatus |
US20150380014A1 (en) * | 2014-06-25 | 2015-12-31 | Thomson Licensing | Method of singing voice separation from an audio mixture and corresponding apparatus |
CN108461079A (zh) * | 2018-02-02 | 2018-08-28 | 福州大学 | 一种面向音色转换的歌声合成方法 |
CN110516102A (zh) * | 2019-07-18 | 2019-11-29 | 杭州电子科技大学 | 一种基于语谱图识别的歌词时间戳生成方法 |
Non-Patent Citations (2)
Title |
---|
C. HSU 等: ""A Tandem Algorithm for Singing Pitch Extraction and Voice Separation From Music Accompaniment"", 《IEEE TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING》 * |
梁瀚明: ""基于深度学习的单声道人声与伴奏分离算法研究"", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111326164B (zh) * | 2020-01-21 | 2023-03-21 | 大连海事大学 | 一种半监督式音乐主旋律提取方法 |
CN111326164A (zh) * | 2020-01-21 | 2020-06-23 | 大连海事大学 | 一种半监督式音乐主旋律提取方法 |
CN111429881A (zh) * | 2020-03-19 | 2020-07-17 | 北京字节跳动网络技术有限公司 | 声音复制方法、装置、可读介质及电子设备 |
CN111429881B (zh) * | 2020-03-19 | 2023-08-18 | 北京字节跳动网络技术有限公司 | 语音合成方法、装置、可读介质及电子设备 |
CN111599347A (zh) * | 2020-05-27 | 2020-08-28 | 广州科慧健远医疗科技有限公司 | 一种提取病理语音mfcc特征用于人工智能分析的标准化采样方法 |
CN111599347B (zh) * | 2020-05-27 | 2024-04-16 | 广州科慧健远医疗科技有限公司 | 一种提取病理语音mfcc特征用于人工智能分析的标准化采样方法 |
CN111739493A (zh) * | 2020-06-23 | 2020-10-02 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频处理方法、装置及存储介质 |
CN111739493B (zh) * | 2020-06-23 | 2023-07-14 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频处理方法、装置及存储介质 |
CN112331222A (zh) * | 2020-09-23 | 2021-02-05 | 北京捷通华声科技股份有限公司 | 一种转换歌曲音色的方法、系统、设备及存储介质 |
WO2022082607A1 (en) * | 2020-10-22 | 2022-04-28 | Harman International Industries, Incorporated | Vocal track removal by convolutional neural network embedded voice finger printing on standard arm embedded platform |
CN112562726A (zh) * | 2020-10-27 | 2021-03-26 | 昆明理工大学 | 一种基于mfcc相似矩阵的语音音乐分离方法 |
CN114093383B (zh) * | 2022-01-17 | 2022-04-12 | 北京远鉴信息技术有限公司 | 一种参会者语音的确定方法、装置、电子设备及存储介质 |
CN114093383A (zh) * | 2022-01-17 | 2022-02-25 | 北京远鉴信息技术有限公司 | 一种参会者语音的确定方法、装置、电子设备及存储介质 |
WO2024103302A1 (zh) * | 2022-11-16 | 2024-05-23 | 广州酷狗计算机科技有限公司 | 人声音符识别模型的训练方法、人声音符识别方法及设备 |
CN117475360A (zh) * | 2023-12-27 | 2024-01-30 | 南京纳实医学科技有限公司 | 基于改进型mlstm-fcn的音视频特点的生物体征提取与分析方法 |
CN117475360B (zh) * | 2023-12-27 | 2024-03-26 | 南京纳实医学科技有限公司 | 基于改进型mlstm-fcn的音视频特点的生物特征提取与分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110600055B (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110600055B (zh) | 一种使用旋律提取与语音合成技术的歌声分离方法 | |
US8005666B2 (en) | Automatic system for temporal alignment of music audio signal with lyrics | |
US8880409B2 (en) | System and method for automatic temporal alignment between music audio signal and lyrics | |
Ryynänen et al. | Transcription of the Singing Melody in Polyphonic Music. | |
CN102779508B (zh) | 语音库生成设备及其方法、语音合成系统及其方法 | |
US20150025892A1 (en) | Method and system for template-based personalized singing synthesis | |
CN103915093B (zh) | 一种实现语音歌唱化的方法和装置 | |
CN110516102B (zh) | 一种基于语谱图识别的歌词时间戳生成方法 | |
Nakamura et al. | HMM-based singing voice synthesis and its application to Japanese and English | |
CN110265063B (zh) | 一种基于固定时长语音情感识别序列分析的测谎方法 | |
Durrieu et al. | An iterative approach to monaural musical mixture de-soloing | |
Picart et al. | Analysis and automatic recognition of human beatbox sounds: A comparative study | |
Kruspe et al. | Training Phoneme Models for Singing with" Songified" Speech Data. | |
Chien et al. | Alignment of lyrics with accompanied singing audio based on acoustic-phonetic vowel likelihood modeling | |
CN116229932A (zh) | 一种基于跨域一致性损失的语音克隆方法及系统 | |
Kim | Singing voice analysis/synthesis | |
JP4323029B2 (ja) | 音声処理装置およびカラオケ装置 | |
Tsai et al. | Singer identification based on spoken data in voice characterization | |
Maruo et al. | A feedback framework for improved chord recognition based on NMF-based approximate note transcription | |
Lee et al. | A comparative study of spectral transformation techniques for singing voice synthesis. | |
JP5131904B2 (ja) | 音楽音響信号と歌詞の時間的対応付けを自動で行うシステム及び方法 | |
Zolnay et al. | Extraction methods of voicing feature for robust speech recognition. | |
JP4364977B2 (ja) | 音声変換装置及び方法 | |
Chu et al. | MPop600: A Mandarin popular song database with aligned audio, lyrics, and musical scores for singing voice synthesis | |
Shih et al. | A statistical multidimensional humming transcription using phone level hidden Markov models for query by humming systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |