CN105989842B - 对比声纹相似度的方法、装置及其在数字娱乐点播系统中的应用 - Google Patents
对比声纹相似度的方法、装置及其在数字娱乐点播系统中的应用 Download PDFInfo
- Publication number
- CN105989842B CN105989842B CN201510050095.2A CN201510050095A CN105989842B CN 105989842 B CN105989842 B CN 105989842B CN 201510050095 A CN201510050095 A CN 201510050095A CN 105989842 B CN105989842 B CN 105989842B
- Authority
- CN
- China
- Prior art keywords
- vocal print
- standard
- user
- similarity
- formant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
本发明涉及数字娱乐点播系统领域,尤其涉及一种对比声纹相似度的方法及其在数字娱乐点播系统的应用。所述对比声纹相似度的方法,包括以下步骤:从标准干声中提取标准声纹;从采集的演唱干声中提取用户声纹;将用户声纹与标准声纹进行对比并计算模仿相似度;显示经过声纹对比后系统评估的评分结果。本发明的目的在于克服以上缺点,可以实现用户通过模仿一首歌曲,演唱过程能实时比对用户与标准声纹的相似度,给出实时的模仿相似情况,演唱结束,给出整体的模仿相似度的效果;同时,本发明还提供了上述对比声纹相似度的方法在数字娱乐点播系统的应用。
Description
技术领域
本发明涉及数字娱乐点播系统领域,尤其涉及一种对比声纹相似度的方法及其在数字娱乐点播系统的应用。
背景技术
现有的数字娱乐系统中的实时演唱评分方法,一般由音频采集模块实时采集演唱录音,通过音频分析技术计算用户演唱的音高、旋律、音长等演唱信息、并与歌曲标准演唱信息对比,确定演唱正确与否,并依此评分,给出演唱得分,显示在显示模块上。如中国专利公开号CN103077701A公布的一种音准评定方法,包括:在屏幕上展示歌曲的基准音高值与演唱游标;录制用户演唱该歌曲的实时音频,并计算该实时音频的实时音高值;判断该实时音频的实时音高值与基准音高值是否保持匹配,如果不是,则调整演唱游标与基准音高值的相对位置展示关系以向用户发出实时提醒。因此上述发明可提高演唱者音高与基准音高匹配的准确度。因此,在现有的演唱评分系统中,不论音高、旋律、音长等评分因素,都是针对用户演唱正确与否进行评分,而不能针对用户模仿歌曲标准的相似程度进行评分。
发明内容
本发明的目的之一在于克服以上缺点,提供一种对比声纹相似度的方法以及装置,可以实现用户通过模仿一首歌曲,演唱过程能实时比对用户与标准声纹的相似度,给出实时的模仿相似情况,演唱结束,给出整体的模仿相似度的效果。
为了实现上述发明目的,根据本发明的一方面,提供了一种对比声纹相似度的方法,包括以下步骤:
从标准干声中提取标准声纹;
从采集的演唱干声中提取用户声纹;
将用户声纹与标准声纹进行对比并计算模仿相似度。
其中,所述标准干声可以包括:某一歌曲的原唱干声或者由测试者所指定的特定人员的演唱干声。
优选地,该方法进一步包括:
显示经过声纹对比后系统评估的模仿相似程度结果。
优选地,所述的提取标准声纹或提取用户声纹,可进一步具体为:
从标准干声或用户演唱干声中,计算出标准声纹特征矩阵或用户声纹特征矩阵。
优选地,所述的标准声纹特征矩阵或用户声纹特征矩阵的一种计算方法如下:
提取M条音频共振峰,所述M条共振峰组成一个共振峰特征矩阵AM×N,即特征矩阵A共有M行,每行有N个点,每个点对应一条共振峰上某个时刻点的值;
设计一组权重值BM×1,每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大;
计算标准声纹或用户声纹特征矩阵VM×N,其中Vij=Bi1×Aij;即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
优选地,所述的标准声纹特征矩阵或用户声纹特征矩阵的另一种计算方法如下:
预加重:通过一个一阶有限激励响应高通滤波器,使信号的频谱变得平坦,不易受到有限字长效应的影响;
分帧:根据语音的短时平稳特性,语音可以以帧为单位进行处理;
加窗:采用哈明窗对一帧语音加窗,以减小吉布斯效应的影响;
快速傅立叶变换(FFT):将时域信号变换成为信号的功率谱;
三角窗滤波:用一组Mel频标上线性分布的预设数量的三角窗滤波器,对信号的功率谱滤波,每一个三角窗滤波器覆盖的范围都近似于人耳的一个临界带宽,以此来模拟人耳的掩蔽效应;
求对数:对三角窗滤波器组的输出求取对数;
离散余弦变换(DCT):去除各维信号之间的相关性,将信号映射到低维空间,每一帧输出预设数量个数的DCT参数,为该帧(该时刻)的声纹特征。
最终求得一个声纹特征矩阵,声纹特征矩阵的每行对应于按时间顺序的每一帧(每一个时刻),每列对应相应时刻的预设数量的DCT参数,即每个时刻的声纹特征。
优选地,所述的将用户声纹与标准声纹进行对比并计算模仿相似度,步骤如下:
用模式识别方法计算用户声纹特征矩阵和标准声纹特征矩阵的距离值;
用归一化法将距离值归一化为相似度值。
优选的,所述模式识别方法可为高斯混合模型GMM、动态时间规整DTW、隐马尔可夫模型HMM、矢量量化方法VQ、人工神经网络方法ANN或概率统计方法等。
优选地,所述的归一化方法为线性映射、分段线性映射以及单调函数的方法。
为了实现上述发明目的,根据本发明的另一方面,提供了一种对比声纹相似度的装置,包括:
标准声纹提取模块,用于从标准干声中提取标准声纹;
用户声纹提取模块,用于从采集的演唱干声中提取用户声纹;
声纹对比模块,用于将用户声纹与标准声纹进行对比并计算模仿相似度。
优选地,所述的对比声纹相似度的装置,还包括:
显示模块,用于显示经过声纹对比后系统评估的模仿相似程度结果。
优选地,所述的标准声纹提取模块或用户声纹提取模块,可以采用以下结构,包括:
音频共振峰提取单元,用于提取M条音频共振峰,所述M条共振峰组成一个共振峰特征矩阵AM×N,即特征矩阵A共有M行,每行有N个点,每个点对应一条共振峰上某刻时刻点的值;
权重值设计单元,用于设计一组权重值BM×1,每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大;
声纹特征矩阵计算单元,用于计算标准声纹或用户声纹特征矩阵VM×N,其中Vij=Bi1×Aij;即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
优选地,所述的标准声纹提取模块或用户声纹提取模块,还可以采用以下结构,包括:
预加重单元,用于通过一个一阶有限激励响应高通滤波器,使信号的频谱变得平坦,不易受到有限字长效应的影响;
分帧单元,用于根据语音的短时平稳特性,语音可以以帧为单位进行处理;
加窗单元,用于采用哈明窗对一帧语音加窗,以减小吉布斯效应的影响;
快速傅立叶变换单元,用于将时域信号变换成为信号的功率谱;
三角窗滤波单元,用于用一组Mel频标上线性分布的预设数量的三角窗滤波器,对信号的功率谱滤波,每一个三角窗滤波器覆盖的范围都近似于人耳的一个临界带宽,以此来模拟人耳的掩蔽效应;
求对数单元,用于对三角窗滤波器组的输出求取对数;
离散余弦变换单元,用于去除各维信号之间的相关性,将信号映射到低维空间,每一帧输出预设数量个数的DCT参数,为该帧的声纹特征。
声纹特征矩阵计算单元,用于最终求得一个声纹特征矩阵,声纹特征矩阵的每行对应于按时间顺序的每一帧,每列对应相应时刻的预设数量的DCT参数,即每个时刻的声纹特征。
本发明的另一发明目的在于克服以上缺点,提供一种基于声纹对比的演唱评分方法和装置,可以实现用户通过模仿一首歌曲,演唱过程能实时比对用户与标准声纹的相似度,给出实时的模仿相似情况,演唱结束,给出整体的模仿相似度的效果。
为了实现上述发明目的,根据本发明的一方面,提供了一种基于声纹对比的演唱评分方法,其特征在于,包括以下步骤:
从标准干声中提取标准声纹;
从采集的演唱干声中提取用户声纹;
将用户声纹与标准声纹进行对比并计算模仿相似度,所述模仿相似度做为评分结果。
优选地,该方法进一步包括:
显示经过声纹对比后系统评估的评分结果。
优选地,所述的提取标准声纹或提取用户声纹,可进一步具体为:
从标准音频或用户演唱干声中,计算出标准声纹特征矩阵或用户声纹特征矩阵。
优选地,所述的标准声纹特征矩阵或用户声纹特征矩阵的一种计算方法如下:
提取M条音频共振峰,所述M条共振峰组成一个共振峰特征矩阵AM×N,即特征矩阵A共有M行,每行有N个点,每个点对应一条共振峰上某个时刻点的值;
设计一组权重值BM×1,每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大;
计算标准声纹或用户声纹特征矩阵VM×N,其中Vij=Bi1×Aij;即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
优选地,所述的标准声纹特征矩阵或用户声纹特征矩阵的另一种计算方法如下:
预加重:通过一个一阶有限激励响应高通滤波器,使信号的频谱变得平坦,不易受到有限字长效应的影响;
分帧:根据语音的短时平稳特性,语音可以以帧为单位进行处理;
加窗:采用哈明窗对一帧语音加窗,以减小吉布斯效应的影响;
快速傅立叶变换(FFT):将时域信号变换成为信号的功率谱;
三角窗滤波:用一组Mel频标上线性分布的预设数量的三角窗滤波器,对信号的功率谱滤波,每一个三角窗滤波器覆盖的范围都近似于人耳的一个临界带宽,以此来模拟人耳的掩蔽效应;
求对数:对三角窗滤波器组的输出求取对数;
离散余弦变换(DCT):去除各维信号之间的相关性,将信号映射到低维空间,每一帧输出预设数量个数的DCT参数,为该帧(该时刻)的声纹特征。
最终求得一个声纹特征矩阵,声纹特征矩阵的每行对应于按时间顺序的每一帧(每一个时刻),每列对应相应时刻的预设数量的DCT参数,即每个时刻的声纹特征。
优选地,所述的将用户声纹与标准声纹进行对比并计算模仿相似度,步骤如下:
用模式识别方法计算用户声纹特征矩阵和标准声纹特征矩阵的距离值;
用归一化法将距离值归一化为相似度值。
优选的,所述模式识别方法可为高斯混合模型GMM、动态时间规整DTW、隐马尔可夫模型HMM、矢量量化方法VQ、人工神经网络方法ANN或概率统计方法等。
优选地,所述的归一化方法为线性映射、分段线性映射以及单调函数的方法。
优选地,所述的显示经过声纹对比后系统评估的评分结果,具体为:显示演唱到当前为止,经过声纹对比后系统评估的模仿相似程度的示意图。
所述的显示经过声纹对比后系统评估的评分结果,还可以进一步包括:
显示当前演唱内容的标准声纹的示意图;
显示当前用户演唱声纹的示意图;
将当前用户演唱声纹的示意图叠加在当前演唱内容的标准声纹的示意图之上进行显示。
优选地,所述的显示当前演唱内容的标准声纹或当前用户演唱的声纹示意图,其绘制步骤如下:
首先计算出声纹示意图数据Vp1×N,其中Vp1i=V1i+V2i+V3i+……VMi;
然后将Vp数值当作曲线数据进行绘制。
为了实现上述发明目的,根据本发明的另一方面,提供了一种基于声纹对比的演唱评分装置,其特征在于,包括:
标准声纹提取模块,用于从标准干声中提取标准声纹;
用户声纹提取模块,用于从采集的音频中提取用户声纹;
声纹对比模块,用于将用户声纹与标准声纹进行对比并计算模仿相似度,所述模仿相似度做为评分结果。
优选地,所述的基于声纹对比的演唱评分装置,还包括:
显示模块,用于显示经过声纹对比后系统评估的评分结果。
优选地,所述的标准声纹提取模块或用户声纹提取模块,可以采用以下结构,包括:
音频共振峰提取单元,用于提取M条音频共振峰,所述M条共振峰组成一个共振峰特征矩阵AM×N,即特征矩阵A共有M行,每行有N个点,每个点对应一条共振峰上某刻时刻点的值;
权重值设计单元,用于设计一组权重值BM×1,每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大;
声纹特征矩阵计算单元,用于计算标准声纹或用户声纹特征矩阵VM×N,其中Vij=Bi1×Aij;即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
优选地,所述的标准声纹提取模块或用户声纹提取模块,还可以采用另一种结构,包括:
预加重单元,用于通过一个一阶有限激励响应高通滤波器,使信号的频谱变得平坦,不易受到有限字长效应的影响;
分帧单元,用于根据语音的短时平稳特性,语音可以以帧为单位进行处理;
加窗单元,用于采用哈明窗对一帧语音加窗,以减小吉布斯效应的影响;
快速傅立叶变换单元,用于将时域信号变换成为信号的功率谱;
三角窗滤波单元,用于用一组Mel频标上线性分布的预设数量的三角窗滤波器,对信号的功率谱滤波,每一个三角窗滤波器覆盖的范围都近似于人耳的一个临界带宽,以此来模拟人耳的掩蔽效应;
求对数单元,用于对三角窗滤波器组的输出求取对数;
离散余弦变换单元,用于去除各维信号之间的相关性,将信号映射到低维空间,每一帧输出预设数量个数的DCT参数,为该帧的声纹特征。
声纹特征矩阵计算单元,用于最终求得一个声纹特征矩阵,声纹特征矩阵的每行对应于按时间顺序的每一帧,每列对应相应时刻的预设数量的DCT参数,即每个时刻的声纹特征。
优选地,所述显示模块,包括:
相似度示意单元,用于显示演唱到当前为止,经过声纹对比后系统评估的模仿相似程度的示意图;
标准声纹示意单元,用于显示当前演唱内容的标准声纹的示意图;
用户声纹示意单元,用于显示当前用户演唱声纹的示意图。
优选地,所述基于声纹对比的演唱评分装置,还可以进一步包括音频采集模块,用于实时采集用户的演唱音频。
本发明的另一目的在于克服以上缺点,提供一种数字娱乐点播系统,该系统具有基于声纹对比进行演唱评分的功能,该系统可以实现用户通过模仿一首歌曲,演唱过程能实时比对用户与标准声纹的相似度,给出实时的模仿相似情况,演唱结束,给出整体的模仿相似度的效果。
为了实现上述发明目的,本发明提供了一种数字娱乐点播系统,包含上述的基于声纹对比的演唱评分装置。
与现有的演唱评分系统中,不论音高、旋律、音长等评分因素,都是针对用户演唱正确与否进行评分的做法不同,通过本发明所述的基于声纹对比的演唱评分的方法或装置,可以直接在现有KTV系统中实现基于声纹对比的模仿相似度演唱评分,当用户模仿一首歌曲时,在演唱过程就可以实时比对用户与标准声纹的相似度,给出实时的模仿相似情况,在演唱结束后,给出整体的模仿相似度的演唱评分效果。
另外,在本发明中,为确保所提取的标准或标准的音频特征能准确反映标准的声纹特质,特别需要使用标准的干声或纯净的用户演唱干声作为提取源,避免伴奏、混响等效果减弱声纹特征矩阵中的标准声纹特质或用户声纹特征。
同时,为了使提取获得的声纹特征矩阵能准确反映使用者每时刻的声纹特征,及其各时刻间的变化关系,因此,所求得的声纹特征矩阵的其中一维(行或列)可以对应于分帧时的一帧(一个时刻点)。并且,由于面对采用不同声纹对比方法(模式匹配方法)计算得到的对比值,使用者无法将其直接理解为相似度的概念,而本发明采用归一化方法,可以将对比值转为使用者能理解的相似度的概念,常用方法是归一化到0-100,以百分比的方式表示其相似度。另外,在本发明中同时显示用户与标准的声纹是可以实时比较用户模仿的相差情况,使用户可以更加直观地进行声纹的对比。
本发明中所采用的声纹示意图数据的计算方法,可以将多维度的声纹特征转为一维向量,便于图形绘制。
附图说明
下面参照附图结合实施例对本发明作进一步说明:
图1是基于声纹对比的演唱评分方法的整体工作流程图。
图2是从标准干声中提取标准声纹的一种方法的详细工作流程图。
图3是从标准干声中提取标准声纹的另一种方法的详细工作流程图。
图4是归一化方法为分段线性映射法时的操作流程图。
图5是采用分段线性映射中的DTW测算距离与相似度值之间的对应关系曲线图。
图6是用GMM模式识别方法计算用户声纹特征矩阵和标准声纹特征矩阵的距离值的详细流程图。
图7是步骤104所述显示经过声纹对比后系统评估的模仿相似程度结果的详细流程图。
图8是当前演唱内容的标准声纹和当前用户演唱的声纹示意图的绘制步骤流程图。
图9是根据图8所述绘制流程所作出的当前演唱内容的标准声纹示意图。
图10是本发明基于声纹对比的评分装置或对比声纹相似度的装置的结构框图。
图11是本发明基于声纹对比的评分装置或对比声纹相似度的装置的声纹提取模块的结构示意框图。
图12是本发明基于声纹对比的评分装置或对比声纹相似度的装置的声纹提取模块的另一种结构示意图。
图13是本发明基于声纹对比的评分装置或对比声纹相似度的装置的显示模块的结构示意框图。
图14是一种具有基于声纹对比进行演唱评分功能的数字娱乐点播系统的结构示意框图。
图15是一种对比声纹相似度的方法的整体工作流程图。
具体实施方式
下面结合说明书附图和具体实施例对本发明内容进行详细说明:
如图1所示,是本发明的基于声纹对比的演唱评分方法的流程图,该方法包括:
步骤101:从标准干声中提取标准声纹;
步骤102:实时采集用户演唱干声并提取用户声纹;该步骤也可以与步骤101同时完成;
步骤103:将用户声纹与标准声纹输入进行对比并计算模仿相似度;所述模仿相似度做为评分结果;
步骤104:显示经过声纹对比后系统评估的评分结果。
如图2,是上述步骤101的详细流程图。优选地,所述的提取标准声纹的一种方法的步骤如下:
步骤201:提取4条音频共振峰,从低频到高频依次标记为f1,f2,f3,f4。所述4条共振峰组成一个共振峰特征矩阵,矩阵记为A4×N,即特征矩阵A共有4行,每行有N个点,每个点对应一条共振峰上某刻时刻点的值。
步骤202:设计一组权重值,B4×1={w1;w2;w3;w4},每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大。
步骤203:计算标准声纹或用户声纹特征矩阵VM×N,Vij=Bi1×Aij即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
如图3,优选地,所述的提取标准声纹的另一种计算方法如下:
步骤301,预加重:通过一个一阶有限激励响应高通滤波器,使信号的频谱变得平坦,不易受到有限字长效应的影响;
步骤302,分帧:根据语音的短时平稳特性,语音可以以帧为单位进行处理;
步骤303,加窗:采用哈明窗对一帧语音加窗,以减小吉布斯效应的影响;
步骤304,快速傅立叶变换(FFT):将时域信号变换成为信号的功率谱;
步骤305,三角窗滤波:用一组Mel频标上线性分布的三角窗滤波器(共24个三角窗滤波器),对信号的功率谱滤波,每一个三角窗滤波器覆盖的范围都近似于人耳的一个临界带宽,以此来模拟人耳的掩蔽效应;
步骤306,求对数:对三角窗滤波器组的输出求取对数;
步骤307,离散余弦变换(DCT):去除各维信号之间的相关性,将信号映射到低维空间,每一帧输出24个数的DCT参数,为该帧(该时刻)的声纹特征。
步骤308,最终求得一个声纹特征矩阵,声纹特征矩阵的每列对应于按时间顺序的每一帧(每一个时刻),每列中的每行分别对应24个DCT参数,即每个时刻的声纹特征。
同时,所述步骤102中提取用户声纹的步骤可采用与图2或图3中所述的提取标准声纹相同的方法实现。
优选地,所述的将用户声纹与标准声纹进行对比并计算模仿相似度,步骤如下:
用模式识别方法计算用户声纹特征矩阵和标准声纹特征矩阵的距离值;
用归一化法将距离值归一化为相似度值。
优选的,所述模式识别方法可为高斯混合模型GMM、动态时间规整DTW、隐马尔可夫模型HMM、矢量量化方法VQ、人工神经网络方法ANN或概率统计方法等。
优选地,所述的归一化方法为线性映射、分段线性映射以及其他单调函数的方法。
如图4,是上述的归一化方法为分段线性映射法时的操作流程图,具体为:
步骤401:先设定若干参考点;
步骤402:计算各参考点间的映射公式;由于各点间为线性映射,假设如图5中点A(d1,s1),B(d2,s2)(d表示DTW测算距离值,s表示相似度值)间映射公式为:相似度s=s1+(s2-s1)/(d2-d1)×(d-d1);
步骤403:根据DTW测算距离值所在区间,代入所在区间的映射公式,计算得到相似度值。
如图6,是用模式识别方法计算用户声纹特征矩阵和标准声纹特征矩阵的距离值的方法,图中采用的模式识别方法是高斯混合模型GMM,该方法中所采用的声纹特征是MFCC,具体过程为:
步骤601,先对标准声纹建立高斯混合模型(GMM),高斯混合模型的估计一般采用最大似然法,所述标准特征的高斯混合模型既可以用标准干声的单句MFCC,按每句建立GMM,也可以用整首MFCC建立GMM;
步骤602,接着,将用户声纹特征(MFCC)输入标准的GMM(如果按单句建立,则输入对应单句的GMM中),求出最大后验概率,即用户声纹特征矩阵和标准声纹特征矩阵的距离值。
步骤603,对后验概率进行归一化,表示为相似度值。
本发明所述归一化方法可以采用:线性映射、分段线性映射、以及其他的单调函数。在本发明实施例中仅列举数种,各种归一化方法的特点分别如下:
(1)由DTW计算出的声纹对比值,值越小相似度越高,因此选用单调递减函数来进行映射。如果采用线性映射,通过经验数据或训练等方式,只需确定出两个映射点(声纹对比值到相似度的映射),即可确定出归一化公式;
(2)由MFCC经GMM求得的后验概率越大,相似度越高,因此选用单调递增函数来进行映射,如可以使用指数函数、对数函数等。
其中,分段线性映射是对线性映射的改进,在无法求出准确映射关系时可以起到较为准确的映射作用。本发明中也可以使用拟合的方式求出声纹对比值到相似度的归一化公式。具体做法是采集多组映射点,每个映射点表示声纹对比值到相似度的映射,然后将这些点用拟合工具拟合出一个最接近的曲线,该曲线的公式即可作为归一化的公式。
如图7,是上述步骤104的详细流程图。所述的显示经过声纹对比后系统评估的评分结果,还可以进一步细化为包括以下三个部分:
(1)显示演唱到当前为止,经过声纹对比后系统评估的模仿相似程度的示意图;
(2)显示当前演唱内容的标准声纹的示意图;
(3)显示当前用户演唱声纹的示意图。
其中上述显示的结果可以只包含单独(1)部分的示意图;也可以同时显示包含上述3个部分的示意图。为了更方便比较,还可以将当前用户演唱声纹的示意图叠加在当前演唱内容的标准声纹的示意图之上进行显示,通过两条曲线偏离远近即可更加直观看出声纹相似差距。
如图8,是上述的当前演唱内容的标准声纹和当前用户演唱的声纹示意图的绘制步骤流程图,其采用的绘制步骤如下:首先计算出声纹示意图数据Vp1×N,其中Vp1i=V1i+V2i+V3i+……VMi;然后将Vp数值当作曲线数据绘制。如图9所示,标准声纹示意单元中每个拐点在竖直方向上的值即对应Vp中一个数。
如图10,为本发明的基于声纹对比的评分装置的结构框图;主要由以下模块组成:
声纹提取模块1:包括标准声纹提取模块11和用户声纹提取模块12;用于从标准干声、实时采集的用户演唱干声中提取声纹。常见的表征声纹的系数有:语谱统计参数、梅尔倒谱系数等,也可以是多种表征系数组合得到的混合系数。
声纹对比模块2:用于将用户声纹与标准声纹进行对比,对比同类声纹系数表征的两个声纹的相似程度,计算并得出相似度值,所述模仿相识度做为评分结果。常见的模式识别方法有:高斯混合模型GMM、动态时间规整DTW、隐马尔可夫模型HMM、矢量量化方法VQ、人工神经网络方法ANN或概率统计方法等,本实施例中将采用动态时间规整方法(DTW)和高斯混合模型法(GMM)为例进行详细说明。
显示模块3,用于显示经过声纹对比后系统评估的评分结果。
所述基于声纹对比的演唱评分装置还可以进一步包括音频采集模块4,用于实时采集演唱音频。
如图11,是本发明所述的基于声纹对比的评分装置的声纹提取模块的一种结构示意图。其中,标准声纹提取模块11与用户声纹提取模块12的结构相同,本实施例中以标准声纹提取模块11为例,具体包括以下:
(1)音频共振峰提取单元111,用于提取音频共振峰,本实施例中共选取4条,从低频到高频依次标记为f1,f2,f3,f4。4条共振峰组成一个共振峰特征矩阵,矩阵记为A4×N,即特征矩阵A共有4行,每行有N个点,每个点对应一条共振峰上某刻时刻点的值。
(2)权重值设计单元112,用于设计出一组权重值,B4×1={w1;w2;w3;w4},每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大。声纹特征矩阵记作V4×N,Vij=Bi1×Aij即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值。
(3)声纹特征矩阵计算单元113,用于计算标准声纹或用户声纹特征矩阵VM×N,其中Vij=Bi1×Aij;即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
如图12,是本发明所述的基于声纹对比的评分装置的声纹提取模块的另一种结构示意图。包括:
预加重单元121,用于通过一个一阶有限激励响应高通滤波器,使信号的频谱变得平坦,不易受到有限字长效应的影响;
分帧单元122,用于根据语音的短时平稳特性,语音可以以帧为单位进行处理;
加窗单元123,用于采用哈明窗对一帧语音加窗,以减小吉布斯效应的影响;
快速傅立叶变换单元124,用于将时域信号变换成为信号的功率谱;
三角窗滤波单元125,用于用一组Mel频标上线性分布的预设数量的三角窗滤波器,对信号的功率谱滤波,每一个三角窗滤波器覆盖的范围都近似于人耳的一个临界带宽,以此来模拟人耳的掩蔽效应;
求对数单元126,用于对三角窗滤波器组的输出求取对数;
离散余弦变换单元127,用于去除各维信号之间的相关性,将信号映射到低维空间,每一帧输出预设数量个数的DCT参数,为该帧的声纹特征。
声纹特征矩阵计算单元128,用于最终求得一个声纹特征矩阵,声纹特征矩阵的每列对应于按时间顺序的每一帧(每一个时刻),每列中的每行分别对应24个DCT参数,即每个时刻的声纹特征。
如图13是本发明的基于声纹对比的演唱评分系统的显示模块的结构示意图,所述显示模块3,包括:
相似度示意单元31,用于显示演唱到当前为止,经过声纹对比后系统评估的模仿相似程度的示意图。
标准声纹示意单元32,用于显示当前演唱内容的标准声纹的示意图;该单元的图形数据来自声纹特征矩阵,绘图方式较为多样,本实施例采用方式如下:首先计声纹示意图数据Vp1×N,其中Vp1i=V1i+V2i+V3i+V4i;然后,将Vp数值当作曲线数据绘制,如图12所示,标准声纹示意单元中每个拐点在竖直方向上的值即对应Vp中一个数。
用户声纹示意单元33,用于显示当前用户演唱声纹的示意图,其绘制方式与标准声纹示意单元相同。为方便比较,还可将该单元叠加在标准声纹示意单元之上,通过两条曲线偏离远近即可直观看出声纹相似差距。
如图14,是一种具有基于声纹对比进行演唱评分功能的一种数字娱乐点播系统,所述数字娱乐点播系统200包含上述的基于声纹对比的评分的装置。该数字娱乐点播系统可以实现用户通过模仿一首歌曲,演唱过程能实时比对用户与标准声纹的相似度,给出实时的模仿相似情况,演唱结束,给出整体的模仿相似度的效果。进而满足了多名用户模仿同一歌曲进行PK相似度高低的应用场景。通过模仿评分,或将相似度评分与音准评分结合给出更全面的演唱评分提升评分的娱乐性与准确度。
本发明还提供了一种对比声纹相似度的方法,如图15所示,是本发明的对比声纹相似度的方法的流程图,该方法包括:
步骤1501:从标准干声中提取标准声纹;
步骤1502:实时采集用户演唱干声并提取用户声纹;该步骤也可以与步骤101同时完成;
步骤1503:将用户声纹与标准声纹输入进行对比并计算模仿相似度;
步骤1504:显示经过声纹对比后系统评估的模仿相似程度结果。
如图2,是上述步骤1501的详细流程图。优选地,所述的提取标准声纹的一种方法的步骤如下:
步骤201:提取4条音频共振峰,从低频到高频依次标记为f1,f2,f3,f4。所述4条共振峰组成一个共振峰特征矩阵,矩阵记为A4×N,即特征矩阵A共有4行,每行有N个点,每个点对应一条共振峰上某刻时刻点的值。
步骤202:设计一组权重值,B4×1={w1;w2;w3;w4},每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大。
步骤203:计算标准声纹或用户声纹特征矩阵VM×N,Vij=Bi1×Aij即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
如图3,优选地,所述的提取标准声纹的另一种计算方法如下:
步骤301,预加重:通过一个一阶有限激励响应高通滤波器,使信号的频谱变得平坦,不易受到有限字长效应的影响;
步骤302,分帧:根据语音的短时平稳特性,语音可以以帧为单位进行处理;
步骤303,加窗:采用哈明窗对一帧语音加窗,以减小吉布斯效应的影响;
步骤304,快速傅立叶变换(FFT):将时域信号变换成为信号的功率谱;
步骤305,三角窗滤波:用一组Mel频标上线性分布的三角窗滤波器(共24个三角窗滤波器),对信号的功率谱滤波,每一个三角窗滤波器覆盖的范围都近似于人耳的一个临界带宽,以此来模拟人耳的掩蔽效应;
步骤306,求对数:对三角窗滤波器组的输出求取对数;
步骤307,离散余弦变换(DCT):去除各维信号之间的相关性,将信号映射到低维空间,每一帧输出24个数的DCT参数,为该帧(该时刻)的声纹特征。
步骤308,最终求得一个声纹特征矩阵,声纹特征矩阵的每列对应于按时间顺序的每一帧(每一个时刻),每列中的每行分别对应24个DCT参数,即每个时刻的声纹特征。
同时,所述步骤1502中提取用户声纹的步骤可采用与图2或图3中所述的提取标准声纹相同的方法实现。
优选地,所述的将用户声纹与标准声纹进行对比并计算模仿相似度,步骤如下:
用模式识别方法计算用户声纹特征矩阵和标准声纹特征矩阵的距离值;
用归一化法将距离值归一化为相似度值。
优选的,所述模式识别方法为高斯混合模型GMM、动态时间规整DTW、隐马尔可夫模型HMM、矢量量化方法VQ、人工神经网络方法ANN或概率统计方法等。
优选地,所述的归一化方法为线性映射、分段线性映射以及其他单调函数的方法。
如图4,是上述的归一化方法为分段线性映射法时的操作流程图,具体为:
步骤401:先设定若干参考点;
步骤402:计算各参考点间的映射公式;由于各点间为线性映射,假设如图5中点A(d1,s1),B(d2,s2)(d表示DTW测算距离值,s表示相似度值)间映射公式为:相似度s=s1+(s2-s1)/(d2-d1)×(d-d1);
步骤403:根据DTW测算距离值所在区间,代入所在区间的映射公式,计算得到相似度值。
如图6,是用模式识别方法计算用户声纹特征矩阵和标准声纹特征矩阵的距离值的方法,图中采用的模式识别方法是高斯混合模型GMM,该方法中所采用的声纹特征是MFCC,具体过程为:
步骤601,先对标准声纹建立高斯混合模型(GMM),高斯混合模型的估计一般采用最大似然法,所述标准特征的高斯混合模型既可以用标准干声的单句MFCC,按每句建立GMM,也可以用整首MFCC建立GMM;
步骤602,接着,将用户声纹特征(MFCC)输入标准的GMM(如果按单句建立,则输入对应单句的GMM中),求出最大后验概率,即用户声纹特征矩阵和标准声纹特征矩阵的距离值。
步骤603,对后验概率进行归一化,表示为相似度值。
本发明所述归一化方法可以采用:线性映射、分段线性映射、以及其他的单调函数。
如图7,是上述步骤1504的详细流程图。所述的显示经过声纹对比后系统评估的模仿相似程度结果,还可以进一步细化为包括以下三个部分:
(1)显示演唱到当前为止,经过声纹对比后系统评估的模仿相似程度的示意图;
(2)显示当前演唱内容的标准声纹的示意图;
(3)显示当前用户演唱声纹的示意图。
其中上述显示的结果可以只包含单独(1)部分的示意图;也可以同时显示包含上述3个部分的示意图。为了更方便比较,还可以将当前用户演唱声纹的示意图叠加在当前演唱内容的标准声纹的示意图之上进行显示,通过两条曲线偏离远近即可更加直观看出声纹相似差距。
如图8,是上述的当前演唱内容的标准声纹和当前用户演唱的声纹示意图的绘制步骤流程图,其采用的绘制步骤如下:首先计算出声纹示意图数据Vp1×N,其中Vp1i=V1i+V2i+V3i+……VMi;然后将Vp数值当作曲线数据绘制。如图9所示,标准声纹示意单元中每个拐点在竖直方向上的值即对应Vp中一个数。
本发明还提供一种对比声纹相似度的装置,如图10,为本发明所述的对比声纹相似度的装置的结构框图;主要由以下模块组成:
声纹提取模块1:包括标准声纹提取模块11和用户声纹提取模块12;用于从标准干声、实时采集的用户演唱干声中提取声纹。常见的表征声纹的系数有:语谱统计参数、梅尔倒谱系数等,也可以是多种表征系数组合得到的混合系数。
声纹对比模块2:用于将用户声纹与标准声纹进行对比,对比同类声纹系数表征的两个声纹的相似程度,计算并得出相似度值。常见的声纹对比算法有:高斯混合模型GMM、动态时间规整DTW、隐马尔可夫模型HMM、矢量量化方法VQ、人工神经网络方法ANN或概率统计方法等,本实施例中将采用动态时间规整方法(DTW)和高斯混合模型法(GMM)为例进行详细说明。
显示模块3,用于显示经过声纹对比后系统评估的模仿相似程度结果。
所述对比声纹相似度的装置还可以进一步包括音频采集模块4,用于实时采集演唱音频。
如图11,是本发明所述的对比声纹相似度的装置的声纹提取模块的一种结构示意图。其中,标准声纹提取模块11与用户声纹提取模块12的结构相同,本实施例中以标准声纹提取模块11为例,具体包括以下:
(1)音频共振峰提取单元111,用于提取音频共振峰,本实施例中共选取4条,从低频到高频依次标记为f1,f2,f3,f4。4条共振峰组成一个共振峰特征矩阵,矩阵记为A4×N,即特征矩阵A共有4行,每行有N个点,每个点对应一条共振峰上某刻时刻点的值。
(2)权重值设计单元112,用于设计出一组权重值,B4×1={w1;w2;w3;w4},每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大。声纹特征矩阵记作V4×N,Vij=Bi1×Aij即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值。
(3)声纹特征矩阵计算单元113,用于计算标准声纹或用户声纹特征矩阵VM×N,其中Vij=Bi1×Aij;即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
如图12,是本发明所述的对比声纹相似度的装置的声纹提取模块的另一种结构示意图。包括:
预加重单元121,用于通过一个一阶有限激励响应高通滤波器,使信号的频谱变得平坦,不易受到有限字长效应的影响;
分帧单元122,用于根据语音的短时平稳特性,语音可以以帧为单位进行处理;
加窗单元123,用于采用哈明窗对一帧语音加窗,以减小吉布斯效应的影响;
快速傅立叶变换单元124,用于将时域信号变换成为信号的功率谱;
三角窗滤波单元125,用于用一组Mel频标上线性分布的预设数量的三角窗滤波器,对信号的功率谱滤波,每一个三角窗滤波器覆盖的范围都近似于人耳的一个临界带宽,以此来模拟人耳的掩蔽效应;
求对数单元126,用于对三角窗滤波器组的输出求取对数;
离散余弦变换单元127,用于去除各维信号之间的相关性,将信号映射到低维空间,每一帧输出预设数量个数的DCT参数,为该帧的声纹特征。
声纹特征矩阵计算单元128,用于最终求得一个声纹特征矩阵,声纹特征矩阵的每列对应于按时间顺序的每一帧(每一个时刻),每列中的每行分别对应24个DCT参数,即每个时刻的声纹特征。
如图13是本发明的对比声纹相似度的装置的显示模块的结构示意图,所述显示模块3,包括:
相似度示意单元31,用于显示演唱到当前为止,经过声纹对比后系统评估的模仿相似程度的示意图。
标准声纹示意单元32,用于显示当前演唱内容的标准声纹的示意图;该单元的图形数据来自声纹特征矩阵,绘图方式较为多样,本实施例采用方式如下:首先计声纹示意图数据Vp1×N,其中Vp1i=V1i+V2i+V3i+V4i;然后,将Vp数值当作曲线数据绘制,如图12所示,标准声纹示意单元中每个拐点在竖直方向上的值即对应Vp中一个数。
用户声纹示意单元33,用于显示当前用户演唱声纹的示意图,其绘制方式与标准声纹示意单元相同。为方便比较,还可将该单元叠加在标准声纹示意单元之上,通过两条曲线偏离远近即可直观看出声纹相似差距。
本发明上述的实施例是基于权重共振峰或使用梅尔倒谱系数(MFCC)设计的声纹提取模块,基于动态时间规整方法(DTW)或高斯混合模型(GMM)设计声纹对比模块,通过将实时采集并提取的用户声纹与从标准中提取的声纹进行对比并计算出其模仿相似度,并通过在显示模块上实时显示出模仿相似度、用户声纹、标准声纹等结果,让演唱者可以在演唱过程实时比对用户与标准声纹的相似度,给出实时的模仿相似情况,并可以在演唱结束时,给出整体的模仿相似度;因此将其应用在数字娱乐点播系统中,可以更快地提高用户对于模仿歌曲标准的相似程度,并提高演唱水平。同时可以满足多名用户模仿同一歌曲进行PK相似度高低的应用场景。通过模仿评分,或将相似度评分与音准评分结合给出更全面的演唱评分提升评分的娱乐性与准确度。
上述具体实施方式只是对本发明的技术方案进行详细解释,本发明并不只仅仅局限于上述实施例,凡是依据本发明原理的任何改进或替换,均应在本发明的保护范围之内。
Claims (16)
1.一种基于声纹对比的演唱评分方法,其特征在于,包括以下步骤:
从标准干声中提取标准声纹;
从采集的演唱干声中提取用户声纹;
将用户声纹与标准声纹进行对比并计算模仿相似度,所述模仿相似度做为评分结果;
所述的提取标准声纹或提取用户声纹具体为:
从标准干声或演唱干声中,计算出标准声纹特征矩阵或用户声纹特征矩阵,计算方法如下:
提取M条音频共振峰,所述M条共振峰组成一个共振峰特征矩阵AM×N,即特征矩阵A共有M行,每行有N个点,每个点对应一条共振峰上某个时刻点的值;
设计一组权重值BM×1,每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大;
计算标准声纹或用户声纹特征矩阵VM×N,其中Vij=Bi1×Aij;即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
2.根据权利要求1所述的基于声纹对比的演唱评分方法,其特征在于,该方法进一步包括:
显示经过声纹对比后系统评估的评分结果。
3.根据权利要求1所述的基于声纹对比的演唱评分方法,其特征在于,所述的将用户声纹与标准声纹进行对比并计算模仿相似度,步骤如下:
用模式识别方法计算用户声纹特征矩阵和标准声纹特征矩阵的距离值;
用归一化法将距离值归一化为相似度值。
4.根据权利要求3所述的基于声纹对比的演唱评分方法,其特征在于,所述模式识别方法为高斯混合模型GMM、动态时间规整DTW、隐马尔可夫模型HMM、矢量量化方法VQ、人工神经网络方法ANN或概率统计方法。
5.根据权利要求3所述的基于声纹对比的演唱评分方法,其特征在于,所述的归一化方法为线性映射、分段线性映射以及单调函数的方法。
6.根据权利要求2所述的基于声纹对比的演唱评分方法,其特征在于,所述的显示经过声纹对比后系统评估的评分结果,具体为:显示演唱到当前为止,经过声纹对比后系统评估的模仿相似程度的示意图。
7.根据权利要求6所述的基于声纹对比的演唱评分方法,其特征在于,所述的显示经过声纹对比后系统评估的评分结果,还进一步包括:
显示当前演唱内容的标准声纹的示意图;
显示当前用户演唱声纹的示意图;
将当前用户演唱声纹的示意图叠加在当前演唱内容的标准声纹的示意图之上进行显示。
8.根据权利要求7所述的基于声纹对比的演唱评分方法,其特征在于,所述的显示当前演唱内容的标准声纹或当前用户演唱的声纹示意图,其绘制步骤如下:
首先计算出声纹示意图数据Vp1×N,其中Vp1i=V1i+V2i+V3i+……VMi;
然后将Vp数值当作曲线数据进行绘制。
9.一种基于声纹对比的演唱评分装置,其特征在于,包括:
标准声纹提取模块,用于从标准干声中提取标准声纹;
用户声纹提取模块,用于从采集的演唱干声中提取用户声纹;
声纹对比模块,用于将用户声纹与标准声纹进行对比并计算模仿相似度,所述模仿相似度做为评分结果;
所述的基于声纹对比的演唱评分装置,其特征在于,所述的标准声纹提取模块或用户声纹提取模块,包括:
音频共振峰提取单元,用于提取M条音频共振峰,所述M条共振峰组成一个共振峰特征矩阵AM×N,即特征矩阵A共有M行,每行有N个点,每个点对应一条共振峰上某刻时刻点的值;
权重值设计单元,用于设计一组权重值BM×1,每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大;
声纹特征矩阵计算单元,用于计算标准声纹或用户声纹特征矩阵VM×N,其中Vij=Bi1×Aij;即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
10.根据权利要求9所述的基于声纹对比的演唱评分装置,其特征在于,还包括:
显示模块,用于显示经过声纹对比后系统评估的评分结果。
11.根据权利要求10所述的基于声纹对比的演唱评分装置,其特征在于,所述显示模块,包括:
相似度示意单元,用于显示演唱到当前为止,经过声纹对比后系统评估的模仿相似程度的示意图;
标准声纹示意单元,用于显示当前演唱内容的标准声纹的示意图;
用户声纹示意单元,用于显示当前用户演唱声纹的示意图。
12.一种数字娱乐点播系统,其特征在于包含权利要求9-11任一所述的基于声纹对比的演唱评分装置。
13.一种对比声纹相似度的方法,其特征在于,包括以下步骤:
从标准干声中提取标准声纹;
从采集的演唱干声中提取用户声纹;
将用户声纹与标准声纹进行对比并计算模仿相似度;
所述的提取标准声纹或提取用户声纹具体为:
从标准干声或演唱干声中,计算出标准声纹特征矩阵或用户声纹特征矩阵,计算方法如下:
提取M条音频共振峰,所述M条共振峰组成一个共振峰特征矩阵AM×N,即特征矩阵A共有M行,每行有N个点,每个点对应一条共振峰上某个时刻点的值;
设计一组权重值BM×1,每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大;
计算标准声纹或用户声纹特征矩阵VM×N,其中Vij=Bi1×Aij;即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
14.根据权利要求13所述的对比声纹相似度的方法,其特征在于,该方法进一步包括:显示经过声纹对比后系统评估的模仿相似程度结果。
15.一种对比声纹相似度的装置,其特征在于,包括:
标准声纹提取模块,用于从标准干声中提取标准声纹;
用户声纹提取模块,用于从采集的演唱干声中提取用户声纹;
声纹对比模块,用于将用户声纹与标准声纹进行对比并计算模仿相似度;
所述的提取标准声纹或提取用户声纹具体为:
从标准干声或演唱干声中,计算出标准声纹特征矩阵或用户声纹特征矩阵,计算方法如下:
提取M条音频共振峰,所述M条共振峰组成一个共振峰特征矩阵AM×N,即特征矩阵A共有M行,每行有N个点,每个点对应一条共振峰上某个时刻点的值;
设计一组权重值BM×1,每个权重值按顺序表示每条共振峰在声纹特征中所占的比重,权重值大于等于0,小于无穷大;
计算标准声纹或用户声纹特征矩阵VM×N,其中Vij=Bi1×Aij;即,声纹特征矩阵V中每个元素的值等于相应共振峰特征矩阵A的元素乘以所在共振峰对应的权重值B。
16.根据权利要求15所述的对比声纹相似度的装置,其特征在于,还包括:
显示模块,用于显示经过声纹对比后系统评估的模仿相似程度结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510050095.2A CN105989842B (zh) | 2015-01-30 | 2015-01-30 | 对比声纹相似度的方法、装置及其在数字娱乐点播系统中的应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510050095.2A CN105989842B (zh) | 2015-01-30 | 2015-01-30 | 对比声纹相似度的方法、装置及其在数字娱乐点播系统中的应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105989842A CN105989842A (zh) | 2016-10-05 |
CN105989842B true CN105989842B (zh) | 2019-10-25 |
Family
ID=57035412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510050095.2A Active CN105989842B (zh) | 2015-01-30 | 2015-01-30 | 对比声纹相似度的方法、装置及其在数字娱乐点播系统中的应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105989842B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI745338B (zh) * | 2017-01-19 | 2021-11-11 | 香港商阿里巴巴集團服務有限公司 | 伴奏音樂的提供方法和裝置 |
CN107221340B (zh) * | 2017-05-31 | 2021-01-15 | 福建星网视易信息系统有限公司 | 基于多路音频的实时评分方法、存储设备及应用 |
CN107391994A (zh) * | 2017-07-31 | 2017-11-24 | 东南大学 | 一种基于心音认证的Windows登入认证系统方法 |
CN108182946B (zh) * | 2017-12-25 | 2021-04-13 | 广州势必可赢网络科技有限公司 | 一种基于声纹识别的声乐模式选择方法及装置 |
CN110727823A (zh) * | 2018-06-29 | 2020-01-24 | 上海掌门科技有限公司 | 一种生成并比对音乐数据的方法、设备和计算机存储介质 |
CN111046226B (zh) * | 2018-10-15 | 2023-05-05 | 阿里巴巴集团控股有限公司 | 一种音乐的调音方法及装置 |
CN109712635B (zh) * | 2018-12-28 | 2020-10-09 | 深圳创维-Rgb电子有限公司 | 一种声音数据处理方法、智能终端及存储介质 |
CN110010159B (zh) * | 2019-04-02 | 2021-12-10 | 广州酷狗计算机科技有限公司 | 声音相似度确定方法及装置 |
CN110648566A (zh) * | 2019-09-16 | 2020-01-03 | 中北大学 | 一种演唱教学方法及装置 |
CN112951274A (zh) * | 2021-02-07 | 2021-06-11 | 脸萌有限公司 | 语音相似度确定方法及设备、程序产品 |
WO2022236453A1 (zh) * | 2021-05-08 | 2022-11-17 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种声纹识别方法、歌手认证方法、电子设备及存储介质 |
CN113707113B (zh) * | 2021-08-24 | 2024-02-23 | 北京达佳互联信息技术有限公司 | 用户歌声的修音方法、装置及电子设备 |
CN113962136B (zh) * | 2021-12-22 | 2022-04-15 | 广东工业大学 | 一种基于有限元的焊接后工件应力重构方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1162167A (zh) * | 1996-01-18 | 1997-10-15 | 雅马哈株式会社 | 修正演唱声以模仿标准声的共振峰转换装置 |
CN102270451A (zh) * | 2011-08-18 | 2011-12-07 | 安徽科大讯飞信息科技股份有限公司 | 说话人识别方法及系统 |
CN102324232A (zh) * | 2011-09-12 | 2012-01-18 | 辽宁工业大学 | 基于高斯混合模型的声纹识别方法及系统 |
CN102509547A (zh) * | 2011-12-29 | 2012-06-20 | 辽宁工业大学 | 基于矢量量化的声纹识别方法及系统 |
CN102592589A (zh) * | 2012-02-23 | 2012-07-18 | 华南理工大学 | 一种动态归一化数字特征的语音评分方法与装置 |
-
2015
- 2015-01-30 CN CN201510050095.2A patent/CN105989842B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1162167A (zh) * | 1996-01-18 | 1997-10-15 | 雅马哈株式会社 | 修正演唱声以模仿标准声的共振峰转换装置 |
CN102270451A (zh) * | 2011-08-18 | 2011-12-07 | 安徽科大讯飞信息科技股份有限公司 | 说话人识别方法及系统 |
CN102324232A (zh) * | 2011-09-12 | 2012-01-18 | 辽宁工业大学 | 基于高斯混合模型的声纹识别方法及系统 |
CN102509547A (zh) * | 2011-12-29 | 2012-06-20 | 辽宁工业大学 | 基于矢量量化的声纹识别方法及系统 |
CN102592589A (zh) * | 2012-02-23 | 2012-07-18 | 华南理工大学 | 一种动态归一化数字特征的语音评分方法与装置 |
Also Published As
Publication number | Publication date |
---|---|
CN105989842A (zh) | 2016-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105989842B (zh) | 对比声纹相似度的方法、装置及其在数字娱乐点播系统中的应用 | |
CN106205633B (zh) | 一种模仿、表演练习打分系统 | |
CN104732977B (zh) | 一种在线口语发音质量评价方法和系统 | |
CN102930866B (zh) | 一种用于口语练习的学生朗读作业的评判方法 | |
CN102231278B (zh) | 实现语音识别中自动添加标点符号的方法及系统 | |
CN106531182A (zh) | 一种语言学习系统 | |
CN108922541B (zh) | 基于dtw和gmm模型的多维特征参数声纹识别方法 | |
CN107818796A (zh) | 一种音乐考试评定方法及系统 | |
CN103177733B (zh) | 汉语普通话儿化音发音质量评测方法与系统 | |
CN108847215B (zh) | 基于用户音色进行语音合成的方法及装置 | |
CN107972028B (zh) | 人机交互方法、装置及电子设备 | |
Patel et al. | Speech recognition and verification using MFCC & VQ | |
CN110838286A (zh) | 一种模型训练的方法、语种识别的方法、装置及设备 | |
CN107293286B (zh) | 一种基于网络配音游戏的语音样本收集方法 | |
CN101923855A (zh) | 文本无关的声纹识别系统 | |
CN106531185A (zh) | 基于语音相似度的语音评测方法及系统 | |
CN106847260A (zh) | 一种基于特征融合的英语口语自动评分方法 | |
CN104575519B (zh) | 特征提取方法、装置及重音检测的方法、装置 | |
CN102723079B (zh) | 基于稀疏表示的音乐和弦自动识别方法 | |
CN102411932B (zh) | 结合声门激励和声道调制信息的汉语语音情感提取及建模方法 | |
CN103440864A (zh) | 基于语音的人格特征预测方法 | |
Yin et al. | Automatic cognitive load detection from speech features | |
CN110265051A (zh) | 应用于基础音乐视唱教育的视唱音频智能评分建模方法 | |
CN102655003A (zh) | 基于声道调制信号mfcc的汉语语音情感点识别方法 | |
CN110917613A (zh) | 一种基于振动触觉的游戏智能桌垫 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |