CN110277106A - 音频质量确定方法、装置、设备及存储介质 - Google Patents

音频质量确定方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN110277106A
CN110277106A CN201910542177.7A CN201910542177A CN110277106A CN 110277106 A CN110277106 A CN 110277106A CN 201910542177 A CN201910542177 A CN 201910542177A CN 110277106 A CN110277106 A CN 110277106A
Authority
CN
China
Prior art keywords
audio
score
sample
voice
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910542177.7A
Other languages
English (en)
Other versions
CN110277106B (zh
Inventor
邓峰
姜涛
李岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN201910542177.7A priority Critical patent/CN110277106B/zh
Publication of CN110277106A publication Critical patent/CN110277106A/zh
Application granted granted Critical
Publication of CN110277106B publication Critical patent/CN110277106B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

本公开关于一种音频质量确定方法、装置、设备及存储介质,属于多媒体技术领域。本公开提供了一种融合信号处理的方法以及深度学习的方法,来确定音频质量的方案。通过根据人声音频与原唱人声音频之间的差异程度,获取音频的第一分数,从而以信号处理的方式,来确定音频质量。通过提取该人声音频的梅尔谱,将该人声音频的梅尔谱输入神经网络,输出该音频的第二分数,从而以深度学习的方式,来确定音频质量。由于梅尔谱包含音色特征,使得神经网络能根据音色特征来确定第二分数,因此第二分数能反映音频是否好听,通过融合第一分数以及第二分数,得出音频的目标分数,目标分数可综合两种方法的优势,因此能更准确地反映出音频的质量。

Description

音频质量确定方法、装置、设备及存储介质
技术领域
本公开涉及多媒体技术领域,尤其涉及一种音频质量确定方法、装置、设备及存储介质。
背景技术
随着多媒体技术的发展,很多音频播放应用支持打分的功能,例如,用户可以进行K歌,音频播放应用录制用户演唱的歌曲,对用户演唱的歌曲进行打分,通过歌曲的分数来表示歌曲的质量,因此用户能够通过得分来了解自己的歌唱水平。
相关技术中,得到需要确定质量的音频后,会提取音频的音高特征,对该音频的音高特征与原唱音频的音高特征进行比较,如果音频的音高特征与原唱音频的音高特征越接近,则确定该音频的质量越高,则为这首音频打越高的分数。
采用上述方法来确定音频质量时,得出的分数只能用来衡量音频的音高是否准确,即音频是否跑调,但无法衡量音频是否好听,导致分数不能很准确地表示音频的质量。
发明内容
本公开提供一种音频质量确定方法、装置、设备及存储介质,以至少解决相关技术中确定出的分数不能很准确地表示音频质量的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种音频质量确定方法,包括:
从目标音频中,分离出人声音频;
根据所述人声音频与原唱人声音频之间的差异程度,获取所述目标音频的第一分数;
提取所述人声音频的梅尔谱;
将所述梅尔谱输入神经网络,输出所述目标音频的第二分数;
对所述目标音频的第一分数与所述目标音频的第二分数进行融合,得到目标分数。
在一种可能的实现中,所述目标音频为用户演唱的歌曲;
所述从目标音频中,分离出人声音频,包括:从所述歌曲中,分离出所述用户的人声音频;
所述根据所述人声音频与原唱人声音频之间的差异程度,获取所述目标音频的第一分数,包括:根据所述用户的人声音频与所述歌曲的原唱人声音频之间的差异程度,获取所述歌曲的第一分数;
所述提取所述人声音频的梅尔谱,包括:提取所述用户的人声音频的梅尔谱;
所述将所述梅尔谱输入神经网络,输出所述目标音频的第二分数,包括:将所述梅尔谱输入所述神经网络,输出所述歌曲的第二分数;
所述对所述目标音频的第一分数与所述目标音频的第二分数进行融合,得到目标分数,包括:对所述歌曲的第一分数与所述歌曲的第二分数进行融合,得到所述用户演唱所述歌曲的目标分数。
在一种可能的实现中,所述对所述目标音频的第一分数与所述目标音频的第二分数进行融合,得到目标分数,包括下述任意一项:
根据第一权重以及第二权重,对所述第一分数以及所述第二分数进行加权平均,所述第一权重为所述第一分数的权重,所述第二权重为所述第二分数的权重;
根据所述第一权重以及所述第二权重,对所述第一分数以及所述第二分数进行加权求和。
在一种可能的实现中,所述对所述目标音频的第一分数与所述目标音频的第二分数进行融合,得到目标分数之前,所述方法还包括:
从样本音频中,分离出样本人声音频;
根据所述样本人声音频与样本原唱人声音频之间的差异程度,获取所述样本音频的第一分数;
提取所述样本人声音频的梅尔谱;
将所述样本人声音频的梅尔谱输入神经网络,输出所述样本音频的第二分数;
根据所述样本音频的第一分数、所述样本音频的第二分数以及所述样本音频的标注分数,获取所述第一权重以及所述第二权重,所述标注分数表示所述样本音频的音色好坏。
所述样本音频为样本用户演唱的样本歌曲;
所述所述从样本音频中,分离出样本人声音频,包括:从所述样本用户演唱的样本歌曲中,分离出所述样本用户的人声音频;
所述根据所述样本人声音频与样本原唱人声音频之间的差异程度,获取所述样本音频的第一分数,包括:根据所述样本用户的人声音频与所述样本歌曲的原唱人声音频之间的差异程度,获取所述样本歌曲的第一分数;
所述提取所述样本人声音频的梅尔谱,包括:提取所述样本用户的人声音频的梅尔谱;
所述将所述样本人声音频的梅尔谱输入神经网络,输出所述样本音频的第二分数,包括:将所述样本用户的人声音频的梅尔谱输入神经网络,输出所述样本歌曲的第二分数;
所述根据所述样本音频的第一分数、所述样本音频的第二分数以及所述样本音频的标注分数,获取所述第一权重以及所述第二权重,包括:根据所述样本歌曲的第一分数、所述样本歌曲的第二分数以及所述样本歌曲的标注分数,获取所述第一权重以及所述第二权重,所述标注分数表示所述样本歌曲的音色好坏。
在一种可能的实现中,所述根据所述样本音频的第一分数、所述样本音频的第二分数以及所述样本音频的标注分数,获取所述第一权重以及所述第二权重,包括:
对所述样本音频的第一分数与所述样本音频的标注分数进行比较,得到第一比较结果;
对所述样本音频的第二分数与所述样本音频的标注分数进行比较,得到第二比较结果;
根据所述第一比较结果以及所述第二比较结果,获取所述第一权重以及所述第二权重。
在一种可能的实现中,所述根据所述第一比较结果以及所述第二比较结果,获取所述第一权重以及所述第二权重,包括:
如果所述样本音频的第一分数与所述标注分数处于同一区间,且所述样本音频的第二分数与所述标注分数未处于同一区间,增加所述第一权重,减小所述第二权重;
如果所述样本音频的第一分数与所述标注分数未处于同一区间,且所述样本音频的第二分数与所述标注分数处于同一区间,减小所述第一权重,增加所述第二权重。
在一种可能的实现中,所述将所述梅尔谱输入神经网络,输出所述目标音频的第二分数,包括:
通过所述神经网络的隐藏层,从所述梅尔谱中提取所述人声音频的音色特征以及辅助特征;
通过所述神经网络的分类层,对所述音色特征以及辅助特征进行分类,输出所述第二分数,所述分类层的每个类别为一个分数。
在一种可能的实现中,所述提取所述人声音频的梅尔谱,包括:
将所述人声音频分割为多个片段,提取所述多个片段中每个片段的梅尔谱;
所述将所述梅尔谱输入神经网络,输出所述目标音频的第二分数,包括:
将所述人声音频中每个片段的梅尔谱输入所述神经网络,输出每个片段的第二分数;
所述对所述第一分数与所述第二分数进行融合,得到所述音频的目标分数,包括:
对所述多个片段的第二分数进行累计,对所述第一分数与累计后的第二分数进行融合,得到所述音频的目标分数。
在一种可能的实现中,所述对所述多个片段的第二分数进行累计之前,所述方法还包括:
对所述多个片段的第二分数进行平滑处理。
在一种可能的实现中,所述从目标音频中,分离出人声音频之前,所述方法还包括:
获取多个样本音频,每个样本音频包括标注分数,所述标注分数表示所述样本音频的音色好坏;
从所述多个样本音频中,分离出多个样本人声音频;
提取所述多个样本人声音频的梅尔谱;
基于所述多个样本人声音频的梅尔谱进行模型训练,得到所述神经网络。
在一种可能的实现中,所述根据所述人声音频与原唱人声音频之间的差异程度,获取所述音频的第一分数,包括:
提取所述人声音频的音高特征,对所述人声音频的音高特征进行统计,得到第一统计结果;
提取所述人声音频的节奏特征,对所述人声音频的节奏特征进行统计,得到第二统计结果;
根据所述第一统计结果与所述原唱人声音频的音高特征的第三统计结果之间的差异程度、所述第二统计结果与所述原唱人声音频的节奏特征的第四统计结果之间的差异程度,获取所述第一分数。
在一种可能的实现中,所述根据所述第一统计结果与所述原唱人声音频的音高特征的第三统计结果之间的差异程度、所述第二统计结果与所述原唱人声音频的节奏特征的第四统计结果之间的差异程度,获取所述第一分数,包括:
获取所述第一统计结果与所述第三统计结果之间的第一均方误差;
获取所述第二统计结果与所述第四统计结果之间的第二均方误差;
对所述第一均方误差以及所述第二均方误差进行加权平均,得到所述第一分数。
在一种可能的实现中,所述从所述歌曲中,分离出所述用户的人声音频之前,所述方法还包括下述任意一项:
通过麦克风进行音频录制,得到所述用户演唱的所述歌曲;
从终端接收所述用户演唱的所述歌曲。
根据本公开实施例的第二方面,提供一种音频质量确定装置,包括:
分离单元,被配置为执行从目标音频中,分离出人声音频;
获取单元,被配置为执行根据所述人声音频与原唱人声音频之间的差异程度,获取所述目标音频的第一分数;
提取单元,被配置为执行提取所述人声音频的梅尔谱;
深度学习单元,被配置为执行将所述梅尔谱输入神经网络,输出所述目标音频的第二分数;
融合单元,被配置为执行对所述目标音频的第一分数与所述目标音频的第二分数进行融合,得到目标分数。
在一种可能的实现中,所述目标音频为用户演唱的歌曲;
所述分离单元,具体被配置为执行:从所述歌曲中,分离出所述用户的人声音频;
所述获取单元,具体被配置为执行:根据所述用户的人声音频与所述歌曲的原唱人声音频之间的差异程度,获取所述歌曲的第一分数;
所述提取单元,具体被配置为执行:提取所述用户的人声音频的梅尔谱;
所述深度学习单元,具体被配置为执行:将所述梅尔谱输入所述神经网络,输出所述歌曲的第二分数;
所述融合单元,具体被配置为执行:对所述歌曲的第一分数与所述歌曲的第二分数进行融合,得到所述用户演唱所述歌曲的目标分数。
在一种可能的实现中,所述融合单元,被配置为执行下述任意一项:
根据第一权重以及第二权重,对所述第一分数以及所述第二分数进行加权平均,所述第一权重为所述第一分数的权重,所述第二权重为所述第二分数的权重;
根据所述第一权重以及所述第二权重,对所述第一分数以及所述第二分数进行加权求和。
在一种可能的实现中,所述分离单元,还被配置为执行从样本音频中,分离出样本人声音频;
所述获取单元,还被配置为执行根据所述样本人声音频与样本原唱人声音频之间的差异程度,获取所述样本音频的第一分数;
所述提取单元,还被配置为执行提取所述样本人声音频的梅尔谱;
所述深度学习单元,还被配置为执行将所述样本人声音频的梅尔谱输入神经网络,输出所述样本音频的第二分数;
所述获取单元,还被配置为执行根据所述样本音频的第一分数、所述样本音频的第二分数以及所述样本音频的标注分数,获取所述第一权重以及所述第二权重,所述标注分数表示所述样本音频的音色好坏。
在一种可能的实现中,所述样本音频为样本用户演唱的样本歌曲;
所述分离单元,具体被配置为执行:从所述样本用户演唱的样本歌曲中,分离出所述样本用户的人声音频;
所述获取单元,具体被配置为执行:根据所述样本用户的人声音频与所述样本歌曲的原唱人声音频之间的差异程度,获取所述样本歌曲的第一分数;
所述提取单元,具体被配置为执行:提取所述样本用户的人声音频的梅尔谱;
所述深度学习单元,具体被配置为执行:将所述样本用户的人声音频的梅尔谱输入神经网络,输出所述样本歌曲的第二分数;
所述获取单元,具体被配置为执行:根据所述样本歌曲的第一分数、所述样本歌曲的第二分数以及所述样本歌曲的标注分数,获取所述第一权重以及所述第二权重,所述标注分数表示所述样本歌曲的音色好坏。
在一种可能的实现中,所述获取单元,具体被配置为执行:对所述样本音频的第一分数与所述样本音频的标注分数进行比较,得到第一比较结果;对所述样本音频的第二分数与所述样本音频的标注分数进行比较,得到第二比较结果;根据所述第一比较结果以及所述第二比较结果,获取所述第一权重以及所述第二权重。
在一种可能的实现中,所述获取单元,具体被配置为执行:如果所述样本音频的第一分数与所述标注分数处于同一区间,且所述样本音频的第二分数与所述标注分数未处于同一区间,增加所述第一权重,减小所述第二权重;
如果所述样本音频的第一分数与所述标注分数未处于同一区间,且所述样本音频的第二分数与所述标注分数处于同一区间,减小所述第一权重,增加所述第二权重。
在一种可能的实现中,深度学习单元,具体被配置为执行:通过所述神经网络的隐藏层,从所述梅尔谱中提取所述人声音频的音色特征以及辅助特征;通过所述神经网络的分类层,对所述音色特征以及辅助特征进行分类,输出所述第二分数,所述分类层的每个类别为一个分数。
在一种可能的实现中,所述装置还包括:
平滑单元,被配置为执行:对所述多个片段的第二分数进行平滑处理。
在一种可能的实现中,所述获取单元,还被配置为执行获取多个样本音频,每个样本音频包括标注分数,所述标注分数表示所述样本音频的音色好坏;
所述分离单元,还被配置为执行从所述多个样本音频中,分离出多个样本人声音频;
所述提取单元,还被配置为执行提取所述多个样本人声音频的梅尔谱;
所述装置还包括:模型训练单元,被配置为执行:基于所述多个样本人声音频的梅尔谱进行模型训练,得到所述神经网络。
在一种可能的实现中,所述获取单元,具体被配置为执行:提取所述人声音频的音高特征,对所述人声音频的音高特征进行统计,得到第一统计结果;提取所述人声音频的节奏特征,对所述人声音频的节奏特征进行统计,得到第二统计结果;根据所述第一统计结果与所述原唱人声音频的音高特征的第三统计结果之间的差异程度、所述第二统计结果与所述原唱人声音频的节奏特征的第四统计结果之间的差异程度,获取所述第一分数。
在一种可能的实现中,所述获取单元,具体被配置为执行:获取所述第一统计结果与所述第三统计结果之间的第一均方误差;获取所述第二统计结果与所述第四统计结果之间的第二均方误差;对所述第一均方误差以及所述第二均方误差进行加权平均,得到所述第一分数。
在一种可能的实现中,所述装置还包括下述任意一项:
录制单元,被配置为执行:通过麦克风进行音频录制,得到所述用户演唱的所述歌曲;
接收单元,被配置为执行:从终端接收所述用户演唱的所述歌曲。
根据本公开实施例的第三方面,提供一种计算机设备,包括:
一个或多个处理器;
用于存储所述一个或多个处理器可执行指令的一个或多个存储器;
其中,所述一个或多个处理器被配置为执行所述指令,以实现上述音频质量确定方法。
根据本公开实施例的第四方面,提供一种存储介质,当所述存储介质中的指令由计算机设备的处理器执行时,使得所述计算机设备能够执行上述音频质量确定方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,包括一条或多条指令,所述一条或多条指令由计算机设备的处理器执行时,使得所述计算机设备能够执行上述音频质量确定方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
本实施例提供了一种融合信号处理的方法以及深度学习的方法,来确定音频质量的方案。通过根据人声音频与原唱人声音频之间的差异程度,获取音频的第一分数,从而以信号处理的方式,来确定音频质量。并且,通过提取该人声音频的梅尔谱,将该人声音频的梅尔谱输入神经网络,输出该音频的第二分数,从而以深度学习的方式,来确定音频质量。由于梅尔谱中包含了音色特征,使得神经网络能够根据音色特征来确定第二分数,因此第二分数能够反映音频是否好听。由于第一分数能够从音频的音调和节奏的维度,反映音频的质量,第二分数能够从音频的好听程度的维度,反映音频的质量,那么通过融合第一分数以及第二分数,得出音频的目标分数,目标分数可以综合两种方法的优势,因此目标分数能够更准确地反映出音频的质量。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种音频质量确定系统的结构框图;
图2是根据一示例性实施例示出的一种应用场景的示意图;
图3是根据一示例性实施例示出的一种音频质量确定方法的流程图;
图4是根据一示例性实施例示出的一种K歌打分的流程图;
图5是根据一示例性实施例示出的一种神经网络的训练方法的流程图;
图6是根据一示例性实施例示出的一种融合规则的确定方法的流程图;
图7是根据一示例性实施例示出的一种音频质量确定装置的框图;
图8是根据一示例性实施例示出的一种终端的框图;
图9是根据一示例性实施例示出的一种服务器的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
以下对本公开的系统架构进行示意性阐述。
图1是根据一示例性实施例示出的一种音频质量确定系统的结构框图。该音频质量确定系统100包括:终端110和音频质量确定平台120。
终端110通过无线网络或有线网络与音频质量确定平台120相连。终端110可以是智能手机、游戏主机、台式计算机、平板电脑、电子书阅读器、MP3(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器或膝上型便携计算机中的至少一种。终端110安装和运行有支持音频质量确定的应用程序。该应用程序可以是音频播放应用程序、视频播放应用程序、社交应用程序、即时通讯应用程序、翻译类应用程序、购物类应用程序、浏览器程序中的任意一种。示意性的,终端110是用户使用的终端,终端110中运行的应用程序内登录有该用户的用户账号。
终端110通过无线网络或有线网络与音频质量确定平台120相连。
音频质量确定平台120包括一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。音频质量确定平台120用于为支持音频质量确定的应用程序提供后台服务。可选地,音频质量确定平台120承担主要的确定音频质量的工作,终端110承担次要的确定音频质量的工作;或者,音频质量确定平台120承担次要的确定音频质量的工作,终端110承担主要的确定音频质量的工作;或者,音频质量确定平台120或终端110分别可以单独承担确定音频质量的工作。
可选地,音频质量确定平台120包括:音频质量确定服务器和数据库。数据库可以存储有大量原唱音频、原唱人声音频、原唱人声音频的时频域特征或者原唱人声音频的时频域特征的统计结果中的至少一项。音频质量确定服务器用于提供音频质量确定有关的后台服务。音频质量确定服务器可以是一台或多台。当音频质量确定服务器是多台时,存在至少两台音频质量确定服务器用于提供不同的服务,或,存在至少两台音频质量确定服务器用于提供相同的服务,比如以负载均衡方式提供同一种服务,本实施例对此不加以限定。音频质量确定服务器中可以设置有神经网络。在本公开实施例中,神经网络用于提取音频的音色特征,根据音频的音色特征,来确定音频的质量。
终端110可以泛指多个终端中的一个,本实施例仅以终端110来举例说明。终端110的类型包括:智能手机、游戏主机、台式计算机、平板电脑、电子书阅读器、MP3播放器、MP4播放器和膝上型便携计算机中的至少一种。
本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量,此时上述音频质量确定系统还包括其他终端。本公开实施例对终端的数量和设备类型不加以限定。
以下对本公开的应用场景进行示意性阐述。
参见图2,在一个示例性场景中,本公开可以应用在K歌(Karaok,卡拉OK)打分的场景中。用户通过终端进行K歌,终端通过麦克风进行音频录制,得到该用户演唱的该歌曲,该歌曲即为目标音频。终端将用户演唱的该歌曲发送给服务器,服务器可以通过执行下述图3实施例所示的方法,融合信号处理以及深度学习这两种方法,来确定歌曲的质量,得出音频的目标分数,将目标分数发送至终端,终端接收到目标分数后,可以显示目标分数,用户可以通过分数,了解自己演唱的歌曲的质量。例如在图2中,用户可以演唱“至少还有你”这首歌,终端将用户演唱的歌曲发送至服务器后,服务器打出90分,将90分返回给终端。当然,也可以由终端在录制得到用户演唱的歌曲后,通过执行下述图3实施例所示的方法,来得出歌曲的目标分数。
图3是根据一示例性实施例示出的一种音频质量确定方法的流程图,如图3所示,该方法用于计算机设备中,计算机设备在实施环境中可以实施为终端或服务器,包括以下步骤:
在步骤S31中,计算机设备获取目标音频。
目标音频是指待确定分数的音频。在一个示例性场景中,本实施例可以应用于K歌打分的场景中,用户可以通过终端进行K歌,计算机设备可以通过麦克风,录制得到用户演唱的目标音频,通过执行后续的步骤,来确定目标音频的分数,以便将K歌的分数提供给用户。在另一个示例性场景中,本实施例可以应用于音频推荐的场景中,计算机设备可以预存有多个候选推荐音频,可以将候选推荐音频作为目标音频,通过执行后续的步骤,来确定每个候选目标音频的分数,从而判断将哪个候选目标音频推荐给用户。在另一个示例性场景中,本实施例可以应用于主播挖掘的场景中,计算机设备可以预存有多个主播演唱的音频,可以将主播演唱的音频作为目标音频,通过执行后续的步骤,来对每个目标音频进行打分,从而根据每个目标音频的分数,从多个主播中挖掘出唱歌好听的主播。
在步骤S32中,计算机设备从目标音频中,分离出人声音频。
目标音频通常是包含人声和伴奏的混合音频,如果直接对目标音频进行打分,会造成打分难度过大,并且影响分数的准确性。因此,计算机设备可以从目标音频中,分离出人声音频,从而将人声音频和伴奏音频分离开来,通过纯净的人声音频来执行后续的打分步骤,从而提升打分的准确性。其中,该人声音频可以为干声,即不包含音乐的纯人声。
在一些可能的实施例中,计算机设备可以基于深度学习的方式,来分离出人声音频。具体来说,计算机设备可以调用人声分离模型,将目标音频输入人声分离模型,输出人声音频。其中,该人声分离模型用于从音频中分离出人声音频,该人声分离模型可以是神经网络。
在步骤S33中,计算机设备根据人声音频与原唱人声音频之间的差异程度,获取目标音频的第一分数。
本实施例中,会采用信号处理的方法以及深度学习的方法分别确定目标音频的分数,再融合两种方法得出的分数,作为最终得出的分数,从而令最终得到的分数可以从音准、节奏以及音色等多个角度反映音频的质量。
为了区分描述,在此将采用信号处理的方法得出的分数称为第一分数,将采用深度学习的方法得出的分数称为第二分数,将融合两种方法得出的分数称为目标分数。其中,第一分数可以和人声音频与原唱人声音频之间的差异程度负相关,也即是,人声音频与原唱人声之间的差异程度越小,即用户演唱的与原唱越接近,则第一分数会越大,因此第一分数能够以与原唱的接近程度这一维度来反映音频的质量。第二分数可以和人声音频的音色正相关,也即是,人声音频的音色越好,即用户演唱的越好听,则第二分数会越大,因此第二分数能够以音色这一维度来反映音频的质量。
关于如何采用信号处理的方法来进行打分,在一些可能的实施例中,计算机设备可以提取待打分的人声音频的多种时频域特征;对于多种时频域特征中的每个时频域特征,计算机设备可以对该时频域特征与原唱人声音频的时频域特征进行比较,得到该时频域特征与原唱人声音频的时频域特征之间的差异程度;计算机设备可以根据人声音频与原唱人声音频之间的多种时频域特征的差异程度,获取目标音频的第一分数。其中,计算机设备可以在打分之前,预先提取原唱人声音频的时频域特征,将原唱人声音频的时频域特征存入数据库,在进行打分的过程中,可以从数据库中,读取预先存储的音频的原唱人声音频的时频域特征。关于提取时频域特征的方式,可以使用基频提取方法,来提取人声音频的时频域特征,该基频提取算法可以而不限于是pyin算法。
通过联合多种时频域特征来进行打分,可以保证第一分数的准确性,进而保证根据第一分数最终得到的分数的准确性。
在一些可能的实施例中,多种时频域特征可以包括音高特征以及节奏特征。通过音高特征,可以衡量目标音频是否跑调。通过节奏特征,可以衡量目标音频是否合拍。通过联合音高特征和节奏特征来进行打分,可以保证的第一分数既可以反映用户演唱的跑调程度,又可以反映用户演唱的合拍程度。具体来说,联合音高特征以及节奏特征进行打分的过程可以包括下述步骤一至步骤三:
步骤一、计算机设备提取该人声音频的音高特征,对该人声音频的音高特征进行统计,得到第一统计结果。
为了区分描述,在此将目标音频中人声音频的音高特征的统计结果称为第一统计结果,将目标音频中人声音频的节奏特征的统计结果称为第二统计结果,将原唱人声音频的音高特征的统计结果称为第三统计结果,将原唱人声音频的节奏特征的统计结果称为第四统计结果。第一统计结果可以包括待打分的人声音频的音高特征的平均值或者待打分的人声音频的音高特征的方差中的至少一项。第二统计结果可以包括待打分的人声音频的节奏特征的平均值或者待打分的人声音频的节奏特征的方差中的至少一项。第三统计结果可以包括原唱人声音频的音高特征的平均值或者原唱人声音频的音高特征的方差中的至少一项。第四统计结果可以包括原唱人声音频的节奏特征的平均值或者原唱人声音频的节奏特征的方差中的至少一项。
其中,计算机设备可以先对音高特征进行规整,再根据规整后的音高特征进行统计。
步骤二、计算机设备提取人声音频的节奏特征,对人声音频的节奏特征进行统计,得到第二统计结果。
其中,计算机设备可以先对节奏特征进行规整,再根据规整后的节奏特征进行统计。
步骤三、计算机设备根据第一统计结果与原唱人声音频的音高特征的第三统计结果之间的差异程度、第二统计结果与原唱人声音频的节奏特征的第四统计结果之间的差异程度,获取第一分数。
关于如何获取到第三统计结果以及第四统计结果,在一些可能的实施例中,计算机设备可以预先从多个原唱音频中分离出原唱人声音频,提取多个原唱人声音频的音高特征,对每个原唱人声音频的音高特征进行统计,得到每个原唱人声音频的第三统计结果,将每个原唱人声音频的第三统计结果存入数据库。同理地,提取多个原唱人声音频的节奏特征,对每个原唱人声音频的节奏特征进行统计,得到每个原唱人声音频的第四统计结果,将每个原唱人声音频的第四统计结果存入数据库。当需要对任一首音频进行打分时,可以从数据库中,读取该音频对应的原唱人声音频的第三统计结果以及第四统计结果。
在一些可能的实施例中,差异程度可以通过均方误差来表示。具体来说,计算机设备可以获取第一统计结果与第三统计结果之间的第一均方误差;获取第二统计结果与第四统计结果之间的第二均方误差;对第一均方误差以及第二均方误差进行融合,得到第一分数。其中,融合的方式可以是加权平均,也即是,可以对第一均方误差以及第二均方误差进行加权平均,得到第一分数。
其中,均方误差可以包括平均值的均方误差以及方差的均方误差。具体来说,示意性地,计算机设备可以获取待打分的人声音频的音高特征的平均值与该原唱人声音频的音高特征的平均值之间的均方误差1,获取待打分的人声音频的音高特征的方差与该原唱人声音频的音高特征的方差之间的均方误差2,获取待打分的人声音频的节奏特征的平均值与该原唱人声音频的节奏特征的平均值之间的均方误差3,获取待打分的人声音频的节奏特征的方差与该原唱人声音频的节奏特征的方差之间的均方误差4,根据均方误差1、均方误差2、均方误差3以及均方误差4,来获取第一分数。
在一些可能的实施例中,计算机设备可以将第一分数映射到预设区间,该预设区间可以是0到100的闭区间。
在步骤S34中,计算机设备提取该人声音频的梅尔谱。
在步骤S35中,计算机设备将人声音频的梅尔谱输入神经网络,输出目标音频的第二分数。
梅尔谱中至少包括人声音频的音色特征,通过将梅尔谱输入神经网络,可以通过神经网络提取人声音频的音色特征,根据音色特征来确定第二分数,那么第二分数可以衡量音色的质量,从而反映目标音频是否好听。
神经网络可以是卷积神经网络,例如,神经网络可以是dense net(稠密卷积网络)。神经网络可以包括输入层、至少一个隐藏层以及分类层,分类层的每个类别为一个分数。其中,每个隐藏层可以包括多个卷积核,卷积核可以用于进行特征提取。通常来讲,隐藏层的数量越多,神经网络的学习能力可以更强,从而提升第二分数的准确性,但与此同时,计算第二分数的复杂度也会提高,因此,可以综合考虑性能以及计算复杂度,来设置隐藏层的数量。
关于神经网络确定分数的具体过程,可以通过该神经网络的隐藏层,从该梅尔谱中提取该人声音频的音色特征;通过该神经网络的分类层,对该音色特征进行分类,输出该第二分数。
在一些可能的实施例中,梅尔谱中还可以包括辅助特征,该辅助特征可以包括音高特征以及节奏特征中的至少一项,那么神经网络在提取音色特征的基础上,还可以提取出辅助特征,那么通过根据音色特征以及辅助特征共同确定第二分数,那么第二分数可以在能够衡量音色好坏的基础上,还能够衡量是否跑调、节奏是否准确,从而进一步提高第二分数的准确性。具体来说,可以通过该神经网络的隐藏层,从该梅尔谱中提取该人声音频的音色特征以及辅助特征;通过该神经网络的分类层,对该音色特征以及辅助特征进行分类,输出该第二分数。
在一些可能的实施例中,可以按照预设时长,对人声音频分割为多个片段,提取该多个片段中每个片段的梅尔谱;将该人声音频中每个片段的梅尔谱输入该神经网络,输出每个片段的第二分数;对该人声音频中多个片段的第二分数进行累计,得到累计后的第二分数,以便根据累计后的第二分数进行融合。该预设时长可以根据实验、经验或需求设置,例如可以是10秒。
其中片段的第二分数可以衡量片段的音色好坏。例如,片段的第二分数可以为第一取值或者第二取值,第一取值表示片段的音色好,第二取值表示片段的音色不好。第一取值和第二取值可以是任两个不同的取值,例如,第一取值可以是1,第二取值可以是0。
在一些可能的实施例中,计算机设备可以获取多个片段的第二分数中第一取值所占的比例,对多个片段的第二分数中第一取值所占的比例进行累计。以第一取值为1,第二取值为0为例,多个片段的第二分数可以为1和0组成的集合,可以对该集合中1所占的比例,如果1所占的比例越大,表明目标音频中音色好的片段所占的比例越大,则累计后得到的第二分数越高。
在一些可能的实施例中,可以先对该人声音频中多个片段的第二分数进行平滑处理,再根据平滑后的第二分数进行累计。具体来说,可以判断多个片段的第二分数中是否出现孤立的噪声点,如果出现的噪声点,则将该噪声点替换为该噪声点的邻近点的取值,从而消除噪声点,实现平滑的功能。其中,该孤立的噪声点可以是多个第一取值中偶尔出现的第二取值,也可以是多个第二取值中偶尔出现的第一取值,例如,如果多个片段的第二分数中出现了多个1,而这多个1中穿插了极少数的0,则0即为孤立的噪声点。
通过进行平滑处理,可以消除噪声点,从而减少了误判,从而提高第二分数的准确性,进而提高了目标分数的准确性。
在步骤S36中,计算机设备对第一分数与第二分数进行融合,得到目标分数。
计算机设备可以采用融合规则,对第一分数与第二分数进行融合,融合结果即为目标分数。其中,融合规则包括第一权重以及第二权重,第一权重是指信号处理的方法对应的权重,在进行融合时,可以使用第一权重和第一分数相乘,第二权重是指深度学习的方法对应的权重,在进行融合时,可以使用第二权重和第二分数相乘。
在一些可能的实施例中,融合两种分数的方式可以而不限于是下述方式一或者方式二中的至少一项。
方式一、对第一分数与第二分数进行加权平均。
计算机设备可以获取第一权重以及第二权重,采用第一权重以及第二权重,对第一分数与第二分数进行加权平均。
方式二、对第一分数与第二分数进行加权求和。
计算机设备可以获取第一权重以及第二权重,采用第一权重以及第二权重,对第一分数与第二分数进行加权求和。
示意性地,参见图4,其示出了本实施例提供的一种K歌打分的流程图,当得到演唱的歌曲后,可以先基于深度学习的方式,来从歌曲中分离出人声音频,再将人声音频分别作为信号处理方法的输入以及深度学习方法的输入。在执行信号处理方法时,可以提取人声音频的音高特征和节奏特征,再统计音高特征的统计结果以及节奏特征的统计结果,根据音高特征的统计结果以及节奏特征的统计结果,将音高特征以及节奏特征这两种特征联合起来确定音频质量,该打分即为信号处理方法得出的第一分数。在执行深度学习方法时,可以提取人声音频的梅尔谱,将人声音频的梅尔谱输入神经网络,梅尔谱经过神经网络的输入层、隐藏层以及输出层的前向运算,在到达输出层之前,梅尔谱包含的音色特征会被提取出来,经过输出层的分类,映射为分数,该分数即为深度学习方法得出的第二分数。基于两种分数,采用融合规则进行融合,即可得到歌曲的目标分数。
总结来说,应用在歌曲演唱的场景下,可以通过下述步骤一至步骤五,来确定出歌曲的质量。其中,步骤一至步骤五的细节还请参见上述描述,在此不做赘述。
步骤一、计算机设备从该歌曲中,分离出该用户的人声音频。
步骤二、计算机设备根据该用户的人声音频与该歌曲的原唱人声音频之间的差异程度,获取该歌曲的第一分数。
步骤三、计算机设备提取该用户的人声音频的梅尔谱。
步骤四、计算机设备将该梅尔谱输入神经网络,输出该歌曲的第二分数。
步骤五、计算机设备对该歌曲的第一分数与该歌曲的第二分数进行融合,得到该用户演唱该歌曲的目标分数。
其中,当得到目标分数后,计算机设备可以将目标分数提供给用户。例如,如果计算机设备是终端,终端可以显示该目标分数。如果计算机设备是服务器,服务器可以向终端发送目标分数,以使终端显示目标分数。在另一个示例性场景中,本实施例可以应用于音频推荐的场景中,计算机设备可以获取每个候选推荐音频的目标分数,从多个候选音频中,选择目标分数符合预设条件的个候选推荐音频,例如选择目标分数最高的个候选推荐音频,又如选择目标分数排在前预设位数的个候选推荐音频,将选择的个候选推荐音频推荐给用户。在另一个示例性场景中,本实施例可以应用于主播挖掘的场景中,计算机设备可以获取每个主播演唱的音频的目标分数,从多个主播中,选择演唱的音频的目标分数符合预设条件的主播,例如选择演唱的音频的目标分数最高的主播,将该主播作为挖掘出的唱歌好听的主播。
本实施例提供了一种融合信号处理的方法以及深度学习的方法,来确定音频质量的方案。通过根据人声音频与原唱人声音频之间的差异程度,获取音频的第一分数,从而以信号处理的方式,来确定音频质量。并且,通过提取该人声音频的梅尔谱,将该人声音频的梅尔谱输入神经网络,输出该音频的第二分数,从而以深度学习的方式,来确定音频质量。由于梅尔谱中包含了音色特征,使得神经网络能够根据音色特征来确定第二分数,因此第二分数能够反映音频是否好听,那么通过融合两种方法得出的分数,得出音频的目标分数,可以综合两种方法的优势,准确地反映出音频的质量。
以下对本公开提供的神经网络的训练过程进行示意性阐述。
图5是根据一示例性实施例示出的一种神经网络的训练方法的流程图,如图5所示,该方法用于计算机设备中,包括以下步骤。
在步骤S51中,计算机设备获取多个样本音频。
多个样本音频中的每个样本音频包括标注分数。多个样本音频可以包括正样本以及负样本,该正样本为好听的样本,负样本为不好听的样本。示意性地,可以获取多个音频,对每个音频进行人工测听,根据每个音频的测听结果,从多个音频中选择正样本以及负样本,标注分数表示样本音频的音色好坏。
在步骤S52中,计算机设备从多个样本音频中,分离出多个样本人声音频。
在步骤S53中,计算机设备提取多个样本人声音频的梅尔谱。
在步骤S54中,计算机设备基于多个样本人声音频的梅尔谱进行模型训练,得到神经网络。
示意性地,对多个样本人声音频中的每个样本人声音频,可以将样本人声音频分割为多个片段;对于多个片段中的每个片段,提取片段的梅尔谱;将片段的梅尔谱输入神经网络,通过神经网络,从梅尔谱中,提取片段的音色特征,对片段的音色特征进行打分,输出片段的片段的第二分数,根据多个片段对应的多个片段的第二分数,获取样本人声音频的第二分数;根据样本音频的标注分数,获取样本人声音频的第二分数与标注分数之间的差距,根据样本人声音频的第二分数与标注分数之间的差距,调整初始神经网络的参数。可以多次执行调整的过程,当调整的次数达到预设次数,或者差距小于预设阈值时,停止调整,得到神经网络。
其中,可以将多个样本音频划分为训练集和测试集,根据训练集中的样本音频来进行模型训练,根据测试集中的样本音频来对神经网络输出的分数进行测试,以调整神经网络的参数,避免神经网络过拟合。
示意性地,应用在歌曲演唱的场景下,样本用户演唱的样本歌曲,相应地,神经网络的训练过程具体可以包括下述步骤一至步骤四:
步骤一、计算机设备获取多个样本用户演唱的样本歌曲。
每个样本用户演唱的样本歌曲包括标注分数。样本歌曲可以包括正样本以及负样本,该正样本为演唱好听的歌曲,负样本为演唱不好听的歌曲。
步骤二、计算机设备从多个样本用户演唱的样本歌曲,分离出多个样本用户的人声音频。
步骤三、计算机设备提取多个样本用户的人声音频的梅尔谱。
步骤四、计算机设备基于多个样本用户的人声音频的梅尔谱进行模型训练,得到神经网络。
以下对本公开提供的融合规则的确定过程进行描述。
需要说明的是,与上述图3实施例和图5实施例同理的步骤还请参见图3实施例以及图5实施例,在图6实施例不做赘述。
图6是根据一示例性实施例示出的一种融合规则的确定方法的流程图,如图6所示,该方法用于计算机设备中,包括以下步骤。
在步骤S61中,计算机设备获取多个样本音频。
在步骤S62中,计算机设备从多个样本音频中,分离出多个样本人声音频。
在步骤S63中,对于多个样本人声音频中的每个样本人声音频,计算机设备根据该样本人声音频与样本原唱人声音频之间的差异程度,获取样本音频的第一分数。
在步骤S64中,计算机设备提取样本人声音频的梅尔谱。
在步骤S65中,计算机设备将该样本人声音频的梅尔谱输入神经网络,输出该样本音频的第二分数。
在步骤S66中,计算机设备根据该样本音频的第一分数、该样本音频的第二分数以及该样本音频的标注分数,获取第一权重以及第二权重。
通过实验发现,信号处理方法得出的样本音频的第一分数的召回率比较高,精度偏低;而深度学习的方法则相反,其精度比较高,而召回率偏低,因此可以通过调整两种方法的权重,弥补两种方法的缺点,即提高信号处理方法的精度和深度学习方法的召回率,来让两种方法得出的分数在融合后,得到的目标分数尽可能的与人工标注结果一致。
具体来说,计算机设备可以获取样本音频的第一分数与标注分数的一致程度,根据一致程度来获取第一权重,如果样本音频的第一分数与标注分数越一致,则第一权重越大,通过这种方式,来尽量让信号处理方法的结果与人工标注的结果保持一致。同理地,可以获取样本音频的第二分数与标注分数的一致程度,根据一致程度来获取第二权重,如果样本音频的第二分数与标注分数的越一致,则第二权重越大,通过这种方式,来尽量让深度学习方法的结果与人工标注的结果保持一致。
在一些可能的实施例中,步骤S65可以包括下述步骤一至步骤三:
步骤一、计算机设备对该样本音频的第一分数与该样本音频的标注分数进行比较,得到第一比较结果。
第一比较结果可以表示样本音频的第一分数以及标注分数是否处于同一区间。例如,可以将音频的分数划分为多个区间,每个区间为一个分数范围,比如说,可以将分数划分为四个区间,第1个区间代表优,是90分至100分组成的区间;第2个区间代表良,是76分至90分组成的区间;第3个区间代表中,是50分至76分组成的区间;第4个区间代表差,是0分至50分组成的区间。
具体地,计算机设备可以获取样本音频的第一分数所处的区间以及标注分数所处的区间,判断样本音频的第一分数以及标注分数是否处于同一区间,如果样本音频的第一分数以及标注分数处于同一区间,则第一比较结果为第一取值,如果样本音频的第一分数以及标注分数处于同一区间,则第一比较结果为第二取值。
步骤二、计算机设备对该样本音频的第二分数与该样本音频的标注分数进行比较,得到第二比较结果。
第二比较结果可以表示样本音频的第二分数以及标注分数是否处于同一区间。具体地,计算机设备可以获取样本音频的第二分数所处的区间以及标注分数所处的区间,判断样本音频的第二分数以及标注分数是否处于同一区间,如果样本音频的第二分数以及标注分数处于同一区间,则第二比较结果为第二取值,如果样本音频的第二分数以及标注分数处于同一区间,则第二比较结果为第二取值。
步骤三、计算机设备根据该第一比较结果以及该第二比较结果,获取该第一分数对应的第一权重以及该第二分数对应的第二权重。
具体来说,步骤三可以包括下述(1)至(2)中的任意一项及其组合。
(1)如果该样本音频的第一分数与该标注分数处于同一区间,且该样本音频的第二分数与该标注分数未处于同一区间,表明信号处理的方法比深度学习的方法准确性更高,则计算机设备增加该第一权重,减小该第二权重,以使信号处理的方法得出的第一分数的比重更大。
(2)如果该样本音频的第一分数与该标注分数未处于同一区间,且该样本音频的第二分数与该标注分数处于同一区间,表明深度学习的方法比信号处理的方法准确性更高,计算机设备减小该第一权重,增加该第二权重,以使深度学习的方法得出的第二分数的比重更大。
示意性地,应用在歌曲演唱的场景下,样本音频可以是样本用户演唱的样本歌曲,则融合规则的确定过程可以包括下述步骤一至步骤六。其中,步骤一至步骤六的细节还请参见上述描述,在此不做赘述。
步骤一、计算机设备获取多个样本用户演唱的样本歌曲。
步骤二、计算机设备从多个样本用户演唱的样本歌曲中,分离出多个样本用户的人声音频。
步骤三、计算机设备根据每个样本用户的人声音频与样本歌曲的原唱人声音频之间的差异程度,获取样本歌曲的第一分数。
步骤四、计算机设备提取样本用户的人声音频的梅尔谱。
步骤五、计算机设备将该样本用户的人声音频的梅尔谱输入神经网络,输出该样本歌曲的第二分数。
步骤六、计算机设备根据该样本歌曲的第一分数、该样本歌曲的第二分数以及样本歌曲的标注分数,获取第一权重以及第二权重。
本实施例提供的方法,提供了一种根据人耳评价,来确定信号处理方法和深度学习方法的融合规则的方法。通过利用样本人声音频的标注分数,分别比较标注分数与信号处理方法得出的分数的一致性,以及标注分数与深度学习方法得出的分数的一致性,来为信号处理方法和深度学习方法分别确定出对应的权重。通过这种方式,对于音色这种比较主观的特征来说,能够通过标注分数作为准确的衡量标注,从而保证融合规则的准确性。
图7是根据一示例性实施例示出的一种音频质量确定装置的框图。参照图7,该装置包括分离单元701,获取单元702、提取单元703、深度学习单元704和融合单元705。
分离单元701,被配置为执行从目标音频中,分离出人声音频;
获取单元702,被配置为执行根据该人声音频与原唱人声音频之间的差异程度,获取该目标音频的第一分数;
提取单元703,被配置为执行提取该人声音频的梅尔谱;
深度学习单元704,被配置为执行将该梅尔谱输入神经网络,输出该目标音频的第二分数;
融合单元705,被配置为执行对该目标音频的第一分数与该目标音频的第二分数进行融合,得到目标分数。
在一种可能的实现中,该目标音频为用户演唱的歌曲;
该分离单元701,具体被配置为执行:从该歌曲中,分离出该用户的人声音频;
该获取单元702,具体被配置为执行:根据该用户的人声音频与该歌曲的原唱人声音频之间的差异程度,获取该歌曲的第一分数;
该提取单元703,具体被配置为执行:提取该用户的人声音频的梅尔谱;
该深度学习单元704,具体被配置为执行:将该梅尔谱输入神经网络,输出该歌曲的第二分数;
该融合单元705,具体被配置为执行:对该歌曲的第一分数与该歌曲的第二分数进行融合,得到该用户演唱该歌曲的目标分数。
在一种可能的实现中,该融合单元705,被配置为执行下述任意一项:
根据第一权重以及第二权重,对该第一分数以及该第二分数进行加权平均,该第一权重为该第一分数的权重,该第二权重为该第二分数的权重;
根据该第一权重以及该第二权重,对该第一分数以及该第二分数进行加权求和。
在一种可能的实现中,该分离单元701,还被配置为执行从样本音频中,分离出样本人声音频;
该获取单元702,还被配置为执行根据该样本人声音频与样本原唱人声音频之间的差异程度,获取该样本音频的第一分数;
该提取单元703,还被配置为执行提取该样本人声音频的梅尔谱;
该深度学习单元704,还被配置为执行将该样本人声音频的梅尔谱输入神经网络,输出该样本音频的第二分数;
该获取单元702,还被配置为执行根据该样本音频的第一分数、该样本音频的第二分数以及该样本音频的标注分数,获取该第一权重以及该第二权重,该标注分数表示该样本音频的音色好坏。
在一种可能的实现中,该样本音频为样本用户演唱的样本歌曲;
该分离单元701,具体被配置为执行:从该样本用户演唱的样本歌曲中,分离出该样本用户的人声音频;
该获取单元702,具体被配置为执行:根据该样本用户的人声音频与该样本歌曲的原唱人声音频之间的差异程度,获取该样本歌曲的第一分数;
该提取单元703,具体被配置为执行:提取该样本用户的人声音频的梅尔谱;
该深度学习单元704,具体被配置为执行:将该样本用户的人声音频的梅尔谱输入神经网络,输出该样本歌曲的第二分数;
该融合单元705,具体被配置为执行:根据该样本歌曲的第一分数、该样本歌曲的第二分数以及该样本歌曲的标注分数,获取该第一权重以及该第二权重,该标注分数表示该样本歌曲的音色好坏。
在一种可能的实现中,该获取单元702,具体被配置为执行:对该样本音频的第一分数与该样本音频的标注分数进行比较,得到第一比较结果;对该样本音频的第二分数与该样本音频的标注分数进行比较,得到第二比较结果;根据该第一比较结果以及该第二比较结果,获取该第一权重以及该第二权重。
在一种可能的实现中,该获取单元702,具体被配置为执行:如果该样本音频的第一分数与该标注分数处于同一区间,且该样本音频的第二分数与该标注分数未处于同一区间,增加该第一权重,减小该第二权重;
如果该样本音频的第一分数与该标注分数未处于同一区间,且该样本音频的第二分数与该标注分数处于同一区间,减小该第一权重,增加该第二权重。
在一种可能的实现中,深度学习单元704,具体被配置为执行:通过该神经网络的隐藏层,从该梅尔谱中提取该人声音频的音色特征以及辅助特征;通过该神经网络的分类层,对该音色特征以及辅助特征进行分类,输出该第二分数,该分类层的每个类别为一个分数。
在一种可能的实现中,该装置还包括:
平滑单元,被配置为执行:对该多个片段的第二分数进行平滑处理。
在一种可能的实现中,该获取单元702,还被配置为执行获取多个样本音频,每个样本音频包括标注分数,该标注分数表示该样本音频的音色好坏;
该分离单元701,还被配置为执行从该多个样本音频中,分离出多个样本人声音频;
该提取单元703,还被配置为执行提取该多个样本人声音频的梅尔谱;
该装置还包括:模型训练单元,被配置为执行:基于该多个样本人声音频的梅尔谱进行模型训练,得到该神经网络。
在一种可能的实现中,该获取单元702,具体被配置为执行:提取该人声音频的音高特征,对该人声音频的音高特征进行统计,得到第一统计结果;提取该人声音频的节奏特征,对该人声音频的节奏特征进行统计,得到第二统计结果;根据该第一统计结果与该原唱人声音频的音高特征的第三统计结果之间的差异程度、该第二统计结果与该原唱人声音频的节奏特征的第四统计结果之间的差异程度,获取该第一分数。
在一种可能的实现中,该获取单元702,具体被配置为执行:获取该第一统计结果与该第三统计结果之间的第一均方误差;获取该第二统计结果与该第四统计结果之间的第二均方误差;对该第一均方误差以及该第二均方误差进行加权平均,得到该第一分数。
在一种可能的实现中,该装置还包括下述任意一项:
录制单元,被配置为执行:通过麦克风进行音频录制,得到该用户演唱的该歌曲;
接收单元,被配置为执行:从终端接收该用户演唱的该歌曲。
关于上述实施例中的装置,其中各个单元执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开实施例所提供的方法可以实施于计算机设备,该计算机设备可以实施为终端,例如,图8示出了本发明一个示例性实施例提供的终端800的结构框图。该终端800可以是:智能手机、平板电脑、MP3播放器(Moving Picture E9perts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture E9perts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端800还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端800包括有:处理器801和存储器802。
处理器801可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器801可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器801也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器801可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器801还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器802可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器802还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器802中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器801所执行以实现本公开中方法实施例提供的音频质量确定方法。
在一些实施例中,终端800还可选包括有:外围设备接口803和至少一个外围设备。处理器801、存储器802和外围设备接口803之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口803相连。具体地,外围设备包括:射频电路804、触摸显示屏805、摄像头806、音频电路807、定位组件808和电源809中的至少一种。
外围设备接口803可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器801和存储器802。在一些实施例中,处理器801、存储器802和外围设备接口803被集成在同一芯片或电路板上;在一些其他实施例中,处理器801、存储器802和外围设备接口803中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路804用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路804通过电磁信号与通信网络以及其他通信设备进行通信。射频电路804将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路804包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路804可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路804还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本公开对此不加以限定。
显示屏805用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏805是触摸显示屏时,显示屏805还具有采集在显示屏805的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器801进行处理。此时,显示屏805还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏805可以为一个,设置终端800的前面板;在另一些实施例中,显示屏805可以为至少两个,分别设置在终端800的不同表面或呈折叠设计;在再一些实施例中,显示屏805可以是柔性显示屏,设置在终端800的弯曲表面上或折叠面上。甚至,显示屏805还可以设置成非矩形的不规则图形,也即异形屏。显示屏805可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件806用于采集图像或视频。可选地,摄像头组件806包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件806还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路807可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器801进行处理,或者输入至射频电路804以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端800的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器801或射频电路804的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路807还可以包括耳机插孔。
定位组件808用于定位终端800的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件808可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源809用于为终端800中的各个组件进行供电。电源809可以是交流电、直流电、一次性电池或可充电电池。当电源809包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端800还包括有一个或多个传感器810。该一个或多个传感器810包括但不限于:加速度传感器811、陀螺仪传感器812、压力传感器813、指纹传感器814、光学传感器815以及接近传感器816。
加速度传感器811可以检测以终端800建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器811可以用于检测重力加速度在三个坐标轴上的分量。处理器801可以根据加速度传感器811采集的重力加速度信号,控制触摸显示屏805以横向视图或纵向视图进行用户界面的显示。加速度传感器811还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器812可以检测终端800的机体方向及转动角度,陀螺仪传感器812可以与加速度传感器811协同采集用户对终端800的3D动作。处理器801根据陀螺仪传感器812采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器813可以设置在终端800的侧边框和/或触摸显示屏805的下层。当压力传感器813设置在终端800的侧边框时,可以检测用户对终端800的握持信号,由处理器801根据压力传感器813采集的握持信号进行左右手识别或快捷操作。当压力传感器813设置在触摸显示屏805的下层时,由处理器801根据用户对触摸显示屏805的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器814用于采集用户的指纹,由处理器801根据指纹传感器814采集到的指纹识别用户的身份,或者,由指纹传感器814根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器801授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器814可以被设置终端800的正面、背面或侧面。当终端800上设置有物理按键或厂商Logo时,指纹传感器814可以与物理按键或厂商Logo集成在一起。
光学传感器815用于采集环境光强度。在一个实施例中,处理器801可以根据光学传感器815采集的环境光强度,控制触摸显示屏805的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏805的显示亮度;当环境光强度较低时,调低触摸显示屏805的显示亮度。在另一个实施例中,处理器801还可以根据光学传感器815采集的环境光强度,动态调整摄像头组件806的拍摄参数。
接近传感器816,也称距离传感器,通常设置在终端800的前面板。接近传感器816用于采集用户与终端800的正面之间的距离。在一个实施例中,当接近传感器816检测到用户与终端800的正面之间的距离逐渐变小时,由处理器801控制触摸显示屏805从亮屏状态切换为息屏状态;当接近传感器816检测到用户与终端800的正面之间的距离逐渐变大时,由处理器801控制触摸显示屏805从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图8中示出的结构并不构成对终端800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本公开实施例所提供的方法可以实施于计算机设备,该计算机设备可以实施为服务器,例如,图9是本发明实施例提供的一种服务器的框图,该服务器900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)901和一个或一个以上的存储器902,其中,所述存储器902中存储有至少一条指令,所述至少一条指令由所述处理器901加载并执行以实现上述各个方法实施例提供的音频质量确定方法。当然,该服务器还可以具有有线或无线网络接口以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种包括指令的存储介质,例如包括指令的存储器804,上述指令可由计算机设备的处理器执行以完成上述音频质量确定方法。可选地,存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是只读存储器(Read-Only Memory,简称:ROM)、随机存取存储器(Random Access Memory,简称:RAM)、只读光盘(Compact Disc Read-Only Memory,简称:CD-ROM)、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种音频质量确定方法,其特征在于,包括:
从目标音频中,分离出人声音频;
根据所述人声音频与原唱人声音频之间的差异程度,获取所述目标音频的第一分数;
提取所述人声音频的梅尔谱;
将所述梅尔谱输入神经网络,输出所述目标音频的第二分数;
对所述目标音频的第一分数与所述目标音频的第二分数进行融合,得到目标分数。
2.根据权利要求1所述的音频质量确定方法,其特征在于,所述目标音频为用户演唱的歌曲;
所述从目标音频中,分离出人声音频,包括:从所述歌曲中,分离出所述用户的人声音频;
所述根据所述人声音频与原唱人声音频之间的差异程度,获取所述目标音频的第一分数,包括:根据所述用户的人声音频与所述歌曲的原唱人声音频之间的差异程度,获取所述歌曲的第一分数;
所述提取所述人声音频的梅尔谱,包括:提取所述用户的人声音频的梅尔谱;
所述将所述梅尔谱输入神经网络,输出所述目标音频的第二分数,包括:将所述梅尔谱输入所述神经网络,输出所述歌曲的第二分数;
所述对所述目标音频的第一分数与所述目标音频的第二分数进行融合,得到目标分数,包括:对所述歌曲的第一分数与所述歌曲的第二分数进行融合,得到所述用户演唱所述歌曲的目标分数。
3.根据权利要求1所述的音频质量确定方法,其特征在于,所述对所述目标音频的第一分数与所述目标音频的第二分数进行融合,得到目标分数,包括下述任意一项:
根据第一权重以及第二权重,对所述第一分数以及所述第二分数进行加权平均,所述第一权重为所述第一分数的权重,所述第二权重为所述第二分数的权重;
根据所述第一权重以及所述第二权重,对所述第一分数以及所述第二分数进行加权求和。
4.根据权利要求3所述的音频质量确定方法,其特征在于,所述对所述目标音频的第一分数与所述目标音频的第二分数进行融合,得到目标分数之前,所述方法还包括:
从样本音频中,分离出样本人声音频;
根据所述样本人声音频与样本原唱人声音频之间的差异程度,获取所述样本音频的第一分数;
提取所述样本人声音频的梅尔谱;
将所述样本人声音频的梅尔谱输入神经网络,输出所述样本音频的第二分数;
根据所述样本音频的第一分数、所述样本音频的第二分数以及所述样本音频的标注分数,获取所述第一权重以及所述第二权重,所述标注分数表示所述样本音频的音色好坏。
5.根据权利要求4所述的音频质量确定方法,其特征在于,所述根据所述样本音频的第一分数、所述样本音频的第二分数以及所述样本音频的标注分数,获取所述第一权重以及所述第二权重,包括:
对所述样本音频的第一分数与所述样本音频的标注分数进行比较,得到第一比较结果;
对所述样本音频的第二分数与所述样本音频的标注分数进行比较,得到第二比较结果;
根据所述第一比较结果以及所述第二比较结果,获取所述第一权重以及所述第二权重。
6.根据权利要求5所述的音频质量确定方法,其特征在于,所述根据所述第一比较结果以及所述第二比较结果,获取所述第一权重以及所述第二权重,包括:
如果所述样本音频的第一分数与所述标注分数处于同一区间,且所述样本音频的第二分数与所述标注分数未处于同一区间,增加所述第一权重,减小所述第二权重;
如果所述样本音频的第一分数与所述标注分数未处于同一区间,且所述样本音频的第二分数与所述标注分数处于同一区间,减小所述第一权重,增加所述第二权重。
7.根据权利要求1所述的音频质量确定方法,其特征在于,所述将所述梅尔谱输入神经网络,输出所述目标音频的第二分数,包括:
通过所述神经网络的隐藏层,从所述梅尔谱中提取所述人声音频的音色特征以及辅助特征;
通过所述神经网络的分类层,对所述音色特征以及辅助特征进行分类,输出所述第二分数,所述分类层的每个类别为一个分数。
8.一种音频质量确定装置,其特征在于,包括:
分离单元,被配置为执行从目标音频中,分离出人声音频;
获取单元,被配置为执行根据所述人声音频与原唱人声音频之间的差异程度,获取所述目标音频的第一分数;
提取单元,被配置为执行提取所述人声音频的梅尔谱;
深度学习单元,被配置为执行将所述梅尔谱输入神经网络,输出所述目标音频的第二分数;
融合单元,被配置为执行对所述目标音频的第一分数与所述目标音频的第二分数进行融合,得到目标分数。
9.一种计算机设备,其特征在于,包括:
一个或多个处理器;
用于存储所述一个或多个处理器可执行指令的一个或多个存储器;
其中,所述一个或多个处理器被配置为执行所述指令,以实现如权利要求1至7中任一项所述的音频质量确定方法。
10.一种存储介质,其特征在于,当所述存储介质中的指令由计算机设备的处理器执行时,使得所述计算机设备能够执行如权利要求1至7中任一项所述的音频质量确定方法。
CN201910542177.7A 2019-06-21 2019-06-21 音频质量确定方法、装置、设备及存储介质 Active CN110277106B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910542177.7A CN110277106B (zh) 2019-06-21 2019-06-21 音频质量确定方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910542177.7A CN110277106B (zh) 2019-06-21 2019-06-21 音频质量确定方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN110277106A true CN110277106A (zh) 2019-09-24
CN110277106B CN110277106B (zh) 2021-10-22

Family

ID=67961392

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910542177.7A Active CN110277106B (zh) 2019-06-21 2019-06-21 音频质量确定方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN110277106B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111402842A (zh) * 2020-03-20 2020-07-10 北京字节跳动网络技术有限公司 用于生成音频的方法、装置、设备和介质
CN111832537A (zh) * 2020-07-27 2020-10-27 深圳竹信科技有限公司 异常心电信号识别方法及异常心电信号识别装置
CN112365877A (zh) * 2020-11-27 2021-02-12 北京百度网讯科技有限公司 语音合成方法、装置、电子设备和存储介质
CN113140228A (zh) * 2021-04-14 2021-07-20 广东工业大学 一种基于图神经网络的声乐打分方法
CN113744708A (zh) * 2021-09-07 2021-12-03 腾讯音乐娱乐科技(深圳)有限公司 模型训练方法、音频评价方法、设备及可读存储介质
WO2022068304A1 (zh) * 2020-09-29 2022-04-07 北京达佳互联信息技术有限公司 音质检测方法及装置
CN114374924A (zh) * 2022-01-07 2022-04-19 上海纽泰仑教育科技有限公司 录音质量检测方法及相关装置

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101859560A (zh) * 2009-04-07 2010-10-13 林文信 卡拉ok歌曲伴唱自动评分方法
CN103871426A (zh) * 2012-12-13 2014-06-18 上海八方视界网络科技有限公司 对比用户音频与原唱音频相似度的方法及其系统
US20150380004A1 (en) * 2014-06-29 2015-12-31 Google Inc. Derivation of probabilistic score for audio sequence alignment
CN105244041A (zh) * 2015-09-22 2016-01-13 百度在线网络技术(北京)有限公司 歌曲试唱的评价方法及装置
CN106548786A (zh) * 2015-09-18 2017-03-29 广州酷狗计算机科技有限公司 一种音频数据的检测方法及系统
CN106997765A (zh) * 2017-03-31 2017-08-01 福州大学 人声音色的定量表征方法
CN107785010A (zh) * 2017-09-15 2018-03-09 广州酷狗计算机科技有限公司 歌曲演唱评价方法、设备、评价系统及可读存储介质
CN107818796A (zh) * 2017-11-16 2018-03-20 重庆师范大学 一种音乐考试评定方法及系统
CN109300485A (zh) * 2018-11-19 2019-02-01 北京达佳互联信息技术有限公司 音频信号的评分方法、装置、电子设备及计算机存储介质
CN109308912A (zh) * 2018-08-02 2019-02-05 平安科技(深圳)有限公司 音乐风格识别方法、装置、计算机设备及存储介质
CN109448754A (zh) * 2018-09-07 2019-03-08 南京光辉互动网络科技股份有限公司 一种多维度演唱评分系统
CN109524025A (zh) * 2018-11-26 2019-03-26 北京达佳互联信息技术有限公司 一种唱歌评分方法、装置、电子设备及存储介质
CN109903773A (zh) * 2019-03-13 2019-06-18 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法、装置及存储介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101859560A (zh) * 2009-04-07 2010-10-13 林文信 卡拉ok歌曲伴唱自动评分方法
CN103871426A (zh) * 2012-12-13 2014-06-18 上海八方视界网络科技有限公司 对比用户音频与原唱音频相似度的方法及其系统
US20150380004A1 (en) * 2014-06-29 2015-12-31 Google Inc. Derivation of probabilistic score for audio sequence alignment
CN106548786A (zh) * 2015-09-18 2017-03-29 广州酷狗计算机科技有限公司 一种音频数据的检测方法及系统
CN105244041A (zh) * 2015-09-22 2016-01-13 百度在线网络技术(北京)有限公司 歌曲试唱的评价方法及装置
CN106997765A (zh) * 2017-03-31 2017-08-01 福州大学 人声音色的定量表征方法
CN107785010A (zh) * 2017-09-15 2018-03-09 广州酷狗计算机科技有限公司 歌曲演唱评价方法、设备、评价系统及可读存储介质
CN107818796A (zh) * 2017-11-16 2018-03-20 重庆师范大学 一种音乐考试评定方法及系统
CN109308912A (zh) * 2018-08-02 2019-02-05 平安科技(深圳)有限公司 音乐风格识别方法、装置、计算机设备及存储介质
CN109448754A (zh) * 2018-09-07 2019-03-08 南京光辉互动网络科技股份有限公司 一种多维度演唱评分系统
CN109300485A (zh) * 2018-11-19 2019-02-01 北京达佳互联信息技术有限公司 音频信号的评分方法、装置、电子设备及计算机存储介质
CN109524025A (zh) * 2018-11-26 2019-03-26 北京达佳互联信息技术有限公司 一种唱歌评分方法、装置、电子设备及存储介质
CN109903773A (zh) * 2019-03-13 2019-06-18 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法、装置及存储介质

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111402842A (zh) * 2020-03-20 2020-07-10 北京字节跳动网络技术有限公司 用于生成音频的方法、装置、设备和介质
CN111832537A (zh) * 2020-07-27 2020-10-27 深圳竹信科技有限公司 异常心电信号识别方法及异常心电信号识别装置
CN111832537B (zh) * 2020-07-27 2023-04-25 深圳竹信科技有限公司 异常心电信号识别方法及异常心电信号识别装置
WO2022068304A1 (zh) * 2020-09-29 2022-04-07 北京达佳互联信息技术有限公司 音质检测方法及装置
CN112365877A (zh) * 2020-11-27 2021-02-12 北京百度网讯科技有限公司 语音合成方法、装置、电子设备和存储介质
CN113140228A (zh) * 2021-04-14 2021-07-20 广东工业大学 一种基于图神经网络的声乐打分方法
CN113744708A (zh) * 2021-09-07 2021-12-03 腾讯音乐娱乐科技(深圳)有限公司 模型训练方法、音频评价方法、设备及可读存储介质
CN113744708B (zh) * 2021-09-07 2024-05-14 腾讯音乐娱乐科技(深圳)有限公司 模型训练方法、音频评价方法、设备及可读存储介质
CN114374924A (zh) * 2022-01-07 2022-04-19 上海纽泰仑教育科技有限公司 录音质量检测方法及相关装置
CN114374924B (zh) * 2022-01-07 2024-01-19 上海纽泰仑教育科技有限公司 录音质量检测方法及相关装置

Also Published As

Publication number Publication date
CN110277106B (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN110277106A (zh) 音频质量确定方法、装置、设备及存储介质
CN107844781A (zh) 人脸属性识别方法及装置、电子设备及存储介质
CN110121118A (zh) 视频片段定位方法、装置、计算机设备及存储介质
CN108008930B (zh) 确定k歌分值的方法和装置
CN110379430A (zh) 基于语音的动画显示方法、装置、计算机设备及存储介质
CN109300485B (zh) 音频信号的评分方法、装置、电子设备及计算机存储介质
CN109994127A (zh) 音频检测方法、装置、电子设备及存储介质
CN108829881A (zh) 视频标题生成方法及装置
CN109040297A (zh) 用户画像生成方法及装置
CN110956971B (zh) 音频处理方法、装置、终端及存储介质
CN110263213A (zh) 视频推送方法、装置、计算机设备及存储介质
WO2022111168A1 (zh) 视频的分类方法和装置
CN111128232B (zh) 音乐的小节信息确定方法、装置、存储介质及设备
CN109784351A (zh) 数据分类方法、分类模型训练方法及装置
CN110322760A (zh) 语音数据生成方法、装置、终端及存储介质
CN109147757A (zh) 歌声合成方法及装置
CN108270794A (zh) 内容发布方法、装置及可读介质
CN109192218A (zh) 音频处理的方法和装置
CN112667844A (zh) 检索音频的方法、装置、设备和存储介质
CN111625682A (zh) 视频的生成方法、装置、计算机设备及存储介质
CN109192223A (zh) 音频对齐的方法和装置
CN109003621A (zh) 一种音频处理方法、装置及存储介质
CN110490389A (zh) 点击率预测方法、装置、设备及介质
CN109961802A (zh) 音质比较方法、装置、电子设备及存储介质
CN111428079B (zh) 文本内容处理方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant