CN103617799A - 一种适应于移动设备的英语语句发音质量检测方法 - Google Patents
一种适应于移动设备的英语语句发音质量检测方法 Download PDFInfo
- Publication number
- CN103617799A CN103617799A CN201310631850.7A CN201310631850A CN103617799A CN 103617799 A CN103617799 A CN 103617799A CN 201310631850 A CN201310631850 A CN 201310631850A CN 103617799 A CN103617799 A CN 103617799A
- Authority
- CN
- China
- Prior art keywords
- voice signal
- voice
- described collection
- stress
- score value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种适应于移动设备的英语语句发音质量检测方法,该方法包括以下步骤:对用户发出的语句进行采集;对采集的语音信号进行预处理;对经预处理的语音信号进行语音特征参数提取,得到采集的语音信号的语音特征参数;利用语音特征参数对采集的语音信号与标准语音信号进行比较,进行内容、情感、语速、重音、节奏和语调评分;根据内容分值、情感分值、语速分值、重音分值、节奏分值和语调分值中至少一项得到采集的语音信号的最终分值;根据最终分值评判采集的语音信号是否发音准确。本发明可以提高语句发音检测的准确性,解决用户只能在PC端使用语句发音检测系统的问题。
Description
技术领域
本发明涉及语音信号处理技术领域,尤其涉及一种适应于移动设备的英语语句发音质量检测方法。
背景技术
信号处理技术在语言学习中的应用是信息技术与语言学习整合的一个重要内容,其目标是将最新的语音技术与当前的教学和学习方法结合,建立计算机辅助语言学习系统。
语音客观评价方法最早可以追溯到二十世纪四十年代末,由N.R.French和J.C.Steinberg于1947年提出的清晰度指数AI(Articu1ationhidex)方法。T.P.Barnwell和S.R.Quackenbus对八十年代中期以前的语音质量客观评价研究工作作了系统总结,于1988年出版了介绍一本语音质量客观评价的著作。
进入九十年代后,语音质量客观评价方法研究取得了飞跃的发展,S.Wang于1992年提出的巴克谱失真BSD(Bark Spectral Distortion)方法对以后的影响较大,BSD方法是以人的听觉能力和听觉心理特点为基础构造出一种听觉转换模型。
我国语音识别研究工作起步于20世纪50年代,中科院声学所开始进行语音识别研究。中国语音识别的真正的开端应该是1978年,中科院声学所实现的采用带通滤波器组参数为特征的语音识别系统RTSRS(01)的产生。20世纪80年代,针对汉语单音节的特点,清华大学、中国科学院、北方交通大学、东南大学等开发了汉语特定人孤立字全音节语音识别系统。
当前语句发音准确度检测的相关技术,大多是考察语速和重音两个指标。在语速上,采用判断句子读取时间来衡量句子的语速,在重音上,采用语音的短时能量作为重音的判断标准。发音检测最后得分的计算方法则是将语速和重音两个指标的分值进行简单结合,准确度差。此外,现有检测方法大多局限于在PC机上使用,限定了用户只能在PC机旁进行语句发音检测,灵活性小,方便性差。
发明内容
本发明实施例所要解决的技术问题是,提出一种适应于移动设备的英语语句发音质量检测方法,提高语句发音检测的准确性,解决用户只能在PC端使用语句发音检测系统的问题。
为解决上述技术问题,本发明实施例提出一种适应于移动设备的英语语句发音质量检测方法,包括以下步骤:
S1.对用户发出的语句进行采集,获得语音信号;
S2.对所述采集的语音信号进行预处理,得到经预处理的语音信号;
S3.对所述经预处理的语音信号进行语音特征参数提取,得到所述采集的语音信号的语音特征参数,并将所述语音特征参数存储于数据存储器中;
S4.利用所述语音特征参数对所述采集的语音信号与标准语音信号进行比较,进行内容、情感、语速、重音、节奏和语调评分,得到所述采集的语音信号的内容分值、情感分值、语速分值、重音分值、节奏分值和语调分值中的至少一项;
S5.根据所述内容分值、情感分值、语速分值、重音分值、节奏分值和语调分值中至少一项得到所述采集的语音信号的最终分值;根据所述最终分值判断所述采集的语音信号是否发音准确。
进一步的,所述步骤S2包括:
对所述采集的语音信号进行预加重处理、分帧处理、加窗函数和端点检测,得到经预处理的语音信号;
具体的,所述预加重处理为,用高频提升预加重数字滤波器处理所述采集的语音信号,按照6dB/oct的规格对所述采集的语音信号的高频部分进行提升;
所述分帧处理采用半帧交叠分帧的方式进行分帧处理;
所述加窗函数采用汉明窗;
所述端点检测采用双门限比较法,以短时能量E和短时平均过零率Z作为判断语音起始点的特征。
进一步的,所述步骤S3包括:
提取所述经预处理的语音信号的语音特征参数,得到所述采集的语音信号的语音时长参数T发音时长、语音能量参数Tse和Mel倒谱系数,并将所述采集的语音信号的语音时长参数T发音时长、语音能量参数Tse和Mel倒谱系数存储于数据存储器中。
进一步的,所述步骤S4包括:
调取所述采集的语音信号的Mel倒谱系数,并利用分段聚类算法进行处理,得到经分段聚类的内容特征参数;
调取与所述采集的语音信号相对应的标准语音信号的概率神经网络语音模型,并将所述经分段聚类的内容特征参数输入所述标准语音信号的概率神经网络语音模型中,得到所述采集的语音信号的内容分类结果;
计算所述采集的语音信号的Mel倒谱系数和与所述采集的语音信号相对应的标准语音信号的Mel倒谱系数之间的相关系数;
根据所述内容分类结果和所述相关系数,对所述采集的语音信号的内容进行评分,得到内容分值。
进一步的,所述步骤S4还包括:
调取所述采集的语音信号的Mel倒谱系数和语音能量参数,并利用分段聚类算法进行处理,得到经分段聚类的情感特征参数;
调取与所述采集的语音信号相对应的标准语音信号的概率神经网络语音模型,并将所述经分段聚类的情感特征参数输入所述标准语音信号的概率神经网络语音模型中,得到所述采集的语音信号的情感分类结果;
计算所述采集的语音信号的Mel倒谱系数和与所述采集的语音信号相对应的标准语音信号的Mel倒谱系数之间的相关系数;
根据所述情感分类结果和所述相关系数,对所述采集的语音信号的情感进行评分,得到情感分值。
进一步的,所述步骤S4还包括:
调取与所述采集的语音信号相对应的标准语音信号的语音时长参数S发音时长,将所述标准语音信号的语音时长参数S发音时长和所述采集的语音信号的语音时长参数T发音时长代入英语句子发音的相对语速计算公式,计算相对语速V相对语速,所述计算公式如下:
将所述相对语速V相对语速作为语速评分的判断指标,代入语速评分公式计算得出语速分值SSpeed,所述语速评分公式如下:
SSpeed=α-β×V相对语速
其中,α取值100,β取值80。
进一步的,所述步骤S4还包括:
调取与所述采集的语音信号相对应的标准语音信号的语音时长参数S发音时长,将所述采集的语音信号的语音时长按比例调整为所述标准语音信号的语音时长参数S发音时长;
调取所述采集的语音信号的语音能量参数Tse,根据所述采集的语音信号的语音能量参数Tse值,逐个搜索所述采集的语音信号中语音能量大于重音阀值Tu的最大语音信号值Smax;在小于所述最大语音信号值Smax的语音能量参数值范围内,由大到小逐个搜索等于非重音阀值Tl的语音信号值Sl;在大于所述最大语音信号值Smax的语音能量参数值范围内,由小到大逐个搜索等于非重音阀值Tl的语音信号值Sr;将Sl与Sr设置为所述采集的语音信号的重音信号,并将Sl与Sr之间的信号量值置0,计算Sl与Sr之间的语音时长;若所述Sl与Sr之间的语音时长大于重读元音时长,则Sl与Sr之间的语音部分即为重音音节,其中,重读元音时长等于100ms,记录所述重音音节的长度;
统计所述采集的语音信号里的重音个数Tsnum,调取与所述采集的语音信号相对应的标准语音信号的重音个数Ssnum和重音平均短时能量值Sse;
将所述采集的语音信号里的重音个数Tsnum、标准语音信号的重音个数Ssnum、标准语音信号的重音平均短时能量值Sse和采集的语音信号的重音平均短时能量值Tse代入重音评分计算公式,得到重音分值SStress,所述重音评分计算公式如下:
SStress=ω1×SStress1+ω2×SStress2
其中,b的值为68,ω1的值为0.3,ω2的值为0.7。
进一步的,所述步骤S4还包括:
利用节奏评分公式进行节奏评分,得到节奏分值SRhythm,所述节奏评分公式如下:
其中,m=min(Tsnum,Ssnum),d1k为与所述采集的语音信号相对应的标准语音信号的第k个重音段的时长,d1l为与所述采集的语音信号相对应的标准语音信号的最后一个重音段的时长,d2k为所述采集的语音信号的第k个重音段的时长,d2l为所述采集的语音信号的最后一个重音段的时长。
进一步的,所述步骤S4还包括:
利用自相关函数对所述经预处理的语音信号的语音数据帧S(i),i=0~n-1做自相关运算,得到所述经预处理的语音信号的每一语音数据帧的音高;所述经预处理的语音信号的每一语音数据帧的音高构成所述采集的语音信号的语调曲线;
调取与所述采集的语音信号相对应的标准语音信号的语调曲线,利用DTW算法计算所述采集的语音信号的语调曲线与所述标准语音信号的语调曲线的差异参数dist;
将所述差异参数dist映射到[0,100]的分数范围内,得到语调指标的评分结果SIntonation,映射公式如下:
其中,a取0.0005,b取100。
更进一步的,所述步骤S5包括:
由所述内容分值、情感分值、语速分值、重音分值、节奏分值和语调分值得到所述采集的语音信号的最终分值STotal,所述最终分值STotal的计算公式为:
其中,n=6,Si为第i个语句发音评价指标的得分,wi为第i个语句发音评价指标所占的权重;
根据所述最终分值STotal确定所述采集的语音信号的等级,所述最终分值STotal落在90~100的分数范围内,则判定所述采集的语音信号的发音准确度为A级;
所述最终分值STotal落在70~90的分数范围内,则判定所述采集的语音信号的发音准确度为B级;
所述最终分值STotal落在60~70的分数范围内,则判定所述采集的语音信号的发音准确度为C级;
所述最终分值STotal落在0~60的分数范围内,则判定所述采集的语音信号的发音准确度为D级。
实施本发明实施例,具有如下有益效果:本发明实施例在检测语句发音质量时不仅考虑语句发音的语速和重音,同时还考虑内容、情感、节奏和语调指标,检测准确度高,可靠性强。同时本发明实施例运用于移动终端操作系统中,解放了用户必须在PC机上进行语句检测的局限性,使用更加灵活。
附图说明
图1是本发明提供的适应于移动设备的英语语句发音质量检测方法的一个实施例的流程示意图;
图2是本发明提供的适应于移动设备的英语语句发音质量检测方法的一个实施例的总框图;
图3是本发明提供的半帧交叠分帧的分帧方式的一个实施例的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,是本发明提供的一种适应于移动设备的英语语句发音质量检测方法的一个实施例的流程示意图,该方法包括以下步骤:
S1.对用户发出的语句进行采集,获得语音信号;
S2.对所述采集的语音信号进行预处理,得到经预处理的语音信号;
S3.对所述经预处理的语音信号进行语音特征参数提取,得到所述采集的语音信号的语音特征参数,并将所述语音特征参数存储于数据存储器中;
S4.利用所述语音特征参数对所述采集的语音信号与标准语音信号进行比较,进行内容、情感、语速、重音、节奏和语调评分,得到所述采集的语音信号的内容分值、情感分值、语速分值、重音分值、节奏分值和语调分值中的至少一项;
S5.根据所述内容分值、情感分值、语速分值、重音分值、节奏分值和语调分值中至少一项得到所述采集的语音信号的最终分值;根据所述最终分值判断所述采集的语音信号是否发音准确。
下面对本发明提供的适应于移动设备的英语语句发音质量检测方法的一个实施方式进行详细描述。
在一个实施方式中,上述步骤S2包括:
对所述采集的语音信号进行预加重处理、分帧处理、加窗函数和端点检测,得到经预处理的语音信号;
具体的,上述预加重处理为用高频提升预加重数字滤波器处理上述采集的语音信号,按照6dB/oct的规格对所述采集的语音信号的高频部分进行提升;
对原始信号x(n)进行预加重可以用公式表示如下:
y(n)=x(n)-0.9375*x(n-1)
对上述采集的语音信号进行预加重处理,可以使信号频谱变得平坦,以便进行频谱分析。
上述分帧处理采用半帧交叠分帧的方式对采集的语音信号进行处理;如图3中所示,帧与帧之间交叠分段,帧移部分占整个帧长的比例取0~1/2之间,取0时,表示分帧处理方式为连续分段,取1/2时,表示帧移占帧长的三分之一;
采用半帧交叠分帧方式在保证语音信号具有短时平稳性的同时,使得帧与帧之间过渡平滑,保证了其连续性。
上述加窗函数采用汉明窗,分帧后利用窗函数可以减少由截断处理导致的Gibbs效应,经加窗后的语音信号为:
Sω(n)=y(n)*ω(n)
其中,ω(n)为汉明窗函数定义:
上述端点检测采用双门限比较法,以短时能量E和短时平均过零率Z作为判断语音起始点的特征,第n帧语音信号Sω(m)的短时能量谱En为:
语音信号Sω(m)的短时过零率Zn为:
其中,sgn[]是符号函数,即:
理想情况下,无声段的短时能量和过零率为零,如果语音信号中短时能量和过零率一直为零,而在某抽样点变为非零时,该抽样点为语音信号起始点;如果语音信号中短时能量和过零率一直不为零,而在某抽样点变为零时,该抽样点为语音信号结束点。为防止噪声的干扰,设置短时能量和过零率门限值TE和TZ,当语音信号短时能量和过零率在某抽样点变大,且大于门限值TE和TZ时,判定该抽样点为语音信号起始点,当语音信号短时能量和过零率在某抽样点由非零状态逐渐减小,且小于门限值TE和TZ时,判定该抽样点为语音信号结束点。
在一个实施方式中,上述步骤S3包括:
提取上述经预处理的语音信号的语音特征参数,得到所述采集的语音信号的语音时长参数T发音时长、语音能量参数Tse和Mel倒谱系数,并将所述采集的语音信号的语音时长参数T发音时长、语音能量参数Tse和Mel倒谱系数存储于数据存储器中。
具体的,根据在上述步骤S2中判断得到的语音信号起始点和语音信号结束点,计算得出语音信号的语音时长参数T发音时长。而对于语音信号的短时能量参数Tse,采用语音信号的短时能量的定义进行提取:
Mel倒谱系数(Mel-Frequency Cepstral Coefficients,MFCC)的提取需要将加窗后的语音信号进行傅里叶变换、三角滤波、对数处理和离散余弦变换处理。
经三角滤波处理得到一组系数m1,m2…,计算mi的公式如下:
mi=ln[X(k)*Hi(k)]
其中,
f[i]为三角滤波器的中心频率,f[i]满足:
Mel(f[i+1])-Mel(f[i])=Mel(f[i])-Mel(f[i-1])
对所有滤波器的输出求对数,再利用离散余弦变换求得倒谱系数Ci:
其中,P是三角滤波器的个数,这里MFCC的阶数设为12。
在一个实施方式中,上述步骤S4包括:
S4-1.调取上述采集的语音信号的Mel倒谱系数,并利用分段聚类算法进行处理,得到经分段聚类的内容特征参数;具体的处理过程包括以下步骤:
首先将所述采集的语音信号的Mel倒谱系数平均分为N段,分段公式如下:
M(i)=S(K,J)
其中S(K,J)表示Mel倒谱系数,K是倒谱系数的阶数,J为分段后倒谱系数的帧数,T为原语音帧数,M(i)即为分段后第i段的Mel倒谱系数;
把Mel倒谱系数平均分为N段后,继续将M(i)平均分为M段,子分段计算公式与上述分段公式相同;
然后对每个子分段的各帧参数进行求均值运算,得出各个子分段的均值向量k=1,2,...,M;在取得各个子分段的均值向量后,将各个子分段的均值合并为一个矩阵,即得到K×M×N大小的矩阵即为分段聚类后的内容特征参数。
需要说明的是,本实施例中上述N和M的取值为3,但N和M的取值不局限于3,其他符合实际需要的取值均在本发明保护范围内。
S4-2.调取与所述采集的语音信号相对应的标准语音信号的概率神经网络语音模型,并将所述经分段聚类的内容特征参数输入所述标准语音信号的概率神经网络语音模型中,得到所述采集的语音信号的内容分类结果;
需要说明的是,所述标准语音信号的概率神经网络语音模型为事先训练得到,存储于数据存储器中,供内容评分时调取;将所述经分段聚类的内容特征参数输入所述标准语音信号的概率神经网络语音模型中,可以判断所述采集的语音信号的类标号与所述标准语音信号的类标号是否相同;所述采集的语音信号的内容分类结果有两类,准确或者不准确,可用于在后续的内容分值评判中进行内容分值评判。
S4-3.计算所述采集的语音信号的和与所述采集的语音信号相对应的标准语音信号的Mel倒谱系数之间的相关系数;
其中,相关系数的计算公式如下:
其中,X代表所述采集的语音信号的Mel倒谱系数,Y代表与所述采集的语音信号相对应的标准语音信号的Mel倒谱系数,n代表所述Mel倒谱系数的长度。
S4-4.根据所述内容分类结果和所述相关系数,对所述采集的语音信号的内容进行评分,得到内容分值;内容分值计算过程如下:
第一种情况,所述采集的语音信号的内容类标号与所述标准语音的内容类标号相等,即所述采集的语音信号的内容分类结果为准确:
如果相关系数r>0.5,则句子内容准确度评级为A,句子内容准确度评价结果为:句子发音清晰准确,内容完整,朗读流利,无明显语音错误;句子内容准确度评价得分为SContent=95;
如果相关系数r>0.15,则句子内容准确度评级为B,句子内容准确度评价结果为:句子发音较为准确,内容较为完整,朗读比较流利,无严重语音错误;句子内容准确度评价得分为SContent=85;
如果相关系数为其他值,则句子内容准确度评级为C,句子内容准确度评价结果为:句子发音基本准确,内容基本完整,朗读基本流利,有语音错误,但不影响理解;句子内容准确度评价得分为SContent=65;
第二种情况,所述采集的语音信号的内容类标号与所述标准语音的内容类标号不相等,即所述采集的语音信号的内容分类结果为不准确:
如果相关系数r>0.05,则句子内容准确度评级为C,句子内容准确度评价结果为:句子发音不够准确,部分内容不够完整,存在影响理解的语音错误;句子内容准确度评价得分为SContent=55;
如果相关系数为其他值,则句子内容准确度评级为D,句子内容准确度评价结果为:句子发音不清晰,不准确,部分内容不够完整,存在影响理解的严重语音错误;句子内容准确度评价得分为SContent=35。
在一个实施方式中,上述步骤S4还包括:
S4-A.调取所述采集的语音信号的Mel倒谱系数和语音能量参数,并利用分段聚类算法进行处理,得到经分段聚类的情感特征参数;
S4-B.调取与所述采集的语音信号相对应的标准语音信号的概率神经网络语音模型,并将所述经分段聚类的情感特征参数输入所述标准语音信号的概率神经网络语音模型中,得到所述采集的语音信号的情感分类结果;
S4-C.计算所述采集的语音信号的Mel倒谱系数和与所述采集的语音信号相对应的标准语音信号的Mel倒谱系数之间的相关系数;
S4-D.根据所述情感分类结果和所述相关系数,对所述采集的语音信号的情感进行评分,得到情感分值。
需要说明的是,S4-A中利用分段聚类算法处理所述采集的语音信号的语音特征参数的方法与上述S4-1中所述方法类似、S4-B中情感分类结果的判断方法与上述S4-2中所述方法类似、S4-C中计算相关系数的方法与上述S4-3中所述方法类似,此处不再赘述。
S4-D中情感分值的计算方法具体包括:
第一种情况,所述采集的语音信号的情感类标号与所述标准语音的情感类标号相等,即所述采集的语音信号的情感分类结果为准确:
如果相关系数r>0.5,则句子情感准确度评级为A,句子情感准确度评价结果为:句子表达富有情感色彩,句子情感准确度评价得分为SEmotion=95;
如果相关系数r>0.15,则句子情感准确度评级为B,句子情感准确度评价结果为:句子表达比较具有情感色彩,句子情感准确度评价得分为SEmotion=85;
如果相关系数为其他值,则句子情感准确度评级为C,句子情感准确度评价结果为:句子表达具有基本情感色彩,句子情感准确度评价得分为SEmotion=85;
第二种情况,所述采集的语音信号的情感类标号与所述标准语音的情感类标号不相等,即所述采集的语音信号的情感分类结果为不准确:
如果相关系数r>0.05,则句子情感准确度评级为C,句子情感准确度评价结果为:句子表达比较欠缺情感色彩;句子情感准确度评价得分为SEmotion=85;
如果相关系数为其他值,则句子情感准确度评级为D,句子情感准确度评价结果为:句子表达欠缺基本情感色彩;句子情感准确度评价得分为SEmotion=85。
在一个实施方式中,上述步骤S4还包括:
调取与上述采集的语音信号相对应的标准语音信号的语音时长参数S发音时长,将所述标准语音信号的语音时长参数S发音时长和所述采集的语音信号的语音时长参数T发音时长代入英语句子发音的相对语速计算公式,计算相对语速V相对语速,所述计算公式如下:
将所述相对语速V相对语速作为语速评分的判断指标,代入语速评分公式计算得出语速分值SSpeed,所述语速评分公式如下:
SSpeed=α-β×V相对语速
其中,α取值100,β取值80。
在一个实施方式中,上述步骤S4还包括:
1).句子规整:调取与上述采集的语音信号相对应的标准语音信号的语音时长参数S发音时长,将所述采集的语音信号的语音时长按比例调整为所述标准语音信号的语音时长参数S发音时长;
2).重音音节划分:调取所述采集的语音信号的语音能量参数Tse,根据所述采集的语音信号的语音能量参数Tse值,逐个搜索所述采集的语音信号中语音能量大于重音阀值Tu的最大语音信号值Smax;在小于所述最大语音信号值Smax的语音能量参数值范围内,由大到小逐个搜索等于非重音阀值Tl的语音信号值Sl;在大于所述最大语音信号值Smax的语音能量参数值范围内,由小到大逐个搜索等于非重音阀值Tl的语音信号值Sr;将Sl与Sr设置为所述采集的语音信号的重音信号,并将Sl与Sr之间的信号量值置0,计算Sl与Sr之间的语音时长;若所述Sl与Sr之间的语音时长大于重读元音时长,则Sl与Sr之间的语音部分即为重音音节,其中,重读元音时长等于100ms。
记录所述重音音节的长度,以便节奏评分时使用;
3).统计所述采集的语音信号里的重音个数Tsnum,调取与所述采集的语音信号相对应的标准语音信号的重音个数Ssnum和重音平均短时能量值Sse;
将所述采集的语音信号里的重音个数Tsnum、标准语音信号的重音个数Ssnum、标准语音信号的重音平均短时能量值Sse和采集的语音信号的重音平均短时能量值Tse代入重音评分计算公式,得到重音分值SStress,所述重音评分计算公式如下:
SStress=ω1×SStress1+ω2×SStress2
其中,b的值为68,ω1的值为0.3,ω2的值为0.7。
需要说明的是,标准语音信号的一系列语音特征参数是通过事先对标准英语句子进行语音特征参数提取得到的,如发音时长S发音时长、重音个数Ssnum和重音平均短时能量值Sse,它们存储于数据存储器中,供用户进行语句发音检测时调取。
在一个实施方式中,上述步骤S4还包括:
利用节奏评分公式进行节奏评分,得到节奏分值SRhythm,所述节奏评分公式如下:
其中,m=min(Tsnum,Ssnum),d1k为与所述采集的语音信号相对应的标准语音信号的第k个重音段的时长,d1l为与所述采集的语音信号相对应的标准语音信号的最后一个重音段的时长,d2k为所述采集的语音信号的第k个重音段的时长,d2l为所述采集的语音信号的最后一个重音段的时长。
需要说明的是,采集的语音信号的重音段时长在重音音节划分时得到,标准语音信号的重音段时长同标准语音信号的其他语音特征参数一样,存储于数据存储器中,在需要是调取。
在一个实施方式中,上述步骤S4还包括:
利用自相关函数对上述经预处理的语音信号的数据帧S(i),i=0~n-1做自相关运算,得到所述经预处理的语音信号的每一语音数据帧的音高;其中,构建经预处理的语音信号的自相关函数如下:
其中,n为帧长,τ是时间延迟量;
所述经预处理的语音信号的每一个语音数据帧的音高构成所述采集的语音信号的语调曲线;
调取与所述采集的语音信号相对应的标准语音信号的语调曲线,利用DTW(Dynamic Time Warpping,动态时间归整)算法计算所述采集的语音信号的语调曲线与所述标准语音信号的语调曲线的差异参数dist;
将所述差异参数dist映射到[0,100]的分数范围内,得到语调指标的评分结果SIntonation,映射公式如下:
其中,a取0.0005,b取100。
在一个实施方式中,上述步骤S5包括:
由上述内容分值SContent、情感分值SEmotion、语速分值SSpeed、重音分值SStress、节奏分值SRhythm和语调分值SIntonation得到所述采集的语音信号的最终分值STotal,所述最终分值STotal的计算公式为:
其中,n=6,Si为第i个语句发音评价指标的得分,wi为第i个语句发音评价指标所占的权重;
需要说明的是,本发明实施例中所述的各项语音特征指标的权重并非定值,而是根据不同的用户有不同的值。对于小学生的发音进行评价时,我们可能侧重内容准确度,所以会把内容指标的权重设置的偏高,其他指标设置的相对低一些,如设置内容权重2.6,情感1.2,语速1.6,重音2,节奏1,语调1.6;但是对大学生而言,我们要求相对高一些,不仅要求句子要读准,而且要带有正确的情感、好的语调和韵律等,如可设置内容权重1.9,情感1.6,语速1.7,重音1.8,节奏1.6,语调1.4。在实际应用中,可为不同的用户设置不同的语音特征指标权重组合,用户在使用本方法前可以选择符合自己的权重组合。
根据上述最终分值STotal确定所述采集的语音信号的发音质量等级,所述最终分值STotal落在90~100的分数范围内,则判定所述采集的语音信号的发音质量为A级;
所述最终分值STotal落在70~90的分数范围内,则判定所述采集的语音信号的发音质量为B级;
所述最终分值STotal落在60~70的分数范围内,则判定所述采集的语音信号的发音质量为C级;
所述最终分值STotal落在0~60的分数范围内,则判定所述采集的语音信号的发音质量为D级。
结合专家知识库意见,确定与发音质量等级相对应的用户发音质量水平提示语,在判断得出所述采集的语音信号的发音质量等级后,结合各指标的得分,提示用户相应的发音质量水平提示语。如判定所述采集的语音信号的发音质量为A级时,提示用户“句子发音准确,内容完整,具有情感色彩,语速适中,重音发音准确,节奏感强,语调把握恰当,总体把握优秀”;判定所述采集的语音信号的发音质量为B级时,提示用户“句子发音较准确,内容较完整,比较具有情感色彩,语速较适中,重音发音较为准确,有一定的节奏感,语调把握相对较好,总体把握良好”;判定所述采集的语音信号的发音质量为C级时,提示用户“句子发音较不准确,部分内容不完整,比较欠缺情感色彩,语速较差,重音发音不准确,节奏感差,语调存在局部错误,总体把握一般”;判定所述采集的语音信号的发音质量为D级时,提示用户“句子发音不准确,内容不完整,欠缺情感色彩,语速差,重音发音错误,毫无节奏感可言,句子语调错误,总体把握不及格”。
在一个可选的实施方式中,在步骤S5之后,还包括:输出用于提示用户的语句发音是否准确的提示信息。例如,在判定所述采集的语音信号的发音质量为A级、B级、C级或D级之后,可以通过显示屏输出发音质量级别信息,或者通过音频方式输出发音质量级别提示音。
本发明实施例提供的适应于移动设备的英语语句发音质量检测方法,可应用于人们日常的英语口语学习中,检测英语口语的发音质量。
需要说明的是,在具体实施当中,可以根据本发明实施例提供的适应于移动设备的英语语句发音质量检测方法,开发出一套英语语句发音评价系统,应用在Android、IOS等操作系统中;除此之外,本发明实施例涉及到的方法还可应用在PC机操作系统中,并且可以检测的语种也不局限于英语,其他如日语、法语都适用于本实施例提及的语句发音检测方法。
本发明实施例提供的适应于移动设备的英语语句发音质量检测方法,首先对用户录入的语音句子进行预处理,提取语音特征参数,然后分别检测内容、情感、语速、重音、节奏和语调等多个语音质量指标,接着利用检测得来的语音指标的分数值,加权求得用户录入的语音句子的最终得分,最后判定用户录入的语音句子的发音质量等级,并结合专家知识库的意见,给出相应的发音质量水平提示语。与其他语音检测技术相比,本发明实施例不仅考虑语句发音的语速和重音,同时还考虑内容、情感、节奏和语调指标,检测准确度更高,可靠性更强。同时本发明实施例运用于Android、IOS等移动终端操作系统中,解放了用户必须在PC上进行语句检测的局限性,使用更加灵活。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (10)
1.一种适应于移动设备的英语语句发音质量检测方法,其特征在于,包括:
S1.对用户发出的语句进行采集,获得语音信号;
S2.对所述采集的语音信号进行预处理,得到经预处理的语音信号;
S3.对所述经预处理的语音信号进行语音特征参数提取,得到所述采集的语音信号的语音特征参数,并将所述语音特征参数存储于数据存储器中;
S4.利用所述语音特征参数对所述采集的语音信号与标准语音信号进行比较,进行内容、情感、语速、重音、节奏和语调评分,得到所述采集的语音信号的内容分值、情感分值、语速分值、重音分值、节奏分值和语调分值中的至少一项;
S5.根据所述内容分值、情感分值、语速分值、重音分值、节奏分值和语调分值中至少一项得到所述采集的语音信号的最终分值;根据所述最终分值判断所述采集的语音信号是否发音准确。
2.如权利要求1所述的适应于移动设备的英语语句发音质量检测方法,其特征在于,所述步骤S2包括:
对所述采集的语音信号进行预加重处理、分帧处理、加窗函数和端点检测,得到经预处理的语音信号;
其中,所述预加重处理具体为,用高频提升预加重数字滤波器处理所述采集的语音信号,按照6dB/oct的规格对所述采集的语音信号的高频部分进行提升;
所述分帧处理采用半帧交叠分帧的方式进行分帧处理;
所述加窗函数采用汉明窗;
所述端点检测采用双门限比较法,以短时能量E和短时平均过零率Z作为判断语音起始点的特征。
3.如权利要求2所述的适应于移动设备的英语语句发音质量检测方法,其特征在于,所述步骤S3包括:
提取所述经预处理的语音信号的语音特征参数,得到所述采集的语音信号的语音时长参数T发音时长、语音能量参数Tse和Mel倒谱系数,并将所述采集的语音信号的语音时长参数T发音时长、语音能量参数Tse和Mel倒谱系数存储于数据存储器中。
4.如权利要求3所述的适应于移动设备的英语语句发音质量检测方法,其特征在于,所述步骤S4包括:
调取所述采集的语音信号的Mel倒谱系数,并利用分段聚类算法进行处理,得到经分段聚类的内容特征参数;
调取与所述采集的语音信号相对应的标准语音信号的概率神经网络语音模型,并将所述经分段聚类的内容特征参数输入所述标准语音信号的概率神经网络语音模型中,得到所述采集的语音信号的内容分类结果;
计算所述采集的语音信号的Mel倒谱系数和与所述采集的语音信号相对应的标准语音信号的Mel倒谱系数之间的相关系数;
根据所述内容分类结果和所述相关系数,对所述采集的语音信号的内容进行评分,得到内容分值。
5.如权利要求4所述的适应于移动设备的英语语句发音质量检测方法,其特征在于,所述步骤S4还包括:
调取所述采集的语音信号的Mel倒谱系数和语音能量参数,并利用分段聚类算法进行处理,得到经分段聚类的情感特征参数;
调取与所述采集的语音信号相对应的标准语音信号的概率神经网络语音模型,并将所述经分段聚类的情感特征参数输入所述标准语音信号的概率神经网络语音模型中,得到所述采集的语音信号的情感分类结果;
计算所述采集的语音信号的Mel倒谱系数和与所述采集的语音信号相对应的标准语音信号的Mel倒谱系数之间的相关系数;
根据所述情感分类结果和所述相关系数,对所述采集的语音信号的情感进行评分,得到情感分值。
7.如权利要求6所述的适应于移动设备的英语语句发音质量检测方法,其特征在于,所述步骤S4还包括:
调取与所述采集的语音信号相对应的标准语音信号的语音时长参数S发音时长,将所述采集的语音信号的语音时长按比例调整为所述标准语音信号的语音时长参数S发音时长;
调取所述采集的语音信号的语音能量参数Tse,根据所述采集的语音信号的语音能量参数Tse值,逐个搜索所述采集的语音信号中语音能量大于重音阀值Tu的最大语音信号值Smax;在小于所述最大语音信号值Smax的语音能量参数值范围内,由大到小逐个搜索等于非重音阀值Tl的语音信号值Sl;在大于所述最大语音信号值Smax的语音能量参数值范围内,由小到大逐个搜索等于非重音阀值Tl的语音信号值Sr;将Sl与Sr设置为所述采集的语音信号的重音信号,并将Sl与Sr之间的信号量值置0,计算Sl与Sr之间的语音时长;若所述Sl与Sr之间的语音时长大于重读元音时长,则Sl与Sr之间的语音部分即为重音音节,其中,重读元音时长等于100ms,记录所述重音音节的长度;
统计所述采集的语音信号里的重音个数Tsnum,调取与所述采集的语音信号相对应的标准语音信号的重音个数Ssnum和重音平均短时能量值Sse;
将所述采集的语音信号里的重音个数Tsnum、标准语音信号的重音个数Ssnum、标准语音信号的重音平均短时能量值Sse和采集的语音信号的重音平均短时能量值Tse代入重音评分计算公式,得到重音分值SStress,所述重音评分计算公式如下:
SStress=ω1×SStress1+ω2×SStress2
其中,b的值为68,ω1的值为0.3,ω2的值为0.7。
9.如权利要求8所述的适应于移动设备的英语语句发音质量检测方法,其特征在于,所述步骤S4还包括:
利用自相关函数对所述经预处理的语音信号的语音数据帧S(i),i=0~n-1做自相关运算,得到所述经预处理的语音信号的每一语音数据帧的音高;所述经预处理的语音信号的每一语音数据帧的音高构成所述采集的语音信号的语调曲线;
调取与所述采集的语音信号相对应的标准语音信号的语调曲线,利用DTW算法计算所述采集的语音信号的语调曲线与所述标准语音信号的语调曲线的差异参数dist;
将所述差异参数dist映射到[0,100]的分数范围内,得到语调指标的评分结果SIntonation,映射公式如下:
其中,a取0.0005,b取100。
10.如权利要求9所述的适应于移动设备的英语语句发音质量检测方法,其特征在于,所述步骤S5包括:
由所述内容分值、情感分值、语速分值、重音分值、节奏分值和语调分值得到所述采集的语音信号的最终分值STotal,所述最终分值STotal的计算公式为:
其中,n=6,Si为第i个语句发音评价指标的得分,wi为第i个语句发音评价指标所占的权重;
根据所述最终分值STotal确定所述采集的语音信号的等级,所述最终分值STotal落在90~100的分数范围内,则判定所述采集的语音信号的发音准确度为A级;
所述最终分值STotal落在70~90的分数范围内,则判定所述采集的语音信号的发音准确度为B级;
所述最终分值STotal落在60~70的分数范围内,则判定所述采集的语音信号的发音准确度为C级;
所述最终分值STotal落在0~60的分数范围内,则判定所述采集的语音信号的发音准确度为D级。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310631850.7A CN103617799B (zh) | 2013-11-28 | 2013-11-28 | 一种适应于移动设备的英语语句发音质量检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310631850.7A CN103617799B (zh) | 2013-11-28 | 2013-11-28 | 一种适应于移动设备的英语语句发音质量检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103617799A true CN103617799A (zh) | 2014-03-05 |
CN103617799B CN103617799B (zh) | 2016-04-27 |
Family
ID=50168502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310631850.7A Expired - Fee Related CN103617799B (zh) | 2013-11-28 | 2013-11-28 | 一种适应于移动设备的英语语句发音质量检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103617799B (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103928023A (zh) * | 2014-04-29 | 2014-07-16 | 广东外语外贸大学 | 一种语音评分方法及系统 |
CN103985392A (zh) * | 2014-04-16 | 2014-08-13 | 柳超 | 音素级的低功耗的口语评价与缺陷诊断方法 |
CN104485115A (zh) * | 2014-12-04 | 2015-04-01 | 上海流利说信息技术有限公司 | 发音评价设备、方法和系统 |
CN104732977A (zh) * | 2015-03-09 | 2015-06-24 | 广东外语外贸大学 | 一种在线口语发音质量评价方法和系统 |
CN105529036A (zh) * | 2014-09-29 | 2016-04-27 | 深圳市赛格导航科技股份有限公司 | 一种语音质量的检测系统及方法 |
CN105608960A (zh) * | 2016-01-27 | 2016-05-25 | 广东外语外贸大学 | 一种基于多参量分析的口语形成性教学方法及系统 |
CN105609114A (zh) * | 2014-11-25 | 2016-05-25 | 科大讯飞股份有限公司 | 一种发音检测方法及装置 |
CN105741832A (zh) * | 2016-01-27 | 2016-07-06 | 广东外语外贸大学 | 一种基于深度学习的口语评测方法和系统 |
CN106653055A (zh) * | 2016-10-20 | 2017-05-10 | 北京创新伙伴教育科技有限公司 | 在线英语口语评估系统 |
CN106847308A (zh) * | 2017-02-08 | 2017-06-13 | 西安医学院 | 一种英语发音质量评价系统 |
CN107221343A (zh) * | 2017-05-19 | 2017-09-29 | 北京市农林科学院 | 一种数据质量的评估方法及评估系统 |
CN107767862A (zh) * | 2017-11-06 | 2018-03-06 | 深圳市领芯者科技有限公司 | 语音数据处理方法、系统及存储介质 |
CN107818795A (zh) * | 2017-11-15 | 2018-03-20 | 苏州驰声信息科技有限公司 | 一种英语口语的测评方法及装置 |
CN107910014A (zh) * | 2017-11-23 | 2018-04-13 | 苏州科达科技股份有限公司 | 回声消除的测试方法、装置及测试设备 |
CN108053839A (zh) * | 2017-12-11 | 2018-05-18 | 广东小天才科技有限公司 | 一种语言练习成果的展示方法及麦克风设备 |
CN108922561A (zh) * | 2018-06-04 | 2018-11-30 | 平安科技(深圳)有限公司 | 语音区分方法、装置、计算机设备及存储介质 |
CN108922563A (zh) * | 2018-06-17 | 2018-11-30 | 海南大学 | 基于偏差器官形态行为可视化的口语学习矫正方法 |
CN108962281A (zh) * | 2018-08-15 | 2018-12-07 | 三星电子(中国)研发中心 | 一种语言表达的评价和辅助方法及装置 |
CN109697975A (zh) * | 2017-10-20 | 2019-04-30 | 深圳市鹰硕音频科技有限公司 | 一种语音评价方法及装置 |
CN110867193A (zh) * | 2019-11-26 | 2020-03-06 | 广东外语外贸大学 | 一种段落英语口语评分方法及系统 |
CN112767966A (zh) * | 2020-12-31 | 2021-05-07 | 北京小早科技有限公司 | 一种语音点评方法、装置、计算机设备及存储介质 |
CN113436487A (zh) * | 2021-07-08 | 2021-09-24 | 上海松鼠课堂人工智能科技有限公司 | 基于虚拟现实场景的中文朗诵技能训练方法与系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101727903A (zh) * | 2008-10-29 | 2010-06-09 | 中国科学院自动化研究所 | 基于多特征和多系统融合的发音质量评估和错误检测方法 |
CN102800314A (zh) * | 2012-07-17 | 2012-11-28 | 广东外语外贸大学 | 具有反馈指导的英语句子识别与评价系统及其方法 |
-
2013
- 2013-11-28 CN CN201310631850.7A patent/CN103617799B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101727903A (zh) * | 2008-10-29 | 2010-06-09 | 中国科学院自动化研究所 | 基于多特征和多系统融合的发音质量评估和错误检测方法 |
CN102800314A (zh) * | 2012-07-17 | 2012-11-28 | 广东外语外贸大学 | 具有反馈指导的英语句子识别与评价系统及其方法 |
Non-Patent Citations (1)
Title |
---|
方凡泉等: "语音质量客观评价方法研究及实现", 《广州大学学报》 * |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103985392A (zh) * | 2014-04-16 | 2014-08-13 | 柳超 | 音素级的低功耗的口语评价与缺陷诊断方法 |
CN103928023A (zh) * | 2014-04-29 | 2014-07-16 | 广东外语外贸大学 | 一种语音评分方法及系统 |
CN103928023B (zh) * | 2014-04-29 | 2017-04-05 | 广东外语外贸大学 | 一种语音评分方法及系统 |
CN105529036A (zh) * | 2014-09-29 | 2016-04-27 | 深圳市赛格导航科技股份有限公司 | 一种语音质量的检测系统及方法 |
CN105529036B (zh) * | 2014-09-29 | 2019-05-07 | 深圳市赛格导航科技股份有限公司 | 一种语音质量的检测系统及方法 |
CN105609114B (zh) * | 2014-11-25 | 2019-11-15 | 科大讯飞股份有限公司 | 一种发音检测方法及装置 |
CN105609114A (zh) * | 2014-11-25 | 2016-05-25 | 科大讯飞股份有限公司 | 一种发音检测方法及装置 |
CN104485115A (zh) * | 2014-12-04 | 2015-04-01 | 上海流利说信息技术有限公司 | 发音评价设备、方法和系统 |
CN104732977B (zh) * | 2015-03-09 | 2018-05-11 | 广东外语外贸大学 | 一种在线口语发音质量评价方法和系统 |
CN104732977A (zh) * | 2015-03-09 | 2015-06-24 | 广东外语外贸大学 | 一种在线口语发音质量评价方法和系统 |
CN105741832A (zh) * | 2016-01-27 | 2016-07-06 | 广东外语外贸大学 | 一种基于深度学习的口语评测方法和系统 |
CN105741832B (zh) * | 2016-01-27 | 2020-01-07 | 广东外语外贸大学 | 一种基于深度学习的口语评测方法和系统 |
CN105608960A (zh) * | 2016-01-27 | 2016-05-25 | 广东外语外贸大学 | 一种基于多参量分析的口语形成性教学方法及系统 |
CN106653055A (zh) * | 2016-10-20 | 2017-05-10 | 北京创新伙伴教育科技有限公司 | 在线英语口语评估系统 |
CN106847308A (zh) * | 2017-02-08 | 2017-06-13 | 西安医学院 | 一种英语发音质量评价系统 |
CN107221343A (zh) * | 2017-05-19 | 2017-09-29 | 北京市农林科学院 | 一种数据质量的评估方法及评估系统 |
CN109697975A (zh) * | 2017-10-20 | 2019-04-30 | 深圳市鹰硕音频科技有限公司 | 一种语音评价方法及装置 |
CN107767862A (zh) * | 2017-11-06 | 2018-03-06 | 深圳市领芯者科技有限公司 | 语音数据处理方法、系统及存储介质 |
CN107818795B (zh) * | 2017-11-15 | 2020-11-17 | 苏州驰声信息科技有限公司 | 一种英语口语的测评方法及装置 |
CN107818795A (zh) * | 2017-11-15 | 2018-03-20 | 苏州驰声信息科技有限公司 | 一种英语口语的测评方法及装置 |
CN107910014A (zh) * | 2017-11-23 | 2018-04-13 | 苏州科达科技股份有限公司 | 回声消除的测试方法、装置及测试设备 |
CN108053839A (zh) * | 2017-12-11 | 2018-05-18 | 广东小天才科技有限公司 | 一种语言练习成果的展示方法及麦克风设备 |
CN108922561A (zh) * | 2018-06-04 | 2018-11-30 | 平安科技(深圳)有限公司 | 语音区分方法、装置、计算机设备及存储介质 |
CN108922563B (zh) * | 2018-06-17 | 2019-09-24 | 海南大学 | 基于偏差器官形态行为可视化的口语学习矫正方法 |
CN108922563A (zh) * | 2018-06-17 | 2018-11-30 | 海南大学 | 基于偏差器官形态行为可视化的口语学习矫正方法 |
CN108962281A (zh) * | 2018-08-15 | 2018-12-07 | 三星电子(中国)研发中心 | 一种语言表达的评价和辅助方法及装置 |
CN108962281B (zh) * | 2018-08-15 | 2021-05-07 | 三星电子(中国)研发中心 | 一种语言表达的评价和辅助方法及装置 |
CN110867193A (zh) * | 2019-11-26 | 2020-03-06 | 广东外语外贸大学 | 一种段落英语口语评分方法及系统 |
CN112767966A (zh) * | 2020-12-31 | 2021-05-07 | 北京小早科技有限公司 | 一种语音点评方法、装置、计算机设备及存储介质 |
CN113436487A (zh) * | 2021-07-08 | 2021-09-24 | 上海松鼠课堂人工智能科技有限公司 | 基于虚拟现实场景的中文朗诵技能训练方法与系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103617799B (zh) | 2016-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103617799B (zh) | 一种适应于移动设备的英语语句发音质量检测方法 | |
CN101751919B (zh) | 一种汉语口语重音自动检测方法 | |
CN104200804B (zh) | 一种面向人机交互的多类信息耦合的情感识别方法 | |
CN108922541B (zh) | 基于dtw和gmm模型的多维特征参数声纹识别方法 | |
CN105825852A (zh) | 一种英语口语朗读考试评分方法 | |
CN108428382A (zh) | 一种口语复述评分方法及系统 | |
CN104732977A (zh) | 一种在线口语发音质量评价方法和系统 | |
CN109192224B (zh) | 一种语音评测方法、装置、设备及可读存储介质 | |
CN103366735B (zh) | 语音数据的映射方法和装置 | |
CN101996635B (zh) | 基于重音突显度的英语发音质量评价方法 | |
CN104464724A (zh) | 一种针对刻意伪装语音的说话人识别方法 | |
CN103366759A (zh) | 语音数据的测评方法和装置 | |
CN104123934A (zh) | 一种构音识别方法及其系统 | |
CN109036458A (zh) | 一种基于音频特征参数的多语种场景分析方法 | |
CN103985390A (zh) | 一种基于伽马通相关图语音特征参数提取方法 | |
WO2020134647A1 (zh) | 一种针对汉语普通话的早期ad言语辅助筛查系统 | |
CN105976811B (zh) | 一种包含声母的音节切分方法及装置 | |
Kethireddy et al. | Exploration of temporal dynamics of frequency domain linear prediction cepstral coefficients for dialect classification | |
Sigmund | Spectral analysis of speech under stress | |
CN202758611U (zh) | 语音数据的测评装置 | |
Honig et al. | Are men more sleepy than women or does it only look like—Automatic analysis of sleepy speech | |
CN112767961B (zh) | 一种基于云端计算的口音矫正方法 | |
CN111210845B (zh) | 一种基于改进自相关特征的病理语音检测装置 | |
Le et al. | A non-uniform subband approach to speech-based cognitive load classification | |
Bansod et al. | Speaker Recognition using Marathi (Varhadi) Language |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160427 Termination date: 20201128 |
|
CF01 | Termination of patent right due to non-payment of annual fee |