CN110600052B - 一种语音评测的方法及装置 - Google Patents
一种语音评测的方法及装置 Download PDFInfo
- Publication number
- CN110600052B CN110600052B CN201910764775.9A CN201910764775A CN110600052B CN 110600052 B CN110600052 B CN 110600052B CN 201910764775 A CN201910764775 A CN 201910764775A CN 110600052 B CN110600052 B CN 110600052B
- Authority
- CN
- China
- Prior art keywords
- sound data
- training
- evaluation
- sentence
- phoneme
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 90
- 238000012549 training Methods 0.000 claims abstract description 92
- 238000000034 method Methods 0.000 claims abstract description 58
- 238000013528 artificial neural network Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims abstract description 18
- 238000003062 neural network model Methods 0.000 claims abstract description 15
- 238000001228 spectrum Methods 0.000 claims description 15
- 239000006185 dispersion Substances 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 7
- 239000000203 mixture Substances 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 238000010187 selection method Methods 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 claims description 2
- 238000012854 evaluation process Methods 0.000 abstract description 6
- 230000015654 memory Effects 0.000 description 15
- 238000004590 computer program Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- PIRWNASAJNPKHT-SHZATDIYSA-N pamp Chemical compound C([C@@H](C(=O)N[C@@H](CCCNC(N)=N)C(=O)N[C@@H](CCCCN)C(=O)N[C@@H](CCCCN)C(=O)N[C@@H](CC=1C2=CC=CC=C2NC=1)C(=O)N[C@@H](CC(N)=O)C(=O)N[C@@H](CCCCN)C(=O)N[C@@H](CC=1C2=CC=CC=C2NC=1)C(=O)N[C@@H](C)C(=O)N[C@@H](CC(C)C)C(=O)N[C@@H](CO)C(=O)N[C@@H](CCCNC(N)=N)C(N)=O)NC(=O)[C@H](CCC(O)=O)NC(=O)[C@H](CO)NC(=O)[C@H](C)NC(=O)[C@@H](NC(=O)[C@H](CC(O)=O)NC(=O)[C@H](CC(C)C)NC(=O)[C@H](CCCNC(N)=N)NC(=O)[C@H](C)N)C(C)C)C1=CC=CC=C1 PIRWNASAJNPKHT-SHZATDIYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000002407 reforming Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种语音评测的方法及装置,语音评测的方法包括以下步骤:对目标的声音数据抽出MFCC频率和cepstrum系数的特征量;构建神经网络训练模型,对cepstrum系数的特征量进行训练;以已经训练完成的神经网络模型为基础,从所述声音数据获取每个单词和音节的时间信息,并对单词和音节的时间信息进行语句评测,通过深度神经网的训练上先选定最合理的神经网络模型,利用Tensorflow基础进行深度训练;在评测过程中以训练过程上充分训练完成的模型为基础,对于实时声音数据发音准确率、语句语调、语句重音、流畅性等多方面评测,处理输出总评分和详细评分;以声音识别引擎为基础获取音素别时间信息,用此时间信息处理评测,有效提高准确性。
Description
技术领域
本发明涉及数据处理领域,特别是一种语音评测的方法及装置。
背景技术
在改革开放的国情下,经济发展和文化交流两者之间是密不可分的,对个人的外语能力要求越来越高,如何快速高效地获取外语技能,是语言教育迫切需要解决的问题。
在计算机技术迅猛发展的今天,通过计算机测评学生的英语口语水平是必然的趋势,目前的语音测评技术无法对评测音源的语调、语气、重音、流畅性等关键元素进行综合性评测,且依赖于语料库的导入,无法适应不同年龄,性别以及口音的认亲进行合理评价,在综合评价能力方面十分欠缺,不能对学生的口语能力作出有效的评价;而且语料导入难,需要制作专属语料库用于评测需求,语料库制作难度高并且制作周期长,在没有标准格式时无法提供准确的英文口语评测,用户跨场景跨区域使用存在困难。
发明内容
为了克服现有技术的不足,本发明的目的在于提供一种语音评测的方法及装置,不仅能够通过深度神经网的训练上先选定最合理的神经网络模型,利用Tensorflow基础的深度训练,还能够在评测过程中以训练过程上充分训练完成的模型为基础,对于实时声音数据进行综合性评测,然后处理输出总评分和详细评分。
本发明解决其问题所采用的技术方案是:
第一方面,本发明提供了一种语音评测的方法,包括以下步骤:
对目标的声音数据抽出MFCC频率和cepstrum系数的特征量;
构建神经网络训练模型,对cepstrum系数的特征量进行训练;
以已经训练完成的神经网络模型为基础,从所述声音数据获取每个单词和音节的时间信息,并对单词和音节的时间信息进行语句评测。
进一步,所述语句评测包括语调评测、重音评测以及流畅性评测。
进一步,神经网络训练模型包括基础训练模型以及深度训练模型,所述基础训练模型为RNN神经网络,所述深度训练模型为Tensorflow申请网络。
进一步,所述语调评测包括以下步骤:
获取声音数据中的句子所在的音素列表和每个音素的发音时间信息;
将窗宽度设置为第一阈值时间,窗间隔设置为第二阈值时间,对声音数据中的句子进行高速傅里叶变换,构成声音数据的spectrogram;
以每个音素的发音时间信息为基础获取对应的Formant数据;
将句子的音素顺序设定为X坐标,以每个音素的Formant数据设定为Y坐标,获取声音数据中的句子的语调曲线;
从标准语句语调数据库获取对应句子的语句语调曲线,移动所述标准语句语调曲线,当所述标准语句语调曲线与目标评测的声音数据的语句语调曲线之间的距离变成最小,停止移动所述标准语句语调曲线;
计算每个音素的分值。
进一步,所述重音评测包括以下步骤:
获取声音数据中的句子所在的音素列表和每个音素的发音时间信息;
将窗宽度设置为第一阈值时间,窗间隔设置为第二阈值时间,对声音数据中的句子进行高速傅里叶变换;
获取每个音素的平均振幅、基准频率以及发音时间;
通过平均振幅、基准频率以及发音时间获取句子中的重音的概率;
得到每个音素的语句重音强度。
进一步,所述流畅性测评包括以下步骤:
训练时将声音数据保存到数据库;
按照数据库上的已完成训练的句子的训练数据中,计算得出平均值和分散值;
通过数据库上已经更新的平均发音时间和分散值对流畅性进行评测。
进一步,所述对目标的声音数据抽出MFCC频率和cepstrum系数的特征量之前还包括以下步骤:
读取目标的声音数据;
获取相关偏差;
获取相关平方偏差;
获取完成降噪处理的声音数据。
进一步,所述构建神经网络训练模型,对cepstrum系数的特征量进行训练还包括:
将训练数据上组处理方式的参数设置为64,神经网模型的训练反复默认次数设置为500;
初始状态的神经网络中epoch值设置为0;
偶然选择方法上处理训练数据的类组成;
判断对标训练模型是否存在已训练模型中;
若否,初期化训练模型;
若是,以已训练模型为基础,重新开始训练,训练完后保存模型,计算模型的训练偏差epochER;
判断epoch值是否大于num_epochs或者训练模型误差epochER值是否小于0.00001;
若否,则epoch值加1。
进一步,所述对目标的声音数据抽出MFCC频率和cepstrum系数的特征量还包括:
对声音数据的信号加窗信息变成到短时间信号,用离散傅氏变换将时间信号换成到频率信号,然后获取短时间能量光谱;
在频率轴线上按频率光谱变成到Mel坐标上的Mel频率;
在Mel频率领域上对Mel坐标通过三角形频带滤波器获取滤波器群,Mel坐标上的能量光谱通过滤波器群计算输出信号;
滤波器群包括40个线性排列的滤波器,前13个滤波器对1000Hz以下的线性分割进行处理,后27个滤波器对Mel坐标上线性分割进行处理。
进一步,前处理单元,用于对目标的声音数据抽出MFCC频率和cepstrum系数的特征量;
训练单元,用于构建神经网络训练模型,对cepstrum系数的特征量进行训练;
评测单元,用于以已经训练完成的神经网络模型为基础,从所述声音数据获取每个单词和音节的时间信息,并对单词和音节的时间信息进行单词评测和/或语句评测。
第二方面,本发明提供了一种语音评测的装置,包括:
前处理单元,用于对目标的声音数据抽出MFCC频率和cepstrum系数的特征量;
训练单元,用于构建神经网络训练模型,对cepstrum系数的特征量进行训练;
评测单元,用于以已经训练完成的神经网络模型为基础,从所述声音数据获取每个单词和音节的时间信息,并对单词和音节的时间信息进行单词评测和/或语句评测。
第三方面,本发明提供了一种语音评测的设备,
包括至少一个控制处理器和用于与至少一个控制处理器通信连接的存储器;存储器存储有可被至少一个控制处理器执行的指令,指令被至少一个控制处理器执行,以使至少一个控制处理器能够执行如上所述的语音评测的方法。
第四方面,本发明提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机可执行指令,计算机可执行指令用于使计算机执行如上所述的语音评测的方法。
第五方面,本发明还提供了一种计算机程序产品,所述计算机程序产品包括存储在计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使计算机执行如上所述的语音评测的方法。
本发明实施例中提供的一个或多个技术方案,至少具有如下有益效果:通过深度神经网的训练上先选定最合理的神经网络模型,利用Tensorflow基础进行深度训练;在评测过程中以训练过程上充分训练完成的模型为基础,对于实时声音数据发音准确率、语句语调、语句重音、流畅性等多方面评测,处理输出总评分和详细评分;在语句语调和语句重音评测过程上以声音识别引擎为基础获取音素别时间信息,用此时间信息处理评测,有效提高准确性。
附图说明
下面结合附图和实例对本发明作进一步说明。
图1是本发明实施例提供的一种语音评测的方法的流程图;
图2是本发明实施例提供的语音评测的方法中语音评测的一种实施方式的语调评测流程图;
图3是本发明实施例提供的语音评测的方法中语音评测的一种实施方式的重音评测流程图;
图4是本发明实施例提供的语音评测的方法中语音评测的一种实施方式的流畅性评测流程图;
图5是本发明实施例提供的语音评测的方法中语音评测的一种实施方式的神经网络训练模型流程图;
图6是本发明实施例提供的一种语音评测的装置的结构示意图;
图7是本发明实施例提供的一种语音评测的设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
需要说明的是,如果不冲突,本发明实施例中的各个特征可以相互结合,均在本发明的保护范围之内。另外,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。
参照图1,本发明实施例的一种语音评测的方法,包括以下步骤:
S1:对目标的声音数据抽出MFCC频率和cepstrum系数的特征量;
S2:构建神经网络训练模型,对cepstrum系数的特征量进行训练;
S3:以已经训练完成的神经网络模型为基础,从所述声音数据获取每个单词和音节的时间信息,并对单词和音节的时间信息进行语句评测。
通过深度神经网的训练上先选定最合理的神经网络模型,利用Tensorflow基础进行深度训练;在评测过程中以训练过程上充分训练完成的模型为基础,对于实时声音数据发音准确率、语句语调、语句重音、流畅性等多方面评测,处理输出总评分和详细评分;在语句语调和语句重音评测过程上以声音识别引擎为基础获取音素别时间信息,用此时间信息处理评测,有效提高准确性。
MFCC:Mel是频率倒谱系数(Mel Frequency Cepstrum Coefficient,MFCC)的缩写。Mel频率是基于人耳听觉特性提出来的,它与Hz频率成非线性对应关系。Mel频率倒谱系数(MFCC)则是利用它们之间的这种关系,计算得到的Hz频谱特征。
本发明实施例的一种语音评测的方法,神经网络训练模型包括基础训练模型以及深度训练模型,所述基础训练模型为RNN神经网络,所述深度训练模型为Tensorflow申请网络。
RNN:循环神经网络,Recurrent Neural Network,该神经网络是一种节点定向连接成环的人工神经网络,这种网络的内部状态可以展示动态时序行为,不同于前馈神经网络的是,RNN可以利用它内部的记忆来处理任意时序的输入序列,这让它可以更容易处理如不分段的手写识别、语音识别等。
TensorFlow:是一个基于数据流编程(dataflow programming)的符号数学系统,被广泛应用于各类机器学习(machine learning)算法的编程实现,其前身是谷歌的神经网络算法库DistBelief。
本发明实施例的一种语音评测的方法,所述语句评测包括语调评测、重音评测以及流畅性评测。
参照图2,本发明实施例的一种语音评测的方法,声音的语调是由音波数的组及Formant决定的。对于全体声音数据,一个窗宽度是为20ms,窗间隔是为10ms,处理傅里叶变换(Fourier Transform)获取每个窗的声音信息(比例Formant,声音振波等)。以音素时间为基础获取每个音素的声音信息平均Formant和发音待续时间,然后以每个音素的Formant数据为基础获取活者的语句语调和曲线。从数据库的标准语句语调曲线和活者的语句语调曲线获取欧几里得距离,直到此距离变成最小为止移动处理语句语调的曲线,当两个曲线之前距离越近,则分数越高,距离越远,则分数越小。
所述语调评测包括以下步骤:
S11:获取声音数据中的句子所在的音素列表和每个音素的发音时间信息;
S12:将窗宽度设置为第一阈值时间(20ms),窗间隔设置为第二阈值时间(10ms),对声音数据中的句子进行高速傅里叶变换,构成声音数据的spectrogram;
S13:以每个音素的发音时间信息为基础获取对应的Formant数据;
S14:将句子的音素顺序设定为X坐标,以每个音素的Formant数据设定为Y坐标,获取声音数据中的句子的语调曲线;
S15:从标准语句语调数据库获取对应句子的语句语调曲线,移动所述标准语句语调曲线,当所述标准语句语调曲线与目标评测的声音数据的语句语调曲线之间的距离变成最小,停止移动所述标准语句语调曲线;
移动的距离计算公式如下:
S16:计算每个音素的分值。移动之后获取每个音素的评分,其中单词的评分是为所有音素评分的平均值,句子的评分是为所有单词评分的平均值。
v:移动之后音素的Formant值;
f:标准发音的Formant值;
d:标准发音的Formant分散值。
参照图3,本发明实施例的一种语音评测的方法,声音的语句重音是由声音的振动强度、振幅、高度以及发音时间来决定的。优先确认关注的音素和其他音素之前振动强度、高度以及发音时间的差异,抽出有可能性的音素的语句重音概率,然后以用线性回归分析获取的振动强度,高度,发音时间的系数为基础,获取每个音节的语句重音。从数据库获取每个单词的标准语句重音信息,以此信息为基础评测或者的语句重音分数。
所述重音评测包括以下步骤:
S21:获取声音数据中的句子所在的音素列表和每个音素的发音时间信息;
S22:将窗宽度设置为第一阈值时间,窗间隔设置为第二阈值时间,对声音数据中的句子进行高速傅里叶变换;
S23:获取每个音素的平均振幅、基准频率以及发音时间;
S24:通过平均振幅、基准频率以及发音时间获取句子中的重音的概率;
Pamp:音素的振动强度;
Pfreq:音素的振动数;
Ptime:对于音素的振动时间,此音素的语句重音概率;
An:第n音素的平均振幅值;
Fn:第n音素的基准频率;
Tn:第n音素的发音时间;
fm:第n音素前面的N个音素的平均值(N:用户定义的);
bm:第n音素后面的M个音素的平均值(M:用户定义的);
fs:音素比fm几倍的时候决定是否看语句重音的阈值(threshold value);
bs:音素比bm几倍的时候决定是否看语句重音的阈值(threshold value)。
S25:得到每个音素的语句重音强度。
Astrength=a1*Pamp+a2*Pfreq+a3*Ptime
Astrength:语句重音强度
a1,a2,a3:对于振动强度,高度,发音时间的系数
S26:计算每个音素的分值,其中单词的评分是为所有音素评分的平均值,句子的评分是为所有单词评分的平均值。
v:音素的语句重音强度;
a:标准发音的语句重音强度;
d:标准发音的语句重音强度分散值。
参照图4,本发明实施例的一种语音评测的方法,所述流畅性测评包括以下步骤:
S31:训练时将声音数据保存到数据库;
S32:按照数据库上的已完成训练的句子的训练数据中,计算得出平均值和分散值;
分散值计算公式如下:
n:训练次数
tn-1:在数据库上已经保存的平均发音时间
dn-1:在数据库上已经保存的分散
tn:目前发音时间
S33:通过数据库上已经更新的平均发音时间和分散值对流畅性进行评测。流畅性评测公式如下:
本发明实施例的一种语音评测的方法,所述对目标的声音数据抽出MFCC频率和cepstrum系数的特征量之前还包括以下步骤:
读取目标的声音数据;
获取相关偏差;
Sn=cn+rn
(cn:相关数据,rn:相关偏差)
获取相关平方偏差;
Sn=c′n+r′n
(r′n:cn+rn的相关平方值,c′n:相关平方偏差)
获取声源降噪处理过的声音数据,及原声音数据上减去相关平方偏差;
获取完成降噪处理的声音数据。
参照图5,本发明实施例的一种语音评测的方法,所述构建神经网络训练模型,对cepstrum系数的特征量进行训练还包括:
S41:将训练数据上组处理方式的参数设置为64,神经网模型的训练反复默认次数设置为500;
S42:初始状态的神经网络中epoch值设置为0;
S43:偶然选择方法上处理训练数据的类组成;
S44:判断对标训练模型是否存在已训练模型中;
S45:若否,初期化训练模型;
S46:若是,以已训练模型为基础,重新开始训练,训练完后保存模型,计算模型的训练偏差epochER;
S47:判断epoch值是否大于num_epochs或者训练模型误差epochER值是否小于0.00001;
S48:若否,则epoch值加1。
本发明实施例的一种语音评测的方法,所述对目标的声音数据抽出MFCC频率和cepstrum系数的特征量还包括:
在对目标的声音数据处理过程中,从声音数据(mp3文件)获取MFCC(即Mel频率)和cepstrum系数;
Mel频率和cepstrum系数是考虑人间的听觉特点的系数,处理把Mel频率光谱变成到非线性频率光谱,然后再变成到cepstrum领域;
因为充分考虑了人间的听觉,没有前提条件,所以MFCC变数具有可好的识别性能和防止杂音能力。其中MFCC计算过程如下。
将MFCC特征矢量的设置为13,抽出特征的窗宽度设置为20ms,窗间隔设置为10ms。
流程如下:
获取每个声音标本数据的标本华频率和按时间的振幅值;
设定特征矢量大小,声音的窗宽度,窗间隔;
以上述两步骤的参数为基础计算MFCC特征值保存到特征量文件。
具体的MFCC特征量计算的算法如下:
对声音数据的信号加窗信息变成到短时间信号,用离散傅氏变换将时间信号x(n)换成到频率信号X(m),然后获取短时间能量光谱P(f);
在频率轴线上按频率光谱P(f)变成到Mel坐标上的P(M),其中M为Mel频率;
Fmel=3322.231lg(1+0.001)fHz
在Mel频率领域上对Mel坐标通过三角形频带滤波器获取滤波器群,Mel坐标上的能量光谱通过滤波器群计算输出信号;
k:第k的滤波器;
K:滤波器总数。
滤波器群包括40个线性排列的滤波器(即K=40),前13个滤波器对1000Hz以下的线性分割进行处理,后27个滤波器对Mel坐标上线性分割进行处理。
θ(Mk)表示第k滤波器的输出能量,在尺度光谱上可以获取非连续余弦变换(Discrete Cosine Transform)的Mel频率cepstrum Cmel(n)。
p:MFCC的维度。
参照图6,本发明实施例还提供了一种语音评测的装置,在该语音评测的装置1000中,包括但不限于:前处理单元1100、训练单元1200和评测单元1300。
其中,前处理单元1100,用于对目标的声音数据抽出MFCC频率和cepstrum系数的特征量;
训练单元1200,用于构建神经网络训练模型,对cepstrum系数的特征量进行训练;
评测单元1300,用于以已经训练完成的神经网络模型为基础,从所述声音数据获取每个单词和音节的时间信息,并对单词和音节的时间信息进行单词评测和/或语句评测。
需要说明的是,由于本实施例中的语音评测的装置与上述的语音评测的方法基于相同的发明构思,因此,方法实施例中的相应内容同样适用于本装置实施例,此处不再详述。
参照图7,本发明实施例还提供了一种语音评测的设备,该语音评测的设备200可以是任意类型的智能终端,例如手机、平板电脑、个人计算机等。
具体地,该语音评测的设备200包括:一个或多个控制处理器201和存储器202,图7中以一个控制处理器201为例。
控制处理器201和存储器202可以通过总线或者其他方式连接,图7中以通过总线连接为例。
存储器202作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态性计算机可执行程序以及模块,如本发明实施例中的语音评测的方法对应的程序指令/模块,例如,图6中所示的前处理单元1100、训练单元1200和评测单元1300。控制处理器201通过运行存储在存储器202中的非暂态软件程序、指令以及模块,从而执行语音评测的装置1000的各种功能应用以及数据处理,即实现上述方法实施例的语音评测的方法。
存储器202可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据语音评测的装置1000的使用所创建的数据等。此外,存储器202可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器202可选包括相对于控制处理器201远程设置的存储器,这些远程存储器可以通过网络连接至该语音评测的设备200。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器202中,当被所述一个或者多个控制处理器201执行时,执行上述方法实施例中的语音评测的方法,例如,执行以上描述的图1中的方法步骤S1至S3,图3中的方法步骤S21至S26,实现图6中的单元1100-1300的功能。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个控制处理器执行,例如,被图7中的一个控制处理器201执行,可使得上述一个或多个控制处理器201执行上述方法实施例中的语音评测的方法,例如,执行以上描述的图1中的方法步骤S1至S3,图3中的方法步骤S21至S26,实现图6中的单元1100-1300的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现。本领域技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(ReadOnly Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上是对本发明的较佳实施进行了具体说明,但本发明并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的前提下还可作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (8)
1.一种语音评测的方法,其特征在于,包括以下步骤:
对目标的声音数据抽出MFCC频率的特征量,所述MFCC频率对应目标的声音数据对应的Mel频率;
根据所述MFCC频率,得到所述Mel频率对应的cepstrum系数;
构建神经网络训练模型,对cepstrum系数的特征量进行训练;
以已经训练完成的神经网络模型为基础,从所述声音数据获取每个单词和音节的时间信息,并对单词和音节的时间信息进行语句评测;
所述语句评测包括语调评测、重音评测以及流畅性评测;
其中,所述语调评测包括以下步骤:
获取声音数据中的句子所在的音素列表和每个音素的发音时间信息;
将窗宽度设置为第一阈值时间,窗间隔设置为第二阈值时间,对声音数据中的句子进行高速傅里叶变换,构成声音数据的spectrogram;
以每个音素的发音时间信息为基础获取对应的Formant数据;
将句子的音素顺序设定为X坐标,以每个音素的Formant数据设定为Y坐标,获取声音数据中的句子的语调曲线;
从标准语句语调数据库获取对应句子的语句语调曲线,移动所述标准语句语调曲线,当所述标准语句语调曲线与目标评测的声音数据的语句语调曲线之间的距离变成最小,停止移动所述标准语句语调曲线;计算每个音素的分值。
2.根据权利要求1所述的一种语音评测的方法,其特征在于:神经网络训练模型包括基础训练模型以及深度训练模型,所述基础训练模型为RNN神经网络,所述深度训练模型为使用Tensorflow框架得到的神经网络训练模型。
3.根据权利要求1所述的一种语音评测的方法,其特征在于:
所述重音评测包括以下步骤:
获取声音数据中的句子所在的音素列表和每个音素的发音时间信息;
将窗宽度设置为第一阈值时间,窗间隔设置为第二阈值时间,对声音数据中的句子进行高速傅里叶变换;
获取每个音素的平均振幅、基准频率以及发音时间;
通过平均振幅、基准频率以及发音时间获取句子中的重音的概率;
根据所述重音的概率得到每个音素的语句重音强度;
根据所述语句重音强度计算每个音素的分值,其中单词的评分为所有音素评分的平均值,句子的评分为所有单词评分的平均值。
4.根据权利要求1所述的一种语音评测的方法,其特征在于:
所述流畅性测评包括以下步骤:
训练时将声音数据保存到数据库;
按照数据库上的已完成训练的句子的训练数据, 计算得出平均值和分散值、所述训练数据指训练时保存到数据库的声音数据;
通过数据库上已经更新的平均发音时间和分散值计算出流畅性分值,所述流畅性分值代表对应所述音素的流畅性。
5.根据权利要求1所述的一种语音评测的方法,其特征在于:
对目标的声音数据抽出MFCC频率的特征量之前还包括以下步骤:
读取目标的声音数据;
获取相关偏差;
获取相关平方偏差;
根据所述目标的声音数据、所述相关偏差和所述相关平方偏差得到完成降噪处理的声音数据。
6.根据权利要求1所述的一种语音评测的方法,其特征在于:
所述构建神经网络训练模型,对cepstrum系数的特征量进行训练还包括:
将训练数据对应的组处理方式参数设置为64,神经网模型的训练反复默认次数设置为500;
初始状态的神经网络中epoch值设置为0;
使用随机选择方法随机选择训练数据的类组成;
判断类组成对标的训练模型是否存在已训练模型中:
若否,初期化训练模型;
若是, 以已训练模型为基础,重新开始训练,训练完后保存模型,计算模型的训练偏差epochER;
判断epoch值是否大于num epochs或者训练模型误差epochER值是否小于0.0001;
若否,则epoch值加1。
7.根据权利要求1所述的一种语音评测的方法,其特征在于:
所述对目标的声音数据抽出MFCC频率的特征量,所述MFCC频率对应目标的声音数据对应的Mel频率;
根据所述MFCC频率,得到所述Mel频率对应的cepstrum系数;
还包括:
对声音数据的信号加窗信息变成到短时间信号,用离散傅氏变换将时间信号换成到频率信号, 然后获取短时能量谱;
在频率轴线上按频谱顺序变成Me1坐标上的Me1频率;
在Mel频率领域上对Me1坐标通过三角形频带滤波器获取滤波器群, Mel坐标上的能量谱通过滤波器群计算输出信号;
滤波器群包括40个线性排列的滤波器,前13个滤波器对1000Hz以下的线性分割进行处理,后27个滤波器对Mel坐标上线性分割进行处理。
8.一种语音评测的装置,其特征在于,包括:
前处理单元,用于对目标的声音数据抽出MFCC频率的特征量,所述MFCC 频率对应目标的声音数据对应的Mel频率,根据所述MFCC频率,得到所述Mel频率对应的cepstrum系数;
训练单元,用于构建神经网络训练模型,对cepstrum系数的特征量进行训练;
评测单元,用于以已经训练完成的神经网络模型为基础,从所述声音数据获取每个单词和音节的时间信息,并对单词和音节的时间信息进行单词评测和/或语句评测,所述语句评测包括语调评测、重音评测以及流畅性评测;其中,所述语调评测包括以下步骤:获取声音数据中的句子所在的音素列表和每个音素的发音时间信息;将窗宽度设置为第一阈值时间,窗间隔设置为第二阈值时间, 对声音数据中的句子进行高速傅里叶变换,构成声音数据的spectrogram;以每个音素的发音时间信息为基础获取对应的Formant数据;将句子的音素顺序设定为X坐标,以每个音素的Formant数据设定为Y坐标,获取声音数据中的句子的语调曲线;从标准语句语调数据库获取对应句子的语句语调曲线,移动所述标准语句语调曲线,当所述标准语句语调曲线与目标评测的声音数据的语句语调曲线之间的距离变成最小,停止移动所述标准语句语调曲线;计算每个音素的分值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910764775.9A CN110600052B (zh) | 2019-08-19 | 2019-08-19 | 一种语音评测的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910764775.9A CN110600052B (zh) | 2019-08-19 | 2019-08-19 | 一种语音评测的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110600052A CN110600052A (zh) | 2019-12-20 |
CN110600052B true CN110600052B (zh) | 2022-06-07 |
Family
ID=68854730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910764775.9A Active CN110600052B (zh) | 2019-08-19 | 2019-08-19 | 一种语音评测的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110600052B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111599234A (zh) * | 2020-05-19 | 2020-08-28 | 黑龙江工业学院 | 一种基于声音识别的英语口语朗读自动评分系统 |
CN111916108B (zh) * | 2020-07-24 | 2021-04-02 | 北京声智科技有限公司 | 一种语音评测方法及装置 |
CN111785299B (zh) * | 2020-08-13 | 2023-11-28 | 腾讯科技(深圳)有限公司 | 一种语音测评方法、装置、设备及计算机存储介质 |
CN114387959A (zh) * | 2020-10-19 | 2022-04-22 | 北京爱语吧科技有限公司 | 一种基于语音的日语发音评测方法和系统 |
CN112908359A (zh) * | 2021-01-31 | 2021-06-04 | 云知声智能科技股份有限公司 | 语音测评方法、装置、电子设备及计算机可读介质 |
CN115762476A (zh) * | 2021-03-22 | 2023-03-07 | 北京如布科技有限公司 | 一种语音评测方法、装置、设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8392190B2 (en) * | 2008-12-01 | 2013-03-05 | Educational Testing Service | Systems and methods for assessment of non-native spontaneous speech |
CN101826263B (zh) * | 2009-03-04 | 2012-01-04 | 中国科学院自动化研究所 | 基于客观标准的自动化口语评估系统 |
CN101739870B (zh) * | 2009-12-03 | 2012-07-04 | 深圳先进技术研究院 | 交互式语言学习系统及交互式语言学习方法 |
CN103928023B (zh) * | 2014-04-29 | 2017-04-05 | 广东外语外贸大学 | 一种语音评分方法及系统 |
CN107301860B (zh) * | 2017-05-04 | 2020-06-23 | 百度在线网络技术(北京)有限公司 | 基于中英文混合词典的语音识别方法及装置 |
CN110136721A (zh) * | 2019-04-09 | 2019-08-16 | 北京大米科技有限公司 | 一种评分生成方法、装置、存储介质及电子设备 |
-
2019
- 2019-08-19 CN CN201910764775.9A patent/CN110600052B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110600052A (zh) | 2019-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110600052B (zh) | 一种语音评测的方法及装置 | |
Juvela et al. | Speech waveform synthesis from MFCC sequences with generative adversarial networks | |
Jiao et al. | Simulating dysarthric speech for training data augmentation in clinical speech applications | |
WO2020215666A1 (zh) | 语音合成方法、装置、计算机设备及存储介质 | |
US8595005B2 (en) | System and method for recognizing emotional state from a speech signal | |
Darabkh et al. | An efficient speech recognition system for arm‐disabled students based on isolated words | |
CN111833843B (zh) | 语音合成方法及系统 | |
CN110970036B (zh) | 声纹识别方法及装置、计算机存储介质、电子设备 | |
Ismail et al. | Mfcc-vq approach for qalqalahtajweed rule checking | |
CN108922561A (zh) | 语音区分方法、装置、计算机设备及存储介质 | |
KR101236539B1 (ko) | 가중 자동회귀 이동평균 필터와 전역 켑스트럼 평균 및 분산 정규화를 이용한 특징 보상 장치 및 방법 | |
Nedjah et al. | Automatic speech recognition of Portuguese phonemes using neural networks ensemble | |
Patel et al. | Optimize approach to voice recognition using iot | |
Yousfi et al. | Holy Qur'an speech recognition system Imaalah checking rule for warsh recitation | |
Gao et al. | A novel attention-guided generative adversarial network for whisper-to-normal speech conversion | |
Alhlffee | MFCC-Based Feature Extraction Model for Long Time Period Emotion Speech Using CNN. | |
Thirumuru et al. | Application of non-negative frequency-weighted energy operator for vowel region detection | |
Ye | Speech recognition using time domain features from phase space reconstructions | |
CN113763992A (zh) | 语音测评方法、装置、计算机设备和存储介质 | |
Imam et al. | Speaker recognition using automated systems | |
Musaev et al. | Advanced feature extraction method for speaker identification using a classification algorithm | |
Srinivas | LFBNN: robust and hybrid training algorithm to neural network for hybrid features-enabled speaker recognition system | |
Bouziane et al. | Towards an objective comparison of feature extraction techniques for automatic speaker recognition systems | |
Abd Almisreb et al. | Comparison of speech features for Arabic phonemes recognition system based Malay speakers | |
Bhimanwar et al. | Deep Learning Approaches for English-Marathi Code-Switched Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |