CN107221318B - 英语口语发音评分方法和系统 - Google Patents
英语口语发音评分方法和系统 Download PDFInfo
- Publication number
- CN107221318B CN107221318B CN201710334883.3A CN201710334883A CN107221318B CN 107221318 B CN107221318 B CN 107221318B CN 201710334883 A CN201710334883 A CN 201710334883A CN 107221318 B CN107221318 B CN 107221318B
- Authority
- CN
- China
- Prior art keywords
- voice
- scored
- language
- standard
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/263—Language identification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种英语口语发音评分方法,所述方法包括:对预先录制的待评分语音进行预处理,得到待评分语音语料;提取待评分语音语料的特征参数;根据待评分语音语料的特征参数进行语种识别,以得到待评分语音的语种识别结果;根据语种识别结果判断待评分语音的语种是否为英语;当判定待评分语音的语种为英语时,分别对待评分语音的情感、语速、节奏、语调、发音准确度和重音进行评分;对情感、语速、节奏、语调、发音准确度和重音的分数进行加权,得到总分;当判定待评分语音的语种不是英语时,反馈语种错误信息。本发明的英语口语发音评分方法提高了口语发音评分的合理性、准确性和智能性,同时本发明还提供了一种英语口语发音评分系统。
Description
技术领域
本发明涉及语音识别和评价技术领域,特别涉及英语口语发音评分方法和系统。
背景技术
计算机辅助语言学习系统(Computer-Assistant Language Learning,CALL)研究是当前的热点问题。在计算机辅助语言学习系统中,口语发音评价系统用于评价口语发音质量,其通过提供考卷并对考生作答的语音进行识别后,对语音的准确度等指标进行评分,并以此评价考生的口语发音质量。
发明人在实施本发明的过程中,发现现有的口语发音评价系统具有如下缺点:
现有的口语发音评价系统只能针对单一语种进行相应的评价,当教学内容要求考生以英语完成发音质量评价考试时,例如,在英语的口语答卷中,即使考生以不符合要求的语种进行发音,如使用汉语进行作答,此时系统仍会给予考生一定分数,从而影响了评分的合理性和准确性。
发明内容
本发明提出英语口语发音评分方法和系统,提高了口语发音评分的合理性和准确性。
本发明一方面提供一种英语口语发音评分方法,所述方法包括:
对预先录制的待评分语音进行预处理,得到待评分语音语料;
提取所述待评分语音语料的特征参数;
根据所述待评分语音语料的特征参数对所述待评分语音进行语种识别,以得到所述待评分语音的语种识别结果;
根据所述待评分语音的语种识别结果判断所述待评分语音的语种是否为英语;
当判定所述待评分语音的语种为英语时,分别对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音进行评分;
对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音的分数按照对应的权重系数进行加权,以得到总分;
当判定所述待评分语音的语种不是英语时,反馈语种错误信息。
作为更优选地,所述根据所述待评分语音语料的特征参数对所述待评分语音进行语种识别,以得到所述待评分语音的语种识别结果,包括:
基于改进的GMM-UBM模型识别方法根据所述待评分语音语料的特征参数计算标准语音的每个语种模型的模型概率得分;其中,所述待评分语音语料的特征参数包括GFCC特征参数向量和SDC特征参数向量,所述SDC特征向量由所述标准语音语料的GFCC特征向量扩展而成;
选取具有最大的所述模型概率得分的语种模型对应的语种作为所述待评分语音的语种识别结果。
作为更优选地,所述方法还包括:
在录制待评分语音之前,录制不同语种的标准语音;
对每个语种的标准语音进行预处理,得到每个语种的标准语音语料;
提取每个语种的所述标准语音语料的特征参数;其中,所述标准语音语料的特征参数包括GFCC特征向量和SDC特征向量;
对每个语种的所述标准语音计算所有帧的GFCC特征向量和SDC特征向量的均值特征向量;
将GFCC特征向量的均值特征向量与SDC特征向量的均值特征向量合成为一个特征向量,以得到每个语种的标准特征向量;
将每个语种的标准特征向量作为改进的GMM-UBM模型的输入向量,采用混合型聚类算法对输入了所述输入向量的所述改进的GMM-UBM模型进行初始化;其中,混合型聚类算法包括:采用划分聚类的算法对所述输入向量的所述改进的GMM-UBM模型进行初始化,得到初始化聚类;采用层次聚类的算法对所述初始化聚类进行合并。
在对所述GMM-UBM模型进行初始化后,通过EM算法训练得到UBM模型;
通过UBM模型进行自适应变换得到各个语种的GMM模型,作为所述标准语音的每个语种模型。在所述方法的一个实施方式中,所述对所述待评分语音的情感进行分数评定的具体步骤为:
提取所述待评分语音语料的基频特征、短时能量特征和共振峰特征;
采用基于概率神经网络的语音情感识别方法将所述待评分语音语料的基频特征、短时能量特征和共振峰特征与预先建立的情感语料库进行匹配,得到所述待评分语音的情感分析结果;
根据所述标准答案的情感分析结果对所述待评分语音的情感分析结果进行评分。
在所述方法的一个实施方式中,所述对所述待评分语音的重音进行分数评定的具体步骤为:
获取所述待评分语音语料的短时能量特征曲线;
根据所述短时能量特征曲线设定重音能量阈值和非重音能量阈值;
根据非重音能量阈值对所述待评分语音语料划分子单元;
在所有所述子单元中去除持续时间小于设定值的所述子单元,得到有效子单元;
在所有所述有效子单元中去除能量阈值小于所述重音能量阈值的所述有效子单元,得到重音单元;
获取各个所述重音单元的重音位置,得到各个所述重音单元的起始帧位置与结束帧位置;
根据所述待评分语音与所述标准答案的各个所述重音单元的重音位置计算重音位置差异;
根据所述重音位置差异对所述待评分语音进行评分。
本发明另一方面还提供了一种英语口语发音评分系统,所述系统包括:
待评分语音预处理模块,用于对预先录制的待评分语音进行预处理,得到待评分语音语料;
待评分语音参数提取模块,用于提取所述待评分语音语料的特征参数;
语种识别模块,用于根据所述待评分语音语料的特征参数对所述待评分语音进行语种识别,以得到所述待评分语音的语种识别结果;
语种判断模块,用于根据所述待评分语音的语种识别结果判断所述待评分语音的语种是否为英语;
评分模块,用于当判定所述待评分语音的语种为英语时,分别对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音进行评分;
总分加权模块,用于对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音的分数按照对应的权重系数进行加权,以得到总分;
不予评分模块,用于当判定所述待评分语音的语种不是英语时,反馈语种错误信息。
作为更优选地,所述语种识别模块包括:
模型概率得分计算模块,用于基于改进的GMM-UBM模型识别方法根据所述待评分语音语料的特征参数计算标准语音的每个语种模型的模型概率得分;其中,所述待评分语音语料的特征参数包括GFCC特征参数向量和SDC特征参数向量,所述SDC特征向量由所述标准语音语料的GFCC特征向量扩展而成;
语种选取模块,用于选取具有最大的所述模型概率得分的语种模型对应的语种作为所述待评分语音的语种识别结果。
作为更优选地,所述系统还包括:
标准语音录制模块,用于在录制待评分语音之前,录制不同语种的标准语音;
标准语音预处理模块,用于对每个语种的标准语音进行预处理,得到每个语种的标准语音语料;
标准语音特征参数提取模块,用于提取每个语种的所述标准语音语料的特征参数;其中,所述标准语音语料的特征参数包括GFCC特征向量和SDC特征向量;
均值特征向量计算模块,用于对每个语种的所述标准语音计算所有帧的GFCC特征向量和SDC特征向量的均值特征向量;
特征向量合成模块,用于将GFCC特征向量的均值特征向量与SDC特征向量的均值特征向量合成为一个特征向量,以得到每个语种的标准特征向量;
初始化模块,用于将每个语种的标准特征向量作为改进的GMM-UBM模型的输入向量,采用混合型聚类算法对输入了所述输入向量的所述改进的GMM-UBM模型进行初始化;其中,混合型聚类算法包括:采用划分聚类的算法对所述输入向量的所述改进的GMM-UBM模型进行初始化,得到初始化聚类;采用层次聚类的算法对所述初始化聚类进行合并。
UBM模型生成模块,用于在对所述GMM-UBM模型进行初始化后,通过EM算法训练得到UBM模型;
语种模型生成模块,用于通过UBM模型进行自适应变换得到各个语种的GMM模型,作为所述标准语音的每个语种模型。在所述系统的一个实施方式中,所述评分模块包括:
情感特征提取单元,用于提取所述待评分语音语料的基频特征、短时能量特征和共振峰特征;
情感特征匹配单元,用于采用基于概率神经网络的语音情感识别方法将所述待评分语音语料的基频特征、短时能量特征和共振峰特征与预先建立的情感语料库进行匹配,得到所述待评分语音的情感分析结果;
情感评分单元,用于根据所述标准答案的情感分析结果对所述待评分语音的情感分析结果进行评分。
在所述系统的一个实施方式中,所述评分模块包括:
重音特征曲线获取单元,用于获取所述待评分语音语料的短时能量特征曲线;
能力阈值设定单元,用于根据所述短时能量特征曲线设定重音能量阈值和非重音能量阈值;
子单元划分单元,用于根据非重音能量阈值对所述待评分语音语料划分子单元;
有效子单元提取单元,用于在所有所述子单元中去除持续时间小于设定值的所述子单元,得到有效子单元;
重音单元选取单元,用于在所有所述有效子单元中去除能量阈值小于所述重音能量阈值的所述有效子单元,得到重音单元;
重音位置获取单元,用于获取各个所述重音单元的重音位置,得到各个所述重音单元的起始帧位置与结束帧位置;
重音位置比较单元,用于根据所述待评分语音与所述标准答案的各个所述重音单元的重音位置计算重音位置差异;
重音评分单元,用于根据所述重音位置差异对所述待评分语音进行评分。
相比于现有技术,本发明具有如下突出的有益效果:本发明提供了一种英语口语发音评分方法和系统,其中方法包括:对预先录制的待评分语音进行预处理,得到待评分语音语料;提取所述待评分语音语料的特征参数;根据所述待评分语音语料的特征参数与标准语音的每个语种模型对所述待评分语音进行语种识别,以得到所述待评分语音的语种识别结果;根据所述待评分语音的语种识别结果判断所述待评分语音的语种是否为英语;当判定所述待评分语音的语种为英语时,分别对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音进行评分;对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音的分数按照对应的权重系数进行加权,以得到总分。本发明提供的英语口语发音评分方法和系统,通过待评分语音语料的特征参数与标准语音的每个语种模型对待评分语音进行语种识别和语种判断,防止了对语种不符合要求的语音进行评分,提高了评分的合理性和准确性,进一步保证了评分系统的稳定性和高效率;通过分别对待评分语音的情感、语速、节奏、语调、发音准确度和重音这六项指标进行评分并对分数按照对应的权重系数进行加权,实现了对学生口语发音质量的多方面考察,提高了评分的客观性,且便于教师针对不同题目设置各项指标的权重系数进行加权,使得评分方法更加灵活;通过反馈语种错误信息,对使用了不符合英语的语音进行发音的情况进行反馈,增加了评分系统的可靠性和智能性,便于教师通过迅速掌握评分失败情况做出对考考场情况作出相应处理、对考试人员进行警示等其他措施,提高了教学工作的质量。
附图说明
图1是本发明提供的英语口语发音评分方法的第一实施例的流程示意图;
图2是本发明提供的英语口语发音评分系统的第一实施例的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,是本发明提供的英语口语发音评分方法的第一实施例的流程示意图,所述方法包括:
S101,对预先录制的待评分语音进行预处理,得到待评分语音语料;
S102,提取所述待评分语音语料的特征参数;
S103,根据所述待评分语音语料的特征参数对所述待评分语音进行语种识别,以得到所述待评分语音的语种识别结果;
S104,根据所述待评分语音的语种识别结果判断所述待评分语音的语种是否为英语;
S105,当判定所述待评分语音的语种为英语时,分别对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音进行评分;
S106,对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音的分数按照对应的权重系数进行加权,以得到总分;
S107,当判定所述待评分语音的语种不是英语时,反馈语种错误信息。
在一种可选的实施方式中,所述对预先录制的所述待评分语音进行预处理,包括:对所述待评分语音进行预加重、分帧、加窗和端点检测。
即通过对所述待评分语音进行预加重,实现对其高频部分加以提升,使信号的频谱变得平坦,保持在低频到高频的整个频带中。
即通过对所述待评分语音进行分帧,获得在短时间内相对稳定的语音信号,有利于后期对语音数据的进一步处理。
在一种可选的实施方式中,采用半帧交叠分帧的方式对所述待评分语音进行分帧。
即通过采用半帧交叠分帧的方式,考虑了语音信号之间的相关性,从而保证了各个语音帧之间的平滑过渡,提高了语音信号处理的精确度。
在一种可选的实施方式中,采用汉明窗对所述待评分语音进行分帧。
即通过采用汉明窗得到频谱相对平滑的语音信号,有利于后期对语音数据的进一步处理。
在一种可选的实施方式中,采用双门限比较法对所述待评分语音进行端点检测。
即通过双门限比较法有效地避免了噪声的影响,提高了检测度,使语音特征提取更具高效性,有利于后期对语音数据的进一步处理。
即通过对所述待评分语音进行预加重、分帧、加窗和端点检测实现待评分语音的预处理,提高待评分语音的检测度,便于更好地提取待评分语音的特征参数。
在一种可选的实施方式中,所述对所述待评分语音的语速进行评分,包括:获取所述待评分语音使用的单词个数;获取所述待评分语音的时长;根据所述单词个数和所述时长计算所述待评分语音的语速;将所述待评分语音的语速与所述标准答案的语速进行比较,得到语速比较结果;根据所述语速比较结果对所述待评分语音的语速进行评分。
即通过单词个数和待评分语音的时长可快速地得到待评分语音的语速,再通过与标准答案的语速进行比较,将语速评分与标准答案的语速要求联系起来,提高了评分的客观性和合理性。
在一种可选的实施方式中,所述对所述待评分语音的发音准确度进行评分,包括:提取所述待评分语音的特征参数;基于预先根据所述标准语音的特征参数建立的语音模型根据所述待评分语音的特征参数对所述待评分语音的内容进行匹配,得到匹配结果;根据所述待评分语音的特征参数和所述标准语音的特征参数计算相关系数;根据所述识别结果和所述相关系数对所述待评分语音的发音准确度进行评分;其中,所述匹配结果用于表示所述待评分语音的内容是否正确。
即通过结合所述识别结果和所述相关系数对所述待评分语音的发音准确度进行评分,提高了评分的准确性和客观性。
在一种可选的实施方式中,所述对所述待评分语音的节奏进行评分,包括:根据所述标准答案和所述待评分语音计算dPVI(差异性成对变异指数,the Distinct PairwiseVariability Index)参数;根据所述dPVI参数对所述待评分语音的节奏进行评分。
需要说明的是,标准语音包含多个语种的标准发音;标准答案是使用所述待评分语音进行作答的题目的标准答案;所述权重系数为预先设置。
即通过待评分语音语料的特征参数与标准语音的每个语种模型对待评分语音进行语种识别和语种判断,防止了对语种不符合要求的语音进行评分,提高了评分的合理性和准确性,进一步保证了评分系统的稳定性和高效率;通过分别对待评分语音的情感、语速、节奏、语调、发音准确度和重音这六项指标进行评分并对分数按照对应的权重系数进行加权,实现了对学生口语发音质量的多方面考察,提高了评分的客观性,且便于教师针对不同题目设置各项指标的权重系数进行加权,使得评分方法更加灵活;通过反馈语种错误信息,对使用了不符合英语的语音进行发音的情况进行反馈,增加了评分系统的可靠性和智能性,便于教师通过迅速掌握评分失败情况做出对考考场情况作出相应处理,提高了教学工作的质量。
作为更优选地,所述根据所述待评分语音语料的特征参数对所述待评分语音进行语种识别,以得到所述待评分语音的语种识别结果,包括:
基于改进的GMM-UBM模型识别方法根据所述待评分语音语料的特征参数计算标准语音的每个语种模型的模型概率得分;其中,所述待评分语音语料的特征参数包括GFCC特征参数向量和SDC特征参数向量,所述SDC特征向量由所述标准语音语料的GFCC特征向量扩展而成;
选取具有最大的所述模型概率得分的语种模型对应的语种作为所述待评分语音的语种识别结果。
需要说明的是,改进的GMM-UBM模型识别方法是指:根据所述待评分语音语料的特征参数对待评分语音的每一帧计算每个语种的GMM模型的对数似然比,作为每一帧每个语种的GMM模型的混合分量;根据所述待评分语音语料的特征参数对待评分语音的每一帧计算每个语种的UBM模型的对数似然比,作为每一帧每个语种的UBM模型的混合分量;每一帧每个语种的GMM模型的混合分量与每一帧每个语种的UBM模型的混合分量的差值,得到每一帧每个语种模型的对数差;将所述待评分语音语料的所有帧的每个语种模型的对数差进行加权,得到所述每个语种模型的模型概率得分。
即通过计算每个语种模型的模型概率得分快速地识别所述待评分语音的语种,提高了语种识别速度,进而提高了评分的效率。
作为更优选地,所述方法还包括:
在录制待评分语音之前,录制不同语种的标准语音;
对每个语种的标准语音进行预处理,得到每个语种的标准语音语料;
提取每个语种的所述标准语音语料的特征参数;其中,所述标准语音语料的特征参数包括GFCC特征向量和SDC特征向量;对每个语种的所述标准语音计算所有帧的GFCC(Grammatone Frequency Cepstrum Coefficient,伽马通滤波器倒谱系数)特征向量和SDC(Shifted delta cepstra,移位差分倒谱特征)特征向量的均值特征向量;
将GFCC特征向量的均值特征向量与SDC特征向量的均值特征向量合成为一个特征向量,以得到每个语种的标准特征向量;
将每个语种的标准特征向量作为改进的GMM-UBM模型的输入向量,采用混合型聚类算法对输入了所述输入向量的所述改进的GMM-UBM模型进行初始化;其中,混合型聚类算法包括:采用划分聚类的算法对所述输入向量的所述改进的GMM-UBM模型进行初始化,得到初始化聚类;采用层次聚类的算法对所述初始化聚类进行合并。
在对所述GMM-UBM模型进行初始化后,通过EM(Expectation MaximizationAlgorithm,期望最大化算法)算法训练得到UBM(Universal Background Model,通用背景模型)模型;
通过UBM模型进行自适应变换得到各个语种的GMM(Gaussian Mixture Model,高斯混合模型)模型,作为所述标准语音的每个语种模型。即通过GFCC特征向量和SDC特征向量得到标准特征向量,从而得到更丰富的特征信息,提高了语种识别率;通过采用混合K-means和层次聚类的算法进行初始化,减少层次算法运算的复杂度与迭代深度,进而缩短了处理时间,提高了评分效率;通过采用改进的GMM-UBM模型训练方法对每个语种的标准语音进行模型训练,通过拉大各个语种的GMM模型之间的距离,提高了语种识别的准确性和效率。
本发明还提供了一种英语口语发音评分方法的第二实施例,所述方法包括上述英语口语发音评分方法的第一实施例中的步骤S101~S106,还进一步限定了,所述对所述待评分语音的情感进行分数评定的具体步骤为:
提取所述待评分语音语料的基频特征、短时能量特征和共振峰特征;
采用基于概率神经网络的语音情感识别方法将所述待评分语音语料的基频特征、短时能量特征和共振峰特征与预先建立的情感语料库进行匹配,得到所述待评分语音的情感分析结果;
根据所述标准答案的情感分析结果对所述待评分语音的情感分析结果进行评分。
在本实施例中,所述情感分析结果包括情感种类;例如,情感种类为高兴、悲伤或正常。
在本实施例中,基频特征为基音频率特征,其包括基频的统计学变化参数,由于基因周期是发浊音时声带震动所引起的周期,因此基频特征用于反映情感的变化;短时能量特征是指短时间内的声音能量,能量大则说明声音的音量大,通常当人们愤怒或者生气的时候,发音的音量较大;当人们沮丧或者悲伤的时候,往往讲话声音较低,短时能量特征包括短时能量的统计学变化参数;共振峰特征反映的是声道特征,其包括共振峰的统计学变化参数,当人处于不同情感状态时,其神经的紧张程度不同,导致声道形变,共振峰频率发生相应的改变;概率神经网络(Probabilistic Neural Network,PNN)是基于统计原理的神经网络模型,常用于模式分类。
在一种可选的实施方式中,所述采用基于概率神经网络的语音情感识别方法将所述待评分语音语料的基频特征、短时能量特征和共振峰特征与预先建立的情感语料库进行匹配,得到所述待评分语音的情感分析结果,具体为:采用线性预测方法对所述待评分语音的每帧语音的共振峰参数进行提取;采用分段聚类法将所述共振峰参数规整为32阶的语音情感特征参数,从而与所述基频特征和所述短时能量特征构成46阶的语音情感特征参数;采用基于概率神经网络的语音情感识别方法将所述语音情感特征参数与预先建立的情感语料库进行匹配,得到所述待评分语音的情感分析结果。
在一种可选的实施方式中,根据所述标准答案的情感分析结果对所述待评分语音的情感分析结果进行评分,具体为:当所述标准答案的情感种类与所述待评分语音的情感种类相同时,对所述待评分语音评定一定分值的分数。
即通过提取待评分语音语料的基频特征、短时能量特征和共振峰特征以及语音情感识别方法,有效地获取待评分语音的情感分析结果,进一步提高了评分的合理性和准确性。
本发明还提供了一种英语口语发音评分方法的第三实施例,所述方法包括上述英语口语发音评分方法的第一实施例中的步骤S101~S106,还进一步限定了,所述对所述待评分语音的重音进行分数评定的具体步骤为:
获取所述待评分语音语料的短时能量特征曲线;
根据所述短时能量特征曲线设定重音能量阈值和非重音能量阈值;
根据非重音能量阈值对所述待评分语音语料划分子单元;
在所有所述子单元中去除持续时间小于设定值的所述子单元,得到有效子单元;
在所有所述有效子单元中去除能量阈值小于所述重音能量阈值的所述有效子单元,得到重音单元;
获取各个所述重音单元的重音位置,得到各个所述重音单元的起始帧位置与结束帧位置;
根据所述待评分语音与所述标准答案的各个所述重音单元的重音位置计算重音位置差异;
根据所述重音位置差异对所述待评分语音进行评分。
在一种可选的实施方式中,根据所述待评分语音与所述标准答案的各个所述重音单元的重音位置计算重音位置差异,具体为:根据如下公式计算重音位置差异:
其中,diff是重音位置差异,n是所述重音单元的数量,Lenstd是标准答案语音语料的帧长度,leftstd[i]是标准答案语音语料的第i个重音单元的起始帧位置,rightstd[i]是标准答案语音语料的第i个重音单元的结束帧位置,Lentest是待评分语音语料的帧长度,lefttest[i]是待评分语音语料的第i个重音单元的起始帧位置,righttest[i]是待评分语音语料的第i个重音单元的结束帧位置。
即通过短时能量特征曲线得到所述待评分语音与所述标准答案的重音位置差异并根据重音位置差异进行评分,大大减少了计算量,提高了评分的效率。
本发明另一方面还提供了一种英语口语发音评分系统,所述系统包括:
待评分语音预处理模块201,用于对预先录制的待评分语音进行预处理,得到待评分语音语料;
待评分语音参数提取模块202,用于提取所述待评分语音语料的特征参数;
语种识别模块203,用于根据所述待评分语音语料的特征参数与标准语音的每个语种模型对所述待评分语音进行语种识别,以得到所述待评分语音的语种识别结果;
语种判断模块204,用于根据所述待评分语音的语种识别结果判断所述待评分语音的语种是否为英语;
评分模块205,用于当判定所述待评分语音的语种为英语时,分别对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音进行分数评定;
总分加权模块206,用于对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音的分数按照对应的权重系数进行加权,以得到总分不予评分模块。
在一种可选的实施方式中,所述待评分语音预处理模块包括:待评分语音预处理单元,用于对所述待评分语音进行预加重、分帧、加窗和端点检测。
即通过对所述待评分语音进行预加重,实现对其高频部分加以提升,使信号的频谱变得平坦,保持在低频到高频的整个频带中。
即通过对所述待评分语音进行分帧,获得在短时间内相对稳定的语音信号,有利于后期对语音数据的进一步处理。
在一种可选的实施方式中,采用半帧交叠分帧的方式对所述待评分语音进行分帧。
即通过采用半帧交叠分帧的方式,考虑了语音信号之间的相关性,从而保证了各个语音帧之间的平滑过渡,提高了语音信号处理的精确度。
在一种可选的实施方式中,采用汉明窗对所述待评分语音进行分帧。
即通过采用汉明窗得到频谱相对平滑的语音信号,有利于后期对语音数据的进一步处理。
在一种可选的实施方式中,采用双门限比较法对所述待评分语音进行端点检测。
即通过双门限比较法有效地避免了噪声的影响,提高了检测度,使语音特征提取更具高效性,有利于后期对语音数据的进一步处理。
即通过对所述待评分语音进行预加重、分帧、加窗和端点检测实现待评分语音的预处理,提高待评分语音的检测度,便于更好地提取待评分语音的特征参数。
在一种可选的实施方式中,所述评分模块包括:单词个数获取单元,用于获取所述待评分语音使用的单词个数;时长获取单元,用于获取所述待评分语音的时长;语速计算单元,用于根据所述单词个数和所述时长计算所述待评分语音的语速;语速比较单元,用于将所述待评分语音的语速与所述标准答案的语速进行比较,得到语速比较结果;语速评分单元,用于根据所述语速比较结果对所述待评分语音的语速进行评分。
即通过单词个数和待评分语音的时长可快速地得到待评分语音的语速,再通过与标准答案的语速进行比较,将语速评分与标准答案的语速要求联系起来,提高了评分的客观性和合理性。
在一种可选的实施方式中,所述评分模块包括:发音准确度参数提取单元,用于提取所述待评分语音的特征参数;发音准确度匹配单元,用于基于预先根据所述标准答案的特征参数建立的语音模型根据所述待评分语音的特征参数对所述待评分语音的内容进行匹配,得到匹配结果;发音准确度相关系数计算单元,用于根据所述待评分语音的特征参数和所述标准答案的特征参数计算相关系数;发音准确度评分单元,用于根据所述识别结果和所述相关系数对所述待评分语音的发音准确度进行评分;其中,所述匹配结果用于表示所述待评分语音的内容是否正确。
即通过结合所述识别结果和所述相关系数对所述待评分语音的发音准确度进行评分,提高了评分的准确性和客观性。
在一种可选的实施方式中,所述评分模块包括:指数参数计算单元,用于根据所述标准答案和所述待评分语音计算dPVI(差异性成对变异指数,the Distinct PairwiseVariability Index)参数;节奏评分单元,用于根据所述dPVI参数对所述待评分语音的节奏进行评分。
需要说明的是,标准语音包含多个语种的标准发音;标准答案是使用所述待评分语音进行作答的题目的标准答案;所述权重系数为预先设置。
即通过待评分语音语料的特征参数与标准语音的每个语种模型对待评分语音进行语种识别和语种判断,防止了对语种不符合要求的语音进行评分,提高了评分的合理性和准确性,进一步保证了评分系统的稳定性和高效率;通过分别对待评分语音的情感、语速、节奏、语调、发音准确度和重音这六项指标进行评分并对分数按照对应的权重系数进行加权,实现了对学生口语发音质量的多方面考察,提高了评分的客观性,且便于教师针对不同题目设置各项指标的权重系数进行加权,使得评分方法更加灵活;通过反馈语种错误信息,对使用了不符合英语的语音进行发音的情况进行反馈,增加了评分系统的可靠性和智能性,便于教师通过迅速掌握评分失败情况做出对考场情况进行处理,提高了教学工作的质量。
作为更优选地,所述语种识别模块包括:
模型概率得分计算模块,用于基于改进的GMM-UBM模型识别方法根据所述待评分语音语料的特征参数计算标准语音的每个语种模型的模型概率得分;其中,所述待评分语音语料的特征参数包括GFCC特征参数向量和SDC特征参数向量,所述SDC特征向量由所述标准语音语料的GFCC特征向量扩展而成;
语种选取模块,用于选取具有最大的所述模型概率得分的语种模型对应的语种作为所述待评分语音的语种识别结果。
需要说明的是,改进的GMM-UBM模型识别方法是指:根据所述待评分语音语料的特征参数对待评分语音的每一帧计算每个语种的GMM模型的对数似然比,作为每一帧每个语种的GMM模型的混合分量;根据所述待评分语音语料的特征参数对待评分语音的每一帧计算每个语种的UBM模型的对数似然比,作为每一帧每个语种的UBM模型的混合分量;每一帧每个语种的GMM模型的混合分量与每一帧每个语种的UBM模型的混合分量的差值,得到每一帧每个语种模型的对数差;将所述待评分语音语料的所有帧的每个语种模型的对数差进行加权,得到所述每个语种模型的模型概率得分。
即通过计算每个语种模型的模型概率得分快速地识别所述待评分语音的语种,提高了语种识别速度,进而提高了评分的效率。
作为更优选地,所述系统还包括:
标准语音录制模块,用于在录制待评分语音之前,录制不同语种的标准语音;
标准语音预处理模块,用于对每个语种的标准语音进行预处理,得到每个语种的标准语音语料;
标准语音特征参数提取模块,用于提取每个语种的所述标准语音语料的特征参数;其中,所述标准语音语料的特征参数包括GFCC特征向量和SDC特征向量;
均值特征向量计算模块,用于对每个语种的所述标准语音计算所有帧的GFCC特征向量和SDC特征向量的均值特征向量;
特征向量合成模块,用于将GFCC特征向量的均值特征向量与SDC特征向量的均值特征向量合成为一个特征向量,以得到每个语种的标准特征向量;
初始化模块,用于将每个语种的标准特征向量作为改进的GMM-UBM模型的输入向量,采用混合型聚类算法对输入了所述输入向量的所述改进的GMM-UBM模型进行初始化;其中,混合型聚类算法包括:采用划分聚类的算法对所述输入向量的所述改进的GMM-UBM模型进行初始化,得到初始化聚类;采用层次聚类的算法对所述初始化聚类进行合并。
UBM模型生成模块,用于在对所述GMM-UBM模型进行初始化后,通过EM算法训练得到UBM模型;
语种模型生成模块,用于通过UBM模型进行自适应变换得到各个语种的GMM模型,作为所述标准语音的每个语种模型。
即通过GFCC特征向量和SDC特征向量得到标准特征向量,从而得到更丰富的特征信息,提高了语种识别率;通过采用混合K-means和层次聚类的算法进行初始化,减少层次算法运算的复杂度与迭代深度,进而缩短了处理时间,提高了评分效率;通过采用改进的GMM-UBM模型训练方法对每个语种的标准语音进行模型训练,通过拉大各个语种的GMM模型之间的距离,提高了语种识别的准确性和效率。
本发明还提供了一种英语口语发音评分系统的第二实施例,其包括上述英语口语发音评分系统的第一实施例的待评分语音预处理模块201、待评分语音参数提取模块202、语种识别模块203、语种判断模块204、评分模块205和总分加权模块206不予评分模块,还进一步限定了,所述评分模块包括:
情感特征提取单元,用于提取所述待评分语音语料的基频特征、短时能量特征和共振峰特征;
情感特征匹配单元,用于采用基于概率神经网络(Probabilistic NeuralNetwork,PNN)的语音情感识别方法将所述待评分语音语料的基频特征、短时能量特征和共振峰特征与预先建立的情感语料库进行匹配,得到所述待评分语音的情感分析结果;
情感评分单元,用于根据所述标准答案的情感分析结果对所述待评分语音的情感分析结果进行评分。
在本实施例中,所述情感分析结果包括情感种类;例如,情感种类为高兴、悲伤或正常。
在本实施例中,基频特征为基音频率特征,其包括基频的统计学变化参数,由于基因周期是发浊音时声带震动所引起的周期,因此基频特征用于反映情感的变化;短时能量特征是指短时间内的声音能量,能量大则说明声音的音量大,通常当人们愤怒或者生气的时候,发音的音量较大;当人们沮丧或者悲伤的时候,往往讲话声音较低,短时能量特征包括短时能量的统计学变化参数;共振峰特征反映的是声道特征,其包括共振峰的统计学变化参数,当人处于不同情感状态时,其神经的紧张程度不同,导致声道形变,共振峰频率发生相应的改变;概率神经网络(Probabilistic Neural Network,PNN)是基于统计原理的神经网络模型,常用于模式分类。
在一种可选的实施方式中,所述采用基于概率神经网络的语音情感识别方法将所述待评分语音语料的基频特征、短时能量特征和共振峰特征与预先建立的情感语料库进行匹配,得到所述待评分语音的情感分析结果,具体为:采用线性预测方法对所述待评分语音的每帧语音的共振峰参数进行提取;采用分段聚类法将所述共振峰参数规整为32阶的语音情感特征参数,从而与所述基频特征和所述短时能量特征构成46阶的语音情感特征参数;采用基于概率神经网络(Probabilistic Neural Network,PNN)的语音情感识别方法将所述语音情感特征参数与预先建立的情感语料库进行匹配,得到所述待评分语音的情感分析结果。
在一种可选的实施方式中,所述情感评分单元包括:情感分数评定子单元,用于当所述标准答案的情感种类与所述待评分语音的情感种类相同时,对所述待评分语音评定一定分值的分数。
即通过提取待评分语音语料的基频特征、短时能量特征和共振峰特征以及语音情感识别方法,有效地获取待评分语音的情感分析结果,进一步提高了评分的合理性和准确性。
本发明还提供了一种英语口语发音评分系统的第三实施例,其包括上述英语口语发音评分系统的第一实施例的待评分语音预处理模块201、待评分语音参数提取模块202、语种识别模块203、语种判断模块204、评分模块205和总分加权模块206不予评分模块,还进一步限定了,所述评分模块包括:
重音特征曲线获取单元,用于获取所述待评分语音语料的短时能量特征曲线;
能力阈值设定单元,用于根据所述短时能量特征曲线设定重音能量阈值和非重音能量阈值;
子单元划分单元,用于根据非重音能量阈值对所述待评分语音语料划分子单元;
有效子单元提取单元,用于在所有所述子单元中去除持续时间小于设定值的所述子单元,得到有效子单元;
重音单元选取单元,用于在所有所述有效子单元中去除能量阈值小于所述重音能量阈值的所述有效子单元,得到重音单元;
重音位置获取单元,用于获取各个所述重音单元的重音位置,得到各个所述重音单元的起始帧位置与结束帧位置;
重音位置比较单元,用于根据所述待评分语音与所述标准答案的各个所述重音单元的重音位置计算重音位置差异;
重音评分单元,用于根据所述重音位置差异对所述待评分语音进行评分。
在一种可选的实施方式中,所述根据所述待评分语音与所述标准答案的各个所述重音单元的重音位置计算重音位置差异,具体为:根据如下公式计算重音位置差异:
其中,diff是重音位置差异,n是所述重音单元的数量,Lenstd是标准答案语音语料的帧长度,leftstd[i]是标准答案语音语料的第i个重音单元的起始帧位置,rightstd[i]是标准答案语音语料的第i个重音单元的结束帧位置,Lentest是待评分语音语料的帧长度,lefttest[i]是待评分语音语料的第i个重音单元的起始帧位置,righttest[i]是待评分语音语料的第i个重音单元的结束帧位置。
即通过短时能量特征曲线得到所述待评分语音与所述标准答案的重音位置差异并根据重音位置差异进行评分,大大减少了计算量,提高了评分的效率。
本发明提供的英语口语发音评分方法和系统,通过待评分语音语料的特征参数与标准语音的每个语种模型对待评分语音进行语种识别和语种判断,防止了对语种不符合要求的语音进行评分,提高了评分的合理性和准确性,进一步保证了评分系统的稳定性和高效率;通过分别对待评分语音的情感、语速、节奏、语调、发音准确度和重音这六项指标进行评分并对分数按照对应的权重系数进行加权,实现了对学生口语发音质量的多方面考察,提高了评分的客观性,且便于教师针对不同题目设置各项指标的权重系数进行加权,使得评分方法更加灵活;通过反馈语种错误信息,对使用了不符合英语的语音进行发音的情况进行反馈,增加了评分系统的可靠性和智能性,便于教师通过迅速掌握评分失败情况做出对考试时间进行调整等其他措施,提高了教学工作的质量。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (8)
1.一种英语口语发音评分方法,其特征在于,所述方法包括:
录制不同语种的标准语音;
对每个语种的标准语音进行预处理,得到每个语种的标准语音语料;
提取每个语种的所述标准语音语料的特征参数;其中,所述标准语音语料的特征参数包括GFCC特征向量和SDC特征向量;
对每个语种的所述标准语音计算所有帧的GFCC特征向量和SDC特征向量的均值特征向量;
将GFCC特征向量的均值特征向量与SDC特征向量的均值特征向量合成为一个特征向量,以得到每个语种的标准特征向量;
将每个语种的标准特征向量作为改进的GMM-UBM模型的输入向量,采用混合型聚类算法对输入了所述输入向量的所述改进的GMM-UBM模型进行初始化;其中,混合型聚类算法包括:采用划分聚类的算法对所述输入向量的所述改进的GMM-UBM模型进行初始化,得到初始化聚类;采用层次聚类的算法对所述初始化聚类进行合并;
在对所述GMM-UBM模型进行初始化后,通过EM算法训练得到UBM模型;通过UBM模型进行自适应变换得到各个语种的GMM模型,作为所述标准语音的每个语种模型;
对预先录制的待评分语音进行预处理,得到待评分语音语料;
提取所述待评分语音语料的特征参数;
根据所述待评分语音语料的特征参数计算所述标准语音的每个语种模型的模型概率得分,选取具有最大的所述模型概率得分的语种模型对应的语种作为所述待评分语音的语种识别结果;
根据所述待评分语音的语种识别结果判断所述待评分语音的语种是否为英语;
当判定所述待评分语音的语种为英语时,分别对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音进行评分;
对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音的分数按照对应的权重系数进行加权,以得到总分;
当判定所述待评分语音的语种不是英语时,反馈语种错误信息。
2.如权利要求1所述的英语口语发音评分方法,其特征在于,所述根据所述待评分语音语料的特征参数计算所述标准语音的每个语种模型的模型概率得分,选取具有最大的所述模型概率得分的语种模型对应的语种作为所述待评分语音的语种识别结果,包括:
基于改进的GMM-UBM模型识别方法根据所述待评分语音语料的特征参数计算标准语音的每个语种模型的模型概率得分;其中,所述待评分语音语料的特征参数包括GFCC特征参数向量和SDC特征参数向量,所述SDC特征向量由所述标准语音语料的GFCC特征向量扩展而成;
选取具有最大的所述模型概率得分的语种模型对应的语种作为所述待评分语音的语种识别结果。
3.如权利要求1所述的英语口语发音评分方法,其特征在于,所述对所述待评分语音的情感进行评分的具体步骤为:
提取所述待评分语音语料的基频特征、短时能量特征和共振峰特征;
采用基于概率神经网络的语音情感识别方法将所述待评分语音语料的基频特征、短时能量特征和共振峰特征与预先建立的情感语料库进行匹配,得到所述待评分语音的情感分析结果;
根据标准答案的情感分析结果对所述待评分语音的情感分析结果进行评分。
4.如权利要求1所述的英语口语发音评分方法,其特征在于,所述对所述待评分语音的重音进行评分的具体步骤为:
获取所述待评分语音语料的短时能量特征曲线;
根据所述短时能量特征曲线设定重音能量阈值和非重音能量阈值;
根据非重音能量阈值对所述待评分语音语料划分子单元;
在所有所述子单元中去除持续时间小于设定值的所述子单元,得到有效子单元;
在所有所述有效子单元中去除能量阈值小于所述重音能量阈值的所述有效子单元,得到重音单元;
获取各个所述重音单元的重音位置,得到各个所述重音单元的起始帧位置与结束帧位置;
根据所述待评分语音与标准答案的各个所述重音单元的重音位置计算重音位置差异;
根据所述重音位置差异对所述待评分语音进行评分。
5.一种英语口语发音评分系统,其特征在于,所述系统包括:
标准语音录制模块,用于录制不同语种的标准语音;
标准语音预处理模块,用于对每个语种的标准语音进行预处理,得到每个语种的标准语音语料;
标准语音特征参数提取模块,用于提取每个语种的所述标准语音语料的特征参数;其中,所述标准语音语料的特征参数包括GFCC特征向量和SDC特征向量;
均值特征向量计算模块,用于对每个语种的所述标准语音计算所有帧的GFCC特征向量和SDC特征向量的均值特征向量;
特征向量合成模块,用于将GFCC特征向量的均值特征向量与SDC特征向量的均值特征向量合成为一个特征向量,以得到每个语种的标准特征向量;
初始化模块,用于将每个语种的标准特征向量作为改进的GMM-UBM模型的输入向量,采用混合型聚类算法对输入了所述输入向量的所述改进的GMM-UBM模型进行初始化;其中,混合型聚类算法包括:采用划分聚类的算法对所述输入向量的所述改进的GMM-UBM模型进行初始化,得到初始化聚类;采用层次聚类的算法对所述初始化聚类进行合并;
UBM模型生成模块,用于在对所述GMM-UBM模型进行初始化后,通过EM算法训练得到UBM模型;
语种模型生成模块,用于通过UBM模型进行自适应变换得到各个语种的GMM模型,作为所述标准语音的每个语种模型;
待评分语音预处理模块,用于对预先录制的待评分语音进行预处理,得到待评分语音语料;
待评分语音参数提取模块,用于提取所述待评分语音语料的特征参数;
语种识别模块,用于根据所述待评分语音语料的特征参数计算所述标准语音的每个语种模型的模型概率得分,选取具有最大的所述模型概率得分的语种模型对应的语种作为所述待评分语音的语种识别结果;
语种判断模块,用于根据所述待评分语音的语种识别结果判断所述待评分语音的语种是否为英语;
评分模块,用于当判定所述待评分语音的语种为英语时,分别对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音进行评分;
总分加权模块,用于对所述待评分语音的情感、语速、节奏、语调、发音准确度和重音的分数按照对应的权重系数进行加权,以得到总分;
不予评分模块,用于当判定所述待评分语音的语种不是英语时,反馈语种错误信息。
6.如权利要求5所述的英语口语发音评分系统,其特征在于,所述语种识别模块包括:
模型概率得分计算模块,用于基于改进的GMM-UBM模型识别方法根据所述待评分语音语料的特征参数计算标准语音的每个语种模型的模型概率得分;其中,所述待评分语音语料的特征参数包括GFCC特征参数向量和SDC特征参数向量,所述SDC特征向量由所述标准语音语料的GFCC特征向量扩展而成;
语种选取模块,用于选取具有最大的所述模型概率得分的语种模型对应的语种作为所述待评分语音的语种识别结果。
7.如权利要求5所述的英语口语发音评分系统,其特征在于,所述评分模块包括:
情感特征提取单元,用于提取所述待评分语音语料的基频特征、短时能量特征和共振峰特征;
情感特征匹配单元,用于采用基于概率神经网络的语音情感识别方法将所述待评分语音语料的基频特征、短时能量特征和共振峰特征与预先建立的情感语料库进行匹配,得到所述待评分语音的情感分析结果;
情感评分单元,用于根据标准答案的情感分析结果对所述待评分语音的情感分析结果进行评分。
8.如权利要求5所述的英语口语发音评分系统,其特征在于,所述评分模块包括:
重音特征曲线获取单元,用于获取所述待评分语音语料的短时能量特征曲线;
能力阈值设定单元,用于根据所述短时能量特征曲线设定重音能量阈值和非重音能量阈值;
子单元划分单元,用于根据非重音能量阈值对所述待评分语音语料划分子单元;
有效子单元提取单元,用于在所有所述子单元中去除持续时间小于设定值的所述子单元,得到有效子单元;
重音单元选取单元,用于在所有所述有效子单元中去除能量阈值小于所述重音能量阈值的所述有效子单元,得到重音单元;
重音位置获取单元,用于获取各个所述重音单元的重音位置,得到各个所述重音单元的起始帧位置与结束帧位置;
重音位置比较单元,用于根据所述待评分语音与标准答案的各个所述重音单元的重音位置计算重音位置差异;
重音评分单元,用于根据所述重音位置差异对所述待评分语音进行评分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710334883.3A CN107221318B (zh) | 2017-05-12 | 2017-05-12 | 英语口语发音评分方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710334883.3A CN107221318B (zh) | 2017-05-12 | 2017-05-12 | 英语口语发音评分方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107221318A CN107221318A (zh) | 2017-09-29 |
CN107221318B true CN107221318B (zh) | 2020-03-31 |
Family
ID=59943988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710334883.3A Active CN107221318B (zh) | 2017-05-12 | 2017-05-12 | 英语口语发音评分方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107221318B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010516A (zh) * | 2017-12-04 | 2018-05-08 | 广州势必可赢网络科技有限公司 | 一种语义独立的语音情绪特征识别方法及装置 |
CN108122561A (zh) * | 2017-12-19 | 2018-06-05 | 广东小天才科技有限公司 | 一种基于电子设备的口语语音测评方法及电子设备 |
CN108665893A (zh) * | 2018-03-30 | 2018-10-16 | 斑马网络技术有限公司 | 车载声音反应系统及方法 |
CN108766059B (zh) * | 2018-05-21 | 2020-09-01 | 重庆交通大学 | 一种云服务英语教学设备及教学方法 |
CN108922289A (zh) * | 2018-07-25 | 2018-11-30 | 深圳市异度信息产业有限公司 | 一种用于英语口语的打分方法、装置及设备 |
CN109036458A (zh) * | 2018-08-22 | 2018-12-18 | 昆明理工大学 | 一种基于音频特征参数的多语种场景分析方法 |
CN110189554A (zh) * | 2018-09-18 | 2019-08-30 | 张滕滕 | 一种语言学习系统的生成方法 |
CN110070853B (zh) * | 2019-04-29 | 2020-07-03 | 盐城工业职业技术学院 | 一种语音识别转化方法及系统 |
CN110246514B (zh) * | 2019-07-16 | 2020-06-16 | 中国石油大学(华东) | 一种基于模式识别的英语单词发音学习系统 |
CN110706536B (zh) * | 2019-10-25 | 2021-10-01 | 北京猿力教育科技有限公司 | 一种语音答题方法及装置 |
CN110867193A (zh) * | 2019-11-26 | 2020-03-06 | 广东外语外贸大学 | 一种段落英语口语评分方法及系统 |
CN112331178A (zh) * | 2020-10-26 | 2021-02-05 | 昆明理工大学 | 一种用于低信噪比环境下的语种识别特征融合方法 |
CN112466335B (zh) * | 2020-11-04 | 2023-09-29 | 吉林体育学院 | 基于重音突现度的英语发音质量评价方法 |
CN112466332A (zh) * | 2020-11-13 | 2021-03-09 | 阳光保险集团股份有限公司 | 一种语速评分方法、装置、电子设备及存储介质 |
CN112634692A (zh) * | 2020-12-15 | 2021-04-09 | 成都职业技术学院 | 一种乘务员客舱应急撤离推演训练系统 |
CN113257226B (zh) * | 2021-03-28 | 2022-06-28 | 昆明理工大学 | 一种基于gfcc的改进特征参数的语种识别方法 |
CN117316187B (zh) * | 2023-11-30 | 2024-02-06 | 山东同其万疆科技创新有限公司 | 一种英语教学管理系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101702314A (zh) * | 2009-10-13 | 2010-05-05 | 清华大学 | 基于语种对的鉴别式语种识别模型建立方法 |
CN103761975A (zh) * | 2014-01-07 | 2014-04-30 | 苏州思必驰信息科技有限公司 | 一种口语评测方法及装置 |
CN103928023A (zh) * | 2014-04-29 | 2014-07-16 | 广东外语外贸大学 | 一种语音评分方法及系统 |
CN104732977A (zh) * | 2015-03-09 | 2015-06-24 | 广东外语外贸大学 | 一种在线口语发音质量评价方法和系统 |
KR20150093059A (ko) * | 2014-02-06 | 2015-08-17 | 주식회사 에스원 | 화자 검증 장치 및 방법 |
-
2017
- 2017-05-12 CN CN201710334883.3A patent/CN107221318B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101702314A (zh) * | 2009-10-13 | 2010-05-05 | 清华大学 | 基于语种对的鉴别式语种识别模型建立方法 |
CN103761975A (zh) * | 2014-01-07 | 2014-04-30 | 苏州思必驰信息科技有限公司 | 一种口语评测方法及装置 |
KR20150093059A (ko) * | 2014-02-06 | 2015-08-17 | 주식회사 에스원 | 화자 검증 장치 및 방법 |
CN103928023A (zh) * | 2014-04-29 | 2014-07-16 | 广东外语外贸大学 | 一种语音评分方法及系统 |
CN104732977A (zh) * | 2015-03-09 | 2015-06-24 | 广东外语外贸大学 | 一种在线口语发音质量评价方法和系统 |
Non-Patent Citations (1)
Title |
---|
电话语音语种识别算法研究;杜鑫;《中国优秀硕士学位论文全文数据库-信息科技辑》;20131115;第I136-138页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107221318A (zh) | 2017-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107221318B (zh) | 英语口语发音评分方法和系统 | |
CN112397091B (zh) | 中文语音综合评分及诊断系统和方法 | |
Franco et al. | EduSpeak®: A speech recognition and pronunciation scoring toolkit for computer-aided language learning applications | |
EP1557822B1 (en) | Automatic speech recognition adaptation using user corrections | |
KR100815115B1 (ko) | 타 언어권 화자 음성에 대한 음성 인식시스템의 성능향상을 위한 발음 특성에 기반한 음향모델 변환 방법 및이를 이용한 장치 | |
Witt et al. | Language learning based on non-native speech recognition. | |
CN111862954B (zh) | 一种语音识别模型的获取方法及装置 | |
EP0549265A2 (en) | Neural network-based speech token recognition system and method | |
Middag et al. | Combining phonological and acoustic ASR-free features for pathological speech intelligibility assessment | |
CN109300339A (zh) | 一种英语口语的练习方法及系统 | |
Akahane-Yamada et al. | Computer-based second language production training by using spectrographic representation and HMM-based speech recognition scores | |
Dhanalakshmi et al. | Speech-input speech-output communication for dysarthric speakers using HMM-based speech recognition and adaptive synthesis system | |
Hirabayashi et al. | Automatic evaluation of English pronunciation by Japanese speakers using various acoustic features and pattern recognition techniques. | |
Hou et al. | Multi-layered features with SVM for Chinese accent identification | |
CN112908360A (zh) | 一种在线口语发音评价方法、装置及存储介质 | |
Yousfi et al. | Holy Qur'an speech recognition system Imaalah checking rule for warsh recitation | |
Huang et al. | English mispronunciation detection based on improved GOP methods for Chinese students | |
Luo et al. | Automatic pronunciation evaluation of language learners' utterances generated through shadowing. | |
Chandel et al. | Sensei: Spoken language assessment for call center agents | |
CN112767961B (zh) | 一种基于云端计算的口音矫正方法 | |
Gupta et al. | An Automatic Speech Recognition System: A systematic review and Future directions | |
Khanal et al. | Mispronunciation detection and diagnosis for mandarin accented english speech | |
Malhotra et al. | Automatic identification of gender & accent in spoken Hindi utterances with regional Indian accents | |
Suzuki et al. | Automatic evaluation system of English prosody based on word importance factor | |
Hosom et al. | Automatic speech recognition for assistive writing in speech supplemented word prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |