CN112992184B - 一种发音评测方法、装置、电子设备和存储介质 - Google Patents
一种发音评测方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN112992184B CN112992184B CN202110421831.6A CN202110421831A CN112992184B CN 112992184 B CN112992184 B CN 112992184B CN 202110421831 A CN202110421831 A CN 202110421831A CN 112992184 B CN112992184 B CN 112992184B
- Authority
- CN
- China
- Prior art keywords
- pronunciation
- phoneme
- gop
- audio
- state sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 21
- 238000012937 correction Methods 0.000 claims abstract description 16
- 238000004590 computer program Methods 0.000 claims description 17
- 238000012217 deletion Methods 0.000 claims description 6
- 230000037430 deletion Effects 0.000 claims description 6
- 238000003780 insertion Methods 0.000 claims description 6
- 230000037431 insertion Effects 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 230000000875 corresponding effect Effects 0.000 description 54
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 102100037812 Medium-wave-sensitive opsin 1 Human genes 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/60—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本公开实施例涉及一种发音评测方法、装置、电子设备和存储介质。其中,发音评测方法包括:获取强制对齐下的第一音素状态序列、自由识别下的第二音素状态序列以及发音音频的GOP分值,其中,所述发音音频为基于参考文本的音频数据,所述第二音素状态序列不受所述参考文本的音素序列的约束;对比所述第一音素状态序列和所述第二音素状态序列,得到所述发音音频的平均帧错误率;在所述发音音频的GOP分值高于所述平均帧错误率对应的参考分段时,对所述发音音频的GOP分值进行降分校正,得到最终评测分值。本公开技术方案提高了对发音进行评测打分的准确性。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种发音评测方法、装置、电子设备和存储介质。
背景技术
随着计算机技术和深度学习的发展,计算机辅助发音训练(Computer AssistedPronunciation Traing,CAPT)成为当前研究热点之一。尤其国内主要以英语学习为主,从读单词背诵到口语训练,再到情景对话,CAPT系统可以更方便、高效地帮助学生进行口语学习。CAPT系统设计需综合信号处理、深度学习和人机交互等多个学科知识,其中涉及到口语打分评测的技术。
口语打分评测是指发音人根据参考文本进行发音,机器对发音进行打分评判,确定发音的得分;机器的打分评测系统主要建立在一个语音识别模型基础之上,即先通过说话人的标准发音训练声学模型;在此基础上对于给定用户的语音,先提取相应的声学特征,根据声学模型得到发音单元(一般为音素)的似然值,最后通过发音良好度(Goodness ofPronunciation,GOP)的计算,最终得到发音人关于参考文本发音的打分值。
由于发音人发音错误的多样性和易变性,甚至环境因素的影响,如在开放嘈杂环境下发音。基于识别的声学模型和GOP的打分系统很难准确地对发音人的打分进行评判,导致系统反馈给口语学习者错误的信息。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开提供了一种发音评测方法、装置、电子设备和存储介质。
本公开实施例提供了一种发音评测方法,包括:
获取强制对齐下的第一音素状态序列、自由识别下的第二音素状态序列以及发音音频的GOP分值,其中,所述发音音频为基于参考文本的音频数据,所述第二音素状态序列不受所述参考文本的音素序列的约束;
对比所述第一音素状态序列和所述第二音素状态序列,得到所述发音音频的平均帧错误率;
在所述发音音频的GOP分值高于所述平均帧错误率对应的参考分段时,对所述发音音频的GOP分值进行降分校正,得到最终评测分值。
在一个实施例中,获取强制对齐下的第一音素状态序列,包括:
获取所述发音音频和对应的参考文本;
提取所述发音音频的语音特征序列;
基于预设声学模型以及所述语音特征序列,将所述参考文本和所述发音音频进行强制对齐,计算得到所述第一音素状态序列。
在一个实施例中,获取自由识别下的第二音素状态序列,包括:
基于所述语音特征序列,采用语音识别模型计算得到所述第二音素状态序列。
在一个实施例中,获取发音音频的GOP分值,包括:
基于所述第一音素状态序列和所述第二音素状态序列,采用GOP算法对所述参考文本中每个音素的发音情况进行打分,得到每个音素的GOP分值;
基于所述每个音素的GOP分值确定所述发音音频的GOP分值。
在一个实施例中,对比所述第一音素状态序列和所述第二音素状态序列,得到所述发音音频的平均帧错误率,包括:
对比所述第一音素状态序列和所述第二音素状态序列中各对应帧的音素,确定所述第二音素状态序列中音素匹配错误的帧数,其中,所述匹配错误包括删除错误、插入错误和替换错误;
将所述匹配错误的帧数与所述发音音频的总帧数之比作为所述平均帧错误率。
在一个实施例中,对所述发音音频的GOP分值进行降分校正,得到最终评测分值,包括:
将所述发音音频的GOP分值与预设惩罚因子相乘,得到所述最终评测分值,其中,所述预设惩罚因子大于0且小于1,在所述参考分段一定的情况下,所述预设惩罚因子与所述发音音频的GOP分值负相关。
在一个实施例中,所述方法还包括:
判断所述发音音频的GOP分值是否高于所述平均帧错误率对应的参考分段;
判断所述发音音频的GOP分值是否高于所述平均帧错误率对应的参考分段,包括:
基于预先设置的帧错误率与分段的对应关系,确定所述平均帧错误率对应的参考分段;
如果所述发音音频的GOP分值大于所述参考分段的最大值,则所述发音音频的GOP分值高于所述平均帧错误率对应的参考分段;
或者,判断所述发音音频的GOP分值是否高于所述平均帧错误率对应的参考分段,包括:
确定所述发音音频的GOP分值所属的目标分段;
基于预先设置的帧错误率与分段的对应关系,确定所述目标分段对应的目标平均帧错误率;
如果所述目标平均帧错误率小于所述平均帧错误率,则所述发音音频的GOP分值高于所述平均帧错误率对应的参考分段。
本公开实施例提供了一种发音评测装置,包括:
音频参数获取模块,用于获取强制对齐下的第一音素状态序列、自由识别下的第二音素状态序列以及发音音频的GOP分值,其中,所述发音音频为基于参考文本的音频数据,所述第二音素状态序列不受所述参考文本的音素序列的约束;
帧错误率获取模块,用于对比所述第一音素状态序列和所述第二音素状态序列,得到所述发音音频的平均帧错误率;
评测模块,用于在所述发音音频的GOP分值高于所述平均帧错误率对应的参考分段时,对所述发音音频的GOP分值进行降分校正,得到最终评测分值。
本公开实施例提供了一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现本公开任意实施例所提供的发音评测方法的步骤。
本公开实施例提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现本公开任意实施例所提供的发音评测方法的步骤。
本公开实施例提供的技术方案与现有技术相比具有如下优点:
本公开实施例提供的技术方案通过获取强制对齐下的第一音素状态序列、自由识别下的第二音素状态序列以及发音音频的GOP分值,对比第一音素状态序列和第二音素状态序列,得到发音音频的平均帧错误率,最后在发音音频的GOP分值高于平均帧错误率对应的参考分段的情况下,对发音音频的GOP分值进行降分校正,得到最终评测分值。如此,本公开技术方案在GOP打分的基础上,进一步通过对比第一音素状态序列和第二音素状态序列,确定发音音频的平均帧错误率,从而可以判断GOP打分的GOP分值是否过高,且在GOP分值过高时对GOP分值进行降分校正,最终得到在环境嘈杂或打分系统精度较差情况下的可靠打分,提高了对发音进行评测打分的准确性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例提供的发音评测方法的流程示意图;
图2为本公开实施例提供的第一音素状态序列和第二音素状态序列的对比示意图;
图3为本公开实施例提供的发音评测装置的结构框图;
图4为本公开实施例提供的电子设备的内部结构图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
目前,在音频嘈杂或发音人的发音与文本内容无关时,评测专家(即人工打分)打分往往是给的低分甚至零分,但打分系统很难评判,需要打分系统有很强的鲁棒性和很高的精度,打分系统会存在打高分的情况。在音频嘈杂或发音人的发音与文本内容无关情况下,会存在打分系统将中间某一帧或多帧识别成参考文本的发音,从而给高分。
针对现有问题,本公开实施例在GOP打分的基础上,对GOP分值进行校正,提高了对发音进行评测打分的准确性。
图1为本公开实施例提供的发音评测方法的流程示意图。该发音评测方法可适用于对口语学习者的发音进行评测的情况,可应用于终端和与终端网络连接的服务器所构成的硬件环境中。其中,终端包括但不限于个人计算机、学习机、手机和平板电脑等。本公开实施例的发音评测方法可以由服务器来执行,也可以由终端来执行,还可以由服务器和终端共同执行。其中,终端执行本公开的发音评测方法可以是由安装在其上的客户端来执行。具体的,如图1所示,本公开实施例的发音评测方法可包括:
S110、获取强制对齐下的第一音素状态序列、自由识别下的第二音素状态序列以及发音音频的GOP分值。
其中,发音音频为基于参考文本的音频数据。示例性的,口语学习者根据其在终端上选择的参考文本进行发音,终端可通过麦克风采集到口语学习者的语音并处理成音频数据,从而得到该发音音频。
第二音素状态序列不受参考文本的音素序列的约束,即不考虑参考文本,基于发音音频,直接采用语音识别模块把最可能的音素状态序列计算出来,相当于得到最符合口语学习者发音的音素序列。
在本公开实施例一实施方式中,获取强制对齐下的第一音素状态序列,包括:
S111、获取发音音频和对应的参考文本。
示例性的,终端根据口语学习者的选择得到对应的参考文本,同时,通过麦克风采集口语学习者的语音,进而得到发音音频。
S112、提取发音音频的语音特征序列。
麦克风采集的音频是wav格式的PCM数据,这种数据是无法直接处理的,和大多数机器学习系统一样,需要先从发音音频中提取语音特征。示例性的,先对发音音频进行短时傅里叶变换(STFT)得到声谱图,然后在梅尔域进行倒谱系数计算,完成语音特征的提取,从而将发音音频转换成一个语音特征序列。
S113、基于预设声学模型以及语音特征序列,将参考文本和发音音频进行强制对齐,计算得到第一音素状态序列。
其中,预设声学模型是根据用户的标准语音训练出来的声学模型,包括但不限于传统的HMM模型和主流的神经网络模型,如DNN模型和lstm模型等。
对于一个参考文本,可以通过发音词典得到该参考文本对应的音素序列。例如,获取到的参考文本为“中学”,通过发音词典可以得到对应的音素序列为/zh ong1 x ue2/。基于预设声学模型以及提取到的语音特征序列,通过解码(一般使用Viterbi解码)就能够计算最可能的音素状态序列,即第一音素状态序列,也就是每一帧语音属于/zh ong1 x ue2/中的哪个音素以及该音素的哪个状态。这样就实现了音频帧和音素状态的对应,即通过强制对齐技术就知道了每个音素对应的语音帧区间范围或时间边界。
在本公开实施例一实施方式中,获取自由识别下的第二音素状态序列,包括:
S114、基于语音特征序列,采用语音识别模型计算得到第二音素状态序列。
其中,语音识别模型与上述预设声学模型可以为同一模型。
示例性的,不考虑参考文本,例如不限制音素序列为/zh ong1 x ue2/,直接采用语音识别模型把最可能的音素状态序列计算出来,即得到第二音素状态序列。
在本公开实施例一实施方式中,获取发音音频的GOP分值,包括:
S115、基于第一音素状态序列和第二音素状态序列,采用GOP算法对参考文本中每个音素的发音情况进行打分,得到每个音素的GOP分值。
具体的,可采用以下公式得到每个音素的GOP分值:
S116、基于每个音素的GOP分值确定发音音频的GOP分值。
示例性的,可以将每个音素的GOP分值相加求和之后求平均,得到发音音频的GOP分值。
S120、对比第一音素状态序列和第二音素状态序列,得到发音音频的平均帧错误率。
本公开实施例中,第一音素状态序列和第二音素状态序列为帧级别的音素状态序列。对比第一音素状态序列和第二音素状态序列,得到发音音频的平均帧错误率,可包括:
S121、对比第一音素状态序列和所述第二音素状态序列中各对应帧的音素,确定第二音素状态序列中音素匹配错误的帧数。
其中,匹配错误包括删除错误、插入错误和替换错误。
示例性的,参考图2,第一音素状态序列为/zhzhzh ong1 ong1 x ue2 ue2ue2ue2/,即第一帧到第三帧对应的音素为zh,第四帧和第五帧对应的音素为ong1,第六帧对应的音素为x,第七帧到第十帧对应的音素为ue2。第二音素状态序列为/zhzhch ong1 ong1 xue2 ue2ue2sil/,即第一帧和第二帧对应的音素为zh,第三帧对应的音素为ch,第四帧和第五帧对应的音素为ong1,第六帧对应的音素为x,第七帧到第九帧对应的音素为ue2,第十帧表示静音。通过对比第一音素状态序列和所述第二音素状态序列中各对应帧的音素可以看出,第三帧识别出来的音素为ch,但对应帧的真实音素为zh,表示有一个替换错误的帧;第十帧为静音帧,即未识别出最后一帧的音素,表示有一个删除错误的帧;另外,如果第一音素状态序列中的某一帧为静音帧,而第二音素状态序列中对应帧识别结果为非静音,则表示有一个插入错误的帧。将删除错误的帧数、插入错误的帧数和替换错误的帧数相加求和,得到第二音素状态序列中音素匹配错误的帧数。
S122、将匹配错误的帧数与发音音频的总帧数之比作为平均帧错误率。
S130、在发音音频的GOP分值高于平均帧错误率对应的参考分段时,对发音音频的GOP分值进行降分校正,得到最终评测分值。
当发音音频的GOP分值高于平均帧错误率对应的参考分段时,说明GOP打分过高,因此,需要降低发音音频的GOP分值,以提高打分的准确性。示例性的,可以标定一大于0且小于1的惩罚因子,利用该惩罚因子对GOP分值进行加权,来降低GOP分值,得到在环境嘈杂或打分系统精度较差情况下的可靠打分。
在本公开实施例一实施方式中,对发音音频的GOP分值进行降分校正,得到最终评测分值,包括:
S131、将发音音频的GOP分值与预设惩罚因子相乘,得到最终评测分值。
其中,预设惩罚因子大于0且小于1,在参考分段一定的情况下,预设惩罚因子与发音音频的GOP分值负相关,即发音音频的GOP分值越大,预设惩罚因子越小。参考分段为平均帧错误率对应的标准分值区间。在参考分段一定的情况下,发音音频的GOP分值越大,说明发音音频的GOP分值偏高的越多,应更大程度地降低发音音频的GOP分值,因此,预设惩罚因子越小。预设惩罚因子的具体取值可根据实际试验进行标定。
示例性的,可预先设置帧错误率与分段的对应关系。例如,将验证集的评测打分转换为5分制打分,并划分0-1分、1-2分、2-3分、3-4分和4-5分的分段,分别计算计算人工打分在0-1分、1-2分、2-3分、3-4分和4-5分的平均帧错误率,得到帧错误率与分段的对应关系。人工打分时可以以一句话为单位进行打分,例如,4-5分总共有10句话,分别求每句话的帧错误率,再对10句话的帧错误率求平均,得到4-5分分段的平均帧错误率。
基于上述方案,在利用本公开的发音评测方法进行打分时,发音音频的GOP分值在高分段,而发音音频的平均帧错误率对应低分段,此时,说明发音音频的GOP分值偏高,将发音音频的GOP分值与预设惩罚因子相乘,以降低打分。在一示例中,发音音频的GOP分值在高分段,如3-4分的分段,发音音频的平均帧错误率对应低分段,如0-1分的分段,此时,预设惩罚因子可以为0.25。在另一示例中,发音音频的GOP分值在高分段,如4-5分的分段,发音音频的平均帧错误率对应低分段,如0-1分的分段,此时,预设惩罚因子可以为0.2。
在本公开实施例一实施方式中,发音评测方法还包括:
判断发音音频的GOP分值是否高于平均帧错误率对应的参考分段。
具体的,基于预先设置的帧错误率与分段的对应关系,确定平均帧错误率对应的参考分段;如果发音音频的GOP分值大于参考分段的最大值,则发音音频的GOP分值高于平均帧错误率对应的参考分段。或者,确定发音音频的GOP分值所属的目标分段;基于预先设置的帧错误率与分段的对应关系,确定目标分段对应的目标平均帧错误率;如果目标平均帧错误率小于平均帧错误率,则发音音频的GOP分值高于平均帧错误率对应的参考分段。
本公开实施例提供的发音评测方法,通过获取强制对齐下的第一音素状态序列、自由识别下的第二音素状态序列以及发音音频的GOP分值,对比第一音素状态序列和第二音素状态序列,得到发音音频的平均帧错误率,最后在发音音频的GOP分值高于平均帧错误率对应的参考分段的情况下,对发音音频的GOP分值进行降分校正,得到最终评测分值。如此,本公开技术方案在GOP打分的基础上,进一步通过对比第一音素状态序列和第二音素状态序列,确定发音音频的平均帧错误率,从而可以判断GOP打分的GOP分值是否过高,且在GOP分值过高时对GOP分值进行降分校正,最终得到在环境嘈杂或打分系统精度较差情况下的可靠打分,提高了对发音进行评测打分的准确性。
在一个实施例中,如图3所示,提供了一种发音评测装置,该装置包括音频参数获取模块201、帧错误率获取模块202和评测模块203。其中,音频参数获取模块201用于获取强制对齐下的第一音素状态序列、自由识别下的第二音素状态序列以及发音音频的GOP分值,其中,发音音频为基于参考文本的音频数据,第二音素状态序列不受参考文本的音素序列的约束;帧错误率获取模块202用于对比第一音素状态序列和第二音素状态序列,得到发音音频的平均帧错误率;评测模块203用于在发音音频的GOP分值高于平均帧错误率对应的参考分段时,对发音音频的GOP分值进行降分校正,得到最终评测分值。
在本公开实施例一实施方式中,音频参数获取模块201包括第一音素状态序列获取单元,该第一音素状态序列获取单元包括:
参考文本获取子单元,用于获取发音音频和对应的参考文本;
语音特征序列提取子单元,用于提取发音音频的语音特征序列;
第一音素状态序列计算子单元,用于基于预设声学模型以及语音特征序列,将参考文本和发音音频进行强制对齐,计算得到第一音素状态序列。
在本公开实施例一实施方式中,音频参数获取模块201包括第二音素状态序列获取单元,该第二音素状态序列获取单元具体用于基于语音特征序列,采用语音识别模型计算得到第二音素状态序列。
在本公开实施例一实施方式中,音频参数获取模块201包括GOP分值获取单元,该GOP分值获取单元包括:
音素GOP分值计算子单元,用于基于第一音素状态序列和第二音素状态序列,采用GOP算法对参考文本中每个音素的发音情况进行打分,得到每个音素的GOP分值;
音频GOP分值计算子单元,用于基于所述每个音素的GOP分值确定所述发音音频的GOP分值。
在本公开实施例一实施方式中,帧错误率获取模块202包括:
音素状态序列对比单元,用于对比第一音素状态序列和第二音素状态序列中各对应帧的音素,确定第二音素状态序列中音素匹配错误的帧数,其中,匹配错误包括删除错误、插入错误和替换错误;
帧错误率确定单元,用于将匹配错误的帧数与发音音频的总帧数之比作为平均帧错误率。
在本公开实施例一实施方式中,评测模块203具体用于:将发音音频的GOP分值与预设惩罚因子相乘,得到最终评测分值,其中,预设惩罚因子大于0且小于1,在参考分段一定的情况下,预设惩罚因子与发音音频的GOP分值负相关。
在本公开实施例一实施方式中,发音评测装置还包括分值判断模块,用于判断发音音频的GOP分值是否高于平均帧错误率对应的参考分段。
具体的,该分值判断模块可包括:
参考分段确定单元,用于基于预先设置的帧错误率与分段的对应关系,确定平均帧错误率对应的参考分段;
分值判断单元,用于如果发音音频的GOP分值大于参考分段的最大值,则发音音频的GOP分值高于平均帧错误率对应的参考分段。
或者,上述分值判断模块可包括:
分段确定单元,用于确定发音音频的GOP分值所属的目标分段;
目标平均帧错误率确定单元,用于基于预先设置的帧错误率与分段的对应关系,确定目标分段对应的目标平均帧错误率;
分值判断单元,用于如果目标平均帧错误率小于平均帧错误率,则发音音频的GOP分值高于平均帧错误率对应的参考分段。
关于发音评测装置的具体限定可以参见上文中对于发音评测方法的限定,在此不再赘述。上述发音评测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于电子设备中的处理器中,也可以以软件形式存储于电子设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种电子设备,该电子设备可以是终端,其内部结构图可以如图4所示。该电子设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该电子设备的处理器用于提供计算和控制能力。该电子设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该电子设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、近场通信(NFC)或其他技术实现。该计算机程序被处理器执行时以实现一种发音评测方法。该电子设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该电子设备的输入装置可以是显示屏上覆盖的触摸层,也可以是电子设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本公开方案相关的部分结构的框图,并不构成对本公开方案所应用于其上的电子设备的限定,具体的电子设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本公开提供的发音评测装置可以实现为一种计算机程序的形式,计算机程序可在如图4所示的电子设备上运行。电子设备的存储器中可存储组成该发音评测装置的各个程序模块,比如,图3所示的音频参数获取模块201、帧错误率获取模块202和评测模块203。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本公开各个实施例的发音评测方法中的步骤。
例如,图4所示的电子设备可以通过如图3所示的发音评测装置中的音频参数获取模块201执行S110。电子设备可通过帧错误率获取模块202执行S120。电子设备可通过评测模块203执行S130。
一个实施例中,提供了一种电子设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取强制对齐下的第一音素状态序列、自由识别下的第二音素状态序列以及发音音频的GOP分值,其中,发音音频为基于参考文本的音频数据,第二音素状态序列不受参考文本的音素序列的约束;对比第一音素状态序列和第二音素状态序列,得到发音音频的平均帧错误率;在发音音频的GOP分值高于平均帧错误率对应的参考分段时,对发音音频的GOP分值进行降分校正,得到最终评测分值。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取强制对齐下的第一音素状态序列、自由识别下的第二音素状态序列以及发音音频的GOP分值,其中,发音音频为基于参考文本的音频数据,第二音素状态序列不受参考文本的音素序列的约束;对比第一音素状态序列和第二音素状态序列,得到发音音频的平均帧错误率;在发音音频的GOP分值高于平均帧错误率对应的参考分段时,对发音音频的GOP分值进行降分校正,得到最终评测分值。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本公开所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,比如静态随机存取存储器(Static Random Access Memory,SRAM)和动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本公开的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本公开构思的前提下,还可以做出若干变形和改进,这些都属于本公开的保护范围。因此,本公开专利的保护范围应以所附权利要求为准。
Claims (8)
1.一种发音评测方法,其特征在于,包括:
获取强制对齐下的第一音素状态序列、自由识别下的第二音素状态序列以及发音音频的GOP分值,其中,所述发音音频为基于参考文本的音频数据,所述第二音素状态序列不受所述参考文本的音素序列的约束;
对比所述第一音素状态序列和所述第二音素状态序列,得到所述发音音频的平均帧错误率;
在所述发音音频的GOP分值高于所述平均帧错误率对应的参考分段时,对所述发音音频的GOP分值进行降分校正,得到最终评测分值;
获取发音音频的GOP分值,包括:
基于所述第一音素状态序列和所述第二音素状态序列,采用GOP算法对所述参考文本中每个音素的发音情况进行打分,得到每个音素的GOP分值;
基于所述每个音素的GOP分值确定所述发音音频的GOP分值;
对比所述第一音素状态序列和所述第二音素状态序列,得到所述发音音频的平均帧错误率,包括:
对比所述第一音素状态序列和所述第二音素状态序列中各对应帧的音素,确定所述第二音素状态序列中音素匹配错误的帧数,其中,所述匹配错误包括删除错误、插入错误和替换错误;
将所述匹配错误的帧数与所述发音音频的总帧数之比作为所述平均帧错误率。
2.根据权利要求1所述的发音评测方法,其特征在于,获取强制对齐下的第一音素状态序列,包括:
获取所述发音音频和对应的参考文本;
提取所述发音音频的语音特征序列;
基于预设声学模型以及所述语音特征序列,将所述参考文本和所述发音音频进行强制对齐,计算得到所述第一音素状态序列。
3.根据权利要求2所述的发音评测方法,其特征在于,获取自由识别下的第二音素状态序列,包括:
基于所述语音特征序列,采用语音识别模型计算得到所述第二音素状态序列。
4.根据权利要求1所述的发音评测方法,其特征在于,对所述发音音频的GOP分值进行降分校正,得到最终评测分值,包括:
将所述发音音频的GOP分值与预设惩罚因子相乘,得到所述最终评测分值,其中,所述预设惩罚因子大于0且小于1,在所述参考分段一定的情况下,所述预设惩罚因子与所述发音音频的GOP分值负相关。
5.根据权利要求1所述的发音评测方法,其特征在于,所述方法还包括:
判断所述发音音频的GOP分值是否高于所述平均帧错误率对应的参考分段;
判断所述发音音频的GOP分值是否高于所述平均帧错误率对应的参考分段,包括:
基于预先设置的帧错误率与分段的对应关系,确定所述平均帧错误率对应的参考分段;
如果所述发音音频的GOP分值大于所述参考分段的最大值,则所述发音音频的GOP分值高于所述平均帧错误率对应的参考分段;
或者,判断所述发音音频的GOP分值是否高于所述平均帧错误率对应的参考分段,包括:
确定所述发音音频的GOP分值所属的目标分段;
基于预先设置的帧错误率与分段的对应关系,确定所述目标分段对应的目标平均帧错误率;
如果所述目标平均帧错误率小于所述平均帧错误率,则所述发音音频的GOP分值高于所述平均帧错误率对应的参考分段。
6.一种发音评测装置,其特征在于,包括:
音频参数获取模块,用于获取强制对齐下的第一音素状态序列、自由识别下的第二音素状态序列以及发音音频的GOP分值,其中,所述发音音频为基于参考文本的音频数据,所述第二音素状态序列不受所述参考文本的音素序列的约束;
帧错误率获取模块,用于对比所述第一音素状态序列和所述第二音素状态序列,得到所述发音音频的平均帧错误率;
评测模块,用于在所述发音音频的GOP分值高于所述平均帧错误率对应的参考分段时,对所述发音音频的GOP分值进行降分校正,得到最终评测分值;
音频参数获取模块包括GOP分值获取单元,所述GOP分值获取单元包括:
音素GOP分值计算子单元,用于基于所述第一音素状态序列和所述第二音素状态序列,采用GOP算法对所述参考文本中每个音素的发音情况进行打分,得到每个音素的GOP分值;
音频GOP分值计算子单元,用于基于所述每个音素的GOP分值确定所述发音音频的GOP分值;
帧错误率获取模块包括:
音素状态序列对比单元,用于对比第一音素状态序列和第二音素状态序列中各对应帧的音素,确定第二音素状态序列中音素匹配错误的帧数,其中,匹配错误包括删除错误、插入错误和替换错误;
帧错误率确定单元,用于将匹配错误的帧数与发音音频的总帧数之比作为平均帧错误率。
7.一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述的发音评测方法的步骤。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的发音评测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110421831.6A CN112992184B (zh) | 2021-04-20 | 2021-04-20 | 一种发音评测方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110421831.6A CN112992184B (zh) | 2021-04-20 | 2021-04-20 | 一种发音评测方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112992184A CN112992184A (zh) | 2021-06-18 |
CN112992184B true CN112992184B (zh) | 2021-09-10 |
Family
ID=76341187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110421831.6A Active CN112992184B (zh) | 2021-04-20 | 2021-04-20 | 一种发音评测方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112992184B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101826263A (zh) * | 2009-03-04 | 2010-09-08 | 中国科学院自动化研究所 | 基于客观标准的自动化口语评估系统 |
CN103151042A (zh) * | 2013-01-23 | 2013-06-12 | 中国科学院深圳先进技术研究院 | 全自动口语评测管理与评分系统及其评分方法 |
CN107993653A (zh) * | 2017-11-30 | 2018-05-04 | 南京云游智能科技有限公司 | 语音识别设备的错误发音自动纠正更新方法和更新系统 |
CN110085261A (zh) * | 2019-05-16 | 2019-08-02 | 上海流利说信息技术有限公司 | 一种发音纠正方法、装置、设备以及计算机可读存储介质 |
CN111899576A (zh) * | 2020-07-23 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 发音测试应用的控制方法、装置、存储介质和电子设备 |
US10937444B1 (en) * | 2017-11-22 | 2021-03-02 | Educational Testing Service | End-to-end neural network based automated speech scoring |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739869B (zh) * | 2008-11-19 | 2012-03-28 | 中国科学院自动化研究所 | 一种基于先验知识的发音评估与诊断系统 |
CN102122507A (zh) * | 2010-01-08 | 2011-07-13 | 龚澍 | 一种运用人工神经网络进行前端处理的语音检错方法 |
CN103177733B (zh) * | 2013-03-11 | 2015-09-09 | 哈尔滨师范大学 | 汉语普通话儿化音发音质量评测方法与系统 |
US9613638B2 (en) * | 2014-02-28 | 2017-04-04 | Educational Testing Service | Computer-implemented systems and methods for determining an intelligibility score for speech |
CN107958673B (zh) * | 2017-11-28 | 2021-05-11 | 北京先声教育科技有限公司 | 一种口语评分方法及装置 |
CN109545244A (zh) * | 2019-01-29 | 2019-03-29 | 北京猎户星空科技有限公司 | 语音评测方法、装置、电子设备及存储介质 |
CN111951825B (zh) * | 2019-05-16 | 2024-09-20 | 上海流利说信息技术有限公司 | 一种发音测评方法、介质、装置和计算设备 |
US11081102B2 (en) * | 2019-08-16 | 2021-08-03 | Ponddy Education Inc. | Systems and methods for comprehensive Chinese speech scoring and diagnosis |
CN111326148B (zh) * | 2020-01-19 | 2021-02-23 | 北京世纪好未来教育科技有限公司 | 置信度校正及其模型训练方法、装置、设备及存储介质 |
CN111798868B (zh) * | 2020-09-07 | 2020-12-08 | 北京世纪好未来教育科技有限公司 | 语音强制对齐模型评价方法、装置、电子设备及存储介质 |
CN112331180A (zh) * | 2020-11-03 | 2021-02-05 | 北京猿力未来科技有限公司 | 一种口语评测方法及装置 |
CN112562723B (zh) * | 2020-11-30 | 2022-08-19 | 腾讯科技(深圳)有限公司 | 发音准确度确定方法、装置、存储介质和电子设备 |
CN112397056B (zh) * | 2021-01-20 | 2021-04-09 | 北京世纪好未来教育科技有限公司 | 语音评测方法及计算机存储介质 |
-
2021
- 2021-04-20 CN CN202110421831.6A patent/CN112992184B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101826263A (zh) * | 2009-03-04 | 2010-09-08 | 中国科学院自动化研究所 | 基于客观标准的自动化口语评估系统 |
CN103151042A (zh) * | 2013-01-23 | 2013-06-12 | 中国科学院深圳先进技术研究院 | 全自动口语评测管理与评分系统及其评分方法 |
US10937444B1 (en) * | 2017-11-22 | 2021-03-02 | Educational Testing Service | End-to-end neural network based automated speech scoring |
CN107993653A (zh) * | 2017-11-30 | 2018-05-04 | 南京云游智能科技有限公司 | 语音识别设备的错误发音自动纠正更新方法和更新系统 |
CN110085261A (zh) * | 2019-05-16 | 2019-08-02 | 上海流利说信息技术有限公司 | 一种发音纠正方法、装置、设备以及计算机可读存储介质 |
CN111899576A (zh) * | 2020-07-23 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 发音测试应用的控制方法、装置、存储介质和电子设备 |
Non-Patent Citations (2)
Title |
---|
English Mispronunciation Detection Based on Improved GOP Methods for Chinese Students;Guimin Huang et al.;《2017 IEEE》;20171231;全文 * |
普通话发音评估性能改进;齐欣等;《中文信息学报》;20130531;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112992184A (zh) | 2021-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101183344B1 (ko) | 사용자 정정들을 이용한 자동 음성 인식 학습 | |
JP5229478B2 (ja) | 統計モデル学習装置、統計モデル学習方法、およびプログラム | |
CN111951825B (zh) | 一种发音测评方法、介质、装置和计算设备 | |
US20140236600A1 (en) | Method and device for keyword detection | |
CN111402862B (zh) | 语音识别方法、装置、存储介质及设备 | |
CN109545243A (zh) | 发音质量评价方法、装置、电子设备及存储介质 | |
CN111311327A (zh) | 基于人工智能的服务评价方法、装置、设备及存储介质 | |
CN108766415B (zh) | 一种语音测评方法 | |
US20140236593A1 (en) | Speaker recognition method through emotional model synthesis based on neighbors preserving principle | |
US10748544B2 (en) | Voice processing device, voice processing method, and program | |
CN111640456B (zh) | 叠音检测方法、装置和设备 | |
CN112397056B (zh) | 语音评测方法及计算机存储介质 | |
CN107886968B (zh) | 语音评测方法及系统 | |
CN111833859B (zh) | 发音检错方法、装置、电子设备及存储介质 | |
KR20040088368A (ko) | 스위칭 상태 공간 모델들을 갖는 변분 추론을 사용하는음성 인식 방법 | |
CN112908308B (zh) | 一种音频处理方法、装置、设备及介质 | |
KR20040068023A (ko) | 은닉 궤적 은닉 마르코프 모델을 이용한 음성 인식 방법 | |
CN112802456A (zh) | 一种语音评测打分方法、装置、电子设备及存储介质 | |
CN110718210B (zh) | 一种英文错误发音的识别方法、装置、介质和电子设备 | |
CN115312030A (zh) | 虚拟角色的显示控制方法、装置及电子设备 | |
CN114627896A (zh) | 语音评测方法、装置、设备及存储介质 | |
Huang et al. | English mispronunciation detection based on improved GOP methods for Chinese students | |
CN112992184B (zh) | 一种发音评测方法、装置、电子设备和存储介质 | |
CN113053409B (zh) | 音频测评方法及装置 | |
CN112185186B (zh) | 一种发音纠正方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |