CN112802456A - 一种语音评测打分方法、装置、电子设备及存储介质 - Google Patents

一种语音评测打分方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112802456A
CN112802456A CN202110397655.7A CN202110397655A CN112802456A CN 112802456 A CN112802456 A CN 112802456A CN 202110397655 A CN202110397655 A CN 202110397655A CN 112802456 A CN112802456 A CN 112802456A
Authority
CN
China
Prior art keywords
scoring
looseness
determining
evaluation
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110397655.7A
Other languages
English (en)
Inventor
王莎
郭立钊
杨嵩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Century TAL Education Technology Co Ltd
Original Assignee
Beijing Century TAL Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Century TAL Education Technology Co Ltd filed Critical Beijing Century TAL Education Technology Co Ltd
Priority to CN202110397655.7A priority Critical patent/CN112802456A/zh
Publication of CN112802456A publication Critical patent/CN112802456A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明实施例公开了一种语音评测打分方法、装置、电子设备及存储介质,该方法包括:确定参考文本对应的标准音素序列,以及针对所述参考文本的待评测语音的声学特征;利用预先训练好的声学模型对所述标准音素序列以及所述声学特征进行强制对齐操作,获得强制对齐结果;基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征;根据当前的评测场景确定打分模型所采用的目标宽松度参数,其中,所述打分模型具备至少两套不同宽松度的候选宽松度参数;基于所述评分特征,通过采用所述目标宽松度参数的打分模型获得百分制打分结果。通过本发明实施例的技术方案,提高了不同场景下语音评测的准确性与主观性。

Description

一种语音评测打分方法、装置、电子设备及存储介质
技术领域
本发明实施例涉及计算机技术领域,尤其涉及一种语音评测打分方法、装置、电子设备及存储介质。
背景技术
语音评测技术是一种学生按照参考文本发音,即学生朗读参考文本,计算机对学生的发音质量进行打分的技术。语音评测技术所涉及的主要模型包含声学模型、发音质量评测模型和打分模型三部分。其中,声学模型和打分模型都是提前训练好的模型。学生朗读指定参考文本,计算机利用声学模型作强制对齐,提取表征发音质量的评分特征,通过打分模型基于所述评分特征对学生的发音质量进行评分,得到机器打分。
语音评测算法是根据特定标准和算法实现,具有很强的客观性。传统的人工语音评测是由专家根据特定场景的标准,依据经验进行评测,该种评测方式具有很强的主观性,主要体现在以下两个方面:第一,不同场景的人工评分标准有很大差别,比如英语学习场景中,高考口语考试学习者的评分标准相对比较严格,打分偏低,低幼阶段学习者的评分标准相对比较宽松,打分偏高,具有很强的鼓励性;第二,不同专家的经验不同,对同一场景的评测标准理解不同。
语音评测算法的客观性与人工评测的主观性之间的差异导致在使用场景中语音评测算法出现不准确的问题。因此,提高通过语音评测算法获得的评测结果,与通过人工评测获得的评测结果之间的一致性是一个亟待解决的问题。
另一方面,通过语音评测算法得到的机器打分通常是百分制分数(即最高分为100分,最低分为0分),而评测场景下往往需要产出五分制(最高分为5分,最低分为0分)或者三分制(最高分为3分,最低分为0分)的机器打分。以产出五分制机器打分为例,通常情况下,百分制到五分制的转换是采用线性映射来实现的,即每二十分作为一档,共划分五档。利用线性映射实现百分制到五分制的转换是十分客观固定的,对不同评测场景不具备适配的灵活性。
发明内容
本发明实施例提供一种语音评测打分方法、装置、电子设备及存储介质,提高了不同场景下语音评测的准确性与主观性,使基于语音评测算法获得的评测结果,与通过人工评测获得的评测结果更趋于一致。
第一方面,本发明实施例提供了一种语音评测打分方法,该方法包括:
确定参考文本对应的标准音素序列,以及针对所述参考文本的待评测语音的声学特征;
利用预先训练好的声学模型对所述标准音素序列以及所述声学特征进行强制对齐操作,获得强制对齐结果;
基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征;
根据当前的评测场景确定打分模型所采用的目标宽松度参数,其中,所述打分模型具备至少两套不同宽松度的宽松度参数;
基于所述评分特征,通过采用所述目标宽松度参数的打分模型获得百分制打分结果。
第二方面,本发明实施例还提供了一种语音评测打分装置,该装置包括:
第一确定模块,用于确定参考文本对应的标准音素序列,以及针对所述参考文本的待评测语音的声学特征;
对齐模块,用于利用预先训练好的声学模型对所述标准音素序列以及所述声学特征进行强制对齐操作,获得强制对齐结果;
提取模块,用于基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征;
第二确定模块,用于根据当前的评测场景确定打分模型所采用的目标宽松度参数,其中,所述打分模型具备至少两套不同宽松度的宽松度参数;
评分模块,用于基于所述评分特征,通过采用所述目标宽松度参数的打分模型获得百分制打分结果。
第三方面,本发明实施例还提供了一种设备,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明实施例任一所述的语音评测打分方法。
第四方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本发明实施例任一所述的语音评测打分方法。
本发明实施例的技术方案,通过确定参考文本对应的标准音素序列,以及针对所述参考文本的待评测语音的声学特征;利用预先训练好的声学模型对所述标准音素序列以及所述声学特征进行强制对齐操作,获得强制对齐结果;基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征;根据当前的评测场景确定打分模型所采用的目标宽松度参数,其中,所述打分模型具备至少两套不同宽松度的候选宽松度参数;基于所述评分特征,通过采用所述目标宽松度参数的打分模型获得百分制打分结果,从而提高了所述打分模型的主观适应性,提高了不同评测场景下语音评测的准确性与主观性,使基于语音评测算法获得的评测结果,与通过人工评测获得的评测结果更趋于一致。
附图说明
结合附图并参考以下具体实施方式,本发明各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本发明实施例一所提供的一种语音评测打分方法流程示意图;
图2为本发明实施例一所提供的一种从语音信号提取MFCC特征的流程示意图;
图3为本发明实施例一所提供的一种强制对齐结果的示意图;
图4为本发明实施例二所提供的一种语音评测打分方法流程示意图;
图5为本发明实施例二所提供的另一种语音评测打分方法流程示意图;
图6为本发明实施例三所提供的一种语音评测打分装置结构示意图;
图7为本发明实施例四所提供的一种电子设备结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的实施例。虽然附图中显示了本发明的某些实施例,然而应当理解的是,本发明可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本发明。应当理解的是,本发明的附图及实施例仅用于示例性作用,并非用于限制本发明的保护范围。
应当理解,本发明的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本发明的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本发明中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本发明中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
实施例一
图1为本发明实施例一所提供的一种语音评测打分方法流程示意图。该方法可以由语音评测打分装置来执行,该装置可以通过软件和/或硬件的形式实现。
如图1所示,本实施例提供的语音评测打分方法包括如下步骤:
步骤110、确定参考文本对应的标准音素序列,以及针对所述参考文本的待评测语音的声学特征。
其中,参考文本指需要考生朗读的文本。标准音素序列指参考文本对应的正确发音序列。音素是语音中的最小单位,依据音节中的发音动作来分析,一个发音动作构成一个音素。假设参考文本为grandpa,对应的标准音素序列为[g r ae1 n d p aa2]。
示例性的,可以通过查阅发音词典,确定所述参考文本对应的标准音素序列。发音词典是描述词汇和其音素之间对应关系的集合,根据发音词典中记录的发音标注可以确定每个词汇的发音音素。
针对所述参考文本的待评测语音指考生朗读参考文本的语音。语音通常是指人说话的声音,从生物学的角度来看,是气流通过声带、咽喉、口腔、鼻腔等发出声音;从信号的角度来看,不同位置的震动频率不同,最后的信号由基频和一些谐波构成。所述声学特征包括下述至少一种:频率倒谱系数MFCC以及FBANK特征。
其中,MFCC特征各维度之间具有较弱的相关性,适合GMM的训练。FBANK特征相比MFCC特征保留了更原始的声学特征,适合DNN的训练。
示例性的,可以参考如图2所示的一种从语音信号提取MFCC特征的流程示意图,具体包括:
针对语音信号进行预加重-加窗-离散傅里叶变化-梅尔滤波器组-对数计算-离散余弦变换-MFCC特征。
其中,预加重指针对语音中的高频语音能量加重,使高频信息凸显出来,语音中有频谱倾斜现象,即低频语音的能量较高,而高频语音的能量较低,因此需要针对高频语音加重其能量。分帧:一般每帧帧长为20ms或者25ms,假设采样率是16kHZ,帧长为25ms,则一帧有16000*0.025=400个采样点。为确保声学特征参数的平滑性,一般采用重叠取帧的方式,即相邻帧之间存在重叠部分。加窗:特征提取时,每次取出窗长为25ms的语音,进行离散傅里叶变换计算出一帧,接着步移10ms继续计算下一帧,相当于加了矩形窗。二棱角分明的矩形窗容易造成频谱泄露,可以选择使用海明窗、汉宁窗等。离散傅里叶变换:从每一段加窗后的音频中分别提取出频域信息。语谱图:语音信号经过短时傅里叶变换后得到的频谱为对称谱,取正频率轴的频谱曲线,并且将每一帧的频谱值按时间顺序拼接起来。梅尔刻度:人耳对不同频率的感知程度不同,频率越高,感知程度越低,因此人耳的频域感知识非线性的,用梅尔刻度进行刻画,反映了人耳线性感知的梅尔频率与普通频率之间的关系。梅尔滤波器组:计算方式与加窗类似,越往高频,滤波器窗口越大,窗口扩大的量级与梅尔刻度一致。滤波器的个数就是梅尔频段的总数目,通常为几十。FBANK特征:梅尔频谱的能量数值取对数得到FBANK特征,对数计算增强了特征的鲁棒性。MFCC特征:FBANK特征中含有基频的谐波,相当于频谱中的毛刺,不利于整体轮廓的显现,并且各维度之间具有较高的相关性。MFCC的目的是消除与音素判别关系不大的谐波,保留包络信息。对FBANK特征每帧进行离散傅里叶变换,可以将包络与谐波分开,等价于对每帧FBANK特征进行离散余弦变换,生成结果即为倒谱。语谱图、FBANK、MFCC和PLP都采用短时傅里叶变换(STFT),具有规律的线性分辨率,而CQCC则具有几何级的分辨率。FBANK和MFCC都采用Mel滤波器组,而PLP则利用Bark滤波器组模拟人耳听觉特性。通过不同的提取方法得到的声学特征所表征的语言特点是不同的,FBANK保留了更多的原始特征,MFCC的相关性较好,而PLP抗噪性更强。
步骤120、利用预先训练好的声学模型对所述标准音素序列以及所述声学特征进行强制对齐操作,获得强制对齐结果。
所述预先训练好的声学模型包括: HMM(Hidden Markov Model,隐马尔可夫模型),用于计算所述声学特征对应的HMM音素状态序列。
利用预先训练好的声学模型作强制对齐,确定待评测语音的每一帧对应参考文本中的哪一个音素。主要包括声学模型训练和强制对齐两部分,详细步骤如下:
A.利用同语种(语种例如是汉语或者英语)类似场景(所述场景例如是高考口语考试场景或者低年级幼儿口语考试场景)的声学数据训练声学模型。声学模型建模采用语音识别广泛使用的隐马尔可夫模型HMM,用于计算声学特征序列对应的最可能的HMM音素状态序列。
B.在给定参考文本的基础上,计算确定各音素的起始时间,即作强制对齐。假设参考文本内容为grandpa,查找发音词典可知,grandpa对应的标准音素序列为[g r ae1 n dp aa2],将这七个音素的隐马尔可夫模型HMM串接起来形成一个更大的HMM模型,并据此计算声学特征序列最可能对应的音素序列,即可确认每一帧语音对应[g r ae1 n d p aa2]中的哪一个音素,以及对应音素的状态,实现语音帧与音素状态的对应,明确每个音素qi对应的语音帧起始时间。当待评测语音与参考文本完全对应时,则强制对齐后可轻松确认每个音素对应的语音帧区间。当待评测语音与参考文本不完全对应时,例如某个音素qi误读,则强制对齐后qi对应的语音帧区间对应的发音并不是qi,那么为了确定此时的语音帧区间的真实发音,就需要利用音素识别来实现。音素识别就是直接用语音识别把音素状态序列计算出来,本质上是从所有音素中计算出最符合用户发音的音素序列,如图3所示。由图3可知,参考文本qi对应的实际语音帧区间是[fs,fe]。而由音素识别可知,这段语音帧区间对应的真实发音包含3个音素,分别是qi1、qi2和qi3
步骤130、基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征。
示例性的,所述基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征,包括:
基于所述强制对齐结果确定各语音帧区间中似然度最大的目标音素的第一似然分数值;
对所述声学特征进行音素识别,获得各语音帧区间中似然度最大的目标音素的第二似然分数值;
将所述第一似然分数值与所述第二似然分数值之间的比值确定为所述评分特征。
具体的,根据强制对齐结果,利用发音质量评测算法,提取表征学生发音质量的评分特征。常用的发音质量评测算法包括GOP (Goodness of Pronunciation,发音准确度)算法,GOP算法的基本思想是利用预先可知的参考文本,把学生语音和对应的参考文本做一次强制对齐,并把强制对齐得到的似然分数值(即所述第一似然分数值)与在不知道参考文本情况下得到的似然分数值(即所述第二似然分数值)做比较,利用所述第一似然分数值与所述第二似然分数值之间的比值作为发音好坏的评分特征。通俗的理解上述GOP算法的基本思想为:
学生朗读参考文本,GOP算法需要计算两个值。一个值是:已知参考文本和学生朗读参考文本时的语音(即待评测语音),此时计算得到标准似然值(类似于考题的标准答案)。另一个值是:已知待评测语音,但参考文本未知,此时只能依据待评测语音判断学生实际读的文本,并且根据判断的结果计算实际似然值。然后比较这两个似然值,也就是看下学生实际读的文本是否和参考文本一致。
GOP算法的定义式如下:
Figure 370918DEST_PATH_IMAGE001
其中,q i 表示参考文本中当前要打分的音素,O表示强制对齐后q i 对应的语音片段,Pq i /O)表示当语音片段是O时,语音片段对应的音素是q i 的概率。NF(O)表示语音片段的帧数,起到归一化的作用。为方便计算,通常利用分母中的最大项代替求和。公式的分子部分是音素级别的似然度,可以通过HMM声学模型针对给定参考文本的强制对齐得到,分母部分可以基于待评测语音通过音素识别来获得语音帧区间所有音素中似然度最大的q j 的似然度概率。
可以看到,GOP算法实际计算的是输入语音对应于已知参考文本的可能性,输入语音对应于已知参考文本的可能性越高,表示输入语音所对应的实际文本与参考文本越相近,即发音越准确。
步骤140、根据当前的评测场景确定打分模型所采用的目标宽松度参数,其中,所述打分模型具备至少两套不同宽松度的候选宽松度参数。
其中,为了提高通过语音评测算法获得的评测结果与人工评测结果之间的一致性,提高语音评测算法的场景适应性,打分模型设置有若干(至少两个)套宽松度参数,分别适应打分标准严格、适中、宽松等评测场景。例如评测场景为高考口语考试,该评测场景下的评分标准相对较严格,打分偏低,而在低幼阶段的英语口语考试的评测场景中,为了鼓励低幼儿努力学习、调动低幼儿的学习积极性,评分标准相对宽松,具有很强的激励效应。其中,一致性指机器打分结果和人工打分结果的误差范围在规定范围之内的比例,比如人工打分为5分制时,20%的一致性可以理解为当机器打分结果和人工打分结果之间的差在5*20%=1之内时,认为机器打分结果和人工打分结果是一致的。
因此,为了提高语音评测算法在不同评测场景中的灵活适配性以及评测准确度,引入打分模型宽松度参数,打分模型设置有若干(至少两个)套宽松度参数,可以提供若干个可选宽松度。
示例性的,所述打分模型采用LR(Logistic Regression,逻辑斯特回归)算法或者SVM(Support Vector Machine,支持向量机)算法。当所述打分模型采用逻辑斯特回归算法LR时,在所述打分模型的训练阶段,通过调整LR的正负类样本阈值实现样本数据集中正负类样本比例的调整,以使基于不同正负类样本比例的样本数据集训练获得的打分模型具备不同宽松度的宽松度参数。
具体的,打分模型是基于人工打分的样本数据集训练得到的,一般采用LR(Logistic Regression,逻辑斯特回归)算法、SVM (Support Vector Machine,支持向量机)等机器学习算法对打分模型进行训练。以LR算法为例,LR算法将预测正负类问题扩展到预测[0,1]范围内的概率值的问题,使观测样本在正负类中出现概率的比值满足线性条件,采用线性拟合比率值,且LR算法对正负类样本的不均衡比较敏感。故可通过设置训练打分模型的人工数据集的正负类比例,通过LR算法得到不同的宽松度参数。如设置三个宽松度参数时,当正类样本较多时,预测的概率值有较大的趋势,得分较高,符合宽松的维度;当负类样本较多时,预测的概率值有较小的趋势,得分较低,符合严格的维度;当正负类样本比例接近时,符合适中的维度。因此,通过调整样本数据集中正负类样本的比例,再利用逻辑斯特回归LR算法训练,得到不同的逻辑斯特回归参数,即宽松度参数,以实现提高打分模型在不同评测场景中的灵活适配性以及打分准确度的目的。具体的,调整样本数据集中正负类样本比例的过程如下:
以分制为5分制为例进行说明,针对同一个训练集(即人工打分样本),设置不同的正负类阈值以得到不同的宽松度,如:正负类阈值为2时,即小于等于2的人工打分样本为负类样本,大于2的人工打分样本为正类样本,符合“宽松”的维度。若正负类阈值为3时,即小于等于3的人工打分样本为负类样本,大于3的人工打分样本为正类样本,符合“适中”的维度。正负类阈值为4时,即小于等于4的人工打分样本为负类样本,大于4的人工打分样本为正类样本,符合“严格”的维度。同一个训练集,正负类阈值为4比正负类阈值为2的负类样本更多,即相对得分较低,以此训练得到的打分模型的打分标准更加严格。
示例性的,所述根据当前的评测场景确定打分模型所采用的目标宽松度参数,包括:
通过与当前的评测场景适配的打分测试样本集,以一致性为目标,确定打分模型所采用的目标宽松度参数。
其中,一致性指机器打分结果和人工打分结果的误差范围在规定范围之内的比例,比如人工打分为5分制时,20%的一致性可以理解为当机器打分结果和人工打分结果之间的差在5*20%=1之内时,认为机器打分结果和人工打分结果是一致的。一致性以一致性为目标,基于打分测试样本集分别测试采用不同宽松度参数的打分模型,看采用哪类宽松度参数时的一致性更高,则表明该类宽松度参数更适合当前评测场景,即将该类宽松度参数确定为所述目标宽松度参数。
步骤150、基于所述评分特征,通过采用所述目标宽松度参数的打分模型获得百分制打分结果。
本发明实施例的技术方案,为了提高通过语音评测算法获得的评分结果与通过人工评测获得的评分结果之间的一致性,提高语音评测算法的场景适应性,提出了一种评分优化方案,具体是为打分模型设置若干个宽松度参数(具体是在打分模型的训练阶段,通过调整样本数据集中正负类样本比例实现打分模型的不同宽松度参数的获得,调整样本数据集中正负类样本比例可以通过设置LR算法的正负类阈值实现),例如为打分模型设置三个宽松度参数时,分别适应打分标准严格、适中、宽松的应用场景,提高了不同场景下语音评测算法的准确性。
实施例二
图4为本发明实施例二所提供的一种语音评测打分方法的流程示意图。在上述实施例的基础上,本实施例增加了将百分制机器分转换为五分制机器分的步骤,并提出了优化的转换方案,旨在提高将百分制机器分转换为五分制机器分在不同应用场景下的灵活适配性。例如在评分宽松的应用场景下,在将百分制机器分转换为五分制机器分时,获得得分偏高的五分制机器分,提高打分的主观适应性。其中,与上述实施例相同或相似的内容在本实施例不再赘述,相关解释可以参考上述实施例。
如图4所示,所述方法包括如下步骤:
步骤410、确定参考文本对应的标准音素序列,以及针对所述参考文本的待评测语音的声学特征。
步骤420、利用预先训练好的声学模型对所述标准音素序列以及所述声学特征进行强制对齐操作,获得强制对齐结果,基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征。
步骤430、根据当前的评测场景确定打分模型所采用的目标宽松度参数,其中,所述打分模型具备至少两套不同宽松度的候选宽松度参数。
步骤440、基于所述评分特征,通过采用所述目标宽松度参数的打分模型获得百分制打分结果
步骤450、将所述百分制打分结果输入至设定非线性映射模块,获得所述百分制打分结果对应的其它分制打分结果,其中,所述设定非线性映射模块包括至少两个非线性映射函数。进一步的,所述将所述百分制打分结果输入至设定非线性映射模块之前,还包括:
根据当前的评测场景确定各所述非线性映射函数的区间阈值。
具体是通过与当前的评测场景适配的分制转换测试样本集,以一致性为目标,确定各所述非线性映射函数的区间阈值。
示例性的,利用打分模型计算得到百分制机器打分结果,利用非线性映射模块转换得到其它分制(本实施例以五分制为例)机器打分结果,实现过程可以表示为G[L(GOP1(qi))],其中,GOP1(qi)表示输入的待评测语音的评分特征,L(x)表示打分模型,G(x)表示非线性映射模块。利用非线性映射模块综合若干个非线性映射函数,将百分制打分结果映射成为五分制打分结果,以一致性为指标选取最优的五分制打分结果作为最终的打分结果。其中百分制到五分制映射的打分密度可以是1分,也可以是0.5分,根据需求而定。当映射完五分制打分的密度是1时,非线性映射模块中一种非线性映射函数可表示为:
Figure 760442DEST_PATH_IMAGE002
其中,th1、th2、th3、th4和th5分别表示映射区间阈值。映射区间阈值的确定一般分为两种情况:第一种,不能预先获取评测场景下的人工打分数据的情况下,一般在线性映射的基础上,根据经验适当调整各映射区间阈值,使得非线性映射关系有映射到低分、高分、中间分的趋势,即可得到非线性映射模块。此时,因为不能了解人工打分的规律,一般保留线性映射函数作为非线性映射模块的一种。第二种,可以预先获取评测场景的若干条人工打分数据(为保证准确性,人工打分数据的数量一般不少于2000条),一般采用线性映射函数作为非线性映射函数的一种,在此基础上获取当前测试集下适配的非线性映射函数。详细过程是:在线性映射的基础上,先同时调整th1、th2、th3、th4和th5的值,再按先后顺序逐个调整th1、th2、th3、th4以及th5的值,以一致性为指标确定各个映射区间阈值的最优值,确定最终适用此评测场景的非线性映射模块。综上,两种映射区间阈值确定方法,均可实现在一致性不变低的情况下,提高非线性映射模块对评测场景的主观适应性,且了解到评测场景下越多的人工打分规律,对评测准确性的提高越有帮助。
本发明实施例的技术方案,在上述实施例的基础上,增加了将百分制机器分转换为五分制机器分的步骤,并提出了优化的转换方案,旨在提高将百分制机器分转换为五分制机器分在不同应用场景下的灵活适配性。例如在评分宽松的应用场景下,在将百分制机器分转换为五分制机器分时,获得得分偏高的五分制机器分,提高打分的主观适应性。
在上述各实施例技术方案的基础上,参考图5所示的另一种语音评测打分方法流程示意图,具体包括:通过声学模型对参考文本以及待评测语音进行强制对齐,而后利用设置有宽松度参数的打分模型对提前的评分特征进行评分,得到百分制机器分,接着通过非线性映射模块得到所述百分制机器分对应的五分制机器分。
本实施例的技术方案通过引入打分模型宽松度参数、非线性映射模块两个优化方法,可提高语音评测算法不同场景下的适配性,有效提高不同场景下语音评测算法的性能。具体来说,打分模型通过设置宽松度参数可以提供若干个可选宽松度,非线性映射模块可以更准确地贴合具体评测场景下打分的规律,进行百分制到五分制的映射,综合二者可以提高语音评测算法的主观性,提高不同场景下语音评测算法的准确性。
实施例三
图6为本发明实施例三提供的一种语音评测打分装置,该装置包括:第一确定模块610、对齐模块620、提取模块630、第二确定模块640和评分模块650。
其中,第一确定模块610,用于确定参考文本对应的标准音素序列,以及针对所述参考文本的待评测语音的声学特征;对齐模块620,用于利用预先训练好的声学模型对所述标准音素序列以及所述声学特征进行强制对齐操作,获得强制对齐结果;提取模块630,用于基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征;第二确定模块640,用于根据当前的评测场景确定打分模型所采用的目标宽松度参数,其中,所述打分模型具备至少两套不同宽松度的候选宽松度参数;评分模块650,用于基于所述评分特征,通过采用所述目标宽松度参数的打分模型获得百分制打分结果。
在上述技术方案的基础上,所述语音评测装置还包括:
分制转换模块,用于将所述百分制打分结果输入至设定非线性映射模块,获得所述百分制打分结果对应的其它分制打分结果;
其中,所述设定非线性映射模块包括至少两个非线性映射函数。
在上述各技术方案的基础上,所述语音评测装置还包括:
区间阈值确定模块,用于在将所述百分制打分结果输入至设定非线性映射模块之前,根据当前的评测场景确定各所述非线性映射函数的区间阈值。
在上述各技术方案的基础上,所述区间阈值确定模块具体用于:
通过与当前的评测场景适配的分制转换测试样本集,以一致性为目标,确定各所述非线性映射函数的区间阈值。
在上述各技术方案的基础上,第二确定模块640具体用于:
通过与当前的评测场景适配的打分测试样本集,以一致性为目标,确定打分模型所采用的目标宽松度参数。
在上述各技术方案的基础上,确定模块610包括:
音素序列确定单元,用于通过查阅发音词典,确定所述参考文本对应的标准音素序列。
在上述各技术方案的基础上,所述预先训练好的声学模型包括:隐马尔可夫模型HMM,用于计算所述声学特征对应的HMM音素状态序列。
在上述各技术方案的基础上,提取模块630包括:
第一确定单元,用于基于所述强制对齐结果确定各语音帧区间中似然度最大的目标音素的第一似然分数值;
第二确定单元,用于对所述声学特征进行音素识别,获得各语音帧区间中似然度最大的目标音素的第二似然分数值;
第三确定单元,用于将所述第一似然分数值与所述第二似然分数值之间的比值确定为所述评分特征。
在上述各技术方案的基础上,所述打分模型采用逻辑斯特回归算法LR或者支持向量机SVM算法;当所述打分模型采用逻辑斯特回归算法LR时,在所述打分模型的训练阶段,通过调整LR的正负类样本阈值实现样本数据集中正负类样本比例的调整,以使基于不同正负类样本比例的样本数据集训练获得的打分模型具备不同宽松度的宽松度参数。
在上述各技术方案的基础上,所述声学特征包括下述至少一种:频率倒谱系数MFCC以及FBANK特征。
本发明实施例的技术方案,为了提高通过语音评测算法获得的评分结果与通过人工评测获得的评分结果之间的一致性,提高语音评测算法的场景适应性,提出了一种评分优化方案,具体是为打分模型设置若干个宽松度参数,例如为打分模型设置三个宽松度参数时,分别适应打分标准严格、适中、宽松的应用场景,提高了不同场景下语音评测算法的准确性。
本发明实施例所提供的语音评测打分装置可执行本发明任意实施例所提供的语音评测打分方法,具备执行方法相应的功能模块和有益效果。
值得注意的是,上述装置所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明实施例的保护范围。
实施例四
下面参考图7,其示出了适于用来实现本发明实施例的电子设备(例如图7中的终端设备或服务器)400的结构示意图。本发明实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,电子设备400可以包括处理装置(例如中央处理器、图形处理器等)401,其可以根据存储在只读存储器(ROM)402中的程序或者从存储装置408加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM 403中,还存储有电子设备400操作所需的各种程序和数据。处理装置401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
通常,以下装置可以连接至I/O接口405:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置406;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置407;包括例如磁带、硬盘等的存储装置408;以及通信装置409。通信装置409可以允许电子设备400与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备400,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本发明的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置409从网络上被下载和安装,或者从存储装置408被安装,或者从ROM 402被安装。在该计算机程序被处理装置401执行时,执行本发明实施例的方法中限定的上述功能。
本发明实施例提供的终端与上述实施例提供的语音评测打分方法属于同一发明构思,未在本发明实施例中详尽描述的技术细节可参见上述实施例,并且本发明实施例与上述实施例具有相同的有益效果。
实施例五
本发明实施例提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述实施例所提供的语音评测打分方法。
需要说明的是,本发明上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
确定参考文本对应的标准音素序列,以及针对所述参考文本的待评测语音的声学特征;
利用预先训练好的声学模型对所述标准音素序列以及所述声学特征进行强制对齐操作,获得强制对齐结果;
基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征;
根据当前的评测场景确定打分模型所采用的目标宽松度参数,其中,所述打分模型具备至少两套不同宽松度的候选宽松度参数;
基于所述评分特征,通过采用所述目标宽松度参数的打分模型获得百分制打分结果。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,可编辑内容显示单元还可以被描述为“编辑单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本发明的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以上描述仅为本发明的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本发明中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本发明中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本发明的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (10)

1.一种语音评测打分方法,其特征在于,包括:
确定参考文本对应的标准音素序列,以及针对所述参考文本的待评测语音的声学特征;
利用预先训练好的声学模型对所述标准音素序列以及所述声学特征进行强制对齐操作,获得强制对齐结果;
基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征;
根据当前的评测场景确定打分模型所采用的目标宽松度参数,其中,所述打分模型具备至少两套不同宽松度的候选宽松度参数;
基于所述评分特征,通过采用所述目标宽松度参数的打分模型获得百分制打分结果。
2.根据权利要求1所述的方法,其特征在于,还包括:
将所述百分制打分结果输入至设定非线性映射模块,获得所述百分制打分结果对应的其它分制打分结果;
其中,所述设定非线性映射模块包括至少两个非线性映射函数。
3.根据权利要求2所述的方法,其特征在于,所述将所述百分制打分结果输入至设定非线性映射模块之前,还包括:
根据当前的评测场景确定各所述非线性映射函数的区间阈值。
4.根据权利要求3所述的方法,其特征在于,所述根据当前的评测场景确定各所述非线性映射函数的区间阈值,包括:
通过与当前的评测场景适配的分制转换测试样本集,以一致性为目标,确定各所述非线性映射函数的区间阈值。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述根据当前的评测场景确定打分模型所采用的目标宽松度参数,包括:
通过与当前的评测场景适配的打分测试样本集,以一致性为目标,确定打分模型所采用的目标宽松度参数。
6.根据权利要求1-4任一项所述的方法,其特征在于,所述基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征,包括:
基于所述强制对齐结果确定各语音帧区间中似然度最大的目标音素的第一似然分数值;
对所述声学特征进行音素识别,获得各语音帧区间中似然度最大的目标音素的第二似然分数值;
将所述第一似然分数值与所述第二似然分数值之间的比值确定为所述评分特征。
7.根据权利要求1-4任一项所述的方法,其特征在于,所述打分模型采用逻辑斯特回归算法LR或者支持向量机SVM算法;
当所述打分模型采用逻辑斯特回归算法LR时,在所述打分模型的训练阶段,通过调整LR的正负类样本阈值实现样本数据集中正负类样本比例的调整,以使基于不同正负类样本比例的样本数据集训练获得的打分模型具备不同宽松度的宽松度参数。
8.一种语音评测打分装置,其特征在于,包括:
第一确定模块,用于确定参考文本对应的标准音素序列,以及针对所述参考文本的待评测语音的声学特征;
对齐模块,用于利用预先训练好的声学模型对所述标准音素序列以及所述声学特征进行强制对齐操作,获得强制对齐结果;
提取模块,用于基于所述强制对齐结果通过发音评测算法提取用于表征发音质量的评分特征;
第二确定模块,用于根据当前的评测场景确定打分模型所采用的目标宽松度参数,其中,所述打分模型具备至少两套不同宽松度的候选宽松度参数;
评分模块,用于基于所述评分特征,通过采用所述目标宽松度参数的打分模型获得百分制打分结果。
9.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一项所述的语音评测打分方法。
10.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7中任一项所述的语音评测打分方法。
CN202110397655.7A 2021-04-14 2021-04-14 一种语音评测打分方法、装置、电子设备及存储介质 Pending CN112802456A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110397655.7A CN112802456A (zh) 2021-04-14 2021-04-14 一种语音评测打分方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110397655.7A CN112802456A (zh) 2021-04-14 2021-04-14 一种语音评测打分方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN112802456A true CN112802456A (zh) 2021-05-14

Family

ID=75817089

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110397655.7A Pending CN112802456A (zh) 2021-04-14 2021-04-14 一种语音评测打分方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112802456A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113782059A (zh) * 2021-09-24 2021-12-10 苏州声通信息科技有限公司 乐器音频评测方法及装置、非瞬时性存储介质
CN113823329A (zh) * 2021-07-30 2021-12-21 腾讯科技(深圳)有限公司 数据处理方法以及计算机设备
CN114999526A (zh) * 2022-04-29 2022-09-02 北京语言大学 一种利用发音属性和参考文本的发音偏误检测方法及装置

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1161485A (zh) * 1996-02-16 1997-10-08 雅马哈株式会社 卡拉ok评分设备
CN102122507A (zh) * 2010-01-08 2011-07-13 龚澍 一种运用人工神经网络进行前端处理的语音检错方法
JP5175325B2 (ja) * 2010-11-24 2013-04-03 日本電信電話株式会社 音声認識用wfst作成装置とそれを用いた音声認識装置と、それらの方法とプログラムと記憶媒体
CN106919579A (zh) * 2015-12-24 2017-07-04 腾讯科技(深圳)有限公司 一种信息处理方法及装置、设备
US20170294185A1 (en) * 2016-04-08 2017-10-12 Knuedge Incorporated Segmentation using prior distributions
JP6217304B2 (ja) * 2013-10-17 2017-10-25 ヤマハ株式会社 歌唱評価装置およびプログラム
CN108595568A (zh) * 2018-04-13 2018-09-28 重庆邮电大学 一种基于极大无关多元逻辑回归的文本情感分类方法
CN109036464A (zh) * 2018-09-17 2018-12-18 腾讯科技(深圳)有限公司 发音检错方法、装置、设备及存储介质
CN109256152A (zh) * 2018-11-08 2019-01-22 上海起作业信息科技有限公司 语音评分方法及装置、电子设备、存储介质
CN109686383A (zh) * 2017-10-18 2019-04-26 腾讯科技(深圳)有限公司 一种语音分析方法、装置及存储介质
CN109726300A (zh) * 2018-12-29 2019-05-07 北京金山安全软件有限公司 一种多媒体数据处理方法及装置
CN110085257A (zh) * 2019-03-29 2019-08-02 语文出版社有限公司 一种基于国学经典学习的韵律自动评价系统
CN110136721A (zh) * 2019-04-09 2019-08-16 北京大米科技有限公司 一种评分生成方法、装置、存储介质及电子设备
US20190267027A1 (en) * 2018-02-27 2019-08-29 The University Of Chicago Method and system for assessing reading quality
US10417554B2 (en) * 2014-05-22 2019-09-17 Lee J. Scheffler Methods and systems for neural and cognitive processing
CN110648690A (zh) * 2019-09-26 2020-01-03 广州三人行壹佰教育科技有限公司 一种音频评测方法及服务器
CN110797049A (zh) * 2019-10-17 2020-02-14 科大讯飞股份有限公司 一种语音评测方法及相关装置
CN112397056A (zh) * 2021-01-20 2021-02-23 北京世纪好未来教育科技有限公司 语音评测方法及计算机存储介质

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1161485A (zh) * 1996-02-16 1997-10-08 雅马哈株式会社 卡拉ok评分设备
CN102122507A (zh) * 2010-01-08 2011-07-13 龚澍 一种运用人工神经网络进行前端处理的语音检错方法
JP5175325B2 (ja) * 2010-11-24 2013-04-03 日本電信電話株式会社 音声認識用wfst作成装置とそれを用いた音声認識装置と、それらの方法とプログラムと記憶媒体
JP6217304B2 (ja) * 2013-10-17 2017-10-25 ヤマハ株式会社 歌唱評価装置およびプログラム
US10417554B2 (en) * 2014-05-22 2019-09-17 Lee J. Scheffler Methods and systems for neural and cognitive processing
CN106919579A (zh) * 2015-12-24 2017-07-04 腾讯科技(深圳)有限公司 一种信息处理方法及装置、设备
US20170294185A1 (en) * 2016-04-08 2017-10-12 Knuedge Incorporated Segmentation using prior distributions
CN109686383A (zh) * 2017-10-18 2019-04-26 腾讯科技(深圳)有限公司 一种语音分析方法、装置及存储介质
US20190267027A1 (en) * 2018-02-27 2019-08-29 The University Of Chicago Method and system for assessing reading quality
CN108595568A (zh) * 2018-04-13 2018-09-28 重庆邮电大学 一种基于极大无关多元逻辑回归的文本情感分类方法
CN109036464A (zh) * 2018-09-17 2018-12-18 腾讯科技(深圳)有限公司 发音检错方法、装置、设备及存储介质
CN109256152A (zh) * 2018-11-08 2019-01-22 上海起作业信息科技有限公司 语音评分方法及装置、电子设备、存储介质
CN109726300A (zh) * 2018-12-29 2019-05-07 北京金山安全软件有限公司 一种多媒体数据处理方法及装置
CN110085257A (zh) * 2019-03-29 2019-08-02 语文出版社有限公司 一种基于国学经典学习的韵律自动评价系统
CN110136721A (zh) * 2019-04-09 2019-08-16 北京大米科技有限公司 一种评分生成方法、装置、存储介质及电子设备
CN110648690A (zh) * 2019-09-26 2020-01-03 广州三人行壹佰教育科技有限公司 一种音频评测方法及服务器
CN110797049A (zh) * 2019-10-17 2020-02-14 科大讯飞股份有限公司 一种语音评测方法及相关装置
CN112397056A (zh) * 2021-01-20 2021-02-23 北京世纪好未来教育科技有限公司 语音评测方法及计算机存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MUHAMMAD RIZWAN ET AL.: "《Speaker Adaptation Using Speaker Similarity Score on DNN Features》", 《2015 IEEE 14TH INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND APPLICATIONS》 *
许苏魁等: "《自由表述口语语音评测后验概率估计改进方法》", 《中文信息学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113823329A (zh) * 2021-07-30 2021-12-21 腾讯科技(深圳)有限公司 数据处理方法以及计算机设备
CN113823329B (zh) * 2021-07-30 2024-07-09 腾讯科技(深圳)有限公司 数据处理方法以及计算机设备
CN113782059A (zh) * 2021-09-24 2021-12-10 苏州声通信息科技有限公司 乐器音频评测方法及装置、非瞬时性存储介质
CN113782059B (zh) * 2021-09-24 2024-03-22 苏州声通信息科技有限公司 乐器音频评测方法及装置、非瞬时性存储介质
CN114999526A (zh) * 2022-04-29 2022-09-02 北京语言大学 一种利用发音属性和参考文本的发音偏误检测方法及装置

Similar Documents

Publication Publication Date Title
Darabkh et al. An efficient speech recognition system for arm‐disabled students based on isolated words
Sinha et al. Assessment of pitch-adaptive front-end signal processing for children’s speech recognition
Deshwal et al. Feature extraction methods in language identification: a survey
CN112802456A (zh) 一种语音评测打分方法、装置、电子设备及存储介质
CN104081453A (zh) 用于声学变换的系统和方法
CN103559892A (zh) 口语评测方法及系统
CN103594087A (zh) 提高口语评测性能的方法及系统
CN110970036A (zh) 声纹识别方法及装置、计算机存储介质、电子设备
Ismail et al. Mfcc-vq approach for qalqalahtajweed rule checking
CN110047474A (zh) 一种英语音标发音智能训练系统及训练方法
CN110718210B (zh) 一种英文错误发音的识别方法、装置、介质和电子设备
Eringis et al. Improving speech recognition rate through analysis parameters
CN110176251A (zh) 一种声学数据自动标注方法及装置
Khanal et al. Mispronunciation detection and diagnosis for Mandarin accented English speech
US8768697B2 (en) Method for measuring speech characteristics
Slaney et al. Pitch-gesture modeling using subband autocorrelation change detection.
Jing et al. The speech evaluation method of English phoneme mobile learning system
CN112466335A (zh) 基于重音突现度的英语发音质量评价方法
Dalva Automatic speech recognition system for Turkish spoken language
Chen et al. Teager Mel and PLP fusion feature based speech emotion recognition
Zouhir et al. Speech Signals Parameterization Based on Auditory Filter Modeling
Mittal et al. Age approximation from speech using Gaussian mixture models
Dutta et al. A comparison of three spectral features for phone recognition in sub-optimal environments
Marković et al. Recognition of normal and whispered speech based on RASTA filtering and DTW algorithm
Mital Speech enhancement for automatic analysis of child-centered audio recordings

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination