CN112908361B - 一种基于小粒度口语发音评价系统 - Google Patents
一种基于小粒度口语发音评价系统 Download PDFInfo
- Publication number
- CN112908361B CN112908361B CN202110144632.5A CN202110144632A CN112908361B CN 112908361 B CN112908361 B CN 112908361B CN 202110144632 A CN202110144632 A CN 202110144632A CN 112908361 B CN112908361 B CN 112908361B
- Authority
- CN
- China
- Prior art keywords
- phoneme
- evaluation
- audio
- voice
- spoken
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 63
- 238000013210 evaluation model Methods 0.000 claims abstract description 13
- 239000007795 chemical reaction product Substances 0.000 claims abstract description 10
- 238000002372 labelling Methods 0.000 claims abstract description 4
- 230000011218 segmentation Effects 0.000 claims abstract description 4
- 238000005070 sampling Methods 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 9
- 230000007704 transition Effects 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 claims description 3
- 230000007175 bidirectional communication Effects 0.000 claims description 2
- 238000010008 shearing Methods 0.000 claims description 2
- 230000006854 communication Effects 0.000 abstract description 4
- 238000004891 communication Methods 0.000 abstract description 4
- 235000016496 Panda oleosa Nutrition 0.000 abstract description 2
- 240000000220 Panda oleosa Species 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 230000002195 synergetic effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/60—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明提供一种基于小粒度口语发音评价系统,包括前端产品和语音测评服务器,二者进行双向通信;所述前端产品搭载于用户的智能终端;所述语音测评服务器包括语音测评引擎和语音评测模型;所述语音测评引擎通过测评接口获取用户依据目标文本做出朗读音频,并通过后台配置系统获取目标文本的分词及音标标注结果,同时调用语音识别系统对口语朗读音频进行音素解码及音素对齐;所述语音评测模型最终根据所述音素解码结果及音素对齐结果给出发音评价结果。本发明主要利用语音识别系统获得音素级别的解码结果以及单词和音素级别的强制对齐结果,对用户的朗读语音支持从句子、单词、段落、假名、音素等多个级别进行测评。
Description
技术领域
本发明涉及语音识别及评价技术领域,具体而言,尤其涉及一种基于小粒度口语发音评价系统和方法。
背景技术
近几年来,随着人工智能技术的快速发展,越来越多的带有人工智能技术的产品出现在人们的日常生活中。如语音识别、语音合成和声纹识别等技术应用越来越广泛,而这些技术的大都会使用到音素对齐技术。
在语言教学领域,尤其是现在蓬勃发展的在线口语语音质量评价领域,由于无法在小发音单元的粒度上进行发音质量评价,导致评价系统的评价结果容易受到发音人的个人发音特点的影响,比如:如果发音人性别、年龄以及母语类型等。
现有的语音质量一般通过提取语音特征进行模式比对,从而获取发音评价结果,而如何能够在更小的粒度上获得更加精确的语音特征,进而提高系统评价的准确性,是一个亟待解决的问题。
发明内容
根据上述提出的现有系统缺乏基于小粒度发音单元的语音评价系统的技术问题,而提供一种基于小粒度口语发音评价系统和方法。本发明主要利用语音识别系统获得音素级别的解码结果以及单词和音素级别的强制对齐结果。对用户的朗读,支持从句子、单词、段落、假名、音素等多个级别进行测评。
本发明采用的技术手段如下:
一种基于小粒度口语发音评价系统,包括前端产品和语音测评服务器,二者进行双向通信;
所述前端产品搭载于用户的智能终端,一方面用于采集用户的口语朗读音频,另一方面用于向用户展示发音评价结果;
所述语音测评服务器用于接收和处理所述口语朗读音频,其主要包括语音测评引擎和语音评测模型;
所述语音测评引擎通过测评接口获取用户依据目标文本做出朗读音频,并通过后台配置系统获取目标文本的分词及音标标注结果,同时调用语音识别系统对口语朗读音频进行音素解码及音素对齐;
所述语音评测模型最终根据所述音素解码结果及音素对齐结果给出发音评价结果。
进一步地,所述语音评测模型包括音素准确度评价模块,所述音素准确度评价模块根据以下公式计算音素准确度得分:
cost_per_framealign=-log(P(f|qi))
其中,Si为音素发音准确度得分,NF(o)为口语朗读音频包含的语音帧数量,fis为起始帧号,fie为终止帧号,
P(f|qi)的含义是给定音素qi,在该帧发音为f的对数似然函数值,
进一步地,所述音素准确度评价模块根据以下公式将计算得到的音素准确度得分映射为[0,100]区间范围内的整数:
其中,(xi,yi)为预先定义好的一系列分数映射关系i=1,2,…,n,且y1=100,yn=0。
进一步地,所述语音评测模型还包括音素准确度优化模块,所述音素准确度优化模块根据以下步骤优化音素准确度得分:
获取教师针对朗读音频给出的主观评分;
将计算得到的音素准确度得分作为样本值、将教师给出的主观评分作为标签值,采用有监督回归问题的机器学习方案优化评分系统的参数。
进一步地,所述调用语音识别系统对口语朗读音频进行音素解码,包括:
获取发音词典;
将所述口语朗读音频、目标文本以及发音词典输入语音识别系统;
所述语音识别系统通过维特比算法将口语朗读音频识别为若干音素状态;
将每三个音素状态组合成一个音素,得到音素解码结果。
进一步地,所述调用语音识别系统对口语朗读音频进行音素对齐,包括:
获取发音词典;
将所述口语朗读音频、目标文本以及发音词典输入语音识别系统;
将所述目标文本与发音词典对照,生成与所述目标文本想对应的音素序列;
将所述音素序列中的每个音素分解为三个音素状态,从而构建目标语音数据的状态转移图;
通过维特比算法对所述状态转移图进行处理从而得到与所述目标文本对应的各个音素在音频文件中的起止位置。
进一步地,所述语音测评引擎还包括预处理模块,其用于在将口语朗读音频输入语音识别系统之前,对口语朗读音频进行预处理,包括:
按照设定的采样周期对所述朗读音频进行采样,从而生成声音采样数组;
由所述声音采样数组的起始端依次判断每一个采样的音强特征是否大于预设的采样最低阈值,若是则对该采样值之前的音频数据进行剪切处理;
同时由所述声音采样数组的末端依次向前判断每一个采样的音强特征是否大于预设的采样最低阈值,若是则对该采样值之后的音频数据进行剪切处理;
按帧对剪切处理后的声音采样数组进行特征提取,从而得到声音特征序列。
进一步地,所述语音识别系统为DNN-HMM混合语音识别系统。
较现有技术相比,本发明具有以下优点:
本发明通过网络接收由移动客户端采集用户根据给定的口语文本的朗读语音,对朗读语音进行基于音素的小粒度准确度评价,克服了评价结果容易受到发音人的个人发音特点的影响问题。本发明能够将评价结果通过网络反馈给所述移动客户端,并通过所述移动客户端对所述评价结果进行显示。
基于上述理由本发明可在语言学习等领域广泛推广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于小粒度口语发音评价系统结构示意图。
图2为本发明语音评测引擎功能流程图。
图3为本发明语音评测引擎进行语音识别的框架图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
如图1所示,本发明提供了一种基于小粒度口语发音评价系统,包括前端产品和语音测评服务器,二者进行双向通信。
所述前端产品搭载于用户的智能终端,一方面用于采集用户的口语朗读音频,另一方面用于向用户展示发音评价结果。
语音测评服务器用于接收和处理所述口语朗读音频,其主要包括语音测评引擎和语音评测模型。
语音测评引擎通过测评接口获取用户依据目标文本做出朗读音频,并通过后台配置系统获取目标文本的分词及音标标注结果,同时调用语音识别系统对口语朗读音频进行音素解码及音素对齐。
具体来说,所述调用语音识别系统对口语朗读音频进行音素解码,包括:
a.获取发音词典;
b.将所述口语朗读音频、目标文本以及发音词典输入语音识别系统;
c.所述语音识别系统通过维特比算法将口语朗读音频识别为若干音素状态;
d.将每三个音素状态组合成一个音素,得到音素解码结果。
音素状态是比音素更细致的语音单位,本实施例中将一个音素划分成3个状态。因为单音素建模没有考虑协同发音效应,也就是上下文音素会对当前的中心音素发音有影响,会产生协同变化,这与该音素的单独发音会有所不同(数据统计也就有所不同),为了考虑这个影响,所以需要使用三音素建模,使得模型描述更加精准。
进一步地,在进行语音识别的时候,语音的哪一部分对应的是哪个音素或者哪个词是未知的,这就需要一个方法能够自动切分音素和词。这里我们使用了维特比对齐算法,该算法适用于任意的基于HMM的语音识别系统。调用语音识别系统对口语朗读音频进行音素对齐,包括:
a.获取发音词典;
b.将所述口语朗读音频、目标文本以及发音词典输入语音识别系统;
c.将所述目标文本与发音词典对照,生成与所述目标文本想对应的音素序列;
d.将所述音素序列中的每个音素分解为三个音素状态,从而构建目标语音数据的状态转移图;
e.通过维特比算法对所述状态转移图进行处理从而得到与所述目标文本对应的各个音素在音频文件中的起止位置。
在一个示例性的实施方式中,要进行打分的文本序列为“またね”。这个文本序列包含两个词,“また”和“ね”。在发音词典中,标注了这两个词的发音分别为:“また:M A TA”和“ね:N E”。就可以得到对应的音素序列为“M A T A N E”。
基于这个音素序列,参考声学模型定义的所有状态集合,生成可能的音素状态转移图。
根据音素状态转移图,直接设定转移概率,调用维特比算法进行解码,得到文本对应的各个音素和词在音频中的起止时间。
作为本发明的优选实施方式,所述语音识别系统为DNN-HMM混合语音识别系统,其语音识别框架如图3所示。其中声学模型处的入箭头,表示声学模型是由大量音频训练得到的,训练的数据为音频经过特征提取步骤后得到的音频特征序列。语言模型处的入箭头,表示语言模型是由大量的文本数据训练得到的。声学模型和语言模型处的出箭头,表示解码器需要加载这两个模型才能工作。除了声学模型和语言模型之外,解码器还需要一个预先定义好的发音词典。当加载了这两个模型和词典之后,解码器就可以运行,用于执行语音识别任务了。
所述语音测评引擎还包括预处理模块,其用于在将口语朗读音频输入语音识别系统之前,对口语朗读音频进行预处理,包括:
a.按照设定的采样周期对所述朗读音频进行采样,从而生成声音采样数组;
b.由所述声音采样数组的起始端依次判断每一个采样的音强特征是否大于预设的采样最低阈值,若是则对该采样值之前的音频数据进行剪切处理;
c.同时由所述声音采样数组的末端依次向前判断每一个采样的音强特征是否大于预设的采样最低阈值,若是则对该采样值之后的音频数据进行剪切处理;
d.按帧对剪切处理后的声音采样数组进行特征提取,从而得到声音特征序列。
本实施例通过网络接收由移动客户端采集的,用户的朗读语音之后,对声音进行剪切,去除声音前后的静音段。这里使用的特征是音强。从声音采样数组的开头依次查看每一个采样,如果音强小于某个可配置的阈值,就认为用户没有说话,是可以被去除的静音段音频。如果音强大于该阈值,则认为用户开始说话了,停止查看音强。同样从声音采样数组的尾部往前一次查看每一个采样,如果音强小于阈值,去除该段音频。音强大于阈值时停止检查。该预处理步骤可以减少需要对齐的音频数据长度,减小计算复杂程度,提高对齐的精准度。除了上述提及的音频剪切之外,也可以包括其他可选的预处理步骤包括音量归一化、降噪等。音量归一化即将音频的音量等比例调整至某个预配置的最大音量区间。
而音频降噪处理可以应用多种公开算法。在实际使用中,降噪处理对评分效果的影响并不全是正面的,因此该功能被配置为可选功能。
语音评测模型最终根据所述音素解码结果及音素对齐结果给出发音评价结果。语音评测模型包括音素准确度评价模块,
具体来说,对一个音素qi,若其相对应的语音段为o,那么该段语音段的发音质量,和o被识别为qi的概率有关,我们将这个概率记作:P(qi|o)。如果o包含NF(o)个语音帧,起始帧号为fis,终止帧号为fie,我们有:
两边取对数及绝对值,并且除以语音段包含的帧数,得:
根据贝叶斯公式,有:
上式的分母中,对概率的求和,可以近似简化为对概率求最大值。这是一个常见的简化操作。并且,为了进一步简化算法,我们假设所有音素出现的机会都均等,即P(qi)=P(qj),则上式可简化为:
将上式代入前面的公式,得到:
上式中,log(P(f|qi))的含义是给定音素qi在该帧发音为f的对数似然函数值。这里我们将-log(P(f|qi))记作cost_per_framealign。我们可以使用维特比对齐算法得到一段语音中每帧的cost_per_framealign的值。可以看到,P(f|qi)的值越大,log(P(f|qi))越接近0,cost_per_framealign的值就越小。
同时,含义是对所有音素,在音频帧f的对数似然函数值中,最大的一个值。这个值,我们使用语音解码算法得到的最优路径上,每帧对应到解码结果的对数似然函数来近似,并将其相反数记作cost_per_frameasr。
那么上面的式子就可以写成以下形式:
上式的计算结果即可作为本实施例中用来评价一个音素的发音是否正确的参考公式。下面将其记作Si。这是一个大于0的正数,和0越接近,表示发音越准确。实验证明该得分能够有效识别错误发音,符合人的主观感受。
进一步地,所述音素准确度评价模块还用于根据以下公式将计算得到的音素准确度得分映射为[0,100]区间范围内的整数:
其中,(xi,yi)为预先定义好的一系列分数映射关系i=1,2,…,n,且y1=100,yn=0。
这个线性映射函数的各个参数可以根据各个音素的统计信息分别配置。其中各个音素的统计信息是指从大量母语朗读者朗读的音频语料分析获得的,各个音素被正确朗读时,计算得到的原始发音分(即前述的Si)的均值、方差、最大值、最小值、各百分位数等统计信息。
此外,如果得到一定数量的教师对给定语音给出的主观评分,可以使用参数优化算法,调整这些配置参数,使算法能最好地拟合人给出的百分制评分。此时可以将口语评分看作一个有监督的回归问题。可以采用任意一种有监督回归问题的机器学习解决方案,来优化评分系统的参数。例如,将对应的音频样本通过前述的特征提取、解码、对齐等过程,计算出所有音素的原始发音分,即前述的Si,作为样本的值。将教师给出的主观评分Yi作为对应的样本标签。将假设函数设为前述的y=f(x)。代价函数使用均方误差代价函数,即,
其中,m为样本的总数量,θ为参数向量。最后,使用梯度下降等优化方法迭代优化参数向量θ。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (7)
1.一种基于小粒度口语发音评价系统,其特征在于,包括前端产品和语音测评服务器,二者进行双向通信;
所述前端产品搭载于用户的智能终端,一方面用于采集用户的口语朗读音频,另一方面用于向用户展示发音评价结果;
所述语音测评服务器用于接收和处理所述口语朗读音频,其主要包括语音测评引擎和语音评测模型;
所述语音测评引擎通过测评接口获取用户依据目标文本做出朗读音频,并通过后台配置系统获取目标文本的分词及音标标注结果,同时调用语音识别系统对口语朗读音频进行音素解码及音素对齐;
所述语音评测模型最终根据所述音素解码结果及音素对齐结果给出发音评价结果;
所述语音评测模型包括音素准确度评价模块,所述音素准确度评价模块根据以下公式计算音素准确度得分:
cost_per_framealign=-log(P(f|qi))
其中,Si为音素发音准确度得分,NF(o)为口语朗读音频包含的语音帧数量,fis为起始帧号,fie为终止帧号,
P(f|qi)的含义是给定音素qi,在语音帧发音为f的对数似然函数值,
3.根据权利要求1所述的基于小粒度口语发音评价系统,其特征在于,所述语音评测模型还包括音素准确度优化模块,所述音素准确度优化模块根据以下步骤优化音素准确度得分:
获取教师针对朗读音频给出的主观评分;
将计算得到的音素准确度得分作为样本值、将教师给出的主观评分作为标签值,采用有监督回归问题的机器学习方案优化评分系统的参数。
4.根据权利要求1所述的基于小粒度口语发音评价系统,其特征在于,所述调用语音识别系统对口语朗读音频进行音素解码,包括:
获取发音词典;
将所述口语朗读音频、目标文本以及发音词典输入语音识别系统;
所述语音识别系统通过维特比算法将口语朗读音频识别为若干音素状态;
将每三个音素状态组合成一个音素,得到音素解码结果。
5.根据权利要求1所述的基于小粒度口语发音评价系统,其特征在于,所述调用语音识别系统对口语朗读音频进行音素对齐,包括:
获取发音词典;
将所述口语朗读音频、目标文本以及发音词典输入语音识别系统;
将所述目标文本与发音词典对照,生成与所述目标文本想对应的音素序列;
将所述音素序列中的每个音素分解为三个音素状态,从而构建目标语音数据的状态转移图;
通过维特比算法对所述状态转移图进行处理从而得到与所述目标文本对应的各个音素在音频文件中的起止位置。
6.根据权利要求4或5所述的基于小粒度口语发音评价系统,其特征在于,所述语音测评引擎还包括预处理模块,其用于在将口语朗读音频输入语音识别系统之前,对口语朗读音频进行预处理,包括:
按照设定的采样周期对所述朗读音频进行采样,从而生成声音采样数组;
由所述声音采样数组的起始端依次判断每一个采样的音强特征是否大于预设的采样最低阈值,若是则对采样值之前的音频数据进行剪切处理;
同时由所述声音采样数组的末端依次向前判断每一个采样的音强特征是否大于预设的采样最低阈值,若是则对采样值之后的音频数据进行剪切处理;
按帧对剪切处理后的声音采样数组进行特征提取,从而得到声音特征序列。
7.根据权利要求4或5所述的基于小粒度口语发音评价系统,其特征在于,所述语音识别系统为DNN-HMM混合语音识别系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110144632.5A CN112908361B (zh) | 2021-02-02 | 2021-02-02 | 一种基于小粒度口语发音评价系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110144632.5A CN112908361B (zh) | 2021-02-02 | 2021-02-02 | 一种基于小粒度口语发音评价系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112908361A CN112908361A (zh) | 2021-06-04 |
CN112908361B true CN112908361B (zh) | 2022-12-16 |
Family
ID=76121542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110144632.5A Active CN112908361B (zh) | 2021-02-02 | 2021-02-02 | 一种基于小粒度口语发音评价系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112908361B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114648994A (zh) * | 2022-02-23 | 2022-06-21 | 厦门快商通科技股份有限公司 | 一种声纹鉴定比对推荐方法、装置、电子设备及存储介质 |
CN116153294B (zh) * | 2023-04-14 | 2023-08-08 | 京东科技信息技术有限公司 | 语音识别方法、装置、系统、设备及介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4322785B2 (ja) * | 2004-11-24 | 2009-09-02 | 株式会社東芝 | 音声認識装置、音声認識方法および音声認識プログラム |
US9672811B2 (en) * | 2012-11-29 | 2017-06-06 | Sony Interactive Entertainment Inc. | Combining auditory attention cues with phoneme posterior scores for phone/vowel/syllable boundary detection |
CN103985391A (zh) * | 2014-04-16 | 2014-08-13 | 柳超 | 无需标准读音的音素级的低功耗口语评价及缺陷诊断方法 |
CN111402895B (zh) * | 2020-06-08 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 语音处理、语音评测方法、装置、计算机设备和存储介质 |
CN111816210B (zh) * | 2020-06-23 | 2022-08-19 | 华为技术有限公司 | 一种语音评分的方法及装置 |
CN111883176B (zh) * | 2020-07-02 | 2022-06-21 | 浙江大学绍兴微电子研究中心 | 端到端的智能语音朗读评测方法 |
-
2021
- 2021-02-02 CN CN202110144632.5A patent/CN112908361B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112908361A (zh) | 2021-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109545243B (zh) | 发音质量评价方法、装置、电子设备及存储介质 | |
EP4053835A1 (en) | Speech recognition method and apparatus, and device and storage medium | |
US10319250B2 (en) | Pronunciation guided by automatic speech recognition | |
CN107221318B (zh) | 英语口语发音评分方法和系统 | |
O’Shaughnessy | Automatic speech recognition: History, methods and challenges | |
US11810471B2 (en) | Computer implemented method and apparatus for recognition of speech patterns and feedback | |
EP1557822A1 (en) | Automatic speech recognition adaptation using user corrections | |
EP1647970A1 (en) | Hidden conditional random field models for phonetic classification and speech recognition | |
CN111862954B (zh) | 一种语音识别模型的获取方法及装置 | |
CN111402862B (zh) | 语音识别方法、装置、存储介质及设备 | |
US20090024390A1 (en) | Multi-Class Constrained Maximum Likelihood Linear Regression | |
CN112908361B (zh) | 一种基于小粒度口语发音评价系统 | |
Pellegrino et al. | Automatic language identification: an alternative approach to phonetic modelling | |
CN112614510B (zh) | 一种音频质量评估方法及装置 | |
CN112086108B (zh) | 认知障碍预测方法及电子设备、存储装置 | |
Petkov et al. | Maximizing phoneme recognition accuracy for enhanced speech intelligibility in noise | |
CN112397056A (zh) | 语音评测方法及计算机存储介质 | |
CN112967711B (zh) | 一种针对小语种口语发音评价方法、系统及存储介质 | |
CN112908360B (zh) | 一种在线口语发音评价方法、装置及存储介质 | |
CN114627896A (zh) | 语音评测方法、装置、设备及存储介质 | |
CN113053414B (zh) | 一种发音评测方法及装置 | |
Mohanty et al. | Speaker identification using SVM during Oriya speech recognition | |
JPH1097285A (ja) | 音声認識装置 | |
Zhang et al. | Towards intoxicated speech recognition | |
Shukla | Keywords Extraction and Sentiment Analysis using Automatic Speech Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |