CN111402924B - 一种口语测评方法、设备及计算机可读存储介质 - Google Patents
一种口语测评方法、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN111402924B CN111402924B CN202010127185.8A CN202010127185A CN111402924B CN 111402924 B CN111402924 B CN 111402924B CN 202010127185 A CN202010127185 A CN 202010127185A CN 111402924 B CN111402924 B CN 111402924B
- Authority
- CN
- China
- Prior art keywords
- character
- data
- prediction result
- reference text
- frame data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 38
- 238000000034 method Methods 0.000 claims abstract description 25
- 239000003086 colorant Substances 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种口语测评方法、设备及计算机可读存储介质,首先获取针对参考文本数据的语音数据;接着对所述语音数据进行切帧处理,得到若干帧数据;之后针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果;再根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符集发音准确度,得到统计结果;最后展示所述统计结果。
Description
技术领域
本发明涉及数据处理技术,尤其涉及一种口语测评方法、设备及计算机可读存储介质。
背景技术
当前的英语口训软件中,主要提供单词准确度、语句流畅度、语速等粗粒度的测评指标,缺少字符级的发音准确度。然而,单词和语句的发音准确度恰恰依赖于字符的发音准确度。因此,这些粗粒度的测评指标很难为使用者提供指导性建议。
发明内容
本发明实施例为了解决粗粒度的测评方式所存在的问题,创造性地提供了一种口语测评方法、设备及计算机可读存储介质。
根据本发明第一方面,提供了一种口语测评方法,该方法包括:获取针对参考文本数据的语音数据;对所述语音数据进行切帧处理,得到若干帧数据;针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果;根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符集发音准确度,得到统计结果;展示所述统计结果。
根据本发明一实施方式,所述针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果,包括:针对所得到的若干帧数据中的每个帧数据进行特征提取;将提取的所有帧数据的特征通过语音转文本模型进行预测,获得对应的字符预测结果。
根据本发明一实施方式,根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符级发音准确度,包括:根据所述字符预测结果中的分隔符,将所述字符预测结果与所述参考文本数据进行字符对齐;利用所述字符预测结果统计对齐的每一个字符的字符级发音准确度。
根据本发明一实施方式,所述展示所述统计结果,包括:使用平滑曲线展示所述统计结果;其中,横坐标为按字符先后顺序排列的参考文本数据,纵坐标为所述语音数据相对于参考文本数据的字符级发音准确度。
根据本发明一实施方式,所述展示所述统计结果,还包括:根据字符预测结果,采用不同颜色来区分每个帧数据被预测为对应字符的置信度大小;或,采用不同颜色来区分每一个字符的字符级发音准确度对应等级。
根据本发明第二方面,又提供了一种口语测评设备,该设备包括:获取模块,用于获取针对参考文本数据的语音数据;切帧处理模块,用于对所述语音数据进行切帧处理,得到若干帧数据;预测模块,用于针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果;统计模块,用于根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符级发音准确度,得到统计结果;展示模块,用于展示所述统计结果。
根据本发明一实施方式,所述预测模块,具体用于针对所得到的若干帧数据中的每个帧数据进行特征提取;将提取的所有帧数据的特征通过语音转文本模型进行预测,获得对应的字符预测结果。
根据本发明一实施方式,所述统计模块,具体用于根据所述字符预测结果中的分隔符,将所述字符预测结果与所述参考文本数据进行字符对齐;利用所述字符预测结果统计对齐的每一个字符的字符级发音准确度。
根据本发明一实施方式,所述展示模块,具体用于使用平滑曲线展示所述统计结果;其中,横坐标为按字符先后顺序排列的参考文本数据,纵坐标为所述语音数据相对于参考文本数据的字符级发音准确度。
根据本发明一实施方式,所述展示模块,还用于根据所述字符预测结果,采用不同颜色来区分每个帧数据被预测为对应字符的置信度大小;或采用不同颜色来区分每一个字符的字符级发音准确度对应等级。
根据本发明第三方面,又提供一种计算机可读存储介质,所述存储介质包括一组计算机可执行指令,当所述指令被执行时用于执行上述任一口语测评方法。
本发明实施例口语测评方法、设备及计算机可读存储介质,首先获取针对参考文本数据的语音数据;接着对所述语音数据进行切帧处理,得到若干帧数据;之后针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果;再根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符集发音准确度,得到统计结果;最后展示所述统计结果。如此,本发明通过针对单个字符进行发音准确度的评测及其评测结果的展示,能够更粗细、准确地表征用户的英语口训发音问题,从而为用户提供改善口语发音的针对性建议。
需要理解的是,本发明的教导并不需要实现上面所述的全部有益效果,而是特定的技术方案可以实现特定的技术效果,并且本发明的其他实施方式还能够实现上面未提到的有益效果。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,其中:
在附图中,相同或对应的标号表示相同或对应的部分。
图1示出了相关技术中以单词准确度为测评指标的测评效果图;
图2示出了本发明实施例口语测评方法的实现流程示意图一;
图3示出了本发明实施例口语测评方法的实现流程示意图二;
图4示出了本发明一应用实例口语测评方法的具体实现流程示意图;
图5示出了本发明实施例口语测评方法的实现流程示意图三;
图6示出了本发明一应用实例中统计结果的展示效果图一;
图7示出了本发明一应用实例中统计结果的展示效果图二;
图8示出了本发明一应用实例中统计结果的展示效果图三;
图9示出了本发明实施例口语测评设备的组成结构示意图。
具体实施方式
下面将参考若干示例性实施方式来描述本发明的原理和精神。应当理解,给出这些实施方式仅仅是为使本领域技术人员能够更好地理解进而实现本发明,而并非以任何方式限制本发明的范围。相反,提供这些实施方式是为使本发明更加透彻和完整,并能够将本发明的范围完整地传达给本领域的技术人员。
下面结合附图和具体实施例对本发明的技术方案进一步详细阐述。
图1示出了相关技术中以单词准确度为测评指标的测评效果图;图2示出了本发明实施例口语测评方法的实现流程示意图一。
如图1所示,用户将“housework”中的“ou”读成了同时把“or”读成了/>使得现有的测评方案将单词“Housework”的发音准确度评判为“中”,并以黄色表现出来;而在单词“waste”中,用户将“a”读成了/>同时把不发音的“e”读成了/>致使现有的测评方案将该单词的发音准确度评判为“差”,并以红色表现出来。这种关键字符的发音错误直接严重影响了整个单词的发音准确度评分,且用户无法得知有发音问题的字符。
基于此,本发明实施例提供了一种口语测评方法,如图2所示,该口语测评方法包括:操作101,获取针对参考文本数据的语音数据;操作102,对所述语音数据进行切帧处理,得到若干帧数据;操作103,针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果;操作104,根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符集发音准确度,得到统计结果;操作105,展示所述统计结果。
在操作101,可以通过开启设备的语音录音功能实时采集针对参考文本数据的语音数据;也可以预先通过设备的语音录音功能录制针对参考文本数据的语音数据,并加以存储,待需要进行口语测评时从设备中直接获取已存储的针对参考文本数据的语音数据。举例来说,以英语口语测评为例,可以针对如“We are family”或“Housework is a wasteof their time”的参考文本数据进行对应语音数据的采集。
在操作102,可以按照固定帧长(如0.02s为一帧)来对获取的语音数据进行切帧处理,得到若干帧数据。
这里,在本发明实施例实现之前,可以预先针对参考文本数据采集大量的英语口训数据,用于训练语音转文本模型。故在操作103,即可利用训练得到的语音转文本模型来对所得到的若干帧数据中的每个帧数据进行预测,从而获得对应的字符预测结果。其中字符预测结果,可以记为(ci,pi);该(ci,pi)表示第i个帧数据被预测为字符ci的概率pi,i的取值为正整数。
在操作104~105,首先根据字符预测结果中的分隔符,将所述字符预测结果与参考文本数据进行字符对齐,再利用字符预测结果统计对齐的每一个字符的字符级发音准确度,从而得到统计结果,并通过显示界面直观展示该统计结果。
如此,本发明通过针对单个字符进行发音准确度的评测及其评测结果的展示,能够更粗细、准确地表征用户的英语口训发音问题,从而为用户提供改善口语发音的针对性建议。
图3示出了本发明实施例口语测评方法的实现流程示意图二;图4示出了本发明一应用实例口语测评方法的具体实现流程示意图。
参考图3,本发明实施例口语测评方法包括:操作201,获取针对参考文本数据的语音数据;操作202,对语音数据进行切帧处理,得到若干帧数据;操作203,针对所得到的若干帧数据中的每个帧数据进行特征提取;操作204,将提取的所有帧数据的特征通过语音转文本模型进行预测,获得对应的字符预测结果;操作205,根据字符预测结果中的分隔符,将字符预测结果与参考文本数据进行字符对齐;操作206,利用字符预测结果统计对齐的每一个字符的字符级发音准确度,得到统计结果;操作207,展示统计结果。
其中,操作201,操作202和操作207的具体实现过程与图2所示实施例中操作101,操作102和操作105的具体实现过程相类似,这里不再赘述。
参考图4,在操作203~204,可以利用预先训练得到的语音转文本模型来对所得到的若干帧数据中的每个帧数据进行预测。具体地,先针对所得到的k帧数据中的每个帧数据进行特征提取,再将提取的所有帧数据的特征通过语音转文本模型进行预测,获得对应的字符预测结果,记为(ci,pi),其中(ci,pi)表示第i个帧数据被预测为字符ci的概率pi,i的取值为小于等于k的正整数。该字符预测结果按帧数据先后顺序排列为(c1,p1),(c2,p2),(c3,p3),…,(ci,pi),…,(ck-1,pk-1),(ck,pk)。
进一步地,参考图4,在操作205~206,首先根据字符预测结果中的分隔符,将字符预测结果与参考文本数据进行字符对齐,如先将字符预测结果中的c1,c2和c3与参考文本数据(即真实文本)中的t1对齐,接着据字符预测结果中的分隔符依次对齐,直到最后将字符预测结果中的ck-1和ck与参考文本数据(即真实文本)中的tn对齐;之后,利用字符预测结果统计对齐的每一个字符的字符级发音准确度,并将同一字符的发音准确度数据按照时间先后顺序存储起来。
图5示出了本发明实施例口语测评方法的实现流程示意图三;图6示出了本发明一应用实例中统计结果的展示效果图一;图7示出了本发明一应用实例中统计结果的展示效果图二;图8示出了本发明一应用实例中统计结果的展示效果图三。
参考图5,本发明实施例口语测评方法包括:操作301,获取针对参考文本数据的语音数据;操作302,对所述语音数据进行切帧处理,得到若干帧数据;操作303,针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果;操作304,根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符集发音准确度,得到统计结果;操作305,使用平滑曲线展示所述统计结果。
其中,操作301~304的具体实现过程与图2所示实施例中操作101~104的具体实现过程相类似,这里不再赘述。
在操作305,可以在显示界面使用平滑曲线展示该统计结果。其中,横坐标为按字符先后顺序排列的参考文本数据,纵坐标为所述语音数据相对于参考文本数据的字符级发音准确度。
在一应用实例中,如图6所示,横坐标为按字符的先后顺序排列的参考文本数据(即真实数据),纵坐标为字符级发音准确度。位于下方的虚线表示字符级发音准确度的最低评分,即为0.0分,位于上方的虚线表示字符级发音准确度的最高评分,即为1.0分。实线型的平滑曲线表示语音数据相对于参考文本数据的字符级发音准确度。
根据本发明一可能实施方式,在操作305,还可以根据字符预测结果,采用不同颜色来区分每个帧数据被预测为对应字符的置信度大小。
在一应用实例中,如图7所示,每个帧数据被预测为对应字符的置信度可以通过不同的颜色来表征,如蓝色表示较大值,橙色表示较小值。其中置信度的取值为0.0~1.0。
根据本发明又一可能实施方式,在操作305,也可以采用不同颜色来区分每一个字符的字符级发音准确度对应等级。
在一应用实例中,如图8所示,针对每个字符进行发音准确度的评测,并展现出来,如用红黄绿色分别表示字符发音准确度等级“差”、“中”、“优”。
仔细对比图1和图8不能发现,本发明实施例口语测评方法将图1所示的问题得到了充分改善,在单个单词中,只有发音不准的字符被评测为“中”或“差”,而其他发音准确的字符被评判为“优”。这种测评结果能够更粗细、准确地表征用户的英语口训发音问题,并为用户提供改善口语发音的针对性建议。
同理,基于上文所述口语测评方法,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有程序,当所述程序被处理器执行时,使得所述处理器至少执行如下所述的操作步骤:操作101,获取针对参考文本数据的语音数据;操作102,对所述语音数据进行切帧处理,得到若干帧数据;操作103,针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果;操作104,根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符集发音准确度,得到统计结果;操作105,展示所述统计结果。
进一步地,基于如上文所述口语测评方法,本发明实施例还提供一种口语测评设备,如图9所示,该设备90包括:获取模块901,用于获取针对参考文本数据的语音数据;切帧处理模块902,用于对所述语音数据进行切帧处理,得到若干帧数据;预测模块903,用于针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果;统计模块904,用于根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符级发音准确度,得到统计结果;展示模块905,用于展示所述统计结果。
根据本发明一实施方式,预测模块903,具体用于针对所得到的若干帧数据中的每个帧数据进行特征提取;将提取的所有帧数据的特征通过语音转文本模型进行预测,获得对应的字符预测结果。
根据本发明一实施方式,统计模块904,具体用于根据所述字符预测结果中的分隔符,将所述字符预测结果与所述参考文本数据进行字符对齐;利用所述字符预测结果统计对齐的每一个字符的字符级发音准确度。
根据本发明一实施方式,展示模块905,具体用于使用平滑曲线展示所述统计结果;其中,横坐标为按字符先后顺序排列的参考文本数据,纵坐标为所述语音数据相对于参考文本数据的字符级发音准确度。
根据本发明一实施方式,展示模块905,还用于根据所述字符预测结果,采用不同颜色来区分每个帧数据被预测为对应字符的置信度大小;或采用不同颜色来区分每一个字符的字符级发音准确度对应等级。
这里需要指出的是:以上对针对口语测评设备实施例的描述,与前述图2至8所示的方法实施例的描述是类似的,具有同前述图2至8所示的方法实施例相似的有益效果,因此不做赘述。对于本发明口语测评设备实施例中未披露的技术细节,请参照本发明前述图2至8所示的方法实施例的描述而理解,为节约篇幅,因此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(Read Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (8)
1.一种口语测评方法,其特征在于,所述方法包括:
获取针对参考文本数据的语音数据;
对所述语音数据进行切帧处理,得到若干帧数据;
针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果;
根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符级发音准确度,得到统计结果;
展示所述统计结果;
其中,所述根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符级发音准确度,包括:根据所述字符预测结果中的分隔符,将所述字符预测结果与所述参考文本数据进行字符对齐;利用所述字符预测结果统计对齐的每一个字符的字符级发音准确度;
其中,所述参考文本数据的字符与所述字符预测结果中的一个或者若干个预测字符对齐。
2.根据权利要求1所述的方法,其特征在于,所述针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果,包括:
针对所得到的若干帧数据中的每个帧数据进行特征提取;
将提取的所有帧数据的特征通过语音转文本模型进行预测,获得对应的字符预测结果。
3.根据权利要求1至2任一项所述的方法,其特征在于,所述展示所述统计结果,包括:
使用平滑曲线展示所述统计结果;其中,横坐标为按字符先后顺序排列的参考文本数据,纵坐标为所述语音数据相对于参考文本数据的字符级发音准确度。
4.根据权利要求3所述的方法,其特征在于,所述展示所述统计结果,还包括:
根据所述字符预测结果,采用不同颜色来区分每个帧数据被预测为对应字符的置信度大小;
或,采用不同颜色来区分每一个字符的字符级发音准确度对应等级。
5.一种口语测评设备,其特征在于,所述设备包括:
获取模块,用于获取针对参考文本数据的语音数据;
切帧处理模块,用于对所述语音数据进行切帧处理,得到若干帧数据;
预测模块,用于针对所得到的若干帧数据中的每个帧数据进行预测,获得对应的字符预测结果;
统计模块,用于根据所述字符预测结果统计所述语音数据相对于参考文本数据的字符级发音准确度,得到统计结果;
展示模块,用于展示所述统计结果;
其中,所述统计模块,具体用于根据所述字符预测结果中的分隔符,将所述字符预测结果与所述参考文本数据进行字符对齐;利用所述字符预测结果统计对齐的每一个字符的字符级发音准确度;
其中,所述参考文本数据的字符与所述字符预测结果中的一个或者若干个预测字符对齐。
6.根据权利要求5所述的设备,其特征在于,
所述预测模块,具体用于针对所得到的若干帧数据中的每个帧数据进行特征提取;将提取的所有帧数据的特征通过语音转文本模型进行预测,获得对应的字符预测结果。
7.根据权利要求5至6任一项所述的设备,其特征在于,
所述展示模块,具体用于使用平滑曲线展示所述统计结果;其中,横坐标为按字符先后顺序排列的参考文本数据,纵坐标为所述语音数据相对于参考文本数据的字符级发音准确度。
8.一种计算机可读存储介质,其特征在于,所述存储介质包括一组计算机可执行指令,当所述指令被执行时用于执行权利要求1至4任一项所述的口语测评方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010127185.8A CN111402924B (zh) | 2020-02-28 | 2020-02-28 | 一种口语测评方法、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010127185.8A CN111402924B (zh) | 2020-02-28 | 2020-02-28 | 一种口语测评方法、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111402924A CN111402924A (zh) | 2020-07-10 |
CN111402924B true CN111402924B (zh) | 2024-04-19 |
Family
ID=71430384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010127185.8A Active CN111402924B (zh) | 2020-02-28 | 2020-02-28 | 一种口语测评方法、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111402924B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112562731B (zh) * | 2021-02-24 | 2021-07-06 | 北京读我网络技术有限公司 | 一种口语发音评测方法、装置、电子设备及存储介质 |
CN113571064B (zh) * | 2021-07-07 | 2024-01-30 | 肇庆小鹏新能源投资有限公司 | 自然语言理解方法及装置、交通工具及介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015011348A (ja) * | 2013-06-26 | 2015-01-19 | 韓國電子通信研究院Electronics and Telecommunications Research Institute | 音声認識を用いた外国語スピーキング能力の訓練及び評価方法並びにその装置 |
CN109272992A (zh) * | 2018-11-27 | 2019-01-25 | 北京粉笔未来科技有限公司 | 一种口语测评方法、装置及一种生成口语测评模型的装置 |
CN109545244A (zh) * | 2019-01-29 | 2019-03-29 | 北京猎户星空科技有限公司 | 语音评测方法、装置、电子设备及存储介质 |
CN109545243A (zh) * | 2019-01-23 | 2019-03-29 | 北京猎户星空科技有限公司 | 发音质量评价方法、装置、电子设备及存储介质 |
CN109584906A (zh) * | 2019-01-31 | 2019-04-05 | 成都良师益友科技有限公司 | 口语发音评测方法、装置、设备及存储设备 |
CN109686383A (zh) * | 2017-10-18 | 2019-04-26 | 腾讯科技(深圳)有限公司 | 一种语音分析方法、装置及存储介质 |
CN110148413A (zh) * | 2019-05-21 | 2019-08-20 | 科大讯飞股份有限公司 | 语音评测方法及相关装置 |
CN110782921A (zh) * | 2019-09-19 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 语音测评方法和装置、存储介质及电子装置 |
-
2020
- 2020-02-28 CN CN202010127185.8A patent/CN111402924B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015011348A (ja) * | 2013-06-26 | 2015-01-19 | 韓國電子通信研究院Electronics and Telecommunications Research Institute | 音声認識を用いた外国語スピーキング能力の訓練及び評価方法並びにその装置 |
CN109686383A (zh) * | 2017-10-18 | 2019-04-26 | 腾讯科技(深圳)有限公司 | 一种语音分析方法、装置及存储介质 |
CN109272992A (zh) * | 2018-11-27 | 2019-01-25 | 北京粉笔未来科技有限公司 | 一种口语测评方法、装置及一种生成口语测评模型的装置 |
CN109545243A (zh) * | 2019-01-23 | 2019-03-29 | 北京猎户星空科技有限公司 | 发音质量评价方法、装置、电子设备及存储介质 |
CN109545244A (zh) * | 2019-01-29 | 2019-03-29 | 北京猎户星空科技有限公司 | 语音评测方法、装置、电子设备及存储介质 |
CN109584906A (zh) * | 2019-01-31 | 2019-04-05 | 成都良师益友科技有限公司 | 口语发音评测方法、装置、设备及存储设备 |
CN110148413A (zh) * | 2019-05-21 | 2019-08-20 | 科大讯飞股份有限公司 | 语音评测方法及相关装置 |
CN110782921A (zh) * | 2019-09-19 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 语音测评方法和装置、存储介质及电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111402924A (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100699663B1 (ko) | 음성 인식 모델링을 사용하는 자동 언어 평가 시스템 및 방법 | |
US10665122B1 (en) | Application of semantic vectors in automated scoring of examination responses | |
US9679256B2 (en) | Automated assessment of examination scripts | |
CN106940788B (zh) | 智能评分方法及装置、计算机设备及计算机可读介质 | |
KR101498331B1 (ko) | 텍스트 세그먼트를 가진 문서로부터 용어를 추출하기 위한 시스템 | |
CN105488142B (zh) | 成绩信息录入方法及系统 | |
CN111079412A (zh) | 文本纠错方法及装置 | |
US20090171661A1 (en) | Method for assessing pronunciation abilities | |
CN113132368B (zh) | 聊天数据的审核方法、装置及计算机设备 | |
CN111027323A (zh) | 一种基于主题模型和语义分析的实体指称项识别方法 | |
CN111402924B (zh) | 一种口语测评方法、设备及计算机可读存储介质 | |
CN108090099B (zh) | 一种文本处理方法及装置 | |
CN112183117B (zh) | 一种翻译评价的方法、装置、存储介质及电子设备 | |
KR101060973B1 (ko) | 에세이에서 과도하게 반복되는 단어 사용의 자동 평가 | |
CN111666761A (zh) | 细粒度情感分析模型训练方法及装置 | |
CN112417850A (zh) | 音频标注的检错方法和装置 | |
CN112699671B (zh) | 一种语言标注方法、装置、计算机设备和存储介质 | |
CN110852071A (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN114299930A (zh) | 端到端语音识别模型处理方法、语音识别方法及相关装置 | |
US7613601B2 (en) | Method for predicting negative example, system for detecting incorrect wording using negative example prediction | |
CN116342082A (zh) | 基于知识图谱的岗位胜任力判断方法、装置、介质及设备 | |
CN112349290B (zh) | 一种基于三元组的语音识别准确率计算方法 | |
CN115511672A (zh) | 一种评述儿童口算能力的方法 | |
CN114416977A (zh) | 文本难度分级评估方法及装置、设备和存储介质 | |
CN112071304B (zh) | 一种语意分析方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |