CN108122561A - 一种基于电子设备的口语语音测评方法及电子设备 - Google Patents
一种基于电子设备的口语语音测评方法及电子设备 Download PDFInfo
- Publication number
- CN108122561A CN108122561A CN201711373941.XA CN201711373941A CN108122561A CN 108122561 A CN108122561 A CN 108122561A CN 201711373941 A CN201711373941 A CN 201711373941A CN 108122561 A CN108122561 A CN 108122561A
- Authority
- CN
- China
- Prior art keywords
- appraisal
- test
- spoken voice
- target
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012360 testing method Methods 0.000 claims abstract description 424
- 230000008451 emotion Effects 0.000 claims description 93
- 238000001228 spectrum Methods 0.000 claims description 36
- 230000004927 fusion Effects 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 19
- 238000003860 storage Methods 0.000 claims description 10
- 230000003595 spectral effect Effects 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 230000005611 electricity Effects 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000001629 suppression Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 244000078534 Vaccinium myrtillus Species 0.000 description 2
- 230000001154 acute effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000036632 reaction speed Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 244000283207 Indigofera tinctoria Species 0.000 description 1
- 235000017848 Rubus fruticosus Nutrition 0.000 description 1
- 235000003095 Vaccinium corymbosum Nutrition 0.000 description 1
- 235000017537 Vaccinium myrtillus Nutrition 0.000 description 1
- 235000021029 blackberry Nutrition 0.000 description 1
- 235000021014 blueberries Nutrition 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000002630 speech therapy Methods 0.000 description 1
- 230000001256 tonic effect Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Quality & Reliability (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明实施例涉及教育类电子产品领域,公开了一种基于电子设备的口语语音测评方法及电子设备,该方法包括:通过电子设备录制输入的初始口语语音,对初始口语语音进行去噪处理,以获得目标口语语音;采用预设的多个单元测评规则分别对目标口语语音进行口语测评,获得多个单元测评结果,一个单元测评结果对应一个单元测评规则;以多个单元测评结果为依据,获得目标口语语音的总测评结果;获取每一个单元测评结果对应的单元学习建议,并将单元测评结果与单元学习建议进行关联输出显示,以及输出显示总测评结果;实施本发明实施例,细化口语测评规则,加强用户口语训练的目的性,提高学习效率。
Description
技术领域
本发明涉及教育类电子产品领域,具体涉及一种基于电子设备的口语语音测评方法及电子设备。
背景技术
随着社会对英语重视程度的提升和线上教育的不断普及,线上英语学习越来越受到人们的喜爱和关注。市面上很多在线英语学习类产品不仅支持英语学习,也提供了多种互动、测评等学习模式。其中对于测评,在线英语学习类产品都提供有自己的测评方式,这些测评方式相互之间略有不同,并且有些测评方式较为粗略有些测评方式较为精细,从而导致了测评结果也千差万别,如果测评结果存在较大误差,导致学生无法明确自己的口语发音情况,失去了衡量口语发音情况的意义,还会影响到学生进一步完善自己的口语发音,影响英语学习效果。
发明内容
本发明实施例公开了一种基于电子设备的口语语音测评方法及电子设备,用于口语语音测评,提供针对性的口语提升方向和提升方法。
本发明第一方面公开了一种基于电子设备的口语语音测评方法,可包括:
通过电子设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音;
采用预设的多个单元测评规则分别对所述目标口语语音进行口语测评,获得多个单元测评结果,一个所述单元测评结果对应一个所述单元测评规则;
以所述多个单元测评结果为依据,获得所述目标口语语音的总测评结果;
获取每一个所述单元测评结果对应的单元学习建议,并将所述单元测评结果与所述单元学习建议进行关联输出显示,以及输出显示所述总测评结果。
作为一种可选的实施方式,在本发明第一方面中,所述多个单元测评规则包括流利度测评规则、准确度测评规则、响度测评规则、情感匹配度测评规则和完整度测评规则;所述多个单元测评结果包括流利度测评分数、准确度测评分数、响度测评分数、情感匹配度测评分数和完整度测评分数,所述采用预设的多个单元测评规则分别对所述目标口语语音进行口语测评,获得多个单元测评结果,包括:
采用所述流利度测评规则对所述目标口语语音进行口语测评,获得所述流利度测评分数;以及,采用所述准确度测评规则对所述目标口语语音进行口语测评,以获得所述准确度测评分数;以及,采用所述响度测评规则对所述目标口语语音进行口语测评,以获得所述响度测评分数;以及,采用所述情感匹配度测评规则对所述目标口语语音进行口语测评,以获得所述情感匹配度测评分数;以及,采用所述完整度测评规则对所述目标口语语音进行口语测评,以获得所述完整度测评分数。
作为一种可选的实施方式,在本发明第一方面中,所述采用所述流利度测评规则对所述目标口语语音进行口语测评,获得所述流利度测评分数,包括:
获取所述目标口语语音中的产生发音时长、所述目标口语语音中每个单词的录音时长、所述目标口语语音的总录音时长和所述目标口语语音中相邻两个单词之间的停顿时长,以获得所述流利度测评分数;
所述采用所述准确度测评规则对所述目标口语语音进行口语测评,以获得所述准确度测评分数,包括:
比较所述目标口语语音与预设标准口语语音,以获得所述目标口语语音在准确度和清晰度上的分数,结合在准确度和清晰度上的分数获得所述准确度测评分数;
所述采用所述响度测评规则对所述目标口语语音进行口语测评,以获得所述响度测评分数,包括:
获取所述目标口语语音的读音分贝大小,以所述读音分贝大小为依据,获得所述响度测评分数;
所述采用所述情感匹配度测评规则对所述目标口语语音进行口语测评,以获得所述情感匹配度测评分数,包括:
根据所述目标口语语音的语境识别用户拼读所述目标口语语音时的目标感情,比较所述目标感情与所述目标口语语音实际感情的匹配度,根据所述匹配度获得所述情感匹配度测评分数;
所述采用所述完整度测评规则对所述目标口语语音进行口语测评,以获得所述完整度测评分数,包括:
检测用户拼读所述目标口语语音的发音内容与所述目标口语语音内容的标准发音内容进行比较,以获得所述完整度测评分数。
作为一种可选的实施方式,在本发明第一方面中,所述通过电子设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音,包括:
通过电子设备录制输入的初始口语语音,区分出所述初始口语语音中的语音帧和非语音帧;
对所述语音帧和所述非语音帧进行噪声估计,得到噪声功率谱融合估计值,所述噪声功率谱融合估计值为语音帧噪声功率谱估计值和非语音帧功率谱估计值的融合值;
根据所述噪声功率谱融合估计值对所述初始口语语音进行去噪处理,以获得所述目标口语语音。
作为一种可选的实施方式,在本发明第一方面中,所述通过电子设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音之前,所述方法还包括:
检测电子设备是否与麦克风设备建立蓝牙配对连接;
所述通过电子设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音,包括:
在所述电子设备与所述麦克风设备建立蓝牙配对连接后,利用所述麦克风设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音。
本发明第二方面公开了一种电子设备,可包括:
录音单元,用于录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音;
单元测评单元,用于采用预设的多个单元测评规则分别对所述目标口语语音进行口语测评,获得多个单元测评结果,一个所述单元测评结果对应一个所述单元测评规则;
总测评单元,用于以所述多个单元测评结果为依据,获得所述目标口语语音的总测评结果;
显示单元,用于获取每一个所述单元测评结果对应的单元学习建议,并将所述单元测评结果与所述单元学习建议进行关联输出显示,以及输出显示所述总测评结果。
作为一种可选的实施方式,在本发明第二方面中,所述多个单元测评规则包括流利度测评规则、准确度测评规则、响度测评规则、情感匹配度测评规则和完整度测评规则;所述多个单元测评结果包括流利度测评分数、准确度测评分数、响度测评分数、情感匹配度测评分数和完整度测评分数,所述单元测评单元包括:
流利度测评单元,用于采用所述流利度测评规则对所述目标口语语音进行口语测评,获得所述流利度测评分数;以及
准确度测评单元,用于采用所述准确度测评规则对所述目标口语语音进行口语测评,以获得所述准确度测评分数;以及
响度测评单元,用于采用所述响度测评规则对所述目标口语语音进行口语测评,以获得所述响度测评分数;以及
情感匹配度测评单元,用于采用所述情感匹配度测评规则对所述目标口语语音进行口语测评,以获得所述情感匹配度测评分数;以及
完整度测评单元,用于采用所述完整度测评规则对所述目标口语语音进行口语测评,以获得所述完整度测评分数。
作为一种可选的实施方式,在本发明第二方面中,所述流利度测评单元用于采用所述流利度测评规则对所述目标口语语音进行口语测评,获得所述流利度测评分数的方式具体为:
所述流利度测评单元用于获取所述目标口语语音中的产生发音时长、所述目标口语语音中每个单词的录音时长、所述目标口语语音的总录音时长和所述目标口语语音中相邻两个单词之间的停顿时长,以获得所述流利度测评分数;
所述准确度测评单元用于采用所述准确度测评规则对所述目标口语语音进行口语测评,以获得所述准确度测评分数的方式具体为:
所述准确度测评单元用于比较所述目标口语语音与预设标准口语语音,以获得所述目标口语语音在准确度和清晰度上的分数,结合在准确度和清晰度上的分数获得所述准确度测评分数;
所述响度测评单元用于采用所述响度测评规则对所述目标口语语音进行口语测评,以获得所述响度测评分数的方式具体为:
所述响度测评单元用于获取所述目标口语语音的读音分贝大小,以所述读音分贝大小为依据,获得所述响度测评分数;
所述情感匹配度测评单元用于采用所述情感匹配度测评规则对所述目标口语语音进行口语测评,以获得所述情感匹配度测评分数的方式具体为:
所述情感匹配度测评单元用于根据所述目标口语语音的语境识别用户拼读所述目标口语语音时的目标感情,比较所述目标感情与所述目标口语语音实际感情的匹配度,根据所述匹配度获得所述情感匹配度测评分数;
所述完整度测评单元用于采用所述完整度测评规则对所述目标口语语音进行口语测评,以获得所述完整度测评分数的方式具体为:
所述完整度测评单元用于检测用户拼读所述目标口语语音的发音内容与所述目标口语语音内容的标准发音内容进行比较,以获得所述完整度测评分数。
作为一种可选的实施方式,在本发明第二方面中,所述录音单元包括:
区分单元,用于录制输入的初始口语语音,区分出所述初始口语语音中的语音帧和非语音帧;
估计单元,用于对所述语音帧和所述非语音帧进行噪声估计,得到噪声功率谱融合估计值,所述噪声功率谱融合估计值为语音帧噪声功率谱估计值和非语音帧功率谱估计值的融合值;
去噪单元,用于根据所述噪声功率谱融合估计值对所述初始口语语音进行去噪处理,以获得所述目标口语语音。
作为一种可选的实施方式,在本发明第二方面中,所述电子设备还包括:
连接检测单元,用于在所述录音单元录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音之前,检测电子设备是否与麦克风设备建立蓝牙配对连接;
所述录音单元用于通过电子设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音的方式具体为:
所述录音单元用于,在所述连接检测单元检测到所述电子设备与所述麦克风设备建立蓝牙配对连接后,利用所述麦克风设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音。
本发明第三方面公开了一种电子设备,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行第一方面的任意一种方法的部分或全部步骤。
本发明第四方面公开了一种计算机可读存储介质,所述计算机可读存储介质存储了程序代码,其中,所述程序代码包括用于执行第一方面的任意一种方法的部分或全部步骤的指令。
本发明实施例第五方面公开一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行第一方面的任意一种方法的部分或全部步骤。
与现有技术相比,本发明实施例具有以下有益效果:
在本发明实施例中,通过电子设备录制输入的初始口语语音,先对初始口语语音进行去噪处理,获得目标口语语音,之后,采用预设的多个单元测评规则分别对目标口语语音进行口语测评,获得多个单元测评结果,其中,一个单元测评结果对应一个单元测评规则,再以多个单元测评结果为依据,获得目标口语语音的总测评结果,最后获取每一个单元测评结果对应的单元学习建议,将单元测评结果和单元学习建议关联输出显示给用户,同时还将输出总测评结果。可以看出,实施本发明实施例,通过采用多个单元测评规则分别对目标口语语音进行口语测评,细化英语口语测评的测评规则,全面覆盖口语发音的必备要素,尽可能地从口语发音要点出发,分别进行测评以获得单元测评结果,并分别针对每一个单元测评结果给以学习建议,以向用户提供针对性的口语提升方向和提升方法,加强英语口语训练的目的性,提高学习效率,并且提升效果较为明显。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例公开的基于电子设备的口语语音测评方法的流程示意图;
图2为本发明实施例公开的基于电子设备的口语语音测评方法的另一流程示意图;
图3为本发明实施例公开的电子设备的结构示意图;
图4为本发明实施例公开的电子设备的另一结构示意图;
图5为本发明实施例公开的电子设备的另一结构示意图;
图6为本发明实施例公开的电子设备的另一结构示意图;
图7为本发明实施例公开的电子设备的另一结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例公开了一种基于电子设备的口语语音测评方法,用于从口语发音各个要点出发,分别进行测评以获得单元测评结果,并分别针对每一个单元测评结果给以学习建议,以加强口语训练的目的性,提高学习效率。本发明实施例还相应地公开了一种电子设备。
本发明实施例公开的电子设备包括但不仅限于家教设备、早教设备、平板电脑、智能手机等,其中,电子设备的操作系统包括但不限于Android操作系统、IOS操作系统、Symbian(塞班)操作系统、Black Berry(黑莓)操作系统、Windows Phone8操作系统等等,本发明实施例不做限定。下面将从电子设备角度出发,结合具体实施例,对本发明技术方案进行详细说明。
实施例一
请参阅图1,图1为本发明实施例公开的基于电子设备的口语语音测评方法的流程示意图;如图1所示,一种基于电子设备的口语语音测评方法可包括:
101、电子设备录制输入的初始口语语音,对该初始口语语音进行去噪处理,以获得目标口语语音。
本发明实施例提供的电子设备支持英语学习,并且具备英语口语练习和对英语口语语音进行测评等功能。在本发明实施例中,用户在练习英语口语时,打开电子设备上的英语口语练习应用,用户按照英语口语练习应用的提示(该提示为:在英语口语练习应用上显示练习题目或者电子设备先拼读练习题目),拼读练习题目,而电子设备实时录制外部声音,在用户拼读练习题目时,从而将录制到用户拼读该练习题目的初始口语语音。
在本发明一些可实施的方式中,电子设备录制输入的初始口语语音,对该初始口语语音进行去噪处理,以获得目标口语语音可包括:电子设备录制输入的初始口语语音,区分出该初始口语语音中的语音帧和非语音帧;以及,对语音帧和非语音帧进行噪声估计,得到噪声功率谱融合估计值,该噪声功率谱融合估计值为语音帧噪声功率谱估计值和非语音帧功率谱估计值的融合值;以及,根据该噪声功率谱融合估计值对初始口语语音进行去噪处理,以获得该目标口语语音。通过该实施方式,能够区分语音帧和非语音帧进行噪声估计,并综合两者的噪声估计结果对初始口语语音进行去噪处理(如将周边环境中的车声、动物叫声等过滤),确保录入的英语口语语音音质不会影响到口语测评结果,提高语音质量。
其中,对语音帧和非语音帧进行噪声估计,得到噪声功率谱融合估计值具体包括:对语音帧进行噪声估计得到语音帧噪声功率谱估计值,对非语音帧进行噪声估计得到非语音帧功率谱估计值,然后融合语音帧噪声功率谱估计值和非语音帧功率谱估计值得到噪声功率谱融合估计值。
在本发明另一些可实施的方式中,电子设备录制输入的初始口语语音,对该初始口语语音进行去噪处理,以获得目标口语语音可包括:电子设备录制输入的初始口语语音,对初始口语语音中的各帧信号作傅立叶变换,获得该初始口语语音中各帧信号的功率谱;根据各帧信号的功率谱,确定初始口语语音中各帧信号中关于各频率下的功率值的方差;根据方差,确定初始口语语音中各帧信号是否为噪音信号,如果为噪音信号,将其过滤掉,如果不是噪音信号,则不作处理。通过该实施方式,能够准确地分析出初始口语语音中的噪音信号,以提高去噪效果,确保录入的英语口语语音音质不会影响到口语测评结果,提高语音质量。
在本发明另一些可实施的方式中,电子设备录制输入的初始口语语音,对该初始口语语音进行去噪处理,以获得目标口语语音可包括:电子设备录制输入的初始口语语音,对该初始口语语音进行傅立叶变换,得到多个频段的幅值和相位;根据多个频段中各个频段的带噪功率和噪声功率,计算得到各个频段的噪声抑制因子;将各个频段的幅值乘以对应的噪声抑制因子,得到各个频段去噪后的幅值;相位采用傅立叶变换得到的相位,幅值采用去噪后的幅值,进行傅立叶逆变换得到去噪后的语音信号。通过该实施方式,可以保证语音去噪效果,且计算量比较小,计算速度较快。
102、电子设备采用预设的多个单元测评规则分别对该目标口语语音进行口语测评,获得多个单元测评结果,一个单元测评结果对应一个单元测评规则。
其中,多个单元测评规则包括流利度测评规则、准确度测评规则、响度测评规则、情感匹配度测评规则和完整度测评规则等;多个单元测评结果包括流利度测评分数、准确度测评分数、响度测评分数、情感匹配度测评分数和完整度测评分数等。
103、电子设备以多个单元测评结果为依据,获得该目标口语语音的总测评结果。
其中,电子设备从多个维度出发,对目标口语语音进行各个要点的测评,然后综合各个要点的测评,得到总测评结果。总测评结果用于指示用户在练习题目上的得分,总测评结果具体可以是总测评分数。
104、电子设备获取每一个单元测评结果对应的单元学习建议,并将单元测评结果与单元学习建议进行关联输出显示,以及输出显示该总测评结果。
电子设备除了显示用户在练习题目上的总测评结果,还将各个维度的测评结果和对应的学习建议显示给用户,以便用户能够清楚自己在各个要点上的不足之处,并且能够获得针对性的提升建议。
在本发明实施例中,通过电子设备录制输入的初始口语语音,先对初始口语语音进行去噪处理,获得目标口语语音,之后,采用预设的多个单元测评规则分别对目标口语语音进行口语测评,获得多个单元测评结果,其中,一个单元测评结果对应一个单元测评规则,再以多个单元测评结果为依据,获得目标口语语音的总测评结果,最后获取每一个单元测评结果对应的单元学习建议,将单元测评结果和单元学习建议关联输出显示给用户,同时还将输出总测评结果。可以看出,实施本发明实施例,通过采用多个单元测评规则分别对目标口语语音进行口语测评,细化英语口语测评的测评规则,全面覆盖口语发音的必备要素,尽可能地从口语发音要点出发,分别进行测评以获得单元测评结果,并分别针对每一个单元测评结果给以学习建议,以向用户提供针对性的口语提升方向和提升方法,加强英语口语训练的目的性,提高学习效率,并且提升效果较为明显。
实施例二
请参阅图2,图2为本发明实施例公开的基于电子设备的口语语音测评方法的另一流程示意图;如图2所示,一种基于电子设备的口语语音测评方法可包括:
201、电子设备检测其是否与麦克风设备建立蓝牙配对连接。其中,在电子设备与麦克风设备建立蓝牙配对连接后,转向步骤202;在检测电子设备与麦克风设备没有建立蓝牙配对连接后,电子设备可以显示提示信息,以提示用户进行蓝牙配对连接,并转向步骤201。
202、电子设备从麦克风设备获取初始口语语音,对该初始口语语音进行去噪处理,以获得目标口语语音。
203、电子设备采用预设的多个单元测评规则分别对该目标口语语音进行口语测评,获得多个单元测评分数,一个单元测评分数对应一个单元测评规则。
其中,根据实施例一中的介绍和说明,多个单元测评规则包括流利度测评规则、准确度测评规则、响度测评规则、情感匹配度测评规则和完整度测评规则等;单元测评结果包括流利度测评分数、准确度测评分数、响度测评分数、情感匹配度测评分数和完整度测评分数等。基于此,本发明实施例将以上述介绍的五个单元测评规则作为五个维度,这五个维度全面覆盖了英语口语发音的必备要素,能够完整地挖掘英语口语要点,正确给以用户英语口语评价。在本发明实施例中将详细地从该五个维度出发以获得相应测评分数,然后根据该五个维度的测评分数获得用户英语口语发音的总测评分数,下面将分别进行详细说明:
A、电子设备采用流利度测评规则对目标口语语音进行口语测评,获得流利度测评分数。
具体地,电子设备获取目标口语语音中的产生发音时长、目标口语语音中每个单词的录音时长、目标口语语音的总录音时长和目标口语语音中相邻两个单词之间的停顿时长,以获得该流利度测评分数。
其中,电子设备通过计算目标口语语音的产生发音时长,产生发音时长为电子设备开始计时检测输入的初始口语语音至检测到输入的初始口语语音之间的时长,比如,电子设备开始检测输入的初始口语语音的时间点为T1,在T2时间点才检测到初始口语语音,那么产生发音时长t1=T2-T1。将其与设置的标准产生发音时长进行比较,从而能够根据产生发音时长t1计算到这个阶段的分数y1,即y1=f(t1)。
进一步地,根据单个单词的长短,得出标准读完该单词的标准时长,在从目标口语语音中获得单个单词实际的录音时长,对比标准时长与实际的录音时长之间的时间差为t2,根据时间差t2计算这个阶段的分数y2,即y2=f(t2)。
再进一步地,根据目标口语语音这段英语内容,计算出读完这段英语内容的标准时长,以及获取目标口语语音实际的总录音时长,对比标准时长与实际的总录音时长之间的时间差为t3,根据t3计算这个阶段分数y3,即y3=f(t3)。
再进一步地,判断目标口语语音中相邻两个单词之间的停顿时长是否一致,计算停顿时长超过阈值的次数n1,根据次数n1给出这个阶段的评测分数y4,即y4=f(n1)。
最后,根据以上四个阶段分数,计算得到流利度测评分数s1,即s1=f(y1,y2,y3,y4)。
B、电子设备采用准确度测评规则对目标口语语音进行口语测评,以获得该准确度测评分数。
具体地,电子设备比较目标口语语音与预设标准口语语音,以获得目标口语语音在准确度和清晰度上的分数,结合在准确度和清晰度上的分数获得该准确度测评分数。
其中,将用户的目标口语语音与预设标准口语语音进行对比(目标口语语音是根据电子设备提示输入,在电子设备中存储有其标准口语语音,作为预设标准口语语音),计算发音的准确度,准确度可从发音的节奏感(升调、降调、重读、连读等)和吐字清晰度来确定,将节奏感中的语调设置为变量x,重读设置为y,连读为z,则计算节奏感的分数为y1=f(x,y,z);吐字清晰度设置为y2,那么准确度测评分数s2的计算公式为:s2=f(y1,y2)。
C、电子设备采用响度测评规则对所述目标口语语音进行口语测评,以获得所述响度测评分数。
具体地,电子设备获取目标口语语音的读音分贝大小,以该读音分贝大小为依据,获得该响度测评分数。
其中,电子设备判断用户拼读该目标口语语音的读音分贝大小,计算出实际分贝大小平均值和标准分贝大小之间的差值n1,根据差值n1计算得到响度测评分数s3=f(n1)。
D、电子设备采用情感匹配度测评规则对目标口语语音进行口语测评,以获得该情感匹配度测评分数。
具体地,电子设备根据目标口语语音的语境识别用户拼读目标口语语音时的目标感情,比较目标感情与目标口语语音实际感情的匹配度,根据匹配度获得情感匹配度测评分数。
其中,电子设备根据用户拼读目标口语语音时的语境,判定该语境下的感情色彩为开心、难过、愤怒、失望等,对比目标口语语音这段英语内容的实际录音所表达的真实感情色彩,对比用户语境的感情色彩和这段英语内容真实感情色彩,获得情感匹配度n1,根据情感匹配度n1计算得到情感匹配度测评分数s4=(n1)。
E、电子设备采用完整度测评规则对目标口语语音进行口语测评,以获得该完整度测评分数。
具体地,电子设备检测用户拼读目标口语语音的发音内容与目标口语语音内容的标准发音内容进行比较,以获得该完整度测评分数。
其中,将标准的发音内容与实际的发音内容进行匹配比较,检测实际发音内容的完整度,然后计算目标口语语音中缺少的内容占全部内容的百分比n1,根据百分比n1计算完整度测评分数s5,计算公式为:s5=f(n1)。
204、电子设备以多个单元测评分数为依据,获得该目标口语语音的总测评分数。
其中,总测评结果具体为总测评分数,结合步骤203中得到的五个维度的分数,然后计算目标口语语音的总测评分数s,计算公式为:s=f(s1,s2,s3,s4,s5)。
205、电子设备获取每一个单元测评分数对应的单元学习建议,并将单元测评分数与单元学习建议进行关联输出显示,以及输出显示该总测评分数。
电子设备针对每一个维度的分数,给出这个维度对应的单元学习建议,举例进行说明,具体如下:
1、针对流利度:建议用户减少单词与单词之间不必要的停顿;建议用于提高应答的反应速度;建议用户使用某些应用程序(给出参考的应用程序)来提升口语流利度;建议用户看英语电视剧或英语电影(可以给出具体名称以做参考)来提升口语流利度。
2、针对准确度:建议用户注重语调的把握;建议用户注意重读的要点;建议用户注意口语发音的连读;建议用户侧重某一些音标(如检测出来的发音不标准的单词等)的发音准确度;建议用户使用某些应用程序来提升口语准确度;建议用户看英语电视剧或英语电影来提升口语准确度;建议用户看某些新闻来提升口语准确度。
3、针对响度:建议用户大声发音;建议用户使用某些应用程序来提升口语响度;建议用户看英语电视剧或英语电影来提升口语响度
4、针对情感匹配度:建议用户揣摩语境;提示用户哪方面的情感表达不足;建议用户使用某些应用程序来提升口语情感匹配度;建议用户看英语电视剧或英语电影来提升口语情感匹配度。
5、针对完整度:分析用户未能完整表述完一段英语的原因,建议用户通过何种方法完整读完一段内容,建议用户使用某些应用程序来提升口语完整度;建议用户看英语电视剧或英语电影来提升口语完整度。
实施例三
请参阅图3,图3为本发明实施例公开的电子设备的结构示意图;图3所示的电子设备可包括:
录音单元310,用于录制输入的初始口语语音,对该初始口语语音进行去噪处理,以获得目标口语语音;
单元测评单元320,用于采用预设的多个单元测评规则分别对目标口语语音进行口语测评,获得多个单元测评结果,一个单元测评结果对应一个单元测评规则;
总测评单元330,用于以多个单元测评结果为依据,获得目标口语语音的总测评结果;
显示单元340,用于获取每一个单元测评结果对应的单元学习建议,并将该单元测评结果与单元学习建议进行关联输出显示,以及输出显示总测评结果。
在本发明实施例中,录音单元310通过电子设备录制输入的初始口语语音,先对初始口语语音进行去噪处理,获得目标口语语音,之后,单元测评单元320采用预设的多个单元测评规则分别对目标口语语音进行口语测评,获得多个单元测评结果,其中,一个单元测评结果对应一个单元测评规则,总测评单元330再以多个单元测评结果为依据,获得目标口语语音的总测评结果,最后显示单元340获取每一个单元测评结果对应的单元学习建议,将单元测评结果和单元学习建议关联输出显示给用户,同时还将输出总测评结果。可以看出,实施本发明实施例,通过采用多个单元测评规则分别对目标口语语音进行口语测评,细化英语口语测评的测评规则,全面覆盖口语发音的必备要素,尽可能地从口语发音要点出发,分别进行测评以获得单元测评结果,并分别针对每一个单元测评结果给以学习建议,以向用户提供针对性的口语提升方向和提升方法,加强英语口语训练的目的性,提高学习效率,并且提升效果较为明显。
实施例四
上述多个单元测评规则包括流利度测评规则、准确度测评规则、响度测评规则、情感匹配度测评规则和完整度测评规则;对应地,上述多个单元测评结果包括流利度测评分数、准确度测评分数、响度测评分数、情感匹配度测评分数和完整度测评分数。请参阅图4,图4为本发明实施例公开的电子设备的另一结构示意图;在图4所示的电子设备中,上述单元测评单元320包括:
流利度测评单元410,用于采用流利度测评规则对目标口语语音进行口语测评,获得该流利度测评分数;以及
准确度测评单元420,用于采用准确度测评规则对目标口语语音进行口语测评,以获得该准确度测评分数;以及
响度测评单元430,用于采用响度测评规则对目标口语语音进行口语测评,以获得该响度测评分数;以及
情感匹配度测评单元440,用于采用情感匹配度测评规则对目标口语语音进行口语测评,以获得该情感匹配度测评分数;以及
完整度测评单元450,用于采用完整度测评规则对所述目标口语语音进行口语测评,以获得该完整度测评分数。
进一步地,上述流利度测评单元410用于采用所述流利度测评规则对目标口语语音进行口语测评,获得该流利度测评分数的方式具体为:
上述流利度测评单元410用于获取目标口语语音中的产生发音时长、目标口语语音中每个单词的录音时长、目标口语语音的总录音时长和目标口语语音中相邻两个单词之间的停顿时长,以获得该流利度测评分数;
上述准确度测评单元420用于采用准确度测评规则对目标口语语音进行口语测评,以获得该准确度测评分数的方式具体为:
上述准确度测评单元420用于比较目标口语语音与预设标准口语语音,以获得目标口语语音在准确度和清晰度上的分数,结合在准确度和清晰度上的分数获得该准确度测评分数;
上述响度测评单元430用于采用响度测评规则对目标口语语音进行口语测评,以获得该响度测评分数的方式具体为:
上述响度测评单元430用于获取目标口语语音的读音分贝大小,以读音分贝大小为依据,获得该响度测评分数;
上述情感匹配度测评单元440用于采用情感匹配度测评规则对目标口语语音进行口语测评,以获得该情感匹配度测评分数的方式具体为:
上述情感匹配度测评单元440用于根据目标口语语音的语境识别用户拼读该目标口语语音时的目标感情,比较目标感情与目标口语语音实际感情的匹配度,根据匹配度获得该情感匹配度测评分数;
上述完整度测评单元450用于采用完整度测评规则对目标口语语音进行口语测评,以获得完整度测评分数的方式具体为:
上述完整度测评单元450用于检测用户拼读目标口语语音的发音内容与目标口语语音内容的标准发音内容进行比较,以获得该完整度测评分数。
其中,上述流利度测评单元410具体用于,通过计算目标口语语音的产生发音时长,产生发音时长为电子设备开始计时检测输入的初始口语语音至检测到输入的初始口语语音之间的时长,比如,电子设备开始检测输入的初始口语语音的时间点为T1,在T2时间点才检测到初始口语语音,那么产生发音时长t1=T2-T1。将其与设置的标准产生发音时长进行比较,从而能够根据产生发音时长t1计算到这个阶段的分数y1,即y1=f(t1)。
进一步地,上述流利度测评单元410根据单个单词的长短,得出标准读完该单词的标准时长,在从目标口语语音中获得单个单词实际的录音时长,对比标准时长与实际的录音时长之间的时间差为t2,根据时间差t2计算这个阶段的分数y2,即y2=f(t2)。
再进一步地,上述流利度测评单元410根据目标口语语音这段英语内容,计算出读完这段英语内容的标准时长,以及获取目标口语语音实际的总录音时长,对比标准时长与实际的总录音时长之间的时间差为t3,根据t3计算这个阶段分数y3,即y3=f(t3)。
再进一步地,上述流利度测评单元410判断目标口语语音中相邻两个单词之间的停顿时长是否一致,计算停顿时长超过阈值的次数n1,根据次数n1给出这个阶段的评测分数y4,即y4=f(n1)。
最后,上述流利度测评单元410根据以上四个阶段分数,计算得到流利度测评分数s1,即s1=f(y1,y2,y3,y4)。
上述准确度测评单元420具体用于,将用户的目标口语语音与预设标准口语语音进行对比(目标口语语音是根据电子设备提示输入,在电子设备中存储有其标准口语语音,作为预设标准口语语音),计算发音的准确度,准确度可从发音的节奏感(升调、降调、重读、连读等)和吐字清晰度来确定,将节奏感中的语调设置为变量x,重读设置为y,连读为z,则计算节奏感的分数为y1=f(x,y,z);吐字清晰度设置为y2,那么准确度测评分数s2的计算公式为:s2=f(y1,y2)。
上述响度测评单元430具体用于,判断用户拼读该目标口语语音的读音分贝大小,计算出实际分贝大小平均值和标准分贝大小之间的差值n1,根据差值n1计算得到响度测评分数s3=f(n1)。
上述情感匹配度测评单元440具体用于,根据用户拼读目标口语语音时的语境,判定该语境下的感情色彩为开心、难过、愤怒、失望等,对比目标口语语音这段英语内容的实际录音所表达的真实感情色彩,对比用户语境的感情色彩和这段英语内容真实感情色彩,获得情感匹配度n1,根据情感匹配度n1计算得到情感匹配度测评分数s4=(n1)。
上述完整度测评单元450具体用于,将标准的发音内容与实际的发音内容进行匹配比较,检测实际发音内容的完整度,然后计算目标口语语音中缺少的内容占全部内容的百分比n1,根据百分比n1计算完整度测评分数s5,计算公式为:s5=f(n1)。
对应地,显示单元340分别针对流利度、准确度、响度、情感匹配度和情感匹配度五个维度给以相应的学习建议,显示单元340可以以下列方式提供给用户:
1、针对流利度:建议用户减少单词与单词之间不必要的停顿;建议用于提高应答的反应速度;建议用户使用某些应用程序(给出参考的应用程序)来提升口语流利度;建议用户看英语电视剧或英语电影(可以给出具体名称以做参考)来提升口语流利度。
2、针对准确度:建议用户注重语调的把握;建议用户注意重读的要点;建议用户注意口语发音的连读;建议用户侧重某一些音标(如检测出来的发音不标准的单词等)的发音准确度;建议用户使用某些应用程序来提升口语准确度;建议用户看英语电视剧或英语电影来提升口语准确度;建议用户看某些新闻来提升口语准确度。
3、针对响度:建议用户大声发音;建议用户使用某些应用程序来提升口语响度;建议用户看英语电视剧或英语电影来提升口语响度
4、针对情感匹配度:建议用户揣摩语境;提示用户哪方面的情感表达不足;建议用户使用某些应用程序来提升口语情感匹配度;建议用户看英语电视剧或英语电影来提升口语情感匹配度。
5、针对完整度:分析用户未能完整表述完一段英语的原因,建议用户通过何种方法完整读完一段内容,建议用户使用某些应用程序来提升口语完整度;建议用户看英语电视剧或英语电影来提升口语完整度。
实施例五
请参阅图5,图5为本发明实施例公开的电子设备的另一结构示意图;在图5所示的电子设备中,上述录音单元310包括:
区分单元510,用于录制输入的初始口语语音,区分出该初始口语语音中的语音帧和非语音帧;
估计单元520,用于对语音帧和非语音帧进行噪声估计,得到噪声功率谱融合估计值,该噪声功率谱融合估计值为语音帧噪声功率谱估计值和非语音帧功率谱估计值的融合值;
去噪单元530,用于根据噪声功率谱融合估计值对初始口语语音进行去噪处理,以获得该目标口语语音。
在本发明另一些可实施的方式中,上述录音单元310具体用于,录制输入的初始口语语音,对初始口语语音中的各帧信号作傅立叶变换,获得该初始口语语音中各帧信号的功率谱;根据各帧信号的功率谱,确定初始口语语音中各帧信号中关于各频率下的功率值的方差;根据方差,确定初始口语语音中各帧信号是否为噪音信号,如果为噪音信号,将其过滤掉,如果不是噪音信号,则不作处理。通过该实施方式,能够准确地分析出初始口语语音中的噪音信号,以提高去噪效果,确保录入的英语口语语音音质不会影响到口语测评结果,提高语音质量。
在本发明另一些可实施的方式中,上述录音单元310具体用于,录制输入的初始口语语音,对该初始口语语音进行傅立叶变换,得到多个频段的幅值和相位;根据多个频段中各个频段的带噪功率和噪声功率,计算得到各个频段的噪声抑制因子;将各个频段的幅值乘以对应的噪声抑制因子,得到各个频段去噪后的幅值;相位采用傅立叶变换得到的相位,幅值采用去噪后的幅值,进行傅立叶逆变换得到去噪后的语音信号。通过该实施方式,可以保证语音去噪效果,且计算量比较小,计算速度较快。
实施例六
请参阅图6,图6为本发明实施例公开的电子设备的另一结构示意图;图6所示的电子设备还包括:
连接检测单元610,用于在上述录音单元310录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音之前,检测电子设备是否与麦克风设备建立蓝牙配对连接;
上述录音单元310用于通过电子设备录制输入的初始口语语音,对初始口语语音进行去噪处理,以获得目标口语语音的方式具体为:
上述录音单元310用于,在上述连接检测单元610检测到电子设备与麦克风设备建立蓝牙配对连接后,利用麦克风设备录制输入的初始口语语音,对初始口语语音进行去噪处理,以获得目标口语语音。
实施例七
图7为本发明实施例公开的电子设备的另一结构示意图;图7所示的电子设备可包括:至少一个处理器710,例如CPU,存储器720,至少一个通信总线730,输入装置740,输出装置750。其中,通信总线730用于实现这些组件之间的通信连接。存储器720可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器720可选的还可以是至少一个位于远离前述处理器710的存储装置。其中,处理器710可以结合图3至图6所描述的电子设备,存储器720中存储一组程序代码,且处理器710调用存储器720中存储的程序代码,用于执行以下操作:
通过电子设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音;
采用预设的多个单元测评规则分别对所述目标口语语音进行口语测评,获得多个单元测评结果,一个所述单元测评结果对应一个所述单元测评规则;
以所述多个单元测评结果为依据,获得所述目标口语语音的总测评结果;
获取每一个所述单元测评结果对应的单元学习建议,并将所述单元测评结果与所述单元学习建议进行关联输出显示,以及输出显示所述总测评结果。
所述多个单元测评规则包括流利度测评规则、准确度测评规则、响度测评规则、情感匹配度测评规则和完整度测评规则;所述多个单元测评结果包括流利度测评分数、准确度测评分数、响度测评分数、情感匹配度测评分数和完整度测评分数,可选地,上述处理器710还可以用于执行以下步骤:
采用所述流利度测评规则对所述目标口语语音进行口语测评,获得所述流利度测评分数;以及,采用所述准确度测评规则对所述目标口语语音进行口语测评,以获得所述准确度测评分数;以及,采用所述响度测评规则对所述目标口语语音进行口语测评,以获得所述响度测评分数;以及,采用所述情感匹配度测评规则对所述目标口语语音进行口语测评,以获得所述情感匹配度测评分数;以及,采用所述完整度测评规则对所述目标口语语音进行口语测评,以获得所述完整度测评分数。
可选地,上述处理器710还可以用于执行以下步骤:
获取所述目标口语语音中的产生发音时长、所述目标口语语音中每个单词的录音时长、所述目标口语语音的总录音时长和所述目标口语语音中相邻两个单词之间的停顿时长,以获得所述流利度测评分数;
比较所述目标口语语音与预设标准口语语音,以获得所述目标口语语音在准确度和清晰度上的分数,结合在准确度和清晰度上的分数获得所述准确度测评分数;
获取所述目标口语语音的读音分贝大小,以所述读音分贝大小为依据,获得所述响度测评分数;
根据所述目标口语语音的语境识别用户拼读所述目标口语语音时的目标感情,比较所述目标感情与所述目标口语语音实际感情的匹配度,根据所述匹配度获得所述情感匹配度测评分数;
检测用户拼读所述目标口语语音的发音内容与所述目标口语语音内容的标准发音内容进行比较,以获得所述完整度测评分数。
可选地,上述处理器710还可以用于执行以下步骤:
通过电子设备录制输入的初始口语语音,区分出所述初始口语语音中的语音帧和非语音帧;
对所述语音帧和所述非语音帧进行噪声估计,得到噪声功率谱融合估计值,所述噪声功率谱融合估计值为语音帧噪声功率谱估计值和非语音帧功率谱估计值的融合值;
根据所述噪声功率谱融合估计值对所述初始口语语音进行去噪处理,以获得所述目标口语语音。
可选地,上述处理器710还可以用于执行以下步骤:
检测电子设备是否与麦克风设备建立蓝牙配对连接;
在所述电子设备与所述麦克风设备建立蓝牙配对连接后,利用所述麦克风设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音。
可以看出,通过上述电子设备,在英语口语语音评测方法中细化了测评规则,从流利度、准确度、响度、情感匹配度、完整度等五个维度出发测评,全面覆盖英语口语发音的必备要素,挖掘被忽略的口语要点,并向用户提供针对性的口语提升方向和提升方法,加强口语训练的目的性,提高学习效率,提升效果更明显。
在本发明所提供的实施例中,应理解,“A对应的B”表示B与A相关联,根据A可以确定B。但还应理解,根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其他信息确定B。
上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(ErasableProgrammable Read Only Memory,EPROM)、一次可编程只读存储器(One-timeProgrammable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可位于一个地方,或者也可以分布到多个网络单元上。可根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元若以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可获取的存储器中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或者部分,可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干请求用以使得一台计算机设备(可以为个人计算机、服务器或者网络设备等,具体可以是计算机设备中的处理器)执行本发明的各个实施例上述方法的部分或全部步骤。
以上对本发明实施例公开的一种基于电子设备的口语语音测评方法及电子设备进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (12)
1.一种基于电子设备的口语语音测评方法,其特征在于,包括:
通过电子设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音;
采用预设的多个单元测评规则分别对所述目标口语语音进行口语测评,获得多个单元测评结果,一个所述单元测评结果对应一个所述单元测评规则;
以所述多个单元测评结果为依据,获得所述目标口语语音的总测评结果;
获取每一个所述单元测评结果对应的单元学习建议,并将所述单元测评结果与所述单元学习建议进行关联输出显示,以及输出显示所述总测评结果。
2.根据权利要求1所述的方法,其特征在于,所述多个单元测评规则包括流利度测评规则、准确度测评规则、响度测评规则、情感匹配度测评规则和完整度测评规则;所述多个单元测评结果包括流利度测评分数、准确度测评分数、响度测评分数、情感匹配度测评分数和完整度测评分数,所述采用预设的多个单元测评规则分别对所述目标口语语音进行口语测评,获得多个单元测评结果,包括:
采用所述流利度测评规则对所述目标口语语音进行口语测评,获得所述流利度测评分数;以及,采用所述准确度测评规则对所述目标口语语音进行口语测评,以获得所述准确度测评分数;以及,采用所述响度测评规则对所述目标口语语音进行口语测评,以获得所述响度测评分数;以及,采用所述情感匹配度测评规则对所述目标口语语音进行口语测评,以获得所述情感匹配度测评分数;以及,采用所述完整度测评规则对所述目标口语语音进行口语测评,以获得所述完整度测评分数。
3.根据权利要求2所述的方法,其特征在于,所述采用所述流利度测评规则对所述目标口语语音进行口语测评,获得所述流利度测评分数,包括:
获取所述目标口语语音中的产生发音时长、所述目标口语语音中每个单词的录音时长、所述目标口语语音的总录音时长和所述目标口语语音中相邻两个单词之间的停顿时长,以获得所述流利度测评分数;
所述采用所述准确度测评规则对所述目标口语语音进行口语测评,以获得所述准确度测评分数,包括:
比较所述目标口语语音与预设标准口语语音,以获得所述目标口语语音在准确度和清晰度上的分数,结合在准确度和清晰度上的分数获得所述准确度测评分数;
所述采用所述响度测评规则对所述目标口语语音进行口语测评,以获得所述响度测评分数,包括:
获取所述目标口语语音的读音分贝大小,以所述读音分贝大小为依据,获得所述响度测评分数;
所述采用所述情感匹配度测评规则对所述目标口语语音进行口语测评,以获得所述情感匹配度测评分数,包括:
根据所述目标口语语音的语境识别用户拼读所述目标口语语音时的目标感情,比较所述目标感情与所述目标口语语音实际感情的匹配度,根据所述匹配度获得所述情感匹配度测评分数;
所述采用所述完整度测评规则对所述目标口语语音进行口语测评,以获得所述完整度测评分数,包括:
检测用户拼读所述目标口语语音的发音内容与所述目标口语语音内容的标准发音内容进行比较,以获得所述完整度测评分数。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述通过电子设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音,包括:
通过电子设备录制输入的初始口语语音,区分出所述初始口语语音中的语音帧和非语音帧;
对所述语音帧和所述非语音帧进行噪声估计,得到噪声功率谱融合估计值,所述噪声功率谱融合估计值为语音帧噪声功率谱估计值和非语音帧功率谱估计值的融合值;
根据所述噪声功率谱融合估计值对所述初始口语语音进行去噪处理,以获得所述目标口语语音。
5.根据权利要求1所述的方法,其特征在于,所述通过电子设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音之前,所述方法还包括:
检测电子设备是否与麦克风设备建立蓝牙配对连接;
所述通过电子设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音,包括:
在所述电子设备与所述麦克风设备建立蓝牙配对连接后,利用所述麦克风设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音。
6.一种电子设备,其特征在于,包括:
录音单元,用于录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音;
单元测评单元,用于采用预设的多个单元测评规则分别对所述目标口语语音进行口语测评,获得多个单元测评结果,一个所述单元测评结果对应一个所述单元测评规则;
总测评单元,用于以所述多个单元测评结果为依据,获得所述目标口语语音的总测评结果;
显示单元,用于获取每一个所述单元测评结果对应的单元学习建议,并将所述单元测评结果与所述单元学习建议进行关联输出显示,以及输出显示所述总测评结果。
7.根据权利要求6所述的电子设备,其特征在于,所述多个单元测评规则包括流利度测评规则、准确度测评规则、响度测评规则、情感匹配度测评规则和完整度测评规则;所述多个单元测评结果包括流利度测评分数、准确度测评分数、响度测评分数、情感匹配度测评分数和完整度测评分数,所述单元测评单元包括:
流利度测评单元,用于采用所述流利度测评规则对所述目标口语语音进行口语测评,获得所述流利度测评分数;以及
准确度测评单元,用于采用所述准确度测评规则对所述目标口语语音进行口语测评,以获得所述准确度测评分数;以及
响度测评单元,用于采用所述响度测评规则对所述目标口语语音进行口语测评,以获得所述响度测评分数;以及
情感匹配度测评单元,用于采用所述情感匹配度测评规则对所述目标口语语音进行口语测评,以获得所述情感匹配度测评分数;以及
完整度测评单元,用于采用所述完整度测评规则对所述目标口语语音进行口语测评,以获得所述完整度测评分数。
8.根据权利要求7所述的电子设备,其特征在于,所述流利度测评单元用于采用所述流利度测评规则对所述目标口语语音进行口语测评,获得所述流利度测评分数的方式具体为:
所述流利度测评单元用于获取所述目标口语语音中的产生发音时长、所述目标口语语音中每个单词的录音时长、所述目标口语语音的总录音时长和所述目标口语语音中相邻两个单词之间的停顿时长,以获得所述流利度测评分数;
所述准确度测评单元用于采用所述准确度测评规则对所述目标口语语音进行口语测评,以获得所述准确度测评分数的方式具体为:
所述准确度测评单元用于比较所述目标口语语音与预设标准口语语音,以获得所述目标口语语音在准确度和清晰度上的分数,结合在准确度和清晰度上的分数获得所述准确度测评分数;
所述响度测评单元用于采用所述响度测评规则对所述目标口语语音进行口语测评,以获得所述响度测评分数的方式具体为:
所述响度测评单元用于获取所述目标口语语音的读音分贝大小,以所述读音分贝大小为依据,获得所述响度测评分数;
所述情感匹配度测评单元用于采用所述情感匹配度测评规则对所述目标口语语音进行口语测评,以获得所述情感匹配度测评分数的方式具体为:
所述情感匹配度测评单元用于根据所述目标口语语音的语境识别用户拼读所述目标口语语音时的目标感情,比较所述目标感情与所述目标口语语音实际感情的匹配度,根据所述匹配度获得所述情感匹配度测评分数;
所述完整度测评单元用于采用所述完整度测评规则对所述目标口语语音进行口语测评,以获得所述完整度测评分数的方式具体为:
所述完整度测评单元用于检测用户拼读所述目标口语语音的发音内容与所述目标口语语音内容的标准发音内容进行比较,以获得所述完整度测评分数。
9.根据权利要求6至8任一项所述的电子设备,其特征在于,所述录音单元包括:
区分单元,用于录制输入的初始口语语音,区分出所述初始口语语音中的语音帧和非语音帧;
估计单元,用于对所述语音帧和所述非语音帧进行噪声估计,得到噪声功率谱融合估计值,所述噪声功率谱融合估计值为语音帧噪声功率谱估计值和非语音帧功率谱估计值的融合值;
去噪单元,用于根据所述噪声功率谱融合估计值对所述初始口语语音进行去噪处理,以获得所述目标口语语音。
10.根据权利要求6所述的电子设备,其特征在于,所述电子设备还包括:
连接检测单元,用于在所述录音单元录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音之前,检测电子设备是否与麦克风设备建立蓝牙配对连接;
所述录音单元用于通过电子设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音的方式具体为:
所述录音单元用于,在所述连接检测单元检测到所述电子设备与所述麦克风设备建立蓝牙配对连接后,利用所述麦克风设备录制输入的初始口语语音,对所述初始口语语音进行去噪处理,以获得目标口语语音。
11.一种电子设备,其特征在于,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行如权利要求1至权利要求5任一项所述的基于电子设备的口语语音测评方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序代码,其中,所述程序代码使得计算机执行如权利要求1至权利要求5任一项所述的基于电子设备的口语语音测评方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711373941.XA CN108122561A (zh) | 2017-12-19 | 2017-12-19 | 一种基于电子设备的口语语音测评方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711373941.XA CN108122561A (zh) | 2017-12-19 | 2017-12-19 | 一种基于电子设备的口语语音测评方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108122561A true CN108122561A (zh) | 2018-06-05 |
Family
ID=62229370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711373941.XA Pending CN108122561A (zh) | 2017-12-19 | 2017-12-19 | 一种基于电子设备的口语语音测评方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108122561A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109035896A (zh) * | 2018-08-13 | 2018-12-18 | 广东小天才科技有限公司 | 一种口语训练方法及学习设备 |
CN109147823A (zh) * | 2018-10-31 | 2019-01-04 | 河南职业技术学院 | 英语口语测评方法及英语口语测评装置 |
CN109829035A (zh) * | 2018-12-19 | 2019-05-31 | 平安国际融资租赁有限公司 | 流程搜索方法、装置、计算机设备和存储介质 |
CN109859741A (zh) * | 2019-01-31 | 2019-06-07 | 成都终身成长科技有限公司 | 语音测评方法、装置、电子设备及存储介质 |
CN110135228A (zh) * | 2018-09-29 | 2019-08-16 | 广东小天才科技有限公司 | 一种听写熟练度评估方法及可穿戴设备 |
CN111031232A (zh) * | 2019-04-24 | 2020-04-17 | 广东小天才科技有限公司 | 一种听写实时检测的方法及电子设备 |
CN111078180A (zh) * | 2019-06-09 | 2020-04-28 | 广东小天才科技有限公司 | 一种点读模式下的报读速度控制方法及电子设备 |
CN111369975A (zh) * | 2020-03-17 | 2020-07-03 | 郑州工程技术学院 | 基于人工智能的大学音乐评分方法、装置、设备及存储介质 |
CN111640447A (zh) * | 2020-05-26 | 2020-09-08 | 广东小天才科技有限公司 | 一种降低音频信号噪音的方法及终端设备 |
CN111639220A (zh) * | 2020-05-14 | 2020-09-08 | 广东小天才科技有限公司 | 一种口语测评方法及装置、电子设备、存储介质 |
CN111951826A (zh) * | 2019-05-16 | 2020-11-17 | 上海流利说信息技术有限公司 | 一种语言测试装置、方法、介质和计算设备 |
CN112150583A (zh) * | 2020-09-02 | 2020-12-29 | 广东小天才科技有限公司 | 一种口语发音测评方法及终端设备 |
CN113076004A (zh) * | 2021-04-12 | 2021-07-06 | 北京隐虚等贤科技有限公司 | 基于沉浸式设备对用户数据进行动态测评的方法、装置 |
CN113205729A (zh) * | 2021-04-12 | 2021-08-03 | 华侨大学 | 一种面向外国留学生的演讲评测方法、装置及系统 |
CN113782055A (zh) * | 2021-07-15 | 2021-12-10 | 北京墨闻教育科技有限公司 | 基于学生特性的语音评定方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101826263A (zh) * | 2009-03-04 | 2010-09-08 | 中国科学院自动化研究所 | 基于客观标准的自动化口语评估系统 |
US20110208508A1 (en) * | 2010-02-25 | 2011-08-25 | Shane Allan Criddle | Interactive Language Training System |
CN104810017A (zh) * | 2015-04-08 | 2015-07-29 | 广东外语外贸大学 | 基于语义分析的口语评测方法和系统 |
CN105513612A (zh) * | 2015-12-02 | 2016-04-20 | 广东小天才科技有限公司 | 语言词汇的音频处理方法及装置 |
CN105632488A (zh) * | 2016-02-23 | 2016-06-01 | 深圳市海云天教育测评有限公司 | 一种语音测评的方法及装置 |
CN105741832A (zh) * | 2016-01-27 | 2016-07-06 | 广东外语外贸大学 | 一种基于深度学习的口语评测方法和系统 |
CN106486131A (zh) * | 2016-10-14 | 2017-03-08 | 上海谦问万答吧云计算科技有限公司 | 一种语音去噪的方法及装置 |
CN107221318A (zh) * | 2017-05-12 | 2017-09-29 | 广东外语外贸大学 | 英语口语发音评分方法和系统 |
-
2017
- 2017-12-19 CN CN201711373941.XA patent/CN108122561A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101826263A (zh) * | 2009-03-04 | 2010-09-08 | 中国科学院自动化研究所 | 基于客观标准的自动化口语评估系统 |
US20110208508A1 (en) * | 2010-02-25 | 2011-08-25 | Shane Allan Criddle | Interactive Language Training System |
CN104810017A (zh) * | 2015-04-08 | 2015-07-29 | 广东外语外贸大学 | 基于语义分析的口语评测方法和系统 |
CN105513612A (zh) * | 2015-12-02 | 2016-04-20 | 广东小天才科技有限公司 | 语言词汇的音频处理方法及装置 |
CN105741832A (zh) * | 2016-01-27 | 2016-07-06 | 广东外语外贸大学 | 一种基于深度学习的口语评测方法和系统 |
CN105632488A (zh) * | 2016-02-23 | 2016-06-01 | 深圳市海云天教育测评有限公司 | 一种语音测评的方法及装置 |
CN106486131A (zh) * | 2016-10-14 | 2017-03-08 | 上海谦问万答吧云计算科技有限公司 | 一种语音去噪的方法及装置 |
CN107221318A (zh) * | 2017-05-12 | 2017-09-29 | 广东外语外贸大学 | 英语口语发音评分方法和系统 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109035896A (zh) * | 2018-08-13 | 2018-12-18 | 广东小天才科技有限公司 | 一种口语训练方法及学习设备 |
CN110135228A (zh) * | 2018-09-29 | 2019-08-16 | 广东小天才科技有限公司 | 一种听写熟练度评估方法及可穿戴设备 |
CN110135228B (zh) * | 2018-09-29 | 2021-07-23 | 广东小天才科技有限公司 | 一种听写熟练度评估方法及可穿戴设备 |
CN109147823A (zh) * | 2018-10-31 | 2019-01-04 | 河南职业技术学院 | 英语口语测评方法及英语口语测评装置 |
CN109829035A (zh) * | 2018-12-19 | 2019-05-31 | 平安国际融资租赁有限公司 | 流程搜索方法、装置、计算机设备和存储介质 |
CN109859741A (zh) * | 2019-01-31 | 2019-06-07 | 成都终身成长科技有限公司 | 语音测评方法、装置、电子设备及存储介质 |
CN111031232A (zh) * | 2019-04-24 | 2020-04-17 | 广东小天才科技有限公司 | 一种听写实时检测的方法及电子设备 |
CN111031232B (zh) * | 2019-04-24 | 2022-01-28 | 广东小天才科技有限公司 | 一种听写实时检测的方法及电子设备 |
CN111951826A (zh) * | 2019-05-16 | 2020-11-17 | 上海流利说信息技术有限公司 | 一种语言测试装置、方法、介质和计算设备 |
CN111078180A (zh) * | 2019-06-09 | 2020-04-28 | 广东小天才科技有限公司 | 一种点读模式下的报读速度控制方法及电子设备 |
CN111078180B (zh) * | 2019-06-09 | 2024-02-23 | 广东小天才科技有限公司 | 一种点读模式下的报读速度控制方法及电子设备 |
CN111369975A (zh) * | 2020-03-17 | 2020-07-03 | 郑州工程技术学院 | 基于人工智能的大学音乐评分方法、装置、设备及存储介质 |
CN111639220A (zh) * | 2020-05-14 | 2020-09-08 | 广东小天才科技有限公司 | 一种口语测评方法及装置、电子设备、存储介质 |
CN111640447A (zh) * | 2020-05-26 | 2020-09-08 | 广东小天才科技有限公司 | 一种降低音频信号噪音的方法及终端设备 |
CN112150583A (zh) * | 2020-09-02 | 2020-12-29 | 广东小天才科技有限公司 | 一种口语发音测评方法及终端设备 |
CN113205729A (zh) * | 2021-04-12 | 2021-08-03 | 华侨大学 | 一种面向外国留学生的演讲评测方法、装置及系统 |
CN113076004A (zh) * | 2021-04-12 | 2021-07-06 | 北京隐虚等贤科技有限公司 | 基于沉浸式设备对用户数据进行动态测评的方法、装置 |
CN113076004B (zh) * | 2021-04-12 | 2024-05-03 | 北京隐虚等贤科技有限公司 | 基于沉浸式设备对用户数据进行动态测评的方法、装置 |
CN113782055A (zh) * | 2021-07-15 | 2021-12-10 | 北京墨闻教育科技有限公司 | 基于学生特性的语音评定方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108122561A (zh) | 一种基于电子设备的口语语音测评方法及电子设备 | |
Levis | Computer technology in teaching and researching pronunciation | |
Goldinger et al. | Form-based priming in spoken word recognition: the roles of competition and bias. | |
Li et al. | An automated assessment framework for atypical prosody and stereotyped idiosyncratic phrases related to autism spectrum disorder | |
JP5756555B1 (ja) | 発話評価装置、発話評価方法及びプログラム | |
Dubagunta et al. | Learning voice source related information for depression detection | |
US20120052476A1 (en) | Affect-sensitive intelligent tutoring system | |
Giorgino et al. | Automated spoken dialogue system for hypertensive patient home management | |
CN107808674B (zh) | 一种测评语音的方法、介质、装置及电子设备 | |
WO2006132159A1 (ja) | ピッチ周波数を検出する音声解析装置、音声解析方法、および音声解析プログラム | |
CN107301863A (zh) | 一种聋哑儿童言语障碍康复方法及康复训练系统 | |
CN109545184A (zh) | 一种基于语音校准的背诵检测方法及电子设备 | |
Mittal et al. | Analysis of production characteristics of laughter | |
WO2008151212A1 (en) | Speech skills assessment | |
Yap et al. | Voice source under cognitive load: Effects and classification | |
WO2014122416A1 (en) | Emotion analysis in speech | |
CN111833853A (zh) | 语音处理方法及装置、电子设备、计算机可读存储介质 | |
JP2006267465A (ja) | 発話状態評価装置、発話状態評価プログラム、プログラム格納媒体 | |
JP4587854B2 (ja) | 感情解析装置、感情解析プログラム、プログラム格納媒体 | |
US20060053012A1 (en) | Speech mapping system and method | |
Morrison et al. | Introduction to forensic voice comparison | |
Godin et al. | Glottal waveform analysis of physical task stress speech | |
CN109671309A (zh) | 一种错误读音识别方法及电子设备 | |
JP2013088552A (ja) | 発音トレーニング装置 | |
US10008206B2 (en) | Verifying a user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180605 |