CN109979433A - 语音跟读处理方法、装置、设备和存储介质 - Google Patents
语音跟读处理方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN109979433A CN109979433A CN201910262055.2A CN201910262055A CN109979433A CN 109979433 A CN109979433 A CN 109979433A CN 201910262055 A CN201910262055 A CN 201910262055A CN 109979433 A CN109979433 A CN 109979433A
- Authority
- CN
- China
- Prior art keywords
- reading
- voice
- corpus
- read
- volume value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003860 storage Methods 0.000 title claims abstract description 23
- 238000003672 processing method Methods 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 27
- 230000002452 interceptive effect Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 16
- 238000005266 casting Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 9
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000004080 punching Methods 0.000 description 2
- 235000015170 shellfish Nutrition 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/60—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/04—Electrically-operated educational appliances with audible presentation of the material to be studied
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明实施例公开了一种语音跟读处理方法、装置、设备和存储介质,涉及语音识别技术领域。所述方法包括:在用户语音跟读过程中采集用户的跟读语音,并确定跟读语音的音量值;将跟读语音的音量值与预设的跟读音量范围进行匹配;若确定音量值属于预设的跟读音量范围,则将跟读语音,与样本语料库中的样本语料语音进行相似性对比,确定跟读语音的音准信息;根据跟读语音的音准信息,确定是否需要重新跟读。本发明通过确定跟读语音的音量值,若音量值在预设范围内,则确定跟读语音的音准信息,并根据音准信息确定是否需要重新跟读,实现了针对各种情况下的特殊性给出用户反馈提示,从而使跟读反馈更准确、更灵活,提高学习效果。
Description
技术领域
本发明实施例涉及语音识别技术领域,尤其涉及一种语音跟读处理方法、装置、设备和存储介质。
背景技术
听和读在语言学习中很重要,特别在儿童的英语学习中。通常情况下,儿童在学习语言时是跟着听到的发音进行朗读,进而进行各种语音的学习,然而,很多情况下靠儿童自己还是无法知道自身发音是否标准。因此,大多语言学习软件都会增加语音跟读处理的功能来告知用户跟读的发音是否标准。
然而,现有针对儿童英语跟读处理的技术通常根据用户跟读录音产生一个或多个维度的分数,并进行加权计算得出最终的分数,根据最终得分给用户处理反馈。由于儿童英语学习过程中的特殊性,常出现跟读时不发声、吵闹、乱读等情况,现有方案无法针对各种情况下的特殊性给出用户个性化的反馈提示,学习效果不高。
发明内容
本发明实施例提供一种语音跟读处理方法、装置、设备和存储介质,以解决现有方案无法针对各种情况下的特殊性给出用户个性化的反馈提示,导致学习者学习效果不高的问题。
第一方面,本发明实施例提供了一种语音跟读处理方法,所述方法包括:
在用户语音跟读过程中采集用户的跟读语音,并确定所述跟读语音的音量值;
将所述跟读语音的音量值与预设的跟读音量范围进行匹配;
若确定所述音量值属于预设的跟读音量范围,则将所述跟读语音,与样本语料库中的样本语料语音进行相似性对比,确定所述跟读语音的音准信息;
根据所述跟读语音的音准信息,确定是否需要重新跟读。
第二方面,本发明实施例提供了一种语音跟读处理装置,所述装置包括:
音量值确定模块,用于在用户语音跟读过程中采集用户的跟读语音,并确定所述跟读语音的音量值;
跟读音量范围匹配模块,用于将所述跟读语音的音量值与预设的跟读音量范围进行匹配;
音准信息确定模块,用于若确定所述音量值属于预设的跟读音量范围,则将所述跟读语音,与样本语料库中的样本语料语音进行相似性对比,确定所述跟读语音的音准信息;
第一重读确定模块,用于根据所述跟读语音的音准信息,确定是否需要重新跟读。
第三方面,本发明实施例提供了一种设备,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明实施例中任一所述的语音跟读处理方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例中任一所述的语音跟读处理方法。
本发明通过确定跟读语音的音量值,若所述音量值在预设范围内,则确定所述跟读语音的音准信息,并根据所述音准信息确定是否需要重新跟读,实现了针对各种情况下的特殊性给出用户反馈提示,从而使跟读反馈更准确、更灵活,提高学习效果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例一提供的一种语音跟读处理方法的流程图;
图2为本发明实施例二提供的一种语音跟读处理方法的流程图;
图3为本发明实施例三提供的一种语音跟读处理装置的结构示意图;
图4为本发明实施例四提供的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明实施例作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明实施例,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明实施例相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种语音跟读处理方法的流程图。本实施例适用于用户仿照标准语音进行跟读的情况。该方法可以由本发明实施例提供的语音跟读处理装置来执行。如图1所示,该方法可以包括:
步骤101、在用户语音跟读过程中采集用户的跟读语音,并确定所述跟读语音的音量值。
其中,跟读表示用户模仿当前语料的标准语音进行发音。确定跟读语音的音量值是通过确定跟读语音的分贝值来确定的,跟读语音的分贝值越高则代表音量值越高,跟读语音的分贝值越低则代表音量值越低。
具体的,首先播放当前语料的标准语音,并向用户发送提示语音来提示用户进行跟读,例如:“语音播放完毕,请跟读”,接下来获取用户根据标准语音进行跟读的跟读语音,并确定跟读语音的分贝值,最后依据人类正常发音分贝值的分布规律,对不同分贝值赋予不同的音量值,即确定跟读语音的音量值。示例性的,人类正常发音分贝值大约为20~70分贝,则20分贝对应音量值为0,70分贝对应音量值为100,假如确定跟读语音的分贝值为40分贝,则根据对应关系,确定跟读语音的音量值为40。
步骤102、将所述跟读语音的音量值与预设的跟读音量范围进行匹配。
其中,预设的跟读音量范围包括跟读音量下限和跟读音量上限,具体的跟读音量下限和跟读音量上限可根据实际情况设定,本实施例不做限定,可选的,设定音量值30为跟读音量下限,设定音量值70为跟读音量上限。
步骤103、若确定所述音量值属于预设的跟读音量范围,则将所述跟读语音,与样本语料库中的样本语料语音进行相似性对比,确定所述跟读语音的音准信息。
其中,当跟读语音的音量值在预设的跟读音量范围以内时,才会确定跟读语音的音准信息,所述音准信息表示两段语音的语音特征相似程度,两段语音越相似则音准信息数值越高。可选的,将跟读语音,与样本语料库中的样本语料语音进行相似性对比,确定所述跟读语音的音准信息。
通过当跟读语音的音量值在预设的跟读音量范围内时,才确定跟读语音的音准信息,可以避免跟读语音音量过大(例如:乱读、调皮捣蛋、大喊大叫)以及跟读语音音量过小(例如:不会读、不敢读)导致的对跟读语音处理不准确的问题。
步骤104、根据所述跟读语音的音准信息,确定是否需要重新跟读。
具体的,音准信息数值越高表示用户的跟读语音与标准语音越相似,音准信息数值越低表示用户的跟读语音与标准语音越有差别。设定一个音准信息门限值,当跟读语音的音准信息大于或等于所述音准信息门限值时,表示跟读语音与标准语音相似,当跟读语音的音准信息小于所述音准信息门限值时,表示跟读语音与标准语音不相似,此时则需要用户重新跟读。通过根据音准信息确定是否需要重新跟读,可以帮助用户更加准确地了解跟读语音的发音是否标准。
本发明实施例提供的技术方案,通过确定跟读语音的音量值,若所述音量值在预设范围内,则确定所述跟读语音的音准信息,并根据所述音准信息确定是否需要重新跟读,实现了针对各种情况下的特殊性给出用户反馈提示,从而使跟读反馈更准确、更灵活,提高学习效果。
实施例二
图2为本发明实施例二提供的一种语音跟读处理方法的流程图。本实施例是在上述实施例的基础上进一步进行优化。如图2所示,该方法可以包括:
步骤201、在用户语音跟读过程中采集用户的跟读语音,并确定所述跟读语音的音量值。
步骤202、若所述音量值不属于所述跟读音量范围,则确定需要重新跟读,若所述音量值属于预设的跟读音量范围,则执行步骤205。
示例性的,假如跟读语音的音量值为20,设定的跟读语音范围为30~70,则确定需要重新跟读。
示例性的,假如跟读语音的音量值为50,设定的跟读语音范围为30~70,则执行步骤205。
步骤203、若确定需要重新跟读,则确定当前语料的跟读次数。
示例性的,用户在播放标准语音后,进行了第一次语音跟读,但是该用户的跟读语音音量值不在跟读音量范围内,确定需要重新跟读,那么此时当前语料的跟读次数为一次。用户重新跟读后,第二次跟读语音音量值还不在跟读音量范围内,确定需要重新跟读,那么此时当前语料的跟读次数为两次。
步骤204、根据所述当前语料的跟读次数,生成跟读交互信息。
其中,由于用户跟读语音音量值不在跟读音量范围内,确定重新跟读,并且根据所述当前语料的跟读次数,生成跟读交互信息。
可选的,预设跟读阈值可以为4次。具体的:1)跟读语音音量值大于跟读音量上限,则生成交互信息可以包括“太大声了,请认真一点,再重读一次吧”。2)跟读语音音量值小于跟读音量下限,则生成交互信息可以包括“声音好像太小了哦!大点声,让我们再试一次吧!”或者“别害羞,大声一点读”或者“你说什么?我好像没有听清。请大声重复一遍吧!”。并且若所述当前语料的跟读次数小于跟读阈值,则重新播报当前语料的标准语音,供用户跟读。
若所述当前语料的跟读次数等于所述跟读阈值,则生成重新跟读问询信息,所述重新跟读问询信息可以包括:“加油,还可以再提高哦,再重读一遍吧?”或者“继续努力,争取下次读的更好,再重读一遍吧?”。并且若用户的问询反馈信息是继续跟读,则重新播报当前语料的标准语音,供用户跟读。
若所述当前语料的跟读次数大于所述跟读阈值,则停止当前语料的跟读。
通过根据所述当前语料的跟读次数,生成跟读交互信息,实现了跟读反馈更准确、更灵活,提高学习效果。
步骤205、将所述跟读语音,与样本语料库中的样本语料语音进行相似性对比,确定所述跟读语音的音准信息。
其中,样本语料库中包含样本语料语音,所述样本语料语音可以通过电视、电台、网络媒体等途径采集。
可选的,所述相似性对比,可以通过:分别将样本语料语音和跟读语音信号预加重和分帧处理;并分别提取两者音频信号的时域特征、频域特征和倒谱域特征;分别计算每种特征参数的相似度值;把每一种特征参数计算的相似度值进行线性加权,通过试验方法,确定权重系数,从而确定样本语料语音和跟读语音的相似度。
步骤206、根据所述跟读语音的音准信息,确定是否需要重新跟读,若不需要重读则执行步骤207,否则执行步骤208。
其中,所述跟读语音的音准信息小于预设的音准信息门限值,则需要重新跟读,可选的,预设的门限值为60。
步骤207、生成跟读交互信息。
示例性的,若所述跟读语音的音准信息大于或等于预设的音准信息门限值,则生成交互信息,所述交互信息可以包括:“读的棒极了!你真是太有天赋了!”或者“读的非常棒,已将超过了百分之八十的小朋友了哦!”或者“哇哦,很厉害呀!期待下次更精彩!”。
步骤208、若确定需要重新跟读,则确定当前语料的跟读次数
步骤209、根据所述当前语料的跟读次数,生成跟读交互信息。
其中,由于用户跟读语音的音准信息小于预设的音准信息门限值,确定重新跟读,并且根据所述当前语料的跟读次数,生成跟读交互信息。
可选的,预设跟读阈值可以为4次。具体的:1)当用户跟读次数为一次时,跟读语音的音准信息小于预设的音准信息门限值,则生成交互信息可以包括“读的还不错,多加练习可以更好的,我们再来试一次吧!”或者“相信你再读一遍会更好,加油!”或者“还可以再提高哦,听我读,然后再说一次吧!”。2)当用户跟读次数为二次或三次时,跟读语音的音准信息小于预设的音准信息门限值,但是相比第一次或第二次跟读音准信息提高,则生成交互信息可以包括“很棒!这一次读的有进步哦,让我们趁热打铁,再来试一遍吧!”;相比第一次或第二次跟读音准信息降低,则生成交互信息可以包括“这一次还有待提高哦,听我读,然后我们再试一次吧!”。并且若所述当前语料的跟读次数小于跟读阈值,则重新播报当前语料的标准语音,供用户跟读。
若所述当前语料的跟读次数等于所述跟读阈值,则生成重新跟读问询信息,所述重新跟读问询信息可以包括:“加油,还可以再提高哦,再重读一遍吧?”或者“继续努力,争取下次读的更好,再重读一遍吧?”。并且若用户的问询反馈信息是继续跟读,则重新播报当前语料的标准语音,供用户跟读。
若所述当前语料的跟读次数大于所述跟读阈值,则停止当前语料的跟读。
通过根据所述当前语料的跟读次数,生成跟读交互信息,实现了跟读反馈更准确、更灵活,提高学习效果。
本发明通过根据跟读语音的音量值以及跟读语音的音准信息,分别确定是否需要重新跟读,每次跟读都会根据音量值和音准信息生成交互信息,并且跟读次数不同生成的交互信息也不同,实现了跟读反馈更准确、更灵活,提高学习效果。
实施例三
图3为本发明实施例三提供的一种语音跟读处理装置的结构示意图,该装置可执行本发明任意实施例所提供的语音跟读处理方法,具备执行方法相应的功能模块和有益效果。如图3所示,该装置可以包括:
音量值确定模块31,用于在用户语音跟读过程中采集用户的跟读语音,并确定所述跟读语音的音量值;
跟读音量范围匹配模块32,用于将所述跟读语音的音量值与预设的跟读音量范围进行匹配;
音准信息确定模块33,用于若确定所述音量值属于预设的跟读音量范围,则将所述跟读语音,与样本语料库中的样本语料语音进行相似性对比,确定所述跟读语音的音准信息;
第一重读确定模块34,用于根据所述跟读语音的音准信息,确定是否需要重新跟读。
在上述实施例的基础上,所述音量值确定模块31之后,包括:
第二重读确定模块,用于若所述音量值不属于所述跟读音量范围,则确定需要重新跟读。
在上述实施例的基础上,所述第一重读确定模块34和所述第二重读确定模块,包括:
跟读次数确定单元,用于若确定需要重新跟读,则确定当前语料的跟读次数;
跟读交互信息生成单元,用于根据所述当前语料的跟读次数,生成跟读交互信息。
在上述实施例的基础上,所述跟读交互信息生成单元,包括:
标准语音播放子单元,用于若所述当前语料的跟读次数小于跟读阈值,则重新播报当前语料的标准语音,供用户跟读;
重新跟读问询信息生成子单元,用于若所述当前语料的跟读次数等于所述跟读阈值,则生成重新跟读问询信息;若用户的问询反馈信息是继续跟读,则重新播报当前语料的标准语音,供用户跟读;
语料跟读停止子单元,用于若所述当前语料的跟读次数大于所述跟读阈值,则停止当前语料的跟读。
本发明实施例所提供的一种语音跟读处理装置,可执行本发明任意实施例所提供的一种语音跟读处理方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明任意实施例提供的一种语音跟读处理方法。
实施例四
图4为本发明实施例四提供的一种设备的结构示意图。图4示出了适于用来实现本发明实施方式的示例性设备400的框图。图4显示的设备400仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,设备400以通用计算设备的形式表现。设备400的组件可以包括但不限于:一个或者多个处理器或者处理单元401,系统存储器402,连接不同系统组件(包括系统存储器402和处理单元401)的总线403。
总线403表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
设备400典型地包括多种计算机系统可读介质。这些介质可以是任何能够被设备400访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器402可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)404和/或高速缓存存储器405。设备400可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统406可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线403相连。存储器402可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块407的程序/实用工具408,可以存储在例如存储器402中,这样的程序模块407包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块407通常执行本发明所描述的实施例中的功能和/或方法。
设备400也可以与一个或多个外部设备409(例如键盘、指向设备、显示器410等)通信,还可与一个或者多个使得用户能与该设备400交互的设备通信,和/或与使得该设备400能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口411进行。并且,设备400还可以通过网络适配器412与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器412通过总线403与设备400的其它模块通信。应当明白,尽管图中未示出,可以结合设备400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元401通过运行存储在系统存储器402中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的语音跟读处理方法,包括:
在用户语音跟读过程中采集用户的跟读语音,并确定所述跟读语音的音量值;
将所述跟读语音的音量值与预设的跟读音量范围进行匹配;
若确定所述音量值属于预设的跟读音量范围,则将所述跟读语音,与样本语料库中的样本语料语音进行相似性对比,确定所述跟读语音的音准信息;
根据所述跟读语音的音准信息,确定是否需要重新跟读。
实施例五
本发明实施例五还提供了一种计算机可读存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种语音跟读处理方法,该方法包括:
在用户语音跟读过程中采集用户的跟读语音,并确定所述跟读语音的音量值;
将所述跟读语音的音量值与预设的跟读音量范围进行匹配;
若确定所述音量值属于预设的跟读音量范围,则将所述跟读语音,与样本语料库中的样本语料语音进行相似性对比,确定所述跟读语音的音准信息;
根据所述跟读语音的音准信息,确定是否需要重新跟读。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的一种语音跟读处理中的相关操作。本发明实施例的计算机可读存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种语音跟读处理方法,其特征在于,所述方法包括:
在用户语音跟读过程中采集用户的跟读语音,并确定所述跟读语音的音量值;
将所述跟读语音的音量值与预设的跟读音量范围进行匹配;
若确定所述音量值属于预设的跟读音量范围,则将所述跟读语音,与样本语料库中的样本语料语音进行相似性对比,确定所述跟读语音的音准信息;
根据所述跟读语音的音准信息,确定是否需要重新跟读。
2.根据权利要求1所述的方法,其特征在于,确定所述跟读语音的音量值之后,还包括:
若所述音量值不属于所述跟读音量范围,则确定需要重新跟读。
3.根据权利要求1或2所述的方法,其特征在于,确定是否需要重新跟读之后,还包括:
若确定需要重新跟读,则确定当前语料的跟读次数;
根据所述当前语料的跟读次数,生成跟读交互信息。
4.根据权利要求3所述的方法,其特征在于,根据所述当前语料的跟读次数,生成跟读交互信息,包括:
若所述当前语料的跟读次数小于跟读阈值,则重新播报当前语料的标准语音,供用户跟读;
若所述当前语料的跟读次数等于所述跟读阈值,则生成重新跟读问询信息;若用户的问询反馈信息是继续跟读,则重新播报当前语料的标准语音,供用户跟读;
若所述当前语料的跟读次数大于所述跟读阈值,则停止当前语料的跟读。
5.一种语音跟读处理装置,其特征在于,所述装置包括:
音量值确定模块,用于在用户语音跟读过程中采集用户的跟读语音,并确定所述跟读语音的音量值;
跟读音量范围匹配模块,用于将所述跟读语音的音量值与预设的跟读音量范围进行匹配;
音准信息确定模块,用于若确定所述音量值属于预设的跟读音量范围,则将所述跟读语音,与样本语料库中的样本语料语音进行相似性对比,确定所述跟读语音的音准信息;
第一重读确定模块,用于根据所述跟读语音的音准信息,确定是否需要重新跟读。
6.根据权利要求5所述的装置,其特征在于,所述音量值确定模块之后,还包括:
第二重读确定模块,用于若所述音量值不属于所述跟读音量范围,则确定需要重新跟读。
7.根据权利要求5或6所述的方法,其特征在于,所述第一重读确定模块或所述第二重读确定模块,包括:
跟读次数确定单元,用于若确定需要重新跟读,则确定当前语料的跟读次数;
跟读交互信息生成单元,用于根据所述当前语料的跟读次数,生成跟读交互信息。
8.根据权利要求7所述的装置,其特征在于,所述跟读交互信息生成单元,包括:
标准语音播放子单元,用于若所述当前语料的跟读次数小于跟读阈值,则重新播报当前语料的标准语音,供用户跟读;
重新跟读问询信息生成子单元,用于若所述当前语料的跟读次数等于所述跟读阈值,则生成重新跟读问询信息;若用户的问询反馈信息是继续跟读,则重新播报当前语料的标准语音,供用户跟读;
语料跟读停止子单元,用于若所述当前语料的跟读次数大于所述跟读阈值,则停止当前语料的跟读。
9.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的语音跟读处理方法。
10.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-4中任一所述的语音跟读处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910262055.2A CN109979433A (zh) | 2019-04-02 | 2019-04-02 | 语音跟读处理方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910262055.2A CN109979433A (zh) | 2019-04-02 | 2019-04-02 | 语音跟读处理方法、装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109979433A true CN109979433A (zh) | 2019-07-05 |
Family
ID=67082406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910262055.2A Pending CN109979433A (zh) | 2019-04-02 | 2019-04-02 | 语音跟读处理方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109979433A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110930988A (zh) * | 2019-12-13 | 2020-03-27 | 广州三人行壹佰教育科技有限公司 | 一种音素评分的确定方法及系统 |
CN112306449A (zh) * | 2020-03-02 | 2021-02-02 | 北京字节跳动网络技术有限公司 | 用于输出信息的方法和装置 |
CN112309389A (zh) * | 2020-03-02 | 2021-02-02 | 北京字节跳动网络技术有限公司 | 信息交互方法和装置 |
CN112684999A (zh) * | 2020-12-23 | 2021-04-20 | 中国人民解放军战略支援部队信息工程大学 | 一种跟读模式语音采集方法、系统、设备和存储介质 |
CN113031762A (zh) * | 2021-03-05 | 2021-06-25 | 马鞍山状元郎电子科技有限公司 | 一种感应互动教育方法和系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5487671A (en) * | 1993-01-21 | 1996-01-30 | Dsp Solutions (International) | Computerized system for teaching speech |
CN101105939A (zh) * | 2007-09-04 | 2008-01-16 | 安徽科大讯飞信息科技股份有限公司 | 发音指导方法 |
CN101510423A (zh) * | 2009-03-31 | 2009-08-19 | 李伟 | 发音检测方法及装置 |
CN103413468A (zh) * | 2013-08-20 | 2013-11-27 | 苏州跨界软件科技有限公司 | 一种基于虚拟人物的亲子教育方法 |
CN107424450A (zh) * | 2017-08-07 | 2017-12-01 | 英华达(南京)科技有限公司 | 发音纠正系统和方法 |
CN107564354A (zh) * | 2017-09-26 | 2018-01-09 | 北京光年无限科技有限公司 | 一种儿童智能机器人交互输出方法以及系统 |
CN108376545A (zh) * | 2018-03-15 | 2018-08-07 | 广东小天才科技有限公司 | 一种儿童发声练习的评分控制方法及装置 |
CN108961856A (zh) * | 2018-07-19 | 2018-12-07 | 深圳乐几科技有限公司 | 口语学习方法和装置 |
-
2019
- 2019-04-02 CN CN201910262055.2A patent/CN109979433A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5487671A (en) * | 1993-01-21 | 1996-01-30 | Dsp Solutions (International) | Computerized system for teaching speech |
CN101105939A (zh) * | 2007-09-04 | 2008-01-16 | 安徽科大讯飞信息科技股份有限公司 | 发音指导方法 |
CN101510423A (zh) * | 2009-03-31 | 2009-08-19 | 李伟 | 发音检测方法及装置 |
CN103413468A (zh) * | 2013-08-20 | 2013-11-27 | 苏州跨界软件科技有限公司 | 一种基于虚拟人物的亲子教育方法 |
CN107424450A (zh) * | 2017-08-07 | 2017-12-01 | 英华达(南京)科技有限公司 | 发音纠正系统和方法 |
CN107564354A (zh) * | 2017-09-26 | 2018-01-09 | 北京光年无限科技有限公司 | 一种儿童智能机器人交互输出方法以及系统 |
CN108376545A (zh) * | 2018-03-15 | 2018-08-07 | 广东小天才科技有限公司 | 一种儿童发声练习的评分控制方法及装置 |
CN108961856A (zh) * | 2018-07-19 | 2018-12-07 | 深圳乐几科技有限公司 | 口语学习方法和装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110930988A (zh) * | 2019-12-13 | 2020-03-27 | 广州三人行壹佰教育科技有限公司 | 一种音素评分的确定方法及系统 |
CN110930988B (zh) * | 2019-12-13 | 2020-10-20 | 广州三人行壹佰教育科技有限公司 | 一种音素评分的确定方法及系统 |
CN112306449A (zh) * | 2020-03-02 | 2021-02-02 | 北京字节跳动网络技术有限公司 | 用于输出信息的方法和装置 |
CN112309389A (zh) * | 2020-03-02 | 2021-02-02 | 北京字节跳动网络技术有限公司 | 信息交互方法和装置 |
CN112684999A (zh) * | 2020-12-23 | 2021-04-20 | 中国人民解放军战略支援部队信息工程大学 | 一种跟读模式语音采集方法、系统、设备和存储介质 |
CN113031762A (zh) * | 2021-03-05 | 2021-06-25 | 马鞍山状元郎电子科技有限公司 | 一种感应互动教育方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109979433A (zh) | 语音跟读处理方法、装置、设备和存储介质 | |
US9761249B2 (en) | Improving natural language interactions using emotional modulation | |
US8719019B2 (en) | Speaker identification | |
KR20190024762A (ko) | 음악추천방법, 장치, 디바이스 및 저장매체 | |
CN112309365B (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
CN107423364A (zh) | 基于人工智能的回答话术播报方法、装置及存储介质 | |
CN110602624B (zh) | 音频测试方法、装置、存储介质及电子设备 | |
CN108831437A (zh) | 一种歌声生成方法、装置、终端和存储介质 | |
CN100585663C (zh) | 语言学习系统 | |
CN110010127A (zh) | 场景切换方法、装置、设备和存储介质 | |
JP2000207170A (ja) | 情報処理装置および情報処理方法 | |
KR20220165642A (ko) | 웨이크업 테스트 방법, 장치, 전자 기기 및 판독 가능 기록 매체 | |
CN110475181A (zh) | 设备配置方法、装置、设备和存储介质 | |
CN106899486A (zh) | 一种消息显示方法及装置 | |
JP2016062333A (ja) | 検索サーバ、及び検索方法 | |
JP2006133521A (ja) | 語学学習機 | |
US11790913B2 (en) | Information providing method, apparatus, and storage medium, that transmit related information to a remote terminal based on identification information received from the remote terminal | |
Sirikongtham et al. | Improving speech recognition using dynamic multi-pipeline API | |
KR102583434B1 (ko) | 음성 상담의 품질 평가 방법 및 시스템 | |
CN113851106B (zh) | 音频播放方法、装置、电子设备和可读存储介质 | |
JP2016009091A (ja) | 複数の異なる対話制御部を同時に用いて応答文を再生する端末、プログラム及びシステム | |
CN114792521A (zh) | 基于语音识别的智能答复方法及装置 | |
CN115440192A (zh) | 一种语音识别系统的测试方法、装置、设备及存储介质 | |
CN112289298A (zh) | 合成语音的处理方法、装置、存储介质以及电子设备 | |
JP2006293102A (ja) | 受講者の自信の有無判定による理解度チェックを伴う教育システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210813 Address after: Room 301-112, floor 3, building 2, No. 18, YANGFANGDIAN Road, Haidian District, Beijing 100089 Applicant after: Beijing Rubu Technology Co.,Ltd. Address before: Room 508-598, Xitian Gezhuang Town Government Office Building, No. 8 Xitong Road, Miyun District Economic Development Zone, Beijing 101500 Applicant before: BEIJING ROOBO TECHNOLOGY Co.,Ltd. |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190705 |