CN108961856A - 口语学习方法和装置 - Google Patents
口语学习方法和装置 Download PDFInfo
- Publication number
- CN108961856A CN108961856A CN201810796578.0A CN201810796578A CN108961856A CN 108961856 A CN108961856 A CN 108961856A CN 201810796578 A CN201810796578 A CN 201810796578A CN 108961856 A CN108961856 A CN 108961856A
- Authority
- CN
- China
- Prior art keywords
- user
- pronunciation
- learned
- spoken
- spoken language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001755 vocal effect Effects 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000002360 preparation method Methods 0.000 claims description 6
- 238000004321 preservation Methods 0.000 claims description 6
- 238000003825 pressing Methods 0.000 claims description 6
- 238000000151 deposition Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 241000234295 Musa Species 0.000 description 2
- 235000018290 Musa x paradisiaca Nutrition 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 210000005182 tip of the tongue Anatomy 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/04—Electrically-operated educational appliances with audible presentation of the material to be studied
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明实施例提供一种口语学习方法及装置,包括:播放待学习的口语;获取用户跟随播音对所述待学习的口语发出的用户发音;提供所述待学习的口语的原有标准发音,将所述原有标准发音与所述用户发音进行匹配,以获取所述用户发音与所述原有标准发音的吻合度,根据所述吻合度对所述用户发音进行评分;根据评分结果确定是否播放下一个待学习的口语,所述口语学习方法,会根据标准发音对用户发音进行评分,然后将评分结果反馈给用户,这样用户就可以知晓发音是否标准。
Description
技术领域
本发明涉及口语学习技术领域,特别是涉及一种终端及其口语学习方法和装置。
背景技术
用户例如儿童在学习口语的阶段,一般会跟着声音播放设备来练习口语。例如儿童练习英语单词的口语发音,一般会跟随英语复读机发出的口语发音来进行口语发音训练,以学习和记忆英语,但是儿童并不知道自己的发音准不准。
发明内容
基于此,有必要提供一种口语学习方法。
一种终端的口语学习方法,所述方法包括:
播放待学习的口语;
获取用户跟随播音对所述待学习的口语发出的用户发音;
提供所述待学习的口语的原有标准发音,将所述原有标准发音与所述用户发音进行匹配,以获取所述用户发音与所述原有标准发音的吻合度,根据所述吻合度对所述用户发音进行评分;
根据评分结果确定是否播放下一个待学习的口语。
上述口语学习方法,会根据标准发音对用户发音进行评分,然后将评分结果反馈给用户,这样用户就可以知晓发音是否标准。
在其中一个实施例中,所述根据评分结果确定是否播放下一个待学习的口语的步骤包括:
若所述用户发音对应的评分低于预设分数,则再次播放所述待学习的口语以引导用户再次朗读所述待学习的口语,直到播放所述待学习的口语的次数达到预设次数或所述待学习的口语的用户发音对应的评分达到预设分数,才播放下一个待学习的口语。
在其中一个实施例中,所述根据评分结果确定是否播放下一个待学习的口语的步骤包括:
若所述待学习的口语的播放次数达到预设次数,且最后一次播放的所述待学习的口语的用户发音对应的评分低于预设分数,则反馈高于所述对应的评分的分数给用户,并播放下一个待学习的口语。
在其中一个实施例中,所述提供所述待学习的口语的原有标准发音,将所述原有标准发音与所述用户发音进行匹配,以获取所述用户发音与所述原有标准发音的吻合度,根据所述吻合度对所述用户发音进行评分的步骤是通过云端执行的。
在其中一个实施例中,所述若所述用户发音对应的评分低于预设分数,则再次播放所述待学习的口语的步骤包括:
若所述用户发音对应的评分低于预设分数,则从所述用户发音中提取错误发音,并根据所述错误发音识别用户对所述待学习的口语的发音口型缺陷,提供所述待学习的口语的正确发音口型信息并播放给用户,以指导用户按照所述正确发音口型信息再次对所述待学习的口语进行发音。
在其中一个实施例中,所述方法应用于终端,所述终端设有第一按键,所述方法还包括:
获取所述第一按键被操作时产生的第一按键信息;
所述播放待学习的口语的步骤是根据所述第一按键信息播放由所述终端推送的所述待学习的口语,并根据所述第一按键信息生成指示信息,以引导用户跟随播音学习所述待学习的口语。
在其中一个实施例中,所述终端设有第二按键,
获取用户对所述待学习的口语发出的用户发音的步骤是:在获取用户操控所述第二按键产生的第二按键信息的同时,获取所述用户发音。
在其中一个实施例中,所述第一按键为指纹识别按键,所述方法还包括获取用户在操作所述第一按键时用户的指纹特征信息,并在检测到所述用户退出口语学习之前关联所述用户的指纹特征信息与所述用户已学习过的口语,并保存所述用户的指纹特征信息的步骤;
若检测到所述用户退出口语学习之后,又再次获取到用户预备进入口语学习时操作所述第一按键时的指纹特征信息,且检测到再次获取的指纹特征信息与保存的所述指纹特征信息一致,则播放由所述终端推送的、除所述用户已学习过的口语之外的口语。
在其中一个实施例中,所述方法还包括在获取用户跟随播音对所述待学习的口语发出的用户发音时,从所述用户发音提取所述用户的声纹特征信息,并将所述用户的声纹特征信息与播放过的、且所述用户学习过的待学习的口语进行关联,并保存所述用户的声纹特征信息的步骤;
若检测到所述用户退出口语学习之后,又再次获取到用户跟随播音发出的用户发音,且再次提取的声纹特征信息与保存的所述用户的声纹特征信息匹配,则播放除关联的口语以外的口语。
一种口语学习装置,所述装置包括:
口语播放模块,用于播放待学习的口语;
用户发音获取模块,用于获取用户跟随播音对所述待学习的口语发出的用户发音;
用户发音模块,用于提供所述待学习的口语的原有标准发音,将所述原有标准发音与所述用户发音进行匹配,以获取所述用户发音与所述原有标准发音的吻合度,根据所述吻合度对所述用户发音进行评分;
判断模块,用于根据评分结果确定是否播放下一个待学习的口语。
附图说明
图1为一个实施例中的口语学习方法的流程示意图;
图2为一个实施例中的口语学习装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为一个实施例中的口语学习方法的流程示意图。请参阅图1,本实施例的口语学习方法,可以用于英语口语或其他语种的学习,可以应用于终端,终端可以是具备语音交互功能的智能机器人,也可以是手持终端,例如智能手机或平板电脑,该方法包括:
步骤102,播放待学习的口语。
待学习的口语可以是英语单词或者其他语种单词。待学习的口语可以保存在终端的存储器中;待学习的口语可以按种类保存,以英语单词为例,可以将待学习的英语单词分类为颜色单词、蔬菜单词、动物单词、家具单词等等。
待学习的口语也可以是英语句子或者其他语种句子。
在其中一个实施例中,终端设有第一按键,第一按键可以是触摸按键,具体可以是电容式感应触摸按键,或者第一按键也可以是物理按键。方法还包括:获取第一按键时被操作时第一按键产生的第一按键信息。播放待学习的口语的步骤是根据第一按键信息播放由终端推送的口语,并根据第一按键信息生成指示信息,以引导用户跟随播音学习推送口语。
第一按键信息可以是第一按键被用户操作时,产生的电平信息。第一按键是物理按键,操作第一按键的方式是按压,第一按键是触摸按键,操作第一按键的方式则可以是触摸。指示信息可以是语音信息,具体可以是根据第一按键信息以及将播放的待学习口语的类别生成该指示信息。例如,待学习口语是英语单词“Red”,用户按下第一按键,终端则根据第一按键信息和“Red”的类别生成“您好,您现在进入英语学习,我们开始学习颜色单词的发音哦”的语音指示信息。
若用户是第一次使用该终端学习口语,则终端推送的口语可以是终端随机推送的口语。若用户已使用过一次以上该终端,则终端播放的口语为用户没有学习过的口语。
在其中一个实施例中,第一按键为指纹识别按键,方法还包括获取用户在操作第一按键时用户的指纹特征信息以表征用户的身份,并在检测到用户退出口语学习之前关联用户的指纹特征信息与用户已学习过的口语,并保存用户的指纹特征信息的步骤;
若在检测到用户退出口语学习之后,又再次获取到用户预备口语学习时操作第一按键时的指纹特征信息,且再次获取的指纹特征信息与保存的指纹特征信息一致,则播放由终端推送的、除用户已学习过的口语之外的的口语。
本实施例第一按键同时还具备指纹识别功能,用户用手指操作第一按键时,终端通过第一按键获取用户指纹特征信息,并保存表征用户身份的指纹特征信息,然后在用户退出口语学习前关联用户指纹特征信息与用户所学习过的口语。如果该用户退出口语学习后又操作第一按键准备再次进入口语学习,则播放该用户A没有学习过的口语。例如用户A退出口语学习后,1小时后又进入口语学习,那么在用户预备再次进入口语时,在操作第一按键时,就可以识别出用户A的身份,那么播放的口语词将不会是用户A在1小时之前学习过的口语词,这样用户A就不会重复学习学过的词语。
具体地若在最后一次播放口语后,预设时间内未检测到用户对该口语的发音,则判定用户退出口语学习。后续可以关闭终端。
在其中一个实施例中,本实施例的口语学习方法还包括在获取用户跟随播音对待学习的口语发出的用户发音时,从用户发音提取用户的声纹特征信息以表征用户的身份,并将用户的声纹特征信息与播放过的、且用户学习过的待学习的口语进行关联,并保存用户的声纹特征信息的步骤;
然后若检测到用户退出口语学习之后,又再次获取到用户跟随播音发出的用户发音,且再次提取的声纹特征信息与保存的用户的声纹特征信息匹配,则播放除关联的口语以外的口语。
本实施例,可以在用户跟随播音发声时识别用户的声纹特征信息,例如用户A退出口语学习后,1小时后又进入口语学习,那么在终端播放一个口语词后,用户A发音后,就能根据用户A的声纹特征确定用户A的身份,那么后续播放的口语词,不会是用户1小时之前学习过的口语词。这样用户A就不会重复学习学过的词语。
在其中一个实施例中,对于学习英语口语的情况,在播放待学习的英语时还会播放英语的中文释义。英语具体是英语单词或英语句子。
步骤104,获取用户对待学习的口语发出的用户发音。
播放了待学习的口语后,用户跟随播放的待学习的口语进行发音练习,然后获取用户跟随播放的待学习的口语学习时的发音。
具体地,可以通过录制的方式获取用户对待学习的口语的发音。可以利用长按终端按键的方式来录制用户对待学习的口语的发音。
在其中一个实施例中,终端设有第二按键,获取用户对待学习的口语发出的用户发音的步骤是:在获取用户操控第二按键产生的第二按键信息的同时,获取用户发音。
其中,第二按键可以是触摸按键,操作第二按键的方式则可以是触摸,第二按键具体可以是电容式感应触摸按键,或者第二按键也可以是物理按键,操作第二按键的方式则是按压。第二按键信息可以是操控第二按键时,第二按键产生的电平信息。
本实施例是在用户在长按第二按键的同时,实时获取用户对待学习的口语发出的用户发音。在获取用户发音期间,可能会录制其他与待学习口语无关的声音,故本实施例设定用户长按按键的同时,录制用户发音。如此,可以准确获取用户发音,减少其他无关声音的干扰。
步骤106,提供待学习的口语的原有标准发音,将原有标准发音与用户发音进行匹配,以获取用户发音与原有标准发音的吻合度,根据吻合度对用户发音进行评分。
具体地,可设置吻合度越高,分数越高。吻合度不同,评分也不同。可以根据吻合度对用户的发音进行分段评分,例如完全吻合评分为优秀,吻合度80%~90%评分为良好,吻合度70%~80%评分为中等,吻合度60%~70%评分及格,吻合度0%~60%评分为不合格。
以待学习的口语为待学习英语单词为例说明,用户对同一个英语单词要练习多次的情况,这样可能会对每次的发音都进行评分,这样处理负荷会比较大。
在其中一个实施例中,若获取用户对同一待学习的英语单词连续发出为两次以上的用户发音,则包括对比各次用户发音的步骤;
若各次发音的差别小于预设值,则将原有标准发音与用户发音进行匹配的步骤是提取该单词第一次的用户发音,跟该英语单词原有标准发音进行匹配;如果该英语单词的各次用户发音中存在不同的用户发音,则将原有标准发音与用户发音进行匹配的步骤是提取该英语单词各次用户发音中,相同用户发音数量最多的用户发音,用于跟该单词原有标准发音进行匹配。
用户对同一个英语单词的发音与标准原有发音的吻合度可能不一样,而既然吻合度不同,用户对同一个英语单词的各次发音对应的评分也会不同。如果对同一个英语单词的每次发音都去评分,就会使终端的处理负荷比较大。本实施例,用户对同一个英语单词多次连续发音的情况,均择取一个用户发音进行评分,可避免增加处理负荷。
对于待学习的口语是包括两个以上单词的句子的情况,例如英语句子包括多个英语单词,则步骤106是提取各个单词的用户发音,对句子中的每个单词的用户发音与原有标准发音进行匹配,根据各个单词的用户发音与相应标准原有发音的吻合度依次进行评分,然后将评分按照各个单词用户发音的顺序反馈给用户。
例如用户练习“State Intellectual Property Office”,包括4个英语单词,则分别对State的用户发音、Intellectual的用户发音、Property的用户发音以及Office的用户发音分别与对应的原有标准发音进行匹配,然后根据对应的吻合度进行评分,然后将State的评分结果、Intellectual的评分结果、Property的评分结果以及Office的评分结果顺序反馈给用户。
在其中一个实施例中,提供待学习的口语的原有标准发音,将原有标准发音与用户发音进行匹配,以获取用户发音与原有标准发音的吻合度,根据吻合度对用户发音进行评分的步骤是通过云端执行的。具体地,是利用云端提供待学习的口语的原有标准发音,将原有标准发音与用户发音进行匹配,以获取用户发音与原有标准发音的吻合度,根据吻合度对用户发音进行评分。
步骤108,将评分结果反馈给用户,根据评分结果确定是否播放下一个待学习的口语。
具体地,将评分结果反馈给用户的方式可以语音播报方式。例如计算用户对“thanks”的评分是89分,则向用户播放语音“您对thanks的发音是89分哦”。
其中一个实施例中,根据评分结果确定是否播放下一个待学习的口语的步骤包括:
若用户发音对应的评分低于预设分数,则再次播放待学习的口语,并发出指示信息引导用户再次朗读待学习的口语,直到播放待学习的口语的次数达到预设次数或待学习的口语的用户发音对应的评分达到预设分数,才播放下一个待学习的口语。
具体地,对于待学习口语为一个单词的情况,若用户发音对应的评分低于预设分数,则再次播放该单词以引导用户跟随播音再次朗读待学习的口语该单词,直到该单词待学习的口语的用户发音对应的评分达到预设分数,才播放下一个待学习单词待学习的口语。若待学习的口语的用户发音对应的评分一直未达到预设分数,但播放待学习的口语的次数达到预设次数,也会播放下一个待学习的口语。
用户例如儿童在学习口语时,如果练习多次还不合格,可能会影响学习积极性。设置同一单词播放次数达预设次数则播放下一单词,可以避免打击用户学习口语的积极性。
具体地,若待学习的口语的播放次数达到预设次数,但若最后一次播放的待学习的口语的用户发音对应的评分低于预设分数,则反馈高于对应评分的分数给用户,并播放下一个待学习的口语。反馈的方式具体可以语音。
例如,预设次数为4次,预设分数为80分,单词“banana”播放次数已经4次,儿童在播放第四次时对单词“banana”的发音还是60分,低于80分,为了不打击儿童学习英语的积极性和自信心,反馈给儿童的分数可以是高于实际分数的82分,假装儿童通过了该单词的学习,播放下一个单词。如此可以鼓励孩子去积极、主动、自信的学习口语。
具体地,对于待学习口语为包括两个以上单词的句子情况,对该待学习口语中各个单词的用户发音的评分,可能存在分数高于预设分数的,也存在分数低于预设分数的,则将低于预设分数的用户发音对应的单词提取出来,重新播放,指示用户重新练习,直到低于预设分数的单词,用户发音达到预设分数,或者播放该单词的次数达到预设次数,才播放下一待学习口语句子。例如预设分数是90分,用户对State的发音评分是98分,Intellectual的评分是66分,Property的评分是76分,Office的发音评分是100分。则是提取并重新播放Intellectual和Property这两个单词,直到用户对这两个单词的发音的评分高于预设分数,或对这两个单词的播放次数达到预设次数,才播放下一待学习口语。
具体地,若用户发音对应的评分低于预设分数,则再次播放待学习的口语的步骤包括:
若用户发音对应的评分低于预设分数,则从用户发音中提取错误发音,并根据错误发音识别用户对错误发音的发音口型缺陷,并提供对应的正确发音口型信息,以指导用户按照正确发音口型信息再次对待学习的口语进行发音。提供正确发音口型信息的方式是以语音方式播放正确发音口型信息。
例如thanks,标准发音应为用户可能会发成那么显然用户是将θ发成了s,根据用户错误发音识别出用户是因为没有咬舌尖才将θ误发成了s,则可以语音播报“舌尖微微伸出,上下齿轻轻咬住舌尖,送气,声带不振动”θ的正确发音口音信息。
上述口语学习方法,还会根据标准发音对用户发音进行评分,然后将评分结果反馈给用户,这样用户就可以知晓发音是否标准,还会引导用户如何正确发音;若用户发音对应的评分低于预设分数,但口语的播放次数达到预设次数,也会播放下一口语,不会打击用户信心。且用户发音对应的评分低于预设分数,还可以反馈高于对应评分的分数给用户,假装用户通过了该单词的学习,播放下一个单词,如此可以鼓励孩子去积极、主动、自信的学习口语。
上述口语学习方法,用户在预备进入口语学习时操作第一按键,用户就能被指示信息引导去学习播放的推送口语,操作简单,尤其对于儿童这样用户,他们知识水平、操作能力有限,由终端引导他们学习,可以容易地进入口语学习。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
图2为一个实施例的口语学习装置的结构框图。图2的口语学习装置包括:
口语播放模块210,用于播放待学习的口语;
用户发音获取模块220,用于获取用户跟随播音对待学习的口语发出的用户发音;
用户发音模块230,用于提供待学习的口语的原有标准发音,将原有标准发音与用户发音进行匹配,以获取用户发音与原有标准发音的吻合度,根据吻合度对用户发音进行评分;
判断模块240,用于根据评分结果确定是否播放下一个待学习的口语。
上述口语学习装置中各个模块的划分仅用于举例说明,在其他实施例中,可将终端的口语学习装置按照需要划分为不同的模块,以完成上述终端的口语学习装置的全部或部分功能。
关于本实施例口语学习装置的具体限定可以参见上文中对于口语学习方法的限定,在此不再赘述。上述口语学习装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本申请实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行如上任一实施例中的口语学习方法的步骤。
一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如上任一实施例中的口语学习方法。
本申请实施例还提供了一种终端,该终端为智能机器人,所述智能机器人包括存储器和处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如上任一实施例中所述的口语学习方法的步骤。
本申请所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种口语学习方法,其特征在于,所述方法包括:
播放待学习的口语;
获取用户跟随播音对所述待学习的口语发出的用户发音;
提供所述待学习的口语的原有标准发音,将所述原有标准发音与所述用户发音进行匹配,以获取所述用户发音与所述原有标准发音的吻合度,根据所述吻合度对所述用户发音进行评分;
将评分结果反馈给用户,并根据评分结果确定是否播放下一个待学习的口语。
2.根据权利要求1所述的方法,其特征在于,所述根据评分结果确定是否播放下一个待学习的口语的步骤包括:
若所述用户发音对应的评分低于预设分数,则再次播放所述待学习的口语以引导用户再次朗读所述待学习的口语,直到播放所述待学习的口语的次数达到预设次数或所述待学习的口语的用户发音对应的评分达到预设分数,才播放下一个待学习的口语。
3.根据权利要求1所述的方法,其特征在于,所述根据评分结果确定是否播放下一个待学习的口语的步骤包括:
若所述待学习的口语的播放次数达到预设次数,且最后一次播放的所述待学习的口语的用户发音对应的评分低于预设分数,则反馈高于所述对应的评分的分数给用户,并播放下一个待学习的口语。
4.根据权利要求1所述的方法,其特征在于,
所述提供所述待学习的口语的原有标准发音,将所述原有标准发音与所述用户发音进行匹配,以获取所述用户发音与所述原有标准发音的吻合度,根据所述吻合度对所述用户发音进行评分的步骤是通过云端执行的。
5.根据权利要求2所述的方法,其特征在于,所述若所述用户发音对应的评分低于预设分数,则再次播放所述待学习的口语的步骤包括:
若所述用户发音对应的评分低于预设分数,则从所述用户发音中提取错误发音,并根据所述错误发音提供所述待学习的口语的正确发音口型信息并播放给用户,以引导用户按照所述正确发音口型信息再次对所述待学习的口语进行发音。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述方法应用于终端,所述终端设有第一按键,所述方法还包括:
获取所述第一按键被操作时产生的第一按键信息;
所述播放待学习的口语的步骤是根据所述第一按键信息播放由所述终端推送的所述待学习的口语,并根据所述第一按键信息生成指示信息,以引导用户跟随播音学习所述待学习的口语。
7.根据权利要求6所述的方法,其特征在于,所述终端设有第二按键,
获取用户对所述待学习的口语发出的用户发音的步骤是:在获取用户操控所述第二按键产生的第二按键信息的同时,获取所述用户发音。
8.根据权利要求6所述的方法,其特征在于所述第一按键为指纹识别按键,所述方法还包括获取用户在操作所述第一按键时用户的指纹特征信息,并在检测到所述用户退出口语学习之前关联所述用户的指纹特征信息与所述用户已学习过的口语,并保存所述用户的指纹特征信息的步骤;
若检测到所述用户退出口语学习之后,又再次获取到用户预备进入口语学习时操作所述第一按键时的指纹特征信息,且检测到再次获取的指纹特征信息与保存的所述指纹特征信息一致,则播放由所述终端推送的、除所述用户已学习过的口语之外的口语。
9.根据权利要求6所述的方法,其特征在于,所述方法还包括在获取用户跟随播音对所述待学习的口语发出的用户发音时,从所述用户发音提取所述用户的声纹特征信息,并将所述用户的声纹特征信息与播放过的、且所述用户学习过的待学习的口语进行关联,并保存所述用户的声纹特征信息的步骤;
若检测到所述用户退出口语学习之后,又再次获取到用户跟随播音发出的用户发音,且再次提取的声纹特征信息与保存的所述用户的声纹特征信息匹配,则播放除关联的口语以外的口语。
10.一种口语学习装置,其特征在于,所述装置包括:
口语播放模块,用于播放待学习的口语;
用户发音获取模块,用于获取用户跟随播音对所述待学习的口语发出的用户发音;
用户发音模块,用于提供所述待学习的口语的原有标准发音,将所述原有标准发音与所述用户发音进行匹配,以获取所述用户发音与所述原有标准发音的吻合度,根据所述吻合度对所述用户发音进行评分;
判断模块,用于根据评分结果确定是否播放下一个待学习的口语。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810796578.0A CN108961856A (zh) | 2018-07-19 | 2018-07-19 | 口语学习方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810796578.0A CN108961856A (zh) | 2018-07-19 | 2018-07-19 | 口语学习方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108961856A true CN108961856A (zh) | 2018-12-07 |
Family
ID=64497841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810796578.0A Pending CN108961856A (zh) | 2018-07-19 | 2018-07-19 | 口语学习方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108961856A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109410664A (zh) * | 2018-12-12 | 2019-03-01 | 广东小天才科技有限公司 | 一种发音纠正方法及电子设备 |
CN109448464A (zh) * | 2018-12-29 | 2019-03-08 | 杭州晶智能科技有限公司 | 一种英文单词拼写练习方法 |
CN109545014A (zh) * | 2018-12-28 | 2019-03-29 | 杭州晶智能科技有限公司 | 一种基于语音交互的外语单词练习方法 |
CN109637543A (zh) * | 2018-12-12 | 2019-04-16 | 平安科技(深圳)有限公司 | 语音卡的语音数据处理方法和装置 |
CN109637286A (zh) * | 2019-01-16 | 2019-04-16 | 广东小天才科技有限公司 | 一种基于图像识别的口语训练方法及家教设备 |
CN109979433A (zh) * | 2019-04-02 | 2019-07-05 | 北京儒博科技有限公司 | 语音跟读处理方法、装置、设备和存储介质 |
CN110930794A (zh) * | 2019-09-16 | 2020-03-27 | 上海少立教育科技有限公司 | 一种智能语言教育系统及方法 |
CN111462546A (zh) * | 2020-04-03 | 2020-07-28 | 北京儒博科技有限公司 | 一种语音教学的方法、装置、设备及存储介质 |
CN111583908A (zh) * | 2020-04-30 | 2020-08-25 | 北京一起教育信息咨询有限责任公司 | 一种语音数据分析方法及系统 |
CN111710348A (zh) * | 2020-05-28 | 2020-09-25 | 厦门快商通科技股份有限公司 | 一种基于音频指纹的发音评测方法及终端 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1750121A (zh) * | 2004-09-16 | 2006-03-22 | 北京中科信利技术有限公司 | 一种基于语音识别及语音分析的发音评估方法 |
CN101105939A (zh) * | 2007-09-04 | 2008-01-16 | 安徽科大讯飞信息科技股份有限公司 | 发音指导方法 |
CN103413550A (zh) * | 2013-08-30 | 2013-11-27 | 苏州跨界软件科技有限公司 | 一种人机交互式语言学习系统和方法 |
CN103730106A (zh) * | 2014-01-13 | 2014-04-16 | 得理乐器(珠海)有限公司 | 一种电子乐器智能学习控制方法 |
CN105825852A (zh) * | 2016-05-23 | 2016-08-03 | 渤海大学 | 一种英语口语朗读考试评分方法 |
CN106205634A (zh) * | 2016-07-14 | 2016-12-07 | 东北电力大学 | 一种大学英语口语学习与测试系统及其方法 |
-
2018
- 2018-07-19 CN CN201810796578.0A patent/CN108961856A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1750121A (zh) * | 2004-09-16 | 2006-03-22 | 北京中科信利技术有限公司 | 一种基于语音识别及语音分析的发音评估方法 |
CN101105939A (zh) * | 2007-09-04 | 2008-01-16 | 安徽科大讯飞信息科技股份有限公司 | 发音指导方法 |
CN103413550A (zh) * | 2013-08-30 | 2013-11-27 | 苏州跨界软件科技有限公司 | 一种人机交互式语言学习系统和方法 |
CN103730106A (zh) * | 2014-01-13 | 2014-04-16 | 得理乐器(珠海)有限公司 | 一种电子乐器智能学习控制方法 |
CN105825852A (zh) * | 2016-05-23 | 2016-08-03 | 渤海大学 | 一种英语口语朗读考试评分方法 |
CN106205634A (zh) * | 2016-07-14 | 2016-12-07 | 东北电力大学 | 一种大学英语口语学习与测试系统及其方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109410664A (zh) * | 2018-12-12 | 2019-03-01 | 广东小天才科技有限公司 | 一种发音纠正方法及电子设备 |
CN109637543A (zh) * | 2018-12-12 | 2019-04-16 | 平安科技(深圳)有限公司 | 语音卡的语音数据处理方法和装置 |
CN109545014A (zh) * | 2018-12-28 | 2019-03-29 | 杭州晶智能科技有限公司 | 一种基于语音交互的外语单词练习方法 |
CN109448464A (zh) * | 2018-12-29 | 2019-03-08 | 杭州晶智能科技有限公司 | 一种英文单词拼写练习方法 |
CN109637286A (zh) * | 2019-01-16 | 2019-04-16 | 广东小天才科技有限公司 | 一种基于图像识别的口语训练方法及家教设备 |
CN109979433A (zh) * | 2019-04-02 | 2019-07-05 | 北京儒博科技有限公司 | 语音跟读处理方法、装置、设备和存储介质 |
CN110930794A (zh) * | 2019-09-16 | 2020-03-27 | 上海少立教育科技有限公司 | 一种智能语言教育系统及方法 |
CN111462546A (zh) * | 2020-04-03 | 2020-07-28 | 北京儒博科技有限公司 | 一种语音教学的方法、装置、设备及存储介质 |
CN111583908A (zh) * | 2020-04-30 | 2020-08-25 | 北京一起教育信息咨询有限责任公司 | 一种语音数据分析方法及系统 |
CN111710348A (zh) * | 2020-05-28 | 2020-09-25 | 厦门快商通科技股份有限公司 | 一种基于音频指纹的发音评测方法及终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108961856A (zh) | 口语学习方法和装置 | |
US8843372B1 (en) | Natural conversational technology system and method | |
CN109410664B (zh) | 一种发音纠正方法及电子设备 | |
JP5756555B1 (ja) | 発話評価装置、発話評価方法及びプログラム | |
CN109039647A (zh) | 终端及其口语学习方法 | |
CN110085261A (zh) | 一种发音纠正方法、装置、设备以及计算机可读存储介质 | |
US11145222B2 (en) | Language learning system, language learning support server, and computer program product | |
Fung | Robots heart with | |
CN106228988A (zh) | 一种基于声纹信息的习惯信息匹配方法及装置 | |
CN101551947A (zh) | 辅助口语语言学习的计算机系统 | |
WO2007015869A3 (en) | Spoken language proficiency assessment by computer | |
JP2008309856A (ja) | 音声認識装置及び会議システム | |
CN106695826A (zh) | 具有扫描以及朗读功能的机器人装置 | |
CN110246485B (zh) | 基于语音识别模型的样本数据获取方法、终端设备及介质 | |
CN110691258A (zh) | 一种节目素材制作方法、装置及计算机存储介质、电子设备 | |
CN109074804A (zh) | 基于口音的语音识别处理方法、电子设备和存储介质 | |
CN110598208A (zh) | Ai/ml增强发音课程设计和个性化练习计划方法 | |
CN109388705A (zh) | 一种文本意图分类方法 | |
CN101739852B (zh) | 基于语音识别的实现自动口译训练的方法和装置 | |
CN109032707A (zh) | 终端及其口语学习方法和装置 | |
US8346561B2 (en) | Voice activatable system for providing the correct spelling of a spoken word | |
US20190304454A1 (en) | Information providing device, information providing method, and recording medium | |
Schuller et al. | Incremental acoustic valence recognition: an inter-corpus perspective on features, matching, and performance in a gating paradigm | |
CN108245886A (zh) | 基于语音控制的游戏化语言学习方法及系统 | |
US20190189026A1 (en) | Systems and Methods for Automatically Integrating a Machine Learning Component to Improve a Spoken Language Skill of a Speaker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181207 |
|
RJ01 | Rejection of invention patent application after publication |