CN109039647A - 终端及其口语学习方法 - Google Patents
终端及其口语学习方法 Download PDFInfo
- Publication number
- CN109039647A CN109039647A CN201810798066.8A CN201810798066A CN109039647A CN 109039647 A CN109039647 A CN 109039647A CN 201810798066 A CN201810798066 A CN 201810798066A CN 109039647 A CN109039647 A CN 109039647A
- Authority
- CN
- China
- Prior art keywords
- user
- terminal
- learned
- verbal learning
- pronunciation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001755 vocal effect Effects 0.000 title claims abstract description 133
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000004519 manufacturing process Methods 0.000 claims abstract description 5
- 230000002618 waking effect Effects 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 11
- 238000004321 preservation Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 5
- 238000003825 pressing Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 5
- 230000006855 networking Effects 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000003252 repetitive effect Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 241000234295 Musa Species 0.000 description 2
- 235000018290 Musa x paradisiaca Nutrition 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000005182 tip of the tongue Anatomy 0.000 description 2
- 241001071864 Lethrinus laticaudis Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/32—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
- H04L9/3226—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
- H04L9/3231—Biological data, e.g. fingerprint, voice or retina
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/04—Electrically-operated educational appliances with audible presentation of the material to be studied
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请实施例提供一种终端及其口语学习方法,包括:采集用户的人体生物特征信息;根据所述人体生物特征信息唤醒终端;播放询问语音;获取用户根据所述询问语音反馈的口语学习请求语音,根据所述口语学习请求语音播放由所述终端推送的待学习口语,并根据所述口语学习请求语音生成指示信息,以引导用户跟随播音学习所述待学习的口语;在用户唤醒终端后,就会播放询问语音,获取用户根据所述询问语音反馈的口语学习请求语音后,用户就能被指示信息引导去学习播放的推送口语;上述进入口语学习的方法,操作简单,尤其对于儿童这样用户,他们知识水平、操作能力有限,由终端引导他们学习,可以容易地进入口语学习。
Description
技术领域
本发明涉及口语学习技术领域,特别是涉及终端的口语学习方法。
背景技术
人们目前会用APP来学习口语,例如英语。用户要学习口语时需要先打开终端,然后打开相应APP,然后还要用户选择自己要学习的词语,操作起来比较复杂。尤其对于儿童这样的用户,知识水平、操作能力有限,他们不懂在终端上操作APP,难以通过APP进入口语学习。
发明内容
基于此,有必要提供一种终端的口语学习方法。
所述方法包括:
采集用户的人体生物特征信息;
根据所述人体生物特征信息唤醒终端;
播放询问语音;
获取用户根据所述询问语音反馈的口语学习请求语音,根据所述口语学习请求语音播放由所述终端推送的待学习口语,并根据所述口语学习请求语音生成指示信息,以引导用户跟随播音学习所述待学习的口语。
上述终端的口语学习方法,用户唤醒终端后,就会播放询问语音,获取用户根据所述询问语音反馈的口语学习请求语音后,用户就能被指示信息引导去学习播放的推送口语;上述进入口语学习的方法,操作简单,尤其对于儿童这样用户,他们知识水平、操作能力有限,由终端引导他们学习,可以容易地进入口语学习。
在其中一个实施例中,所述终端设有触摸按键;
采集用户的人体生物特征信息的步骤是利用所述触摸按键采集用户的人体皮肤特征信息;
根据所述人体生物特征信息唤醒终端的步骤包括:识别所述人体生物特征信息,若所述人体皮肤特征信息与预设的人体皮肤特征信息吻合,则唤醒终端。
在其中一个实施例中,采集用户的人体生物特征信息的步骤是采集用户的唤醒语音;
根据所述人体生物特征信息唤醒终端的步骤包括:识别所述唤醒语音,若所述唤醒语音的声纹特征信息与预设的声纹特征信息吻合,且若所述唤醒语音含有所述终端的标识信息,则唤醒所述终端。
在其中一个实施例中,所述触摸按键为具备指纹识别功能的触摸按键;所述方法还包括:
利用所述触摸按键采集用户的指纹特征信息;
关联所述用户的指纹特征信息与所述用户已学习过的口语,并保存所述用户的指纹特征信息;
若在检测到所述用户退出口语学习之后,又再次利用所述触摸按键获取到用户的指纹特征信息,且再次获取的指纹特征信息与保存的所述指纹特征信息一致,则播放由所述终端推送的、除所述用户已学习过的口语之外的口语。
在其中一个实施例中,所述方法还包括:
从所述口语学习请求语音中提取用户的声纹特征信息;
关联所述用户的声纹特征信息与所述用户已学习过的口语,并保存所述用户的声纹特征信息;
若在检测到所述用户退出口语学习之后,又采集到用户发出的口语学习请求语音,且再次获取的声纹特征信息与保存的所述用户的声纹特征信息一致,则播放由所述终端推送的、除所述用户已学习过的口语之外的口语。
在其中一个实施例中,所述方法还包括:
建立所述终端与设有口语学习软件的设备之间的通信连接;
所述根据所述口语学习请求语音播放由所述终端推送的待学习口语的步骤包括:利用所述终端向所述设备发送所述口语学习请求语音,利用所述终端获取所述设备根据所述口语学习请求语音反馈的待学习口语,并利用所述终端播放所述待学习口语。
在其中一个实施例中,其特征在于,所述方法还包括:
获取用户跟随播音对所述待学习的口语发出的用户发音;
提供所述待学习的口语的原有标准发音,将所述原有标准发音与所述用户发音进行匹配,以获取所述用户发音与所述原有标准发音的吻合度,根据所述吻合度对所述用户发音进行评分;
将评分结果反馈给用户,并根据评分结果确定是否播放下一个待学习的口语。
在其中一个实施例中,获取用户对所述待学习的口语发出的用户发音的步骤是在生成指示信息后,在获取用户长按所述触摸按键产生的按键信息的同时,获取所述用户发音。
在其中一个实施例中,所述根据评分结果确定是否播放下一个待学习的口语的步骤包括:
若所述用户发音对应的评分低于预设分数,则再次播放所述待学习的口语以引导用户再次朗读所述待学习的口语,直到播放所述待学习的口语的次数达到预设次数或所述待学习的口语的用户发音对应的评分达到预设分数,才播放下一个待学习的口语。
还提出一种终端,所述终端为智能机器人,所述智能机器人包括存储器和处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如上任一实施例中所述的方法的步骤。
附图说明
图1为一个实施例中的终端的口语学习方法的流程示意图;
图2为另一个实施例中的终端的口语学习方法的流程示意图;
图3为再一个实施例中的终端的口语学习方法的流程示意图;
图4为一个实施例中的终端的口语学习装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为一个实施例中终端的口语学习方法的流程示意图,终端可以是具备语音交互功能的智能机器人,本实施例的进入口语学习的方法,可以用于英语口语或其他语种的学习。请参阅图1,本实施例的方法包括步骤102至步骤108:
步骤102,采集用户的人体生物特征信息。
人体生物特征信息可以是用户语音信息、皮肤信息、人脸特征信息、手势、指纹等。
步骤104,根据人体生物特征信息唤醒终端。
其中,唤醒终端后可以激活终端的语音命令状态,使得终端可以播放和录制语音。
在其中一个实施例中,终端设有触摸按键,触摸按键具体可以是电容式触摸按键。采集用户的人体生物特征信息的步骤则可以是采集用户的人体皮肤特征信息;根据人体生物特征信息唤醒终端的语音交互功能的步骤是根据人体皮肤特征信息唤醒终端。
触摸按键表面可设置成标志图形,例如触摸按键表面设置小猪佩奇、喜羊羊等动画图案图形,可以勾起儿童等用户的学习兴趣。
终端例如智能机器人可以只为专属人员服务,其他人员则不可唤醒智能机器人。在其中一个实施例中,根据人体生物特征信息唤醒终端的语音交互功能的步骤包括:识别该人体生物特征信息,若该人体生物特征信息与预设人体皮肤特征信息吻合才唤醒终端。
在另一个实施例中,采集用户的人体生物特征信息的步骤是采集用户的唤醒语音;根据人体生物特征信息唤醒终端的步骤包括:若唤醒语音含有终端的标识信息,则唤醒终端。
本实施例,若唤醒语音的内容与智能机器人的标识信息吻合,智能机器人才被唤醒,例如给智能机器人标识的名字是小笛,当用户的语音中含有小笛,则小笛机器人被唤醒。对于存在多个智能机器人,可以避免误唤醒其他智能机器人。
进一步地,智能机器人可以只为专属人员服务,其他人员则不可唤醒智能机器人。在根据人体生物特征信息唤醒终端的语音交互功能的步骤包括:识别该唤醒语音,若该唤醒语音的声纹特征信息与预设的声纹特征信息吻合,则说明唤醒语音是该终端的专属用户发出的,且若唤醒语音含有终端的标识信息,则唤醒终端。
本实施例,满足专属用户、且同时满足智能机器人属于该专属用户,才能唤醒相应机器人。
步骤106,播放询问语音。
终端的语音交互功能被唤醒后,终端会向用户播放询问语音,询问用户想要执行什么操作。
步骤108,获取用户根据询问语音反馈的口语学习请求语音,根据口语学习请求语音播放由终端推送的待学习口语,并根据口语学习请求语音生成指示信息,以引导用户跟随播音学习待学习的口语。
如果用户想要学习口语,用户收听到询问语音后则会发出口语学习请求语音。播放待学习口语后,发出的指示信息则会指导用户跟随播音学习口语。指示信息可以是语音信息,具体可以是根据将播放的待学习口语的类别生成该指示信息。例如,待学习口语是英语单词“Red”,则根据“Red”的类别生成“您好,您现在进入英语学习,我们开始学习颜色单词的发音哦”的语音指示信息。
待学习的口语是英语单词或者其他语种单词。待学习的口语可以保存在终端的存储器中;待学习的口语可以按种类保存,以英语单词为例,可以将待学习的英语单词分类为颜色单词、蔬菜单词、动物单词、家具单词等等。待学习的口语也可以是英语句子或者其他语种句子。
在其中一个实施例中,请参阅图2,本申请实施例的口语学习方法还包括步骤202至步骤204:
步骤202,获取用户的身份信息,将用户的身份信息与用户学习过的口语相关联,并保存用户的身份信息。
用户的身份信息是诸如但不限于用户指纹特征信息、人脸特征信息、声纹特征信息等。
步骤204,若检测到用户退出口语学习之后,又再次获取到与保存的用户的身份信息相匹配的身份信息,则播放由终端推送的、除关联的口语以外的口语。
本实施例中如果用户退出口语学习后再次进入口语学习,则播放该用户没有学习过的口语。例如用户A退出口语学习后,1小时后又进入口语学习,那么在用户A预备再次进入口语时,就可以识别出用户A的身份,那么播放的口语词将不会是用户A在1小时之前学习过的口语词,这样用户A就不会重复学习学过的词语。
在一个具体实施例中,获取用户的身份信息的步骤可以是从口语学习请求语音中提取用户的声纹特征信息,以表征用户的身份;将用户的身份信息与用户学习过的口语相关联,并保存用户的身份信息的步骤则是关联用户的声纹特征信息与用户已学习过的口语,并保存用户的声纹特征信息;然后若在检测到用户退出口语学习之后,又采集到用户发出的口语学习请求语音,且再次获取声纹特征信息与保存的用户的声纹特征信息一致,则说明先后两次发出口语学习请求语音的用户是同一个用户,则播放由终端推送的、除用户已学习过的口语之外的口语。
在播放最后一个口语后,预设时间内未检测到用户对该口语的发音,则可判定用户退出口语学习,后续可能会关闭终端,后续再要进入口语学习,又会唤醒终端。那么在另一个具体实施例中,获取用户的身份信息的步骤可以是从唤醒语音中提取用户的声纹特征信息,以表征用户的身份;将用户的身份信息与用户学习过的口语相关联,并保存用户的身份信息的步骤则是关联用户的声纹特征信息与用户已学习过的口语,并保存用户的声纹特征信息;然后若在检测到用户退出口语学习之后,又采集到唤醒语音,且再次获取声纹特征信息与保存的用户的声纹特征信息一致,则播放由终端推送的、除用户已学习过的口语之外的口语。
在另一个具体实施例中,触摸按键为具备指纹识别功能的触摸按键,获取用户的身份信息的步骤利用触摸按键采集用户的指纹特征信息;将用户的身份信息与用户学习过的口语相关联,并保存的步骤是关联用户的指纹特征信息与用户已学习过的口语,并保存用户的指纹特征信息;然后若在检测到用户退出口语学习之后,又再次利用该触摸按键获取到用户的指纹信息,且再次获取的指纹信息与保存的指纹信息一致,说明这个用户已经跟该终端学习过口语,则播放由终端推送的、除用户已学习过的口语之外的口语。
在另一个具体实施例中,也可以从用户跟随播音学习待学习的口语时发出的用户发音提取用户的声纹特征信息以表征用户的身份,并将用户的声纹特征信息与播放过的、且用户学习过的待学习的口语进行关联,并保存用户的声纹特征信息,然后若检测到用户退出口语学习之后,又再次获取到用户跟随播音发出的用户发音,且再次提取的声纹特征信息与保存的用户的声纹特征信息匹配,则播放除关联的口语以外的口语。例如用户A退出口语学习后,1小时后又进入口语学习,那么在终端播放一个口语词后,用户A发音后,就能根据用户A的声纹特征信息确定用户A的身份,那么后续播放的口语词,不会是用户1小时之前学习过的口语词。这样用户A就不会重复学习学过的词语。
本实施例触摸按键同时还具备指纹识别功能,用户用手指操作触摸按键时,终端通过触摸按键获取用户指纹特征信息,并保存表征用户身份的指纹特征信息,然后在用户退出口语学习前关联用户指纹特征信息与用户所学习过的口语。如果该用户退出口语学习后又操作触摸按键准备再次进入口语学习,则播放该用户A没有学习过的口语。例如用户A退出口语学习后,1小时后又进入口语学习,那么在用户预备再次进入口语时,在操作触摸按键时,就可以识别出用户A的身份,那么播放的口语词将不会是用户A在1小时之前学习过的口语词,这样用户A就不会重复学习学过的词语。
在其中一个实施例中,建立终端与设有口语学习软件的设备之间的通信连接;
根据口语学习请求语音播放由终端推送的待学习口语的步骤包括:利用终端向设备发送口语学习请求语音,利用终端获取设备根据口语学习请求语音反馈的待学习口语,并利用终端播放待学习口语。
若智能机器人本身设有口语学习软件,则利用智能机器人即可引导用户进行口语学习,智能机器人可不用与其他设备建立通信,在离线状态即可引导用户进行口语学习。对于只具备语音交互功能的智能机器人,智能机器人可以从其他设备,例如设有口语学习软件的云服务器等推送待学习口语。建立终端与设有口语学习软件的设备之间的通信连接的步骤可以是获取用户根据询问语音反馈的联网请求语音,然后根据联网请求语音建立终端与设有口语学习软件的设备之间的通信连接。
其他实施例中,用户还可以发出播放儿歌、播放故事、播放国学、查看版本或联网等的请求语音,智能机器人获取这些请求语音后,可执行相应操作。
在其中一个实施例中,请参阅图3,本申请实施例的口语学习方法还包括步骤302至步骤306:
步骤302,获取用户跟随播音对待学习的口语发出的用户发音。
播放了待学习的口语后,用户跟随播放的待学习的口语进行发音练习,然后获取用户跟随播放的待学习的口语学习时的发音。
具体地,可以通过录制的方式获取用户对待学习的口语的发音。可以利用长按终端触摸按键的方式来录制用户对待学习的口语的发音。
其中一个实施例中,获取用户对待学习的口语发出的用户发音的步骤是:在生成指示信息后获取用户操控触摸按键产生按键信息的同时,获取用户发音。
本实施例是在用户在长按触摸按键的同时,实时获取用户对待学习的口语发出的用户发音。在获取用户发音期间,可能会录制其他与待学习的口语无关的声音,故本实施例设定用户长按触摸按键的同时,录制用户发音。如此,可以准确获取用户发音,减少其他无关声音的干扰。
步骤304,提供待学习的口语的原有标准发音,将原有标准发音与用户发音进行匹配,以获取用户发音与原有标准发音的吻合度,根据吻合度对用户发音进行评分。
具体地,可设置吻合度越高,分数越高。吻合度不同,评分也不同。可以根据吻合度对用户的发音进行分段评分,例如完全吻合评分为优秀,吻合度80%~90%评分为良好,吻合度70%~80%评分为中等,吻合度60%~70%评分及格,吻合度0%~60%评分为不合格。
以待学习的口语为待学习英语单词为例说明,用户对同一个英语单词要练习多次的情况,这样可能会对每次的发音都进行评分,这样处理负荷会比较大。
在其中一个实施例中,若获取用户对同一待学习的英语单词连续发出为两次以上的用户发音,则包括对比各次用户发音的步骤;
若各次发音的差别小于预设值,则将原有标准发音与用户发音进行匹配的步骤是提取该单词第一次的用户发音,跟该英语单词原有标准发音进行匹配;如果该英语单词的各次用户发音中存在不同的用户发音,则将原有标准发音与用户发音进行匹配的步骤是提取该英语单词各次用户发音中,相同用户发音数量最多的用户发音,用于跟该单词原有标准发音进行匹配。
用户对同一个英语单词的发音与标准原有发音的吻合度可能不一样,而既然吻合度不同,用户对同一个英语单词的各次发音对应的评分也会不同。如果对同一个英语单词的每次发音都去评分,就会使终端的处理负荷比较大。本实施例,用户对同一个英语单词多次连续发音的情况,均择取一个用户发音进行评分,可避免增加处理负荷。
对于待学习的口语是包括两个以上单词的句子的情况,例如英语句子包括多个英语单词,则步骤304是提取各个单词的用户发音,对句子中的每个单词的用户发音与原有标准发音进行匹配,根据各个单词的用户发音与相应的标准原有发音的吻合度依次进行评分,然后将评分按照各个单词用户发音的顺序反馈给用户。
例如用户练习“State Intellectual Property Office”,包括4个英语单词,则分别对State的用户发音、Intellectual的用户发音、Property的用户发音以及Office的用户发音分别与对应的原有标准发音进行匹配,然后根据对应的吻合度进行评分,然后将State的评分结果、Intellectual的评分结果、Property的评分结果以及Office的评分结果顺序反馈给用户。
在其中一个实施例中,提供待学习的口语的原有标准发音,将原有标准发音与用户发音进行匹配,以获取用户发音与原有标准发音的吻合度,根据吻合度对用户发音进行评分的步骤是通过云端执行的。具体地,是利用云端提供待学习的口语的原有标准发音,将原有标准发音与用户发音进行匹配,以获取用户发音与原有标准发音的吻合度,根据吻合度对用户发音进行评分。
步骤306,将评分结果反馈给用户,并根据评分结果确定是否播放下一个待学习的口语。
具体地,将评分结果反馈给用户的方式可以语音播报方式。例如计算用户对“thanks”的评分是89分,则向用户播放语音“您对thanks的发音是89分哦”。
在其中一个实施例中,根据评分结果确定是否播放下一个待学习的口语的步骤包括:
若用户发音对应的评分低于预设分数,则再次播放待学习的口语以引导用户再次朗读待学习的口语,直到待学习的口语的用户发音次数达到预设次数,才播放下一个待学习的口语。
具体地,对于待学习的口语为一个单词的情况,若用户发音对应的评分低于预设分数,则再次播放该单词以引导用户跟随播音再次朗读该单词,直到该单词待学习的口语的用户发音对应的评分达到预设分数,才播放下一个待学习单词待学习的口语。若待学习的口语的用户发音对应的评分一直未达到预设分数,但播放待学习的口语的次数达到预设次数,也会播放下一个待学习的口语。
用户例如儿童在学习口语时,如果练习多次还不合格,可能会影响学习积极性。设置同一单词播放次数达预设次数则播放下一单词,可以避免打击用户学习口语的积极性。
具体地,若播放待学习的口语的次数达到预设次数,且若该待学习的口语的最后一次播放待学习的口语的相应用户发音对应的评分低于预设分数,则反馈高于对应评分的分数给用户,并播放下一个待学习的口语。反馈的方式具体可以语音。
例如,预设次数为4次,预设分数为80分,单词“banana”播放次数已经4次,儿童在播放第四次时对单词“banana”的发音还是60分,低于80分,为了不打击儿童学习英语的积极性和自信心,反馈给儿童的分数可以是高于实际分数的82分,假装儿童通过了该单词的学习,播放下一个单词。如此可以鼓励孩子去积极、主动、自信的学习口语。
具体地,对于待学习的口语为包括两个以上单词的句子情况,对该待学习的口语中各个单词的用户发音的评分,可能存在分数高于预设分数的,也存在分数低于预设分数的,则将低于预设分数的用户发音对应的单词提取出来,重新播放,指示用户重新练习,直到低于预设分数的单词,用户发音达到预设分数,或者播放该单词的次数达到预设次数,才播放下一待学习的口语句子。例如预设分数是90分,用户对State的发音评分是98分,Intellectual的评分是66分,Property的评分是76分,Office的发音评分是100分。则是提取并重新播放Intellectual和Property这两个单词,直到用户对这两个单词的发音的评分高于预设分数,或对这两个单词的播放次数达到预设次数,才播放下一待学习的口语。
具体地,若用户发音对应的评分低于预设分数,则再次播放待学习的口语的步骤包括:
若用户发音对应的评分低于预设分数,则从用户发音中提取错误发音,并根据错误发音识别用户对待学习的口语的发音口型缺陷,提供待学习的口语的正确发音口型信息并播放给用户,以指导用户按照正确发音口型信息再次对待学习的口语进行发音。
例如thanks,标准发音应为用户可能会发成那么显然用户是将θ发成了s,根据用户错误发音识别出用户是因为没有咬舌尖才将θ误发成了s,则可以语音播报“舌尖微微伸出,上下齿轻轻咬住舌尖,送气,声带不振动”θ的正确发音口音信息。
上述终端的口语学习方法,用户唤醒终端后,就会播放询问语音,获取用户根据询问语音反馈的口语学习请求语音后,用户就能被指示信息引导去学习播放的推送口语;上述进入口语学习的方法,操作简单,尤其对于儿童这样用户,他们知识水平、操作能力有限,由终端引导他们学习,可以容易地进入口语学习。上述进入口语学习的方法,终端可不设实体按键,通过采集用户的生物特征信息即可唤醒终端,利用声纹特征信息或人脸特征信息唤醒终端的时候,不需要用手近距离操作;而且利用终端即可让用户完成口语学习,不需要联网。且终端可以是智能机器人,更能激发儿童的学习乐趣。例如,智能机器人被赋予标识为“小笛”,用户发出语音“你好,小笛”,小笛机器人则被唤醒,然后小笛机器人向用户询问“你好,请说出你想要做什么”,用户就会说出“我想要学英语口语”,那么小笛机器人则向用户播放终端推送待学习口语,并播放指示语音“请跟随播音练习”或者发出“滴”的一声,用户则被引导跟读播音。
上述终端的口语学习方法,还会根据标准发音对用户发音进行评分,然后将评分结果反馈给用户,这样用户就可以知晓发音是否标准,还会引导用户如何正确发音。若用户发音对应的评分低于预设分数,但口语的播放次数达到预设次数,也会播放下一口语,不会打击用户信心;且用户发音对应的评分低于预设分数,还可以反馈高于对应评分的分数给用户,假装用户通过了该单词的学习,播放下一个单词,如此可以鼓励孩子去积极、主动、自信的学习口语。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本申请实施例还提出一种终端的口语学习装置,图4为一个实施例的终端的口语学习装置的结构框图。图4的装置包括:
人体生物特征信息采集模块410,用于采集用户的人体生物特征信息;
唤醒模块420,用于根据人体生物特征信息唤醒终端;
询问语音唤醒模块430,用于播放询问语音;
引导模块440,用于获取用户根据询问语音反馈的口语学习请求语音,根据口语学习请求语音播放由终端推送的待学习口语,并根据口语学习请求语音生成指示信息,以引导用户跟随播音学习待学习的口语。
上述终端的口语学习装置中各个模块的划分仅用于举例说明,在其他实施例中,可将终端的口语学习装置按照需要划分为不同的模块,以完成上述终端的口语学习装置的全部或部分功能。
关于终端的口语学习装置的具体限定可以参见上文中对于终端的口语学习方法的限定,在此不再赘述。上述终端的口语学习装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本申请实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当计算机可执行指令被一个或多个处理器执行时,使得处理器执行如上任一实施例中的终端的口语学习方法的步骤。
一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如上任一实施例中的终端的口语学习方法。
本申请实施例还提供了一种终端,该终端为智能机器人,智能机器人包括存储器和处理器,存储器中储存有计算机程序,计算机程序被处理器执行时,使得处理器执行如上任一实施例中如上任一实施例中的终端的口语学习方法的步骤。
本申请所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种终端的口语学习方法,所述方法包括:
采集用户的人体生物特征信息;
根据所述人体生物特征信息唤醒终端;
播放询问语音;
获取用户根据所述询问语音反馈的口语学习请求语音,根据所述口语学习请求语音播放由所述终端推送的待学习口语,并根据所述口语学习请求语音生成指示信息,以引导用户跟随播音学习所述待学习的口语。
2.根据权利要求1所述的方法,其特征在于,
所述终端设有触摸按键;
采集用户的人体生物特征信息的步骤是利用所述触摸按键采集用户的人体皮肤特征信息;
根据所述人体生物特征信息唤醒终端的步骤包括:识别所述人体生物特征信息,若所述人体皮肤特征信息与预设的人体皮肤特征信息吻合,则唤醒终端。
3.根据权利要求1所述的方法,其特征在于,
采集用户的人体生物特征信息的步骤是采集用户的唤醒语音;
根据所述人体生物特征信息唤醒终端的步骤包括:识别所述唤醒语音,若所述唤醒语音的声纹特征信息与预设的声纹特征信息吻合,且若所述唤醒语音含有所述终端的标识信息,则唤醒所述终端。
4.根据权利要求2所述的方法,其特征在于,所述触摸按键为具备指纹识别功能的触摸按键;所述方法还包括:
利用所述触摸按键采集用户的指纹特征信息;
关联所述用户的指纹特征信息与所述用户已学习过的口语,并保存所述用户的指纹特征信息;
若在检测到所述用户退出口语学习之后,又再次利用所述触摸按键获取到用户的指纹特征信息,且再次获取的指纹特征信息与保存的所述指纹特征信息一致,则播放由所述终端推送的、除所述用户已学习过的口语之外的口语。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
从所述口语学习请求语音中提取用户的声纹特征信息;
关联所述用户的声纹特征信息与所述用户已学习过的口语,并保存所述用户的声纹特征信息;
若在检测到所述用户退出口语学习之后,又采集到用户发出的口语学习请求语音,且再次获取的声纹特征信息与保存的所述用户的声纹特征信息一致,则播放由所述终端推送的、除所述用户已学习过的口语之外的口语。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
建立所述终端与设有口语学习软件的设备之间的通信连接;
所述根据所述口语学习请求语音播放由所述终端推送的待学习口语的步骤包括:利用所述终端向所述设备发送所述口语学习请求语音,利用所述终端获取所述设备根据所述口语学习请求语音反馈的待学习口语,并利用所述终端播放所述待学习口语。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述方法还包括:
获取用户跟随播音对所述待学习的口语发出的用户发音;
提供所述待学习的口语的原有标准发音,将所述原有标准发音与所述用户发音进行匹配,以获取所述用户发音与所述原有标准发音的吻合度,根据所述吻合度对所述用户发音进行评分;
将评分结果反馈给用户,并根据所述评分结果确定是否播放下一个待学习的口语。
8.根据权利要求7所述的方法,其特征在于,获取用户对所述待学习的口语发出的用户发音的步骤是:在生成指示信息后,在获取用户长按所述触摸按键产生的按键信息的同时,获取所述用户发音。
9.根据权利要求7所述的方法,其特征在于,所述根据评分结果确定是否播放下一个待学习的口语的步骤包括:
若所述用户发音对应的评分低于预设分数,则再次播放所述待学习的口语以引导用户再次朗读所述待学习的口语,直到播放所述待学习的口语的次数达到预设次数或所述待学习的口语的用户发音对应的评分达到预设分数,才播放下一个待学习的口语。
10.一种终端,其特征在于,所述终端为智能机器人,所述智能机器人包括存储器和处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至9中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810798066.8A CN109039647A (zh) | 2018-07-19 | 2018-07-19 | 终端及其口语学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810798066.8A CN109039647A (zh) | 2018-07-19 | 2018-07-19 | 终端及其口语学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109039647A true CN109039647A (zh) | 2018-12-18 |
Family
ID=64644383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810798066.8A Pending CN109039647A (zh) | 2018-07-19 | 2018-07-19 | 终端及其口语学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109039647A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109637286A (zh) * | 2019-01-16 | 2019-04-16 | 广东小天才科技有限公司 | 一种基于图像识别的口语训练方法及家教设备 |
CN110853421A (zh) * | 2019-11-21 | 2020-02-28 | 上海好学网络科技有限公司 | 智能考试终端和口语考试系统 |
CN111639217A (zh) * | 2020-05-12 | 2020-09-08 | 广东小天才科技有限公司 | 一种口语评级方法、终端设备及存储介质 |
CN112307162A (zh) * | 2020-02-26 | 2021-02-02 | 北京字节跳动网络技术有限公司 | 用于信息交互的方法和装置 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050154594A1 (en) * | 2004-01-09 | 2005-07-14 | Beck Stephen C. | Method and apparatus of simulating and stimulating human speech and teaching humans how to talk |
CN103413550A (zh) * | 2013-08-30 | 2013-11-27 | 苏州跨界软件科技有限公司 | 一种人机交互式语言学习系统和方法 |
CN103730106A (zh) * | 2014-01-13 | 2014-04-16 | 得理乐器(珠海)有限公司 | 一种电子乐器智能学习控制方法 |
CN104680859A (zh) * | 2015-02-13 | 2015-06-03 | 绵阳点悟教育科技有限公司 | 一种自主学习系统及检测方法 |
CN105575395A (zh) * | 2014-10-14 | 2016-05-11 | 中兴通讯股份有限公司 | 语音唤醒方法及装置、终端及其处理方法 |
CN105741832A (zh) * | 2016-01-27 | 2016-07-06 | 广东外语外贸大学 | 一种基于深度学习的口语评测方法和系统 |
CN106057023A (zh) * | 2016-06-03 | 2016-10-26 | 北京光年无限科技有限公司 | 一种面向智能机器人的儿童教学方法和装置 |
CN106202165A (zh) * | 2016-06-24 | 2016-12-07 | 北京小米移动软件有限公司 | 人机交互的智能学习方法及装置 |
CN106778120A (zh) * | 2016-11-22 | 2017-05-31 | 广东小天才科技有限公司 | 一种应用管理方法和装置 |
CN107203953A (zh) * | 2017-07-14 | 2017-09-26 | 深圳极速汉语网络教育有限公司 | 一种基于互联网、表情识别和语音识别的教学系统及其实现方法 |
CN108109622A (zh) * | 2017-12-28 | 2018-06-01 | 武汉蛋玩科技有限公司 | 一种早教机器人语音互动教育系统及方法 |
US10008209B1 (en) * | 2015-09-25 | 2018-06-26 | Educational Testing Service | Computer-implemented systems and methods for speaker recognition using a neural network |
-
2018
- 2018-07-19 CN CN201810798066.8A patent/CN109039647A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050154594A1 (en) * | 2004-01-09 | 2005-07-14 | Beck Stephen C. | Method and apparatus of simulating and stimulating human speech and teaching humans how to talk |
CN103413550A (zh) * | 2013-08-30 | 2013-11-27 | 苏州跨界软件科技有限公司 | 一种人机交互式语言学习系统和方法 |
CN103730106A (zh) * | 2014-01-13 | 2014-04-16 | 得理乐器(珠海)有限公司 | 一种电子乐器智能学习控制方法 |
CN105575395A (zh) * | 2014-10-14 | 2016-05-11 | 中兴通讯股份有限公司 | 语音唤醒方法及装置、终端及其处理方法 |
CN104680859A (zh) * | 2015-02-13 | 2015-06-03 | 绵阳点悟教育科技有限公司 | 一种自主学习系统及检测方法 |
US10008209B1 (en) * | 2015-09-25 | 2018-06-26 | Educational Testing Service | Computer-implemented systems and methods for speaker recognition using a neural network |
CN105741832A (zh) * | 2016-01-27 | 2016-07-06 | 广东外语外贸大学 | 一种基于深度学习的口语评测方法和系统 |
CN106057023A (zh) * | 2016-06-03 | 2016-10-26 | 北京光年无限科技有限公司 | 一种面向智能机器人的儿童教学方法和装置 |
CN106202165A (zh) * | 2016-06-24 | 2016-12-07 | 北京小米移动软件有限公司 | 人机交互的智能学习方法及装置 |
CN106778120A (zh) * | 2016-11-22 | 2017-05-31 | 广东小天才科技有限公司 | 一种应用管理方法和装置 |
CN107203953A (zh) * | 2017-07-14 | 2017-09-26 | 深圳极速汉语网络教育有限公司 | 一种基于互联网、表情识别和语音识别的教学系统及其实现方法 |
CN108109622A (zh) * | 2017-12-28 | 2018-06-01 | 武汉蛋玩科技有限公司 | 一种早教机器人语音互动教育系统及方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109637286A (zh) * | 2019-01-16 | 2019-04-16 | 广东小天才科技有限公司 | 一种基于图像识别的口语训练方法及家教设备 |
CN110853421A (zh) * | 2019-11-21 | 2020-02-28 | 上海好学网络科技有限公司 | 智能考试终端和口语考试系统 |
CN112307162A (zh) * | 2020-02-26 | 2021-02-02 | 北京字节跳动网络技术有限公司 | 用于信息交互的方法和装置 |
WO2021170094A1 (zh) * | 2020-02-26 | 2021-09-02 | 北京字节跳动网络技术有限公司 | 用于信息交互的方法和装置 |
JP2023514863A (ja) * | 2020-02-26 | 2023-04-11 | 北京字節跳動網絡技術有限公司 | 情報を交換するための方法及び装置 |
EP4113320A4 (en) * | 2020-02-26 | 2023-07-26 | Beijing Bytedance Network Technology Co., Ltd. | INFORMATION INTERACTION METHOD AND DEVICE |
US11854422B2 (en) | 2020-02-26 | 2023-12-26 | Douyin Vision Co., Ltd. | Method and device for information interaction |
CN111639217A (zh) * | 2020-05-12 | 2020-09-08 | 广东小天才科技有限公司 | 一种口语评级方法、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108961856A (zh) | 口语学习方法和装置 | |
CN109039647A (zh) | 终端及其口语学习方法 | |
Cai et al. | Accent modulates access to word meaning: Evidence for a speaker-model account of spoken word recognition | |
Lake et al. | One-shot learning of generative speech concepts | |
US11145222B2 (en) | Language learning system, language learning support server, and computer program product | |
CN106057023A (zh) | 一种面向智能机器人的儿童教学方法和装置 | |
CN108470188B (zh) | 基于图像分析的交互方法及电子设备 | |
KR20140067678A (ko) | 상담 대화 제공 방법 및 이를 이용하는 장치 | |
WO2018230345A1 (ja) | 対話ロボットおよび対話システム、並びに対話プログラム | |
CN110691258A (zh) | 一种节目素材制作方法、装置及计算机存储介质、电子设备 | |
CN110598208A (zh) | Ai/ml增强发音课程设计和个性化练习计划方法 | |
CN108806686B (zh) | 一种语音搜题应用的启动控制方法及家教设备 | |
Siegert et al. | “Speech Melody and Speech Content Didn’t Fit Together”—Differences in Speech Behavior for Device Directed and Human Directed Interactions | |
Wagner et al. | Applying cooperative machine learning to speed up the annotation of social signals in large multi-modal corpora | |
Qadri et al. | A critical insight into multi-languages speech emotion databases | |
Hoque et al. | Robust recognition of emotion from speech | |
CN114283820A (zh) | 多角色语音的交互方法、电子设备和存储介质 | |
Berducci | Infants’ pain cries: Natural resources for co-creating a proto-interaction order | |
CN109032707A (zh) | 终端及其口语学习方法和装置 | |
Wells et al. | Children's intonation: a framework for practice and research | |
CN113763920A (zh) | 空调器及其语音生成方法、语音生成装置和可读存储介质 | |
Tewari et al. | A question-answering agent using speech driven non-linear machinima | |
KR102395164B1 (ko) | 음성 기반 대화 서비스 제공 방법 및 장치 | |
Avci | A Pattern Mining Approach for Improving Speech Emotion Recognition | |
CN108984229B (zh) | 一种应用程序的启动控制方法及家教设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181218 |