CN108089836A - 一种基于机器人的辅助学习方法及机器人 - Google Patents
一种基于机器人的辅助学习方法及机器人 Download PDFInfo
- Publication number
- CN108089836A CN108089836A CN201711497746.8A CN201711497746A CN108089836A CN 108089836 A CN108089836 A CN 108089836A CN 201711497746 A CN201711497746 A CN 201711497746A CN 108089836 A CN108089836 A CN 108089836A
- Authority
- CN
- China
- Prior art keywords
- voice messaging
- pronunciation
- robot
- user
- wrong
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
Abstract
本发明实施例涉及人工智能领域,公开了一种基于机器人的辅助学习方法及机器人。本发明中,一种基于机器人的辅助学习方法,应用于机器人,包括:接收用户发出的第一语音信息;检测第一语音信息中是否存在错误读音;若检测到在第一语音信息中存在错误读音,则发出第二语音信息,第二语音信息包括与错误读音对应的正确读音。不仅可以使得用户可以及时获知哪个字或者哪个词的读音存在错误,还有利于及时纠正用户语音信息中的错误读音,从而有利于形成良好的说话习惯。
Description
技术领域
本发明实施例涉及人工智能领域,特别涉及一种基于机器人的辅助学习方法及机器人。
背景技术
随着社会经济的发展,人们生活节奏的加快和职场压力的增加,使得大多数家长不能时常陪伴在孩子身边,见证他们的成长,孩子的教育也是无暇顾及。随着机器人产业的兴起以及市场需求发展,企业纷纷瞄准了家庭这一巨大市场蓝海,推出了多种儿童机器人,这些儿童机器人的功能比较齐全,如对话、唱歌、跳舞、讲故事、安全监测、视频记录等等。
然而,发明人发现现有技术中至少存在如下问题:目前没有任何一款机器人可以及时发现以及纠正孩子说话时发出的错误读音,而父母很多时候又不在孩子身边,也无法及时发现以及纠正错误的读音,不利于形成良好的说话习惯。
发明内容
本发明实施方式的目的在于提供一种基于机器人的辅助学习方法及机器人,不仅可以使得用户可以及时获知哪个字或者哪个词的读音存在错误,还有利于及时纠正用户语音信息中的错误读音,从而有利于形成良好的说话习惯。
为解决上述技术问题,本发明的实施方式提供了一种基于机器人的辅助学习方法,应用于机器人,包括:接收用户发出的第一语音信息;检测第一语音信息中是否存在错误读音;若检测到在第一语音信息中存在错误读音,则发出第二语音信息,第二语音信息包括与错误读音对应的正确读音。
本发明的实施方式还提供了一种机器人,包括:接收模块,检测模块和发声模块;接收模块,用于接收用户发出的第一语音信息;检测模块,用于检测第一语音信息中是否存在错误读音;发声模块,用于若在检测模块检测到在第一语音信息中存在错误读音,则发出第二语音信息,第二语音信息包括与错误读音对应的正确读音。
本发明实施方式相对于现有技术而言,通过接收用户发出的第一语音信息;检测第一语音信息中是否存在错误读音;若检测到在第一语音信息中存在错误读音,则发出第二语音信息,第二语音信息包括与错误读音对应的正确读音。通过在用户发出的第一语音信息中存在错误读音时,发出包括与所述错误读音对应的正确读音的第二语音信息,不仅可以使得用户可以及时获知哪个字或者哪个词的读音存在错误,还有利于及时纠正用户语音信息中的错误读音,从而有利于形成良好的说话习惯。
另外,检测第一语音信息中是否存在错误读音,具体包括:结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析;根据语义分析得到的结果,检测第一语音信息中是否存在错误读音。通过结合其他用户发出的语音信息,或者用户在发出第一语音信息之前所发出的语音信息,或者用户在发出第一语音信息之后所发出的语音信息,有利于提高对所述第一语音信息进行语义分析的准确性。
另外,检测第一语音信息中是否存在错误读音,具体包括:将接收的第一语音信息和数据库中的错误读音进行匹配;根据匹配结果,检测第一语音信息中是否存在错误读音。由于在数据库中错误读音以及与所述错误读音对应的正确读音具备一一对应的关系,当识别到接收的第一语音信息与数据库中的错误读音相匹配时,在可以获知存在错误读音的同时,还可以获取到与所述错误读音对应的正确读音,有利于提高对第一语音信息进行检测的效率。
另外,检测第一语音信息中是否存在错误读音,具体包括:判断第一语音信息是否基于图像信息发出;若是,则对用户发出第一语音信息时的场景进行图像识别,获取图像信息;结合图像信息检测第一语音信息中是否存在错误读音。通过结合图像信息检测第一语音信息中是否存在错误读音,有利于提高对所述第一语音信息进行辨识准确性。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是根据本发明第一实施方式的一种基于机器人的辅助学习方法的流程图;
图2是根据本发明第二实施方式的一种基于机器人的辅助学习方法的流程图;
图3是根据本发明第三实施方式的一种机器人的结构示意图;
图4是根据本发明第三实施方式的一种检测模块的结构示意图;
图5是根据本发明第四实施方式的另一种检测模块的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本发明的第一实施方式涉及一种基于机器人的辅助学习方法。本实施方式的核心在于接收用户发出的第一语音信息;检测第一语音信息中是否存在错误读音;若检测到在第一语音信息中存在错误读音,则发出第二语音信息,第二语音信息包括与错误读音对应的正确读音。通过在用户发出的第一语音信息中存在错误读音时,发出包括与所述错误读音对应的正确读音的第二语音信息,不仅可以使得用户可以及时获知哪个字或者哪个词的读音存在错误,还有利于及时纠正用户语音信息中的错误读音,从而有利于形成良好的说话习惯。下面对本实施方式的基于机器人的辅助学习方法的实现细节进行具体的说明,以下内容仅为方便理解提供的实现细节,并非实施本方案的必须。
本实施方式中的基于机器人的辅助学习方法主要用于辅助年龄在3岁以上的用户发出正确读音,其具体流程图如图1所示,包括:
步骤101,接收用户发出的第一语音信息。
也就是说,在用户与机器人进行互动的过程中,对用户发出的第一语音信息进行接收。这里所说的第一语音信息可以是用户发出的中文语音信息,也可以是英文语音信息等不同语种的语音信息,用户可以根据需求预先设置,此处不作具体限制。在本实施方式中默认接收的第一语音信息为中文语音信息。
步骤102,检测第一语音信息中是否存在错误读音。若第一语音信息中存在错误读音,则进入步骤103;否则,该流程结束。
具体的说,检测第一语音信息中是否存在错误读音,需要机器人理解接收到的第一语音信息的具体含义,即对接收到的第一语音信息进行语义识别,可以基于存储于智能机器人的规则和语料库对第一语音信息进行语义识别。比如:可以利用语义切分规则,将接收到的第一语音信息切分成若干个相关的语义元成分,再根据语义转化规则(比如关键词匹配),找出各语义元成分所对应的语义内部表示。机器人通过测试各语义元成分之间的关系,建立它们之间的逻辑关系,形成全文的语义识别,其处理过程主要通过查语义词典的方法来实现。
进一步的,还可以利用多路径动态选择以及知识库的自动重组技术,对接收到的指令进行语义识别。这样,就可以把语法、语义、常识几个平面连成一个有机整体,既可继承传统系统的优点,又能实现系统自增长的功能。当然,除了基于上述方式之外,还可以基于统计的结果、基于人工神经网络等对接收到的第一语音信息进行语义识别,任何对接收到的第一语音信息进行语义识别的方法,均在本实施例的保护范围之内,此处不再一一赘述。
另外,检测第一语音信息中是否存在错误读音,可以结合用户在发出第一语音信息之前或之后的语音信息,对第一语音信息进行语义分析;根据语义分析得到的结果,检测第一语音信息中是否存在错误读音。这里所说的用户在发出第一语音信息之前或之后的语音信息,可以是其他用户发出的语音信息,也可以是用户在发出第一语音信息之前所发出的语音信息或用户在发出第一语音信息之后所发出的语音信息。
举例而言,A用户的母亲叫A用户喝牛奶,对A用户说:去把牛奶(发出的语音为niunai)喝掉!A用户听到后,发出的第一语音信息为:我不想喝牛奶(发出的语音为niu lai)。基于A用户的母亲发出的语音信息以及A用户发出的语音信息,可以判定第一语音信息中存在错误读音,进入步骤103。
另外,在发出第二语音信息后,还可以存储第一语音信息中存在的错误读音和与错误读音对应的正确读音至数据库,并将错误读音和与错误读音对应的正确读音建立对应关系。检测第一语音信息中是否存在错误读音,可以将接收的第一语音信息和数据库中的错误读音进行匹配;根据匹配结果,检测第一语音信息中是否存在错误读音。也就是说,在用户发出的第一语音信息后,若判定在第一语音信息中有错误读音,则将所述错误读音以及与所述错误读音对应的正确读音存储到数据库中,并将所述错误读音以及与所述错误读音对应的正确读音建立一一对应关系。那么,在用户发出的第一语音信息比较简短且含混不清的情况下,机器人若无法直接对第一语音信息进行识别,就可以通过接收到的所述第一语音信息的波形,到数据库中查找与所述第一语音信息的波形匹配的语音信息,若所述第一语音信息与错误读音匹配成功,则可以判定第一语音信息中存在错误读音,进入步骤103。
另外,检测第一语音信息中是否存在错误读音,还可以判断所述第一语音信息是否基于图像信息发出;若是,则对所述用户发出所述第一语音信息时的场景进行图像识别,获取图像信息;结合所述图像信息检测所述第一语音信息中是否存在错误读音。其中,对用户发出第一语音信息时的场景进行图像识别,可以具体通过摄像头进行图像识别。
比如说,用户A发出的第一语音信息为:这个花真好看!在机器人接收到所述第一语音信息后,对用户A发出的第一语音信息进行语义分析,可以判定所述第一语音信息是基于图像信息而发出的,因此,通过对用户发出“这个花真好看!”时的场景进行图像识别,获取图像信息,如果所述图像信息为一束花,则可以判定第一语音信息中不存在错误读音,如果所述图像信息中没有“花”,而是一副画,则可以判定第一语音信息中存在错误读音,进入步骤103。
另外,在检测所述第一语音信息中是否存在错误读音时,也可以通过上述方法的任意组合进行检测,此处不再赘述。
步骤103,发出第二语音信息。其中,第二语音信息包括与所述错误读音对应的正确读音。
具体的说,由于发出的第二语音信息包括与所述错误读音对应的正确读音,旨在纠正用户在生活中的读音错误,因此,优选的,发出的第二语音信息可以为与所述错误读音对应的正确读音的各个因素的读音以及由各个因素组成的正确读音,在用户的读音正确但声调错误时,发出的,第二语音信息包括声调的提示信息,
与现有技术相比,本实施方式通过接收用户发出的第一语音信息;检测第一语音信息中是否存在错误读音;若检测到在第一语音信息中存在错误读音,则发出第二语音信息,第二语音信息包括与错误读音对应的正确读音。通过在用户发出的第一语音信息中存在错误读音时,发出包括与所述错误读音对应的正确读音的第二语音信息,不仅可以使得用户可以及时获知哪个字或者哪个词的读音存在错误,还有利于及时纠正用户语音信息中的错误读音,从而有利于形成良好的说话习惯。
本发明的第二实施方式涉及一种基于机器人的辅助学习方法。本实施方式是在第一实施方式的基础上做了进一步改进,主要改进之处在于:在本实施方式中,通过在结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析之前,还进一步判断第一语音信息是否属于词语;若第一语音信息属于词语,则执行结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析;否则,直接对所述第一语音信息进行语义分析。由于若第一语音信息属于词语时,没有一个具体的语境,相对于句子或者成语而言对其进行语义分析更加有难度,甚至无法获得确定的语义,因此,若第一语音信息属于词语,则结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析,有利于提高对所述第一语音信息进行语义分析的准确性;而若第一语音信息不属于词语时,内容较为丰富,可供语义分析的依据较多,因此,直接对所述第一语音信息进行语义分析,有利于提高对第一语音信息进行检测的效率。
步骤201,接收用户发出的第一语音信息。
由于本实施方式中步骤201与第一实施方式中的步骤101相同,此处不再赘述。
步骤202,判断第一语音信息是否属于词语。若第一语音信息属于词语,则进入步骤203;否则,进入步骤204。
这里所说的词语是词和语的合称,包括单词、词组及整个词汇,包括2字、3字及4字的分类。由于词语一般较为简短,当用户发出的第一语音信息为一个词语时,机器人很难对该词语的真实意思进行确定,进而不容易确定词语的正确读音,影响结果的准确性。因此,若第一语音信息属于词语,则进入步骤205。
值得一提的是,成语有其自身的固定结构,并不属于词语的范畴。由于成语本身是一个意义完整的单位,因此,当用户发出的第一语音信息为成语时,机器人可以很容易的对用户发出的成语的读音是否存在错误读音进行判定,并不需要结合用户在在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析。
步骤203,结合用户在发出第一语音信息之前或之后的语音信息,对第一语音信息进行语义分析。在对第一语音信息进行语义分析后,进入步骤205。
这里所说的用户在发出第一语音信息之前或之后的语音信息,可以是其他用户发出的语音信息,也可以是用户在发出第一语音信息之前所发出的语音信息或用户在发出第一语音信息之后所发出的语音信息。也就是说,当用户发出的第一语音信息是词语,机器人并不能够足以确定所述第一语音信息是否正确,需要借助其他的语音信息来确定第一语音信息的正确读音,在结合用户在发出第一语音信息之前或之后的语音信息,对第一语音信息进行语义分析后,进入步骤205。
步骤204,直接对第一语音信息进行语义分析。在对第一语音信息进行语义分析之后,进入步骤205。
可以理解的是,若第一语音信息不是一个词语信息,那么就是成语或者句子,其中,在步骤202中已经介绍过由于成语本身是一个意义完整的单位,因此,当用户发出的第一语音信息为成语时,直接对第一语音信息进行语义分析;而当第一语音信息是一个句子时,由于在一个句子中可以有主语、谓语、宾语,可以结合一个句子的前后关系等直接对第一语音信息进行语义分析。在对第一语音信息进行语义分析之后,进入步骤205。
步骤205,根据语义分析得到的结果,检测第一语音信息中是否存在错误读音。若第一语音信息中存在错误读音,则进入步骤206;否则,该流程结束。
步骤206,发出第二语音信息。其中,第二语音信息包括与所述错误读音对应的正确读音。
由于本实施方式中步骤205至步骤206与第一实施方式中步骤102至步骤103大致相同,此处不再赘述。
与现有技术相比,本实施方式提供的一种基于机器人的辅助学习方法,通过在结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析之前,还进一步判断第一语音信息是否属于词语;若第一语音信息属于词语,则执行结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析;否则,直接对所述第一语音信息进行语义分析。由于若第一语音信息属于词语时,没有一个具体的语境,相对于句子或者成语而言对其进行语义分析更加有难度,甚至无法获得确定的语义,因此,若第一语音信息属于词语,则结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析,有利于提高对所述第一语音信息进行语义分析的准确性;而若第一语音信息不属于词语时,内容较为丰富,可供语义分析的依据较多,因此,直接对所述第一语音信息进行语义分析,有利于提高对第一语音信息进行检测的效率。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本发明第三实施方式涉及一种机器人,如图3所示。包括:接收模块301,检测模块302和发声模块303;
接收模块301,用于接收用户发出的第一语音信息;检测模块302,用于检测第一语音信息中是否存在错误读音;发声模块303,用于若在检测模块302检测到在第一语音信息中存在错误读音,则发声模块303发出第二语音信息,第二语音信息包括与错误读音对应的正确读音。
另外,检测模块302还包括第一分析子模块3021和检测子模块3022;图4给出了检测模块302的结构示意图。
第一分析子模块3021和检测子模块3022;第一分析子模块3021,用于结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析;检测子模块3022,用于根据语义分析得到的结果,检测第一语音信息中是否存在错误读音。
不难发现,本实施方式为与第一实施方式相对应的系统实施例,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
值得一提的是,本实施方式中所涉及到的各模块均为逻辑模块,在实际应用中,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现。此外,为了突出本发明的创新部分,本实施方式中并没有将与解决本发明所提出的技术问题关系不太密切的单元引入,但这并不表明本实施方式中不存在其它的单元。
本发明第四实施方式涉及一种机器人。第四实施方式是在第三实施方式的基础上做了进一步改进,主要改进之处在于:在本实施方式中,通过在结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析之前,还进一步判断第一语音信息是否属于词语;若第一语音信息属于词语,则执行结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析;否则,直接对所述第一语音信息进行语义分析。由于若第一语音信息属于词语时,没有一个具体的语境,相对于句子或者成语而言对其进行语义分析更加有难度,甚至无法获得确定的语义,因此,若第一语音信息属于词语,则结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析,有利于提高对所述第一语音信息进行语义分析的准确性;而若第一语音信息不属于词语时,内容较为丰富,可供语义分析的依据较多,因此,直接对所述第一语音信息进行语义分析,有利于提高对第一语音信息进行检测的效率。
具体的说,本实施方式中检测模块302还包括:判断子模块3023;第二分析子模块3024;图5给出本实施方式中的检测模块302的结构示意图。
判断子模块3023,用于在第一分析子模块3021结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析之前,判断第一语音信息是否属于词语;若第一语音信息属于词语,则第一分析子模块3021执行结合用户在发出第一语音信息之前或之后的语音信息对第一语音信息进行语义分析;否则,第二分析子模块3024直接对第一语音信息进行语义分析。
由于第二实施方式与本实施方式相互对应,因此本实施方式可与第二实施方式互相配合实施。第二实施方式中提到的相关技术细节在本实施方式中依然有效,在第二实施方式中所能达到的技术效果在本实施方式中也同样可以实现,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第二实施方式中。
即,本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施方式是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。
Claims (10)
1.一种基于机器人的辅助学习方法,其特征在于,应用于机器人,包括:
接收用户发出的第一语音信息;
检测所述第一语音信息中是否存在错误读音;
若检测到在所述第一语音信息中存在错误读音,则发出第二语音信息,所述第二语音信息包括与所述错误读音对应的正确读音。
2.根据权利要求1所述的基于机器人的辅助学习方法,其特征在于,所述检测所述第一语音信息中是否存在错误读音,具体包括:
结合所述用户在发出所述第一语音信息之前或之后的语音信息对所述第一语音信息进行语义分析;
根据所述语义分析得到的结果,检测所述第一语音信息中是否存在错误读音。
3.根据权利要求2所述的基于机器人的辅助学习方法,其特征在于,在所述结合所述用户在发出所述第一语音信息之前或之后的语音信息对所述第一语音信息进行语义分析之前,还包括:
判断所述第一语音信息是否属于词语;
若所述第一语音信息属于词语,则执行所述结合所述用户在发出所述第一语音信息之前或之后的语音信息对所述第一语音信息进行语义分析;否则,直接对所述第一语音信息进行语义分析。
4.根据权利要求1所述的基于机器人的辅助学习方法,其特征在于,在所述发出第二语音信息后,还包括:
存储所述第一语音信息中存在的所述错误读音和与所述错误读音对应的正确读音至数据库,并将所述错误读音和与所述错误读音对应的正确读音建立对应关系。
5.根据权利要求4所述的基于机器人的辅助学习方法,其特征在于,所述检测所述第一语音信息中是否存在错误读音,具体包括:
将接收的所述第一语音信息和所述数据库中的所述错误读音进行匹配;
根据匹配结果,检测所述第一语音信息中是否存在错误读音。
6.根据权利要求1所述的基于机器人的辅助学习方法,其特征在于,所述检测所述第一语音信息中是否存在错误读音,具体包括:
判断所述第一语音信息是否基于图像信息发出;
若是,则对所述用户发出所述第一语音信息时的场景进行图像识别,获取图像信息;
结合所述图像信息检测所述第一语音信息中是否存在错误读音。
7.根据权利要求6所述的基于机器人的辅助学习方法,其特征在于,所述对所述用户发出所述第一语音信息时的场景进行图像识别,具体通过摄像头进行图像识别。
8.一种机器人,其特征在于,包括:接收模块,检测模块和发声模块;
所述接收模块,用于接收用户发出的第一语音信息;
所述检测模块,用于检测所述第一语音信息中是否存在错误读音;
所述发声模块,用于若在所述检测模块检测到在所述第一语音信息中存在错误读音,则发出第二语音信息,所述第二语音信息包括与所述错误读音对应的正确读音。
9.根据权利要求8所述的机器人,其特征在于,所述检测模块具体包括:第一分析子模块和第一检测子模块;
所述第一分析子模块,用于结合所述用户在发出所述第一语音信息之前或之后的语音信息对所述第一语音信息进行语义分析;
所述第一检测子模块,用于根据所述语义分析得到的结果,检测所述第一语音信息中是否存在错误读音。
10.根据权利要求9所述的机器人,其特征在于,所述检测模块具体包括:判断子模块;第二分析子模块;
所述判断子模块,用于在所述第一分析子模块结合所述用户在发出所述第一语音信息之前或之后的语音信息对所述第一语音信息进行语义分析之前,判断所述第一语音信息是否属于词语;
若所述第一语音信息属于词语,则所述第一分析子模块执行所述结合所述用户在发出所述第一语音信息之前或之后的语音信息,对所述第一语音信息进行语义分析;否则,所述第二分析子模块直接对所述第一语音信息进行语义分析。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711497746.8A CN108089836A (zh) | 2017-12-29 | 2017-12-29 | 一种基于机器人的辅助学习方法及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711497746.8A CN108089836A (zh) | 2017-12-29 | 2017-12-29 | 一种基于机器人的辅助学习方法及机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108089836A true CN108089836A (zh) | 2018-05-29 |
Family
ID=62180292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711497746.8A Pending CN108089836A (zh) | 2017-12-29 | 2017-12-29 | 一种基于机器人的辅助学习方法及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108089836A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1318505A1 (en) * | 2000-09-13 | 2003-06-11 | A.G.I. Inc. | Emotion recognizing method, sensibility creating method, device, and software |
CN104008088A (zh) * | 2014-01-20 | 2014-08-27 | 广东小天才科技有限公司 | 一种基于屏幕显示的助读方法及装置 |
CN105190607A (zh) * | 2013-03-15 | 2015-12-23 | 苹果公司 | 通过智能数字助理的用户培训 |
CN105374248A (zh) * | 2015-11-30 | 2016-03-02 | 广东小天才科技有限公司 | 一种纠正读音的方法、装置和系统 |
CN106933561A (zh) * | 2015-12-31 | 2017-07-07 | 北京搜狗科技发展有限公司 | 语音输入方法和终端设备 |
CN107274886A (zh) * | 2016-04-06 | 2017-10-20 | 中兴通讯股份有限公司 | 一种语音识别方法和装置 |
-
2017
- 2017-12-29 CN CN201711497746.8A patent/CN108089836A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1318505A1 (en) * | 2000-09-13 | 2003-06-11 | A.G.I. Inc. | Emotion recognizing method, sensibility creating method, device, and software |
CN105190607A (zh) * | 2013-03-15 | 2015-12-23 | 苹果公司 | 通过智能数字助理的用户培训 |
CN104008088A (zh) * | 2014-01-20 | 2014-08-27 | 广东小天才科技有限公司 | 一种基于屏幕显示的助读方法及装置 |
CN105374248A (zh) * | 2015-11-30 | 2016-03-02 | 广东小天才科技有限公司 | 一种纠正读音的方法、装置和系统 |
CN106933561A (zh) * | 2015-12-31 | 2017-07-07 | 北京搜狗科技发展有限公司 | 语音输入方法和终端设备 |
CN107274886A (zh) * | 2016-04-06 | 2017-10-20 | 中兴通讯股份有限公司 | 一种语音识别方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106328147B (zh) | 语音识别方法和装置 | |
US11037553B2 (en) | Learning-type interactive device | |
US6182039B1 (en) | Method and apparatus using probabilistic language model based on confusable sets for speech recognition | |
US20170206897A1 (en) | Analyzing textual data | |
CN105531758B (zh) | 使用外国单词语法的语音识别 | |
Alon et al. | Contextual speech recognition with difficult negative training examples | |
CN106297826A (zh) | 语音情感辨识系统及方法 | |
CN108320734A (zh) | 语音信号处理方法及装置、存储介质、电子设备 | |
CN112185348A (zh) | 多语种语音识别方法、装置及电子设备 | |
CN108388553B (zh) | 对话消除歧义的方法、电子设备及面向厨房的对话系统 | |
JP2014222402A (ja) | 発話候補生成装置、発話候補生成方法、及び発話候補生成プログラム | |
Einolghozati et al. | Improving semantic parsing for task oriented dialog | |
CN109119070A (zh) | 一种语音端点检测方法、装置、设备及存储介质 | |
CN112685541B (zh) | 一种基于多任务学习的社交媒体谣言检测方法 | |
CN112417850A (zh) | 音频标注的检错方法和装置 | |
CN113468894A (zh) | 对话交互方法及装置、电子设备和计算机可读存储介质 | |
Chakraborty et al. | Knowledge-based framework for intelligent emotion recognition in spontaneous speech | |
CN103903615B (zh) | 一种信息处理方法及电子设备 | |
CN105244024B (zh) | 一种语音识别方法及装置 | |
CN111160512A (zh) | 基于生成式对抗网络构建双判别器对话生成模型的方法 | |
CN108089836A (zh) | 一种基于机器人的辅助学习方法及机器人 | |
Schlesinger et al. | The structure of misunderstandings | |
Chakraborty et al. | Spontaneous speech emotion recognition using prior knowledge | |
CN111414459B (zh) | 人物关系获取方法、装置、电子设备及存储介质 | |
JP3621922B2 (ja) | 文認識装置、文認識方法、プログラム、および媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180529 |