CN107331399A - 一种学习效果检测方法、系统及终端设备 - Google Patents
一种学习效果检测方法、系统及终端设备 Download PDFInfo
- Publication number
- CN107331399A CN107331399A CN201710542059.7A CN201710542059A CN107331399A CN 107331399 A CN107331399 A CN 107331399A CN 201710542059 A CN201710542059 A CN 201710542059A CN 107331399 A CN107331399 A CN 107331399A
- Authority
- CN
- China
- Prior art keywords
- voice messaging
- user
- learning
- results
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 25
- 238000001914 filtration Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 21
- 230000015572 biosynthetic process Effects 0.000 claims description 14
- 238000003786 synthesis reaction Methods 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 5
- 238000004891 communication Methods 0.000 abstract description 4
- 230000001755 vocal effect Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 235000013399 edible fruits Nutrition 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000005611 electricity Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000000151 deposition Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 210000003928 nasal cavity Anatomy 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000035479 physiological effects, processes and functions Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明适用于通讯技术领域,提供了一种学习效果检测方法、系统及终端设备,包括:接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果;在所述第一识别结果满足预设条件时,调用并播放预设时间段内所述第一用户的学习内容;接收所述第一用户对所播放的所述学习内容的反馈信息,根据所述反馈信息检测所述第一用户对所述学习内容的学习效果,确定所述学习效果的等级。这一过程中根据第一用户的模板声纹信息判断第一语音信息,可以更准确的确定第一用户的身份,调取与所述第一用户对应的学习内容进行播放,从而准确的检测第一用户的学习效果。
Description
技术领域
本发明属于通讯技术领域,尤其涉及一种学习效果检测方法、系统及终端设备。
背景技术
近年来越来越多的家长开始重视对儿童的早期教育,并会选择合适的电子产品对儿童实施早期教育;随着家长对教育类电子产品需求的不断增加,各种针对不同阶段儿童的早教机等学习类智能终端应运而生。一方面,目前大部分孩子的父母双方都处于在职状态,由于工作繁忙,父母陪伴孩子的时间极少。学习类智能终端的出现弥补了家长不在身边而导致的孩子学习时无人辅导的缺陷;另一方面,虽然孩子可以通过学习类智能终端进行学习,但由于家长与孩子交流时间较少,导致家长无法及时了解孩子利用智能终端进行学习的内容及学习达到的效果,更无法针对性地对孩子的学习效果进行检测并及时的给予反馈。
发明内容
有鉴于此,本发明实施例提供了一种学习效果检测方法、系统及终端设备,以解决现有技术中家长与孩子交流时间较少造成的家长无法及时了解孩子学习效果的问题。
本发明实施例的第一方面提供了一种学习效果检测方法,所述学习效果检测方法包括:
接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果;
在所述第一识别结果满足预设条件时,调用并播放预设时间段内所述第一用户的学习内容;
接收所述第一用户对所播放的所述学习内容的反馈信息,根据所述反馈信息检测所述第一用户对所述学习内容的学习效果,确定所述学习效果的等级。
本发明实施例的第二方面提供了一种学习效果检测系统,所述学习效果检测系统包括:
第一识别结果确定单元,用于接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果;
播放单元,用于在所述第一识别结果满足预设条件时,调用并播放预设时间段内所述第一用户的学习内容;
等级确定单元,用于接收所述第一用户对所播放的所述学习内容的反馈信息,根据所述反馈信息检测所述第一用户对所述学习内容的学习效果,确定所述学习效果的等级。
本发明实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如所述学习效果监测方法任一项所述方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如所述学习效果监测方法任一项所述方法的步骤。
本发明实施例中接收到第一用户输入的第一语音信息后,根据预先存储的模板声纹信息识别所述第一语音信息,得到第一识别结果,在第一识别结果满足预设条件时,调用并播放第一用户相关的学习内容,根据接收到的第一用户对所播放学习内容的反馈信息对第一用户的学习效果进行检测,并得出学习效果的等级。这一过程中根据第一用户的模板声纹信息判断第一语音信息,可以更准确的确定第一用户的身份,调取与所述第一用户对应的学习内容进行播放,从而准确的检测第一用户的学习效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的一种学习效果检测方法的实现流程示意图;
图2是本发明实施例二提供的一种学习效果检测系统的示意图;
图3是本发明实施例三提供的一种终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例一:
图1示出了本发明实施例一提供的一种学习效果检测方法的实现流程图,详述如下:
步骤S11,接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果;
本发明实施例中智能设备的持有者(第二用户)在需要检测第一用户在某段时间内的学习情况或学习效果时,可通过智能设备接收第一用户输入的语音信息来启动检测过程。其中所述第一用户可以为儿童,相应的第二用户可以为家长。日常生活中由于每个人的声道、口腔和鼻腔等器官具有个体的差异性,反映到声音上也具有差异,因此,智能终端在接收到第一用户输入的语音信息时便可根据其输入的语音信息的特点是否符合预先设置的条件来判断是否需要继续执行学习效果检测的流程。声纹,是用电声学仪器显示的携带语音信息的声波频谱,即声纹生理图。语音信息发出者不同时,针对语音信息检测出的声纹也会有差异,因此,智能设备在接收到第一用户输入的第一语音信息时,检测所述第一语音信息的声纹信息,根据预先存储的模板声纹信息确定所述第一语音信息的第一识别结果。
其中,所述模板声纹信息为检测所述第一用户输入的标准语音信息,并根据检测结果制定出的专属于所述第一用户的模板声纹信息;进一步地,所述第一用户可以为多人,相应的所述模板声纹信息可以为多份;在所述第一用户多于一人时,预先制定并存储每个第一用户与其对应的模板声纹信息的映射表,使每个第一用户与其模板声纹信息一一对应,以方便后续对接收到的第一语音信息进行检测识别。
优选地,所述接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果,具体包括:
接收第一用户输入的第一语音信息,过滤所述第一语音信息,提取过滤后的第一语音信息的声纹信息,称之为第一声纹信息;
将所述第一声纹信息与所述模板声纹信息进行匹配,根据匹配度确定所述第一语音信息的第一识别结果。
该步骤中,智能设备在接收第一语音信息时,第一用户所处环境对其发出的声音也会产生影响,进而对根据声纹信息识别所述第一语音信息得到的第一识别结果造成影响。因此,本发明实施例中首先对接收到的第一语音信息进行过滤,以除去外界环境的干扰。具体地,在接收完毕所述第一语音信息后,获取与所述第一语音信息等时长的环境语音信息;根据所述第一语音的频率变化特点分离所述第一语音信息得到第一主要语音信息和次要语音信息,将所述次要语音信息和所述环境语音信息对比,若二者的差别值在预设值范围内,则说明所述第一用户所处环境中存在的非第一用户发出的声音处于相对稳定状态,所述第一主要语音信息主要为所述第一用户发出的语音信息,因此,将所述第一主要语音信息作为判断基础。然后检测并提取所述第一主要语音信息的声纹信息,将其与所述模板声纹信息进行匹配,得出第一识别结果。若所得匹配度在预设值范围内,则所述第一识别结果满足获取所述第一用户学习内容的条件。
优选地,所述学习效果检测方法还包括:
在所述第一识别结果不满足预设条件时,获取所述第一用户输入的第二语音信息;
合成过滤后的第二语音信息和过滤后的第一语音信息,得到第三语音信息;
将所述第三语音信息的声纹信息与所述模板声纹信息进行匹配,根据匹配度确定第二识别结果;
将所述第二识别结果作为所述第一语音信息的第一识别结果。
该步骤中,由于受说话人身体状况、情绪变化等因素的影响,即使没有环境中其他声音的干扰,智能设备对获取到的第一语音信息进行识别的结果可能也会不符合预设的获取所述第一用户学习内容的条件,此时,继续获取所述第一用户输入的第二语音信息,将获取到的第二语音信息采用过滤所述第一语音信息的方法进行过滤,然后合成过滤所述第二语音信息后所得的第二主要语音信息和所述第一主要语音信息,得到第三语音信息。合成时具体包括:分别获取所述第一主要语音信息和第二主要语音信息的特征位置处的声调数值信息,将两次获取的同一特征位置处的声调平均值作为所述第三语音信息相应特征位置处的声调值,同理确定第三语音信息相应特征位置处的响度值以及音频值;其中,所述特征位置至少有一个,所述特征位置由所述模板声纹信息的特征值所处的位置确定;所述特征位置包括所述模板声纹信息对应的声纹频谱图中特征峰所处的位置。
合成得到第三语音信息后,获取其声纹信息,并将第三语音信息的声纹信息与模板声纹信息对比得到第二识别结果,将第二识别结果作为第一语音信息的第一识别结果,即,即使根据第一识别结果判断出第一语音信息不符合预设的获取所述第一用户学习内容的条件,如果第二识别结果符合预设的获取所述第一用户学习内容的条件,则判断第一语音信息符合预设的获取所述第一用户学习内容的条件。根据两次接收的语音信息的识别结果判断第一语音信息是否符合预设的获取所述第一用户学习内容的条件,减少了第一用户自身状态对判断结果的影响,提高了判断的准确率。
可选地,在所述接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果之前,包括:
预先设置接收所述第一用户输入语音信息的时间段。
具体地,在所述第一用户为儿童,第二用户为家长时,家长持有的智能设备可能并不能随时获取儿童输入的语音信息,因此,预先设置智能设备接收儿童输入语音信息的时间段,所述时间段的设置可根据智能设备持有者对智能设备的使用情况及持有者自身具体时间安排来设定。预先设置接收第一用户输入语音信息的时间段,不仅可以方便智能设备持有者在不接收语音信息输入的时间段内随时使用智能设备,也可以保证智能设备在对第一用户学习内容进行检测时第二用户随时参与测试过程,增加第二用户与第一用户的互动交流。
步骤S12,在所述第一识别结果满足预设条件时,调用并播放预设时间段内所述第一用户的学习内容;
本发明实施例中,预先将智能设备通过无线网络、无线射频技术等与所述第一用户用于学习的智能终端进行绑定;在所述第一识别结果满足预设条件时,便可直接根据第二用户的设置信息调用第一用户的学习内容,并由智能设备对从智能终端中调用的学习内容进行播放。其中,第二用户可以设置调用预设时间段内第一用户的学习内容,所述预设时间段包括第一用户最后一次使用智能终端进行学习的时间。
步骤S13,接收所述第一用户对所播放的所述学习内容的反馈信息,根据所述反馈信息检测所述第一用户对所述学习内容的学习效果,确定所述学习效果的等级。
本发明实施例中,智能设备在播放从第一用户用于学习的智能终端中调用的学习内容时,所述第一用户对所述学习内容作出不同的反馈,智能设备将接收到的第一用户的反馈信息后与标准答案相比对,根据比对结果确定第一用户对所播放的学习内容的学习效果的等级,所述学习效果的等级包括:优秀,可进一步提高等。
可选地,在所述根据所述反馈信息检测所述第一用户对所述学习内容的学习效果,确定所述学习效果的等级之后,包括:
根据所述学习效果的等级,播放预先存储的第二用户对所述学习效果的评价信息。
具体地,为了鼓励第一用户,提高第一用户的学习积极性,可根据检测得到的第一用户的学习效果的等级给予不同的评价,例如,当检测到的学习效果的等级为“优秀”时,可以播放第二用户预先存储“宝贝真棒”;检测到的学习效果的等级为“可进一步提高”时,可以播放“宝贝已经很优秀了,但还可以更优秀,加油”;另外,智能设备还可以存储对所述学习效果的等级以便第二用户在有需要进行查看。
本发明实施例中接收到第一用户输入的第一语音信息后,根据预先存储的模板声纹信息识别所述第一语音信息,得到第一识别结果,在第一识别结果满足预设条件时,调用并播放第一用户相关的学习内容,根据接收到的第一用户对所播放学习内容的反馈信息对第一用户的学习效果进行检测,并得出学习效果的等级。这一过程中根据第一用户的模板声纹信息判断第一语音信息,可以更准确的确定第一用户的身份,调取与所述第一用户对应的学习内容进行播放。在得出学习效果的等级后根据学习效果的等级播放相应的评价信息,有助于提高第一用户的学习积极性,增加第一用户与第二用户之间的互动交流。
实施例二:
对应于上文实施例所述的学习效果检测方法,图2示出了本发明实施例提供的学习效果检测系统的结构框图,为了便于说明,仅示出了与本发明实施例相关的部分。
参照图2,该学习效果检测系统包括:第一识别结果确定单元21,播放单元22,等级确定单元23,其中:
第一识别结果确定单元21,用于接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果;
本发明实施例中智能设备的持有者(第二用户)在需要检测第一用户在某段时间内的学习情况或学习效果时,可通过智能设备接收第一用户输入的语音信息来启动检测过程。其中所述第一用户可以为儿童,相应的第二用户可以为家长。日常生活中由于每个人的声道、口腔和鼻腔等器官具有个体的差异性,反映到声音上也具有差异,因此,智能终端在接收到第一用户输入的语音信息时便可根据其输入的语音信息的特点是否符合预先设置的条件来判断是否需要继续执行学习效果检测的流程。声纹,是用电声学仪器显示的携带语音信息的声波频谱,即声纹生理图。语音信息发出者不同时,针对语音信息检测出的声纹也会有差异,因此,智能设备在接收到第一用户输入的第一语音信息时,检测所述第一语音信息的声纹信息,根据预先存储的模板声纹信息确定所述第一语音信息的第一识别结果。
其中,所述模板声纹信息为检测所述第一用户输入的标准语音信息,并根据检测结果制定出的专属于所述第一用户的模板声纹信息;进一步地,所述第一用户可以为多人,相应的所述模板声纹信息可以为多份;在所述第一用户多于一人时,预先制定并存储每个第一用户与其对应的模板声纹信息的映射表,使每个第一用户与其模板声纹信息一一对应,以方便后续对接收到的第一语音信息进行检测识别。
优选地,所述第一识别结果确定单元,具体包括:
过滤模块,用于接收第一用户输入的第一语音信息,过滤所述第一语音信息,提取过滤后的第一语音信息的声纹信息,称之为第一声纹信息;
匹配模块,用于将所述第一声纹信息与预先存储的模板声纹信息进行匹配,根据匹配度确定所述第一语音信息的第一识别结果。
该步骤中,智能设备在接收第一语音信息时,第一用户所处环境对其发出的声音也会产生影响,进而对根据声纹信息识别所述第一语音信息得到的第一识别结果造成影响。因此,本发明实施例中首先对接收到的第一语音信息进行过滤,以除去外界环境的干扰。具体地,在接收完毕所述第一语音信息后,获取与所述第一语音信息等时长的环境语音信息;根据所述第一语音的频率变化特点分离所述第一语音信息得到第一主要语音信息和次要语音信息,将所述次要语音信息和所述环境语音信息对比,若二者的差别值在预设值范围内,则说明所述第一用户所处环境中存在的非第一用户发出的声音处于相对稳定状态,所述第一主要语音信息主要为所述第一用户发出的语音信息,因此,将所述第一主要语音信息作为判断基础。然后检测并提取所述第一主要语音信息的声纹信息,将其与所述模板声纹信息进行匹配,得出第一识别结果。若所得匹配度在预设值范围内,则所述第一识别结果满足获取所述第一用户学习内容的条件。
优选地,所述学习效果检测系统还包括:
合成单元,用于在所述第一识别结果不满足预设条件时,获取所述第一用户输入的第二语音信息;合成过滤后的第二语音信息和过滤后的第一语音信息,得到第三语音信息;
第二识别结果确定单元,用于将所述第三语音信息的声纹信息与所述模板声纹信息进行匹配,根据匹配度确定第二识别结果;将所述第二识别结果作为所述第一语音信息的第一识别结果。
该步骤中,由于受说话人身体状况、情绪变化等因素的影响,即使没有环境中其他声音的干扰,智能设备对获取到的第一语音信息进行识别的结果可能也会不符合预设的获取所述第一用户学习内容的条件,此时,继续获取所述第一用户输入的第二语音信息,将获取到的第二语音信息采用过滤所述第一语音信息的方法进行过滤,然后合成过滤所述第二语音信息后所得的第二主要语音信息和所述第一主要语音信息,得到第三语音信息。合成时具体包括:分别获取所述第一主要语音信息和第二主要语音信息的特征位置处的声调数值信息,将两次获取的同一特征位置处的声调平均值作为所述第三语音信息相应特征位置处的声调值,同理确定第三语音信息相应特征位置处的响度值以及音频值;其中,所述特征位置至少有一个,所述特征位置由所述模板声纹信息的特征值所处的位置确定;所述特征位置包括所述模板声纹信息对应的声纹频谱图中特征峰所处的位置。
合成得到第三语音信息后,获取其声纹信息,并将第三语音信息的声纹信息与模板声纹信息对比得到第二识别结果,将第二识别结果作为第一语音信息的第一识别结果,即,即使根据第一识别结果判断出第一语音信息不符合预设的获取所述第一用户学习内容的条件,如果第二识别结果符合预设的获取所述第一用户学习内容的条件,则判断第一语音信息符合预设的获取所述第一用户学习内容的条件。根据两次接收的语音信息的识别结果判断第一语音信息是否符合预设的获取所述第一用户学习内容的条件,减少了第一用户自身状态对判断结果的影响,提高了判断的准确率。
可选地,所述学习效果监测系统,还包括:
输入设置单元,用于预先设置接收所述第一用户输入语音信息的时间段。
具体地,在所述第一用户为儿童,第二用户为家长时,家长持有的智能设备可能并不能随时获取儿童输入的语音信息,因此,预先设置智能设备接收儿童输入语音信息的时间段,所述时间段的设置可根据智能设备持有者对智能设备的使用情况及持有者自身具体时间安排来设定。预先设置接收第一用户输入语音信息的时间段,不仅可以方便智能设备持有者在不接收语音信息输入的时间段内随时使用智能设备,也可以保证智能设备在对第一用户学习内容进行检测时第二用户随时参与测试过程,增加第二用户与第一用户的互动交流。
播放单元22,用于在所述第一识别结果满足预设条件时,调用并播放预设时间段内所述第一用户的学习内容;
本发明实施例中,预先将智能设备通过无线网络、无线射频技术等与所述第一用户用于学习的智能终端进行绑定;在所述第一识别结果满足预设条件时,便可直接根据第二用户的设置信息调用第一用户的学习内容,并由智能设备对从智能终端中调用的学习内容进行播放。其中,第二用户可以设置调用预设时间段内第一用户的学习内容,所述预设时间段包括第一用户最后一次使用智能终端进行学习的时间。
等级确定单元23,用于接收所述第一用户对所播放的所述学习内容的反馈信息,根据所述反馈信息检测所述第一用户对所述学习内容的学习效果,确定所述学习效果的等级。
本发明实施例中,智能设备在播放从第一用户用于学习的智能终端中调用的学习内容时,所述第一用户对所述学习内容作出不同的反馈,智能设备将接收到的第一用户的反馈信息后与标准答案相比对,根据比对结果确定第一用户对所播放的学习内容的学习效果的等级,所述学习效果的等级包括:优秀,可进一步提高等。
可选地,所述学习效果监测系统还包括:
评价信息播放单元,用于根据所述学习效果的等级,播放预先存储的第二用户对所述学习效果的评价信息。
具体地,为了鼓励第一用户,提高第一用户的学习积极性,可根据检测得到的第一用户的学习效果的等级给予不同的评价,例如,当检测到的学习效果的等级为“优秀”时,可以播放第二用户预先存储“宝贝真棒”;检测到的学习效果的等级为“可进一步提高”时,可以播放“宝贝已经很优秀了,但还可以更优秀,加油”;另外,智能设备还可以存储对所述学习效果的等级以便第二用户在有需要进行查看。
本发明实施例中接收到第一用户输入的第一语音信息后,根据预先存的模板声纹信息识别所述第一语音信息,得到第一识别结果,在第一识别结果满足预设条件时,调用并播放第一用户相关的学习内容,根据接收到的第一用户对所播放学习内容的反馈信息对第一用户的学习效果进行检测,并得出学习效果的等级。这一过程中根据第一用户的模板声纹信息判断第一语音信息,可以更准确的确定第一用户的身份,调取与所述第一用户对应的学习内容进行播放。在得出学习效果的等级后根据学习效果的等级播放相应的评价信息,有助于提高第一用户的学习积极性,增加第一用户与第二用户之间的互动交流。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
实施例三:
图3是本发明一实施例提供的一种终端设备的示意图。如图3所示,该实施例的终端设备3包括:处理器30、存储器31以及存储在所述存储器31中并可在所述处理器30上运行的计算机程序32。所述处理器30执行所述计算机程序32时实现上述各个学习效果检测方法实施例中的步骤,例如图1所示的步骤S11至S13。或者,所述处理器30执行所述计算机程序32时实现上述各装置实施例中各模块/单元的功能,例如图2所示单元21至23的功能。
示例性的,所述计算机程序32可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器31中,并由所述处理器30执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序32在所述终端设备3中的执行过程。例如,所述计算机程序32可以被分割成第一识别结果确定单元、播放单元、等级确定单元,各单元具体功能如下:
第一识别结果确定单元21,用于接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果;
优选地,所述第一识别结果确定单元,具体包括:
过滤模块,用于接收第一用户输入的第一语音信息,过滤所述第一语音信息,提取过滤后的第一语音信息的声纹信息,称之为第一声纹信息;
匹配模块,用于将所述第一声纹信息与预先存储的模板声纹信息进行匹配,根据匹配度确定所述第一语音信息的第一识别结果。
优选地,所述学习效果检测系统还包括:
合成单元,用于在所述第一识别结果不满足预设条件时,获取所述第一用户输入的第二语音信息;合成过滤后的第二语音信息和过滤后的第一语音信息,得到第三语音信息;
第二识别结果确定单元,用于将所述第三语音信息的声纹信息与所述模板声纹信息进行匹配,根据匹配度确定第二识别结果;将所述第二识别结果作为所述第一语音信息的第一识别结果。
可选地,所述学习效果监测系统,还包括:
输入设置单元,用于预先设置接收所述第一用户输入语音信息的时间段。
播放单元,用于在所述第一识别结果满足预设条件时,调用并播放预设时间段内所述第一用户的学习内容;
等级确定单元,用于接收所述第一用户对所播放的所述学习内容的反馈信息,根据所述反馈信息检测所述第一用户对所述学习内容的学习效果,确定所述学习效果的等级。
可选地,所述学习效果监测系统还包括:
评价信息播放单元,用于根据所述学习效果的等级,播放预先存储的第二用户对所述学习效果的评价信息。
所述终端设备3可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器30、存储器31。本领域技术人员可以理解,图3仅仅是终端设备3的示例,并不构成对终端设备3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器30可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器31可以是所述终端设备3的内部存储单元,例如终端设备3的硬盘或内存。所述存储器31也可以是所述终端设备3的外部存储设备,例如所述终端设备3上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器31还可以既包括所述终端设备3的内部存储单元也包括外部存储设备。所述存储器31用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器31还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种学习效果检测方法,其特征在于,所述学习效果检测方法包括:
接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果;
在所述第一识别结果满足预设条件时,调用并播放预设时间段内所述第一用户的学习内容;
接收所述第一用户对所播放的所述学习内容的反馈信息,根据所述反馈信息检测所述第一用户对所述学习内容的学习效果,确定所述学习效果的等级。
2.如权利要求1所述的学习效果检测方法,其特征在于,在所述接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果之前,包括:
预先设置接收所述第一用户输入语音信息的时间段。
3.如权利要求1所述的学习效果检测方法,其特征在于,所述接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果,具体包括:
接收第一用户输入的第一语音信息,过滤所述第一语音信息,提取过滤后的第一语音信息的声纹信息,称之为第一声纹信息;
将所述第一声纹信息与预先存储的模板声纹信息进行匹配,根据匹配度确定所述第一语音信息的第一识别结果。
4.如权利要求1或3所述的学习效果检测方法,其特征在于,所述学习效果检测方法还包括:
在所述第一识别结果不满足预设条件时,获取所述第一用户输入的第二语音信息;
合成过滤后的第二语音信息和过滤后的第一语音信息,得到第三语音信息;
将所述第三语音信息的声纹信息与所述模板声纹信息进行匹配,根据匹配度确定第二识别结果;
将所述第二识别结果作为所述第一语音信息的第一识别结果。
5.如权利要求1所述的学习效果检测方法,其特征在于,在所述根据所述反馈信息检测所述第一用户对所述学习内容的学习效果,确定所述学习效果的等级之后,包括:
根据所述学习效果的等级,播放预先存储的第二用户对所述学习效果的评价信息。
6.一种学习效果检测系统,其特征在于,所述学习效果检测系统包括:
第一识别结果确定单元,用于接收第一用户输入的第一语音信息,根据预先存储的模板声纹信息识别所述第一语音信息,确定第一识别结果;
播放单元,用于在所述第一识别结果满足预设条件时,调用并播放预设时间段内所述第一用户的学习内容;
等级确定单元,用于接收所述第一用户对所播放的所述学习内容的反馈信息,根据所述反馈信息检测所述第一用户对所述学习内容的学习效果,确定所述学习效果的等级。
7.如权利要求6所述的学习效果检测系统,其特征在于,所述第一识别结果确定单元,具体包括:
过滤模块,用于接收第一用户输入的第一语音信息,过滤所述第一语音信息,提取过滤后的第一语音信息的声纹信息,称之为第一声纹信息;
匹配模块,用于将所述第一声纹信息与预先存储的模板声纹信息进行匹配,根据匹配度确定所述第一语音信息的第一识别结果。
8.如权利要求6或7所述的学习效果检测系统,其特征在于,所述学习效果检测系统还包括:
合成单元,用于在所述第一识别结果不满足预设条件时,获取所述第一用户输入的第二语音信息;合成过滤后的第二语音信息和过滤后的第一语音信息,得到第三语音信息;
第二识别结果确定单元,用于将所述第三语音信息的声纹信息与所述模板声纹信息进行匹配,根据匹配度确定第二识别结果;将所述第二识别结果作为所述第一语音信息的第一识别结果。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710542059.7A CN107331399A (zh) | 2017-07-05 | 2017-07-05 | 一种学习效果检测方法、系统及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710542059.7A CN107331399A (zh) | 2017-07-05 | 2017-07-05 | 一种学习效果检测方法、系统及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107331399A true CN107331399A (zh) | 2017-11-07 |
Family
ID=60196176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710542059.7A Pending CN107331399A (zh) | 2017-07-05 | 2017-07-05 | 一种学习效果检测方法、系统及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107331399A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108877357A (zh) * | 2018-06-21 | 2018-11-23 | 广东小天才科技有限公司 | 一种基于家教机的交互方法及家教机 |
CN110838211A (zh) * | 2018-08-14 | 2020-02-25 | 阿里巴巴集团控股有限公司 | 语音抢答方法、装置和系统 |
CN113823261A (zh) * | 2021-10-28 | 2021-12-21 | 广州宏途教育网络科技有限公司 | 一种基于语音交互的学习互动系统及方法 |
CN113906485A (zh) * | 2020-04-30 | 2022-01-07 | 乐天集团股份有限公司 | 控制装置、系统及方法 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050053900A1 (en) * | 2003-09-05 | 2005-03-10 | Steven Kaufmann | Method of teaching a foreign language to a student providing measurement in a context based learning system |
CN101710370A (zh) * | 2009-12-01 | 2010-05-19 | 广州市陪你学教育科技有限公司 | 亲子互动学习管理系统与方法 |
CN101833877A (zh) * | 2010-03-24 | 2010-09-15 | 杭州全动科技有限公司 | 一种学前儿童的启迪教育方法 |
CN102063903A (zh) * | 2010-09-25 | 2011-05-18 | 中国科学院深圳先进技术研究院 | 言语交互训练系统及方法 |
US8272874B2 (en) * | 2004-11-22 | 2012-09-25 | Bravobrava L.L.C. | System and method for assisting language learning |
CN103871419A (zh) * | 2012-12-11 | 2014-06-18 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104064062A (zh) * | 2014-06-23 | 2014-09-24 | 中国石油大学(华东) | 一种基于声纹和语音识别的在线听力学习方法及系统 |
CN104468802A (zh) * | 2014-12-11 | 2015-03-25 | 上海元趣信息技术有限公司 | 智能早教系统、客户端及数据处理方法 |
CN204425398U (zh) * | 2014-12-11 | 2015-06-24 | 上海元趣信息技术有限公司 | 智能早教系统及装置 |
US9165473B2 (en) * | 2008-07-25 | 2015-10-20 | ArtistWorks, Inc. | Video management system for interactive online instruction |
CN105681920A (zh) * | 2015-12-30 | 2016-06-15 | 深圳市鹰硕音频科技有限公司 | 一种具有语音识别功能的网络教学方法及系统 |
CN105761184A (zh) * | 2016-03-18 | 2016-07-13 | 李志刚 | 一种智能教学魔法棒管理软件系统 |
CN205594700U (zh) * | 2016-03-18 | 2016-09-21 | 李志刚 | 一种智能教学棒 |
CN106504600A (zh) * | 2016-12-29 | 2017-03-15 | 昆山库尔卡人工智能科技有限公司 | 一种早教智能学习系统 |
CN206075583U (zh) * | 2016-06-24 | 2017-04-05 | 陈勋 | 一种儿童数学教育益智游戏盒 |
CN106792240A (zh) * | 2016-12-21 | 2017-05-31 | 康佳集团股份有限公司 | 一种基于电视的学习互动方法及系统 |
CN106780210A (zh) * | 2016-12-12 | 2017-05-31 | 杭州闪趣信息科技有限公司 | 儿童素质行为教育引导平台系统及其构建方法 |
-
2017
- 2017-07-05 CN CN201710542059.7A patent/CN107331399A/zh active Pending
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050053900A1 (en) * | 2003-09-05 | 2005-03-10 | Steven Kaufmann | Method of teaching a foreign language to a student providing measurement in a context based learning system |
US8272874B2 (en) * | 2004-11-22 | 2012-09-25 | Bravobrava L.L.C. | System and method for assisting language learning |
US9165473B2 (en) * | 2008-07-25 | 2015-10-20 | ArtistWorks, Inc. | Video management system for interactive online instruction |
CN101710370A (zh) * | 2009-12-01 | 2010-05-19 | 广州市陪你学教育科技有限公司 | 亲子互动学习管理系统与方法 |
CN101833877A (zh) * | 2010-03-24 | 2010-09-15 | 杭州全动科技有限公司 | 一种学前儿童的启迪教育方法 |
CN102063903A (zh) * | 2010-09-25 | 2011-05-18 | 中国科学院深圳先进技术研究院 | 言语交互训练系统及方法 |
CN103871419A (zh) * | 2012-12-11 | 2014-06-18 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104064062A (zh) * | 2014-06-23 | 2014-09-24 | 中国石油大学(华东) | 一种基于声纹和语音识别的在线听力学习方法及系统 |
CN204425398U (zh) * | 2014-12-11 | 2015-06-24 | 上海元趣信息技术有限公司 | 智能早教系统及装置 |
CN104468802A (zh) * | 2014-12-11 | 2015-03-25 | 上海元趣信息技术有限公司 | 智能早教系统、客户端及数据处理方法 |
CN105681920A (zh) * | 2015-12-30 | 2016-06-15 | 深圳市鹰硕音频科技有限公司 | 一种具有语音识别功能的网络教学方法及系统 |
CN105761184A (zh) * | 2016-03-18 | 2016-07-13 | 李志刚 | 一种智能教学魔法棒管理软件系统 |
CN205594700U (zh) * | 2016-03-18 | 2016-09-21 | 李志刚 | 一种智能教学棒 |
CN206075583U (zh) * | 2016-06-24 | 2017-04-05 | 陈勋 | 一种儿童数学教育益智游戏盒 |
CN106780210A (zh) * | 2016-12-12 | 2017-05-31 | 杭州闪趣信息科技有限公司 | 儿童素质行为教育引导平台系统及其构建方法 |
CN106792240A (zh) * | 2016-12-21 | 2017-05-31 | 康佳集团股份有限公司 | 一种基于电视的学习互动方法及系统 |
CN106504600A (zh) * | 2016-12-29 | 2017-03-15 | 昆山库尔卡人工智能科技有限公司 | 一种早教智能学习系统 |
Non-Patent Citations (1)
Title |
---|
李青: "《移动学习设计》", 31 December 2015 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108877357A (zh) * | 2018-06-21 | 2018-11-23 | 广东小天才科技有限公司 | 一种基于家教机的交互方法及家教机 |
CN110838211A (zh) * | 2018-08-14 | 2020-02-25 | 阿里巴巴集团控股有限公司 | 语音抢答方法、装置和系统 |
CN113906485A (zh) * | 2020-04-30 | 2022-01-07 | 乐天集团股份有限公司 | 控制装置、系统及方法 |
CN113823261A (zh) * | 2021-10-28 | 2021-12-21 | 广州宏途教育网络科技有限公司 | 一种基于语音交互的学习互动系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107705807B (zh) | 基于情绪识别的语音质检方法、装置、设备及存储介质 | |
CN107331399A (zh) | 一种学习效果检测方法、系统及终端设备 | |
CN107591155A (zh) | 语音识别方法及装置、终端及计算机可读存储介质 | |
CN110491407A (zh) | 语音降噪的方法、装置、电子设备及存储介质 | |
CN107360387A (zh) | 一种视频录制的方法、装置及终端设备 | |
CN106504768B (zh) | 基于人工智能的电话拨测音频分类方法及装置 | |
CN108076226A (zh) | 一种通话质量调整的方法、移动终端及存储介质 | |
WO2020253128A1 (zh) | 基于语音识别的通信服务方法、装置、计算机设备及存储介质 | |
CN109785862A (zh) | 客服服务质量评价方法、装置、电子设备及存储介质 | |
CN108389440A (zh) | 一种基于麦克风的语音播放方法、装置及语音播放设备 | |
CN105895105A (zh) | 语音处理方法及装置 | |
CN107342097A (zh) | 录音方法、录音装置、智能终端及计算机可读存储介质 | |
CN107967333A (zh) | 语音搜索方法、语音搜索装置及电子设备 | |
CN105244042B (zh) | 一种基于有限状态自动机的语音情感交互装置与方法 | |
CN107241689A (zh) | 一种耳机语音交互方法及其装置、终端设备 | |
CN111862951B (zh) | 语音端点检测方法及装置、存储介质、电子设备 | |
CN110428824A (zh) | 一种智能音箱的交互方法、装置及智能音箱 | |
US20200265843A1 (en) | Speech broadcast method, device and terminal | |
CN107729492A (zh) | 一种习题的推送方法、系统及终端设备 | |
CN107393534A (zh) | 语音交互方法及装置、计算机装置及计算机可读存储介质 | |
CN108922528A (zh) | 用于处理语音的方法和装置 | |
CN109285011A (zh) | 一种智能客户回访方法、装置及设备 | |
CN108922525A (zh) | 语音处理方法、装置、存储介质及电子设备 | |
CN108614987A (zh) | 数据处理的方法、装置和机器人 | |
CN108877835A (zh) | 评价语音信号的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171107 |