CN109634422A - 一种基于眼动识别的背诵监控方法及学习设备 - Google Patents
一种基于眼动识别的背诵监控方法及学习设备 Download PDFInfo
- Publication number
- CN109634422A CN109634422A CN201811539549.2A CN201811539549A CN109634422A CN 109634422 A CN109634422 A CN 109634422A CN 201811539549 A CN201811539549 A CN 201811539549A CN 109634422 A CN109634422 A CN 109634422A
- Authority
- CN
- China
- Prior art keywords
- strategy
- blinkpunkt
- attentively
- recite
- target user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004424 eye movement Effects 0.000 title claims abstract description 89
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000012544 monitoring process Methods 0.000 title claims abstract description 30
- 230000006872 improvement Effects 0.000 claims abstract description 89
- 206010028347 Muscle twitching Diseases 0.000 claims description 38
- 210000000744 eyelid Anatomy 0.000 claims description 38
- 238000009826 distribution Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 6
- 239000004744 fabric Substances 0.000 claims 1
- 230000015654 memory Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 238000004590 computer program Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 235000013399 edible fruits Nutrition 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000007812 deficiency Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003446 memory effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
一种基于眼动识别的背诵监控方法及学习设备,包括:利用学习设备的摄像头获取目标用户图像,并检测用户输入的语音信息,所述目标用户图像中至少包括使用所述学习设备的目标用户;根据所述目标用户图像和所述语音信息判断所述目标用户是否处于背诵状态;如果是,获取所述目标用户的眼动信息,并根据所述眼动信息生成所述目标用户的当前背诵策略;输出所述当前背诵策略相匹配的背诵改进策略。实施本发明实施例,能够智能输出辅助学生背诵的策略。
Description
技术领域
本发明涉及电子设备技术领域,尤其涉及一种基于眼动识别的背诵监控方法及学习设备。
背景技术
目前,背诵已经成为学生学习中的一大核心任务,通常的,市面上的学习设备辅助学生背诵的方式通常为:语音检测学生输入的背诵语音,并根据该背诵语音与标准语音进行匹配得到背诵分数,以使学生及时获知其背诵的结果。在实践中发现,这种辅助背诵的方式往往只能反映学生背诵的结果,以使学生根据背诵的结果自我摸索改变背诵方式来提高背诵准确度,而无法智能输出辅助学生背诵的策略。
发明内容
本发明实施例公开一种基于眼动识别的背诵监控方法及学习设备,能够智能输出辅助学生背诵的策略。
本发明实施例第一方面公开一种基于眼动识别的背诵监控方法,包括:
利用学习设备的摄像头获取目标用户图像,并检测用户输入的语音信息,所述目标用户图像中至少包括使用所述学习设备的目标用户;
根据所述目标用户图像和所述语音信息判断所述目标用户是否处于背诵状态;
如果是,获取所述目标用户的眼动信息,并根据所述眼动信息生成所述目标用户的当前背诵策略;
输出所述当前背诵策略相匹配的背诵改进策略。
作为一种可选的实施方式,在本发明实施例第一方面中,所述眼动信息至少包括所述目标用户的注视点、注视次数和眼跳次数,所述根据所述眼动信息生成所述目标用户的当前背诵策略,包括:
根据所述眼动信息确定所述目标用户在所述背诵状态下的注视点分布集合,所述注视点分布集合包含若干个注视点;
生成与所述注视点分布集合中每一所述注视点对应的注视次数和眼跳次数;
从所述注视点分布集合中确定所述注视次数高于预设注视次数的第一注视点集合,以及确定所述眼跳次数高于预设眼跳次数的第二注视点集合;
将所述第一注视点集合所包含的注视点确定为重点注视点,并将所述第一注视点集合与所述第二注视点集合的交集所包含的注视点确定为重点无效注视点,以及将处于所述第一注视点集合且不处于所述第二注视点集合的注视点确定为重点有效注视点;
计算所述重点无效注视点与所述重点注视点的第一比值,以及计算所述重点有效注视点与所述重点注视点的第二比值;
当所述第一比值大于所述第二比值时,确定所述目标用户的当前背诵策略为无效注视主导背诵策略;
当所述第一比值小于或者等于所述第二比值时,确定所述目标用户的当前背诵策略为有效注视主导背诵策略。
作为一种可选的实施方式,在本发明实施例第一方面中,所述输出所述当前背诵策略相匹配的背诵改进策略,包括:
当所述当前背诵策略为所述无效注视主导背诵策略时,输出与所述无效注视主导背诵策略相匹配的有效注视改进策略;
当所述当前背诵策略为所述有效注视主导背诵策略时,输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
作为一种可选的实施方式,在本发明实施例第一方面中,在所述输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略之前,所述方法还包括:
当所述当前背诵策略为所述有效注视主导背诵策略时,判断所述重点注视点的数量是否大于预设阈值;
如果是,执行所述的输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
作为一种可选的实施方式,在本发明实施例第一方面中,在判断出所述重点注视点的数量小于或者等于所述预设阈值之后,所述方法还包括:
在所述重点注视点中确定所述重点注视点对应的注视内容为重点注视内容的目标重点注视点;
计算所述目标重点注视点与所述重点注视点之间的比值,并判断所述比值是否大于预设比值;
如果否,执行所述的输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
本发明实施例第二方面公开一种学习设备,包括:
检测单元,用于利用学习设备的摄像头获取目标用户图像,并检测用户输入的语音信息,所述目标用户图像中至少包括使用所述学习设备的目标用户;
第一判断单元,用于根据所述目标用户图像和所述语音信息判断所述目标用户是否处于背诵状态;
获取单元,用于当所述第一判断单元判断出所述目标用户处于所述背诵状态时,获取所述目标用户的眼动信息;
生成单元,用于根据所述眼动信息生成所述目标用户的当前背诵策略;
输出单元,用于输出所述当前背诵策略相匹配的背诵改进策略。
作为一种可选的实施方式,在本发明实施例第二方面中,所述眼动信息至少包括所述目标用户的注视点、注视次数和眼跳次数,所述生成单元包括:
确定子单元,用于根据所述眼动信息确定所述目标用户在所述背诵状态下的注视点分布集合,所述注视点分布集合包含若干个注视点;
生成子单元,用于生成与所述注视点分布集合中每一所述注视点对应的注视次数和眼跳次数;
所述确定子单元,还用于从所述注视点分布集合中确定所述注视次数高于预设注视次数的第一注视点集合,以及确定所述眼跳次数高于预设眼跳次数的第二注视点集合;
所述确定子单元,还用于将所述第一注视点集合所包含的注视点确定为重点注视点,并将所述第一注视点集合与所述第二注视点集合的交集所包含的注视点确定为重点无效注视点,以及将处于所述第一注视点集合且不处于所述第二注视点集合的注视点确定为重点有效注视点;
计算子单元,用于计算所述重点无效注视点与所述重点注视点的第一比值,以及计算所述重点有效注视点与所述重点注视点的第二比值;
所述确定子单元,还用于当所述第一比值大于所述第二比值时,确定所述目标用户的当前背诵策略为无效注视主导背诵策略;
所述确定子单元,还用于当所述第一比值小于或者等于所述第二比值时,确定所述目标用户的当前背诵策略为有效注视主导背诵策略。
作为一种可选的实施方式,在本发明实施例第二方面中,所述输出单元包括:
第一输出子单元,用于当所述当前背诵策略为所述无效注视主导背诵策略时,输出与所述无效注视主导背诵策略相匹配的有效注视改进策略;
第二输出子单元,用于当所述当前背诵策略为所述有效注视主导背诵策略时,输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
作为一种可选的实施方式,在本发明实施例第二方面中,所述学习设备还包括:
第二判断单元,用于当所述当前背诵策略为所述有效注视主导背诵策略时,判断所述重点注视点的数量是否大于预设阈值;如果是,触发所述第二输出子单元执行所述的输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
作为一种可选的实施方式,在本发明实施例第二方面中,所述学习设备还包括:
确定单元,用于在第二判断单元判断出所述重点注视点的数量小于或者等于所述预设阈值之后,在所述重点注视点中确定所述重点注视点对应的注视内容为重点注视内容的目标重点注视点;
计算单元,用于计算所述目标重点注视点与所述重点注视点之间的比值,并判断所述比值是否大于预设比值;如果否,触发所述第二输出子单元执行所述的输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
本发明实施例第三方面公开一种学习设备,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行本发明实施例第一方面公开的一种基于眼动识别的背诵监控方法。
本发明实施例第四方面公开一种计算机可读存储介质,其存储计算机程序,其中,所述计算机程序使得计算机执行本发明实施例第一方面公开的一种基于眼动识别的背诵监控方法。
本发明实施例第五方面公开一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行第一方面的任意一种方法的部分或全部步骤。
本发明实施例第六方面公开一种应用发布平台,所述应用发布平台用于发布计算机程序产品,其中,当所述计算机程序产品在计算机上运行时,使得所述计算机执行第一方面的任意一种方法的部分或全部步骤。
与现有技术相比,本发明实施例具有以下有益效果:
本发明实施例中,利用学习设备的摄像头获取目标用户图像,并检测用户输入的语音信息,目标用户图像中至少包括使用学习设备的目标用户;根据目标用户图像和语音信息判断目标用户是否处于背诵状态;如果是,获取目标用户的眼动信息,并根据眼动信息生成目标用户的当前背诵策略;输出当前背诵策略相匹配的背诵改进策略。实施本发明实施例,能够根据目标用户进行背诵时的眼动信息生成其当前背诵策略,并输出当前背诵策略相匹配的背诵改进策略,实现了利用眼动信息分析目标用户背诵策略,从而智能输出辅助学生背诵的策略,以使学生根据背诵改进策略调整背诵策略来提高背诵准确度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例公开的一种基于眼动识别的背诵监控方法的流程示意图;
图2是本发明实施例公开的另一种基于眼动识别的背诵监控方法的流程示意图;
图3是本发明实施例公开的另一种基于眼动识别的背诵监控方法的流程示意图;
图4是本发明实施例公开的一种学习设备的结构示意图;
图5是本发明实施例公开的另一种学习设备的结构示意图;
图6是本发明实施例公开的另一种学习设备的结构示意图;
图7是本发明实施例公开的另一种学习设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明实施例及附图中的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例公开一种基于眼动识别的背诵监控方法及学习设备,能够智能输出辅助学生背诵的策略。以下分别进行详细说明。
实施例一
请参阅图1,图1是本发明实施例公开的一种基于眼动识别的背诵监控方法的流程示意图。如图1所示,该基于眼动识别的背诵监控方法可以包括以下步骤:
101、学习设备利用学习设备的摄像头获取目标用户图像,并检测用户输入的语音信息,目标用户图像中至少包括使用学习设备的目标用户。
本发明实施例中,学习设备可以为家教机、学习平板等各类用于学习的设备,本发明实施例中不做限定。其中,利用学习设备的摄像头可以获取位于学习设备前面正在使用学习设备的目标用户的目标用户图像,目标用户图像中至少包括使用学习设备的目标用户,还可以包括目标用户所处的学习环境图像。在学习设备利用摄像头获取目标用户图像的过程中,学习设备还可以利用麦克风检测用户输入的语音信息,这一过程可以针对出声背诵以及默读背诵两种背诵情况进行检测。
102、学习设备根据目标用户图像和语音信息判断目标用户是否处于背诵状态,如果是,执行步骤103至步骤104,如果否,结束本次流程。
作为一种可选的实施方式,学习设备根据目标用户图像和语音信息判断目标用户是否处于背诵状态可以包括:
学习设备提取目标用户图像中用户嘴唇运动图像;
学习设备根据用户嘴唇运动图像获取目标用户正在默读或朗读的内容信息;
学习设备判断该内容信息是否与预设背诵内容相匹配;
当判断出该内容信息与预设背诵内容不相匹配时,学习设备确定目标用户不处于背诵状态;
当判断出该内容信息与预设背诵内容相匹配时,学习设备判断上述语音信息是否与该预设背诵内容相匹配;
当判断出上述语音信息与该预设背诵内容相匹配时,学习设备确定目标用户处于出声背诵状态;
当判断出上述语音信息与该预设背诵内容不相匹配时,学习设备确定目标用户处于默读背诵状态。
通过实施这种可选的实施方式,可以提取目标用户图像中用户嘴唇运动图像,以此确定目标用户正在朗读或默读的内容信息,以此为根据确定用户是否在背诵预设背诵内容,此外,再根据学习设备获取到的语音信息判断目标用户处于出声背诵状态或者默读背诵状态,以此更好的获取用户的背诵策略,输出更可靠的背诵改进策略。
103、学习设备获取目标用户的眼动信息,并根据眼动信息生成目标用户的当前背诵策略。
本发明实施例中,目标用户使用学习设备进行背诵的过程中,可以获取目标用户的眼动信息,据此获取目标用户注视点的相关信息来生成目标用户的当前背诵策略。
作为一种可选的实施方式,学习设备根据眼动信息生成目标用户的当前背诵策略可以包括:
当目标用户处于出声背诵状态时,学习设备结合眼动信息与目标用户出声的发声节点之间的匹配度生成目标用户的当前背诵策略,其中,当前背诵策略对应相应的背诵策略级别,眼动信息指示目标用户眼睛的注视点与目标用户出声的发声节点之间的匹配度越高,背诵策略级别越高;
当目标用户处于默读背诵状态时,学习设备结合眼动信息与目标用户嘴唇运动的运动节点之间的匹配度生成目标用户的当前背诵策略。
通过实施这种可选的实施方式,可以生成不同背诵策略级别的目标用户的当前背诵策略,以此根据不同背诵策略级别生成相应的改进背诵策略,更有针对性,输出的改进策略满足多种用户需求。
104、学习设备输出当前背诵策略相匹配的背诵改进策略。
本发明实施例中,针对不同的背诵策略级别可以输出与其匹配的背诵改进策略。举例来说,当目标用户的当前背诵策略相匹配的背诵策略级别较低时,说明该目标用户的背诵策略存在较大的问题,此时应输出针对背诵注视点选择、背诵注视时长确定、背诵方式(口读或默记)等各个方面的背诵改进策略,当目标用户的当前背诵策略相匹配的背诵策略级别较高时,说明该目标用户的背诵策略存在较小的问题,此时可以根据目标用户的背诵策略存在的不足输出相应的背诵改进策略,如目标用户对于背诵注视点选择存在精准度不高的问题,可以输出用于指示用户选择背诵注视点的背诵改进策略。
可见,通过实施图1所描述的基于眼动识别的背诵监控方法,能够根据目标用户进行背诵时的眼动信息生成其当前背诵策略,并输出当前背诵策略相匹配的背诵改进策略,实现了利用眼动信息分析目标用户背诵策略,从而智能输出辅助学生背诵的策略,以使学生根据背诵改进策略调整背诵策略来提高背诵准确度。
实施例二
请参阅图2,图2是本发明实施例公开的另一种基于眼动识别的背诵监控方法的流程示意图。如图2所示,该基于眼动识别的背诵监控方法可以包括以下步骤:
201、学习设备利用学习设备的摄像头获取目标用户图像,并检测用户输入的语音信息,目标用户图像中至少包括使用学习设备的目标用户。
202、学习设备根据目标用户图像和语音信息判断目标用户是否处于背诵状态,如果是,执行步骤203至步骤212,如果否,结束本次流程。
203、学习设备获取目标用户的眼动信息。
本发明实施例中,眼动信息至少包括目标用户的注视点、注视次数和眼跳次数。
204、学习设备根据眼动信息确定目标用户在背诵状态下的注视点分布集合,注视点分布集合包含若干个注视点。
本发明实施例中,每一注视点对应有学习设备中相应的位置坐标。
205、学习设备生成与注视点分布集合中每一注视点对应的注视次数和眼跳次数。
本发明实施例中,注视次数为目标用户注视该注视点的次数,眼跳次数为目标用户注视该注视点时眼睛跳动的次数。其中,眼跳次数越少,记忆效果越佳。
206、学习设备从注视点分布集合中确定注视次数高于预设注视次数的第一注视点集合,以及确定眼跳次数高于预设眼跳次数的第二注视点集合。
本发明实施例中,第一注视点集合中包括注视次数过多的注视点,第二注视点集合中包括眼跳次数过多的注视点。
207、学习设备将第一注视点集合所包含的注视点确定为重点注视点,并将第一注视点集合与第二注视点集合的交集所包含的注视点确定为重点无效注视点,以及将处于第一注视点集合且不处于第二注视点集合的注视点确定为重点有效注视点。
本发明实施例中,第一注视点集合所包含的注视点即为用户多次注视的重点注视点,第一注视点集合与第二注视点集合的交集所包含的注视点即为用户多次注视且注视时眼跳次数过快的注视点,也即是用户重点关注但无效背诵的重点无效注视点,处于第一注视点集合且不处于第二注视点集合的注视点即为用户重点关注且有效背诵的重点有效注视点。
208、学习设备计算重点无效注视点与重点注视点的第一比值,以及计算重点有效注视点与重点注视点的第二比值。
209、当第一比值大于第二比值时,学习设备确定目标用户的当前背诵策略为无效注视主导背诵策略。
本发明实施例中,第一比值大于第二比值说明目标用户进行了很多的无效注视。
210、当第一比值小于或者等于第二比值时,学习设备确定目标用户的当前背诵策略为有效注视主导背诵策略。
本发明实施例中,第一比值小于第二比值说明目标用户进行了很多有效注视。
211、当前背诵策略为无效注视主导背诵策略时,学习设备输出与无效注视主导背诵策略相匹配的有效注视改进策略。
本发明实施例中,有效注视改进策略至少包括推荐的注视点,以及对于重点注视点高效背诵的策略等。
212、当前背诵策略为有效注视主导背诵策略时,学习设备输出与有效注视主导背诵策略相匹配的有效注视点选择改进策略。
本发明实施例中,有效注视点选择改进策略至少包括推荐的注视点,以及对于重点注视点的选择策略等。
可见,通过实施图2所描述的基于眼动识别的背诵监控方法,能够根据目标用户进行背诵时的眼动信息生成其当前背诵策略,并输出当前背诵策略相匹配的背诵改进策略,实现了利用眼动信息分析目标用户背诵策略,从而智能输出辅助学生背诵的策略,以使学生根据背诵改进策略调整背诵策略来提高背诵准确度。
此外,通过实施图2所描述的基于眼动识别的背诵监控方法,可以根据注视次数和眼跳次数综合判断用户的当前背诵策略为无效注视主导背诵策略或者有效注视主导背诵策略,获取到的当前背诵策略更加精准,从而根据当前背诵策略生成更有效的背诵改进策略。
此外,通过实施图2所描述的基于眼动识别的背诵监控方法,可以根据无效注视主导背诵策略生成相应的有效注视改进策略,以使用户根据有效注视改进策略调整注视策略,提高背诵效率;也可以根据有效注视主导背诵策略生成相应的有效注视点选择改进策略,以使用户根据有效注视点选择改进策略提升注视点选择策略,提高背诵效率。
实施例三
请参阅图3,图3是本发明实施例公开的另一种基于眼动识别的背诵监控方法的流程示意图。如图3所示,该基于眼动识别的背诵监控方法可以包括以下步骤:
301、学习设备利用学习设备的摄像头获取目标用户图像,并检测用户输入的语音信息,目标用户图像中至少包括使用学习设备的目标用户。
302、学习设备根据目标用户图像和语音信息判断目标用户是否处于背诵状态,如果是,执行步骤303至步骤312,如果否,结束本次流程。
303、学习设备获取目标用户的眼动信息,并根据眼动信息生成目标用户的当前背诵策略。
本发明实施例中,眼动信息至少包括目标用户的注视点、注视次数和眼跳次数。
304、学习设备根据眼动信息确定目标用户在背诵状态下的注视点分布集合,注视点分布集合包含若干个注视点。
305、学习设备生成与注视点分布集合中每一注视点对应的注视次数和眼跳次数。
306、学习设备从注视点分布集合中确定注视次数高于预设注视次数的第一注视点集合,以及确定眼跳次数高于预设眼跳次数的第二注视点集合。
307、学习设备将第一注视点集合所包含的注视点确定为重点注视点,并将第一注视点集合与第二注视点集合的交集所包含的注视点确定为重点无效注视点,以及将处于第一注视点集合且不处于第二注视点集合的注视点确定为重点有效注视点。
308、学习设备计算重点无效注视点与重点注视点的第一比值,以及计算重点有效注视点与重点注视点的第二比值。
309、当第一比值大于第二比值时,学习设备确定目标用户的当前背诵策略为无效注视主导背诵策略。
310、当第一比值小于或者等于第二比值时,学习设备确定目标用户的当前背诵策略为有效注视主导背诵策略。
311、当前背诵策略为无效注视主导背诵策略时,学习设备输出与无效注视主导背诵策略相匹配的有效注视改进策略。
312、当前背诵策略为有效注视主导背诵策略时,学习设备判断重点注视点的数量是否大于预设阈值,如果是,执行步骤313,如果否,结束本次流程。
作为一种可选的实施方式,在学习设备判断出重点注视点的数量小于或者等于预设阈值之后,还可以执行以下步骤:
学习设备在重点注视点中确定重点注视点对应的注视内容为重点注视内容的目标重点注视点;
学习设备计算目标重点注视点与重点注视点之间的比值,并判断比值是否大于预设比值;如果否,执行步骤213。
通过实施这种可选的实施方式,可以在重点注视点的数量小于或者等于预设阈值之后,计算目标重点注视点与重点注视点之间的比值,如果比值较小说明用户对于重点注视点的选择仍存在偏差,此时也输出有效注视点选择改进策略,提高背诵改进策略输出的可靠性。
313、学习设备输出与有效注视主导背诵策略相匹配的有效注视点选择改进策略。
可见,通过实施图3所描述的基于眼动识别的背诵监控方法,能够根据目标用户进行背诵时的眼动信息生成其当前背诵策略,并输出当前背诵策略相匹配的背诵改进策略,实现了利用眼动信息分析目标用户背诵策略,从而智能输出辅助学生背诵的策略,以使学生根据背诵改进策略调整背诵策略来提高背诵准确度。
此外,通过实施图3所描述的基于眼动识别的背诵监控方法,可以根据注视次数和眼跳次数综合判断用户的当前背诵策略为无效注视主导背诵策略或者有效注视主导背诵策略,获取到的当前背诵策略更加精准,从而根据当前背诵策略生成更有效的背诵改进策略。
此外,通过实施图3所描述的基于眼动识别的背诵监控方法,可以根据无效注视主导背诵策略生成相应的有效注视改进策略,以使用户根据有效注视改进策略调整注视策略,提高背诵效率;也可以根据有效注视主导背诵策略生成相应的有效注视点选择改进策略,以使用户根据有效注视点选择改进策略提升注视点选择策略,提高背诵效率。
此外,通过实施图3所描述的基于眼动识别的背诵监控方法,还可以在当前背诵策略为有效注视主导背诵策略且重点注视点的数量较多时,也输出有效注视点选择改进策略,针对用户滥选重点注视点的情况也输出改进策略,用以提高注视点选择准确度,从而提高背诵效率。
实施例四
请参阅图4,图4是本发明实施例公开的一种学习设备的结构示意图。如图4所示,该学习设备400可以包括:
检测单元401,用于利用学习设备的摄像头获取目标用户图像,并检测用户输入的语音信息,目标用户图像中至少包括使用学习设备的目标用户。
本发明实施例中,学习设备可以为家教机、学习平板等各类用于学习的设备,本发明实施例中不做限定。其中,利用学习设备的摄像头可以获取位于学习设备前面正在使用学习设备的目标用户的目标用户图像,目标用户图像中至少包括使用学习设备的目标用户,还可以包括目标用户所处的学习环境图像。在学习设备利用摄像头获取目标用户图像的过程中,学习设备还可以利用麦克风检测用户输入的语音信息,这一过程可以针对出声背诵以及默读背诵两种背诵情况进行检测。
第一判断单元402,用于根据目标用户图像和语音信息判断目标用户是否处于背诵状态。
作为一种可选的实施方式,第一判断单元402根据目标用户图像和语音信息判断目标用户是否处于背诵状态可以包括:
第一判断单元402提取目标用户图像中用户嘴唇运动图像;
第一判断单元402根据用户嘴唇运动图像获取目标用户正在默读或朗读的内容信息;
第一判断单元402判断该内容信息是否与预设背诵内容相匹配;
当判断出该内容信息与预设背诵内容不相匹配时,第一判断单元402确定目标用户不处于背诵状态;
当判断出该内容信息与预设背诵内容相匹配时,第一判断单元402判断上述语音信息是否与该预设背诵内容相匹配;
当判断出上述语音信息与该预设背诵内容相匹配时,第一判断单元402确定目标用户处于出声背诵状态;
当判断出上述语音信息与该预设背诵内容不相匹配时,第一判断单元402确定目标用户处于默读背诵状态。
通过实施这种可选的实施方式,可以提取目标用户图像中用户嘴唇运动图像,以此确定目标用户正在朗读或默读的内容信息,以此为根据确定用户是否在背诵预设背诵内容,此外,再根据学习设备获取到的语音信息判断目标用户处于出声背诵状态或者默读背诵状态,以此更好的获取用户的背诵策略,输出更可靠的背诵改进策略。
获取单元403,用于当第一判断单元402判断出目标用户处于背诵状态时,获取目标用户的眼动信息。
本发明实施例中,眼动信息至少包括目标用户的注视点、注视次数和眼跳次数。
本发明实施例中,目标用户使用学习设备进行背诵的过程中,可以获取目标用户的眼动信息,据此获取目标用户注视点的相关信息来生成目标用户的当前背诵策略。
生成单元404,用于根据眼动信息生成目标用户的当前背诵策略。
作为一种可选的实施方式,获取单元403根据眼动信息生成目标用户的当前背诵策略可以包括:
当目标用户处于出声背诵状态时,获取单元403结合眼动信息与目标用户出声的发声节点之间的匹配度生成目标用户的当前背诵策略,其中,当前背诵策略对应相应的背诵策略级别,眼动信息指示目标用户眼睛的注视点与目标用户出声的发声节点之间的匹配度越高,背诵策略级别越高;
当目标用户处于默读背诵状态时,获取单元403结合眼动信息与目标用户嘴唇运动的运动节点之间的匹配度生成目标用户的当前背诵策略。
通过实施这种可选的实施方式,可以生成不同背诵策略级别的目标用户的当前背诵策略,以此根据不同背诵策略级别生成相应的改进背诵策略,更有针对性,输出的改进策略满足多种用户需求。
输出单元405,用于输出当前背诵策略相匹配的背诵改进策略。
本发明实施例中,针对不同的背诵策略级别可以输出与其匹配的背诵改进策略。举例来说,当目标用户的当前背诵策略相匹配的背诵策略级别较低时,说明该目标用户的背诵策略存在较大的问题,此时应输出针对背诵注视点选择、背诵注视时长确定、背诵方式(口读或默记)等各个方面的背诵改进策略,当目标用户的当前背诵策略相匹配的背诵策略级别较高时,说明该目标用户的背诵策略存在较小的问题,此时可以根据目标用户的背诵策略存在的不足输出相应的背诵改进策略,如目标用户对于背诵注视点选择存在精准度不高的问题,可以输出用于指示用户选择背诵注视点的背诵改进策略。
可见,通过实施图4所描述的学习设备,能够根据目标用户进行背诵时的眼动信息生成其当前背诵策略,并输出当前背诵策略相匹配的背诵改进策略,实现了利用眼动信息分析目标用户背诵策略,从而智能输出辅助学生背诵的策略,以使学生根据背诵改进策略调整背诵策略来提高背诵准确度。
实施例五
请参阅图5,图5是本发明实施例公开的另一种学习设备的结构示意图。其中,图5所示的学习设备400是由图4所示的学习设备400优化得到的,与图4所示的学习设备400相比,在图5所示的学习设备400中,生成单元404包括:
确定子单元4041,用于根据眼动信息确定目标用户在背诵状态下的注视点分布集合,注视点分布集合包含若干个注视点。
本发明实施例中,每一注视点对应有学习设备中相应的位置坐标。
生成子单元4042,用于生成与注视点分布集合中每一注视点对应的注视次数和眼跳次数。
本发明实施例中,注视次数为目标用户注视该注视点的次数,眼跳次数为目标用户注视该注视点时眼睛跳动的次数。其中,眼跳次数越少,记忆效果越佳。
确定子单元4041,还用于从注视点分布集合中确定注视次数高于预设注视次数的第一注视点集合,以及确定眼跳次数高于预设眼跳次数的第二注视点集合。
本发明实施例中,第一注视点集合中包括注视次数过多的注视点,第二注视点集合中包括眼跳次数过多的注视点。
确定子单元4041,还用于将第一注视点集合所包含的注视点确定为重点注视点,并将第一注视点集合与第二注视点集合的交集所包含的注视点确定为重点无效注视点,以及将处于第一注视点集合且不处于第二注视点集合的注视点确定为重点有效注视点。
本发明实施例中,第一注视点集合所包含的注视点即为用户多次注视的重点注视点,第一注视点集合与第二注视点集合的交集所包含的注视点即为用户多次注视且注视时眼跳次数过快的注视点,也即是用户重点关注但无效背诵的重点无效注视点,处于第一注视点集合且不处于第二注视点集合的注视点即为用户重点关注且有效背诵的重点有效注视点。
计算子单元4043,用于计算重点无效注视点与重点注视点的第一比值,以及计算重点有效注视点与重点注视点的第二比值。
确定子单元4041,还用于当第一比值大于第二比值时,确定目标用户的当前背诵策略为无效注视主导背诵策略。
本发明实施例中,第一比值大于第二比值说明目标用户进行了很多的无效注视。
确定子单元4041,还用于当第一比值小于或者等于第二比值时,确定目标用户的当前背诵策略为有效注视主导背诵策略。
本发明实施例中,第一比值小于第二比值说明目标用户进行了很多有效注视。
可选的,在图5所示的学习设备400中,输出单元405包括:
第一输出子单元4051,用于当前背诵策略为无效注视主导背诵策略时,输出与无效注视主导背诵策略相匹配的有效注视改进策略。
本发明实施例中,有效注视改进策略至少包括推荐的注视点,以及对于重点注视点高效背诵的策略等。
第二输出子单元4052,用于当前背诵策略为有效注视主导背诵策略时,输出与有效注视主导背诵策略相匹配的有效注视点选择改进策略。
本发明实施例中,有效注视点选择改进策略至少包括推荐的注视点,以及对于重点注视点的选择策略等。
可见,通过实施图5所描述的学习设备,能够根据目标用户进行背诵时的眼动信息生成其当前背诵策略,并输出当前背诵策略相匹配的背诵改进策略,实现了利用眼动信息分析目标用户背诵策略,从而智能输出辅助学生背诵的策略,以使学生根据背诵改进策略调整背诵策略来提高背诵准确度。
此外,通过实施图5所描述的学习设备,可以根据注视次数和眼跳次数综合判断用户的当前背诵策略为无效注视主导背诵策略或者有效注视主导背诵策略,获取到的当前背诵策略更加精准,从而根据当前背诵策略生成更有效的背诵改进策略。
此外,通过实施图5所描述的学习设备,可以根据无效注视主导背诵策略生成相应的有效注视改进策略,以使用户根据有效注视改进策略调整注视策略,提高背诵效率;也可以根据有效注视主导背诵策略生成相应的有效注视点选择改进策略,以使用户根据有效注视点选择改进策略提升注视点选择策略,提高背诵效率。
实施例六
请参阅图6,图6是本发明实施例公开的另一种学习设备的结构示意图。其中,图6所示的学习设备400是由图5所示的学习设备400优化得到的,与图5所示的学习设备400相比,图6所示的学习设备400还可以包括:
第二判断单元406,用于当前背诵策略为有效注视主导背诵策略时,判断重点注视点的数量是否大于预设阈值;如果是,触发第二输出子单元4052执行的输出与有效注视主导背诵策略相匹配的有效注视点选择改进策略。
可选的,图6所示的学习设备400还可以包括:
确定单元407,用于在第二判断单元406判断出所述重点注视点的数量小于或者等于所述预设阈值之后,在重点注视点中确定重点注视点对应的注视内容为重点注视内容的目标重点注视点。
计算单元408,用于计算目标重点注视点与重点注视点之间的比值,并判断比值是否大于预设比值;如果否,触发第二输出子单元4052执行的输出与有效注视主导背诵策略相匹配的有效注视点选择改进策略。
可见,通过实施图6所描述的学习设备,能够根据目标用户进行背诵时的眼动信息生成其当前背诵策略,并输出当前背诵策略相匹配的背诵改进策略,实现了利用眼动信息分析目标用户背诵策略,从而智能输出辅助学生背诵的策略,以使学生根据背诵改进策略调整背诵策略来提高背诵准确度。
此外,通过实施图6所描述的学习设备,可以根据注视次数和眼跳次数综合判断用户的当前背诵策略为无效注视主导背诵策略或者有效注视主导背诵策略,获取到的当前背诵策略更加精准,从而根据当前背诵策略生成更有效的背诵改进策略。
此外,通过实施图6所描述的学习设备,可以根据无效注视主导背诵策略生成相应的有效注视改进策略,以使用户根据有效注视改进策略调整注视策略,提高背诵效率;也可以根据有效注视主导背诵策略生成相应的有效注视点选择改进策略,以使用户根据有效注视点选择改进策略提升注视点选择策略,提高背诵效率。
此外,通过实施图6所描述的学习设备,还可以在当前背诵策略为有效注视主导背诵策略且重点注视点的数量较多时,也输出有效注视点选择改进策略,针对用户滥选重点注视点的情况也输出改进策略,用以提高注视点选择准确度,从而提高背诵效率。
实施例七
请参阅图7,图7是本发明实施例公开的另一种学习设备的结构示意图。如图7所示,该学习设备可以包括:
存储有可执行程序代码的存储器701;
与存储器701耦合的处理器702;
其中,处理器702调用存储器701中存储的可执行程序代码,执行图1~图3任意一种基于眼动识别的背诵监控方法。
本发明实施例公开一种计算机可读存储介质,其存储计算机程序,其中,该计算机程序使得计算机执行图1~图3任意一种基于眼动识别的背诵监控方法。
本发明实施例还公开一种计算机程序产品,其中,当计算机程序产品在计算机上运行时,使得计算机执行如以上各方法实施例中的方法的部分或全部步骤。
本发明实施例还公开一种应用发布平台,其中,应用发布平台用于发布计算机程序产品,其中,当计算机程序产品在计算机上运行时,使得计算机执行如以上各方法实施例中的方法的部分或全部步骤。
在本发明的各种实施例中,应理解,上述各过程的序号的大小并不意味着执行顺序的必然先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在本发明所提供的实施例中,应理解,“与A相应的B”表示B与A相关联,根据A可以确定B。但还应理解,根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其他信息确定B。
另外,在本发明各实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元若以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可获取的存储器中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或者部分,可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干请求用以使得一台计算机设备(可以为个人计算机、服务器或者网络设备等,具体可以是计算机设备中的处理器)执行本发明的各个实施例上述方法的部分或全部步骤。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本发明实施例公开的一种基于眼动识别的背诵监控方法及学习设备进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于眼动识别的背诵监控方法,其特征在于,包括:
利用学习设备的摄像头获取目标用户图像,并检测用户输入的语音信息,所述目标用户图像中至少包括使用所述学习设备的目标用户;
根据所述目标用户图像和所述语音信息判断所述目标用户是否处于背诵状态;
如果是,获取所述目标用户的眼动信息,并根据所述眼动信息生成所述目标用户的当前背诵策略;
输出所述当前背诵策略相匹配的背诵改进策略。
2.根据权利要求1所述的方法,其特征在于,所述眼动信息至少包括所述目标用户的注视点、注视次数和眼跳次数,所述根据所述眼动信息生成所述目标用户的当前背诵策略,包括:
根据所述眼动信息确定所述目标用户在所述背诵状态下的注视点分布集合,所述注视点分布集合包含若干个注视点;
生成与所述注视点分布集合中每一所述注视点对应的注视次数和眼跳次数;
从所述注视点分布集合中确定所述注视次数高于预设注视次数的第一注视点集合,以及确定所述眼跳次数高于预设眼跳次数的第二注视点集合;
将所述第一注视点集合所包含的注视点确定为重点注视点,并将所述第一注视点集合与所述第二注视点集合的交集所包含的注视点确定为重点无效注视点,以及将处于所述第一注视点集合且不处于所述第二注视点集合的注视点确定为重点有效注视点;
计算所述重点无效注视点与所述重点注视点的第一比值,以及计算所述重点有效注视点与所述重点注视点的第二比值;
当所述第一比值大于所述第二比值时,确定所述目标用户的当前背诵策略为无效注视主导背诵策略;
当所述第一比值小于或者等于所述第二比值时,确定所述目标用户的当前背诵策略为有效注视主导背诵策略。
3.根据权利要求2所述的方法,其特征在于,所述输出所述当前背诵策略相匹配的背诵改进策略,包括:
当所述当前背诵策略为所述无效注视主导背诵策略时,输出与所述无效注视主导背诵策略相匹配的有效注视改进策略;
当所述当前背诵策略为所述有效注视主导背诵策略时,输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
4.根据权利要求3所述的方法,其特征在于,在所述输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略之前,所述方法还包括:
当所述当前背诵策略为所述有效注视主导背诵策略时,判断所述重点注视点的数量是否大于预设阈值;
如果是,执行所述的输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
5.根据权利要求4所述的方法,其特征在于,在判断出所述重点注视点的数量小于或者等于所述预设阈值之后,所述方法还包括:
在所述重点注视点中确定所述重点注视点对应的注视内容为重点注视内容的目标重点注视点;
计算所述目标重点注视点与所述重点注视点之间的比值,并判断所述比值是否大于预设比值;
如果否,执行所述的输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
6.一种学习设备,其特征在于,包括:
检测单元,用于利用学习设备的摄像头获取目标用户图像,并检测用户输入的语音信息,所述目标用户图像中至少包括使用所述学习设备的目标用户;
第一判断单元,用于根据所述目标用户图像和所述语音信息判断所述目标用户是否处于背诵状态;
获取单元,用于当所述第一判断单元判断出所述目标用户处于所述背诵状态时,获取所述目标用户的眼动信息;
生成单元,用于根据所述眼动信息生成所述目标用户的当前背诵策略;
输出单元,用于输出所述当前背诵策略相匹配的背诵改进策略。
7.根据权利要求6所述的学习设备,其特征在于,所述眼动信息至少包括所述目标用户的注视点、注视次数和眼跳次数,所述生成单元包括:
确定子单元,用于根据所述眼动信息确定所述目标用户在所述背诵状态下的注视点分布集合,所述注视点分布集合包含若干个注视点;
生成子单元,用于生成与所述注视点分布集合中每一所述注视点对应的注视次数和眼跳次数;
所述确定子单元,还用于从所述注视点分布集合中确定所述注视次数高于预设注视次数的第一注视点集合,以及确定所述眼跳次数高于预设眼跳次数的第二注视点集合;
所述确定子单元,还用于将所述第一注视点集合所包含的注视点确定为重点注视点,并将所述第一注视点集合与所述第二注视点集合的交集所包含的注视点确定为重点无效注视点,以及将处于所述第一注视点集合且不处于所述第二注视点集合的注视点确定为重点有效注视点;
计算子单元,用于计算所述重点无效注视点与所述重点注视点的第一比值,以及计算所述重点有效注视点与所述重点注视点的第二比值;
所述确定子单元,还用于当所述第一比值大于所述第二比值时,确定所述目标用户的当前背诵策略为无效注视主导背诵策略;
所述确定子单元,还用于当所述第一比值小于或者等于所述第二比值时,确定所述目标用户的当前背诵策略为有效注视主导背诵策略。
8.根据权利要求7所述的学习设备,其特征在于,所述输出单元包括:
第一输出子单元,用于当所述当前背诵策略为所述无效注视主导背诵策略时,输出与所述无效注视主导背诵策略相匹配的有效注视改进策略;
第二输出子单元,用于当所述当前背诵策略为所述有效注视主导背诵策略时,输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
9.根据权利要求8所述的学习设备,其特征在于,所述学习设备还包括:
第二判断单元,用于当所述当前背诵策略为所述有效注视主导背诵策略时,判断所述重点注视点的数量是否大于预设阈值;如果是,触发所述第二输出子单元执行所述的输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
10.根据权利要求9所述的学习设备,其特征在于,所述学习设备还包括:
确定单元,用于在第二判断单元判断出所述重点注视点的数量小于或者等于所述预设阈值之后,在所述重点注视点中确定所述重点注视点对应的注视内容为重点注视内容的目标重点注视点;
计算单元,用于计算所述目标重点注视点与所述重点注视点之间的比值,并判断所述比值是否大于预设比值;如果否,触发所述第二输出子单元执行所述的输出与所述有效注视主导背诵策略相匹配的有效注视点选择改进策略。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811539549.2A CN109634422B (zh) | 2018-12-17 | 2018-12-17 | 一种基于眼动识别的背诵监控方法及学习设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811539549.2A CN109634422B (zh) | 2018-12-17 | 2018-12-17 | 一种基于眼动识别的背诵监控方法及学习设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109634422A true CN109634422A (zh) | 2019-04-16 |
CN109634422B CN109634422B (zh) | 2022-03-01 |
Family
ID=66074648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811539549.2A Active CN109634422B (zh) | 2018-12-17 | 2018-12-17 | 一种基于眼动识别的背诵监控方法及学习设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109634422B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223718A (zh) * | 2019-06-18 | 2019-09-10 | 联想(北京)有限公司 | 一种数据处理方法、装置及存储介质 |
CN110415149A (zh) * | 2019-08-01 | 2019-11-05 | 联想(北京)有限公司 | 处理方法和处理装置 |
CN111160347A (zh) * | 2019-08-14 | 2020-05-15 | 广东小天才科技有限公司 | 一种基于相似字符识别的文本识别方法及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101470978A (zh) * | 2007-12-25 | 2009-07-01 | 英业达股份有限公司 | 以关联性词句组合图形的语言学习系统及方法 |
US20090300551A1 (en) * | 2008-06-03 | 2009-12-03 | French Barry J | Interactive physical activity and information-imparting system and method |
CN103824481A (zh) * | 2014-02-28 | 2014-05-28 | 广东小天才科技有限公司 | 一种检测用户背诵的方法及装置 |
US20150134580A1 (en) * | 2013-11-12 | 2015-05-14 | Persyst Development Corporation | Method And System For Training A Neural Network |
US9176581B2 (en) * | 2012-09-28 | 2015-11-03 | Intel Corporation | System and method for inferring user intent based on eye movement during observation of a display screen |
CN106205253A (zh) * | 2016-09-25 | 2016-12-07 | 姚前 | 一种背诵方法、装置和平台 |
CN106897426A (zh) * | 2017-02-27 | 2017-06-27 | 上海禹放信息科技有限公司 | 基于眼球追踪技术的特定数据生成系统及方法 |
CN107374652A (zh) * | 2017-07-20 | 2017-11-24 | 京东方科技集团股份有限公司 | 基于电子产品学习的质量监测方法、装置和系统 |
-
2018
- 2018-12-17 CN CN201811539549.2A patent/CN109634422B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101470978A (zh) * | 2007-12-25 | 2009-07-01 | 英业达股份有限公司 | 以关联性词句组合图形的语言学习系统及方法 |
US20090300551A1 (en) * | 2008-06-03 | 2009-12-03 | French Barry J | Interactive physical activity and information-imparting system and method |
US9176581B2 (en) * | 2012-09-28 | 2015-11-03 | Intel Corporation | System and method for inferring user intent based on eye movement during observation of a display screen |
US20150134580A1 (en) * | 2013-11-12 | 2015-05-14 | Persyst Development Corporation | Method And System For Training A Neural Network |
CN103824481A (zh) * | 2014-02-28 | 2014-05-28 | 广东小天才科技有限公司 | 一种检测用户背诵的方法及装置 |
CN106205253A (zh) * | 2016-09-25 | 2016-12-07 | 姚前 | 一种背诵方法、装置和平台 |
CN106897426A (zh) * | 2017-02-27 | 2017-06-27 | 上海禹放信息科技有限公司 | 基于眼球追踪技术的特定数据生成系统及方法 |
CN107374652A (zh) * | 2017-07-20 | 2017-11-24 | 京东方科技集团股份有限公司 | 基于电子产品学习的质量监测方法、装置和系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223718A (zh) * | 2019-06-18 | 2019-09-10 | 联想(北京)有限公司 | 一种数据处理方法、装置及存储介质 |
CN110415149A (zh) * | 2019-08-01 | 2019-11-05 | 联想(北京)有限公司 | 处理方法和处理装置 |
CN111160347A (zh) * | 2019-08-14 | 2020-05-15 | 广东小天才科技有限公司 | 一种基于相似字符识别的文本识别方法及电子设备 |
CN111160347B (zh) * | 2019-08-14 | 2023-04-18 | 广东小天才科技有限公司 | 一种基于相似字符识别的文本识别方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109634422B (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Maatman et al. | Natural behavior of a listening agent | |
CN109634422A (zh) | 一种基于眼动识别的背诵监控方法及学习设备 | |
CN108875452A (zh) | 人脸识别方法、装置、系统和计算机可读介质 | |
CN105243378B (zh) | 基于眼部信息的活体人脸检测方法及装置 | |
US20120052476A1 (en) | Affect-sensitive intelligent tutoring system | |
CA2927362A1 (en) | Computing technologies for diagnosis and therapy of language-related disorders | |
CN105518708A (zh) | 用于验证活体人脸的方法、设备和计算机程序产品 | |
JP6636670B1 (ja) | 学習システム、学習講義提供方法、およびプログラム | |
CN101821699A (zh) | 涉及脑计算机接口的改进 | |
CN115205764B (zh) | 基于机器视觉的在线学习专注度监测方法、系统及介质 | |
CN110837294A (zh) | 一种基于眼球追踪的面部表情控制方法及系统 | |
CN109086590A (zh) | 一种电子设备的界面显示方法及电子设备 | |
CN109658776A (zh) | 一种背诵流畅度的检测方法及电子设备 | |
CN109409199A (zh) | 微表情训练方法、装置、存储介质及电子设备 | |
CN109634416A (zh) | 一种听写报读的智能控制方法及终端设备 | |
CN115206492A (zh) | 基于眼动反馈的情绪识别能力自适应训练方法及其装置 | |
Kamaruddin et al. | Human behavior state profile mapping based on recalibrated speech affective space model | |
CN115662388A (zh) | 虚拟形象面部驱动方法、装置、电子设备及介质 | |
CN110909621A (zh) | 一种基于视觉的健身指导系统 | |
CN108125686A (zh) | 一种反欺诈方法及系统 | |
CN110322964B (zh) | 一种健康状态展示方法、装置、计算机设备及存储介质 | |
CN110838357A (zh) | 基于人脸识别及动捕的注意力全息智能训练系统 | |
CN115358365A (zh) | 实现通用人工智能的方法、装置、电子设备及存储介质 | |
EP3361420A1 (en) | Avatar relationships | |
CN109087694A (zh) | 一种帮助学生锻炼身体的方法及家教设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |