CN113780051A - 评估学生专注度的方法和装置 - Google Patents
评估学生专注度的方法和装置 Download PDFInfo
- Publication number
- CN113780051A CN113780051A CN202110728492.6A CN202110728492A CN113780051A CN 113780051 A CN113780051 A CN 113780051A CN 202110728492 A CN202110728492 A CN 202110728492A CN 113780051 A CN113780051 A CN 113780051A
- Authority
- CN
- China
- Prior art keywords
- region
- student
- area
- watched
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 104
- 238000012545 processing Methods 0.000 claims description 31
- 238000004891 communication Methods 0.000 claims description 26
- 230000000694 effects Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 5
- 238000012952 Resampling Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000004438 eyesight Effects 0.000 description 7
- 230000004424 eye movement Effects 0.000 description 6
- 239000000463 material Substances 0.000 description 5
- 230000033764 rhythmic process Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000004445 quantitative analysis Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Theoretical Computer Science (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- General Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供了一种评估学生专注度的方法和装置,该方法包括:获取课件中的待注视区域,所述待注视区域包括多个区域,所述多个区域中的每一个区域对应一个时间区间;获取目标学生分别在每一个所述时间区间的实际注视区域;根据每一个所述时间区间中所述待注视区域和所述实际注视区域的交集评估所述目标学生的专注度。本申请提供的方案,可以提高在线教育场景中评估的学生注意力的准确度和可信度。
Description
技术领域
本申请涉及数据处理领域,尤其涉及一种评估学生专注度的方法和装置。
背景技术
在传统的线下课堂中,教师在讲课的同时也关注学生的状态,观察学生是否在专心听讲、是否跟上讲课进度,以便及时对教学过程作出调整,提高教与学的效果。然而,在远程在线教育场景中,教师往往难以评估学生在听课过程中的专注度,也难以判断学生是否能跟上讲课进度。这种情况下,教师通常会采取临时提问的方法来确认学生的专注度和跟随程度。但这种做法会打断课堂节奏,占用讲授时间,检验的效果也并不理想。
随着机器学习、计算机视觉、智能感知等技术的快速发展,越来越多的研究和实践开始关注在线学习中的痛点难点,探索能对学生上课注意力状态进行智能识别和评估的方法。这类方法将有助于设计开放更具适应性的智能学习辅助系统,提高在线教育的效率和效果。
现有的对学生上课专注度的检测主要是采用以下步骤和技术实现的:1)通过设备内置或外置的摄像头记录学生上课过程中的视频;2)通过人工主观判断的方法标注学生的特定状态(比如分神、活跃、困惑、疲劳等);3)经过计算机视觉方法提取视频中的学生外部特征,比如眼睛对屏幕注视时间、眨眼次数、面部表情、头部动作、身体姿态等等。 4)通过机器学习的方法,以学生的外部行为特征为输入,以标注的学生状态为输出,建立预测模型。最终,通过该模型实现对学习者状态的实时预测。
然而,学生的注意力应该是与课程内容节奏相吻合才能达到最好的学习效果。而目前的检测技术只关注了听课端学生的行为表现,评估结果不准确,可信度较低,因此无法了解学生的注意力是否在跟随教师讲述的课程内容。
发明内容
本申请提供一种评估学生专注度的方法和装置,可以提高在线教育场景中评估的学生注意力的准确度和可信度。
第一方面,提供一种评估学生专注度的方法,包括:
获取课件中的待注视区域,所述待注视区域包括多个区域,所述多个区域中的每一个区域对应一个时间区间;
获取目标学生分别在每一个所述时间区间的实际注视区域;
根据每一个所述时间区间中所述待注视区域和所述实际注视区域的交集评估所述目标学生的专注度。
本申请提供的方案,通过分别获取教师或优秀学生的待注视区域,以及被测学生的实际注视区域,并对这两个区域取交集,从而获得该被测学生的专注度,由于本申请的方案考虑了与授课内容的节奏和进度相关的信息,即待注视区域与被测学生的实际注视区域,因此,可以提高在线教育场景中评估的学生注意力的准确度和可信度。
结合第一方面,在一些可能的实现方式中,所述获取课件中的待注视区域,包括:
根据所述课件中动态展示的课件内容获取所述待注视区域,所述动态展示的课件内容包括具有动画效果的课件内容。
本申请提供的方案,由于课件中动态展示的课件内容一般是教师希望学生注意的内容,因此,通过课件中动态展示的课件内容获取待注视区域,有利于评估学生注意力的准确度和可信度。
结合第一方面,在一些可能的实现方式中,所述根据所述课件中动态展示的课件内容获取所述待注视区域,包括:
根据所述课件中动态展示的课件内容确定所述课件中的骨干帧序列,所述骨干帧序列包括多个骨干帧,所述骨干帧为目标自然帧,所述目标自然帧满足以下条件:所述目标自然帧与后一自然帧的像素差值大于第一阈值,所述目标自然帧与前n个自然帧的像素差值均小于第二阈值;
计算所述骨干帧序列中的相邻骨干帧之间的帧间差分连通区域;
根据所述帧间差分连通区域获取所述待注视区域。
本申请提供的方案,通过确定课件中的骨干帧序列,并计算该骨干帧序列中的相邻骨干帧之间的帧间差分连通区域,以获取待注视区域,可以进步一提高评估学生注意力的准确度和可信度。
结合第一方面,在一些可能的实现方式中,所述获取课件中的待注视区域,包括:
根据教师使用的光标或激光笔移动的轨迹获取所述待注视区域。
本申请提供的方案,由于教师使用光标或激光笔移动的轨迹一般是教师希望学生重点注意的内容,因此,通过教师使用的光标或激光笔移动的轨迹获取待注视区域,可以进一步提高评估学生注意力的准确度和可信度。
结合第一方面,在一些可能的实现方式中,所述根据教师使用的光标或激光笔移动的轨迹获取所述待注视区域,包括:
根据所述光标或激光笔移动的轨迹计算所述轨迹扫过的区域,所述区域包括所述轨迹上方的上一行的内容;
将所述轨迹扫过的区域确定为所述待注视区域。
结合第一方面,在一些可能的实现方式中,所述方法还包括:
对所述轨迹进行预处理,所述预处理包括分段处理和/或标准化处理,所述分段处理包括滤除速度大于第三阈值的轨迹点和/或设置速度等于0的轨迹点为断点,所述标准化处理包括对分段后的轨迹进行重采样,使得所述分段后的每一段轨迹包含相同的轨迹点数;
所述根据所述光标或激光笔移动的轨迹计算所述轨迹扫过的区域,包括:
根据预处理后的轨迹计算所述轨迹扫过的区域。
本申请提供的方案,通过对光标或激光笔移动的轨迹进行预处理,并根据预处理后的轨迹计算该轨迹扫过的区域,可以进一步提高评估的学生注意力的准确度和可信度。
结合第一方面,在一些可能的实现方式中,所述获取课件中的待注视区域,包括:
根据教师的视线或优秀学生的视线获取所述待注视区域。
本申请提供的方案,由于教师的视线或优秀学生的视线所集中的地方应该是需要重点关注的地方,因此,通过根据教师的视线或优秀学生的视线获取待注视区域,可以进一步提高评估学生注意力的准确度和可信度。
结合第一方面,在一些可能的实现方式中,所述根据教师的视线或优秀学生的视线获取所述待注视区域,包括:
基于摄像头获取所述教师或所述优秀学生的面孔影像;
根据所述面孔影像确定所述教师的视线或所述优秀学生的视线;
根据所述教师的视线或所述优秀学生的视线确定所述教师或所述优秀学生在所述课件中所注视的区域;
确定所述所注视的区域为所述待注视区域。
结合第一方面,在一些可能的实现方式中,所述获取目标学生分别在每一个所述时间区间的实际注视区域,包括:
根据所述目标学生的视线获取所述目标学生分别在每一个所述时间区间的实际注视区域。
结合第一方面,在一些可能的实现方式中,所述根据所述目标学生的视线获取所述目标学生分别在每一个所述时间区间的实际注视区域,包括:
基于摄像头获取所述目标学生的面孔影像;
根据所述面孔影像确定所述目标学生分别在每一个所述时间区间的视线;
根据所述每一个所述时间区间的视线确定所述目标学生在每一个所述时间区域所注视的区域;
确定每一个所述时间区间所注视的区域为对应时间区间的实际注视区域。
结合第一方面,在一些可能的实现方式中,所述根据每一个所述时间区间中所述待注视区域和所述实际注视区域的交集评估所述目标学生的专注度,包括:
根据每一个所述时间区间和每一个所述时间区间中所述待注视区域确定第一时空二元组;
根据每一个所述时间区间确定每一个所述实际注视区域,每一个所述时间区间和每一个所述实际注视区域组成第二时空二元组;
根据所述第一时空二元组和所述第二时空二元组评估所述目标学生的专注度。
本申请提供的方案,通过根据每一个时间区间和每一个时间区间中所述待注视区域确定第一时空二元组,再基于每一个时间区间确定每一个实际注视区域,组成第二时空二元组,并根据第一时空二元组和第二时空二元组评估目标学生的专注度。本申请通过结合时间和空间信息的时空二元组将评估目标学生的专注度进行可视化,可以进一步提高在评估的学生注意力的准确度和可信度。
结合第一方面,在一些可能的实现方式中,所述目标学生的专注度小于或等于第四阈值,所述方法还包括:
采用聚光灯对所述待注视区域进行高亮处理。
本申请提供的方案,在目标学生的专注度小于或等于第四阈值时,采用聚光灯对待注视区域进行高亮处理,可以帮助目标学生纠正不合适的注视模式,使他们的注意力导向待注视区域,进一步地,可以提高目标学生的专注度。
结合第一方面,在一些可能的实现方式中,所述方法应用于在线教育场景。
第二方面,提供了一种装置,该装置包含在电子设备中,该装置具有实现上述方面及上述方面的可能实现方式中电子设备行为的功能。功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。硬件或软件包括一个或多个与上述功能相对应的模块或单元。
第三方面,提供了一种电子设备,包括:一个或多个处理器;存储器;一个或者多个应用程序;以及一个或多个计算机程序。其中,一个或多个计算机程序被存储在存储器中,一个或多个计算机程序包括指令。当指令被电子设备执行时,使得电子设备执行上述第一方面任一项可能的实现中的方法。
第四方面,提供了一种芯片系统,包括至少一个处理器,当程序指令在所述至少一个处理器中执行时,使得上述第一方面任一项可能的实现中的方法在所述电子设备上的功能得以实现。
第五方面,提供了一种计算机存储介质,包括计算机指令,当计算机指令在电子设备上运行时,使得电子设备执行上述第一方面任一项可能的实现中的方法。
第六方面,提供了一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行上述第一方面任一项可能的设计中的方法。
附图说明
图1为本申请实施例应用的场景示意图。
图2为本申请实施例提供的一种系统架构的示意图。
图3为本申请实施例提供的一种评估学生专注度的方法的示意性流程图。
图4为本申请实施例提供的一种评估学生专注度的方法的示意性图。
图5为本申请实施例提供的一种课件动态内容的示意图。
图6为本申请实施例提供的另一种课件动态内容的示意图。
图7为本申请实施例提供的一种差分结果的示意图。
图8为本申请实施例提供的一种利用三维空间长方体表示的视某个区域持续了某段时间的示意图。
图9为本申请实施例提供的光标轨迹的示意图。
图10为本申请实施例提供的一种光标轨迹的示意图。
图11为本申请实施例提供的一种对光标轨迹处理的示意图。
图12为本申请实施例提供的一种待注视区域的示意图。
图13为本申请实施例提供的一种教师视线的示意图。
图14为本申请实施例提供的一种优秀学生群体注视的示意图。
图15为本申请实施例提供的一种被测学生实际注视区域和待注视区域的交集的示意图。
图16为本申请实施例提供的一种利用时空二元组三维表示的长方体以表示被测学生实际注视区域和待注视区域的交集的示意图。
图17为本申请实施例提供的一种评估学生专注度的方法的示意性流程图。
图18为本申请实施例提供的一种评估学生专注度的装置的示意性框图。
图19为本申请实施例提供的另一种评估学生专注度的装置的示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。其中,在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,在本申请实施例的描述中,“多个”是指两个或多于两个。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。
本申请实施例提供的评估学生专注度的方法可以应用于手机、平板电脑、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理 (personal digital assistant,PDA)等电子设备上,本申请实施例对电子设备的具体类型不作任何限制。
在传统的线下课堂中,教师在讲课的同时也关注学生的状态,观察学生是否在专心听讲、是否跟上讲课进度,以便及时对教学过程作出调整,提高教与学的效果。然而,在远程在线教育场景中,教师往往难以评估学生在听课过程中的专注度,也难以判断学生是否能跟上讲课进度。这种情况下,教师通常会采取临时提问的方法来确认学生的专注度和跟随程度。但这种做法会打断课堂节奏,占用讲授时间,检验的效果也并不理想。
随着机器学习、计算机视觉、智能感知等技术的快速发展,越来越多的研究和实践开始关注在线学习中的痛点难点,探索能对学生上课注意力状态进行智能识别和评估的方法。这类方法将有助于设计开放更具适应性的智能学习辅助系统,提高在线教育的效率和效果。
现有的对学生上课专注度的检测主要是采用以下步骤和技术实现的:1)通过设备内置或外置的摄像头记录学生上课过程中的视频;2)通过人工主观判断的方法标注学生的特定状态(比如分神、活跃、困惑、疲劳等);3)经过计算机视觉方法提取视频中的学生外部特征,比如眼睛对屏幕注视时间、眨眼次数、面部表情、头部动作、身体姿态等等。 4)通过机器学习的方法,以学生的外部行为特征为输入,以标注的学生状态为输出,建立预测模型。最终,通过该模型实现对学习者状态的实时预测。
然而,学生的注意力应该是与课程内容节奏相吻合才能达到最好的学习效果。而目前的检测技术只关注了听课端学生的行为表现,评估结果不准确,可信度较低,因此无法了解学生的注意力是否在跟随教师讲述的课程内容。
本申请提供一种评估学生专注度的方法,可以提高在线教育场景中评估的学生注意力的准确度和可信度。
下文先简单介绍本申请的方案可以应用的场景。
本申请针对在线教育平台提供一种底层能力,教育应用(application,APP)运行在平台上,教学课程可以是直播课程,也可以是录播课程。
如图1所示,为本申请实施例应用的场景示意图。
参考图1,在直播课程的场景下,教师可以通过客户端展示教学材料(可以是视频或动画,既可以有课程材料也可有教师影像);也可以通过外部输入设备(鼠标、笔、触控板等)在呈现教学材料时显示出光标轨迹等视觉引导信息。当教师端设备具有摄像头或眼动跟踪装置时,可以拍摄或跟踪老师视线方向。
在录播课程的场景下,课程平台播放提前录制好的视频。在录制视频的过程中,教师也可以通过外部输入设备(鼠标、笔、触控板等)在呈现教学材料时动态显示出光标轨迹等视觉引导信息。
上述两种场景,学生均可以通过客户端(电脑、平板、手机等)的教学平台观看教学内容。当学生端具有相关设备(比如内置或外接摄像头,或眼动跟踪仪)时,可以捕获学生的视线方向信息。
如图2所示,为本申请实施例提供的一种系统架构的示意图。
其中,图2中的左半部分包括的模块用于获取教师或优秀学生的待注视区域,图2中的右半部分包括的模块用于获取被测学生的待注视区域,被测学生专注度生成模块通过对获得的2个待注视区域进行处理,可以获得被测学生的专注度。
需要说明的是,教师或优秀学生的待注视区域可以通过两种方式获得,一种可以通过面部信息采集模块、眼动跟踪模块以及注视区域生成模块获得,另一种可以通过课件视频获取模块、课件特征提取模块以及注视区域生成模块获得。
获得教师或优秀学生的待注视区域的两种方式:
方式一:
面部信息采集模块负责通过相机采集包括老师、优秀学生的面部数据,然后传递至眼动跟踪模块;眼动跟踪模块对视频中的眼睛视线方向进行计算并持续更新;随后注视区域生成模块对视线区域进行量化分析建模,得到一系列时空二元组。
方式二:
课件视频获取模块获取视频课件,然后在课件特征提取模块中对课件呈现出的相关特征进行提取,包括动态内容、光标轨迹等的位置、范围及驻留时间。所得到的特征被传递至待注视区域生成模块中,得到一组时空二元组。
获得被测学生的待注视区域的方式:
面部信息采集模块负责通过相机采集被测学生的面部数据,然后传递至眼动跟踪模块;眼动跟踪模块对视频中的眼睛视线方向进行计算并持续更新;随后注视区域生成模块对视线区域进行量化分析建模,得到一系列时空二元组。
最后,将不同输入得到的多个时空二元组在被测学生专注度生成模块中进行处理,得到最终结果。
上述模块可以灵活部署,示例性地,对授课端视频的处理可以在授课端实现,也可以在云端或服务器实现,甚至可以在传输后在听课端实现。本申请可以作为一个底层能力,该能力可以作为操作系统(如鸿蒙)的一部分,也可以作为软件开发工具包(softwaredevelopment kit,SDK)的一部分提供应用程序接口(application programminginterface, API)给第三方教育内容机构。
如图3所示,为本申请实施例提供的一种评估学生专注度的方法300的示意性流程图。该方法300可以包括步骤S310-S330。
S310,获取教师或优秀学生的待注视区域。
本申请实施例中的优秀学生可以包括1个学生,也可以包括多个学生,不予限制。
本申请实施例中,获取教师或优秀学生的待注视区域可以通过多种方式实现,下文先结合图4简单介绍这几种方式。
如图4所示,为本申请实施例提供的一种评估学生专注度的方法的示意性图。参考图 4,可以看出,获取教师或优秀学生的待注视区域包括四种方式。
方式一:根据课件中动态出现的内容确定待注视区域
通过对在线课程视频时序划分,获得骨干帧序列,计算该骨干帧帧间差分区域,获得显示注意事件,从而获取教师或优秀学生的待注视区域。
方式二:根据移动光标确定待注视区域
通过对教师的光标轨迹进行检测、分类,获得光标注意事件,从而获取教师或优秀学生的待注视区域。
方式三:根据教师的视线确定待注视区域
通过对教师的注视点进行检测,获取教师的待注视区域。
方式四:根据优秀学生群体的注视视线确定待注视区域
通过对优秀学生的群体注视点检测,获得群体指导注意事件,从而获取优秀学生的待注视区域。
其中,上述方式一、方式二以及方式三均是基于授课端获得,方式四是基于听课端获得。
S320,获取被测学生的实际注视区域。
参考上述图4,本申请实施例中,可以通过对被测学生个体的注意区域进行检测,获取该被测学生的实际注视区域。
S330,评估被测学生的专注度。
本申请实施例中,评估被测学生的专注度可以通过对上述两个区域(即教师或优秀学生的待注视区域,和,被测学生的实际注视区域)取交集获得,这两个区域之间的交集越大,则说明该被测学生的专注度越高,这两个区域之间的交集越小,则说明该被测学生的专注度越低。
本申请提供的方案,通过分别获取教师或优秀学生的待注视区域,以及被测学生的实际注视区域,并对这两个区域取交集,从而获得该被测学生的专注度,由于本申请的方案考虑了与授课内容的节奏和进度相关的信息,即待注视区域与被测学生的实际注视区域,因此,可以提高在线教育场景中评估的学生注意力的准确度和可信度。
上文步骤S310中简单介绍了获取教师或优秀学生的待注视区域的四种方式,下文将详细介绍关于这四种方式的内容。
方式一:根据课件中动态出现的内容确定待注视区域
如图5所示,为本申请实施例提供的一种课件动态内容的示意图。其中,图5中的(a) 为动态出现前的显示界面,图5中的(b)为动态出现后的显示界面。
参考图5中的(a)和(b),可以看出,在动态显示出现前,界面显示“长方形周长”和“长方形面积”,当教师点击鼠标后,界面动态显示“(长+宽)*2”和“长*宽”。该动态出现的内容可以包括从无到有、闪烁动画效果、视频播放等,其目的是让学生可以紧随进度,集中注意力在这些动态内容上。
下文将结合图6详细描述基于该方式获取待注视区域。
(1)在视频时间轴上选取有动态内容出现时的骨干帧序列
其中,骨干帧Fi的定义可以为:在时间轴上同时满足下述两个条件的动画起始帧:(a) 当前自然帧fj与后一自然帧fj+1的像素差值大于阈值(即有新内容出现);(b)当前自然帧fj与其前n个自然帧(如fj-n,…,fj-1)保持一致(即已经保持了一段时长的稳定状态)。其中,n可以为大于5的整数。
换句话说,当某一自然帧fj同时满足上述条件(a)和(b)时,则当前自然帧fj即为骨干帧Fi。此时,可以将该骨干帧Fi与其对应的时间区间(ti-1,ti)加入骨干帧序列 {(Fi,(ti-1,ti)),i∈N+},其中,ti-1是Fi-1的出现的时刻,ti是Fi出现的时刻,即(ti-1,ti)是从一次动画开始到下次动画开始的时间区间。
值得注意的是,虽然上述方案中将骨干帧Fi与时间区间(ti-1,ti)加入骨干帧序列{(Fi,(ti-1,ti)),i∈N+},但是,骨干帧Fi出现的时刻与上述自然帧fj出现的时刻是一致的,因此,上述ti是Fi出现的时刻可以理解为:ti也可以是fj出现的时刻。
参考图6,可以看出,自然帧fj与自然帧fm-n之间在时间轴上用虚线连接,可以表示自然帧fj之后的自然帧fj+1开始有动画出现,即界面开始动态出现“(长+宽)*2”和“长* 宽”这些内容;自然帧fj-n与自然帧fj之间在时间轴上用实线连接,表示自然帧fj与之前的n个自然帧保持一致,即从自然帧fj-n至自然帧fj一直处于稳定状态;则该自然帧fj即为骨干帧,并将其表示为骨干帧F2。
假设图中的自然帧fh也为骨干帧,并将其表示为骨干帧F1(图中未示出关于该帧的动态变化),则对于骨干帧F2来说,可以将该骨干帧F2与时间区间(th,tj)加入骨干帧序列{(F2,(th,tj))},其中,th是骨干帧F1出现的时刻,tj是骨干帧F2出现的时刻。
类似地,假设图中的自然帧fm也为骨干帧,并将其表示为骨干帧F3(图中未示出关于该帧的动态变化),则对于骨干帧F3来说,可以将该骨干帧F3与时间区间(tj,tm)加入骨干帧序列{(F3,(tj,tm))},其中,tj是骨干帧F2出现的时刻,tm是骨干帧F3出现的时刻。
(2)确定待注视区域
计算骨干帧序列{(Fi,(ti-1,ti)),i∈N+}中的骨干帧Fi与前一骨干帧Fi-1的帧间差分连通区域D(Fi,Fi-1),计算该连通区域的包围盒(bounding box,BB),将该BB作为骨干帧Fi的待注视区域Bi,或者,在获得骨干帧Fi与前一骨干帧Fi-1的帧间差分连通区域D(Fi,Fi-1)后,可以计算多个BB,并对这多个BB取并集作为为当前骨干帧的待注视区域Bi。
需要说明的是,上述帧间差分连通区域是由于帧与帧之间的像素的差值而存在的,即 D(Fi,Fi-1)是不规则区域,而连通区域的BB可以是规则的区域,如用矩形框圈起来的区域。
如图7所示,为本申请实施例提供的一种差分结果的示意图。
参考图7,可以看出,通过对骨干帧Fi与前一骨干帧Fi-1的帧间差分,获得帧间差分连通区域,并计算该连通区域的BB,即用矩形框圈起来的“(长+宽)*2”所形成的区域,则该矩形框区域可以为当前骨干帧的待注视区域。
将时空二元组(Bi,(ti-1,ti))作为待注视区域事件,表示注视某个区域Bi持续了某段时间,可以形象地表示为三维空间的长方体,如图8所示。
参考图8,t轴表示时间,x轴和y轴所形成的投影可以表示区域,该长方体在xy平面上的投影表示需要注视的区域,即上文中的待注视区域;该长方体在t轴上的投影表示注视该区域的时间区间。
方式二:根据移动光标确定待注视区域
教师授课时对于要注意的重点内容可以使用光标或激光笔进行指引或圈画,在视觉上吸引学生注意力。这类光标轨迹往往遵循一定的模式,识别出的相应模式并定位其所指示的区域,可以获得待注视区域。
如图9所示,为本申请实施例提供的光标轨迹的示意图。参考图9,可以看出,光标轨迹可以包括多种轨迹(如可以包括来回拉锯模式、画圆圈模式、单向划线模式这三种模式形成的轨迹)。应理解,图9所示的轨迹所包括的模式仅为示例性说明,还可以包括其它模式,不应对本申请造成特别限定。
下文结合图10-图12详细描述基于该方式获取待注视区域。
(1)光标轨迹的获得
若视频流没有提供鼠标事件,则利用计算机视觉的目标跟踪算法跟踪光标轨迹。
(2)对提取的光标轨迹预处理
首先做分段处理:计算每个轨迹点上的鼠标移动速度,滤掉速度大于一定阈值的轨迹点,从而将轨迹分为多段;此外,将速度为0的点设为断点,进一步分段;
然后做标准化处理:采用线性内插法对分段轨迹重采样,使得每段轨迹包含相同坐标点数。
如图10所示,为本申请实施例提供的一种光标轨迹的示意图。参考图10,可以看出,教师在第一行(以A开始的所在的行)和第四行(以D开始的所在的行)用光标单向划线了部分内容,则说明这两个部分应该是学生注意的地方。
将图10中的第一行划线的部分提取出来,对其进行处理。如图11所示,为本申请实施例提供的一种对光标轨迹处理的示意图。参考图11,以该轨迹采样点为圆心,以r为半径依次画圆。
需要说明的是,在进行分段处理的过程中,滤掉速度大于一定阈值的轨迹点,这主要是考虑到对于不需要特别注意或关注的内容,教师可能会快速地移动光标,因此,对于这部分内容可以滤掉。
此外,还需要说明的是,在上述进行分段处理的过程中,将速度为0的点设为断点,主要是考虑到对于需要特别注意或关注的内容,教师可能在该内容划线后停顿数秒,因此,可以将速度为0的点设为断点。如图10中所示的P点和Q点即为本申请中的断点。
(3)提取轨迹的特征
提取分段轨迹中的运动、形状等特征,比如速度、加速度、曲率、方向等
(4)轨迹分类
将轨迹特征输入训练好的分类器,预测轨迹类型。如上述图9所示出的轨迹(如上述示出的来回拉锯模式、画圈圈模式、单向划线模式所形成的轨迹)。
(5)获得待注视区域
通过轨迹分析,得到轨迹段的集合{(li,(ti-1,ti)),i∈N+},其中li是折线段(polyline);计算轨迹扫过区域的BB,将该区域作为待注视区域Bi;将时空二元组(Bi,(ti-1,ti))作为光标轨迹所指示的待注视区域事件,表示注视某个区域Bi持续了某段时间。
如图12所示,为本申请实施例提供的一种待注视区域的示意图。其中,包括数字1的矩形框可以为图10中第四行划线部分所形成的矩形区域,包括数字2的矩形框可以为图10中第一行划线部分所形成的矩形区域,依次类推。需要说明的是,图12中示出的矩形框的个数大于图10中划线部分的数量,可以理解为,图10中还包括多个划线部分,在图10中未示出而已。
方式三:根据教师的视线确定待注视区域
通过教师端的摄像头获取教师面孔影像,提取眼睛运动特征,确定其视线在屏幕上对应的注视点,将注视点按时间顺序相连,计算轨迹扫过区域的BB,计算时空二元组(Bi,(ti-1,ti)),作为教师关注的待注视区域事件。
如图13所示,为本申请实施例提供的一种教师视线的示意图。参考图13,可以看出,在第一行(以A开始的所在的行)和第四行(以D开始的所在的行)用椭圆圈出了部分内容,则说明这两个部分应该是学生注意的地方。基于该方式,确定的待注视区域与上述图12中的基本一致,可以参考上述图12,不再赘述。
方式四:根据优秀学生群体的注视视线确定待注视区域
确定多名优秀学生,通过学生端的摄像头或眼动仪获取这些学生的视线方向,确定其视线在屏幕上对应的注视区域。将多人注视数据整合,计算出群体注视轨迹,作为待注视区域。
如图14所示,为本申请实施例提供的一种优秀学生群体注视的示意图。其中,用实线椭圆圈出的内容区域表示优秀学生1的注视区域,用虚线椭圆圈出的内容区域表示优秀学生2的注视区域,用较粗的双点划线椭圆圈出的内容区域表示优秀学生3的注视区域。
假设在[t1,t2]这一时间区间内,优秀学生注视第一行的内容,在[t3,t4]这一时间区间内,优秀学生注视第四行的内容。参考图14,可以看出,在[t1,t2]这一时间区间内,上述3个优秀学生(即优秀学生1、优秀学生2、优秀学生3)所注视的区域略有不同,对于这3个学生群体注视区域,可以取这3个区域的并集,即图中所示出的用矩形框圈出来的区域。
类似地,在[t3,t4]这一时间区间内,上述3个优秀学生(即优秀学生1、优秀学生2、优秀学生3)所注视的区域也略不同,对于这3个学生群体注视区域,可以取这3个区域的并集,即图中所示出的用矩形框圈出来的区域。
需要说明的是,在一些实施例中,也可以取多个学生所注视的区域的交集,不予限制。
上文步骤S320中获取被测学生的实际注视区域,可以通过学生端的内置或外接摄像头获取学生面孔影像。选取同样的时间区间的影像,提取眼睛运动特征信息,通过学生的视线特征算出其在屏幕上对应的注视区域。将注视点按时间顺序相连,计算轨迹扫过区域的BB,作为该学生的实际注视区域。
基于此,上文介绍了确定教师或优秀学生的待注视区域的四种方式以及确定被测学生的实际注视区域的方式,下文将介绍确定该被测学生的专注度。
参考上文,通过上述四种方式获取教师或优秀学生的待注视区域可知,最终在某一时间区间内确定的待注视区域均可以是矩形区域。应理解,在一些实施例中,待注视区域也可以为椭圆形、圆形等,不予限制。
步骤S330中评估被测学生的专注度,可以通过对上述两个区域(即教师或优秀学生的待注视区域,和,被测学生的实际注视区域)取交集获得,下文将结合图15进行详细介绍。
如图15所示,为本申请实施例提供的一种被测学生实际注视区域和待注视区域的交集的示意图。其中,用实线矩形框圈出来的区域为确定的待注视区域,用较粗的虚线圈出来的区域为被测学生实际注视区域。
参考图15,可以看出,在[t1,t2]这一时间区间内,被测学生实际注视区域与确定的待注视区域这两个区域之间的交集较多,即该被测学生在[t1,t2]这一时间区间内的专注度较高,注意力比较集中;在[t3,t4]这一时间区间内,被测学生实际注视区域与确定的待注视区域这两个区域之间的交集较少,即该被测学生在[t3,t4]这一时间区间内的专注度较低,注意力不是特别集中。此时,可以对其进行干预和引导,如采用聚光灯效果,将待注视区域做高亮处理而其他区域变暗,使得学生可以集中注视待注视区域。
当然,也可以利用时空二元组三维表示的长方体确定被测学生的专注度。如图16所示,为本申请实施例提供的一种利用时空二元组三维表示的长方体以表示被测学生实际注视区域和待注视区域的交集的示意图。其中,实线长方体表示的是在某一时间区间内的待注视区域,较粗的虚线长方体表示的是在该时间区间内被测学生的实际注视区域。
参考图16,可以看出,在[t1,t2]这一时间区间内,这两个长方体重叠的区域较多,即被测学生实际注视区域与确定的待注视区域这两个区域之间的交集较多,则说明该被测学生在[t1,t2]这一时间区间内的专注度较高,注意力比较集中;在[t3,t4]这一时间区间内,这两个长方体重叠的区域较少,即被测学生实际注视区域与确定的待注视区域这两个区域之间的交集较少,说明该被测学生在[t3,t4]这一时间区间内的专注度较低,注意力不是特别集中。
上述方法300中的步骤S310获取教师或优秀学生的待注视区域这一步骤可以通过本申请提供的平台实现,即当教师在展示教学材料时,可以上述四种方式中的任一方式确定待注视区域;当然,步骤S310获取教师或优秀学生的待注视区域这一步骤也可以通过幻灯片(power point,PPT)插件和平台共同完成,如,PPT的插件可以向平台提供区域位置、动态效果、光标的位置、移动方向、移动速度以及持续时间等信息,平台可以直接计算出时空二元组。
下面介绍本申请提供的一种评估学生专注度的方法的流程。
请参见图17,图17示出了一种评估学生专注度的方法1700的示意性流程图。
如图17所示,该方法1700可以包括:
S1710,获取课件中的待注视区域,所述待注视区域包括多个区域,所述多个区域中的每一个区域对应一个时间区间。
可以理解的是,随着课件的播放,待注视区域处于动态变化中,对于每一个待注视区域,可能对应一个时间区间。示例性地,在第一个时间区间,待注视区域可能位于课件的右上方;在第二个时间区间,待注视区域可能位于课件的左下方;在第三个时间区间,待注视区域可能位于课件的中间;不予限制。
S1720,获取目标学生分别在每一个所述时间区间的实际注视区域。
对于上述每一个时间区间,目标学生会有实际注视的区域。实际注视区域可能与待注视区域一致,也可能不一致。本申请实施例中,目标学生可以为1个,也可以为多个,不予限制。
S1730,根据每一个所述时间区间中所述待注视区域和所述实际注视区域的交集评估所述目标学生的专注度。
如上所述,待注视区域和目标学生的实际注视区域可能一致,也可能不一致,因此,可以从这两个区域之间的交集评估该目标学生的专注度。
可选地,在一些实施例中,所述方法应用于在线教育场景。
本申请提供的方案,通过分别获取教师或优秀学生的待注视区域,以及被测学生的实际注视区域,并对这两个区域取交集,从而获得该被测学生的专注度,由于本申请的方案考虑了与授课内容的节奏和进度相关的信息,即待注视区域与被测学生的实际注视区域,因此,可以提高在线教育场景中评估的学生注意力的准确度和可信度。
本申请实施例中,步骤S1710获取课件中的待注视区域可以通过多种方式获取。
方式一:
所述获取课件中的待注视区域,包括:
根据所述课件中动态展示的课件内容获取所述待注视区域,所述动态展示的课件内容包括具有动画效果的课件内容。
可选地,在一些实施例中,所述根据所述课件中动态展示的课件内容获取所述待注视区域,包括:
根据所述课件中动态展示的课件内容确定所述课件中的骨干帧序列,所述骨干帧序列包括多个骨干帧,所述骨干帧为目标自然帧,所述目标自然帧满足以下条件:所述目标自然帧与后一自然帧的像素差值大于第一阈值,所述目标自然帧与前n个自然帧的像素差值均小于第二阈值;
计算所述骨干帧序列中的相邻骨干帧之间的帧间差分连通区域;
根据所述帧间差分连通区域获取所述待注视区域。
方式二:
所述获取课件中的待注视区域,包括:
根据教师使用的光标或激光笔移动的轨迹获取所述待注视区域。
可选地,在一些实施例中,所述根据教师使用的光标或激光笔移动的轨迹获取所述待注视区域,包括:
根据所述光标或激光笔移动的轨迹计算所述轨迹扫过的区域,所述区域包括所述轨迹上方的上一行的内容;
将所述轨迹扫过的区域确定为所述待注视区域。
可选地,在一些实施例中,所述方法1700还包括:
对所述轨迹进行预处理,所述预处理包括分段处理和/或标准化处理,所述分段处理包括滤除速度大于第三阈值的轨迹点和/或设置速度等于0的轨迹点为断点,所述标准化处理包括对分段后的轨迹进行重采样,使得所述分段后的每一段轨迹包含相同的轨迹点数;
所述根据所述光标或激光笔移动的轨迹计算所述轨迹扫过的区域,包括:
根据预处理后的轨迹计算所述轨迹扫过的区域。
方式三:
所述获取课件中的待注视区域,包括:
根据教师的视线或优秀学生的视线获取所述待注视区域。
可选地,在一些实施例中,所述根据教师的视线或优秀学生的视线获取所述待注视区域,包括:
基于摄像头获取所述教师或所述优秀学生的面孔影像;
根据所述面孔影像确定所述教师的视线或所述优秀学生的视线;
根据所述教师的视线或所述优秀学生的视线确定所述教师或所述优秀学生在所述课件中所注视的区域;
确定所述所注视的区域为所述待注视区域。
关于上述三种方式可以参考上述方法300中所介绍的四种方式。其中,本申请实施例中的方式一可以参考上述方法300中的方式一,本申请实施例中的方式二可以参考上述方法300中的方式二,本申请实施例中的方式三可以参考上述方法300中的方式三和方式四,在此不再赘述。
本申请实施例中,步骤S1720获取目标学生分别在每一个时间区间的实际注视区域可以通过以下方式实现。
所述获取目标学生分别在每一个所述时间区间的实际注视区域,包括:
根据所述目标学生的视线获取所述目标学生分别在所述每一个时间区间的实际注视区域。
可选地,在一些实施例中,所述根据所述目标学生的视线获取所述目标学生分别在每一个时间所述区间的实际注视区域,包括:
基于摄像头获取所述目标学生的面孔影像;
根据所述面孔影像确定所述目标学生分别在每一个所述时间区间的视线;
根据所述每一个所述时间区间的视线确定所述目标学生在每一个所述时间区域所注视的区域;
确定每一个所述时间区间所注视的区域为对应时间区间的实际注视区域。
本申请实施例中,获取目标学生在每一个时间区间的实际注视区域,与上述方式三中获取优秀学生的待注视区域基本类似,可以参考上述关于步骤S320的内容,在此不再赘述。
本申请实施例中,步骤S1730根据所述待注视区域和所述实际注视区域的交集评估所述目标学生的专注度可以通过以下方式实现。
可选地,在一些实施例中,所述根据每一个所述时间区间中所述待注视区域和所述实际注视区域的交集评估所述目标学生的专注度,包括:
根据每一个所述时间区间和每一个所述时间区间中所述待注视区域确定第一时空二元组;
根据每一个所述时间区间确定每一个所述实际注视区域,每一个所述时间区间和每一个所述实际注视区域组成第二时空二元组;
根据所述第一时空二元组和所述第二时空二元组评估所述目标学生的专注度。
本申请实施例中,评估目标学生的专注度可以参考上文图15和图16的相关内容,不再赘述。
可选地,在一些实施例中,所述目标学生的专注度小于或等于第四阈值,所述方法还包括:
采用聚光灯对所述待注视区域进行高亮处理。
本申请提供的方案,在目标学生的专注度小于或等于第四阈值时,采用聚光灯对待注视区域进行高亮处理,可以帮助目标学生纠正不合适的注视模式,使他们的注意力导向待注视区域,进一步地,可以提高目标学生的专注度。
可以理解的是,用于评估学生专注度的装置为了实现上述功能,其包含了执行各个功能相应的硬件和/或软件模块。结合本文中所公开的实施例描述的各示例的算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以结合实施例对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本实施例可以根据上述方法示例对上述装置进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块可以采用硬件的形式实现。需要说明的是,本实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用对应各个功能划分各个功能模块的情况下,图18示出了上述实施例中涉及的评估学生专注度的装置1800的一种可能的组成示意图,如图18所示,该装置1800可以包括:获取模块1810和评估模块1820。
其中,获取模块1810可以用于支持装置1800执行上述步骤S1710、S1720等,和/ 或用于本文所描述的技术的其他过程。
评估模块1830可以用于支持装置1800执行上述步骤S1730等,和/或用于本文所描述的技术的其他过程。
需要说明的是,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
本实施例提供的装置,用于执行上述本申请的方法,因此可以达到与上述实现方法相同的效果。
在采用集成的单元的情况下,装置可以包括处理模块、存储模块和通信模块。其中,处理模块可以用于对该装置的动作进行控制管理,例如,可以用于支持该装置执行上述各个单元执行的步骤。存储模块可以用于支持该装置执行存储程序代码和数据等。通信模块,可以用于支持该装置与其他设备的通信。
其中,处理模块可以是处理器或控制器。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,数字信号处理(digital signal processing,DSP)和微处理器的组合等等。存储模块可以是存储器。通信模块具体可以为射频电路、蓝牙芯片、Wi-Fi芯片等与其他电子设备交互的设备。
此外,还需要说明的是,该装置1800可以安装于平台中,且该装置1800中的处理器可以从存储器中调用并运行计算机程序,使得安装有该装置1800的平台执行上述本申请中的方法。
图19示出了上述实施例涉及的装置800的另一种可能的组成示意图,如图19所示,该装置800可以包括通信单元810、输入单元820、处理单元830、输出单元(或也可以称为显示单元)840、外设接口850、存储单元860、电源870、视频解码器880以及音频解码器890。
通信单元810用于建立通信信道,使装置800通过所述通信信道以连接至远程服务器,并从所述远程服务器下媒体数据。所述通信单元810可以包括WLAN模块、蓝牙模块、 NFC模块、基带模块等通信模块,以及所述通信模块对应的射频(Radio Frequency,简称 RF)电路,用于进行无线局域网络通信、蓝牙通信、NFC通信、红外线通信及/或蜂窝式通信系统通信,例如宽带码分多重接入(wideband code division multiple access,W-CDMA) 及/或高速下行封包存取(high speed downlink packet access,HSDPA)。所述通信模块810 用于控制装置中的各组件的通信,并且可以支持直接内存存取。
输入单元820可以用于实现用户与装置的交互和/或信息输入到装置中。在本申请具体实施方式中,输入单元可以是触控面板,也可以是其他人机交互界面,例如实体输入键、麦克风等,还可是其他外部信息撷取装置,例如摄像头等。
处理单元830为装置的控制中心,可以利用各种接口和线路连接整个装置的各个部分,通过运行或执行存储在存储单元内的软件程序和/或模块,以及调用存储在存储单元内的数据,以执行装置的各种功能和/或处理数据。
输出单元840包括但不限于影像输出单元和声音输出单元。影像输出单元用于输出文字、图片和/或视频。在本申请的具体实施方式中,上述输入单元820所采用的触控面板亦可同时作为输出单元840的显示面板。例如,当触控面板检测到在其上的触摸或接近的手势操作后,传送给处理单元以确定触摸事件的类型,随后处理单元根据触摸事件的类型在显示面板上提供相应的视觉输出。虽然在图19中,输入单元820与输出单元840是作为两个独立的部件来实现装置的输入和输出功能,但是在某些实施例中,可以将触控面板与显示面板集成一体而实现装置的输入和输出功能。例如,所述影像输出单元可以显示各种图形化用户接口以作为虚拟控制组件,包括但不限于窗口、卷动轴、图标及剪贴簿,以供用户通过触控方式进行操作。
存储单元860可用于存储软件程序以及模块,处理单元通过运行存储在存储单元的软件程序以及模块,从而执行装置的各种功能应用以及实现数据处理。
本实施例还提供一种计算机存储介质,该计算机存储介质中存储有计算机指令,当该计算机指令在装置上运行时,使得装置执行上述相关方法步骤实现上述实施例中的评估学生专注度的方法。
本实施例还提供了一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述相关步骤,以实现上述实施例中的评估学生专注度的方法。
另外,本申请的实施例还提供一种装置,这个装置具体可以是芯片,组件或模块,该装置可包括相连的处理器和存储器;其中,存储器用于存储计算机执行指令,当装置运行时,处理器可执行存储器存储的计算机执行指令,以使芯片执行上述各方法实施例中的评估学生专注度的方法。
其中,本实施例提供的装置、计算机存储介质、计算机程序产品或芯片均用于执行上文所提供的对应的方法,因此,其所能达到的有益效果可参考上文所提供的对应的方法中的有益效果,此处不再赘述。
通过以上实施方式的描述,所属领域的技术人员可以了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (16)
1.一种评估学生专注度的方法,其特征在于,包括:
获取课件中的待注视区域,所述待注视区域包括多个区域,所述多个区域中的每一个区域对应一个时间区间;
获取目标学生分别在每一个所述时间区间的实际注视区域;
根据每一个所述时间区间中所述待注视区域和所述实际注视区域的交集评估所述目标学生的专注度。
2.根据权利要求1所述的方法,其特征在于,所述获取课件中的待注视区域,包括:
根据所述课件中动态展示的课件内容获取所述待注视区域,所述动态展示的课件内容包括具有动画效果的课件内容。
3.根据权利要求2所述的方法,其特征在于,所述根据所述课件中动态展示的课件内容获取所述待注视区域,包括:
根据所述课件中动态展示的课件内容确定所述课件中的骨干帧序列,所述骨干帧序列包括多个骨干帧,所述骨干帧为目标自然帧,所述目标自然帧满足以下条件:所述目标自然帧与后一自然帧的像素差值大于第一阈值,所述目标自然帧与前n个自然帧的像素差值均小于第二阈值;
计算所述骨干帧序列中的相邻骨干帧之间的帧间差分连通区域;
根据所述帧间差分连通区域获取所述待注视区域。
4.根据权利要求1所述的方法,其特征在于,所述获取课件中的待注视区域,包括:
根据教师使用的光标或激光笔移动的轨迹获取所述待注视区域。
5.根据权利要求4所述的方法,其特征在于,所述根据教师使用的光标或激光笔移动的轨迹获取所述待注视区域,包括:
根据所述光标或激光笔移动的轨迹计算所述轨迹扫过的区域,所述区域包括所述轨迹上方的上一行的内容;
将所述轨迹扫过的区域确定为所述待注视区域。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
对所述轨迹进行预处理,所述预处理包括分段处理和/或标准化处理,所述分段处理包括滤除速度大于第三阈值的轨迹点和/或设置速度等于0的轨迹点为断点,所述标准化处理包括对分段后的轨迹进行重采样,使得所述分段后的每一段轨迹包含相同的轨迹点数;
所述根据所述光标或激光笔移动的轨迹计算所述轨迹扫过的区域,包括:
根据预处理后的轨迹计算所述轨迹扫过的区域。
7.根据权利要求1所述的方法,其特征在于,所述获取课件中的待注视区域,包括:
根据教师的视线或优秀学生的视线获取所述待注视区域。
8.根据权利要求7所述的方法,其特征在于,所述根据教师的视线或优秀学生的视线获取所述待注视区域,包括:
基于摄像头获取所述教师或所述优秀学生的面孔影像;
根据所述面孔影像确定所述教师的视线或所述优秀学生的视线;
根据所述教师的视线或所述优秀学生的视线确定所述教师或所述优秀学生在所述课件中所注视的区域;
确定所述所注视的区域为所述待注视区域。
9.根据权利要求1至8中任一项所述的方法,其特征在于,所述获取目标学生分别在每一个所述时间区间的实际注视区域,包括:
根据所述目标学生的视线获取所述目标学生分别在所述每一个时间区间的实际注视区域。
10.根据权利要求9所述的方法,其特征在于,所述根据所述目标学生的视线获取所述目标学生分别在每一个所述时间区间的实际注视区域,包括:
基于摄像头获取所述目标学生的面孔影像;
根据所述面孔影像确定所述目标学生分别在每一个所述时间区间的视线;
根据所述每一个所述时间区间的视线确定所述目标学生在每一个所述时间区域所注视的区域;
确定每一个所述时间区间所注视的区域为对应时间区间的实际注视区域。
11.根据权利要求1至10中任一项所述的方法,其特征在于,所述根据每一个所述时间区间中所述待注视区域和所述实际注视区域的交集评估所述目标学生的专注度,包括:
根据每一个所述时间区间和每一个所述时间区间中所述待注视区域确定第一时空二元组;
根据每一个所述时间区间确定每一个所述实际注视区域,每一个所述时间区间和每一个所述实际注视区域组成第二时空二元组;
根据所述第一时空二元组和所述第二时空二元组评估所述目标学生的专注度。
12.根据权利要求1至11中任一项所述的方法,其特征在于,所述目标学生的专注度小于或等于第四阈值,所述方法还包括:
采用聚光灯对所述待注视区域进行高亮处理。
13.根据权利要求1至12中任一项所述的方法,其特征在于,所述方法应用于在线教育场景。
14.一种评估学生专注度的装置,其特征在于,所述装置包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有所述装置的平台执行如权利要求1至13中任一项所述的方法。
15.一种计算机存储介质,其特征在于,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求1至13中任一项所述的方法。
16.一种计算机程序,其特征在于,所述计算机程序使得计算机执行如权利要求1至13中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110728492.6A CN113780051A (zh) | 2021-06-29 | 2021-06-29 | 评估学生专注度的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110728492.6A CN113780051A (zh) | 2021-06-29 | 2021-06-29 | 评估学生专注度的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113780051A true CN113780051A (zh) | 2021-12-10 |
Family
ID=78835822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110728492.6A Pending CN113780051A (zh) | 2021-06-29 | 2021-06-29 | 评估学生专注度的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113780051A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116797090A (zh) * | 2023-06-26 | 2023-09-22 | 国信蓝桥教育科技股份有限公司 | 一种学员课堂学习状态在线评估方法及系统 |
-
2021
- 2021-06-29 CN CN202110728492.6A patent/CN113780051A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116797090A (zh) * | 2023-06-26 | 2023-09-22 | 国信蓝桥教育科技股份有限公司 | 一种学员课堂学习状态在线评估方法及系统 |
CN116797090B (zh) * | 2023-06-26 | 2024-03-26 | 国信蓝桥教育科技股份有限公司 | 一种学员课堂学习状态在线评估方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Prieto et al. | Teaching analytics: towards automatic extraction of orchestration graphs using wearable sensors | |
KR101563312B1 (ko) | 시선 기반 교육 콘텐츠 실행 시스템 | |
US20220254158A1 (en) | Learning situation analysis method, electronic device, and storage medium | |
RU2708027C1 (ru) | Способ передачи движения субъекта из видео на анимированного персонажа | |
CN107909022B (zh) | 一种视频处理方法、装置、终端设备和存储介质 | |
WO2019100754A1 (zh) | 人体动作的识别方法、装置和电子设备 | |
CN110674664A (zh) | 视觉注意力的识别方法及系统、存储介质、处理器 | |
KR20120123330A (ko) | 프리젠테이션을 위한 카메라 탐색 | |
Yin et al. | Toward natural interaction in the real world: Real-time gesture recognition | |
CN103985137A (zh) | 应用于人机交互的运动物体跟踪方法及系统 | |
CN109240494B (zh) | 电子显示板的控制方法、计算机可读存储介质和控制系统 | |
Zhang et al. | A complete system for analysis of video lecture based on eye tracking | |
Emerson et al. | Early prediction of visitor engagement in science museums with multimodal learning analytics | |
Stearns et al. | The design and preliminary evaluation of a finger-mounted camera and feedback system to enable reading of printed text for the blind | |
Kar et al. | Gestatten: Estimation of User's attention in Mobile MOOCs from eye gaze and gaze gesture tracking | |
EP4184445A1 (en) | Time-space movement track acquisition and generation method and apparatus, device, system, and storage medium | |
CN113780051A (zh) | 评估学生专注度的方法和装置 | |
US10915740B2 (en) | Facial mirroring in virtual and augmented reality | |
Faisal et al. | Towards a reference model for sensor-supported learning systems | |
CN111523408B (zh) | 动作捕捉方法和装置 | |
Guha et al. | AI Virtual Mouse Using Hand Gesture Recognition | |
CN114245193A (zh) | 显示控制方法、装置和电子设备 | |
CN116324700A (zh) | 显示设备及媒资播放方法 | |
KR20230049179A (ko) | 가상 현실 교육 플랫폼 시스템 및 그 동작방법 | |
Koshti et al. | AttenQ-Attention Span Detection Tool for Online Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |