CN115311111A - 课堂参与度评价方法及系统 - Google Patents

课堂参与度评价方法及系统 Download PDF

Info

Publication number
CN115311111A
CN115311111A CN202210580416.XA CN202210580416A CN115311111A CN 115311111 A CN115311111 A CN 115311111A CN 202210580416 A CN202210580416 A CN 202210580416A CN 115311111 A CN115311111 A CN 115311111A
Authority
CN
China
Prior art keywords
classroom
participation
time
students
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210580416.XA
Other languages
English (en)
Inventor
房建东
刘帆
赵于东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inner Mongolia University of Technology
Original Assignee
Inner Mongolia University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inner Mongolia University of Technology filed Critical Inner Mongolia University of Technology
Priority to CN202210580416.XA priority Critical patent/CN115311111A/zh
Publication of CN115311111A publication Critical patent/CN115311111A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明实施例提供一种课堂参与度评价方法及系统,属于课堂分析技术领域。所述方法包括:实时采集学生课堂行为图像信息;从所述图像信息中进行各学生目标定位,并基于预设参与度识别模型判定各学生的实时课堂参与状态;获得所有学生在完整课堂时间内各图像采集时刻的课堂参与状态,获得课堂参与状态集;基于所述课堂参与状态集进行对应课堂参与度评价。本发明方案在提取学生课堂行为状态特征的过程中,引入时序关系,使得课堂参与度评价结构更加符合现实情况。

Description

课堂参与度评价方法及系统
技术领域
本发明涉及课堂分析技术领域,具体地涉及一种课堂参与度评价方法及一种课堂参与度评价系统。
背景技术
在传统的教学模式中,一个老师需要同时教授几十个,甚至上百个学生,由于教师劳动的特点,课程教学要靠教师个人独立完成,无法同时顾及到所有的学生,就只能从能注意到的少数学生课堂反馈中判断当前的课堂状态。而学生的课堂状态往往通过课堂中的参与程度所体现,如果学生课堂中出现了睡觉等消极的行为,一般是对教学内容产生了厌倦情绪,学生在课堂内保持高度参与的状态,往往对教学内容具有偏向于正面情绪。而学生的课堂行为状态是会随着时间的推移而发生变化的,课堂的参与程度也在随着时间的变化而变化。因此,在达到实时需求的同时融合课堂时序特征的课堂参与分析是符合现实需求的。
现有的课堂参与度识别方法,均是依据课堂行为特征从而判定,例如,将训练好VGG16网络模型迁移到学生课堂行为识别任务中,以实现了及时、精准地反馈学生的课堂学习情况。还有根据头部仰俯、偏转角度的不同变化幅度进行专注度等级划分,即根据头部姿态的特征完成对课堂参与的评价。再有通过实时采集学生课上表现的数据,并利用智能算法进行行为分类和识别处理,向教师实时推送与教学相关的各种特征数据,引导教师在教学中调整授课节奏。这些方法均是依据课堂行为特征从而判定,这就使得这些方法不仅仅在特征提取的过程中忽略了动作的时序特征,导致课堂行为识别的效果比较刻板,无法体现实际情况,针对此问题,需要创造一种新的课堂参与度评价方法。
发明内容
本发明实施方式的目的是提供一种课堂参与度评价方法及系统,以至少解决现有课堂行为识别不考虑时序问题而导致识别结果刻板的问题。
为了实现上述目的,本发明第一方面提供一种课堂参与度评价方法,所述方法包括:实时采集学生课堂行为图像信息;从所述图像信息中进行各学生目标定位,并基于预设参与度识别模型判定各学生的实时课堂参与状态;获得所有学生在完整课堂时间内各图像采集时刻的课堂参与状态,获得课堂参与状态集;基于所述课堂参与状态集进行对应课堂参与度评价。
可选的,所述实时采集学生课堂行为图像信息,包括:实时采集课堂行为视频信息;基于预设关键帧提取算法从所述视频信息中提取待识别关键帧;每一个待识别关键帧对应一个图像采集时刻。
可选的,所述基于预设关键帧提取算法从所述视频信息中提取待识别关键帧,包括:将所述视频信息进行分帧操作,获得图像序列;将所述图像序列扩展到时间域,获得待识别关键帧序列;其中,所述扩展式为:
Figure BDA0003663552740000021
其中,i,j为图像序列中各二维图像的两个维度;t为扩展加入的时间维度;c为图像序列中各图像的通道数;
Figure BDA0003663552740000022
为扩展后的待识别关键帧。
可选的,所述从所述图像信息中进行各学生目标定位,包括:基于预设目标检测算法进行学生目标定位;其中,所述预设目标检测算法还包括时空残差收缩算法;所述预设目标检测算法基于深度学习网络构建;所述深度学习网络包括一个提取图像信息中目标特征的特征提取网络、一个融合多层特征的特征融合网络和一个用于目标检测的卷积网络。
可选的,所述特征提取网络的下采样定义为:
Ol=f(X*W+b)
其中,
Figure BDA0003663552740000031
l为所述特征提取网络的卷积网络当前层数;H和W为输入的空间信息;C为输入的通道信息;h和w 为卷积核尺寸;n为卷积核数量;所述特征提取网络的上采样定义为:
Figure BDA0003663552740000032
其中,g(x’,y’)为输出图像中坐标为(x’,y’)的像素点的颜色值;
Figure BDA0003663552740000033
为输入图像中坐标为(x,y)的像素点的颜色值;(x,y)为输入图像上坐标 (x’,y’)映射到输入图像坐标系下的坐标;int为取整运算。
可选的,所述预设参与度识别模型包括三维卷积提取特征。
可选的,所述预设参与度识别模型的输入层为:
Win*Hin*Din*Cin
对应输出层为:
Wout*Hout*Dout*Cout
其中,所述输入层与所述输出层之间的参数关系为:
Figure BDA0003663552740000034
Figure BDA0003663552740000035
Figure BDA0003663552740000036
Cout=k
其中,k为预设滤波器个数;w*h*d为卷积核维度;s为滑动步长;p 为填充值。
可选的,所述基于所述课堂参与状态集进行对应课堂参与度评价,包括:计算所有学生在每个图像采集时刻的课堂整体参与度;根据完整课堂时间内各图像采集时刻的课堂整体参与度获得完整课堂时间内的课堂参与度;其中,所有学生在每个图像采集时刻的课堂整体参与度的计算规则为:
Figure BDA0003663552740000041
其中,u(t)为图像采集时刻t时所有学生的课堂整体参与度;
Figure BDA0003663552740000042
为参与度系数,0为脱离课堂状态,1为参与课堂状态;st为目标识别到的学生数量;所述完整课堂时间内的课堂参与度计算规则为:
Figure BDA0003663552740000043
其中,v(n)为完整课堂时间内的课堂参与度;n为课堂时间长度。
本发明第二方面提供一种课堂参与度评价系统,所述系统包括:采集单元,用于实时采集学生课堂行为图像信息;处理单元,用于:从所述图像信息中进行各学生目标定位,并基于预设参与度识别模型判定各学生的实时课堂参与状态;获得所有学生在完整课堂时间内各图像采集时刻的课堂参与状态,获得课堂参与状态集;评价单元,用于基于所述课堂参与状态集进行对应课堂参与度评价。
另一方面,本发明提供一种计算机可读储存介质,该计算机可读存储介质上储存有指令,其在计算机上运行时使得计算机执行上述的课堂参与度评价方法。
通过上述技术方案,本发明方案在提取学生课堂行为状态特征的过程中,通过二维卷积对提取学生课堂行为的空间特征,三维卷积更多的捕捉学生课堂行为时间维度的依赖关系,在课堂行为参与评估任务中以达到融合时空信息的目的,完成时序运动建模,其理论性更为完善。并且通过对三维卷积引入注意力机制,在时间、空间维度上自适应地提取不同通道和时间的时空噪音阈值,通过软阈值化进行时空特征收缩,删除不关键的冗余信息,有效的捕捉课堂行为的时空域内的关系。使得课堂参与度评价结构更加符合现实情况。
本发明实施方式的其它特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本发明实施方式的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本发明实施方式,但并不构成对本发明实施方式的限制。在附图中:
图1是本发明一种实施方式提供的课堂参与度评价方法的步骤流程图;
图2是本发明一种实施方式提供的课堂参与度评价系统的系统结构图。
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
在传统的教学模式中,一个老师需要同时教授几十个,甚至上百个学生,由于教师劳动的特点,课程教学要靠教师个人独立完成,无法同时顾及到所有的学生,就只能从能注意到的少数学生课堂反馈中判断当前的课堂状态。而学生的课堂状态往往通过课堂中的参与程度所体现,如果学生课堂中出现了睡觉等消极的行为,一般是对教学内容产生了厌倦情绪,学生在课堂内保持高度参与的状态,往往对教学内容具有偏向于正面情绪。而学生的课堂行为状态是会随着时间的推移而发生变化的,课堂的参与程度也在随着时间的变化而变化。因此,在达到实时需求的同时融合课堂时序特征的课堂参与分析是符合现实需求的。
现有的课堂参与度识别方法,均是依据课堂行为特征从而判定,例如,将训练好VGG16网络模型迁移到学生课堂行为识别任务中,以实现了及时、精准地反馈学生的课堂学习情况。还有根据头部仰俯、偏转角度的不同变化幅度进行专注度等级划分,即根据头部姿态的特征完成对课堂参与的评价。再有通过实时采集学生课上表现的数据,并利用智能算法进行行为分类和识别处理,向教师实时推送与教学相关的各种特征数据,引导教师在教学中调整授课节奏。
这些方法均是依据课堂行为特征从而判定,这就使得这些方法不仅仅在特征提取的过程中忽略了动作的时序特征,并且收集到的视频信息中的音频信息往往未能有效利用,而课堂的音频信息中往往包含着丰富的交互信息,课堂的交互性也从另一方面体现着课堂的参与程度。因此,在课堂行为识别容易存在误检、漏检的前提下,提出一种融合课堂音频特征信息的课堂参与评定模型,一定程度上实现了识别过程中的互补性原则。本发明正是引入了时间维度进行课堂参与度评价,将每一个定格的判定结果基于时间进行串联,以实现动态的,一段时间的课堂整体参与度评价。
图2是本发明一种实施方式提供的课堂参与度评价系统的系统结构图。如图2所示,本发明实施方式提供一种课堂参与度评价系统,所述系统包括:采集单元,用于实时采集学生课堂行为图像信息;处理单元,用于:从所述图像信息中进行各学生目标定位,并基于预设参与度识别模型判定各学生的实时课堂参与状态;获得所有学生在完整课堂时间内各图像采集时刻的课堂参与状态,获得课堂参与状态集;评价单元,用于基于所述课堂参与状态集进行对应课堂参与度评价。
图1是本发明一种实施方式提供的课堂参与度评价方法的方法流程图。如图1所示,本发明实施方式提供一种课堂参与度评价方法,所述方法包括:
步骤S10:实时采集学生课堂行为图像信息
具体的,使用计算机视觉技术的一类方法在提取学生课堂行为特征的过程中往往独立地处理每幅图像,没有考虑关键信息,如视频的时间属性,这会导致课堂行为识别的效果比较刻板,识别往往是根据某个时间点的学生的姿态特征。同时,课堂行为识别的在智慧课堂中应用场景往往是评估学生课堂参与度(专注度)指标,现有技术往往将课堂评估任务与课堂行为识别剥离开,分两个阶段完成课堂参与度的评价,利用几类固定的课堂参与的评价指标,将学生的几类行为划分为不同参与程度,效果较为呆板。在应用过程中会出现学生短暂的低头、使用手机等行为即刻会被判定为脱离课堂,然而这与实际情况和人性化课堂的要求往往不符合。所以,本发明方案融合了时间通道信息,检测课堂环境下学生的课堂行为姿态、通过对学生动态的行为变化特征,静止的姿态特征进行特征提取,完成基于行为的课堂参与评价;同时引入时空特征收缩算法以减少噪音行为的干扰,更多关注主体行为特征删除冗余干扰信息,进而减少了识别过程中的盲目性。
融合了时间通道信息,意味着本发明方案处理的图像信息说是一个时间维度上的流动信息,并非某一个单独的定格图像。基于此,想要实现课堂完整参与度评价,需要实时采集学生课堂行为图像,然后基于时间维度进行各时刻参与度评价,从而实现一个完整时间维度上的参与度评价。基于此,通过课堂预设的图像采集设备进行实施学生课堂行为图像采集。当然,该图像采集设备可以是预设监控设备、延时相机等,不做限定,只要能进行实时采集课堂图像信息均可。
进行图像采集后,需要对图像信息进行预处理操作,这些操作包括视频分帧操作、关键帧提取、尺寸调整操作。因为,了实现课堂行为参与的实时监测,需要对学生的行为数据进行帧级的(时间)注释。但是实际情况中每一秒的视频往往由数十帧图像所组成,手工的对如此数量的数据进行人工标注往往是不现实的,因此,需要采取一种稀疏标注的方法,也就是对这种连续图像的关键帧进行标注,以此来减少数据标注工作的复杂性。具体来说,关键帧指的是行为参与数据的每间隔一秒所截取的图像,对于每秒的关键帧图像都要标记学生的行为参与类型。
在一种可能的实施方式中,收集的课堂行为参与数据主要为课堂视频,在完成视频数据的分帧操作后,视频被转化为图像序列,仅仅针对单一图像提取特征是缺乏运动特征的,因此,将表征空间特征图像扩展到时间域,所述扩展式为:
Figure BDA0003663552740000081
其中,i,j为图像序列中各二维图像的两个维度;t为扩展加入的时间维度;c为图像序列中各图像的通道数;
Figure BDA0003663552740000082
为扩展后的待识别帧。通过将学生课堂行为参与数据映射到三维空间网络的W*H*T*C形式,使用深度3D ConvNet来学习课堂行为参与的时空特征。
步骤S20:从所述图像信息中进行各学生目标定位,并基于预设参与度识别模型判定实时各学生的课堂参与状态。
具体的,将课堂教学视频中的学生进行目标检测和定位是实现学生行为识别的关键,利用基于深度学习的视频目标检测算法实现课堂教学视频中的学生目标的实时检测,目标特征学习和检测的深度学习网络结构包含一个提取课堂教学视频帧中目标特征的深度卷积神经网络、一个融合多层特征的特征融合网络和一个用于目标检测的卷积网络。所述特征提取网络的下采样定义为:
Ol=f(X*W+b)
其中,
Figure BDA0003663552740000091
l为所述特征提取网络的卷积网络当前层数;H和W为输入的空间信息;C为输入的通道信息;h和w 为卷积核尺寸;n为卷积核数量;所述特征提取网络的上采样定义为:
Figure BDA0003663552740000092
其中,g(x’,y’)为输出图像中坐标为(x’,y’)的像素点的颜色值;
Figure BDA0003663552740000093
为输入图像中坐标为(x,y)的像素点的颜色值;(x,y)为输入图像上坐标 (x’,y’)映射到输入图像坐标系下的坐标;int为取整运算。
Oh=A(g(x’,y’))
通过将上采样的得到的每个像素点整合为新图像Oh,h对应的采样层数。
Of=Ol+Oh
将下采样过程中提取到多层次的特征与对应的上采样过程的特征进行融合,应注意l=h,即对应的上采样与下采样相加融合。
完成学生目标定位后,便需要对定位的学生目标进行课堂参与状态识别,通过在预训练行为参与模型上对课堂行为和进行微调,提取在课堂环境下产生的行为特征,完成端到端的课堂行为参与度识别任务。为了提取课堂行为的时空特征,引入了三位卷积作为特征提取器。因此,由课堂行为参与模型直接提取学生课堂参与行为的特征因素,相比人为进行二阶段划分能够学习到更高层次的抽象信息。其输入层为:
Win*Hin*Din*Cin
对应输出层为:
Wout*Hout*Dout*Cout
其中,所述输入层与所述输出层之间的参数关系为:
Figure BDA0003663552740000101
Figure BDA0003663552740000102
Figure BDA0003663552740000103
Cout=k
其中,k预设滤波器个数;w*h*d为卷积核维度;s为滑动步长;p为填充值。K,w*h*d,s和p均为预设超参数。
基于参与度识别模型注意判断所有识别目标的课堂参与状态。
步骤S30:获得所有学生在完整课堂上各图像采集时刻的课堂参与状态,获得课堂参与状态集。
具体的,将每一个图像采集时刻的所有学生的课堂参与状态进行整理形成课堂参与状态集,该集合中每一个状态均表现在对应某一个时刻某一个学生的课堂参与状态,以此形成包含所有图像采集时刻、所有学生的课堂参与状态。
步骤S40:基于所述课堂参与状态集进行对应课堂参与度评价。
具体的,不同于以往的课堂行为识别模型,此前的多数方法更多的聚焦于捕捉学生在课堂上的每个动作,基于捕捉动作进而识别学生的参与程度过程中往往会因为学生的某个时间点的假性的脱离动作将学生判别为参与度不高,亦或是长时间脱离课堂状态的过程中出现偶尔的投入性行为,从而错误地将脱离状态误判为专注状态。但是,大学具有更为自由的氛围,我们不能要求每个学生总是保持高度集中的呆板状态,但是也不能无视学生们长时间的脱离课堂。学生间偶尔的短暂性交流、低头、使用手机等行为,在现代课堂不应呆板地将其划分为脱离课堂的类型,更为综合性的判别方式应当关注课堂行为的主体行为,不应过分关注个别时间点的行为类型。亟需入一种注意力机制的以关注主要行为特征,忽略次要特征。而最近很多工作被提出,通过考虑特征通道间的关系和关注空间层面的重要区域来提升网络的性能。
在此,本发明方案提出了基于课堂行为参与识别的时空残差收缩算法以缓解这一问题,将那些对行为参与识别具有干扰的短暂性动作称之为“噪音”,对于长时间处于高度参与状态的行为数据而言,学生间偶尔的短暂性交流、低头、使用手机等课堂中的消极行为可以称之为积极样本中的消极的“噪音”。对于长时间的脱离课堂的行为数据而言,学生短暂且瞬时出现的参与课堂的行为可以被称之为负面样本中的积极的“噪音”。对于课堂参与效果一般的行为数据而言,无论是积极“噪音”,还是消极“噪音”都会对其参与程度的识别造成影响,针对这一类别时应同时考虑两类“噪音”。
时空特征收缩算法面向的是带有“噪声”的课堂行为参与数据,利用信号处理领域内“软阈值化”理论,在相应的阈值范围,对课堂行为参与识别任务造成干扰的行为信号完成“特征收缩”。首先解释软阈值化的概念。软阈值化是将输入数据朝着零的方向进行收缩的一种函数,经常在信号降噪算法中使用。其公式如下:
Figure BDA0003663552740000121
x表示输入特征,y表示输出特征,μ表示阈值。在这里,阈值需要是一个正数,并且不能太大。在这里通过(2+1)D卷积神经网络自适应设置时空噪音阈值。这里的“噪声”如前文所述,可以宽泛地理解为“与当前任务无关的特征信息”。
因为视频动作中含有时序信息,所以在空间域的2D卷积的同时插入了 1D在时域上的卷积来增强信道在时域上的相互依赖程度。经过激活函数后可以得到一个基于信道的0-1之间的系数α,并且与特征图绝对值的平均值相乘得到对应通道的噪音阈值。软阈值化能把“一定取值范围[-μ,+μ]内的特征”置为零,而且这个取值范围是可以自适应调整的,是一种更灵活的、删除冗余信息的方式。通过删除课堂时空域内冗余的噪声特征信号,从而实现关注主要行为特征,忽略“噪声”特征,实现时空域内的注意力效果,使得模型在此任务的识别效果鲁棒性更强。
基于此,仅识别个体学生的参与程度还不能完全掌握学生整体的课堂状态,依据课堂行为参与的识别分析,统计分析学生在当前课堂的整体参入度指标。需要由个体行为参与度映射到群体行为参与度。计算所有学生在每个图像采集时刻的课堂整体参与度;根据所有图像采集时刻的课堂整体参与度获得完整课堂时间内的课堂参与度;其中,所有学生在每个图像采集时刻的课堂整体参与度的计算规则为:
Figure BDA0003663552740000122
其中,u(t)为图像采集时刻t时所有学生的课堂整体参与度;
Figure BDA0003663552740000123
为参与度系数,0为脱离课堂状态,1为参与课堂状态;st为目标识别到的学生数量;所述完整课堂时间内的课堂参与度计算规则为:
Figure BDA0003663552740000131
其中,v(n)为完整课堂时间内的课堂参与度;n为课堂时间长度。通过对时间系数取平均,使得课堂整体行为参与度指标更平均化整体化,减少了课堂上的突然性因素影响。
在本发明实施例中,通过对课堂行为参与采取端到端训练方式,减少了人工二次划分行为步骤,同时,定义固定的几类行为也无法涵盖课堂内发生的所有情况,容易出现无法划分的情况。通过让模型直接学习课堂行为参与的运动模型,将学生的状态划分为不同参与程度,避免了此类问题。
本发明方案设计了一种端到端方式的学生课堂行为参与模型,改变了传统的课堂行为识别的数据制作方式,对学生的课堂状态直接进行参与度注释,避免了二次课堂行为参与评估的复杂性和不确定性。在提取学生课堂行为状态特征的过程中,通过二维卷积对提取学生课堂行为的空间特征,三维卷积更多的捕捉学生课堂行为时间维度的依赖关系,在课堂行为参与评估任务中以达到融合时空信息的目的,完成时序运动建模,其理论性更为完善。并且通过对三维卷积引入注意力机制,在时间、空间维度上自适应地提取不同通道和时间的时空噪音阈值,通过软阈值化进行时空特征收缩,删除不关键的冗余信息,有效的捕捉课堂行为的时空域内的关系。
本发明实施方式还提供一种计算机可读储存介质,该计算机可读存储介质上储存有指令,其在计算机上运行时使得计算机执行上述的课堂参与度评价方法。
本领域技术人员可以理解实现上述实施方式的方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得单片机、芯片或处理器(processor)执行本发明各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U 盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上结合附图详细描述了本发明的可选实施方式,但是,本发明实施方式并不限于上述实施方式中的具体细节,在本发明实施方式的技术构思范围内,可以对本发明实施方式的技术方案进行多种简单变型,这些简单变型均属于本发明实施方式的保护范围。另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合。为了避免不必要的重复,本发明实施方式对各种可能的组合方式不再另行说明。
此外,本发明的各种不同的实施方式之间也可以进行任意组合,只要其不违背本发明实施方式的思想,其同样应当视为本发明实施方式所公开的内容。

Claims (10)

1.一种课堂参与度评价方法,其特征在于,所述方法包括:
实时采集学生课堂行为图像信息;
从所述图像信息中进行各学生目标定位,并基于预设参与度识别模型判定各学生的实时课堂参与状态;
获得所有学生在完整课堂时间内各图像采集时刻的课堂参与状态,获得课堂参与状态集;
基于所述课堂参与状态集进行对应课堂参与度评价。
2.根据权利要求1所述的方法,其特征在于,所述实时采集学生课堂行为图像信息,包括:
实时采集课堂行为视频信息;
基于预设关键帧提取算法从所述视频信息中提取待识别关键帧;
每一个待识别关键帧对应一个图像采集时刻。
3.根据权利要求2所述的方法,其特征在于,所述基于预设关键帧提取算法从所述视频信息中提取待识别关键帧,包括:
将所述视频信息进行分帧操作,获得图像序列;
将所述图像序列扩展到时间域,获得待识别关键帧序列;其中,
所述扩展式为:
Figure FDA0003663552730000011
其中,i,j为图像序列中各二维图像的两个维度;
t为扩展加入的时间维度;
c为图像序列中各图像的通道数;
Figure FDA0003663552730000012
为扩展后的待识别关键帧。
4.根据权利要求1所述的方法,其特征在于,所述从所述图像信息中进行各学生目标定位,包括:
基于预设目标检测算法进行学生目标定位;其中,
所述预设目标检测算法还包括时空残差收缩算法;
所述预设目标检测算法基于深度学习网络构建;
所述深度学习网络包括一个提取图像信息中目标特征的特征提取网络、一个融合多层特征的特征融合网络和一个用于目标检测的卷积网络。
5.根据权利要求4所述的方法,其特征在于,所述特征提取网络的下采样定义为:
Ol=f(X*W+b)
其中,
Figure FDA0003663552730000021
l为所述特征提取网络的卷积网络当前层数;
H和W为输入的空间信息;
C为输入的通道信息;
h和w为卷积核尺寸;
n为卷积核数量;
所述特征提取网络的上采样定义为:
Figure FDA0003663552730000022
其中,g(x’,y’)为输出图像中坐标为(x’,y’)的像素点的颜色值;
Figure FDA0003663552730000023
为输入图像中坐标为(x,y)的像素点的颜色值;
(x,y)为输入图像上坐标(x’,y’)映射到输入图像坐标系下的坐标;
int为取整运算。
6.根据权利要求1所述的方法,其特征在于,所述预设参与度识别模型包括三维卷积提取特征。
7.根据权利要求6所述的,其特征在于,所述预设参与度识别模型的输入层为:
Win*Hin*Din*Cin
对应输出层为:
Wout*Hout*Dout*Cout
其中,所述输入层与所述输出层之间的参数关系为:
Figure FDA0003663552730000031
Figure FDA0003663552730000032
Figure FDA0003663552730000033
Cout=k
其中,k为预设滤波器个数;
w*h*d为卷积核维度;
s为滑动步长;
p为填充值。
8.根据权利要求1所述的方法,其特征在于,所述基于所述课堂参与状态集进行对应课堂参与度评价,包括:
计算所有学生在每个图像采集时刻的课堂整体参与度;
根据完整课堂时间内各图像采集时刻的课堂整体参与度获得完整课堂时间内的课堂参与度;其中,
所有学生在每个图像采集时刻的课堂整体参与度的计算规则为:
Figure FDA0003663552730000041
其中,u(t)为图像采集时刻t时所有学生的课堂整体参与度;
Figure FDA0003663552730000042
为参与度系数,0为脱离课堂状态,1为参与课堂状态;
st为目标识别到的学生数量;
所述完整课堂时间内的课堂参与度计算规则为:
Figure FDA0003663552730000043
其中,v(n)为完整课堂时间内的课堂参与度;
n为课堂时间长度。
9.一种课堂参与度评价系统,其特征在于,所述系统包括:
采集单元,用于实时采集学生课堂行为图像信息;
处理单元,用于:
从所述图像信息中进行各学生目标定位,并基于预设参与度识别模型判定各学生的实时课堂参与状态;
获得所有学生在完整课堂时间内各图像采集时刻的课堂参与状态,获得课堂参与状态集;
评价单元,用于基于所述课堂参与状态集进行对应课堂参与度评价。
10.一种计算机可读储存介质,该计算机可读存储介质上储存有指令,其在计算机上运行时使得计算机执行权利要求1-8中任一项权利要求所述的课堂参与度评价方法。
CN202210580416.XA 2022-05-26 2022-05-26 课堂参与度评价方法及系统 Pending CN115311111A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210580416.XA CN115311111A (zh) 2022-05-26 2022-05-26 课堂参与度评价方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210580416.XA CN115311111A (zh) 2022-05-26 2022-05-26 课堂参与度评价方法及系统

Publications (1)

Publication Number Publication Date
CN115311111A true CN115311111A (zh) 2022-11-08

Family

ID=83854419

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210580416.XA Pending CN115311111A (zh) 2022-05-26 2022-05-26 课堂参与度评价方法及系统

Country Status (1)

Country Link
CN (1) CN115311111A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115880111A (zh) * 2023-02-22 2023-03-31 山东工程职业技术大学 基于图像的虚拟仿真实训课堂教学管理方法及系统
CN116051324A (zh) * 2022-12-31 2023-05-02 华中师范大学 一种基于姿态检测的学生课堂参与状态评价方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116051324A (zh) * 2022-12-31 2023-05-02 华中师范大学 一种基于姿态检测的学生课堂参与状态评价方法及系统
CN115880111A (zh) * 2023-02-22 2023-03-31 山东工程职业技术大学 基于图像的虚拟仿真实训课堂教学管理方法及系统

Similar Documents

Publication Publication Date Title
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN110889672B (zh) 一种基于深度学习的学生打卡及上课状态的检测系统
CN115311111A (zh) 课堂参与度评价方法及系统
KR102169925B1 (ko) 이미지 캡션 자동 생성 방법 및 시스템
CN110942009A (zh) 基于时空混合卷积网络的跌倒检测方法与系统
CN111274921A (zh) 一种利用姿态掩模进行人体行为识别的方法
CN112183238B (zh) 一种远程教育注意力检测方法及系统
CN109190561B (zh) 一种视频播放中的人脸识别方法及系统
CN109767422A (zh) 基于深度学习的管道检测识别方法、存储介质及机器人
CN103810473B (zh) 一种基于隐马尔科夫模型的人体对象的目标识别方法
CN107305636A (zh) 目标识别方法、目标识别装置、终端设备和目标识别系统
KR20200054613A (ko) 동영상 메타데이터 태깅 시스템 및 그 방법
CN110942006A (zh) 运动姿态识别方法、运动姿态识别装置、终端设备及介质
CN110175534A (zh) 基于多任务级联卷积神经网络的授课辅助系统
CN108921032B (zh) 一种新的基于深度学习模型的视频语义提取方法
CN112183334A (zh) 一种基于多模态特征融合的视频深度关系分析方法
CN111770299A (zh) 一种智能视频会议终端的实时人脸摘要服务的方法及系统
CN110705412A (zh) 一种基于运动历史图像的视频目标检测方法
CN112906631A (zh) 一种基于视频的危险驾驶行为检测方法和检测系统
CN112163508A (zh) 一种基于真实场景的文字识别方法、系统及ocr终端
Wang et al. Yolov5 enhanced learning behavior recognition and analysis in smart classroom with multiple students
CN113011399B (zh) 基于生成协同判别网络的视频异常事件检测方法及系统
WO2022205329A1 (zh) 对象检测方法、对象检测装置及对象检测系统
CN110288598A (zh) 一种基于深度学习的模糊照片检测方法
CN110136098B (zh) 一种基于深度学习的线缆顺序检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination