CN110009210B - 一种基于关注度和专注度的学生听课水平综合评估方法 - Google Patents

一种基于关注度和专注度的学生听课水平综合评估方法 Download PDF

Info

Publication number
CN110009210B
CN110009210B CN201910234820.XA CN201910234820A CN110009210B CN 110009210 B CN110009210 B CN 110009210B CN 201910234820 A CN201910234820 A CN 201910234820A CN 110009210 B CN110009210 B CN 110009210B
Authority
CN
China
Prior art keywords
class
level
students
attention
student
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910234820.XA
Other languages
English (en)
Other versions
CN110009210A (zh
Inventor
姜赢
黄昊
杨静
郭睿
黄凯君
姜一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Normal University Zhuhai
Original Assignee
Beijing Normal University Zhuhai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Normal University Zhuhai filed Critical Beijing Normal University Zhuhai
Priority to CN201910234820.XA priority Critical patent/CN110009210B/zh
Publication of CN110009210A publication Critical patent/CN110009210A/zh
Application granted granted Critical
Publication of CN110009210B publication Critical patent/CN110009210B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06395Quality analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Educational Administration (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Development Economics (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Technology (AREA)
  • Artificial Intelligence (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Primary Health Care (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明公开了一种基于关注度和专注度的学生听课水平综合评估方法,包括以下步骤:S1:采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息;S2:根据学生行为信息,计算学生关注度水平和专注度水平;S3:基于学生关注度和专注度得到当前课时学生听课水平。本发明在关注度与专注度指标基础之上,构建一种课堂水平的评估方法,克服了不同学校对于教学水平标准的差异,有针对性评估课堂教学质量。

Description

一种基于关注度和专注度的学生听课水平综合评估方法
技术领域
本发明涉及教育信息化领域,更具体地,涉及一种基于关注度和专注度的学生听课水平综合评估方法。
背景技术
随着高校招生数量的增加和教育改革的发展,高等教育的质量问题成为社会和公众关注的热点。在我国,高等院校仍以课堂教学作为其教学的主要形式,而课堂教学质量的优劣对人才培养的质量有着直接的重要影响。质量是高等教育的核心,在高校教学质量的评估中,对课堂学习质量的评估是其中较为重要的一个环节。传统的课堂监测多为授课老师自行控制,上课的同时仍管理纪律和学生的听课关注度,这在一定程度上分散了教师授课的精力,影响课堂授课质量。有些学校会有教职人员抽查记录课堂情况,但往往花费精力而不得真实全面的状况,总体来说收效甚微。随着计算机视觉技术近年来的快速发展,人脸检测和识别的研究也掀起了新的高潮,利用OpenCV,Visual Studio,MATLAB等工具将人脸识别技术与课堂教学监控系统的需求相结合,可以获取大量记录学生课堂状态的信息。虽然国内高校已经可以实时监控课堂教学,但是大多高校尚未做到从收集到的信息中分析得到有效信息完善课堂质量的评估。虽然在课堂学习质量的评估上国内已经有了很多的相关研究,但还是存在着以下几个局限性:(1)没有清晰定义关注度和专注度的分界线,将两者并为一谈;(2)忽略座位分布情况对课堂关注度的影响;(3)忽略学生座前排的原因导向。
发明内容
本发明提供一种基于关注度和专注度的学生听课水平综合评估方法,对各指标数据进行分析,为高校建立了评价学生课堂教学质量的另一种模式——从关注度和专注度两个视角共同对学生听课水平展开评估,以便根据课堂质量的计算结果针对性地对教学进行优化管理。
为解决上述技术问题,本发明的技术方案如下:
一种基于关注度和专注度的学生听课水平综合评估方法,其特征在于,包括以下步骤:
S1:采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息;
S2:根据学生行为信息,计算学生关注度水平和专注度水平;
S3:基于学生关注度和专注度得到当前课时学生听课水平。
优选地,步骤S1中采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息,包括以下步骤:
S1.1:采集当前课时课堂教学视频,对其设定帧间隔进行图像抽取,将读取的帧存储为图片并按提取顺序存储为图片集;
S1.2:将图片集中的图片依次输入到预训练的卷积神经网络,检测人脸,标记人脸边界框,捕捉人脸特征,进行标注,与提前收集的人脸数据库集进行匹配;
S1.3:将不同时间所识别的同一位置的有效人脸按时间提取分别储存,将每个时间所识别出的人数进行统计,获取学生行为信息。
优选地,学生行为信息包括瞬时全班抬头人数、瞬时前排抬头人数、全班总人数和前排座位量,将每个时间点所识别出的人数进行统计,取其最大值即为最接近全班人数的值。通过设置参数将学生与摄像头的距离进行限制取一定范围再利用函数即可对前排总人数以及前排座位量进行统计。
优选地,步骤S1.2中预训练的卷积神经网络的构建,包括以下步骤:
S1.2.1:提前收集人脸数据库图像集;
S1.2.2:对人脸数据集预处理,并将人脸数据库集划分为训练集、验证集和测试集,并保证三个数据集之间的比例合适;
S1.2.3:将人脸数据作为输入层输入到卷积网络进行训练,卷积网络由多个卷积层、池化层、全连接层连接,后面运用softmax算法对不同人脸进行标注,Softmax损失函数来计算训练的结果与实际值之间的误差,该误差越小,表明网络的分类效果越好,通过反向传播算法不断优化网络参数,减小损失函数值,直到其收敛,即可得到最终的卷积神经网络参数,得到训练好的卷积神经网络。
优选地,步骤S2中根据学生行为信息,计算学生关注度水平和专注度水平,包括以下步骤:
S2.1:计算关注度水平;
学生课堂关注度指的是学生集中关注度在课堂上的外在体现,主要由两个部分构成,分别是学生抬头水平和学生座位分布水平;
关注度水平LOA按下式计算:
LOA=w1×F+w2×P
其中,F和P的计算公式如下:
Figure BDA0002007840830000031
Figure BDA0002007840830000032
上述式中,F表示学生抬头水平,P表示学生座位分布水平;w1为抬头水平在关注度水平中的权重,w2为学生座位分布水平在关注度水平中的权重;N表示对该课堂采集的照片总数;face_peri表示第i张图片检测的抬头人数的期望;num_facei表示第i张图片内抬头的人数;face_totali表示第i张图片中所包含的实际人数;将学生座位分布指的是以从教室的第一排至学生所占用座位的最后一排为听课区域,将课堂座位划分成前、中、后三个子区域;fronts表示前排听课人数,middles表示中排听课人数,backs表示后排听课人数;all_sitting表示课堂的学生总数;V1是前排听课人数在学生座位分布水平的权重,V2是中排听课人数在学生座位分布水平的权重,V3是后排听课人数在学生座位分布水平的权重;
S2.2:计算专注度水平-前排水平;
与专注度的研究不同,学生课堂专注度水平需要考虑到一些定性的因素,如听课时的表情和姿势(合称为态度),为了便于图像信息捕捉,把研究对象设为前排听课的学生,专注度水平(Level of Concentration,简称LOC)指的是基于听课兴趣水平的课堂关注度水平,前排学生的课堂专注度水平,可用LOCF表示,该评估指标主要由前排抬头水平、前排座位占用率以及前排听课态度三个部分构成,其中前两个部分可以直接统计计算,而前排听课态度则属于定性指标。
将前排学生听课态度分为两类,积极(attitude标记为1)和消极(attitude标记为0),并在不同的态度标记下使用不同的公式计算。
专注度水平-前排水平LOCF按下式计算:
LOCF=w3×FF+w4×FR
其中FF和FR的计算公式如下:
Figure BDA0002007840830000041
frontface_peri=num_frontfacei/frontface_totali
FR=fronts/front_seats
上述式中,FF表示前排抬头水平,FR表示前排座位占用率;w3为前排抬头水平在专注度水平-前排水平中的权重,w4为前排座位占用率在专注度水平-前排水平中的权重,w3=w1,w4=w2;frontface_peri表示第i张图片中的前排抬头水平,num_frontfacei表示第i张图片中前排抬头人数,frontface_totali表示第i张图片中所包含的前排人数;fronts表示前排人数,front_seats表示前排座位数量;
S2.3:计算学生课堂专注度水平-整体水平;
学生课堂专注度水平-整体水平LOC按下式计算:
LOC=g(LOCF|attitude)
式中,attitude有两种状态值,attitude=1代表学生听课态度积极,attitude=0代表学生听课态度消极,因此有如下两种公式:
Figure BDA0002007840830000042
Figure BDA0002007840830000043
上述式中,B为基本分值,以保证最后算出的LOC为正值;A1为学生听课态度积极状态下,LOCF反映到整体的转换系数;A2为学生听课态度消极状态下,LOCF反映到整体的转换系数。
优选地,步骤S3中基于学生关注度和专注度得到当前课时学生听课水平,包括以下步骤:
S3.1:基于关注度和专注度的学生听课水平W,按下式计算:
W(j)(LOA,LOC)=Q·XT
Q=[LOA,LOC],XT=[x1,x2]T
上述式中,W(j)(LOA,LOC)为第j次课时的学生听课水平,Q为关注度与专注度的矩阵,XT为LOA和LOC反映在听课水平上的权值转置矩阵。
优选地,还包括步骤S4:根据全部课时的学生听课水平得到课堂质量综合评估。
优选地,步骤S4中根据全部课时的学生听课水平得到课堂质量综合评估TCQ,按下式公式计算:
TCQ=γD/2·Zα/2·Σ(α+D+2)/2·exp[-0.5(Tr[Z·Σ-1]+γ(μ-V)TΣ-1(μ-V)γD/2)]+b
上述式中,γ,α为参数;Z为C×D维矩阵,D为学期划分模块数量,C为总课时数量均分到不同学期划分模块的课时数量;V为对应不同学期模块的D×1维的权重矩阵;Σ为C×D维的协方差矩阵;Tr[Z·Σ-1]表示矩阵Z·Σ-1的秩;μ为D×1维的权重均值矩阵;b为常数。
与现有技术相比,本发明技术方案的有益效果是:
(1)利用了课堂座位分布和学生上课抬头率指标进行分析,克服了他人研究在课堂关注度与专注度界限模糊不清、忽略座位分布情况对课堂专注度的影响、忽略学生前排的原因导向等局限性;
(2)在关注度与专注度指标基础之上,构建一种课堂水平的评估方法,克服了不同学校对于教学水平标准的差异,有针对性评估课堂教学质量;
(3)以抓取普通高校课堂教学视频为突破口,提供了基于学生课堂关注度与专注度的学生听课水平评估方法,促使教学管理决策更理性、准确和针对性;
(4)通过课堂的听课水平的计算结果,可以对课程的课堂质量进行学期的打分,可用于课程之间的比较排名,便于对不同质量水平的课程的管理改进。
附图说明
图1为一种基于关注度和专注度的学生听课水平综合评估方法流程图。
图2为实施例提供的统计学生行为信息的处理流程图。
图3为实施例中学生听课水平因素传递性结点图。
图4为实施例中学生听课水平差值和座位分布水平差值对比定参图。
图5实施例中关注度-专注度水平矩阵图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本实施例提供一种基于关注度和专注度的学生听课水平综合评估方法,如图1,包括以下步骤:
S1:采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息;
S2:根据学生行为信息,计算学生关注度水平和专注度水平;
S3:基于学生关注度和专注度得到当前课时学生听课水平。
步骤S1中采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息,如图2,包括以下步骤:
S1.1:采集当前课时课堂教学视频,对其设定帧间隔进行图像抽取,将读取的帧存储为图片并按提取顺序存储为图片集;
S1.2:将图片集中的图片依次输入到预训练的卷积神经网络,检测人脸,标记人脸边界框,捕捉人脸特征,进行标注,与提前收集的人脸数据库集进行匹配;
S1.3:将不同时间所识别的同一位置的有效人脸按时间提取分别储存,将每个时间所识别出的人数进行统计,获取学生行为信息。
学生行为信息包括瞬时全班抬头人数、瞬时前排抬头人数、全班总人数和前排座位量。步骤S1.2中预训练的卷积神经网络的构建,包括以下步骤:
S1.2.1:提前收集人脸数据库图像集;
S1.2.2:对人脸数据集预处理,并将人脸数据库集集划分为训练集、验证集和测试集(实验中所取比例为8:1:1);
S1.2.3:将人脸数据作为输入层输入到卷积网络进行训练,卷积网络由多个卷积层、池化层、全连接层连接,后面运用softmax算法对不同人脸进行标注,softmax损失函数来计算训练的结果与实际值之间的误差,该误差越小,表明网络的分类效果越好,通过反向传播算法不断优化网络参数,减小损失函数值,直到其收敛,即可得到最终的卷积神经网络参数,得到训练好的卷积神经网络。
步骤S2中根据学生行为信息,计算学生关注度水平和专注度水平:
计算第一张图的抬头率face_per(1)=num_face/face_total=0.31667;
计算第i张图片的抬头率face_per(i)=num_face/face_total;
得到所采集的每张图片的抬头率后,计算第一次课的整体抬头水平F(1)
Figure BDA0002007840830000061
根据照片内呈现的学生听课座位分布情况,计算第一次课的学生座位分布水平P,
Figure BDA0002007840830000071
最终计算本次课程的学生课堂关注度水平LOA(1)
LOA(1)=w1×F(1)+w2×P(1)=0.232659;
将其余第2~16次课时的数据按照第1次课时的计算过程计算处理,得到课堂16次课时的LOA的数值。
其中,考虑到学生选择座位是受到此前课堂质量的影响的(尤其是前一次课),如图3,是之前课堂质量作用在学生听课兴趣之上的结果,在作为本次课堂的学生专注度评估时,应适当削减其影响,而更强调当下的抬头水平,也就是F的影响。因此,在设置权值上有w1>w2
计算学生课堂专注度前排水平LOCF的值:
计算第一张图的前排抬头率:
frontface_per(1)=num_frontface/frontface_total=0.47619;
计算第i张图片的抬头率:
frontface_per(i)=num_frontface/frontface_total;
得到所采集的每张图片的抬头率后,计算第一次课的前排抬头水平FF(1)
Figure BDA0002007840830000072
根据照片内呈现的学生听课座位分布情况以及前排座位数量,计算第一次课的前排座位占用率FR(1),FR(1)=fronts/front_seats=0.538462;
最终计算本次课程的学生课堂专注度的前排水平LOCF(1)
LOCF(1)=w1×FF+w2×FR=0.483761;
将其余第2~16次课时的数据按照第1次课时的计算过程计算处理,得到课堂16次课时的LOCF的数值。
根据(2-3-1)中的公式LOC=g(LOCF|attitude),计算第一次课程学生课堂专注度水平,由于第一次课的学生听课状态被判定为积极的,即attitude=1,因此使用公式:
Figure BDA0002007840830000073
于是有第一次课时的学生课堂专注度水平为LOC(1)=0.806496;
将其余第2~16次课时的数据按照第1次课时的计算过程计算处理,根据attitude的值不同,选择用不同的公式,得到课堂16次课时的LOC的数值。
计算学生听课水平:
计算第一次课程的学生听课水平评分有:
W(1)(LOA,LOC)=Q(1)·XT=[LOA(1),LOC(1)]·[x1,x2]T=0.519577;
将其余第2~16次课时的数据按照第1次课时的计算过程计算处理,得到课堂16次课时的W的数值。
至此,该课程的16次课时的学生听课水平都计算出来了,具体16次计算结果参见表1。其中,参数A1,A2的取值范围通过图2所示的结构概念;
表1
Class_no F P LOA FF FR LOCF LOC W
1 0.198502 0.31236 0.232659 0.460317 0.538462 0.483761 0.806496 0.519577
2 0.224719 0.317978 0.252697 0.375 0.615385 0.447115 0.821154 0.536925
3 0.127341 0.289888 0.176105 0.422222 0.384615 0.41094 1.246564 0.711334
4 0.168582 0.285057 0.203525 0.422222 0.384615 0.41094 0.835624 0.519574
5 0.168539 0.298876 0.20764 0.421053 0.487179 0.440891 1.264534 0.736087
6 0.123596 0.302247 0.177191 0.259259 0.461538 0.319943 1.191966 0.684578
7 0.268939 0.364773 0.297689 0.481481 0.692308 0.544729 1.326838 0.812264
8 0.183521 0.305618 0.22015 0.47619 0.538462 0.494872 1.296923 0.758536
9 0.134831 0.298876 0.184045 0.298246 0.487179 0.354926 0.85803 0.521037
10 0.205993 0.31236 0.237903 0.333333 0.589744 0.410256 0.835897 0.5369
11 0.179775 0.340449 0.227978 0.230769 0.666667 0.361538 1.216923 0.72245
12 0.11236 0.325843 0.176404 0.246377 0.589744 0.349387 1.209632 0.693018
13 0.141762 0.295402 0.187854 0.458333 0.410256 0.44391 0.822436 0.505145
14 0.254682 0.282022 0.262884 0.619048 0.358974 0.541026 1.324615 0.79375
15 0.250936 0.349438 0.280487 0.571429 0.717949 0.615385 1.369231 0.824859
16 0.277154 0.359551 0.301873 0.580247 0.692308 0.613865 1.368319 0.835096
①计算后次课与前次课的学生听课水平差值(W(j)-W(j-1)),然后统计所有的差值点(16次课时,则有15个差值)并绘成折线图。
②计算后次课与前次课的座位分布水平差值d,然后统计所有的差值点(16次课时,则有15个差值)并绘成折线图。
③将①和②中的两个折线图进行比对,若趋势相近(不要求值相近),这说明参数的取值较好,若差距较大,这说明参数的取值较差。在实际计算中,需进行多次调参,计算出不同结果的学生听课水平,然后多次进行①操作,通过③逐渐找到合适的参数。可参见图4;
在具体实施过程中,建立关注度-专注度水平矩阵,如图5所示,将计算得到学生课堂关注度水平LOA和学生课堂专注度水平LOC作为坐标点(LOA,LOC)落入关注度-专注度水平矩阵,根据属的区块,反映出该课程某次课时的课堂质量水平。
实施例2
本实施例与实施例1具有相同步骤,在具体实施过程中基于该课程学生的16次课时的听课水平W,进行学期的课程质量评估:
TCQ=γD/2·Zα/2·Σ(α+D+2)/2·exp[-0.5(Tr[Z·Σ-1]+γ(μ-V)TΣ-1(μ-V)γD/2)]+b
其中,γ,α为参数,Z为C×D维的矩阵,D为学期划分模块数量,C为总课时数量均分到不同学期子模块的课时数量;V为对应不同学期子模块的D×1维的权重矩阵;Σ为C×D的协方差矩阵;Tr[Z]为矩阵Z的秩;μ为D×1权重均值矩阵,如权重矩阵V为[a,b,c,d]T,设e=(a+b+c+d)/4,则矩阵μ为[e,e,e,e]T。b为常数。
该课程共16次课时,将D设为4,即为4个学期子模块,分别为:开学初,期中前,期中后,期末;则C=16/D=4,即Z是一个4×4维的矩阵;V由于D的确立也存放4个权重值,成为4×1维矩阵,再确定其他参数,结合公式得到结果,得到该课程的课堂质量学期总评。综合全部课程的TCQ,可得到该学期课程的课堂质量排名。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (7)

1.一种基于关注度和专注度的学生听课水平综合评估方法,其特征在于,包括以下步骤:
S1:采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息;
S2:利用步骤S1中的学生行为信息,计算学生关注度水平和专注度水平;
S3:利用步骤S2中的得到学生关注度和专注度得到当前课时学生听课水平;
步骤S2中根据学生行为信息,计算学生关注度水平和专注度水平,包括以下步骤:
S2.1:计算关注度水平;
关注度水平LOA按下式计算:
LOA=w1×F+w2×P
其中,F和P的计算公式如下:
Figure FDA0004189789890000011
Figure FDA0004189789890000012
all_sitting=fronts+middles+backs
上述式中,F表示学生抬头水平,P表示学生座位分布水平;w1为抬头水平在关注度水平中的权重,w2为学生座位分布水平在关注度水平中的权重;N表示对该课堂采集的照片总数;face_peri表示第i张图片检测的抬头人数的期望;num_facei表示第i张图片内抬头的人数;face_totali表示第i张图片中所包含的实际人数;学生座位分布指的是以从教室的第一排至学生所占用座位的最后一排为听课区域,将课堂座位划分成前、中、后三个子区域;fronts表示前排听课人数,middles表示中排听课人数,backs表示后排听课人数;all_sitting表示课堂的学生总数;V1是前排听课人数在学生座位分布水平的权重,V2是中排听课人数在学生座位分布水平的权重,V3是后排听课人数在学生座位分布水平的权重;
S2.2:计算专注度水平-前排水平;
专注度水平-前排水平LOCF按下式计算:
LOCF=w3×FF+w4×FR
其中FF和FR的计算公式如下:
Figure FDA0004189789890000021
frontface_peri=num_frontfacei/frontface_totali
FR=fronts/front_seats
上述式中,FF表示前排抬头水平,FR表示前排座位占用率;w3为前排抬头水平在专注度水平-前排水平中的权重,w4为前排座位占用率在专注度水平-前排水平中的权重,w3=w1,w4=w2;frontface_peri表示第i张图片中的前排抬头水平,num_frontfacei表示第i张图片中前排抬头人数,frontface_totali表示第i张图片中所包含的前排人数;fronts表示前排听课人数,front_seats表示前排座位数量;
S2.3:计算学生课堂专注度水平-整体水平;
学生课堂专注度水平-整体水平LOC按下式计算:
LOC=g(LOCF|attitude)
式中,attitude有两种状态值,attitude=1代表学生听课态度积极,attitude=0代表学生听课态度消极,因此有如下两种公式:
Figure FDA0004189789890000022
Figure FDA0004189789890000023
上述式中,B为基本分值,以保证最后算出的LOC为正值;A1为学生听课态度积极状态下,LOCF反映到整体的转换系数;A2为学生听课态度消极状态下,LOCF反映到整体的转换系数。
2.根据权利要求1所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,所述步骤S1中采集当前课时课堂教学视频数据,获取讲课过程中学生行为信息,包括以下步骤:
S1.1:采集当前课时课堂教学视频,对其设定帧间隔进行图像抽取,将读取的帧存储为图片并按提取顺序存储为图片集;
S1.2:将图片集中的图片依次输入到预训练的卷积神经网络,检测人脸,标记人脸边界框,捕捉人脸特征,进行标注,与提前收集的人脸数据库集进行匹配;
S1.3:将不同时间所识别的同一位置的有效人脸按时间提取分别储存,将每个时间所识别出的人数进行统计,获取学生行为信息。
3.根据权利要求2所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,所述学生行为信息包括瞬时全班抬头人数、瞬时前排抬头人数、全班总人数和前排座位量。
4.根据权利要求2所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,步骤S1.2中预训练的卷积神经网络的构建,包括以下步骤:
S1.2.1:提前收集人脸数据库图像集;
S1.2.2:对人脸数据集预处理,并将人脸数据库集划分为训练集、验证集和测试集,并保证三个数据集之间的比例合适;
S1.2.3:将人脸数据作为输入层输入到卷积网络进行训练,卷积网络由多个卷积层、池化层、全连接层连接,后面运用softmax算法对不同人脸进行标注,Softmax损失函数来计算训练的结果与实际值之间的误差,该误差越小,表明网络的分类效果越好,通过反向传播算法不断优化网络参数,减小损失函数值,直到其收敛,即可得到最终的卷积神经网络参数,得到训练好的卷积神经网络。
5.根据权利要求4所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,所述步骤S3中基于学生关注度和专注度得到当前课时学生听课水平,包括以下步骤:
S3.1:基于关注度和专注度的学生听课水平W,按下式计算:
W(j)(LOA,LOC)=Q·XT
Q=[LOA,LOC],XT=[x1,x2]T
上述式中,W(j)(LOA,LOC)为第j次课时的学生听课水平,Q为关注度与专注度的矩阵,XT为LOA和LOC反映在听课水平上的权值转置矩阵。
6.根据权利要求5所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,还包括步骤S4:根据全部课时的学生听课水平得到课堂质量综合评估。
7.根据权利要求6所述的基于关注度和专注度的学生听课水平综合评估方法,其特征在于,所述步骤S4中根据全部课时的学生听课水平得到课堂质量综合评估TCQ,按下式公式计算:
TCQ=γD/2·Zα/2·Σ(α+D+2)/2·exp[-0.5(Tr[Z·Σ-1]+γ(μ-V)TΣ-1(μ-V)γD/2)]+b
上述式中,γ,α为参数;Z为C×D维矩阵,D为学期划分模块数量,C为总课时数量均分到不同学期划分模块的课时数量;V为对应不同学期模块的D×1维的权重矩阵;Σ为C×D维的协方差矩阵;Tr[Z·Σ-1]表示矩阵Z·Σ-1的秩;μ为D×1维的权重均值矩阵,权重均值矩阵指的是相对于权重矩阵V的,权值平均化的矩阵;b为常数。
CN201910234820.XA 2019-03-26 2019-03-26 一种基于关注度和专注度的学生听课水平综合评估方法 Active CN110009210B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910234820.XA CN110009210B (zh) 2019-03-26 2019-03-26 一种基于关注度和专注度的学生听课水平综合评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910234820.XA CN110009210B (zh) 2019-03-26 2019-03-26 一种基于关注度和专注度的学生听课水平综合评估方法

Publications (2)

Publication Number Publication Date
CN110009210A CN110009210A (zh) 2019-07-12
CN110009210B true CN110009210B (zh) 2023-05-26

Family

ID=67168278

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910234820.XA Active CN110009210B (zh) 2019-03-26 2019-03-26 一种基于关注度和专注度的学生听课水平综合评估方法

Country Status (1)

Country Link
CN (1) CN110009210B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291840A (zh) * 2020-05-12 2020-06-16 成都派沃智通科技有限公司 一种学生课堂行为识别系统、方法、介质及终端设备
CN111898881B (zh) * 2020-07-15 2024-03-01 杭州海康威视系统技术有限公司 一种课堂教学质量评估方法、装置、设备及存储介质
CN111914694A (zh) * 2020-07-16 2020-11-10 哈尔滨工程大学 一种基于人脸识别听课质量检测方法
CN113221612A (zh) * 2020-11-30 2021-08-06 南京工程学院 一种基于物联网的视觉智能行人监控系统和方法
CN113256129A (zh) * 2021-06-01 2021-08-13 南京奥派信息产业股份公司 一种专注度分析方法、系统及计算机可读存储介质
WO2023031892A1 (en) * 2021-09-05 2023-03-09 Indu Ranjan Predicting risks or requirements related to student's learing
CN114366103B (zh) * 2022-01-07 2023-07-14 北京师范大学 注意力评估方法、装置及电子设备
CN116757524B (zh) * 2023-05-08 2024-02-06 广东保伦电子股份有限公司 一种教师授课质量评价方法和装置
CN116596719B (zh) * 2023-07-18 2023-09-19 江西科技学院 一种机房计算机教学质量管理系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318372A (ja) * 2004-04-30 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> 注目度推定方法、注目度推定装置および注目度推定プログラム
CN104835356A (zh) * 2015-05-31 2015-08-12 深圳市采集科技有限公司 一种学生听讲专注度的测量方法及系统
CN107169900A (zh) * 2017-05-19 2017-09-15 南京信息工程大学 一种学生听课率检测方法
CN107918755A (zh) * 2017-03-29 2018-04-17 广州思涵信息科技有限公司 一种基于人脸识别技术的实时专注度分析方法及系统
CN108021893A (zh) * 2017-12-07 2018-05-11 浙江工商大学 一种用于判断学生上课专注度的算法
CN109492594A (zh) * 2018-11-16 2019-03-19 西安电子科技大学 基于深度学习网络的课堂听课者抬头率检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318372A (ja) * 2004-04-30 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> 注目度推定方法、注目度推定装置および注目度推定プログラム
CN104835356A (zh) * 2015-05-31 2015-08-12 深圳市采集科技有限公司 一种学生听讲专注度的测量方法及系统
CN107918755A (zh) * 2017-03-29 2018-04-17 广州思涵信息科技有限公司 一种基于人脸识别技术的实时专注度分析方法及系统
CN107169900A (zh) * 2017-05-19 2017-09-15 南京信息工程大学 一种学生听课率检测方法
CN108021893A (zh) * 2017-12-07 2018-05-11 浙江工商大学 一种用于判断学生上课专注度的算法
CN109492594A (zh) * 2018-11-16 2019-03-19 西安电子科技大学 基于深度学习网络的课堂听课者抬头率检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
素质教育背景下大学生课堂"抬头率"研究――以"博物馆学概论"课程为例;彭志军;《南昌师范学院学报》;20180215;第39卷(第01期);全文 *

Also Published As

Publication number Publication date
CN110009210A (zh) 2019-07-12

Similar Documents

Publication Publication Date Title
CN110009210B (zh) 一种基于关注度和专注度的学生听课水平综合评估方法
CN110334610B (zh) 一种基于计算机视觉的多维度课堂量化系统及方法
CN109034036B (zh) 一种视频分析方法、教学质量评估方法及系统、计算机可读存储介质
CN108648757B (zh) 一种基于多维度课堂信息的分析方法
WO2019028592A1 (zh) 一种教学辅助方法及采用该方法的教学辅助系统
CN108009754A (zh) 教学质量评估方法
CN108171414A (zh) 教学质量评估系统
CN114038256B (zh) 一种基于人工智能的教学互动系统
CN110135380B (zh) 一种基于人脸检测的课堂专注度识别的方法
CN111898881B (zh) 一种课堂教学质量评估方法、装置、设备及存储介质
CN108182649A (zh) 用于教学质量评估的智能机器人
CN110363378A (zh) 基于学生综合素质的测评系统
CN111523444A (zh) 基于改进的Openpose模型和面部微表情的课堂行为检测的方法
CN111259844B (zh) 标准化考场考生实时监控方法
CN112668476A (zh) 一种数据处理方法、装置、电子设备及存储介质
CN110363377A (zh) 一种学生综合素质评价系统
CN115810163B (zh) 一种基于ai课堂行为识别的教学评估方法和系统
Chen et al. Intelligent teaching evaluation system integrating facial expression and behavior recognition in teaching video
CN111145059A (zh) 一种学生学习态度评估方法与系统
CN111369140A (zh) 一种教学评价系统及方法
CN115829234A (zh) 基于课堂检测的自动化督导系统及其工作方法
CN115240514A (zh) 一种教学管理用多媒体教学装置及教学方法
Jiang Analysis of Students’ Role Perceptions and their Tendencies in Classroom Education Based on Visual Inspection
CN113076835B (zh) 基于回归分析的教学评价方法及系统
CN112686128B (zh) 基于机器学习的教室课桌检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant