CN117079338B - 基于人工智能的教学质量监测方法及系统 - Google Patents

基于人工智能的教学质量监测方法及系统 Download PDF

Info

Publication number
CN117079338B
CN117079338B CN202311339402.XA CN202311339402A CN117079338B CN 117079338 B CN117079338 B CN 117079338B CN 202311339402 A CN202311339402 A CN 202311339402A CN 117079338 B CN117079338 B CN 117079338B
Authority
CN
China
Prior art keywords
student
teacher
students
class
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311339402.XA
Other languages
English (en)
Other versions
CN117079338A (zh
Inventor
韩国星
靳文佳
刘保明
殷乃朋
张雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Huitong Technology Co ltd
Original Assignee
Shandong Huitong Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Huitong Technology Co ltd filed Critical Shandong Huitong Technology Co ltd
Priority to CN202311339402.XA priority Critical patent/CN117079338B/zh
Publication of CN117079338A publication Critical patent/CN117079338A/zh
Application granted granted Critical
Publication of CN117079338B publication Critical patent/CN117079338B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06395Quality analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Educational Administration (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Educational Technology (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Primary Health Care (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明属于人工智能技术领域,具体为一种基于人工智能的教学质量监测方法及系统。其中的方法包括:采集课堂图像数据和课堂音频数据;依据采集的课堂图像数据获取学生的表情变化信息、身体姿态信息、举手信息以及教师的板书信息;依据采集的课堂音频数据获取教师的说话声音信息以及教师说话时的噪音信息;计算学生听课状态值;计算学生上课参与程度值;计算教师的讲课内容冗余度以及教师的语言表达质量分;依据教师的板书信息获取板书工整度;基于获取的学生听课状态值、学生上课参与程度值、讲课内容冗余度、语言表达质量分以及板书工整度计算教师的课堂质量评分。采用本发明的方法可以大大提高教学质量评估结果的准确性。

Description

基于人工智能的教学质量监测方法及系统
技术领域
本发明属于人工智能技术领域,具体为一种基于人工智能的教学质量监测方法及系统。
背景技术
目前,课堂教学是教育教学最有效的方式,而课堂教学评价是促进学生成长、教师专业发展和提高课堂教学质量的一种重要手段。所以,如何科学准确地对教师的课堂教学质量进行评价,也成为课堂教学的一个重要组成部分。
现有常见的课堂质量评估方式主要有两种:第一种是课后由学生对教师的课堂质量进行评价,这种方式虽然能够体现学生的听课感受,但是通常会掺杂学生个人对教师本人喜恶的主观感情,喜欢的老师评分较高,不喜欢的老师评分较低,导致评价不够客观;第二种是通过获取课堂教学的视频信息和音频信息,由机器对教师的课堂质量进行量化评分。但是现有技术中利用机器对教师的课堂质量进行量化评分时由于仅考虑了学生的听课状态、参与度以及讲课内容冗余度这三个方面,考虑的因素不够全面导致评估结果不够准确,不能完全反应实际的课堂质量。
发明内容
为解决上述一个或多个技术问题,本发明提出在对教师的教学质量进行评估时不仅考虑学生的听课状态、参与度以及讲课内容冗余度,而且结合教师讲课时的语言表达以及板书工整度,从而更全面更准确地对教师的教学质量进行评估。为此,本发明在如下的多个方面中提供方案。
在第一方面中,本发明提供了一种基于人工智能的教学质量监测方法,包括以下步骤:
采集课堂图像数据和课堂音频数据;
依据采集的课堂图像数据获取学生的表情变化信息、身体姿态信息、举手信息以及教师的板书信息;依据采集的课堂音频数据获取教师的说话声音信息以及教师说话时的噪音信息;
依据学生的表情变化信息和身体姿态信息计算学生听课状态值A;A的计算表达式如下:
式中,为第i个学生的背部曲线斜率,n为课堂上的学生总人数,/>为评估时间间隔内第i个学生抬头的次数,/>为第i个学生每次抬头持续的时长,/>为评估时间间隔内第i个学生低头的次数,/>为第i个学生每次低头持续的时长,/>为评估时间间隔内学生表情变化频率的均值;
依据学生的举手信息以及教师说话时的噪音信息计算学生上课参与程度值B;
依据教师的说话声音信息计算教师的讲课内容冗余度C以及教师的语言表达质量分D;
依据教师的板书信息获取板书工整度F;
基于获取的学生听课状态值、学生上课参与程度值、讲课内容冗余度、语言表达质量分以及板书工整度计算教师的课堂质量评分Q并输出结果,从而实现对教师的教学质量的监测。
在另一个实施例中,所述课堂质量评分Q的计算表达式如下:
式中,A、B、C、D、F分别表示学生听课状态值、学生上课参与程度值、讲课内容冗余度、语言表达质量分和板书工整度,、/>、/>、/>和/>分别为A、B、C、D、F对应的权重值,且/>、/>、/>、/>与/>均大于0且五者之和为1。
在另一个实施例中,所述的学生上课参与程度值B的计算表达式如下:
式中,表示在评估时间间隔内第i个学生举手的频率,/>表示举手的学生总人数,m表示教室内学生总个数,/>表示噪音种类数。
在另一个实施例中,所述的教师的语言表达质量分D的计算表达式如下:
式中,T为评估时间间隔对应的时长,G表示教师说话的声音响度与响度标准值之差,H表示响度变化率与响度变化率标准值之差,I表示语速和语速标准值之差,P表示语速变化率和语速变化率标准值之差,表示在评估时间间隔内的留白时间。
在另一个实施例中,所述学生表情变化频率的均值的计算方法包括以下步骤:
将教室按照空间位置均匀划分为若干个区域;
分别从每个区域筛选出在评估时间间隔内一直抬头的学生以及有低头动作或抬头动作的学生;
分别从各个区域的一直抬头的学生中选取若干个学生,从各个区域的有低头动作或抬头动作的学生中选取若干个学生;
分别计算在评估间隔时间内选取的每个学生的表情变化率,进而计算学生表情变化频率的均值。
在另一个实施例中,所述的板书工整度F的计算表达式如下:
其中,为文字识别模型能够准确识别出的字的个数,/>为教师板书的字的总个数。
在第二方面中,本发明提供了一种基于人工智能的教学质量监测系统,包括处理器和存储器,所述存储器内存储有计算机程序,所述计算机程序被处理器执行时实现本发明的基于人工智能的教学质量监测方法。
本发明的技术效果为:本发明的基于人工智能的教学质量监测方法在对教学质量进行评估时,不仅考虑了学生听课状态、学生上课参与程度和教师的讲课内容冗余度,而且结合了教师的语言表达质量和板书工整度,从多个维度进行评价,从而使得教学质量评估结果更准确。此外,学生在上课时,即使一直处于抬头状态,若面部表情一直不变或者眼神呆滞,也可能是处于跑神状态,不一定是在认真听讲,当学生在认真听课时,面部表情是会变化的。本发明的方法在计算学生听课状态值时不仅考虑了学生低头的次数和时长、抬头的次数和时长,背部曲率,而且考虑到了学生的面部表情变化率,从而使得学生听课状态评估结果更准确,进一步提高了教师教学质量评估结果的精度。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,其中:
图1示意性地示出了本发明的实施例的基于人工智能的教学质量监测方法流程图;
图2示意性地示出了本发明的实施例的学生表情变化频率的均值的计算方法流程图;
图3示意性地示出了本发明的实施例的教室区域划分示意图;
图4示意性地示出了本发明的实施例的噪音种类数的识别方法流程图;
图5示意性地示出了本发明的实施例的基于人工智能的教学质量监测系统结构示意图。
具体实施方式
下面将参考若干示例性实施方式来描述本发明的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本发明,而并非以任何方式限制本发明的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
基于人工智能的教学质量监测方法实施例:
如图1所示,本发明的基于人工智能的教学质量监测方法包括以下步骤:
S101、采集课堂图像数据和课堂音频数据。
课堂图像数据可通过摄像头采集,课堂音频数据可通过麦克风进行采集。可在教室四角位置分别布设一个摄像头,以便无死角地对教师和教室内所有学生采集视频信息,同时摄像头的安装位置需保证每个学生的面部图像均能够被采集到。需在教室讲台处、教室后方和两侧均匀布设多个麦克风,以采集整个教室的音频数据。
S102、依据采集的课堂图像数据获取学生的表情变化信息、身体姿态信息、举手信息以及教师的板书信息;依据采集的课堂音频数据获取教师的说话声音信息以及教师说话时的噪音信息。
可通过对采集的课堂图像数据进行特征提取从而获取学生的表情变化信息、学生的身体姿态信息、学生的举手信息、以及教师的板书信息。
S103、依据学生的表情变化信息和身体姿态信息计算学生听课状态值A。
所述学生的表情变化信息为在评估时间间隔内学生的表情变化频率均值。在计算学生的表情变化率均值的方法有两种,第一种是分别计算出课堂内每个学生的表情变化率,然后将所有学生的表情变化率的和除以学生总人数即得学生的表情变化率均值。第二种方法是挑选一些有代表性的学生计算其表情变化率进而得到表情变化率均值,例如可以依据学生离讲台的距离,从不同的距离中挑选出若干个学生作为有代表性的学生。优选地,本发明采用第二种方法计算学生的表情变化率均值。第二种方法可以减小计算量和设备的功耗,提高教学质量评估的效率。一般情况下坐在前排的学生听课最认真,中间排的学生听课较认真,坐在后排的学生听课认真度最低,很有可能在睡觉或者玩手机。因此可以依据离讲台距离由远到近依次挑选若干个学生作为代表来计算表情变化率均值,从而使得获取的表情变化率均值更接近实际值,进而使得计算出的学生听课状态值更加准确。
学生的表情变化率依据评估间隔时间内学生表情的变化次数进行计算,变化次数与评估间隔时间的商即为表情变化率。可利用神经网络依据采集的课堂图像数据对学生的面部表情进行识别,表情变化次数初始值为0,若某次识别到的面部表情与上次识别到的面部表情不同,说明面部表情有变化,则将表情变化次数加一。
学生的表情可大体分为开心、惊奇、困惑和厌恶共四种表情,识别学生的面部表情的具体方法是将采集的课堂图像数据分为一帧一帧的图像输入至训练好的表情识别神经网络模型,利用神经网络自动输出表情识别结果。表情识别神经网络模型的训练方法是:从网上搜集开心、惊奇、困惑和厌恶四种表情对应的图片作为数据集,并将数据集划分为训练集和测试集;对神经网络模型的输出进行标签分类,分为开心、惊奇、困惑和厌恶五种标签,然后利用训练集进行训练,训练完成后利用测试集测试模型的准确度和泛化能力,若不符合要求则重新进行训练。
所述的身体姿态信息包括在评估时间间隔内学生的抬头次数、低头或扭头次数、每次抬头的持续时长、每次低头或扭头的持续时长以及背部曲线曲率。学生听课状态值可依据身体姿态信息中的部分参数进行计算,也可依据身体姿态信息的全部参数进行计算。优选地,本实施例中学生听课状态值A依据身体姿态信息的全部参数进行计算,其表达式如下:
(1)
式中,为第i个学生的背部曲线斜率,n为课堂上的学生总人数,/>为评估时间间隔内第i个学生抬头的次数,/>为第i个学生每次抬头持续的时长,/>为评估时间间隔内第i个学生低头或扭头的次数,/>为第i个学生每次低头或扭头持续的时长,/>为评估时间间隔内学生表情变化频率的均值。
例如,假设教学质量评估时间间隔为5分钟,教室内共有6个学生,分别为学生a、学生b,学生c、学生d、学生e和学生f。其中,学生a的背部曲率等于0、学生b的背部曲率/>等于0.1,学生c的背部曲率/>等于0.05、学生d的背部曲率/>等于0.05、学生e的背部曲率/>等于0.2,学生f的背部曲率为/>等于0.8。学生a抬头一次,即/>等于1,每次抬头持续的时长为4分钟,即/>等于4,扭头或低头1次,即/>等于1,每次低头或扭头持续时长为1分钟,即/>等于1;学生b抬头一次,即/>等于1,低头或扭头0次,即/>等于0,抬头持续的时长为5分钟,即/>等于4;学生c抬头0次,即/>等于0,低头或扭头一次,即/>等于1,低头或扭头持续的时长为5分钟,即/>等于5;学生d抬头两次,即/>等于2,低头或扭头一次,即等于1,每次抬头持续的时长为2分钟,即/>等于2,每次低头或扭头持续的时长为1分钟,即/>等于1;学生e抬头两次,即/>等于2,低头或扭头三次,即/>等于3,每次抬头持续的时长为1分钟,即/>等于1,每次低头或扭头持续的时长为1分钟,即/>等于1;学生f抬头一次,即/>等于1,低头或扭头四次,即/>等于4,每次抬头持续的时长为1分钟,即/>等于1,每次低头或扭头持续的时长为1分钟,即/>等于1。假设六个学生中学生a、学生b,学生c为挑选出计算表情变化率均值的有代表性的学生,在教学质量评估时间间隔内,学生a表情变化了一次,学生b表情变化了两次,学生c表情变化了三次;则学生a的表情变化率等于1/5,学生b的表情变化率等于2/5,学生c的表情变化率等于3/5,表情变化率均值/>为2/5。将以上参数代入公式1)即可计算出学生听课状态值A。
S104、依据学生的举手信息以及教师说话时的噪音信息计算学生上课参与程度值。
学生的举手信息包括:举手的次数、频率等。噪音信息包括:噪音的振幅、频率、频谱和种类等。
众所周知,学生的举手信息可以正向地反映学生对课堂的兴趣;而噪音信息可以反向地反映学生对课堂的兴趣,即噪音越大或噪音种类越多则说明学生交头接耳的情况越多,课堂越嘈杂。
基于此,通过量化举手信息和噪音信息可以计算学生上课参与程度(即上述学生上课参与值)。
依据学生举手信息评估学生上课参与程度可以依据课堂中部分学生的举手信息进行评估也可以依据课堂中所有学生的举手信息进行评估。当依据课堂中部分学生的举手信息进行评估时可将教室内的课桌区域依据其空间位置均匀划分为若干个区域,从每个区域挑选若干个学生计算其举手频率,再求计算出的举手频率的均值。优选地,本实施例中依据所有学生的举手信息对学生上课参与程度进行评估。
S105、依据教师的说话声音信息计算教师的讲课内容冗余度以及教师的语言表达质量分。
教师讲课时的声音响度、响度变化率、语速、语速变化率以及留白时间,均会影响到学生的听课认真度和听课效果,因此结合这些因素可以对教师讲课时的教态进行准确的评估。
S106、依据教师的板书信息获取板书工整度。
板书信息包括字体大小、行距以及能够被文字识别模型准确识别的字的个数。若板书的字体潦草,很可能不会被准确识别出。若两行文字挨的很近或文字很小,不利于学生看清教师板书的内容。因此,字体的大小、行距以及能够被准确识别的字均能正向反应板书的工整度。
教师板书的字可以采用OCR文字识别模型进行识别。
S107、基于获取的学生听课状态值A、学生上课参与程度值B、讲课内容冗余度C、语言表达质量分D以及板书工整度F计算教师的课堂质量评分Q并输出结果,从而实现对教师的教学质量的监测。
本发明的基于人工智能的教学质量监测方法在对教学质量进行评估时,不仅考虑了学生听课状态、学生上课参与程度和教师的讲课内容冗余度,而且结合了教师的语言表达质量和板书工整度,从多个维度进行评价,从而使得教学质量评估结果更准确。此外,学生在上课时,即使一直处于抬头状态,若面部表情一直不变或者眼神呆滞,也可能是处于跑神状态,不一定是在认真听讲,当学生在认真听课时,面部表情是会变化的。本发明的方法在计算学生听课状态值时不仅考虑了学生低头的次数和时长、抬头的次数和时长,背部曲率,而且考虑到了学生的面部表情变化率,从而使得学生听课状态评估结果更准确,进一步提高了教师教学质量评估结果的精度。
由于采用人工智能机器自动评估教学质量是按照一定的周期对教学质量进行评估。本实施例中评估时间间隔是指本次评估开始时刻到下次评估开始时刻之间的时间段。
在一个实施例中,学生上课参与程度值B的计算表达式如下:
(2)
式中,表示在评估时间间隔内第i个学生举手的频率,/>表示举手的学生总人数,m表示教室内学生总个数,/>表示噪音种类数。
通常情况下,教室内的噪音包括电子设备声音和学生说话声音共两类噪音。在课堂中上课听讲越认真的学生,上课参与程度越高,其举手回答问题的频率就会越高,相反,听课不认真或跑神的学生,课程参与程度越低,其举手回答问题的频率就会越低。类似地,上课听讲认真的学生,其不会和附近学生交头接耳说话,也不会玩手机或者平板电脑等电子设备,相反,上课听讲不认真的学生,其很可能会在老师讲课时和同桌说话或者玩手机以及平板电脑等电子设备,因此会发出噪声。因此,依据学生举手频率、举手学生的总人数和教师说话时的噪音种类可准确评估学生上课参与程度。
在上述实施例中,利用举手频率和噪音种类计算学生上课参与程度值,其他实施例中,还可以利用举手次数、噪音振幅或者噪音频谱来计算学生上课参与程度值。
在一个实施例中,教师的语言表达质量分依据在评估时间间隔内教师说话的声音响度与响度标准值之差G、响度变化率与响度变化率标准值之差H、语速和语速标准值之差I以及语速变化率和语速变化率标准值之差P以及在评估时间间隔内的留白时间进行计算。教师的语言表达质量分分别与G、H、I和P成反比,与/>成正比。教师的语言表达质量分的计算表达式如下:
(3)
式中,T为评估时间间隔对应的时长,G表示教师说话的声音响度与响度标准值之差,H表示响度变化率与响度变化率标准值之差,I表示语速和语速标准值之差,P表示语速变化率和语速变化率标准值之差,表示在评估时间间隔内的留白时间。
在一个实施例中,所述依据教师的板书信息获取板书工整度的具体方法是:从课堂图像数据中筛选出板书图像,利用OCR文字识别模型自动对板书的每个字进行识别,依据能够准确识别的字的个数和教师板书的字的总个数/>计算板书工整度F,计算表达式如下:
(4)
在上述实施例中,利用文字识别模型能够准确识别的字的个数和板书的字的总个数计算工整度,在其它实施例中,也可以结合板书的行距,字的大小等进行识别。
在一个实施例中,课堂质量评分Q的计算表达式如下:
(5)
式中,A、B、C、D、F分别表示学生听课状态值、学生上课参与程度值、讲课内容冗余度、语言表达质量分和板书工整度,、/>、/>、/>和/>分别为A、B、C、D、F对应的权重值,且/>、/>、/>、/>与/>均大于0且五者之和为1。在本实施例中/>、/>、/>、/>和/>的值分别取0.4、0.3、0.2、0.05、0.05。在其它实施例中,/>、/>、/>、/>和/>也可以取其它合适的数值。
在上述实施例中,涉及两种计算表情变化的方法,下面是第二种方法具体的计算过程。
如图2和图3所示,学生表情变化频率的均值的计算方法为:
S201、将教室按照空间位置均匀划分为若干个区域。
优选地,本实施例中共划分六个区域,分别为A区域、B区域、C区域、D区域、E区域和F区域,其中A区域位于教室的左前区域,B区域位于教室的右前区域,E区域位于教室的左后区域,F区域位于教室的右后区域,C区域和D区域分别位于教室中部区域的左半区域和右半区域。
S202、分别从每个区域筛选出在评估时间间隔内一直抬头的学生以及有低头动作或抬头动作的学生。
S203、分别从各个区域的一直抬头的学生中选取若干个学生,从各个区域的有低头动作或抬头动作的学生中选取若干个学生。
从不同区域的一直抬头的学生中选取的数量可以相同也可以不同,选取的具体数量可以依据一直抬头的学生总数随机确定,随机确定出的数量小于该区域一直抬头的学生总数。选取的具体数量也可以按照比例进行选取,按照比例进行选取时,不同区域对应的比例可能不同也可能相同。
例如A区域有3个一直抬头的学生,B区域有5个一直抬头的学生,若选取的具体数量是随机确定的,则A区域的具体数量可以是1、2或者3,B区域的具体数量可以是1、2、3、4或者5。若选取的具体数量按照比例进行选取,则A区域选取的具体数量占该区域一直抬头的学生总数的比例可以为三分之一、三分之二或者一,B区域选取的具体数量占该区域一直抬头的学生总数的比例可以为五分之一、五分之二、五分之三、五分之四或者一。
从不同区域的有低头动作或抬头动作的学生中选取的学生数量可以相同也可以不同,选取的具体数量可以依据有低头动作或抬头动作的学生总数随机确定,也可以按照比例进行选取。按照比例进行选取时,不同区域对应的比例可能不同也可能相同。S204、分别计算在评估间隔时间内选取的每个学生的表情变化率,进而计算学生表情变化频率的均值。
本实施例的方法通过选取一些有代表性的学生对其表情变化频率进行计算,而不是对所有学生的表情变化频率进行计算,从而大大减小了运算量,提高了教学质量评估的效率。
上述实施例在计算学生上课参与程度值时涉及到了噪音种类数,下面是计算噪音种类数的具体方法。
如图4所示,噪音种类数的识别方法是:
S401、从获取的课堂音频数据中将能量值最高的声音信号滤除。
S402、依据过滤后的声音信号的频谱特征识别出各个频率的声音信号。
S403、分别判断识别的各个频率的声音的能量值是否大于对应的能量值阈值,若大于该阈值,则判定该频率的噪音存在。
S404、计算被判定为存在的噪音的总个数,从而获得噪音种类数。
通常情况下,教室内老师讲课的声音响度最高,因此将能量值最高的声音信号滤除后剩余的声音信号即为噪音信号。教室内学生交头接耳的声音和电子设备发出的声音频率不同,因此可依据声音频率的不同对学生说话声音和电子设备声音进行区分。当识别到的学生说话声音或者电子设备能量值很小时说明噪声响度很小,可认为整体的学生上课参与度较高,只有极个别噪声,此时可忽略不计这些噪音。
基于人工智能的教学质量监测系统实施例:
如图5所示,本发明还提供了一种基于人工智能的教学质量监测系统。所述系统包括用于采集课堂图像数据的图像采集设备、用于采集课堂音频数据的声音采集设备、通信总线、通信接口、显示器、处理器和存储器,所述存储器存储有计算机程序指令,当所述计算机程序指令被所述处理器执行时实现根据本发明第一方面所述的基于人工智能的教学质量监测方法。图像采集设备和声音采集设备分别通过通信总线和通信接口与处理器通信连接,以将采集的课堂图像数据和课堂音频数据上传至处理器,处理器通过通信总线与显示器连接,以对教学质量监测结果进行显示。
图像采集设备可采用摄像头或者照相机,声音采集设备可以采用麦克风。
在本发明中,前述的存储器可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,计算机可读存储介质可以是任何适当的磁存储介质或者磁光存储介质,比如,阻变式存储器RRAM(Resistive RandomAccess Memory)、动态随机存取存储器DRAM(Dynamic Random Access Memory)、静态随机存取存储器SRAM(Static Random-Access Memory)、增强动态随机存取存储器EDRAM(Enhanced Dynamic Random Access Memory)、高带宽内存HBM(High-Bandwidth Memory)、混合存储立方HMC(Hybrid Memory Cube)等等,或者可以用于存储所需信息并且可以由应用程序、模块或两者访问的任何其他介质。任何这样的计算机存储介质可以是设备的一部分或可访问或可连接到设备。本发明描述的任何应用或模块可以使用可以由这样的计算机可读介质存储或以其他方式保持的计算机可读/可执行指令来实现。
在本说明书的描述中,“多个”、“若干个”的含义是至少两个,例如两个,三个或更多个等,除非另有明确具体的限定。
虽然本说明书已经示出和描述了本发明的多个实施例,但对于本领域技术人员显而易见的是,这样的实施例只是以示例的方式提供的。本领域技术人员会在不偏离本发明思想和精神的情况下想到许多更改、改变和替代的方式。应当理解的是在实践本发明的过程中,可以采用对本文所描述的本发明实施例的各种替代方案。

Claims (4)

1.一种基于人工智能的教学质量监测方法,其特征在于,包括以下步骤:
采集课堂图像数据和课堂音频数据;
依据采集的课堂图像数据获取学生的表情变化信息、身体姿态信息、举手信息以及教师的板书信息;依据采集的课堂音频数据获取教师的说话声音信息以及教师说话时的噪音信息;
依据学生的表情变化信息和身体姿态信息计算学生听课状态值A;A的计算表达式如下:
式中,为第i个学生的背部曲线斜率,n为课堂上的学生总人数,/>为评估时间间隔内第i个学生抬头的次数,/>为第i个学生每次抬头持续的时长,/>为评估时间间隔内第i个学生低头的次数,/>为第i个学生每次低头持续的时长,/>为评估时间间隔内学生表情变化频率的均值;
依据学生的举手信息以及教师说话时的噪音信息计算学生上课参与程度值B;
依据教师的说话声音信息计算教师的讲课内容冗余度C以及教师的语言表达质量分D;
依据教师的板书信息获取板书工整度F;
基于获取的学生听课状态值、学生上课参与程度值、讲课内容冗余度、语言表达质量分以及板书工整度计算教师的课堂质量评分Q并输出结果,从而实现对教师的教学质量的监测;
所述学生上课参与程度值B的计算表达式如下:
式中,表示在评估时间间隔内第i个学生举手的频率,/>表示举手的学生总人数,m表示教室内学生总个数,/>表示噪音种类数;
所述教师的语言表达质量分D的计算表达式如下:
式中,T为评估时间间隔对应的时长,G表示教师说话的声音响度与响度标准值之差,H表示响度变化率与响度变化率标准值之差,I表示语速和语速标准值之差,P表示语速变化率和语速变化率标准值之差,表示在评估时间间隔内的留白时间;
所述板书工整度F的计算表达式如下:
其中,为文字识别模型能够准确识别出的字的个数,/>为教师板书的字的总个数。
2.如权利要求1所述的基于人工智能的教学质量监测方法,其特征在于,所述课堂质量评分Q的计算表达式如下:
式中,A、B、C、D、F分别表示学生听课状态值、学生上课参与程度值、讲课内容冗余度、语言表达质量分和板书工整度,、/>、/>、/>和/>分别为A、B、C、D、F对应的权重值,且/>、/>、/>、/>与/>均大于0且五者之和为1。
3.如权利要求1所述的基于人工智能的教学质量监测方法,其特征在于,所述学生表情变化频率的均值的计算方法包括以下步骤:
将教室按照空间位置均匀划分为若干个区域;
分别从每个区域筛选出在评估时间间隔内一直抬头的学生以及有低头动作或抬头动作的学生;
分别从各个区域的一直抬头的学生中选取若干个学生,从各个区域的有低头动作或抬头动作的学生中选取若干个学生;
分别计算在评估间隔时间内选取的每个学生的表情变化率,进而计算学生表情变化频率的均值。
4.一种基于人工智能的教学质量监测系统,包括处理器和存储器,所述存储器内存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~3任意一项所述的基于人工智能的教学质量监测方法。
CN202311339402.XA 2023-10-17 2023-10-17 基于人工智能的教学质量监测方法及系统 Active CN117079338B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311339402.XA CN117079338B (zh) 2023-10-17 2023-10-17 基于人工智能的教学质量监测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311339402.XA CN117079338B (zh) 2023-10-17 2023-10-17 基于人工智能的教学质量监测方法及系统

Publications (2)

Publication Number Publication Date
CN117079338A CN117079338A (zh) 2023-11-17
CN117079338B true CN117079338B (zh) 2024-01-09

Family

ID=88717667

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311339402.XA Active CN117079338B (zh) 2023-10-17 2023-10-17 基于人工智能的教学质量监测方法及系统

Country Status (1)

Country Link
CN (1) CN117079338B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010130733A1 (en) * 2009-05-12 2010-11-18 International Business Machines Corporation Method and system for improving the quality of teaching through analysis using a virtual teaching device
WO2013039062A1 (ja) * 2011-09-15 2013-03-21 国立大学法人大阪教育大学 顔分析装置、顔分析方法、及び記録媒体
KR20160044315A (ko) * 2014-10-15 2016-04-25 한국과학기술연구원 학생 수업태도 분석 시스템 및 분석 방법
CN107958351A (zh) * 2017-12-26 2018-04-24 重庆大争科技有限公司 教学质量评估云服务平台
CN111476217A (zh) * 2020-05-27 2020-07-31 上海乂学教育科技有限公司 基于情绪识别的智能学习系统和方法
CN112908355A (zh) * 2021-01-18 2021-06-04 江苏师范大学 一种师范生教学技能量化评价系统及其方法
CN113689093A (zh) * 2021-08-09 2021-11-23 河南职业技术学院 基于人工智能的课堂质量评估方法及系统
KR20220136292A (ko) * 2021-03-31 2022-10-07 주식회사 대교 감성 분석 기술을 활용한 학습자 분석 및 케어 시스템
CN115759849A (zh) * 2022-11-23 2023-03-07 华中师范大学 一种针对差异化教学需求的课堂教学质量评价方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9666088B2 (en) * 2013-08-07 2017-05-30 Xerox Corporation Video-based teacher assistance
US10621685B2 (en) * 2017-04-03 2020-04-14 International Business Machines Corporation Cognitive education advisor

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010130733A1 (en) * 2009-05-12 2010-11-18 International Business Machines Corporation Method and system for improving the quality of teaching through analysis using a virtual teaching device
WO2013039062A1 (ja) * 2011-09-15 2013-03-21 国立大学法人大阪教育大学 顔分析装置、顔分析方法、及び記録媒体
KR20160044315A (ko) * 2014-10-15 2016-04-25 한국과학기술연구원 학생 수업태도 분석 시스템 및 분석 방법
CN107958351A (zh) * 2017-12-26 2018-04-24 重庆大争科技有限公司 教学质量评估云服务平台
CN111476217A (zh) * 2020-05-27 2020-07-31 上海乂学教育科技有限公司 基于情绪识别的智能学习系统和方法
CN112908355A (zh) * 2021-01-18 2021-06-04 江苏师范大学 一种师范生教学技能量化评价系统及其方法
KR20220136292A (ko) * 2021-03-31 2022-10-07 주식회사 대교 감성 분석 기술을 활용한 학습자 분석 및 케어 시스템
CN113689093A (zh) * 2021-08-09 2021-11-23 河南职业技术学院 基于人工智能的课堂质量评估方法及系统
CN115759849A (zh) * 2022-11-23 2023-03-07 华中师范大学 一种针对差异化教学需求的课堂教学质量评价方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Using Partial Differential Equation Face Recognition Model to Evaluate Students’ Attention in a College Chinese Classroom";Xia Miao等;《Advances in Mathematical Physics》;第2021卷;全文 *
情感学习中基于检测眨眼频率和贝叶斯网络的情感分类算法;陶小梅;牛秦洲;;计算机科学(第12期);全文 *
视像行为识别的大数据分析与教学决策研究;廖恩红;李伟林;蔡晓斌;;工程技术研究(第12期);全文 *

Also Published As

Publication number Publication date
CN117079338A (zh) 2023-11-17

Similar Documents

Publication Publication Date Title
CN109801525B (zh) 一种用于网络教学的师生多维匹配方法和系统
CN108281052A (zh) 一种在线教学系统及在线教学方法
CN105679122A (zh) 多功能大学英语教学管理系统
CN111898881B (zh) 一种课堂教学质量评估方法、装置、设备及存储介质
Ockert The influence of technology in the classroom: An analysis of an iPad and video intervention on JHS students' confidence, anxiety, and FL WTC.
Königschulte Sound as Affective Design Feature in Multimedia Learning--Benefits and Drawbacks from a Cognitive Load Theory Perspective.
CN115545982A (zh) 一种在线学生异质分组系统及方法
CN111369408A (zh) 一种医院本科实习生教学管理系统及方法
CN114021962A (zh) 教学评估方法、评估装置及其相关设备和存储介质
CN117079338B (zh) 基于人工智能的教学质量监测方法及系统
Quinlan et al. Transcending Convention and Space: Strategies for Fostering Active Learning in Large Post-Secondary Classes.
McLeod CHANGES IN THE VERBAL INTERACTION PATTERNS OF SECONDARY SCIENCE STUDENT TEACHERS WHO HAVE HAD TRAINING IN INTERACTION ANALYSIS AND THE RELATIONSHIP OF THESE CHANGES TO THE VERBAL INTERACTION OF THEIR COOPERATING TEACHERS. FINAL REPORT. SUMMARY REPORT.
CN114944089A (zh) 一种基于用户行为分析的远程教育培训系统及方法
Szyszka Pronunciation learning environment: EFL students’ cognitions of in-class and out-of-class factors affecting pronunciation acquisition
CN112116264A (zh) 一种活跃度评估方法及装置
Masrul et al. The Effect of Short Movie toward Students’ Speaking Skill
CN110853428A (zh) 基于物联网的录播控制方法及系统
CN111667128A (zh) 教学质量评估方法、装置及系统
CN109817039A (zh) 外语学习辅助装置
Lazo et al. Teaching English through vlogging and in-class presentation: A Preliminary comparative study
TWI731577B (zh) 學習狀態改善管理系統
CN213844759U (zh) 一种学生学习情况统计系统
Hai et al. Artificial Intelligence and Intelligent Information Systems Based Multi-Dimensional Classroom Computer Evaluation Model
CN117391897A (zh) 一种课堂学情的展示方法、系统及可读存储介质
What et al. 4. Describing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant