CN106778539A - 教学效果信息获取方法及装置 - Google Patents

教学效果信息获取方法及装置 Download PDF

Info

Publication number
CN106778539A
CN106778539A CN201611068542.8A CN201611068542A CN106778539A CN 106778539 A CN106778539 A CN 106778539A CN 201611068542 A CN201611068542 A CN 201611068542A CN 106778539 A CN106778539 A CN 106778539A
Authority
CN
China
Prior art keywords
expression
expression type
target
type
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201611068542.8A
Other languages
English (en)
Inventor
岳峻
杨照璐
张志旺
李振波
曲海平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ludong University
Original Assignee
Ludong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ludong University filed Critical Ludong University
Priority to CN201611068542.8A priority Critical patent/CN106778539A/zh
Publication of CN106778539A publication Critical patent/CN106778539A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Educational Technology (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种教学效果信息获取方法及装置,属于图像处理技术领域。方法包括:获取预设数量的目标图像;基于预设的表情分类,确定每张目标图像所对应的表情类型;统计每一表情类型对应的目标图像张数;根据每一表情类型对应的目标图像张数,确定教学效果信息。本发明通过基于预设的表情分类,确定每张目标图像所对应的表情类型。统计每一表情类型对应的目标图像张数,根据每一表情类型对应的目标图像张数,确定教学效果信息。由于无论是传统教学环境还是远程教学环境,均能够根据获取到的学生面部图像来自动获取教学效果信息,从而能够便利地掌握到所有学生的学习情况,并及时针对性地对每个学生教学方案进行调整,保证教学取得更佳效果。

Description

教学效果信息获取方法及装置
技术领域
本发明涉及图像处理技术领域,更具体地,涉及一种教学效果信息获取方法及装置。
背景技术
随着教学模式的发展,传统的“填鸭式”的教学模式让学生难以参与教学活动,上课兴趣比较低,使得学生出现了上课犯困、开小差的现象。另外,传统的教学模式不能对每个学生的教学记录进行保留,且很不方便老师、家长及学校实时了解学生学习状况。随着电化教学逐渐成为主流,如多媒体电化教室、远程多媒体教育等,教学过程逐渐变为一个多因素相互作用的、多变的动态过程。在信息技术环境下,教学过程更是呈现出了多变性和不确定性。特别是新课程标准的实施,教学理念和教学方法上都需要做出巨大的转变,即要充分体现以学生为本而不是以技术为本,从教学需求、学生的实际情况及出发,以满足学生发展需求为目的。在此基础上,只有实现信息技术与教学活动的有机结合,才能真正实现教师与学生之间的交流与互动。现有的教学效果信息获取方法主要是通过课堂提问及问答,即教师通过对一个学生进行提问,从而了解该学生的学习情况。
在实现本发明的过程中,发现现有技术至少存在以下问题:由于教师只能对个别学生进行提问,从而只能了解个别学生的学习情况,对其他大多数学生的学习情况以及全班的整体情况都不了解。因此,获取到的教学信息很少,无法及时掌握学生的学习情况。
发明内容
本发明提供一种克服上述问题或者至少部分地解决上述问题的方法及装置。
根据本发明的一方面,提供了一种教学效果信息获取方法,该方法包括:
获取预设数量的目标图像;
基于预设的表情分类,确定每张目标图像所对应的表情类型;
统计每一表情类型对应的目标图像张数;
根据每一表情类型对应的目标图像张数,确定教学效果信息。
根据本发明的另一方面,提供了一种教学效果信息获取装置,该装置包括:
获取模块,用于获取预设数量的目标图像;
第一确定模块,用于基于预设的表情分类,确定每张目标图像所对应的表情类型;
统计模块,用于统计每一表情类型对应的目标图像张数;
第二确定模块,用于根据每一表情类型对应的目标图像张数,确定教学效果信息。
本申请提出的技术方案带来的有益效果是:
通过获取预设数量的目标图像,基于预设的表情分类,确定每张目标图像所对应的表情类型。统计每一表情类型对应的目标图像张数,根据每一表情类型对应的目标图像张数,确定教学效果信息。由于无论是传统教学环境还是远程教学环境,均能够根据获取到的学生面部图像来自动获取教学效果信息,从而能够便利地掌握到所有学生的学习情况,并及时针对性地对每个学生教学方案进行调整,保证教学取得更佳效果。
附图说明
图1为本发明实施例的一种教学效果信息获取方法的流程示意图;
图2为本发明实施例的一种教学效果信息获取方法的流程示意图;
图3为本发明实施例的一种教学效果信息获取装置的结构示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
随着教学模式的发展,传统的“填鸭式”的教学模式让学生难以参与教学活动,上课兴趣比较低,使得学生出现了上课犯困、开小差的现象。另外,传统的教学模式不能对每个学生的教学记录进行保留,且很不方便老师、家长及学校实时了解学生学习状况。随着电化教学逐渐成为主流,如多媒体电化教室、远程多媒体教育等,教学过程逐渐变为一个多因素相互作用的、多变的动态过程。在信息技术环境下,教学过程更是呈现出了多变性和不确定性。特别是新课程标准的实施,教学理念和教学方法上都需要做出巨大的转变,即要充分体现以学生为本而不是以技术为本,从教学需求、学生的实际情况及出发,以满足学生发展需求为目的。在此基础上,只有实现信息技术与教学活动的有机结合,才能真正实现教师与学生之间的交流与互动。现有的教学效果信息获取方法主要是通过课堂提问及问答,即教师通过对一个学生进行提问,从而了解该学生的学习理解情况。由于教师只能对个别学生进行提问,从而只能了解个别学生的学习情况,对其他大多数学生的学习情况以及全班的整体情况都不了解。因此,获取到的教学信息很少,无法及时掌握学生的学习情况。
另外,统计数字表明远程教学的教学效果通常很差,辍学率很高。这主要因为学生学习时处在一个相对封闭的环境,容易产生孤独感,不能有效地投入学习。同时,教学方也无法实时获取教学效果信息,如坐在多媒体前学生的学习情况,从而不能做出相应的改善。
由此可见,不管是传统课堂教学还是远程教学,获取学生的教学效果信息是非常有必要的。针对上述问题,本实施例提供了一种教学效果信息获取方法。需要说明的是,本发明实施例可适用于配备了摄像头教学环境,包括但不限于配备摄像头的传统教学课堂及远程教学课堂。具体实施时,可在每个学生面前设置一个摄像头,或者远程教学课堂自行开启终端摄像头,以用于采集面部图像,本实施例对此不作具体限定。参见图1,该教学效果信息获取方法流程包括:101、获取预设数量的目标图像;102、基于预设的表情分类,确定每张目标图像所对应的表情类型;103、统计每一表情类型对应的目标图像张数;104、根据每一表情类型对应的目标图像张数,确定教学效果信息。其中,教学效果信息可包括学生的教学程度理解值,本实施例对此不作具体限定。
本发明实施例提供的方法,通过获取预设数量的目标图像,基于预设的表情分类,确定每张目标图像所对应的表情类型。统计每一表情类型对应的目标图像张数,根据每一表情类型对应的目标图像张数,确定教学效果信息。由于无论是传统教学环境还是远程教学环境,均能够根据获取到的学生面部图像来自动获取教学效果信息,从而能够便利地掌握到所有学生的学习情况,并及时针对性地对每个学生教学方案进行调整,保证教学取得更佳效果。
作为一种可选实施例,基于预设的表情分类,确定每张目标图像所对应的表情类型,包括:
对于任一目标图像,按照第一预设算法计算任一目标图像的目标特征向量;
计算目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离;
根据每一目标欧式距离,确定任一目标图像对应的表情类型。
作为一种可选实施例,计算目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离之前,还包括:
对于任一表情类型对应的训练样本,从训练样本中随机选取一张图像的特征向量作为初始聚类中心对象;
按照第二预设算法对初始聚类中心对象进行迭代更新,得到任一表情类型对应的聚类中心对象。
作为一种可选实施例,根据每一目标欧式距离,确定任一目标图像对应的表情类型,包括:
基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对;
当存在目标欧式距离落入对应的度量范围内时,将满足条件的度量范围对应的表情类型作为任一目标图像对应的表情类型。
作为一种可选实施例,基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对之前,还包括:
对于任一表情类型对应的训练样本及聚类中心对象,计算训练样本中每张图像的特征向量与聚类中心对象之间的欧式距离;
从所有欧式距离中选取最小欧式距离与最大欧式距离,将两者界定的范围作为任一表情类型对应的度量范围。
作为一种可选实施例,根据每一表情类型对应的目标图像张数,确定教学效果信息,包括:
获取每一表情类型对应的影响因子;
根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值及目标表情分值;
根据总表情分值与目标表情分值,计算教学理解程度值。
作为一种可选实施例,根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值,包括:
将每一表情类型对应的影响因子与每一表情类型对应的目标图像张数相乘,得到相应的乘积;
将所有的乘积进行叠加得到总表情分值。
作为一种可选实施例,根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算目标表情分值,包括:
从所有的表情类型中选取目标表情类型;
将每一目标表情类型对应的影响因子与每一目标表情类型对应的目标图像张数相乘,得到相应的目标乘积;
将所有的目标乘积进行叠加得到目标表情分值。
作为一种可选实施例,根据总表情分值与目标表情分值,计算教学理解程度值,包括:
计算目标表情分值与总表情分值之间的比值,将比值作为教学理解程度值。
上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
基于上述图1对应的实施例所提供的内容,本发明实施例提供了一种教学效果信息获取方法。参见图2,本实施例提供的方法流程包括:201、获取预设数量的目标图像;202、基于预设的表情分类,确定每张目标图像所对应的表情类型;203、统计每一表情类型对应的目标图像张数;204、获取每一表情类型对应的影响因子;205、根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值及目标表情分值;206、根据总表情分值与目标表情分值,计算教学理解程度值。
其中,201、获取预设数量的目标图像。
在获取预设数量的目标图像时,可预先让摄像头对准学生面部,从而摄像头可采集预设时间段内的目标图像,本实施例对此不作具体限定。其中,预设时间段及摄像头采集图像的频率可根据实际需求进行设置。相应地,预设数量可以由预设时间段长度与采集频率确定,本实施例对此不作具体限定。需要说明的是,当预设时间段很长或采集频率较低时,可能不便于实时获知学生的学习情况。因此,预设时间段可以设置的短一些,采集频率可以设置的高一些,以便于实时掌握到学生的学习状态。
其中,202、基于预设的表情分类,确定每张目标图像所对应的表情类型。
在执行本步骤之前,根据实际环境中学生的课堂表情,可将表情分为如下几种,包括但不限于微笑、好奇、厌烦、沮丧、分身、专注及困惑。需要说明的是,表情种类分的越细致,后续获取到的教学效果信息也就更加真实。相应地,计算量也就越大且耗费时间也长,具体实施时可将表情种类与时间消耗进行斟酌权衡,选取适量的表情种类,本实施例对此不作具体限定。
本实施例不对基于预设的表情分类,确定每张目标图像所对应的表情类型的方式作具体限定,包括但不限于:对于任一目标图像,按照第一预设算法计算任一目标图像的目标特征向量;计算目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离;根据每一目标欧式距离,确定任一目标图像对应的表情类型。
其中,第一预设算法可以为SIFT算法,本实施例对此不作具体限定。另外,还可以基于卷积神经网络VGG深度学习模型,使用SIFT算法来计算目标特征向量,本实施例对此也不作具体限定。在通过第一预设算法计算得到目标特征向量之后,为了去除光照变化等干扰因素的影响,还可以对目标特征向量进行归一化,本实施例对此不作具体限定。
对于任一表情类型,聚类中心对象为该表情类型对应的训练样本中所有图像的聚类均值,其形式也为特征向量,本实施例对此不作具体限定。相应地,在计算目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离,还可以计算每一表情类型对应的聚类中心对象,本实施例对此不作具体限定。
关于计算每一表情类型对应的聚类中心对象的方式,本实施例对此不作具体限定,包括但不限于:对于任一表情类型对应的训练样本,从训练样本中随机选取一张图像的特征向量作为初始聚类中心对象;按照第二预设算法对初始聚类中心对象进行迭代更新,得到任一表情类型对应的聚类中心对象。
其中,在得到初始聚类中心对象时,同样可以采样上述过程中的第一预设算法来计算随机选取图像的特征向量,且还可以对特征向量进行归一化处理,本实施例对此不作具体限定。第二预设算法可以为K-Mean算法,本实施例对此不作具体限定。通过K-Mean算法对初始聚类中心对象进行迭代更新,可以得到该表情类型对应的训练样本中所有图像的聚类中心均值,即该表情类型对应得聚类中心对象。
本实施例不对根据每一目标欧式距离,确定任一目标图像对应的表情类型的方式作具体限定,包括但不限于:基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对;当存在目标欧式距离落入对应的度量范围内时,将满足条件的度量范围对应的表情类型作为任一目标图像对应的表情类型。
在基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对,可计算每一表情类型对应的度量范围,本实施例对此不作具体限定。其中,任一表情类型对应的度量范围主要用于界定一张图像中人物表情是否属于该表情类型。
本实施例不对计算每一表情类型对应的度量范围的方式作具体限定,包括但不限于:对于任一表情类型对应的训练样本及聚类中心对象,计算训练样本中每张图像的特征向量与聚类中心对象之间的欧式距离;从所有欧式距离中选取最小欧式距离与最大欧式距离,将两者界定的范围作为任一表情类型对应的度量范围。
由上述过程可知,每一表情类型对应的聚类中心对象是确定的,从而可对应计算每张图像的特征向量与聚类中心对象之间的欧式距离。对于任一表情类型,计算得到的欧式距离数量,取决于该表情类型下训练样本中图像的数量。在计算得到任一表情类型下的所有欧式距离后,可从中选取一个最大值及最小值,两者界定范围即为该表情类型对应的度量范围。
在得到每种表情类型的度量范围后,对于任一表情类型及任一目标图像,可将该目标图像与该表情类型对应的聚类中心对象之间的目标欧式距离,与该表情类型对应的度量范围进行比对。当目标欧式距离在度量范围内时,可确定该目标图像中人物面部表情属于该表情类型,从而便确定了该目标图像对应的表情类型。当目标欧式距离不在度量范围内,则可确定该目标图像中人物面部表情不属于该表情类型。此时,可将该目标图像在其它表情类型下所对应的目标欧式距离,并重复上述比对过程,直到找到该目标图像对应的表情类型。
重复上述对一张目标图像的处理过程,便可找到预设数量的目标图像中每张目标图像对应的表情类型。
其中,203、统计每一表情类型对应的目标图像张数。
通过上述步骤202,在得到每张目标图像对应的表情类型后,通过计数的方式可统计得到每一表情类型下的目标图像张数。
其中,204、获取每一表情类型对应的影响因子。
在本步骤中,影响因子的定义取决于教学效果信息的定义。当教学效果信息代表正向教学效果时,用于表明教学效果良好的正向表情类型所对应的影响因子可以取较大值,以表示该影响因子对正向教学效果的信息统计做出了较大的贡献。当教学效果信息代表负向教学效果时,用于表明教学效果较差的负面表情类型所对应的影响因子可以取较大值,以表示该影响因子对负向教学效果的信息统计做出了较大的贡献。
其中,正向教学效果信息可以为教学理解程度值,负向教学效果信息可以为教学受干扰程度值。当然,正向教学效果信息及负向教学效果信息还可以为其它内容,如正向教学效果信息还可以为学生专注时长、负向教学效果信息还可以为学生上课说话时长及次数等等,本实施例对此不作具体限定。
例如,以教学效果信息为学生课堂听讲的教学理解程度值为例。由于教学理解程度值代表正向教学效果,从而正向表情类型(如上课时的好奇表情、微笑表情及专注表情等)的影响因子相对于负面表情类型(如上课时的沮丧表情、分神表情及疲劳表情),显然对正向教学效果信息统计的贡献程度更大。相应地,正向表情类型的影响因子相对于负面表情类型,可设置更大的值。例如,好奇表情的影响因子可设置为0.8,微笑表情的影响因子可设置为0.6,专注表情的影响因子可设置为0.7等。相应地,沮丧表情的影响因子可设置为0.1,分神表情的影响因子可设置为0.2,疲劳表情的影响因子可设置为0.1等,本实施例对此不作具体限定。
相反地,教学效果信息还可以为学生的教学受干扰程度值。由于教学受干扰程度值代表负向教学效果,从而负面表情类型(如上课时的沮丧表情、分神表情及疲劳表情)的影响因子相对于正向表情类型(如上课时的好奇表情、微笑表情及专注表情等),显然对负向教学效果信息统计的贡献程度更大。相应地,负面表情类型的影响因子相对于正向表情类型,可设置更大的值。例如,沮丧表情的影响因子可设置为0.8,分神表情的影响因子可设置为0.6,疲劳表情的影响因子可设置为0.7等。相应地,好奇表情的影响因子可设置为0.2,微笑表情的影响因子可设置为0.2,专注表情的影响因子可设置为0.1等,本实施例对此不作具体限定。
本步骤及后续步骤主要是根据每一表情类型对应的目标图像张数,确定教学效果信息的过程。需要说明的是,本步骤及后续步骤以教学效果信息为正向教学效果信息,正向教学效果信息为教学理解程度值为例,对计算教学理解程度值的过程进行阐述。具体实施过程中,凡采用本实施例提供的思想来对教学效果进行评估获取的方式,都应当落入本发明的保护范围。
其中,205、根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值及目标表情分值。
本实施例不对根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值的方式作具体限定,包括但不限于:将每一表情类型对应的影响因子与每一表情类型对应的目标图像张数相乘,得到相应的乘积;将所有的乘积进行叠加得到总表情分值。上述计算过程可如下公式(1)所示:
在上述公式(1)中,M为总表情分值。ni表示第i种表情对应的图像张数,αi表示第i种表情类型对应的影响因子。n为表情类型的总数量。
本实施例不对根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值的方式作具体限定,包括但不限于:从所有的表情类型中选取目标表情类型;将每一目标表情类型对应的影响因子与每一目标表情类型对应的目标图像张数相乘,得到相应的目标乘积;将所有的目标乘积进行叠加得到目标表情分值。在选出目标表情类型后,参考如下公式(2),可计算得到正向表情类型对应的目标表情分值。
其中,m为目标表情类型的数量。
基于上述过程,由于本步骤及后续步骤计算的是正向教学效果信息,即教学理解程度值,从而在选取目标表情类型时,可选取上述步骤204的正向表情类型,本实施例对此不作具体限定。例如,可选取好奇、微笑及专注表情作为目标表情类型。
相反地,若本步骤及后续步骤计算的是负向教学效果信息,如教学受干扰程度值,则可选取上述步骤204的负面表情类型,本实施例对此不作具体限定。例如,可选取沮丧、分神及疲劳表情作为目标表情类型。相应地,参考上述公式(2)可计算得到负面表情类型对应的目标表情分值。
其中,206、根据总表情分值与目标表情分值,计算教学理解程度值。
本实施例不对根据总表情分值与目标表情分值,计算教学理解程度值的方式作具体限定,包括但不限于:计算目标表情分值与总表情分值之间的比值,将比值作为教学理解程度值。上述计算过程可参考如下公式(3):
其中,γ为正向表情类型对应的教学理解程度值。相反地,基于上述步骤205中的内容,γ还可以为负面表情类型对应的教学受干扰程度值,本实施例对此不作具体限定。
当γ为教学理解程度值时,当0<γ<0.5时,判断学生对课堂所讲内容的掌握情况不好;当0.5<γ<1时,判断学生对课堂所讲内容的掌握情况还可以,大部分都可以理解。
当γ为教学受干扰程度值时,当0<γ<0.5时,判断学生在课堂上受到的不利影响较小;当0.5<γ<1时,判断学生在课堂上受到的不利影响较大。
本发明实施例提供的方法,通过获取预设数量的目标图像,基于预设的表情分类,确定每张目标图像所对应的表情类型。统计每一表情类型对应的目标图像张数,根据每一表情类型对应的目标图像张数,确定教学效果信息。由于无论是传统教学环境还是远程教学环境,均能够根据获取到的学生面部图像来自动获取教学效果信息,从而能够便利地掌握到所有学生的学习情况,并及时针对性地对每个学生教学方案进行调整,保证教学取得更佳效果。
本发明实施例提供了一种教学效果信息获取装置,该装置用于执行上述图1或图2对应的实施例中所提供的教学效果信息获取方法。参见图3,该装置包括:
获取模块301,用于获取预设数量的目标图像;
第一确定模块302,用于基于预设的表情分类,确定每张目标图像所对应的表情类型;
统计模块303,用于统计每一表情类型对应的目标图像张数;
第二确定模块304,用于根据每一表情类型对应的目标图像张数,确定教学效果信息。
作为一种可选实施例,第一确定模块302,包括:
第一计算单元,用于对于任一目标图像,按照第一预设算法计算任一目标图像的目标特征向量;
第二计算单元,用于计算目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离;
确定单元,用于根据每一目标欧式距离,确定任一目标图像对应的表情类型。
作为一种可选实施例,第一确定模块302,还包括:
选取单元,用于对于任一表情类型对应的训练样本,从训练样本中随机选取一张图像的特征向量作为初始聚类中心对象;
更新单元,用于按照第二预设算法对初始聚类中心对象进行迭代更新,得到任一表情类型对应的聚类中心对象。
作为一种可选实施例,确定单元,包括:
比对子单元,用于基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对;
确定子单元,用于当存在目标欧式距离落入对应的度量范围内时,将满足条件的度量范围对应的表情类型作为任一目标图像对应的表情类型。
作为一种可选实施例,确定单元,还包括:
计算子单元,用于对于任一表情类型对应的训练样本及聚类中心对象,计算训练样本中每张图像的特征向量与聚类中心对象之间的欧式距离;
选取子单元,用于从所有欧式距离中选取最小欧式距离与最大欧式距离,将两者界定的范围作为任一表情类型对应的度量范围。
作为一种可选实施例,第二确定模块304,包括:
获取单元,用于获取每一表情类型对应的影响因子;
第一计算单元,用于根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值及目标表情分值;
第二计算单元,用于根据总表情分值与目标表情分值,计算教学理解程度值。
作为一种可选实施例,第一计算单元,用于将每一表情类型对应的影响因子与每一表情类型对应的目标图像张数相乘,得到相应的乘积;将所有的乘积进行叠加得到总表情分值。
作为一种可选实施例,第一计算单元,用于从所有的表情类型中选取目标表情类型;将每一目标表情类型对应的影响因子与每一目标表情类型对应的目标图像张数相乘,得到相应的目标乘积;将所有的目标乘积进行叠加得到目标表情分值。
作为一种可选实施例,第二计算单元,用于计算目标表情分值与总表情分值之间的比值,将比值作为教学理解程度值。
本发明实施例提供的装置,通过获取预设数量的目标图像,基于预设的表情分类,确定每张目标图像所对应的表情类型。统计每一表情类型对应的目标图像张数,根据每一表情类型对应的目标图像张数,确定教学效果信息。由于无论是传统教学环境还是远程教学环境,均能够根据获取到的学生面部图像来自动获取教学效果信息,从而能够便利地掌握到所有学生的学习情况,并及时针对性地对每个学生教学方案进行调整,保证教学取得更佳效果。
最后,本申请的方法仅为较佳的实施方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种教学效果信息获取方法,其特征在于,所述方法包括:
获取预设数量的目标图像;
基于预设的表情分类,确定每张目标图像所对应的表情类型;
统计每一表情类型对应的目标图像张数;
根据每一表情类型对应的目标图像张数,确定教学效果信息。
2.根据权利要求1所述的方法,其特征在于,所述基于预设的表情分类,确定每张目标图像所对应的表情类型,包括:
对于任一目标图像,按照第一预设算法计算所述任一目标图像的目标特征向量;
计算所述目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离;
根据每一目标欧式距离,确定所述任一目标图像对应的表情类型。
3.根据权利要求2所述的方法,其特征在于,所述计算所述目标特征向量与每一表情类型对应的聚类中心对象之间的目标欧式距离之前,还包括:
对于任一表情类型对应的训练样本,从所述训练样本中随机选取一张图像的特征向量作为初始聚类中心对象;
按照第二预设算法对所述初始聚类中心对象进行迭代更新,得到所述任一表情类型对应的聚类中心对象。
4.根据权利要求2所述的方法,其特征在于,所述根据每一目标欧式距离,确定所述任一目标图像对应的表情类型,包括:
基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对;
当存在目标欧式距离落入对应的度量范围内时,将满足条件的度量范围对应的表情类型作为所述任一目标图像对应的表情类型。
5.根据权利要求3或4所述的方法,其特征在于,所述基于每一表情类型对应的度量范围,将每一目标欧式距离与对应的度量范围进行比对之前,还包括:
对于任一表情类型对应的训练样本及聚类中心对象,计算所述训练样本中每张图像的特征向量与所述聚类中心对象之间的欧式距离;
从所有欧式距离中选取最小欧式距离与最大欧式距离,将两者界定的范围作为所述任一表情类型对应的度量范围。
6.根据权利要求1所述的方法,其特征在于,所述根据每一表情类型对应的目标图像张数,确定教学效果信息,包括:
获取每一表情类型对应的影响因子;
根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值及目标表情分值;
根据所述总表情分值与所述目标表情分值,计算教学理解程度值。
7.根据权利要求1所述的方法,其特征在于,所述根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算总表情分值,包括:
将每一表情类型对应的影响因子与每一表情类型对应的目标图像张数相乘,得到相应的乘积;
将所有的乘积进行叠加得到总表情分值。
8.根据权利要求1所述的方法,其特征在于,所述根据每一表情类型对应的影响因子及每一表情类型对应的目标图像张数,计算目标表情分值,包括:
从所有的表情类型中选取目标表情类型;
将每一目标表情类型对应的影响因子与每一目标表情类型对应的目标图像张数相乘,得到相应的目标乘积;
将所有的目标乘积进行叠加得到目标表情分值。
9.根据权利要求6所述的方法,其特征在于,所述根据所述总表情分值与所述目标表情分值,计算教学理解程度值,包括:
计算所述目标表情分值与所述总表情分值之间的比值,将所述比值作为教学理解程度值。
10.一种教学效果信息获取装置,其特征在于,所述装置包括:
获取模块,用于获取预设数量的目标图像;
第一确定模块,用于基于预设的表情分类,确定每张目标图像所对应的表情类型;
统计模块,用于统计每一表情类型对应的目标图像张数;
第二确定模块,用于根据每一表情类型对应的目标图像张数,确定教学效果信息。
CN201611068542.8A 2016-11-25 2016-11-25 教学效果信息获取方法及装置 Pending CN106778539A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611068542.8A CN106778539A (zh) 2016-11-25 2016-11-25 教学效果信息获取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611068542.8A CN106778539A (zh) 2016-11-25 2016-11-25 教学效果信息获取方法及装置

Publications (1)

Publication Number Publication Date
CN106778539A true CN106778539A (zh) 2017-05-31

Family

ID=58904956

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611068542.8A Pending CN106778539A (zh) 2016-11-25 2016-11-25 教学效果信息获取方法及装置

Country Status (1)

Country Link
CN (1) CN106778539A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169902A (zh) * 2017-06-02 2017-09-15 武汉纺织大学 基于人工智能的微表情分析的课堂教学评价系统
CN108829842A (zh) * 2018-06-20 2018-11-16 华南师范大学 基于大数据与人工智能的学习表现画像方法和机器人系统
CN108875606A (zh) * 2018-06-01 2018-11-23 重庆大学 一种基于表情识别的课堂教学评价方法及系统
CN109165633A (zh) * 2018-09-21 2019-01-08 上海健坤教育科技有限公司 一种基于摄像头感知的智能交互式学习系统
WO2019028592A1 (zh) * 2017-08-07 2019-02-14 中国科学院深圳先进技术研究院 一种教学辅助方法及采用该方法的教学辅助系统
CN109614849A (zh) * 2018-10-25 2019-04-12 深圳壹账通智能科技有限公司 基于生物识别的远程教学方法、装置、设备及存储介质
CN109784312A (zh) * 2019-02-18 2019-05-21 深圳锐取信息技术股份有限公司 教学管理方法及装置
CN110135697A (zh) * 2019-04-15 2019-08-16 平安科技(深圳)有限公司 情感训练方法、装置、计算机设备和存储介质
CN111027584A (zh) * 2019-10-23 2020-04-17 宋飞 一种课堂行为识别方法及设备
CN111666829A (zh) * 2020-05-18 2020-09-15 首都经济贸易大学 多场景多主体身份行为情绪识别分析方法及智能监管系统
CN112733806A (zh) * 2021-02-18 2021-04-30 北京工商大学 基于表情识别的课堂中学生实时分类与遴选方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101755406A (zh) * 2007-03-08 2010-06-23 埃姆申塞公司 基于生理数据来评价媒体和媒体中的事件的方法和系统
CN103186774A (zh) * 2013-03-21 2013-07-03 北京工业大学 一种基于半监督学习的多姿态人脸表情识别方法
CN103530788A (zh) * 2012-07-02 2014-01-22 纬创资通股份有限公司 多媒体评价系统、多媒体评价装置以及多媒体评价方法
CN105354527A (zh) * 2014-08-20 2016-02-24 南京普爱射线影像设备有限公司 一种消极表情识别鼓励系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101755406A (zh) * 2007-03-08 2010-06-23 埃姆申塞公司 基于生理数据来评价媒体和媒体中的事件的方法和系统
CN103530788A (zh) * 2012-07-02 2014-01-22 纬创资通股份有限公司 多媒体评价系统、多媒体评价装置以及多媒体评价方法
CN103186774A (zh) * 2013-03-21 2013-07-03 北京工业大学 一种基于半监督学习的多姿态人脸表情识别方法
CN105354527A (zh) * 2014-08-20 2016-02-24 南京普爱射线影像设备有限公司 一种消极表情识别鼓励系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
魏刃佳: "基于情感识别的在线教学流程设计研究", 《中国优秀硕士学位论文全文数据库-信息科技辑》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169902A (zh) * 2017-06-02 2017-09-15 武汉纺织大学 基于人工智能的微表情分析的课堂教学评价系统
WO2019028592A1 (zh) * 2017-08-07 2019-02-14 中国科学院深圳先进技术研究院 一种教学辅助方法及采用该方法的教学辅助系统
US11270526B2 (en) 2017-08-07 2022-03-08 Shenzhen Institutes Of Advanced Technology Chinese Academy Of Sciences Teaching assistance method and teaching assistance system using said method
CN108875606A (zh) * 2018-06-01 2018-11-23 重庆大学 一种基于表情识别的课堂教学评价方法及系统
CN108829842A (zh) * 2018-06-20 2018-11-16 华南师范大学 基于大数据与人工智能的学习表现画像方法和机器人系统
CN109165633A (zh) * 2018-09-21 2019-01-08 上海健坤教育科技有限公司 一种基于摄像头感知的智能交互式学习系统
WO2020082566A1 (zh) * 2018-10-25 2020-04-30 深圳壹账通智能科技有限公司 基于生物识别的远程教学方法、装置、设备及存储介质
CN109614849A (zh) * 2018-10-25 2019-04-12 深圳壹账通智能科技有限公司 基于生物识别的远程教学方法、装置、设备及存储介质
CN109784312A (zh) * 2019-02-18 2019-05-21 深圳锐取信息技术股份有限公司 教学管理方法及装置
CN110135697A (zh) * 2019-04-15 2019-08-16 平安科技(深圳)有限公司 情感训练方法、装置、计算机设备和存储介质
CN111027584A (zh) * 2019-10-23 2020-04-17 宋飞 一种课堂行为识别方法及设备
CN111666829A (zh) * 2020-05-18 2020-09-15 首都经济贸易大学 多场景多主体身份行为情绪识别分析方法及智能监管系统
CN112733806A (zh) * 2021-02-18 2021-04-30 北京工商大学 基于表情识别的课堂中学生实时分类与遴选方法
CN112733806B (zh) * 2021-02-18 2023-07-28 北京工商大学 基于表情识别的课堂中学生实时分类与遴选方法

Similar Documents

Publication Publication Date Title
CN106778539A (zh) 教学效果信息获取方法及装置
CN106528656A (zh) 一种基于学员历史和实时学习状态参量实现课程推荐的方法和系统
CN109636689A (zh) 一种基于大数据的智能教育信息分析系统
CN110580470A (zh) 基于人脸识别的监测方法、装置、存储介质及计算机设备
KR20190066849A (ko) 빅데이터와 머신러닝 기반의 학생 맞춤형 인공지능 stem 교육 플랫폼
CN109840595A (zh) 一种基于群体学习行为特征的知识追踪方法
CN109064389A (zh) 一种手绘线条画生成现实感图像的深度学习方法
CN106203296A (zh) 一种属性辅助的视频动作识别方法
Ma et al. A deep learning approach for online learning emotion recognition
Tang Research on teaching quality evaluation method of network course based on intelligent learning
Ding et al. A new learner model in adaptive learning system
CN114187640A (zh) 一种基于线上课堂的学情观察方法、系统、设备及介质
CN116452071B (zh) 一种基于vr和5g技术的智慧教学质量评估系统
CN116631041A (zh) 一种基于表情识别的智慧教室交互方法及系统
CN116883208A (zh) 一种基于图像的课堂质量评估系统
Daubigney et al. Model-free POMDP optimisation of tutoring systems with echo-state networks
CN109800880A (zh) 基于动态学习风格信息的自适应学习特征提取系统及应用
CN113723233A (zh) 一种基于分层时序多示例学习的学生学习参与度评估方法
Huang et al. T-BMIRT: Estimating representations of student knowledge and educational components in online education
Gao et al. Evaluation method of creative dance teaching quality based on fuzzy comprehensive evaluation
Tang et al. Study on Student portrait writing based on EM-FCM algorithm
Yi Research on intelligent evaluation of English diagnosis system based on fuzzy K-means clustering
CN111597997A (zh) 一种计算机控制教学设备
Jiao et al. A noncompensatory testlet model for calibrating innovative items embedded in multiple contexts
CN111914683A (zh) 一种基于仿生图像增强算法和fpga硬件加速的手写成绩录入系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170531

RJ01 Rejection of invention patent application after publication