CN110837947B - 一种基于音视频分析技术的教师授课专注度的评估方法 - Google Patents
一种基于音视频分析技术的教师授课专注度的评估方法 Download PDFInfo
- Publication number
- CN110837947B CN110837947B CN201910960894.1A CN201910960894A CN110837947B CN 110837947 B CN110837947 B CN 110837947B CN 201910960894 A CN201910960894 A CN 201910960894A CN 110837947 B CN110837947 B CN 110837947B
- Authority
- CN
- China
- Prior art keywords
- teacher
- layer
- audio
- teaching
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000004458 analytical method Methods 0.000 title claims abstract description 19
- 238000005516 engineering process Methods 0.000 title claims abstract description 10
- 230000004927 fusion Effects 0.000 claims abstract description 10
- 238000011156 evaluation Methods 0.000 claims abstract description 8
- 238000004445 quantitative analysis Methods 0.000 claims abstract description 8
- 230000008921 facial expression Effects 0.000 claims description 16
- 239000013598 vector Substances 0.000 claims description 15
- 230000001815 facial effect Effects 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 230000008451 emotion Effects 0.000 claims description 6
- 230000014509 gene expression Effects 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000013461 design Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 239000004576 sand Substances 0.000 claims description 3
- 230000007547 defect Effects 0.000 abstract description 3
- 230000000295 complement effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Human Resources & Organizations (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Educational Administration (AREA)
- Multimedia (AREA)
- Strategic Management (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Mathematical Physics (AREA)
- Tourism & Hospitality (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Entrepreneurship & Innovation (AREA)
- Neurology (AREA)
- Educational Technology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Game Theory and Decision Science (AREA)
Abstract
本发明公开了一种基于音视频分析技术的教师授课专注度的评估方法。本发明对人脸的灰度和LBP图像分别采用VGG16和浅层CNN网络进行人脸的特征提取,两种方法进行互补,采用加权融合策略,将两种特征融合到一起,从而提高的识别的精度,使得分类结果更加准确。在对教师专注度评价方面,从视频分析和音频分析两个角度进行定量分析,从而有效的避免了某一角度的局限性,使得基于机器方面对教师专注度评价方面更加客观、准确、快速,解决了传统方法对于教师上课投入度的分析的主观性强,实时率低等缺点。
Description
技术领域
本发明属于现代教育或教学评估领域,主要是一种基于音视频分析技术的教师授课专注度的评估方法。
背景技术
面部表情识别技术是机器理解人类情绪变化的重要任务。但是,对于每个人的面部差异和自身情绪强度的不同,难以提取出手动设计的特征,因此,本发明转向通过学习的方式,基于视频流的面部表情识别技术。
对于面部图像,首先需要面部检测和旋转校正的预处理,然后从面部区域内提取出面部表情特征,选取学习好的分类器提取面部特征来识别出不同的面部表情。
传统对于教师上课投入度的分析是通过其他教师听课评价和学生问卷调查的方式进行,这种方法具有主观性强,实时率低等缺点。
发明内容
为了使教师上课投入度的评价更加客观,本发明根据教师上课时的心理活动,教师上课时是否情绪饱满、态度是否认真、授课内容是否熟悉、注意力是否集中等均与教师授课质量直接相关,能够从面部表情的变化特征中反映出来。
本发明包括以下步骤:
步骤A1、人脸采集:基于教室中教师面对的摄像头采集教师上课的视频,将此视频作为样本输入。
步骤A2、人脸检测:采用人脸检测实时处理框架进行面部检测,并且确定授课教师的身份,与后台数据库进行关联。
步骤A3、旋转校正:采用面部区域的旋转校正来对齐,然后将检测到的面部区域缩放到72*72的尺寸。
步骤A4、利用局部二值模式,描述图像的局部纹理特性:在3*3的尺寸中,若周围像素值大于中心像素值,则该像素点的位置记为1,反之则为0。然后计算出每个像素的LBP值,从而得到LBP面部图像;
步骤A5、采用VGG16提取灰度面部图像的特征:将VGG16中的卷积层和池化层进行组合;去掉VGG16的两个密集层,来简化灰度面部图像的特征提取;
步骤A6、LBP面部图像的特征提取:对于LBP面部图像,构建一个浅层CNN模型,包括输入层,两个卷积层、子采样层和特征向量层。
在第一卷积层中主要是识别面部的主要信息,使用64个滤波器用于输入LBP图像,使用7*7卷积核并且输出72*72像素的64张图片,然后第一子采样层使用2*2内核的最大池将图片大小变成一半。
第二个卷积层用3*3卷积核进行256次卷积,来映射之前的层,第二子采样层也使用2*2的内核,在两个子采样层之后添加ReLu激活函数;
然后,输出一个具有500个神经元的隐藏层,隐藏层与两个子采样层相连,保证提取的特征保持不变。
步骤A7、加权融合:加权融合对象为从灰度图像提取的特征向量h1和从浅层CNN模型的LBP面部图像提取的特征向量h2。
在融合特征向量的基础上,采用Softmax分类方法进行识别。
步骤A8、视频的定量分析:根据步骤A7中Softmax分类方法识别出人脸表情的8种表达和教师授课专注度与人脸表情的内在联系,设计权重系数,评估教师教学投入度Ws。
步骤A9、音频的定量分析:使用OpenEAR工具包,用Z标准化对语音进行归一化,识别出教师授课音频中教师内心情感的分类,设计权重系数,评估教师授课专注度Wy。
步骤A10、综合指数计算:在得到Ws和Wy之后,设计两者的权重系数都设为0.5。这样得到教师授课专注度W:
W=0.5*Ws+0.5*Wy
本发明的优点在于:对人脸的灰度和LBP图像分别采用VGG16和浅层CNN网络进行人脸的特征提取,两种方法进行互补,采用加权融合策略,将两种特征融合到一起,从而提高的识别的精度,使得分类结果更加准确。在对教师专注度评价方面,从视频分析和音频分析两个角度进行定量分析,从而有效的避免了某一角度的局限性,使得基于机器方面对教师专注度评价方面更加客观、准确、快速,解决了传统方法对于教师上课投入度的分析的主观性强,实时率低等缺点。
附图说明
图1表示本发明的方法框架图;
图2为面部灰度图像提取特征的VGG16网络示意图;
图3为LBP面部图像提取特征的浅层CNN结构示意图;
图4加权融合网络示意图。
具体实施方式
在大学的智慧教室里,有高清晰度的摄像头对着讲台,可以实时跟踪教师授课时的脸部,有录音设备记录授课教师的语音内容。
授课时,用摄像头进行人脸识别,识别出此刻授课教师,与后台数据库进行匹配,之后识别之后得出的授课教师专注度实时的上传到数据库,与教务和人事系统实现数据共享。
授课时长内,摄像头得到的视频根据每秒30帧的频率得到一序列的视频图像,对图像进行旋转矫正得到局部纹理特性,识别出面部特征进而进行加权融合,进而得到教学过程中的教师的面部表情,根据对各个帧图片的面部表情的识别结果得到各个表情的出现的频率。根据出现的频率,对加权系数进行设计,从而得到依据视频得出的教师授课投入度的分数。
然后进行音频分析,使用OpenEAR工具包对音频进行处理分类,根据分类结果进行加权,得到从音频方面得出的教师授课投入度的分数。
将音频和视频两个方面得到的授课投入度进行加权得到从音视频分析技术的教师授课投入度。
实施例:本实施例提出教学过程中根据教师授课时面部表情的变化和音频的变化来对教师上课专注度进行评估的方法。图1描述了基于一种基于音视频分析技术的教师授课专注度的评估方法的总体流程图。
本实施例包括以下步骤:
步骤A1、人脸采集:基于教室中教师面对的摄像头采集教师上课的视频,将此视频作为样本输入。
步骤A2、人脸检测:对视频进行每秒30帧的速度进行处理,采用传统的Viola-Jones的人脸检测实时处理框架进行面部检测。并且确定授课教师的身份,与后台数据库进行关联。
步骤A3、旋转校正:真实环境中的面部图像可能会引起面部表情识别的准确性,采用面部区域的旋转校正来对齐。旋转矩阵见式(1)
其中,Rx,Ry是面部图像的初始坐标,Rx′,Ry′是经过旋转校正后得到的坐标,θ是双眼之间连线与水平轴的夹角,将检测到的面部区域缩放到72*72的尺寸。
步骤A4、利用局部二值模式,描述图像的局部纹理特性。在3*3的尺寸中,若周围像素值大于中心像素值,则该像素点的位置记为1,反之则为0。然后根据式(2)计算出每个像素的LBP值
其中,s是符号函数,ic和ip分别表示中心像素的灰度值和相邻像素的灰度值,从而得到LBP面部图像。
步骤A5、灰度面部图像的特征提取:采用基于Simonyan和Zisserman提出的对于视觉检测和快速收敛方面的非常有效的VGG16方法。VGG16的特点是简单,且卷积核的参数相同,池化核参数也相同,采用卷积层和池化层进行组合。去掉了VGG16的两个密集层,来简化灰度面部图像的特征提取。如图2,输入为A3中的1*72*72的图片,前四个块不变,学习率为0.01。改变第五个块的结构,该块的参数如表1所示,并且将该块的学习率设为0.005,虽然学习时间会变长,但是可以学习到更有效的信息。每个卷积层之后用ReLu函数激活,最终只保留一个1*500的密集层。
表1
步骤A6、LBP面部图像的特征提取:对于LBP面部图像,构建一个浅层CNN模型。如图3所示,包括输入层,两个卷积层和子采样层和特征向量层。在第一卷积层(C1)中主要是识别面部的主要信息,使用64个滤波器用于输入LBP图像,使用7*7卷积核并且输出72*72像素的64张图片,然后子采样层(S1)使用2*2内核的最大池将图片大小变成一半。第二个卷积层(C2)用3*3卷积核进行256次卷积,来映射之前的层,子采样层(S2)也使用2*2的内核,在S1和S2子采样层之后添加ReLu激活函数,从而具有处理非线性数据的能力。表2显示了浅层CNN的各个参数。然后,输出一个具有500个神经元的隐藏层(H),H层与子采样层S1和S2相连,保证提取的特征保持不变。
表2
C1 | S1 | C2 | S2 | |
个数 | 64 | 256 | ||
尺寸 | 7x7 | 2x2 | 3x3 | 2x2 |
步 | 1 | 2 | 1 | 2 |
填充 | 3 | 0 | 0 | 0 |
步骤A7、加权融合:图4显示了加权融合网络,从灰度图像提取的特征向量为h1,从浅层CNN的LBP面部图像提取特征向量为h2。在经过两个级联的全连接层,实现特征向量的降维,使得维度变为8。最终得到h1里的全连接层fc1_1={k1,k2,...,km}(m=100)和全连接层fc1_2={k1,k2,...,k8},h2里的全连接层fc2_1={l1,l2,...,lm}(m=100)和全连接层fc2_2={l1,l2,...,l8}。将fc1_2和fc2_2加权融合构成最终的特征向量fl={p1,p2,...,p8}。其中,pi计算式子如式(3):
pi=α*ki+(1-α)*li (3)
其中α对人脸灰度图像和LBP面部图像的特征向量进行加权操作,通过交叉验证对α进行实验计算。在融合特征向量的基础上,采用Softmax分类方法进行识别。
步骤A8、视频的定量分析:步骤A7中Softmax分类方法识别出人脸表情的8种表达(快乐,悲伤,惊讶,厌恶,恐惧,愤怒,蔑视和中立),相比其他方法来说,具有非常高的识别率。教师在教学课堂中的专注度与面部表情有着密切的关系,根据教师授课专注度(以百分记)与人脸表情的内在联系,一节课中各个表情所出现的频次记为δi,设计所对应表情的权重系数∈i。如出现厌恶、蔑视、悲伤权重系数设为0;出现恐惧、愤怒时权重系数设为0.3;出现惊讶、中立时权重系数设为0.6;出现快乐时权重系数设为1。如式(4)所示,从视频这一方面评估教师教学投入度Ws(0-100)。
步骤A9、音频的定量分析:根据授课时,教师的音频也可以判断出教师上课专注度,使用OpenEAR工具包,可以增强音高和语音强度,使用Z标准化对语音进行归一化。在识别出教师授课音频中教师内心情感的6个分类:愤怒、高兴、恐惧、平静、悲伤、惊奇。一节课中各个分类出的内心情感所出现的频次记为δi,设计所对应情感的权重系数Ei。如出现恐惧、愤怒、悲伤、惊奇时权重系数设为0;出现平静时权重系数设为0.5;出现高兴时权重系数设为1。然后根据式(4),从音频这一方面,对于教师授课专注度的内心情感的比重来进行加权,这样就能从音频这一方面评估教师授课专注度Wy(0-100)。
步骤A10、综合指数计算:在得到A7的Ws和A8的Wy之后,由于视频分析和音频分析评价教师授课专注度同样重要,则他们的权重系数都设为0.5。这样得到教师授课专注度W如式(4)所示:
W=0.5*Ws+0.5*Wy (4)
以上内容是结合具体的实例给出的实施方式对本发明的进一步说明,不能认定本发明的具体实施只限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离发明构思的前提下还可以做出一定程度的简单推演或者替换,都应当视为属于本发明的保护范围。
Claims (3)
1.一种基于音视频分析技术的教师授课专注度的评估方法,包括以下步骤:
步骤A1、人脸采集:基于教室中教师面对的摄像头采集教师上课的视频,将此视频作为样本输入;
步骤A2、人脸检测:采用人脸检测实时处理框架进行面部检测,并且确定授课教师的身份,与后台数据库进行关联;
步骤A3、旋转校正:采用面部区域的旋转校正来对齐,然后将检测到的面部区域缩放到72*72的尺寸;
步骤A4、利用局部二值模式,描述图像的局部纹理特性:在3*3的尺寸中,若周围像素值大于中心像素值,则像素点的位置记为1,反之则为0;然后计算出每个像素的LBP值,从而得到LBP面部图像;
其中LBP值计算如下:
其中,s是符号函数,ic和ip分别表示中心像素的灰度值和相邻像素的灰度值;
步骤A5、采用VGG16提取灰度面部图像的特征:将VGG16中的卷积层和池化层进行组合;去掉VGG16的两个密集层,来简化灰度面部图像的特征提取;
步骤A6、LBP面部图像的特征提取:对于LBP面部图像,构建一个浅层CNN模型,包括输入层,两个卷积层、子采样层和特征向量层;
在第一卷积层中主要是识别面部的主要信息,使用64个滤波器用于输入LBP图像,使用7*7卷积核并且输出72*72像素的64张图片,然后第一子采样层使用2*2内核的最大池将图片大小变成一半;
第二个卷积层用3*3卷积核进行256次卷积,来映射之前的层,第二子采样层也使用2*2的内核,在两个子采样层之后添加ReLu激活函数;
然后,输出一个具有500个神经元的隐藏层,隐藏层与两个子采样层相连,保证提取的特征保持不变;
步骤A7、加权融合:加权融合对象为从灰度图像提取的特征向量h1和从浅层CNN模型的LBP面部图像提取的特征向量h2;在融合特征向量的基础上,采用Softmax分类方法进行识别;
步骤A8、视频的定量分析:根据步骤A7中Softmax分类方法识别出人脸表情的8种表达和教师授课专注度与人脸表情的内在联系,设计权重系数,评估教师教学投入度Ws;
步骤A9、音频的定量分析:使用OpenEAR工具包,用Z标准化对语音进行归一化,识别出教师授课音频中教师内心情感的分类,设计权重系数,评估教师授课专注度Wy;
步骤A10、综合指数计算:在得到Ws和Wy之后,设计两者的权重系数都设为0.5;这样得到教师授课专注度W:
W=0.5*Ws+0.5*Wy。
3.根据权利要求1所述的一种基于音视频分析技术的教师授课专注度的评估方法,其特征在于:步骤A5中输入为1*72*72的图片,前四个块不变,学习率为0.01;改变第五个块的结构,并且将该块的学习率设为0.005,每个卷积层之后用ReLu函数激活,最终只保留一个1*500的密集层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910960894.1A CN110837947B (zh) | 2019-10-11 | 2019-10-11 | 一种基于音视频分析技术的教师授课专注度的评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910960894.1A CN110837947B (zh) | 2019-10-11 | 2019-10-11 | 一种基于音视频分析技术的教师授课专注度的评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110837947A CN110837947A (zh) | 2020-02-25 |
CN110837947B true CN110837947B (zh) | 2022-05-31 |
Family
ID=69575267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910960894.1A Active CN110837947B (zh) | 2019-10-11 | 2019-10-11 | 一种基于音视频分析技术的教师授课专注度的评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110837947B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111639624B (zh) * | 2020-06-10 | 2023-09-29 | 深圳市时海科技有限公司 | 一种基于人工智能的课堂教学及时强化能力评估方法及系统 |
CN112766226A (zh) * | 2021-02-02 | 2021-05-07 | 华蔚集团(广东)有限公司 | 一种线上线下相结合的多维教学ai学堂系统 |
CN113689147A (zh) * | 2021-09-15 | 2021-11-23 | 武汉乐知科技有限公司 | 一种教学质量评估的机器学习算法 |
CN114037541A (zh) * | 2021-11-05 | 2022-02-11 | 湖南创研科技股份有限公司 | 基于生物特征识别的定点医药机构的监管方法及相关设备 |
CN116757646B (zh) * | 2023-08-15 | 2023-11-10 | 成都市青羊大数据有限责任公司 | 一种教学综合管理系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3979007B2 (ja) * | 2000-12-22 | 2007-09-19 | 富士ゼロックス株式会社 | パターン識別方法および装置 |
CN106851216B (zh) * | 2017-03-10 | 2019-05-28 | 山东师范大学 | 一种基于人脸和语音识别的课堂行为监控系统及方法 |
CN109165881A (zh) * | 2018-11-08 | 2019-01-08 | 四川坤翔科技有限公司 | 基于大数据的教师授课质量评估方法 |
CN110059614A (zh) * | 2019-04-16 | 2019-07-26 | 广州大学 | 一种基于人脸情绪识别的智能辅助教学方法及系统 |
CN110135380B (zh) * | 2019-05-22 | 2023-07-11 | 东北大学 | 一种基于人脸检测的课堂专注度识别的方法 |
CN110287790B (zh) * | 2019-05-23 | 2021-04-02 | 华中师范大学 | 一种面向静态多人场景的学习状态混合分析方法 |
-
2019
- 2019-10-11 CN CN201910960894.1A patent/CN110837947B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110837947A (zh) | 2020-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110837947B (zh) | 一种基于音视频分析技术的教师授课专注度的评估方法 | |
CN106960202B (zh) | 一种基于可见光与红外图像融合的笑脸识别方法 | |
CN108629338B (zh) | 一种基于lbp和卷积神经网络的人脸美丽预测方法 | |
CN111563452A (zh) | 一种基于实例分割的多人体姿态检测及状态判别方法 | |
CN106529494A (zh) | 一种基于多摄像头机型的人脸识别方法 | |
CN113112416B (zh) | 一种语义引导的人脸图像修复方法 | |
CN113657168A (zh) | 基于卷积神经网络的学生学习情绪的识别方法 | |
CN111222519A (zh) | 一种层次化彩绘文物线稿提取模型构建、方法及装置 | |
CN109815923B (zh) | 基于lbp特征与深度学习的金针菇菇头分选识别方法 | |
CN111507227A (zh) | 基于深度学习的多学生个体分割及状态自主识别方法 | |
CN111738178A (zh) | 一种基于深度学习的戴口罩人脸表情识别方法 | |
CN111666845A (zh) | 基于关键帧采样的小样本深度学习多模态手语识别方法 | |
CN111611854A (zh) | 一种基于模式识别的课堂情况评价方法 | |
Tang et al. | Automatic facial expression analysis of students in teaching environments | |
Guo et al. | Multi-focus image fusion based on fully convolutional networks | |
CN111738177B (zh) | 一种基于姿态信息提取的学生课堂行为识别方法 | |
Conrad et al. | Two-stage seamless text erasing on real-world scene images | |
CN109165551B (zh) | 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法 | |
CN116029581A (zh) | 一种基于多源数据融合的在线教育用专注度评价方法 | |
CN115393930A (zh) | 一种基于三分支卷积神经网络的表情识别方法 | |
CN114022918A (zh) | 基于多姿态的学习者兴奋状态标签算法 | |
CN113688739A (zh) | 基于情绪识别和视觉分析的课堂学习效率预测方法及系统 | |
CN113901916A (zh) | 一种基于可视化光流特征的面部欺诈动作识别方法 | |
CN110879966A (zh) | 一种基于人脸识别与图像处理的学生听课理解度评估方法 | |
CN117456208B (zh) | 一种基于显著性检测的双流法素描质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |