CN111507227A - 基于深度学习的多学生个体分割及状态自主识别方法 - Google Patents
基于深度学习的多学生个体分割及状态自主识别方法 Download PDFInfo
- Publication number
- CN111507227A CN111507227A CN202010280435.1A CN202010280435A CN111507227A CN 111507227 A CN111507227 A CN 111507227A CN 202010280435 A CN202010280435 A CN 202010280435A CN 111507227 A CN111507227 A CN 111507227A
- Authority
- CN
- China
- Prior art keywords
- student
- individual
- state
- class
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000011218 segmentation Effects 0.000 title claims abstract description 19
- 238000013135 deep learning Methods 0.000 title claims abstract description 12
- 230000004399 eye closure Effects 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 9
- 239000003086 colorant Substances 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 29
- 238000011176 pooling Methods 0.000 claims description 22
- 238000013527 convolutional neural network Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 9
- 210000002569 neuron Anatomy 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000009432 framing Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 210000000887 face Anatomy 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000008358 core component Substances 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000306 component Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了基于深度学习的多学生个体分割及状态自主识别方法,包括:采集正常上课视频,进行分帧处理,得到课堂视频的连续帧图像;分割出学生个体和非学生个体,将不学生生个体标记为不同颜色的掩码;通过人脸特征点定位方法找到每个学生个体的人眼特征点,计算每个学生个体的人眼闭合度特征值,判断每个学生个体当前是否处于听课状态;判断所有学生个体是否检测到人脸,判断学生个体的听课状态等级;结合每个学生个体是否处于听课状态及每个学生个体是否处于未抬头状态设计了整个课堂时段学生听课效率评估方法。本发明为实现学生听课状态自主识别及听课效率的判别提供解决方法,具有速度快、识别率高、环境适应能力强的优点。
Description
技术领域
本发明涉及机器学习及机器视觉的技术领域,具体涉及基于深度学习的多学生个体分割及状态自主识别方法。
背景技术
近年来,智慧课堂的概念已初露头角,它是一种将先进信息采集与传输技术,各种智能传感技术,以及计算机处理技术高效整合到教育领域的新兴理念。而课堂是教育的核心,学生的听课状态是课堂效率最直接有效的体现,现有的课堂教学反馈还停留在主观的人工分析阶段,耗费精力,效率低,且不能全面地监测每位学生的状态。目标分割是视觉分析的基础,利用卷积神经网络实现对图像中每个像素精细标注,从而确定图像中各物体的位置与类别信息,目前已应用于自动驾驶、图像检索、医学检测等领域,随着技术的发展,目标分割在未来的智慧课堂中也将占有一席之地。随着人工智能的发展,实现学生听课状态自主识别与评估反馈已成为智慧课堂的趋势所在。
目前提出的学生听课状态识别方法较少,有基于人体特征点识别、基于压力传感器数据采集等方法,这些方法仍存在一些不可避免的缺陷,主观性较强,准确率较低,成本较高。本发明为实现学生听课状态自主识别及听课效率的判别提供解决方法,具有速度快、识别率高、环境适应能力强的优点。
发明内容
本发明的目的是提供一种运算速度快、识别率高、环境适应能力强的基于深度学习的多学生个体分割及状态自主识别方法。
为实现上述目的,本发明采用了如下技术方案:所述的基于深度学习的多学生个体分割及状态自主识别方法,包括以下步骤:
步骤1:采集正常上课视频,对所采集的视频进行分帧处理,得到每10秒一张待处理的图像,将得到的所有图像合帧,得到课堂视频的连续帧图像;
步骤2:利用基于Mask R-CNN(Mask Region-Convolutional Neural Network,掩模区域卷积神经网络)的多学生个体分割方法分割出课堂视频的连续帧图像中的学生个体和非学生个体,并将不同学生个体标记为不同颜色的掩码,得到标记学生掩码的课堂连续帧图像;
步骤3:利用步骤2得到的标记学生掩码的课堂连续帧图像,通过人脸特征点定位方法【经典的AdaBoost算法,可参考王一轲.人脸检测与人脸特征点定位方法的设计与实现,电子科技大学,硕士学位论文,2015,pp.29-39】找到每个学生个体的人眼特征点,利用人眼特征点计算每个学生个体的人眼闭合度特征值,通过人眼闭合度特征值判断每个学生个体当前是否处于听课状态;
步骤4:利用人脸特征点定位方法判断所有学生个体是否检测到人脸,根据所有学生个体中未检测到人脸的个数占所有学生个体的比例,判断学生个体的听课状态等级;
步骤5:根据上述步骤处理完所有课堂视频的连续帧图像后,结合每个学生个体是否处于听课状态及每个学生个体是否处于未抬头状态,设计整个课堂时段学生听课效率评估方法,通过对不同听课状态打分加权计算出学生整个课堂时段听课效率百分比。
进一步地,所述步骤1包括:
步骤1.1:录制整个课堂时段的全体学生正面视频,将所录制的视频保存至计算机;
步骤1.2:获得整个课堂时段的全体学生正面视频总帧数,得到每十秒的帧数,设置每十秒的帧数取一次帧,将每次取得的帧转化为每10秒一张待处理的图像输出保存至计算机;
步骤1.3:对得到的每10秒一张待处理的图像合并,得到课堂视频的连续帧图像。
进一步地,步骤2包括:
步骤2.1:使用卷积神经网络提取课堂视频的连续帧图像中的特征图,用于后续Mask R-CNN中的RPN(Region Proposal Network,区域生成网络)层和全连接层;
步骤2.2:将得到的特征图输入到RPN层,完成从特征图中提取RoI(Region ofInterest,感兴趣的区域);
步骤2.3:对RPN层的输出结果进行RoI Align(RoI对齐)操作,使不同输入尺寸的RoI得到固定尺寸的输出;
步骤2.4:将步骤2.3处理后的RoI分别送入到Fast R-CNN(Fast Region-Convolutional Neural Network,快速区域卷积神经网络)【可参考赵锟.基于深度卷积神经网络的智能车辆目标检测方法研究,国防科学技术大学,硕士学位论文,2015,pp.11-18】和FCN(Fully Convolutional Network,全卷积神经网络)【可参考翁健.基于全卷积神经网络的全向场景分割研究与算法实现,山东大学,硕士学位论文,2017,pp.17-24】两个分支,Fast R-CNN对RoI进行分类和边界框回归,FCN为每个RoI预测掩码。
进一步地,步骤2.1包括:
卷积层是卷积神经网络最核心的组成部分,卷积层对课堂视频的连续帧图像进行特征提取,其特征提取的具体实现是通过卷积核对感受野区域进行卷积所实现的,在这里,特征图的每个神经元将输入层中相邻区域的神经元连接在一起,这一区域被称为输入层特征图的感受野。卷积运算的过程为:
其中,I表示卷积运算的输入,a,b分别为卷积运算的输入的横坐标及纵坐标,K表示卷积核,S表示得到的特征映射,c,d分别为得到的特征映射的横坐标及纵坐标;
经过卷积操作后得到的特征图中,某一特征与其相邻区域内的很多特征将会非常相似,因此需要进一步整合,通过池化层的池化操作将得到的特征图内某一位置及其相邻位置的特征值进行统计汇总,并将汇总后的结果作为这一位置在所述特征图内的值,进一步缩小卷积操作后的特征映射图,避免了对相似特征的重复计算。池化分为最大池化与平均池化两种,较常使用的是最大池化法,即输出层中每一位元素值均为移动池化核大小范围内的最大值。
激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中,使用常见的ReLu函数作为激活函数:
其中,x表示激活函数的自变量。
进一步地,所述步骤2.2包括:
步骤2.2.1:RPN层首先为特征图(大小约为60*40)上的每个像素生成9个不同大小的锚箱(anchor box),这9种锚箱包含三种面积(128×128,256×256,512×512),每种面积又包含三种长宽比(1:1,1:2,2:1);
步骤2.2.2:对生成的锚箱进行裁剪过滤,RPN层中包含分类分支和边框回归分支。通过分类分支(softmax分类器)判断锚点属于前景还是背景,即是学生个体还是教室背景,通过边框回归分支(bounding box regression)回归修正没有被排除的锚箱,实现更加精确的推荐。
步骤2.2.3:在RPN层末端,对分类分支及边框回归分支的结果进行汇总,实现对锚箱的初步筛除(分类分支结果)和初步偏移(边框回归分支结果)后,得到的输出称为候选框,将候选框映射到特征图上即为RoI。
进一步地,所述步骤2.2.2包括:
softmax函数的本质就是将一个任意维数的任意实数向量映射成另一个相同维数的实数向量,其中向量中的每个元素取值都介于(0,1)之间,各元素之和等于1。在softmax的作用下每个样本所属不同类别的概率值都会被计算出来,由于所有情况出现的概率总和为1,经运算后,在同等条件下,正确类别出现的概率将会更高,同理,错误类别的出现的概率更低,softmax分类器具有学习率高,准确率高的优点。
对上一层输出的第m个元素,其softmax值Sm为:
损失函数Lm为:
Lm=-logSm
其中,m为元素的序号,Sm为第m个元素的softmax值,e为自然对数的底数,j为求和项的序数,OUTl、OUTw分别为上一层输出矩阵的长和宽,Lm为第m个元素的损失函数值。
通过对分类类别的损失函数值进行比较,得出判断正确时的概率损失值,通过上述过程训练softmax分类器,将前景与背景分为两类,训练好softmax分类器后,将待检测特征图作为输入,即可自动识别待检测特征图所属的类别。
过滤和标记规则如下,首先去除掉超过原图边界的锚箱,即去除掉不需要被检测的背景,然后判断剩下的锚箱与真值(ground truth)的交并比IoU设置合适的阈值:若IoU>0.7,则标记为正标签,若IoU<0.3,则标记为负标签,若0.3≤IoU≤0.7,则既不是正标签也不是负标签。
进一步地,步骤2.3包括:
步骤2.3.1:使用已有的VGG16网络,选取步长为32做卷积层,则图片缩小为原输入图像的1/32,经过所述步长为32的卷积层后的区域方案映射到特征图中的大小也为原来的1/32;
步骤2.3.2:设定映射后的特征图大小为n*n,n不取整,经池化后固定成7*7大小的特征图,则将特征图上映射的n*n的区域方案划分成49个同等大小的小区域,每个小区域的大小(n/7)*(n/7);
步骤2.3.3:设定采样点数为4,即表示对于每个(n/7)*(n/7)的小区域平分成四份,每一份取其中心点位置的像素,采用双线性插值法进行计算得到四个点的像素值;
步骤2.3.4:取四个像素值中最大值作为这个小区域的像素值,如此类推,同样是49个小区域得到49个像素值,组成7*7大小的特征图,实现了将特征图上的RoI固定成特定大小。
进一步地,所述步骤2.3.3包括:
双线性插值算法就是在两个方向分别进行一次线性插值,已知每个小区域左下角、右下角、左上角、右上角四个点的像素值,则可计算中间点位置的像素p:
其中,p1、p2、p3、p4、pp分别表示左下角、右下角、左上角、右上角四点及所求点的像素值,(uu,vv)为所求点的横坐标及纵坐标,(u1,v1)、(u2,v1)、(u1,v2)、(u2,v2)分别为左下角、右下角、左上角、右上角四点的横坐标及纵坐标。
进一步地,所述步骤2.4包括:
使用多任务损失来对分类和边界框进行联合优化训练:
L(p,u,tu,v)=Lcls(p,u)+λ[u≥1]Lloc(tu,v)
其中,L(p,u,tu,v)表示RoI的多任务损失函数,p表示RoI中包含目标的概率,u表示实际物体的标签信息,tu=(tu x,tu y,tu w,tu h)为边界框通过神经网络算出的参数,tu x,tu y,tu w,tu h分别表示边界框的横坐标、纵坐标、宽度、高度数据,v=(vx,vy,vw,vh)为人为标定的真实边界框的参数,vx,vy,vw,vh分别表示真实边界框的横坐标、纵坐标、宽度、高度数据,Lcls(p,u)=-log[p*u+(1-p)(1-u)]为真实类别的对数损失,λ为超参数,设置为1,Lloc(tu,v)为边界框的损失函数。
其中:
训练好的网络即可用于对RoI的分类和边界框回归。
FCN由卷积层、池化层、上采样层和softmax分类器组成,从图像级别的分类进一步延展到像素级别的分类,即从单目标分类变成多目标分类,其中,全卷积神经网络使用反卷积方法进行上采样,上采样层使特征图恢复到输入图像相同的尺寸,从而可以对每一个像素产生一个预测,并保留原始输入图像中的空间信息,最后再于上采样的图片上进行逐像素分类,得到最终的分割结果,从而实现对输入图像的准确分割,实现对每个RoI中掩码的准确预测。
进一步地,所述步骤3包括:
步骤3.1:利用经典的AdaBoost算法,检测出每个学生个体的人脸所在位置;
步骤3.2:检测到每个学生个体的人脸所在位置后,通过人脸特征点定位到每个学生个体的人眼特征点;
步骤3.3:利用每个学生个体的人眼特征点计算每个学生个体的人眼闭合度特征值,公式如下:
其中,xt为眼睛位置的横坐标,yt为眼睛位置的纵坐标,k1为左眼闭合度特征值,k2为右眼闭合度特征值,k为左右眼的平均闭合度特征值。
xt、yt的下标t代表的数字为所有人眼特征点的序号,k1、k2分母几乎不变,当学生感到疲劳或打瞌睡时,人眼趋于闭合状态,特征点2即P2与特征点6即P6趋近重合,(P3与P5,P8与P12,P9与P11同理),k值会显著减小。根据k值大小,判断检测到的学生个体是否处于听课状态:
如果k值大于等于0.175,则学生个体被识别为认真听课状态;
如果k值小于0.175,则学生个体被识别为不听课状态。
步骤4包括:
利用经典的AdaBoost算法检测人脸,未检测到人脸则判定该学生个体未抬头,根据所有学生个体中未检测到人脸的个数占所有学生个体的比例,判断学生个体的听课状态等级:
如果一帧图像中大于等于80%的学生都处于未抬头状态,则判定此时学生收到教师的统一指令,都在记笔记或做习题,判定所有未抬头学生为认真听课状态;
如果一帧图像中大于等于40%小于80%的学生处于未抬头状态,则判定此时部分学生处于看书状态,判定所有未抬头学生为一般听课状态;
如果一帧图像中小于40%的学生处于未抬头状态,则判定未抬头学生处于不听课状态。
进一步地,步骤5包括:
通过对不同听课状态打分加权计算出学生整个课堂时段听课效率百分比:
对步骤3及步骤4中判别出的处于认真听课状态的学生个体,每检测到一次打1分;
对步骤4中判别出的处于一般听课状态的学生个体,每检测到一次打0.6分;
对步骤3及步骤4中判别出的处于不听课状态的学生个体,每检测到一次打0分;
最终每个学生个体的得分计算公式为:
其中,P为学生个体的得分,r为学生个体处于认真听课状态的总帧数,s为学生个体处于一般听课状态的总帧数,N为得到课堂视频的连续帧图像总帧数。
通过上述技术方案的实施,本发明的有益效果是:(1)提供了视频分帧处理方法,选取合适的时间间隔,保证符合实际情景的同时大大提高检测效率;(2)提供了基于MaskR-CNN的多学生个体分割方法,完成学生个体的精准检测,检测率高,准确区分前景与背景,抑制复杂背景环境对学生个体检测的干扰影响;(3)提供了结合人脸特征点检测及人眼闭合度算法判断学生听课状态,实现多学生个体听课状态自主识别且识别率高;(4)用视觉传感器代替硬件传感器,实现对学生的无感识别,舒适度高,成本低;(5)运算速度快,识别率高,环境适应能力强。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是本发明所述的基于深度学习的多学生个体分割及状态自主识别方法的流程框图。图2是本发明所述的Mask R-CNN网络结构图。
图3是本发明所述的双线性插值算法示意图。
图4是本发明所述的人眼部12个特征点对应序号及位置图。
图5是本发明具体实施例中结合人眼闭合度特征值随机抽取某一帧图像中学生个体的标识及听课状态识别图。
图6是本发明具体实施例中处理完整段视频后每个学生个体的听课效率统计图。
具体实施方式
在本实施例中,以每10s一帧,提取50帧图像的听课实验视频为例,对完整课堂时段中学生个体检测及听课状态自主识别方法进行说明;
参照图1,为本发明实施例提供的基于深度学习的多学生个体分割及状态自主识别方法的工作流程示意图,包括以下步骤:
步骤1:采集正常上课视频,对所采集的视频进行分帧处理,得到每10秒一张待处理的图像,将得到的所有图像合帧,得到课堂视频的连续帧图像;
步骤2:利用基于Mask R-CNN的多学生个体分割方法分割出课堂视频的连续帧图像中的学生个体和非学生个体,并将不学生生个体标记为不同颜色的掩码,得到标记学生掩码的课堂连续帧图像;
步骤3:利用步骤2得到标记学生掩码的课堂连续帧图像,通过人脸特征点定位方法找到每个学生个体的人眼特征点,利用人眼特征点计算每个学生个体的人眼闭合度特征值,通过人眼闭合度特征值判断每个学生个体当前是否处于听课状态;
步骤4:利用人脸特征点定位方法判断所有学生个体是否检测到人脸,根据所有学生个体中未检测到人脸的个数占所有学生个体的比例,判断学生个体的听课状态等级;
步骤5:根据上述步骤处理完所有课堂视频的连续帧图像后,结合每个学生个体是否处于听课状态及每个学生个体是否处于未抬头状态设计了整个课堂时段学生听课效率评估方法,通过对不同听课状态打分加权计算出学生整个课堂时段听课效率百分比。
下面结合附图和具体实施例对本发明作进一步说明。
在本发明实施例中,采用的是基于深度学习的多学生个体分割及状态自主识别方法,其中用到的主要神经网络Mask R-CNN网络结构图如图2所示。
在本发明实施例中,所述步骤1包括:
步骤1.1:录制整个课堂时段的全体学生正面视频,将所录制的视频保存至计算机;
步骤1.2:获得整个课堂时段的全体学生正面视频总帧数,得到每十秒的帧数,设置每十秒的帧数取一次帧,将每次取得的帧转化为每10秒一张待处理的图像输出保存至计算机;
步骤1.3:对得到的每10秒一张待处理的图像合并,得到课堂视频的连续帧图像。
在本发明实施例中,所述步骤2包括:
步骤2.1:使用一组基础的“卷积层+激活函数+池化层”提取课堂视频的连续帧图像中的特征图,用于后续Mask R-CNN中的RPN层和全连接层;
步骤2.2:将得到的特征图输入到RPN层,完成从特征图中提取RoI;
步骤2.3:对RPN层的输出结果进行RoI Align操作,使不同输入尺寸的RoI得到固定尺寸的输出;
步骤2.4:将步骤2.3处理后的RoI分别送入到Fast R-CNN和FCN两个分支,Fast R-CNN对RoI进行分类和边界框回归,FCN为每个RoI预测掩码。
在本发明实施例中,所述步骤2.1包括:
卷积层是卷积神经网络最核心的组成部分,该层对课堂视频的连续帧图像进行特征提取,其特征提取的具体实现是通过卷积核对感受野区域进行卷积所实现的,在这里,特征图的每个神经元将输入层中相邻区域的神经元连接在一起,这一区域被称为输入层特征图的感受野。卷积运算的过程为:
其中,I表示卷积运算的输入,a,b为卷积运算的输入的横坐标及纵坐标,K表示卷积核,S表示得到的特征映射,c,d为得到的特征映射的横坐标及纵坐标。
经过卷积操作后得到的特征图中,某一特征与其相邻区域内的很多特征将会非常相似,因此需要进一步整合,用池化操作将得到的特征图内某一位置及其相邻位置的特征值进行统计汇总,并将汇总后的结果作为这一位置在该特征图内的值,进一步缩小卷积操作后的特征映射图,避免了对相似特征的重复计算。池化分为最大池化与平均池化两种,较常使用的是最大池化法,即输出层中每一位元素值均为移动池化核大小范围内的最大值。
激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中,使用常见的ReLu函数作为激活函数:
其中,x表示激活函数的自变量。
在本发明实施例中,所述步骤2.2包括:
步骤2.2.1:RPN层首先为特征图(大小约为60*40)上的每个像素生成9个不同大小的锚箱(anchor box),这9种锚箱包含三种面积(128×128,256×256,512×512),每种面积又包含三种长宽比(1:1,1:2,2:1);
步骤2.2.2:对生成的锚箱进行裁剪过滤,RPN层中包含分类分支和边框回归分支。通过分类分支(softmax分类器)判断锚点属于前景还是背景,即是学生个体还是教室背景;通过边框回归分支(bounding box regression)回归修正没有被排除的锚箱,实现更加精确的推荐。
步骤2.2.3:在RPN层末端,对分类分支及边框回归分支的结果进行汇总,实现对锚箱的初步筛除(分类分支结果)和初步偏移(边框回归分支结果)后,得到的输出称为候选框,将候选框映射到特征图上即为RoI。
在本发明实施例中,所述步骤2.2.2包括:
softmax函数的本质就是将一个任意维数的任意实数向量映射成另一个相同维数的实数向量,其中向量中的每个元素取值都介于(0,1)之间,各元素之和等于1。在softmax的作用下每个样本所属不同类别的概率值都会被计算出来,由于所有情况出现的概率总和为1,经运算后,在同等条件下,正确类别出现的概率将会更高,同理,错误类别的出现的概率更低,softmax分类器具有学习率高,准确率高的优点。
对上一层输出的第m个元素,其softmax值为:
损失函数为:
Lm=-logSm
其中,m为元素的序号,Sm为第m个元素的softmax值,e为自然对数的底数,j为求和项的序数,OUTl、OUTw分别为上一层输出矩阵的长和宽,Lm为第m个元素的损失函数值。
通过对分类类别的损失函数值进行比较,得出判断正确时的概率损失值,通过上述过程训练softmax分类器,将前景与背景分为两类,训练好softmax分类器后,将待检测特征图作为输入,即可自动识别待检测特征图所属的类别。
过滤和标记规则如下,首先去除掉超过原图边界的锚箱,即不需要被检测的背景,然后判断剩下的锚箱与真值(ground truth)的交并比IoU设置合适的阈值:若IoU>0.7,则标记为正标签,若IoU<0.3,则标记为负标签,若0.3≤IoU≤0.7,则既不是正标签也不是负标签。
在本发明实施例中,所述步骤2.3包括:
步骤2.3.1:使用已有的VGG16网络,选取步长为32做卷积层,则图片缩小为原输入图像的1/32,经过该步长为32的卷积层后的区域方案映射到特征图中的大小也为原来的1/32;
步骤2.3.2:假设映射后的特征图大小为n*n,n不取整,经池化后固定成7*7大小的特征图,则将特征图上映射的n*n的区域方案划分成49个同等大小的小区域,每个小区域的大小(n/7)*(n/7);
步骤2.3.3:假定采样点数为4,即表示对于每个(n/7)*(n/7)的小区域平分成四份,每一份取其中心点位置的像素,采用双线性插值法进行计算得到四个点的像素值;
步骤2.3.4:取四个像素值中最大值作为这个小区域的像素值,如此类推,同样是49个小区域得到49个像素值,组成7*7大小的特征图,实现了将特征图上的RoI固定成特定大小。
在本发明实施例中,所述步骤2.3.3包括:
双线性插值算法就是在两个方向分别进行一次线性插值,已知每个小区域左下角、右下角、左上角、右上角四个点的像素值,则可计算中间点位置的像素:
其中,p1、p2、p3、p4、p分别表示左下角、右下角、左上角、右上角四点及所求点的像素值,(uu,vv)为所求点的横坐标及纵坐标,(u1,v1)、(u2,v1)、(u1,v2)、(u2,v2)分别为左下角、右下角、左上角、右上角四点的横坐标及纵坐标,可由图3直观看出。
在本发明实施例中,所述步骤2.4包括:
使用多任务损失来对分类和边界框进行联合优化训练:
L(p,u,tu,v)=Lcls(p,u)+λ[u≥1]Lloc(tu,v)
其中,L(p,u,tu,v)表示RoI的多任务损失函数,p表示RoI中包含目标的概率,u表示实际物体的标签信息,tu=(tu x,tu y,tu w,tu h)为边界框通过神经网络算出的参数,tu x,tu y,tu w,tu h分别表示边界框的横坐标、纵坐标、宽度、高度数据,v=(vx,vy,vw,vh)为人为标定的真实边界框的参数,vx,vy,vw,vh分别表示真实边界框的横坐标、纵坐标、宽度、高度数据,Lcls(p,u)=-log[p*u+(1-p)(1-u)]为真实类别的对数损失,λ为超参数,设置为1,Lloc(tu,v)为边界框的损失函数。
其中:
训练好的网络即可用于对RoI的分类和边界框回归。
FCN由卷积层、池化层、上采样层和softmax分类器组成,从图像级别的分类进一步延展到像素级别的分类,即从单目标分类变成多目标分类,其中,全卷积神经网络使用反卷积方法进行上采样,上采样层使特征图恢复到输入图像相同的尺寸,从而可以对每一个像素产生一个预测,并保留原始输入图像中的空间信息,最后再于上采样的图片上进行逐像素分类,得到最终的分割结果,从而实现对输入图像的准确分割,实现对每个RoI中掩码的准确预测。
在本发明实施例中,所述步骤3包括:
步骤3.1:利用经典的AdaBoost算法,检测出每个学生个体的人脸所在位置;
步骤3.2:检测到每个学生个体的人脸所在位置后,通过人脸特征点定位到每个学生个体的人眼特征点,如图4所示;
步骤3.3:利用每个学生个体的人眼特征点计算每个学生个体的人眼闭合度特征值,公式如下:
其中,xt为眼睛位置的横坐标,yt为眼睛位置的纵坐标,k1为左眼闭合度特征值,k2为右眼闭合度特征值,k为左右眼的平均闭合度特征值。
在本发明实施例中,所述步骤3.3包括:
xt、yt的下标t代表的数字为所有人眼特征点的序号,k1、k2分母几乎不变,当学生感到疲劳或打瞌睡时,人眼趋于闭合状态,特征点2(P2)与特征点6(P6)趋近重合,(P3与P5,P8与P12,P9与P11同理),k值会显著减小。根据k值大小,判断检测到的学生个体是否处于听课状态:
如果k值大于等于0.175,则学生个体被识别为认真听课状态;
如果k值小于0.175,则学生个体被识别为不听课状态。如图5所示,为本发明实施例提供的基于深度学习的多学生个体分割及状态自主识别方法识别结果。
在本发明实施例中,所述步骤4包括:
利用经典的AdaBoost算法检测人脸,未检测到人脸可以判定该学生个体未抬头,根据所有学生个体中未检测到人脸的个数占所有学生个体的比例,判断学生个体的听课状态等级:
如果一帧图像中大于等于80%的学生都处于未抬头状态,则判定此时学生收到教师的统一指令,都在记笔记或做习题,判定所有未抬头的学生为听课状态;
如果一帧图像中大于等于40%小于80%的学生处于未抬头状态,则判定此时部分学生处于未抬头看书状态,判定所有未抬头学生为一般听课状态;
如果一帧图像中小于40%的学生处于未抬头状态,则判定这些学生处于不听课状态。
在本发明实施例中,所述步骤5包括:
如图6所示,为处理一段每帧10s,共50帧的视频结果,以被识别个体的“标号+当前听课状态+累计听课总次数+听课效率”形式显示出来,通过对不同听课状态打分加权计算出学生整个课堂时段学生听课效率百分比:
对步骤3及步骤4中判别出的处于认真听课状态的学生个体,每检测到一次打1分;
对步骤4中判别出的处于一般听课状态的学生个体,每检测到一次打0.6分;
对步骤3及步骤4中判别出的处于不听课状态的学生个体,每检测到一次打0分;
最终每个学生个体的得分计算公式为:
其中,P为学生个体的得分,r为学生个体处于认真听课状态的总帧数,s为学生个体处于一般听课状态的总帧数,N为得到课堂视频的连续帧图像总帧数。
通过上述技术方案的实施,本发明的优点是:(1)提供了视频分帧处理方法,选取合适的时间间隔,保证符合实际情景的同时大大提高检测效率;(2)提供了基于Mask R-CNN的多学生个体分割方法,完成学生个体的精准检测,检测率高,准确区分前景与背景,抑制复杂背景环境对学生个体检测的干扰影响;(3)提供了人脸特征点定位方法及人眼闭合度特征值判断学生听课状态,实现多学生个体听课状态自主识别且识别率高;(4)用视觉传感器代替硬件传感器,实现对学生的无感识别,舒适度高,成本低;(5)运算速度快,识别率高,环境适应能力强。
本发明提供了基于深度学习的多学生个体分割及状态自主识别方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (9)
1.基于深度学习的多学生个体分割及状态自主识别方法,其特征在于,包括以下步骤:
步骤1:采集正常上课视频,对所采集的视频进行分帧处理,得到每10秒一张待处理的图像,将得到的所有图像合帧,得到课堂视频的连续帧图像;
步骤2:利用基于Mask R-CNN掩模区域卷积神经网络的多学生个体分割方法分割出课堂视频的连续帧图像中的学生个体和非学生个体,并将不同学生个体标记为不同颜色的掩码,得到标记学生掩码的课堂连续帧图像;
步骤3:利用步骤2得到的标记学生掩码的课堂连续帧图像,通过人脸特征点定位方法找到每个学生个体的人眼特征点,利用人眼特征点计算每个学生个体的人眼闭合度特征值,通过人眼闭合度特征值判断每个学生个体当前是否处于听课状态;
步骤4:利用人脸特征点定位方法判断所有学生个体是否检测到人脸,根据所有学生个体中未检测到人脸的个数占所有学生个体的比例,判断学生个体的听课状态等级;
步骤5:根据上述步骤处理完所有课堂视频的连续帧图像后,结合每个学生个体是否处于听课状态及每个学生个体是否处于未抬头状态,通过对不同听课状态打分加权计算出学生整个课堂时段听课效率百分比。
2.根据权利要求1所述的方法,其特征在于,步骤1包括:
步骤1.1:录制整个课堂时段的全体学生正面视频,将所录制的视频保存;
步骤1.2:获得整个课堂时段的全体学生正面视频总帧数,得到每十秒的帧数,设置每十秒的帧数取一次帧,将每次取得的帧转化为每10秒一张待处理的图像输出保存;
步骤1.3:对得到的每10秒一张待处理的图像合并,得到课堂视频的连续帧图像。
3.根据权利要求2所述的方法,其特征在于,步骤2包括:
步骤2.1:使用卷积神经网络提取课堂视频的连续帧图像中的特征图,用于后续MaskR-CNN中的RPN层和全连接层;
步骤2.2:将得到的特征图输入到RPN层,完成从特征图中提取RoI;
步骤2.3:对RPN层的输出结果进行RoI Align操作,使不同输入尺寸的感兴趣的区域RoI得到固定尺寸的输出;
步骤2.4:将步骤2.3处理后的RoI分别送入到Fast R-CNN和FCN两个分支,Fast R-CNN对RoI进行分类和边界框回归,FCN为每个RoI预测掩码。
4.根据权利要求3所述的方法,其特征在于,步骤2.1包括:
卷积神经网络包括卷积层、激活函数和池化层;
卷积层对课堂视频的连续帧图像进行特征提取,其特征提取的具体实现是通过卷积核对感受野区域进行卷积所实现的,特征图的每个神经元将输入层中相邻区域的神经元连接在一起,这一区域被称为输入层特征图的感受野,卷积运算的过程为:
其中,I表示卷积运算的输入,a,b分别为卷积运算的输入的横坐标及纵坐标,K表示卷积核,S表示得到的特征映射,c,d分别为得到的特征映射的横坐标及纵坐标;
通过池化层的池化操作将得到的特征图内一位置及其相邻位置的特征值进行统计汇总,并将汇总后的结果作为这一位置在所述特征图内的值;
使用ReLu函数作为激活函数:
其中,x表示激活函数的自变量。
5.根据权利要求4所述的方法,其特征在于,步骤2.2包括:
步骤2.2.1:RPN层首先为特征图上的每个像素生成9个不同大小的锚箱(anchor box),这9种锚箱包含三种面积(128×128,256×256,512×512),每种面积又包含三种长宽比(1:1,1:2,2:1);
步骤2.2.2:对生成的锚箱进行裁剪过滤,RPN层中包含分类分支和边框回归分支,通过分类分支判断锚点属于前景还是背景,即是学生个体还是教室背景;通过边框回归分支回归修正没有被排除的锚箱,具体包括:
去除掉超过原图边界的锚箱,即去除掉不需要被检测的背景,判断剩下的锚箱与真值ground truth的交并比IoU,设置阈值:如果IoU>0.7,则标记为正标签,如果IoU<0.3,则标记为负标签,如果0.3≤IoU≤0.7,则既不是正标签也不是负标签;
步骤2.2.3:在RPN层末端,对分类分支及边框回归分支的结果进行汇总,实现对锚箱的初步筛除和初步偏移后,得到的输出称为候选框,将各个候选框映射到特征图上即为感兴趣的区域RoI。
6.根据权利要求5所述的方法,其特征在于,步骤2.3包括:
步骤2.3.1:将RoI映射到特征图的对应位置,使用已有的VGG16网络,选取步长为32做卷积层,则图片缩小为原输入图像的1/32,经过所述步长为32的卷积层后的区域方案映射到特征图中的大小也为原来的1/32;
步骤2.3.2:设定映射后的特征图大小为n*n,n不取整,经池化后固定成7*7大小的特征图,则将特征图上映射的n*n的区域方案划分成49个同等大小的小区域,每个小区域的大小(n/7)*(n/7);
步骤2.3.3:设定采样点数为4,即表示对于每个(n/7)*(n/7)的小区域平分成四份,每一份取其中心点位置的像素,采用双线性插值法进行计算得到四个点的像素值;
步骤2.3.4:取四个像素值中最大值作为这个小区域的像素值,如此类推,同样是49个小区域得到49个像素值,组成7*7大小的特征图,实现了将特征图上的感兴趣的区域RoI固定成特定大小。
7.根据权利要求6所述的方法,其特征在于,步骤3包括:
步骤3.1:利用AdaBoost算法,检测出每个学生个体的人脸所在位置;
步骤3.2:检测到每个学生个体的人脸所在位置后,通过人脸特征点定位到每个学生个体的人眼特征点;
步骤3.3:利用每个学生个体的人眼特征点计算每个学生个体的人眼闭合度特征值,公式如下:
其中,xt为眼睛位置的横坐标,yt为眼睛位置的纵坐标,k1为左眼闭合度特征值,k2为右眼闭合度特征值,k为左右眼的平均闭合度特征值;
xt、yt的下标t代表的数字为所有人眼特征点的序号,当学生感到疲劳或打瞌睡时,人眼趋于闭合状态,特征点2即P2与特征点6即P6趋近重合,k值会减小,根据k值大小,判断检测到的学生个体是否处于听课状态:
如果k值大于等于0.175,则学生个体被识别为认真听课状态;
如果k值小于0.175,则学生个体被识别为不听课状态。
8.根据权利要求7所述的方法,其特征在于,步骤4包括:
利用AdaBoost算法检测人脸,未检测到人脸则判定该学生个体未抬头,根据所有学生个体中未检测到人脸的个数占所有学生个体的比例,判断学生个体的听课状态等级:
如果一帧图像中大于等于80%的学生都处于未抬头状态,则判定所有未抬头学生为认真听课状态;
如果一帧图像中大于等于40%小于80%的学生处于未抬头状态,则判定所有未抬头学生为一般听课状态;
如果一帧图像中小于40%的学生处于未抬头状态,则判定未抬头学生处于不听课状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010280435.1A CN111507227B (zh) | 2020-04-10 | 2020-04-10 | 基于深度学习的多学生个体分割及状态自主识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010280435.1A CN111507227B (zh) | 2020-04-10 | 2020-04-10 | 基于深度学习的多学生个体分割及状态自主识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111507227A true CN111507227A (zh) | 2020-08-07 |
CN111507227B CN111507227B (zh) | 2023-04-18 |
Family
ID=71864758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010280435.1A Active CN111507227B (zh) | 2020-04-10 | 2020-04-10 | 基于深度学习的多学生个体分割及状态自主识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111507227B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112025692A (zh) * | 2020-09-01 | 2020-12-04 | 广东工业大学 | 一种自学习机器人的控制方法、装置和电子设备 |
CN112150478A (zh) * | 2020-08-31 | 2020-12-29 | 温州医科大学 | 一种构建半监督图像分割框架的方法及系统 |
CN112364321A (zh) * | 2020-11-05 | 2021-02-12 | 巢湖学院 | 基于云桌面的用于移动学习智能手机的监测方法 |
CN113255915A (zh) * | 2021-05-20 | 2021-08-13 | 深圳思谋信息科技有限公司 | 基于结构化实例图的知识蒸馏方法、装置、设备和介质 |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011257702A (ja) * | 2010-06-11 | 2011-12-22 | Sharp Corp | 表示装置 |
CN106204779A (zh) * | 2016-06-30 | 2016-12-07 | 陕西师范大学 | 基于多人脸数据采集策略和深度学习的课堂考勤方法 |
CN107895244A (zh) * | 2017-12-26 | 2018-04-10 | 重庆大争科技有限公司 | 课堂教学质量评估方法 |
CN108629762A (zh) * | 2018-03-28 | 2018-10-09 | 浙江工业大学 | 一种骨龄评测模型减少干扰特征的图像预处理方法及系统 |
CN108805009A (zh) * | 2018-04-20 | 2018-11-13 | 华中师范大学 | 基于多模态信息融合的课堂学习状态监测方法及系统 |
CN109035089A (zh) * | 2018-07-25 | 2018-12-18 | 重庆科技学院 | 一种在线课堂氛围评估系统及方法 |
CN109145713A (zh) * | 2018-07-02 | 2019-01-04 | 南京师范大学 | 一种结合目标检测的小目标语义分割方法 |
CN109359521A (zh) * | 2018-09-05 | 2019-02-19 | 浙江工业大学 | 基于深度学习的课堂质量双向评估系统 |
CN109887200A (zh) * | 2019-02-28 | 2019-06-14 | 商洛学院 | 一种基于物联网的图书自助借还系统及方法 |
CN109977841A (zh) * | 2019-03-20 | 2019-07-05 | 中南大学 | 一种基于对抗深度学习网络的人脸识别方法 |
CN109993031A (zh) * | 2017-12-29 | 2019-07-09 | 杭州海康威视数字技术股份有限公司 | 一种畜力车目标违章行驶行为检测方法、装置及相机 |
CN110443226A (zh) * | 2019-08-16 | 2019-11-12 | 重庆大学 | 一种基于姿态识别的学生状态评价方法及系统 |
US20190371080A1 (en) * | 2018-06-05 | 2019-12-05 | Cristian SMINCHISESCU | Image processing method, system and device |
CN110619657A (zh) * | 2019-08-15 | 2019-12-27 | 青岛文达通科技股份有限公司 | 一种面向智慧社区的多摄像机联动多目标追踪方法及系统 |
CN110619460A (zh) * | 2019-09-05 | 2019-12-27 | 北京邮电大学 | 基于深度学习目标检测的教室课堂质量评估系统及方法 |
CN110807585A (zh) * | 2019-10-30 | 2020-02-18 | 山东商业职业技术学院 | 一种学员课堂学习状态在线评估方法及系统 |
CN110889397A (zh) * | 2018-12-28 | 2020-03-17 | 南京大学 | 一种以人为主体的视觉关系分割方法 |
CN110889672A (zh) * | 2019-11-19 | 2020-03-17 | 哈尔滨理工大学 | 一种基于深度学习的学生打卡及上课状态的检测系统 |
-
2020
- 2020-04-10 CN CN202010280435.1A patent/CN111507227B/zh active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011257702A (ja) * | 2010-06-11 | 2011-12-22 | Sharp Corp | 表示装置 |
CN106204779A (zh) * | 2016-06-30 | 2016-12-07 | 陕西师范大学 | 基于多人脸数据采集策略和深度学习的课堂考勤方法 |
CN107895244A (zh) * | 2017-12-26 | 2018-04-10 | 重庆大争科技有限公司 | 课堂教学质量评估方法 |
CN109993031A (zh) * | 2017-12-29 | 2019-07-09 | 杭州海康威视数字技术股份有限公司 | 一种畜力车目标违章行驶行为检测方法、装置及相机 |
CN108629762A (zh) * | 2018-03-28 | 2018-10-09 | 浙江工业大学 | 一种骨龄评测模型减少干扰特征的图像预处理方法及系统 |
CN108805009A (zh) * | 2018-04-20 | 2018-11-13 | 华中师范大学 | 基于多模态信息融合的课堂学习状态监测方法及系统 |
US20190371080A1 (en) * | 2018-06-05 | 2019-12-05 | Cristian SMINCHISESCU | Image processing method, system and device |
CN109145713A (zh) * | 2018-07-02 | 2019-01-04 | 南京师范大学 | 一种结合目标检测的小目标语义分割方法 |
CN109035089A (zh) * | 2018-07-25 | 2018-12-18 | 重庆科技学院 | 一种在线课堂氛围评估系统及方法 |
CN109359521A (zh) * | 2018-09-05 | 2019-02-19 | 浙江工业大学 | 基于深度学习的课堂质量双向评估系统 |
CN110889397A (zh) * | 2018-12-28 | 2020-03-17 | 南京大学 | 一种以人为主体的视觉关系分割方法 |
CN109887200A (zh) * | 2019-02-28 | 2019-06-14 | 商洛学院 | 一种基于物联网的图书自助借还系统及方法 |
CN109977841A (zh) * | 2019-03-20 | 2019-07-05 | 中南大学 | 一种基于对抗深度学习网络的人脸识别方法 |
CN110619657A (zh) * | 2019-08-15 | 2019-12-27 | 青岛文达通科技股份有限公司 | 一种面向智慧社区的多摄像机联动多目标追踪方法及系统 |
CN110443226A (zh) * | 2019-08-16 | 2019-11-12 | 重庆大学 | 一种基于姿态识别的学生状态评价方法及系统 |
CN110619460A (zh) * | 2019-09-05 | 2019-12-27 | 北京邮电大学 | 基于深度学习目标检测的教室课堂质量评估系统及方法 |
CN110807585A (zh) * | 2019-10-30 | 2020-02-18 | 山东商业职业技术学院 | 一种学员课堂学习状态在线评估方法及系统 |
CN110889672A (zh) * | 2019-11-19 | 2020-03-17 | 哈尔滨理工大学 | 一种基于深度学习的学生打卡及上课状态的检测系统 |
Non-Patent Citations (3)
Title |
---|
KAIMING HE ET AL: "Mask R-CNN", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
吴智丽: "在线学习环境下基于眼部状态识别的学生注意评估研究", 《中国优秀硕士学位论文全文数据库社会科学Ⅱ辑》 * |
林椿眄: "基于Mask R-CNN(FFM)的城市交通场景多目标检测与分割技术", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112150478A (zh) * | 2020-08-31 | 2020-12-29 | 温州医科大学 | 一种构建半监督图像分割框架的方法及系统 |
CN112025692A (zh) * | 2020-09-01 | 2020-12-04 | 广东工业大学 | 一种自学习机器人的控制方法、装置和电子设备 |
CN112364321A (zh) * | 2020-11-05 | 2021-02-12 | 巢湖学院 | 基于云桌面的用于移动学习智能手机的监测方法 |
CN113255915A (zh) * | 2021-05-20 | 2021-08-13 | 深圳思谋信息科技有限公司 | 基于结构化实例图的知识蒸馏方法、装置、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111507227B (zh) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111507227B (zh) | 基于深度学习的多学生个体分割及状态自主识别方法 | |
CN106960202B (zh) | 一种基于可见光与红外图像融合的笑脸识别方法 | |
CN105069400B (zh) | 基于栈式稀疏自编码的人脸图像性别识别系统 | |
CN107481188A (zh) | 一种图像超分辨率重构方法 | |
CN108710829A (zh) | 一种基于深度学习的表情分类及微表情检测的方法 | |
CN111091109B (zh) | 基于人脸图像进行年龄和性别预测的方法、系统和设备 | |
CN106803069A (zh) | 基于深度学习的人群高兴程度识别方法 | |
CN113657168B (zh) | 基于卷积神经网络的学生学习情绪的识别方法 | |
CN111563452A (zh) | 一种基于实例分割的多人体姿态检测及状态判别方法 | |
CN110889332A (zh) | 一种基于面试中微表情的说谎检测方法 | |
CN110837947B (zh) | 一种基于音视频分析技术的教师授课专注度的评估方法 | |
CN110969171A (zh) | 基于改进卷积神经网络的图像分类模型、方法及应用 | |
CN113065431B (zh) | 一种基于隐马尔可夫模型和循环神经网络的人体违规行为预测方法 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN112528777A (zh) | 一种用于课堂环境下的学生面部表情识别方法及系统 | |
CN114463843A (zh) | 一种基于深度学习的多特征融合鱼类异常行为检测方法 | |
CN115546861A (zh) | 一种在线课堂专注度识别方法、系统、设备及介质 | |
CN114022918A (zh) | 基于多姿态的学习者兴奋状态标签算法 | |
CN114140844A (zh) | 人脸静默活体检测方法、装置、电子设备及存储介质 | |
CN115797829A (zh) | 一种在线课堂学习状态分析方法 | |
CN111563468A (zh) | 一种基于神经网络注意力的驾驶员异常行为检测方法 | |
CN108932471A (zh) | 一种车辆检测方法 | |
CN114187640A (zh) | 一种基于线上课堂的学情观察方法、系统、设备及介质 | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
CN110827319B (zh) | 一种基于局部敏感直方图改进的Staple目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |