CN110503000B - 一种基于人脸识别技术的教学抬头率测量方法 - Google Patents

一种基于人脸识别技术的教学抬头率测量方法 Download PDF

Info

Publication number
CN110503000B
CN110503000B CN201910677848.0A CN201910677848A CN110503000B CN 110503000 B CN110503000 B CN 110503000B CN 201910677848 A CN201910677848 A CN 201910677848A CN 110503000 B CN110503000 B CN 110503000B
Authority
CN
China
Prior art keywords
face
frame
layer
head
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910677848.0A
Other languages
English (en)
Other versions
CN110503000A (zh
Inventor
姜周曙
邓小海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201910677848.0A priority Critical patent/CN110503000B/zh
Publication of CN110503000A publication Critical patent/CN110503000A/zh
Application granted granted Critical
Publication of CN110503000B publication Critical patent/CN110503000B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Educational Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Educational Administration (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于人脸识别技术的教学抬头率测量方法,本发明由人脸采集、人脸检测、特征提取、特征匹配、人脸跟踪、视频组间的匹配以及抬头率的计算。利用教室摄像头所采集的视频流数据进行人脸识别分析,并根据教学过程中学生头部姿态变化判断抬头与否并生成相应的抬头率图表。使用人脸识别技术来测量教学抬头率本发明为教学评估中的抬头率这一指标提供一种客观评价手段;引入统计的思想计算教学抬头率,对检测到人脸进行身份验证进一步精确了教学抬头率的计算。师生可根据教学过程中抬头率变化调整相应的教学模式;为教学研究数据库的建立提供有效数据;能够在不干扰正常教学情况下获取教学抬头率得变化。

Description

一种基于人脸识别技术的教学抬头率测量方法
技术领域
本发明属于现代教育或教学评估领域,主要是一种基于人脸识别技术的教学抬头率测量方法。
背景技术
人脸识别是一种生物识别技术,描述了人脸的整体特征和轮廓,是一种通过模式识别来对人的身份进行识别的技术。然而对静态图像的人脸识别往往难以满足需求,因此研究重心慢慢转向视频这种动态图像的识别跟踪。
基于视频流人脸识别的流程主要分为4个步骤即人脸采集、人脸检测、特征提取以及人脸匹配。首先通过摄像源采集到视频流资源,在采集的过程中要确保采集到的视频资源像素要高这样才能更好的提高识别的精度。然后,将视频流资源分为帧图像并作为样本输入,通过对帧图像的轮廓进行特定算法从而判断有无人脸。最后,提取帧图像的人脸深层次特征并通过计算机代码表示出来,将提取出来的特征与数据库中的人脸进行比对来确定是否为同一人。
这种基于视频流的人脸识别方法易受图像清晰度、人脸转动以及背景等因素的影响,仅仅通过单一的特征提取网络难以保证识别的精度。采用本发明的人脸识别技术方案能够达到教学评估过程中所需要的识别精度,也为教学领域的教学评估提供了一种客观的评价手段。使得教学评估不在依赖人们的主观评价。
发明内容
本发明针对教学评估中的抬头率这一指标缺少客观评价手段以及现有技术的不足,给出了一种基于人脸识别技术的教学抬头率测量方法。
本发明包括如下步骤:首先将视频流帧序列划分为人脸识别帧与人脸跟踪帧,将最优样本数据划分为i组,每组N帧。分组后的视频帧包括第一帧的人脸识别帧以及2~N帧的人脸跟踪帧。人脸识别帧进行人脸的识别与匹配,然后人脸跟踪帧中对匹配成功的人脸进行跟踪。在整个跟踪过程中以在视频流数据中得到的准确头部姿态信息作为抬头依据。
具体需要执行以下步骤:
步骤A1、人脸采集:通过教师录播系统,利用教室前后安置的摄像头采集教学视频,并将采集到的视频资源作为样本输入。
步骤A2、人脸检测:通过人脸识别帧图像的处理从而输出人脸建议框。由于人脸检测易受图像清晰度、人脸转动的影响,为了提高人脸识别的精度,引入了双层网络级联的人脸检测算法。
步骤A3、特征提取:在步骤A2输出人脸建议框的基础上进行深层次处理。人脸的特性需要深层次的特征提取才能将其有效地区分出来。构造一个包含多个卷积层、采样层以及全连接层的模型,对每个网络层的输入、输出尺寸和滤波器的个数进行重新设计。
步骤A4、特征匹配:依据全连接层的输出的特征向量匹配。从用以匹配的人脸中分别提取128维特征向量,通过计算特征向量的余弦距离来判断是否为同一人脸。余弦距离所反映的是两人的相似程度,当余弦距离超过限定阈值就认为匹配成功。如果是一对多的匹配且有多数超过阈值,则取阈值最高即相识度最高的作为匹配结果。
步骤A5、人脸跟踪:人脸跟踪帧使用的是核相关滤波的高速跟踪方法。该方法把跟踪问题简化为个二分类问题,从而找到目标与背景的边界。人脸跟踪帧在第i帧中检测到人脸位置并记录其坐标M,将其作为正样本,在此标记样本附近采集负样本,训练一个目标采集器将图像样本输入获取响应值。接着在i+1帧中的坐标M处采集样本,将样本输入目标检测模型取得响应值,响应值最大的地方即i+1帧中目标人脸所在的位置。
步骤A6、视频组间的匹配:相邻的视频组间使用双重匹配。取出两组中前一组的最后一帧与后一组的第一帧进行匹对,过程中保存图像中所有人脸框的位置,计算两帧中每个人脸间的欧式距离,根据距离与阈值的大小判定是否为同一人脸。在完成人脸识别后比较两帧中相对应的人脸身份信息,取相识度大的为最终结果。双重匹配机制不仅连接了相邻的视频组序列,也保证了识别的精度。
步骤A7:抬头率的计算:通过步骤A1~A6实时得到人脸信息,准确识别并匹配到人脸信息作为抬头的依据并且以时间段为节点判断该时间段内是否抬头。以5分钟为一时间节点,该时间段内学生抬头的时间大于4分钟则认为该学生在此时间段内抬头。
进一步的,步骤A2所述的双层联级网络呈现出金字塔结构,金字塔结构的第一级网络结合anchor机制实现了对视频帧图像进行不同尺度的采样。卷积分解策略和网络加速方法的使用能够增强网络的特征提取。卷积层的使用加快了对局部区域的特征提取,但是对于全局特征并不敏感。因此,第一级网络的输出中仍然存在一部分的非人脸建议框。二级深层次网络进一步提炼人脸建议框,减少网络中输出的非人脸建议框数量,降低了第一级网络输出建议框中的困难样本数,提高了识别精度。二级深层次网络的使用降低了第一级网络输出建议框中的困难样本数,也进一步提炼了人脸建议框,提高了识别精度。
精度的提升是以训练花费时间为代价,前向传播中全连接层的参数太多导致卷积层的计算时间增加。在双层级联网络中都引入BN层,能够加快网络训练速度同时降低权重初始化的成本。训练时,固定BN层的权重训练整个网络,训练结束后将BN层权重与它相邻的卷积层权重合并。
卷积层和BN层的表达式见式(1)和(2):
y1=ωx+b (1);
Figure GDA0003455402500000031
其中:ω和b是卷积层的权重和偏置值,μ、σ、α和β分别代表BN层的均值、方差、刻度以及滑动系数。
BN层本质上是对卷积层的结果进行二次处理,使得两层合并后模型中的权重和偏执值优化为ω'和b',也进一步降低了训练所花费的事件。
进一步的,步骤A3所述的全连接层的模型所采用的是MFM激活函数。通过比较两个特征图各位置的大小,取相应位置的最大值输出。假设有输入卷积层C∈Rh×ω×2n,MFM激活函数的数学表达式为式(3):
Figure GDA0003455402500000032
其中,输入卷积层的通道数为2n,h×ω表示卷积核的大小,1≤i≤h,1≤j≤ω,l∈Rh×ω×n,由(3)式可得,激活函数的梯度表示为式(4):
Figure GDA0003455402500000041
其中,k'为常数,1≤k'≤2n,并且有式(5):
Figure GDA0003455402500000042
分析(4)式可知,激活层的梯度有1/2为0,因此MFM就能通过聚合策略得到最紧凑的特征表示。相较于Rule激活函数的高维稀疏梯度,MFM能够得到更加紧凑的特征表示,并且还能实现特征的选取,达到降维的效果。此模型的使用在不失精度的情况下加快了识别的速度,进一步释放了空间存储压力,对于在视频流中进行人脸识别有较好的优化效果。
由于人脸的极为复杂的特性,仅使用Softmax Loss函数作为特征提取网络的损失函数只能增大不同类人脸间的距离,而无法减少同一类人脸间的距离,这将使人脸识别的精度无法得到保证。考虑到Softmax Loss函数的特性,将其与Center Loss函数联合使用,这样就能在增大类间距离的同时减小类内距离。将两损失函数进行加权处理,得到最终的联合损失函数如式(6):
Figure GDA0003455402500000043
式(6)中:M为训练数据类别总数;θ为最后一个全连接层的权重集合;
Figure GDA0003455402500000044
为对应的偏置值;λ为Center Loss的权重值,用来平衡这两个损失;M为训练类别总数;N为训练批次大小;xi是批次中第i的样本的特征向量,属于K类;cK是K类的中心特征向量。
本发明考虑到教学评估中抬头率这一指标缺乏客观的评价手段,拥有较高的精度,能够通过对视频图像的分析得到课堂教学过程中学生的抬头率。该方法能够通过人脸识别技术判断在教学过程中学生的抬头率变化并生成相应的图表,此外该方法还能有效的分析智慧学习环境下师生的教学特征,为教学研究数据库的建立以及教学质量的评估提供了一种客观的评价手段。此方法的运用解决了教学评估中的抬头率缺乏客观评价标准这一难题,同时能够有效地分析智慧学习环境下师生的教学特征,为教学研究数据库的建立提供了技术支持。
附图说明
图1为本发明的方法框架图;
图2为人脸特征提取模型示意图;
图3为联合损失函数具体应用图;
图4为人脸跟踪流程图;
图5为抬头率分析图。
具体实施方式
下面结合具体实例说明本发明的具体实施方式。
如图1所示,一种基于人脸识别技术的教学抬头率测量方法,首先将视频流帧序列划分为人脸识别帧与人脸跟踪帧,将测试的最优结果样本数据划分为i组(每组N帧)。分组后的视频帧包括第一帧(R)的人脸识别帧以及2~N帧(T)人脸跟踪帧。人脸识别帧进行人脸的识别与匹配,然后人脸跟踪帧中对匹配成功的人脸进行跟踪。在整个跟踪过程中以在视频流数据中得到的准确头部姿态信息作为抬头依据。
具体需要执行以下步骤:
步骤A1、人脸采集:通过教师录播系统,利用教室前后安置的摄像头采集教学视频,并将采集到的视频资源作为样本输入。
步骤A2、人脸检测:通过人脸识别帧图像的处理从而输出人脸建议框。由于人脸检测易受图像清晰度、人脸转动等因素的影响,为了提高人脸识别的精度,引入了双层网络级联的人脸检测算法。双层联级网络呈现出金字塔结构,金字塔结构的第一级网络结合anchor机制实现了对视频帧图像进行不同尺度的采样。卷积分解策略和网络加速方法的使用能够增强网络的特征提取。卷积层的使用加快了对局部区域的特征提取,但是对于全局特征并不敏感。因此,第一级网络的输出中仍然存在一部分的非人脸建议框。二级深层次网络进一步提炼人脸建议框,减少网络中输出的非人脸建议框数量,降低了第一级网络输出建议框中的困难样本数,提高了识别精度。
精度的提升是以训练花费时间为代价,前向传播中全连接层的参数太多导致卷积层的计算时间增加。在双层级联网络中都引入BN层,能够加快网络训练速度同时降低权重初始化的成本。训练时,固定BN层的权重训练整个网络,训练结束后将BN层权重与它相邻的卷积层权重合并。
卷积层和BN层的表达式见式(1)和(2):
y1=ωx+b (1);
Figure GDA0003455402500000061
其中:ω和b是卷积层的权重和偏置值,μ、σ、α和β分别代表BN层的均值、方差、刻度以及滑动系数。
BN层本质上是对卷积层的结果进行二次处理,使得两层合并后模型中的权重和偏执值优化为ω'和b',也进一步降低了训练所花费的事件。
步骤A3、特征提取:在输出人脸建议框的基础上进行深层次处理。人脸的特性需要深层次的特征提取才能将其有效地区分出来。构造一个包含多个卷积层、采样层以及全连接层的模型,对每个网络层的输入、输出尺寸和滤波器的个数进行重新设计。全连接层的输出的特征向量是我们匹配的依据。
为了得到更加紧实的特征,模型所采用的是MFM激活函数。它通过比较两个特征图各位置的大小,取相应位置的最大值输出。
假设有输入卷积层C∈Rh×ω×2n,MFM激活函数的数学表达式为式(3):
Figure GDA0003455402500000062
其中,输入卷积层的通道数为2n,h×ω表示卷积核的大小,1≤i≤h,1≤j≤ω,l∈Rh×ω×n。由(3)式可得,激活函数的梯度表示为式(4):
Figure GDA0003455402500000063
其中,k'为常数,1≤k'≤2n,并且有式(5):
Figure GDA0003455402500000071
分析(4)式可知,激活层的梯度有1/2为0,因此MFM就能通过聚合策略得到最紧凑的特征表示。相较于Rule激活函数的高维稀疏梯度,MFM能够得到更加紧凑的特征表示,并且还能实现特征的选取,达到降维的效果。此模型的使用在不失精度的情况下加快了识别的速度,进一步释放了空间存储压力,对于在视频流中进行人脸识别有较好的优化效果。
损失函数在网络中的具体使用如图3所示。由于人脸的极为复杂的特性,仅使用Softmax Loss函数作为特征提取网络的损失函数只能增大不同类人脸间的距离,而无法减少同一类人脸间的距离,这将使人脸识别的精度无法得到保证。考虑到Softmax Loss函数的特性,将其与Center Loss函数联合使用,这样就能在增大类间距离的同时减小类内距离。将两损失函数进行加权处理,得到最终的联合损失函数如式(6):
Figure GDA0003455402500000072
式(6)中:M为训练数据类别总数;θ为最后一个全连接层的权重集合;
Figure GDA0003455402500000073
为对应的偏置值;λ为Center Loss的权重值,用来平衡这两个损失;M为训练类别总数;N为训练批次大小;xi是批次中第i的样本的特征向量,属于K类;cK是K类的中心特征向量。
步骤A4、特征匹配:从用以匹配的人脸中分别提取128维特征向量,通过计算特征向量的余弦距离来判断是否为同一人脸。余弦距离所反映的是两人的相似程度,当余弦距离超过一个限定阈值就认为匹配成功。如果是一对多的匹配且有多数超过阈值,则取阈值最高即相识度最高的作为匹配结果。
步骤A5、人脸跟踪:如图4所示,人脸跟踪帧使用的是核相关滤波的高速跟踪方法(KCF)。该方法把跟踪问题简化为个二分类问题,从而找到目标与背景的边界。人脸跟踪帧在第i帧中检测到人脸位置并记录其坐标(M),将其作为正样本,在此标记样本附近采集负样本,训练一个目标采集器将图像样本输入获取响应值。接着在i+1帧中的坐标M处采集样本,将样本输入目标检测模型取得响应值,响应值最大的地方即i+1帧中目标人脸所在的位置。
KCF算法利用循环偏移快速制造大量的分类器训练样本,这样训练出来的目标检测器将具有更好的性能。KCF使用脊回归算法对目标检测器进行训练,算法利用循环矩阵的特性把复杂问题的求解变换到了傅里叶域,避免了矩阵求逆,从而极大地降低了计算难度。如果在保证准确度的情况下使用方向梯度直方图(HOG)特征来跟踪,将获得更快的跟踪速度。
步骤A6、视频组间的匹配:相邻的视频组间使用双重匹配。取出两组中前一组的最后一帧与后一组的第一帧进行匹对,算法过程中保存图像中所有人脸框的位置,计算两帧中每个人脸间的欧式距离,根据距离与阈值的大小判定是否为同一人脸。在完成人脸识别后比较两帧中相对应的人脸身份信息,取相识度大的为最终结果。双重匹配机制不仅连接了相邻的视频组序列,也保证了识别的精度。
步骤A7、抬头率的计算:抬头率是教学质量评价的重要指标。首先通过摄像机获取视频源数据,通过双层网络检测人脸并构造一个包含多个卷积层、采样层以及全连接层的特征提取模型,该模型全连接层输出的特征向量是我们匹配的依据。匹配完成之后就需要使用核相关滤波的高速跟踪方法(KCF)以及使用双重匹配进行视频组间的匹配,这样就能实时获取人脸信息。通过以上步骤就能实时得到人脸信息,我们以能准确识别到人脸并且该人脸与数据库中的人脸身份信息匹配成功作为抬头的依据,并且考虑到学生上课做笔记等情况并非处于抬头状态以时间段为统计节点判断该时间段内是否抬头。时间段内抬头率的统计方法:以5分钟为一时间节点,该时间段内学生抬头的时间大于4分钟则认为该学生在此时间段内抬头。
在YTF发布的基准测试方法下模拟人脸识别实验结果如表1所示。从YTF下载的500个视频对随机分为10组,每组正负样本对各25个,测试在每组包含6帧的样本平均相识度和处理速度。
表1
Figure GDA0003455402500000091
如图5所示,在教学评估中所采用的是小班级的教室视频,该视频时长45分钟包含老师1人,学生20人。抬头率很大程度上反映了学生们对这门课的喜爱程度,也是教学质量体现的重要指标。此项评估过程中以能准确得到头部姿态信息,既能输出人脸识别框图作为抬头的依据。抬头率分析图如图5所示,该图以5分钟的平均抬头率为一节点,该时间段内学生抬头的时间大于4分钟则认为该学生在此时间段内抬头。
以上内容是结合具体的实例给出的实施方式对本发明的进一步说明,不能认定本发明的具体实施只限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离发明构思的前提下还可以做出一定程度的简单推演或者替换,都应当视为属于本发明的保护范围。

Claims (2)

1.一种基于人脸识别技术的教学抬头率测量方法,其特征在于:包括如下步骤:首先将视频流帧序列划分为人脸识别帧与人脸跟踪帧,将最优样本数据划分为i组,每组N帧;分组后的视频帧包括第一帧的人脸识别帧以及2~N帧的人脸跟踪帧;人脸识别帧进行人脸的识别与匹配,然后人脸跟踪帧中对匹配成功的人脸进行跟踪;在整个跟踪过程中以在视频流数据中得到的人脸信息与数据库中的人脸身份信息验证成功作为抬头的依据,并且引入统计的思想,以时间为节点计算抬头率;
具体需要执行以下步骤:
步骤A1、人脸采集:通过教师录播系统,利用教室前后安置的摄像头采集教学视频,并将采集到的视频资源作为样本输入;
步骤A2、人脸检测:通过人脸识别帧图像的处理从而输出人脸建议框;由于人脸检测易受图像清晰度、人脸转动的影响,为了提高人脸识别的精度,引入了双层网络级联的人脸检测算法;
步骤A3、特征提取:在步骤A2输出人脸建议框的基础上进行深层次处理;人脸的特性需要深层次的特征提取才能将其有效地区分出来;构造一个包含多个卷积层、采样层以及全连接层的模型,对每个网络层的输入、输出尺寸和滤波器的个数进行重新设计;
所述的全连接层的模型所采用的是MFM激活函数;通过比较两个特征图各位置的大小,取相应位置的最大值输出;
假设有输入卷积层C∈Rh×ω×2n,MFM激活函数的数学表达式为式(3):
Figure FDA0003455402490000011
其中,输入卷积层的通道数为2n,h×ω表示卷积核的大小,1≤i≤h,1≤j≤ω,l∈Rh ×ω×n,由(3)式可得,激活函数的梯度表示为式(4):
Figure FDA0003455402490000012
其中,k'为常数,1≤k'≤2n,并且有式(5):
Figure FDA0003455402490000021
分析(4)式可知,激活层的梯度有1/2为0,因此MFM就能通过聚合策略得到最紧凑的特征表示;相较于Rule激活函数的高维稀疏梯度,MFM能够得到更加紧凑的特征表示,并且还能实现特征的选取,达到降维的效果;此模型的使用在不失精度的情况下加快了识别的速度,进一步释放了空间存储压力,对于在视频流中进行人脸识别有优化效果;
由于人脸的极为复杂的特性,仅使用Softmax Loss函数作为特征提取网络的损失函数只能增大不同类人脸间的距离,而无法减少同一类人脸间的距离,这将使人脸识别的精度无法得到保证;考虑到Softmax Loss函数的特性,将其与Center Loss函数联合使用,这样就能在增大类间距离的同时减小类内距离;将两损失函数进行加权处理,得到最终的联合损失函数如式(6):
Figure FDA0003455402490000022
式(6)中:M为训练数据类别总数;θ为最后一个全连接层的权重集合;
Figure FDA0003455402490000023
为对应的偏置值;λ为Center Loss的权重值,用来平衡这两个损失;M为训练类别总数;N为训练批次大小;xi是批次中第i的样本的特征向量,属于K类;cK是K类的中心特征向量;
步骤A4、特征匹配:依据全连接层的输出的特征向量匹配;从用以匹配的人脸中分别提取128维特征向量,通过计算特征向量的余弦距离来判断是否为同一人脸;余弦距离所反映的是两人的相似程度,当余弦距离超过限定阈值就认为匹配成功;如果是一对多的匹配且有多数超过阈值,则取阈值最高即相识度最高的作为匹配结果;
步骤A5、人脸跟踪:人脸跟踪帧使用的是核相关滤波的高速跟踪方法;该方法把跟踪问题简化为个二分类问题,从而找到目标与背景的边界;人脸跟踪帧在第i帧中检测到人脸位置并记录其坐标M,将其作为正样本,在此标记样本附近采集负样本,训练一个目标采集器将图像样本输入获取响应值;接着在i+1帧中的坐标M处采集样本,将样本输入目标检测模型取得响应值,响应值最大的地方即i+1帧中目标人脸所在的位置;
步骤A6、视频组间的匹配:相邻的视频组间使用双重匹配;取出两组中前一组的最后一帧与后一组的第一帧进行匹对,过程中保存图像中所有人脸框的位置,计算两帧中每个人脸间的欧式距离,根据距离与阈值的大小判定是否为同一人脸;在完成人脸识别后比较两帧中相对应的人脸身份信息,取相识度大的为最终结果;双重匹配机制不仅连接了相邻的视频组序列,也了识别的精度;
步骤A7、抬头率的计算:通过步骤A1~A6实时得到人脸信息,并且该人脸与数据库中的人脸身份信息匹配成功作为抬头的依据,并且考虑到学生上课时的非抬头状态以时间段为统计节点判断该时间段内是否抬头;时间段内抬头率的统计方法:以5分钟为一时间节点,该时间段内学生抬头的时间大于4分钟则认为该学生在此时间段内抬头。
2.如权利要求1所述的一种基于人脸识别技术的教学抬头率测量方法,其特征在于:步骤A2所述的双层联级网络呈现出金字塔结构,金字塔结构的第一级网络结合anchor机制实现了对视频帧图像进行不同尺度的采样;卷积分解策略和网络加速方法的使用能够增强网络的特征提取;卷积层的使用加快了对局部区域的特征提取,但是对于全局特征并不敏感;因此,第一级网络的输出中仍然存在一部分的非人脸建议框;二级深层次网络进一步提炼人脸建议框,减少网络中输出的非人脸建议框数量,降低了第一级网络输出建议框中的困难样本数,提高了识别精度;
精度的提升是以训练花费时间为代价,前向传播中全连接层的参数太多导致卷积层的计算时间增加;在双层级联网络中都引入BN层,能够加快网络训练速度同时降低权重初始化的成本;训练时,固定BN层的权重训练整个网络,训练结束后将BN层权重与它相邻的卷积层权重合并;
卷积层和BN层的表达式见式(1)和(2):
y1=ωx+b (1);
Figure FDA0003455402490000031
其中:ω和b是卷积层的权重和偏置值,μ、σ、α和β分别代表BN层的均值、方差、刻度以及滑动系数;
BN层本质上是对卷积层的结果进行二次处理,使得两层合并后模型中的权重和偏执值优化为ω'和b',也进一步降低了训练所花费的事件。
CN201910677848.0A 2019-07-25 2019-07-25 一种基于人脸识别技术的教学抬头率测量方法 Active CN110503000B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910677848.0A CN110503000B (zh) 2019-07-25 2019-07-25 一种基于人脸识别技术的教学抬头率测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910677848.0A CN110503000B (zh) 2019-07-25 2019-07-25 一种基于人脸识别技术的教学抬头率测量方法

Publications (2)

Publication Number Publication Date
CN110503000A CN110503000A (zh) 2019-11-26
CN110503000B true CN110503000B (zh) 2022-06-07

Family

ID=68587297

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910677848.0A Active CN110503000B (zh) 2019-07-25 2019-07-25 一种基于人脸识别技术的教学抬头率测量方法

Country Status (1)

Country Link
CN (1) CN110503000B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112084990A (zh) * 2020-09-16 2020-12-15 重庆科技学院 一种基于卷积神经网络及回溯的课堂抬头率统计系统
CN112990105B (zh) * 2021-04-19 2021-09-21 北京优幕科技有限责任公司 对用户评价的方法、装置、电子设备和存储介质
CN113723188B (zh) * 2021-07-28 2024-06-21 国网浙江省电力有限公司电力科学研究院 一种结合人脸与步态特征的着装一致人员身份核验方法
CN114237237A (zh) * 2021-12-06 2022-03-25 首都经济贸易大学 一种无人驾驶汽车自主转向控制的路径优化方法
CN115861907A (zh) * 2023-03-02 2023-03-28 山东华夏高科信息股份有限公司 一种头盔检测方法和系统
CN117036117B (zh) * 2023-06-14 2024-05-24 广东开放大学(广东理工职业学院) 基于人工智能的课堂状态评估方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102629275A (zh) * 2012-03-21 2012-08-08 复旦大学 面向跨媒体新闻检索的人脸-人名对齐方法及系统
CN103324911A (zh) * 2013-05-30 2013-09-25 苏州福丰科技有限公司 一种基于人脸识别的防作弊系统
CA2773372A1 (en) * 2012-04-03 2013-10-03 Joseph S.B. Im System and method for teaching a language
CN105894414A (zh) * 2016-05-12 2016-08-24 重庆大学 一种基于wifi 和人脸识别技术的课堂点名方法
CN108846853A (zh) * 2018-04-26 2018-11-20 武汉幻视智能科技有限公司 一种基于目标跟踪和姿态检测的教学行为分析方法及装置
CN109472247A (zh) * 2018-11-16 2019-03-15 西安电子科技大学 基于深度学习非配合式的人脸识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102629275A (zh) * 2012-03-21 2012-08-08 复旦大学 面向跨媒体新闻检索的人脸-人名对齐方法及系统
CA2773372A1 (en) * 2012-04-03 2013-10-03 Joseph S.B. Im System and method for teaching a language
CN103324911A (zh) * 2013-05-30 2013-09-25 苏州福丰科技有限公司 一种基于人脸识别的防作弊系统
CN105894414A (zh) * 2016-05-12 2016-08-24 重庆大学 一种基于wifi 和人脸识别技术的课堂点名方法
CN108846853A (zh) * 2018-04-26 2018-11-20 武汉幻视智能科技有限公司 一种基于目标跟踪和姿态检测的教学行为分析方法及装置
CN109472247A (zh) * 2018-11-16 2019-03-15 西安电子科技大学 基于深度学习非配合式的人脸识别方法

Also Published As

Publication number Publication date
CN110503000A (zh) 2019-11-26

Similar Documents

Publication Publication Date Title
CN110503000B (zh) 一种基于人脸识别技术的教学抬头率测量方法
US11195051B2 (en) Method for person re-identification based on deep model with multi-loss fusion training strategy
CN111325115B (zh) 带有三重约束损失的对抗跨模态行人重识别方法和系统
WO2020010785A1 (zh) 一种课堂教学认知负荷测量系统
US11531876B2 (en) Deep learning for characterizing unseen categories
CN106407958B (zh) 基于双层级联的面部特征检测方法
CN109255289B (zh) 一种基于统一式生成模型的跨衰老人脸识别方法
CN106650619A (zh) 一种人体动作识别方法
CN115995018A (zh) 基于样本感知蒸馏的长尾分布视觉分类方法
CN109377429A (zh) 一种人脸识别素质教育智慧评价系统
CN112528777A (zh) 一种用于课堂环境下的学生面部表情识别方法及系统
CN115346149A (zh) 基于时空图卷积网络的跳绳计数方法和系统
CN116110089A (zh) 一种基于深度自适应度量学习的面部表情识别方法
CN114492634B (zh) 一种细粒度装备图片分类识别方法及系统
Zheng et al. Attention assessment based on multi‐view classroom behaviour recognition
Fujii et al. Hierarchical group-level emotion recognition in the wild
CN109815887B (zh) 一种基于多智能体协作的复杂光照下人脸图像的分类方法
Hossain et al. Automated online exam proctoring system using computer vision and hybrid ML classifier
CN108197593B (zh) 基于三点定位方法的多尺寸人脸表情识别方法及装置
CN106446837B (zh) 一种基于运动历史图像的挥手检测方法
CN115205961A (zh) 一种羽毛球动作识别方法、装置、电子设备及存储介质
Hendryli et al. Siamese network's performance for face recognition
CN112580526A (zh) 基于视频监控的学生课堂行为识别系统
Pang et al. Target tracking based on siamese convolution neural networks
CN111553299A (zh) 基于图像大数据提取学生面部信息实现教育心理学分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant