CN111582202A - 一种智能网课系统 - Google Patents

一种智能网课系统 Download PDF

Info

Publication number
CN111582202A
CN111582202A CN202010400166.8A CN202010400166A CN111582202A CN 111582202 A CN111582202 A CN 111582202A CN 202010400166 A CN202010400166 A CN 202010400166A CN 111582202 A CN111582202 A CN 111582202A
Authority
CN
China
Prior art keywords
layer
image
output
input
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010400166.8A
Other languages
English (en)
Other versions
CN111582202B (zh
Inventor
刘昱昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Maritime University
Original Assignee
Shanghai Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Maritime University filed Critical Shanghai Maritime University
Priority to CN202010400166.8A priority Critical patent/CN111582202B/zh
Publication of CN111582202A publication Critical patent/CN111582202A/zh
Application granted granted Critical
Publication of CN111582202B publication Critical patent/CN111582202B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种智能网课系统,针对于传统网课系统无法有效监督学生们的上课行为和互动较少的问题进行改进,利用摄像头对监控区域进行识别,并判断当前监控区域内是否是学生本人;通过模式识别技术识别当前学生的表情,注意力方向;通过模式识别技术识别当前学生与教师交互的手势动作,提高学生们上课的参与度。本发明涉及到的功能不会改变原有网课系统的架构,能够以即插即用方式与现有网课系统对接,从而使本发明在实际应用中有着较高的通用性和灵活性。

Description

一种智能网课系统
技术领域
本发明涉及计算机视觉监控技术领域,目标检测和模式识别领域,具体涉及用于对网上上课学生的学习过程进行个体检测和动作识别的领域。
背景技术
随着在线教育的不断发展,大量课程采取网上教学方式。但是在实际使用中,现有网课系统存在着如下两个问题:1.现有网课系统无法有效监督学生们的上课行为,包括:如何监督学生们上课,如何确保当前视频下真的是学生本人,如何识别学生们的动作,这些监督措施的缺失导致网课效果下降;2.现有网课系统过多的依赖学生们对电脑操作完成师生互动,过多的电脑操作会导致学生们注意力下降。
本发明所提出的一种智能网课系统是利用摄像头(通常为笔记本摄像头)对监控区域进行识别,通过目标检测技术识别当前监控区域内是否有个体,该个体是否是真人,并且确定是否是学生本人;通过模式识别技术识别当前学生的表情,注意力方向;通过模式识别技术识别当前学生与教师交互的手势动作,提高学生们上课的参与度。本发明涉及到的功能不会改变原有网课系统的架构,能够以即插即用方式与现有网课系统对接,从而使本发明在实际应用中有着较高的通用性和灵活性。
发明内容
本发明所要解决的技术问题是为了克服传统网课模式无法有效监督学生们的上课行为问题和上课互动性差的问题,提出了一种智能网课系统。本系统通过使用目标检测和模式识别算法来识别学生的身份、注意力和手势动作,处理结果提交给教师,由教师根据实际情况酌情处理。
本发明解决其技术问题所采用的技术方案是:
一种智能网课系统,基于笔记本自带摄像头或电脑连接的摄像头所摄的视频图像作为输入,其中摄像头摆放在能够拍摄到人脸图像的位置,通常摆放在屏幕正前方,若不是正前方,可以在识别结果处理模块中更改人脸朝向的基准偏移角度值来补偿摄像头摆放位置。本系统包括:图像预处理模块,目标检测模块,人脸识别模块,头部方向检测模块,学生动作识别模块,识别结果处理模块。
所述的图像预处理模块对摄像头采集到的图像进行去噪和光照补偿,然后进行图像增强,最后将处理后的图像数据传递给目标检测模块;所述的目标检测模块,对接收到图像预处理模块传递来的图像数据进行目标检测,分别检测当前区域是否有个体,若有个体则提取其面部区域并传递给人脸识别模块和头部方向检测模块、提取上肢区域和手部区域图像传递给学生动作识别模块;所述的人脸识别模块,对接收到目标检测模块传递来的人脸区域图像数据进行人脸识别,并将识别结果分别传递给头部方向检测模块和识别结果处理模块;所述的头部方向检测模块,根据目标检测模块传递来的人脸区域图像数据,并结合人脸识别模块传递来的识别结果进行人脸朝向识别,并将结果传递给识别结果处理模块;所述的学生动作识别模块,根据目标检测模块传递来的上肢区域和手部区域图像数据,进行动作识别,判断当前学生手部动作和上肢动作,并将识别结果传递给识别结果处理模块;所述的识别结果处理模块对接收到的识别结果进行整合,根据人脸识别模块的识别结果判断摄像头前的个体是否为当前登录账户对应的个体,根据头部方向检测模块所识别的个体面部朝向来判断当前个体注意力朝向,根据学生动作识别模块来判断当前学生与教师的交互动作。
所述的图像预处理模块,其方法是:在初始化阶段该模块不工作;在检测过程中:第一步,对监控摄像头所摄的监控图像进行均值去噪,从而得到去噪后的监控图像;第二步,对去噪后的监控图像进行光照补偿,从而得到光照补偿后的图像;第三步,将光照补偿后的图像进行图像增强,将图像增强后的数据传递给目标检测模块。
所述的对监控摄像头所摄的监控图像进行均值去噪,其方法是:设监控摄像头所摄的监控图像为Xsrc,因为Xsrc为彩色RGB图像,因此存在Xsrc-R,Xsrc-G,Xsrc-B三个分量,对于每一个分量Xsrc′,分别进行如下操作:首先设置一个3×3维的窗口,考虑该图像Xsrc′的每个像素点Xsrc′(i,j),以该点为中心点的3×3维矩阵所对应的像素值分别为[Xsrc′(i-1,j-1),Xsrc′(i-1,j),Xsrc′(i-1,j+1),Xsrc′(i,j-1),Xsrc′(i,j),Xsrc′(i,j+1),Xsrc′(i+1,j-1),Xsrc′(i+1,j),Xsrc′(j+1,j+1)]进行从大到小排列,取其排在中间的值为去噪后图像Xsrc″在像素(i,j)所对应滤波后值赋值给Xsrc″(i,j);对于Xsrc′的边界点,会出现其3×3维的窗口所对应的某些像素点不存在的情况,那么只需计算落在窗口内存在的像素点的中间值即可,若窗口内为偶数个点,将排在中间两个像素值的平均值作为该像素点去噪后的像素值赋值给Xsrc″(i,j),从而,新的图像矩阵Xsrc″即为Xsrc在当前RGB分量的去噪后的图像矩阵,对于Xsrc-R,Xsrc-G,Xsrc-B在三个分量分别进行去噪操作后,将得到的Xsrc-R″,Xsrc-G″,Xsrc-B″分量,将这三个新的分量整合成一张新的彩色图像XDen即为去噪后所得的图像。
所述的对去噪后的监控图像进行光照补偿,设去噪后的监控图像XDen,因为XDen为彩色RGB图像,因此XDen存在RGB三个分量,对于每一个分量XDen′,分别进行光照补偿,然后将得到的Xcpst′整合得到彩色RBG图像Xcpst,Xcpst即为XDen光照补偿后的图像,对每一个分量XDen′分别进行光照补偿的步骤为:第一步,设XDen′为m行n列,构造XDensum和NumDen为同样m行n列的矩阵,初始值均为0,
Figure BDA0002489087330000021
步长
Figure BDA0002489087330000022
窗口大小为l,其中函数min(m,n)表示取m和n的最小值,
Figure BDA0002489087330000023
表示取整数部分,sqrt(l)表示l的平方根,若l<1则l=1;第二步,设XDen左上角坐标为(1,1),从坐标(1,1)开始,根据窗口大小为l和步长s确定每一个候选框,该候选框为[(a,b),(a+l,b+l)]所围成的区域,对于XDen′在候选框区域内所对应的图像矩阵进行直方图均衡化,得到候选区域[(a,b),(a+l,b+l)]的均衡化后的图像矩阵XDen″,然后XDensum对应的[(a,b),(a+l,b+l)]区域的每一个元素计算XDensum(a+iXsum,b+jXsum)=XDensum(a+iXsum,b+jXsum)+XDen″(iXsum,jXsum),其中(iXsum,jXsum)为整数且1≤iXsum≤l,1≤jXsum≤l,并将NvmDen对应的[(a,b),(a+l,b+l)]区域内的每一个元素加1;最后,计算
Figure BDA0002489087330000024
Figure BDA0002489087330000025
其中(iXsumNum,jXsumNum)为XDen对应的每一个点,从而得到Xcpst即为对当前分量XDen′进行光照补偿。
所述的根据窗口大小为l和步长s确定每一个候选框,其步骤为:
设监控图像为m行n列,(a,b)为选定的区域的左上角坐标,(a+l,b+l)为选定区域的右下角坐标,该区域由[(a,b),(a+l,b+l)]表示,(a,b)的初始值为(1,1);
当a+l≤m时:
b=1;
当b+l≤n时:
选定的区域为[(a,b),(a+l,b+l)];
b=b+s;
内层循环结束;
a=a+s;
外层循环结束;
上述过程中,每次选定的区域[(a,b),(a+l,b+l)]均为候选框。
所述的对于XDen′在候选框区域内所对应的图像矩阵进行直方图均衡化,设候选框区域为[(a,b),(a+l,b+l)]所围成的区域,XDen″即为XDen′在[(a,b),(a+l,b+l)]区域内的图像信息,其步骤为:第一步,构造向量I,I(iI)为XDen″中像素值等于iI的个数,0≤iI≤255;第二步,计算向量
Figure BDA0002489087330000031
第三步,对于XDen″上的每一个点(iXDen,jXDen),其像素值为XDen″(iXDen,jXDen),计算X″Den(iXDen,jXDen)=I′(X″Den(iXDen,jXDen))。待XDen″图像内的所有像素点值都计算并更改后直方图均衡化过程结束,XDen″内保存的即为直方图均衡化的结果。
所述的将光照补偿后的图像进行图像增强,设光照补偿后的图像为Xcpst,其对应的RGB通道分别为XcpstR,XcpstG,XcpstB,对Xcpst图像增强后得到的图像为Xenh。对其进行图像增强的步骤为:第一步,对于Xcpst的所有分量XcpstR,XcpstG,XcpstB计算其按指定尺度进行模糊后的图像;第二步,构造矩阵LXenhR,LXenhG,LXenhB为与XcpstR相同维度的矩阵,对于图像Xcpst的RGB通道中的R通道,计算LXenhR(i,j)=log(XcpstR(i,j))-LXcpstR(i,j),(i,j)的取值范围为图像矩阵中所有的点,对于图像Xcpst的RGB通道中的G通道和B通道采用与R通道同样的算法得到LXenhG和LXenhB;第三步,对于图像Xcpst的RGB通道中的R通道,计算LXenhR中所有点取值的均值MeanR和均方差VarR(注意是均方差),计算MinR=MeanR-2×VarR和MaxR=MeanR+2×VarR,然后计算XenhR(i,j)=Fix((LXcpstR(i,j)-MinR)/(MaxR-MinR)×255),其中Fix表示取整数部分,若取值<0则赋值为0,取值>255则赋值为255;对于RGB通道中的G通道和B通道采用与R通道同样的算法得到XenhG和XenhB,将分别属于RGB通道的XenhR、XenhG、XenhB整合成一张彩色图像Xenh
所述的对于Xcpst的所有分量XcpstR,XcpstG,XcpstB计算其按指定尺度进行模糊后的图像,对于RGB通道中的R通道XcpstR,其步骤为:第一步,定义高斯函数G(x,y,σ)=k×exp(-(x2+y2)/σ2),σ为尺度参数,k=1/∫∫G(x,y)dxdy,则对于XcpstR的每一个点XcpstR(i,j)计算,
Figure BDA0002489087330000032
Figure BDA0002489087330000033
其中
Figure BDA0002489087330000034
表示卷积运算,对于距离边界低于尺度σ的点,只计算XcpstR与G(x,y,σ)对应部分的卷积,Fix()表示取整数部分,若取值<0则赋值为0,取值>255则赋值为255。对于RGB通道中的G通道和B通道采用与R通道同样的算法更新XcpstG和XcpstG
所述的目标检测模块,在初始化过程中,使用带有已标定人脸面部区域、手部区域和上肢区域的图像对目标检测算法进行参数初始化;在检测过程中,接收图像预处理模块所传递来的图像,然后对其进行处理,对每一帧图像使用目标检测算法进行目标检测,得到当前图像的人脸面部区域、手部区域和上肢区域,将提取到的人脸面部区域传递给人脸识别模块和头部方向检测模块、将上肢区域和手部区域图像传递给学生动作识别模块。
所述的使用带有已标定人脸面部区域、手部区域和上肢区域的图像对目标检测算法进行参数初始化,其步骤为:第一步,构造特征抽取深度网络;第二步,构造区域选择网络,第三步,根据所述的构造特征抽取深度网络中所使用的数据库中的每一张图像X和对应的人工标定的每个区域
Figure BDA0002489087330000041
然后通过ROI层,其输入为图像X和区域
Figure BDA0002489087330000042
输出
Figure BDA0002489087330000043
为7×7×512维度的;第三步,构建坐标精炼网络。
所述的构造特征抽取深度网络,该网络为深度学习网络结构,其网络结构为:第一层:卷积层,输入为768×1024×3,输出为768×1024×64,通道数channels=64;第二层:卷积层,输入为768×1024×64,输出为768×1024×64,通道数channels=64;第三层:池化层,输入第一层输出768×1024×64与第三层输出768×1024×64在第三个维度上相连接,输出为384×512×128;第四层:卷积层,输入为384×512×128,输出为384×512×128,通道数channels=128;第五层:卷积层,输入为384×512×128,输出为384×512×128,通道数channels=128;第六层:池化层,输入第四层输出384×512×128与第五层384×512×128在第三个维度上相连接,输出为192×256×256;第七层:卷积层,输入为192×256×256,输出为192×256×256,通道数channels=256;第八层:卷积层,输入为192×256×256,输出为192×256×256,通道数channels=256;第九层:卷积层,输入为192×256×256,输出为192×256×256,通道数channels=256;第十层:池化层,输入为第七层输出192×256×256与第九层192×256×256在第三个维度上相连接,输出为96×128×512;第十一层:卷积层,输入为96×128×512,输出为96×128×512,通道数channels=512;第十二层:卷积层,输入为96×128×512,输出为96×128×512,通道数channels=512;第十三层:卷积层,输入为96×128×512,输出为96×128×512,通道数channels=512;第十四层:池化层,输入为第十一层输出96×128×512与第十三层96×128×512在第三个维度上相连接,输出为48×64×1024;第十五层:卷积层,输入为48×64×1024,输出为48×64×512,通道数channels=512;第十六层:卷积层,输入为48×64×512,输出为48×64×512,通道数channels=512;第十七层:卷积层,输入为48×64×512,输出为48×64×512,通道数channels=512;第十八层:池化层,输入为第十五层输出48×64×512与第十七层48×64×512在第三个维度上相连接,输出为48×64×1024;第十九层:卷积层,输入为48×64×1024,输出为48×64×256,通道数channels=256;第二十层:池化层,输入为48×64×256,输出为24×62×256;第二十一层:卷积层,输入为24×32×1024,输出为24×32×256,通道数channels=256;第二十二层:池化层,输入为24×32×256,输出为12×16×256;第二十三层:卷积层,输入为12×16×256,输出为12×16×128,通道数channels=128;第二十四层:池化层,输入为12×16×128,输出为6×8×128;第二十五层:全连接层,首先将输入的6×8×128维度的数据展开成6144维度的向量,然后输入进全连接层,输出向量长度为768,激活函数为relu激活函数;第二十六层:全连接层,输入向量长度为768,输出向量长度为96,激活函数为relu激活函数;第二十七层:全连接层,输入向量长度为96,输出向量长度为2,激活函数为soft-ma×激活函数;所有卷积层的参数为卷积核kernel大小=3,步长stride=(1,1),激活函数为relu激活函数;所有池化层均为最大池化层,其参数为池化区间大小kernel_size=2,步长stride=(2,2);设该深度网络为Fconv27,对于一幅彩色图像X,经过该深度网络所得到的特征图集合用Fconv27(X)表示,该网络的评价函数为对(Fconv27(X)-y)计算其交叉熵损失函数,收敛方向为取最小值,y输入对应的分类。数据库为在自然界采集的包含人脸及非人脸的图像,每张图像为768×1024维度的彩色图像,按照图像中是否包含人脸分成两类,迭代次数为2000次。在训练结束后,取第一层到第十七层为特征抽取深度网络Fconv,对于一幅彩色图像X,经过该深度网络所得到的输出用Fconv(X)表示。
所述的构造区域选择网络,接收Fconv深度网络提取出512个48×64特征图集合Fconv(X),然后第一步经过卷积层得到Conv1(Fconv(X)),该卷积层的参数为:卷积核kernel大小=1,步长stride=(1,1),输入为48×64×512,输出为48×64×512,通道数channels=512;然后将Conv1(Fconv(X))分别输入到两个卷积层(Conv2-1和Cony2-2),Conv2-1的结构为:输入为48×64×512,输出为48×64×18,通道数channels=18,该层得到的输出为Conv2-1(Conv1(Fconv(X))),再对该输出使用激活函数softmax得到softmax(Conv2-1(Conv1(Fconv(X))));Conv2-2的结构为:输入为48×64×512,输出为48×64×36,通道数channels=36;该网络的损失函数有两个:第一个误差函数loss1为对Wshad-cls⊙(Conv2-1(Conv1(Fconv(X)))-Wcls(X))计算softmax误差,第二个误差函数loss2为对Wshad-reg(X)⊙(Conv2-1(Conv1(Fconv(X)))-Wreg(X))计算smooth L1误差,区域选择网络的损失函数=loss1/sum(Wcls(X))+loss2/sum(Wcls(X)),sum(·)表示矩阵所有元素之和,收敛方向为取最小值,Wcls(X)和Wreg(X)分别为数据库图像X对应的正负样本信息,⊙表示矩阵按照对应位相乘,Wshad-cls(X)和Wshad-reg(X)为掩码,其作用为选择Wshad(X)中权值为1的部分进行训练,从而避免正负样本数量差距过大,每次迭代时重新生成Wshad-cls(X)和Wshad-reg(X),算法迭代1000次。
所述的构造特征抽取深度网络中所使用的数据库,对于数据库中的每一张图像,第一步:人工标定图像中的人脸面部区域、手部区域和上肢区域,设其在输入图像的中心坐标为(abas_tr,bbas_tr),中心坐标在纵向距离上下边框的距离为lbas_tr,中心坐标在横向距离左右边框的距离为wbas_tr,则其对应于Conv1的位置为中心坐标为
Figure BDA0002489087330000051
半长为
Figure BDA0002489087330000052
半宽为
Figure BDA0002489087330000053
表示取整数部分;第二步:随机生成正负样本。
所述的随机生成正负样本,其方法为:第一步,构造9个区域框,第二步,对于数据库的每一张图像Xtr,设Wcls为48×64×18维度,Wreg为48×64×36维度,所有初始值均为0,对Wcls和Wreg进行填充。
所述的构造9个区域框,这9个区域框分别为:Ro1(xRo,yRo)=(xRo,yRo,64,64),Ro2(xRo,yRo)=(xRo,yRo,45,90),Ro3(xRo,yRo)=(xRo,yRo,90,45),Ro4(xRo,yRo)=(xRo,yRo,128,128),Ro5(xRo,yRo)=(xRo,yRo,90,180),Ro6(xRo,yRo)=(xRo,yRo,180,90),Ro7(xRo,yRo)=(xRo,yRo,256,256),Ro8(xRo,yRo)=(xRo,yRo,360,180),Ro9(xRo,yRo)=(xRo,yRo,180,360),对于每一个区域块,Roi(xRo,yRo)表示对于第i个区域框,当前区域框的中心坐标(xRo,yRo),第三位表示中心点距离上下边框的像素距离,第四位表示中心点距离左右边框的像素距离,i的取值从1到9。
所述的对Wcls和Wreg进行填充,其方法为:
对于每一个人工标定的人体区间,设其在输入图像的中心坐标为(abas_tr,bbas_tr),中心坐标在纵向距离上下边框的距离为lbas_tr,中心坐标在横向距离左右边框的距离为wbas_tr,则其对应于Conv1的位置为中心坐标为
Figure BDA0002489087330000061
半长为
Figure BDA0002489087330000062
半宽为
Figure BDA0002489087330000063
对于左上角
Figure BDA0002489087330000064
右下角坐标
Figure BDA0002489087330000065
所围成的区间内的每个点(xCtr,yctr):
对于i取值从1到9:
对于点(xCtr,yCtr),其在数据库图像的映射区间为左上角点(16(xCtr-1)+1,16(yCtr-1)+1)右下角点(16xCtr,16yCtr)所围成的16×16区间,对于该区间的每一个点(xOtr,yotr):
计算(xotr,yotr)所对应区域Roi(xOtr,yotr)与当前人工标定的区间的重合率;
选择当前16×16区间内重合率最高的点(xIouMax,yIoUMax),若重合率>0.7,则Wcts(xCtr,yCtr,2i-1)=1,Wcls(xctr,yCtr,2i)=0,该样本为正样本,Wreg(xCtr,yCtr,4i-3)=(xOtr-16xCtr+8)/8,Wreg(xCtr,yCtr,4i-2)=(yOtr-16yCtr+8)/8,Wreg(xCtr,yCtr,4i-2)=Down1(lbas_tr/Roi的第三位),Wreg(xCtr,yctr,4i)=Down1(wbas_tr/Roi的第四位),Down1(·)表示若值大于1则取值为1;若重合率<0.3,则Wcls(xCtr,yCtr,2i-1)=0,Wcls(xCtr,yCtr,2i)=1;否则Wcls(xCtr,yCtr,2i-1)=-1,Wcls(xCtr,yCtr,2i)=-1.
若当前人工标定的区域没有重合率>0.6的Roi(xotr,yotr),则选择重合率最高的Roi(xOtr,yotr)对Wcls和Wreg赋值,赋值方法与重合率>0.7的赋值方法相同。
所述的计算(xOtr,yotr)所对应区域Roi(xOtr,yOtr)与当前人工标定的区间的重合率,其方法为:设人工标定的人体区间在输入图像的中心坐标为(abas_tr,bbas_tr),中心坐标在纵向距离上下边框的距离为lbas_tr,中心坐标在横向距离左右边框的距离为wbas_tr,设Roi(xotr,yOtr)的第三位为lotr,第四位为wOtr,若满足|xOtr-abas_tr|≤lotr+lbas_tr-1并且|yOtr-bbas_tr|≤wotr+wbas_tr-1,说明存在重合区域,重合区域=(lOtr+lbas_tr-1-|xOtr-abas_tr|)×(wotr+wbas_tr-1-|yOtr-bbas_tr|),否则重合区域=0;计算全部区域=(2lotr-1)×(2wOtr-1)+(2abas_tr-1)×(2wbas_tr-1)-重合区域;从而得到重合率=重合区域/全部区域,|·|表示取绝对值。
所述的Wshad-cls(X)和Wshad-rea(X),其构造方法为:对于该图像X,其对应的正负样本信息为Wcls(X)和Wreg(X),第一步,构造Wshad-cls(X)与和Wshad-reg(X),Wshad-cls(X)与Wcls(X)维度相同,Wshad-reg(X)与Wreg(X)维度相同;第二步,记录所有正样本的信息,对于i=1到9,若Wcls(X)(a,b,2i-1)=1,则Wshad-cls(X)(a,b,2i-1)=1,Wshad-cls(X)(a,b,2i)=1,Wshad-reg(X)(a,b,4i-3)=1,Wshad-reg(X)(a,b,4i-2)=1,Wshad-reg(X)(a,b,4i-1)=1,Wshad-reg(X)(a,b,4i)=1,正样本一共选择了sum(Wshad-cls(X))个,sum(·)表示对矩阵的所有元素求和,若sum(Wshad-cls(X))>256,随机保留256个正样本;第三步,随机选择负样本,随机选择(a,b,i),若Wcls(X)(a,b,2i-1)=1,则Wshad-cls(X)(a,b,2i-1)=1,Wshad-cls(X)(a,b,2i)=1,Wshad-reg(X)(a,b,4i-3)=1,Wshad-reg(X)(a,b,4i-2)=1,Wshad-reg(X)(a,b,4i-1)=1,Wshad-reg(X)(a,b,4i)=1,若已选中的负样本数量为256-sum(Wshad-cls(X))个,或者虽然负样本数量不足256-sum(Wshad-cls(X))个但是在20次生成随机数(a,b,i)内都无法得到负样本,则算法结束。
所述的ROI层,其输入为图像X和区域
Figure BDA0002489087330000071
其方法为:对于图像X通过特征抽取深度网络Fconv所得到的输出Fconv(X)的维度为48×64×512,对于每一个48×64矩阵VROI_I的信息(一共512个矩阵),提取VROI_I矩阵中左上角
Figure BDA0002489087330000072
Figure BDA0002489087330000073
右下角
Figure BDA0002489087330000074
所围成的区域,
Figure BDA0002489087330000075
表示取整数部分;输出为roiI(X)维度为7×7,则步长
Figure BDA0002489087330000076
Figure BDA0002489087330000077
对于iROI=1:到7:
对于jROI=1到7:
构造区间
Figure BDA0002489087330000078
Figure BDA0002489087330000079
roiI(X)(iROI,jROI)=区间内最大点的值。
当512个48×64矩阵全部处理结束后,将输出拼接得到7×7×512维度的输出
Figure BDA00024890873300000710
参数表示对于图像X,在区域框
Figure BDA00024890873300000720
范围内的ROI。
所述的构建坐标精炼网络,其方法为:第一步,扩展数据库:扩展方法为对于数据库中的每一张图像X和对应的人工标定的每个区域
Figure BDA00024890873300000712
其对应的ROI为
Figure BDA00024890873300000713
若当前区间为人体图像区域则BClass=[1,0,0,0,0],BBox=[0,0,0,0],若当前区间为人脸面部区域则BClass=[0,1,0,0,0],BBox=[0,0,0,0],若当前区间为手部区域则BClass=[0,0,1,0,0],BBox=[0,0,0,0],若当前区间为产品区域则BClass=[0,0,0,1,0],BBox=[0,0,0,0];随机生成取值在-1到1之间随机数arand,brand,lrand,wrand,从而得到新的区间
Figure BDA00024890873300000714
Figure BDA00024890873300000715
表示取整数部分,该区间的BBox=[arand,brand,lrand,wrand],若新的区间与
Figure BDA00024890873300000716
的重合率>0.7则BClass=当前区域的BClass,若新的区间与
Figure BDA00024890873300000717
的重合率<0.3,则BClass=[0,0,0,0,1],二者均不满足,则不赋值。每个区间最多生成10个正样本区域,设生成Num1个正样本区域,则生成Num1+1个负样本区域,若负样本区域不够Num1+1个,则扩大arand,brand,lrand,wrand的范围,直到找到足够多的负样本数为止。第二步,构建坐标精炼网路:对于数据库中的每一张图像X和对应的人工标定的每个区域
Figure BDA00024890873300000718
其对应的ROI为
Figure BDA00024890873300000719
将将7×7×512维度的ROI展开成25088维向量,然后经过两个全连接层Fc2,得到输出Fc2(ROI),然后将Fc2(ROI)分别通过分类层FClass和区间微调层FBBox,得到输出FClass(Fc2(ROI))和FBBox(Fc2(ROI)),分类层FClass为全连接层,其输入向量长度为512,输出向量长度为4,区间微调层FBBox为全连接层,其输入向量长度为512,输出向量长度为4;该网络的损失函数有两个:第一个误差函数loss1为对FClass(Fc2(ROI))-BClass计算softmax误差,第二个误差函数loss2为对(FBBox(Fc2(ROI))-BBox)计算欧氏距离误差,则该精炼网络的整体损失函数=loss1+loss2,算法迭代过程为:首先迭代1000次收敛误差函数loss2,然后迭代1000次收敛整体损失函数。
所述的两个全连接层Fc2,其结构为:第一层:全连接层,输入向量长度为25088,输出向量长度为4096,激活函数为relu激活函数;第二层:全连接层,输入向量长度为4096,输出向量长度为512,激活函数为relu激活函数。
所述的对每一帧图像使用目标检测算法进行目标检测,得到当前图像的人脸面部区域、手部区域和上肢区域,其步骤为:
第一步,将输入图像Xcpst分割成768×1024维度的子图;
第二步,对于每一个子图Xs
第2.1步,使用在初始化时构造的特征抽取深度网络Fconv进行变换,得到512个特征子图集合Fconv(Xs);
第2.2步,对Fconv(Xs)使用区域选择网络中第一层Conv1、第二层Conv2-1+softmax激活函数和Conv2-2进变换,分别得到输出softmax(Conv2-1(Conv1(Fconv(Xs))))和Conv2-2(Conv1(Fconv(Xs))),然后根据输出值得到该区间内的所有的初步候选区间;
第2.3步,对于当前帧图像的所有子图的所有的初步候选区间:
第2.3.1步,根据其当前候选区域的得分大小进行选取,选取最大的50个初步候选区间作为候选区域;
第2.3.2步,调整候选区间集合中所有的越界候选区间,然后剔除掉候选区间中重叠的框,从而得到最终候选区间;
第2.3.3步,将子图Xs和每一个最终候选区间输入到ROI层,得到对应的ROI输出,设当前的最终候选区间为(aBB(1),bBB(2),lBB(3),wBB(4)),然后计算FBBox(Fc2(ROI))得到四位输出(OutBB(1),OutBB(2),OutBB(3),OutBB(4))从而得到更新后的坐标(aBB(1)+8×OutBB(1),bBB(2)+8×OutBB(2),lBB(3)+8×OutBB(3),wBB(4)+8×OutBB(4));然后计算FClass(Fc2(ROI))得到输出,若输出第一位最大则当前区间为人脸面部区域,若输出第二位最大则当前区间为手部区域,若输出第三位最大则当前区间为上肢区域,若输出第四位最大则当前区间为负样本区域并删除该最终候选区间。
第三步,更新所有子图的精炼后的最终候选区间的坐标,更新的方法为设当前候选区域的坐标为(TLx,TLy,RBx,RBy),其对应的子图的左上角坐标为(Seasub,Sebsub),更新后的坐标为(TLx+Seasub-1,TLy+Sebsub-1,RBx,RBy)。
所述的将输入图像Xcpst分割成768×1024维度的子图,其步骤为:设分割的步长为384和512,设窗口大小为m行n列,(asub,bsub)为选定的区域的左上角坐标,(a,b)的初始值为(1,1);当asub<m时:
bsub=1;
当bsub<n时:
选定的区域为[(asub,bsub),(asub+384,bsub+512)],将输入图像Xcpst上该区间所对应的图像区域的信息复制到新的子图中,并附带左上角坐标(asub,bsub)作为位置信息;若选定区域超出输入图像Xcpst区间,则将超出范围内的像素点对应的RGB像素值均赋值为0;
bsub=bsub+512;
内层循环结束;
asub=asub+384;
外层循环结束;
所述的根据输出值得到该区间内的所有的初步候选区间,其方法为:第一步:对于softmax(Conv2-1(Conv1(Fconv(Xs))))其输出为48×64×18,对于Conv2-2(Conv1(FConv(Xs))),其输出为48×64×36,对于48×64维空间上的任何一点(x,y),softmax(Conv2-1(Conv1(Fconv(Xs))))(x,y)为18维向量II,Conv2-2(Conv1(Fconv(Xs)))(x,y)为36维向量IIII,若II(2i-1)>II(2i),对于i取值从1到9,lOtr为Roi(xOtr,yOtr)的第三位,wOtr为Roi(xOtr,yOtr)的第四位,则初步候选区间为[II(2i-1),(8×IIII(4i-3)+x,8×IIII(4i-2)+y,lOtr×IIII(4i-1),wOtr×IIII(4i))],其中第一位II(2i-1)表示当前候选区域的得分,第二位(8×IIII(4i-3)+x,8×IIII(4i-2)+y,IIII(4i-1),IIII(4i))表示当前候选区间的中心点为(8×IIII(4i-3)+x,8×IIII(4i-2)+y),候选框的半长半宽分别为lotr×IIII(4i-1)和wOtr×IIII(4i))。
所述的调整候选区间集合中所有的越界候选区间,其方法为:设监控图像为m行n列,对于每一个候选区间,设其[(ach,bch)],候选框的半长半宽分别为lch和wch,若ach+lch>m,则
Figure BDA0002489087330000091
然后更新其ach=a′ch,lch=l′ch;若bch+wch>n,则
Figure BDA0002489087330000092
然后更新其bch=b′ch,wch=w′ch·
所述的剔除掉候选区间中重叠的框,其步骤为:
若候选区间集合不为空:
从候选区间集合中取出得分最大的候选区间iout
计算候选区间iout与候选区间集合中的每一个候选区间ic的重合率,若重合率>0.7,
则从候选区间集合删除候选区间ic
将候选区间iout放入输出候选区间集合;
当候选区间集合为空时,输出候选区间集合内所含的候选区间即为剔除掉候选区间中重叠的框后所得到的候选区间集合。
所述的计算候选区间iout与候选区间集合中的每一个候选区间ic的重合率,其方法为:设候选区间ic的坐标区间为中心点[(aic,bic)],候选框的半长半宽分别为lic和wic,候选区间ic的坐标区间为中心点[(aiout,bicout)],候选框的半长半宽分别为liout和wiout;计算xA=max(aic,aiout);yA=max(bic,biout);xB=min(lic,liout),yB=min(wic,wiout);若满足|aic-aiout|≤lic+liout-1并且|bic-biout|≤wic+wiout-1,说明存在重合区域,重合区域=(lic+liout-1-|aic-aiout|)×(wic+wiout-1-|bic-biout|),否则重合区域=0;计算全部区域=(2lic-1)×(2wic-1)+(2liout-1)×(2wiout-1)-重合区域;从而得到重合率=重合区域/全部区域。
所述的人脸识别模块,其方法是:在初始化阶段,首先构造通用图像特征提取网络N1,然后保留深度网络N1的第一层到第二十三层,删掉第二十三层的激活函数,该深度网络FaceNet作为人脸图像特征提取网络,然后,读取学生在系统上登记的照片,使用初始化阶段构造人脸图像特征提取网络FaceNet对人脸图像进行特征提取,对于登记照片P,将P作为特征提取网络FaceNet的输入,得到对应的1000维度输出FaceNet(P)。在检测过程中,接受目标检测模块传递过来的人脸图像,然后判断人脸识别标签,若人脸识别标签为不识别,则跳过当前人脸图像;若人脸识别标签为识别,则对当前人脸图像进行识别,将识别结果发送给识别结果处理模块;若人脸识别标签为识别,但目标检测模块未传递过来人脸图像,将识别结果设为不通过,并发送给识别结果处理模块。
所述的构造通用图像特征提取网络N1,方法是:第一步,构建深度网络N1;第二步使用ILSVRC-2012国际标准数据库对深度网络N1进行训练。
所述的构建深度网络N1,其网络结构为:第一层:卷积层,输入为224×224×3,输出为224×224×64,通道数channels=64;第二层:卷积层,输入为224×224×64,输出为224×224×64,通道数channels=64;第三层:池化层,输入224×224×64,输出112×112×64;第四层:卷积层,输入为112×112×64,输出为112×112×128,通道数channels=128;第五层:卷积层,输入为112×112×128,输出为112×112×128,通道数channels=128;第六层:池化层,输入112×112×128,输出为56×56×128;第七层:卷积层,输入为56×56×128,输出为56×56×256,通道数channels=256;第八层:卷积层,输入为56×56×256,输出为56×56×256,通道数channels=256;第九层:卷积层,输入为56×56×256,输出为56×56×256,通道数channels=256;第十层:池化层,输入为56×56×256,输出为28×28×256;第十一层:卷积层,输入为28×28×256,输出为28×28×512,通道数channels=512;第十二层:卷积层,输入为28×28×512,输出为28×28×512,通道数channels=512;第十三层:卷积层,输入为28×28×512,输出为28×28×512,通道数channels=512;第十四层:池化层,输入为28×28×512,输出为14×14×512;第十五层:卷积层,输入为14×14×512,输出为14×14×512,通道数channels=512;第十六层:卷积层,输入为14×14×512,输出为14×14×512,通道数channels=512;第十七层:卷积层,输入为14×14×512,输出为14×14×512,通道数channels=512;第十八层:池化层,输入为14×14×512,输出为7×7×512;第十九层:首先将输入的7×7×512的数据展开成25,088维度的向量,然后输入进全连接层,输出向量长度为4096,激活函数为relu激活函数;第二十层:Dropout层,概率为0.5;第二十一层:全连接层,输入向量长度为4096,输出向量长度为4096,激活函数为relu激活函数;第二十二层:Dropout层,概率为0.5;第二十三层:全连接层,输入向量长度为4096,输出向量长度为1000,激活函数为soft-max激活函数;所有卷积层的参数为:卷积核kernel大小=3,步长stride=(1,1),激活函数为relu激活函数;所有池化层均为最大池化层,其参数为池化区间大小kernel_size=2,步长stride=(2,2)。
所述的使用ILSVRC-2012国际标准图像分类数据库对深度网络N1进行训练,其步骤为:首先对输入图像进行处理,因为ILSVRC-2012国际标准数据库的输入为高清图像,对于每一张图像按照最短边不变,最长以中心为基准截取一个正方形区域,然后将图像大小调整为224×224,图像大小调整采用双线性插值法,得到的224×224×3的彩色图像X作为输入,对于数据集中1000个类,构造一个1000维度的向量Y,若当前图像属于1000类中的第K类,则向量的第K位等于1,其他位等于0,处理好的数据对<X,Y>作为下一步的输入;第二步用处理好的每一个数据对<X,Y>训练深度网络N1,其中,优化方法为动量梯度下降法(SGD),动量为0.9,权重初始值为0.01,第100次迭代后变为0.001,第500次迭代后变为0.0001,设对于输入X,网络N1的输出为N1(X),算法的误差函数为
Figure BDA0002489087330000111
算法迭代1000次。
所述的对当前人脸图像进行识别,其步骤为:首先读取当前用户的人脸图像特征标准向量,若特征提取向量不存在,则以初始化阶段计算得到的FaceNet(P)作为该用户的人脸图像特征标准向量;然后待识别的目标检测模块传递来的图像Xc,将Xc作为特征提取网络FaceNet的输入,得到对应的1000维度输出FaceNet(Xc),然后计算
Figure BDA0002489087330000112
Figure BDA0002489087330000113
若loss(Xc)<θ,则识别通过并将该用户的人脸图像特征标准向量更新为FaceNet(Xc),否则识别不通过,其中θ为阈值。
所述的θ为阈值,该阈值的计算方法如下:从系统中抽取随机抽取9位用户,构建用户集合G9,设系统中共有Nsys个用户。
对于G9中的每一个用户i,其登记照片为X(i),lossSum=0:
对于系统中剩余Nsys-1个用户的每一个用户j,其登记照片为X(j):
Figure BDA0002489087330000114
用户i的loss(i)=lossSum/(Nsys-1).
将9位用户的计算结果从大到小排序,取第二位的值作为阈值θ。
所述的头部方向检测模块,其方法是:在初始化过程中,根据通用图像特征提取网络N1构造人脸朝向神经网路分类器ForientNet,并使用搜集到的人脸不同角度朝向图像对人脸朝向神经网路分类器ForientNet进行训练;在检测过程中,接受目标检测模块传递过来的人脸区域图像,若方向识别标签为不识别,则跳过当前图像;若方向识别标签为识别,则使用人脸朝向神经网路分类器ForientNet判断人脸区域图像的人脸朝向的角度,将识别结果发送给识别结果处理模块。
所述的根据通用图像特征提取网络N1构造人脸朝向神经网路分类器ForientNet,其步骤为:首先,将通用图像特征提取网络N1的第二十三层的激活函数改为relu激活函数,然后添加:第二十四层:全连接层,输入向量长度为1000,输出向量长度为200,激活函数为relu激活函数;第二十五层:Dropout层,概率为0.5;第二十六层:由两个全连接层组成,分别为水平角度全连接层和垂直角度全连接层,两个全连接层的输入向量长度均为200,输出向量长度均为13,每一个全连接层激活函数均为soft-max激活函数,因此第二十六层整体的输出向量长度为26,添加层其他设置与通用图像特征提取网络N1相同。
所述的使用搜集到的人脸不同角度朝向图像对人脸朝向神经网路分类器ForientNet进行训练,其步骤为:第一步:构造人脸不同角度朝向图像数据集;第二步:对数据集图像进行处理,对于每一张照片,首先对于每一张图像按照最短边不变,最长以中心为基准截取一个正方形区域,然后将图像大小调整为224×224,图像大小调整采用双线性插值法,得到的224×224×3的彩色图像X作为输入,对于数据集合中的13类,构造一个13维度的向量Y,若当前图像属于13类中的第K类,则向量的第K位等于1,其他位等于0,处理好的数据对<X,Y>作为下一步的输入;第三步,用处理好的每一个数据对<X,Y>训练人脸朝向神经网路分类器ForientNet。
所述的构造人脸不同角度朝向图像数据集,其构造方法为:每一张图像由横向朝向角度和纵向朝向角度组成,首先采集人脸横向朝向图像,横向朝向以正面对摄像头为中心点0度,最左侧为-90度,最右侧为90度,每15度架设一个摄像头,从而横向坐标一共13个摄像头,被采集人脸面对0度摄像头,然后13个摄像头同时拍摄,待所有被摄人脸拍摄完毕后,水平方向的每一个摄像头内的照片为一组,以其照片摄像头水平架设角度命名,例如-90度摄像头命名为-90度,45度摄像头命名为45度;然后采集纵向朝向人脸图像,纵向朝向以正面对摄像头为中心点0度,最下侧为-75度,最上侧为90度,每15度架设一个摄像头,从而纵向坐标一共12个摄像头,被采集人脸面对0度摄像头,然后12个摄像头同时拍摄,待当前人脸拍摄结束后,人脸面对45度摄像头,-45度摄像头拍摄的图像作为最下侧-90度图像,待所有被摄人脸拍摄完毕后,水平方向的每一个摄像头内的照片为一组,以其照片摄像头水平架设角度命名。从而得到人脸不同角度朝向图像数据集,其中水平方向从-90度到90度,每15度为1类,共13类;垂直方向从-90度到90度,每15度为1类,共13类。
所述的用处理好的每一个数据对<X,Y>训练人脸朝向神经网路分类器ForientNet,其步骤为:将水平朝向数据集的输入数据对和垂直朝向数据集的输入数据对<Xv,Yv>依次作为网络的输入。网络的,优化方法为动量梯度下降法(SGD),动量为0.9,权重初始值为0.01,第100次迭代后变为0.001,第500次迭代后变为0.0001,设对于输入X,网络N1的输出为N1(X),算法的误差函数为
Figure BDA0002489087330000121
算法迭代1000次,取ForientNet中从第一层到第二十六层的水平角度全连接层作为水平朝向分类器ForientNet_Hor,取ForientNet中从第一层到第二十六层的垂直角度全连接层作为垂直朝向分类器ForientNet_Ver。每一轮迭代过程如下:对于每一轮迭代:
从水平朝向数据集取一个batch的输入数据对<Xh,Yh>:
以<Xh,Yh>作为输入,优化水平朝向分类器ForientNet_Hor,其中ForientNet_Hor网络的第一层到第二十三层参数不变,第二十六层的垂直角度全连接层参数不做优化。
从垂直朝向数据集取一个batch的输入数据对<Xv,Yv>:
以<Xv,Yv>作为输入,优化垂直朝向分类器ForientNet_Ver,其中ForientNet_Ver网络的第一层到第二十三层参数不变,第二十六层的水平角度全连接层参数不做优化。
直到水平朝向数据集和垂直朝向数据集均为空时,当前轮迭代结束。
所述的使用人脸朝向神经网路分类器ForientNet判断人脸区域图像的人脸朝向的角度,其步骤为:对于当前输入的图像Xf,将Xf作为人脸朝向神经网路分类器ForientNet的输入,得到对应的26维度输出MotionNet(Xc),其中水平角度全连接层输出为13维,垂直角度全连接层输出为13维,若水平角度全连接层输出向量的第Kh位最大,则当前图像水平角度即为对应于13个角度的第Kh个角度Oh(Kh),若垂直角度全连接层输出向量的第Kv位最大,则当前图像垂直角度即为对应于13个角度的第Kv个角度Ov(Kv)。
所述的学生动作识别模块,其方法是:在初始化阶段,根据通用图像特征提取网络N1构造动作识别神经网路分类器MotionNet,然后使用搜集到的手部和上肢部的动作对MotionNet进行训练;在检测过程中,接受目标检测模块传递过来的手部区域图像或上肢区域图像,然后判断动作识别标签,若动作识别标签为不识别,则跳过当前图像,若动作识别标签为识别,则对当前图像使用动作识别神经网路分类器MotionNet进行识别,将识别结果发送给识别结果处理模块。
所述的根据通用图像特征提取网络N1构造动作识别神经网路分类器MotionNet,其步骤为:首先,将通用图像特征提取网络N1的第二十三层的激活函数改为relu激活函数,然后添加:第二十四层:全连接层,输入向量长度为1000,输出向量长度为200,激活函数为relu激活函数;第二十五层:Dropout层,概率为0.5;第二十六层:全连接层,输入向量长度为200,输出向量长度为23,激活函数为soft-max激活函数,添加层其他设置与通用图像特征提取网络N1相同。
所述的使用搜集到的手部和上肢部的动作对MotionNet进行训练,其步骤为:首先对输入图像进行处理,搜集到的手部动作包括:左手手势数字0到9,右手手势数字0到9,左手举手,右手举手动作,共22种动作,以及无效动作类,一共23种动作,将23种动作调整为224×224维度大小的图像X作为MotionNet的输入,对于23种动作,构造一个23维度的向量Y,每一个动作对应23维度种的一个维度,若当前图像属于23类中的第K类动作,则向量的第K位等于1,其他位等于0,处理好的数据对<X,Y>作为下一步的输入;然后用处理好的每一个数据对<X,Y>训练深度网络MotionNet,其中,MotionNet网络的第一层到第二十三层参数在整个训练过程中不变,网络的优化方法为动量梯度下降法(SGD),动量为0.9,权重初始值为0.01,第10次迭代后变为0.001,设对于输入X,网络N1的输出为N1(X),算法的误差函数为
Figure BDA0002489087330000131
算法迭代100次。
所述的对当前图像使用动作识别神经网路分类器MotionNet进行识别,其步骤为:对于当前输入的图像Xm,将Xm作为动作识别神经网路分类器MotionNet的输入,得到对应的23维度输出MotionNet(Xc),若输出向量的第K位最大,则当前图像即为第K类,对应于23种手部动作的第K个动作。
所述的识别结果处理模块,其方法为,在初始化阶段,该模块不工作;在检测过程中,在识别过程中,对接收到的结果进行处理。对于每一个用户,构造人脸识别间隔变量Tface,每堂课开始时,Tface=100,构造注意力方向识别间隔变量Tattention,每堂课开始时,Tattention=100;构造动作识别间隔变量Tmotion,每堂课开始时,Tmotion=-1,构造人脸识别标签、方向识别标签、动作识别标签,初始时均为不识别。
对于人脸识别标签,在每堂课开始时,将人脸识别标签变为识别,然后每间隔Tface帧将人脸识别标签变为识别,在间隔Tface帧内将人脸识别标签变为不识别。
对人脸识别模块传递来的识别结果:对于当前用户,若人脸识别模块传递来的识别结果为通过,则更新Tface=5×Tface,若Tface>7200,则置Tface=7200;若人脸识别模块传递来的识别结果为不通过,则更新Tface=Tface/5,若Tface<1则置Tface=100,并统计识别不通过次数,若识别不通过次数超过1000,则将当前学生识别不通过信息通知教师,由教师进行识别,若教师识别为通过,则计算当前目标检测框人脸图像Xc对应于人脸图像特征提取网络FaceNet输出FaceNet(Xc),并更改该用户的人脸图像特征标准向量为FaceNet(Xc)。
对于方向识别标签,在每堂课开始时,将方向识别标签变为识别,然后每间隔Tattention帧将方向识别标签变为识别,在间隔Tattention帧内将方向识别标签变为不识别。
对头部方向检测模块传递来的识别结果:首先,设置人脸朝向的基准偏移角度,水平偏移θh=0度,垂直偏移θh=0度,然后接收到传递来的头部方向检测模块传递来的人脸图像横向朝向角度Angh和纵向朝向角度Angv,此时人脸图像实际朝向为水平朝向为Angh-θh,实际纵向朝向角度Angv-θv,若Angh-θh>0度或者|Angv-θv|>45度,认为当前学生视线方向不正确,否则认为当前学生视线方向正确。若识别为视线方向正确,则Tattention=5×Tattention,若Tattention>7200,则置Tattention=7200,若识别为视线方向不正确,则更新Tattention=Tattention/5,若Tattention<1则置Tattention=100,并统计识别视线方向不正确次数,若识别视线方向不正确次数超过1000,则将当前学生识别不通过信息通知教师,由教师进行识别,若教师识别为视线方向正确,则更改当前人脸朝向的基准偏移角度,将水平偏移θh=Angh,垂直偏移θh=Angv。
对于动作识别标签,若Tmotion=-1,则动作识别标签为不识别;然后等待Tmotion变化,若Tmotion>-1,则每间隔Tmotion帧将动作识别标签,在间隔Tattention帧内将方向识别标签变为不识别。在课堂进行中,动作识别标签根据教师的操作进行改变,若教师要求识别学生动作,则动作识别标签变为识别,并设置Tmotion=100,若学生动作识别模块传递来的识别结果为无效动作则Tmotion=2×Tmotion,否则将学生动作识别模块传递来的识别结果传递给教师并设置Tmotion=-1。
本发明的有益效果是,通过人脸识别登录,避免学生找人代课问题,通过检测学生头部朝向,避免学生上课时候注意力分散,通过学生动作识别模块,来提高学生在网课的参与度,识别结果处理模块将识别结果交给教师处理,使教师能够主导课堂纪律。本发明涉及到的功能不会改变原有网课系统的架构,能够以即插即用方式与现有网课系统对接,从而使本发明在实际应用中有着较高的灵活性。
附图说明
图1是本发明的功能流程图
图2是本发明整体的功能模块及其相互关系框图
具体实施方式
下面结合附图对本发明作进一步的说明。
所述的一种智能网课系统,其功能流程图如图1所示,其模块之间的相互关系如图2所示。
下面提供两个具体实施例对本发明所述的一种智能网课系统的具体过程进行说明:
实施例1:
本实施例实现了一种智能网课系统的参数初始化的过程。
1.图像预处理模块,在初始化阶段该模块不工作;
2.目标检测模块,在初始化过程中,使用带有已标定人脸面部区域、手部区域和上肢区域的图像对目标检测算法进行参数初始化。
所述的使用带有已标定人脸面部区域、手部区域和上肢区域的图像对目标检测算法进行参数初始化,其步骤为:第一步,构造特征抽取深度网络;第二步,构造区域选择网络,第三步,根据所述的构造特征抽取深度网络中所使用的数据库中的每一张图像X和对应的人工标定的每个区域
Figure BDA0002489087330000151
然后通过ROI层,其输入为图像X和区域
Figure BDA0002489087330000152
输出
Figure BDA0002489087330000153
为7×7×512维度的;第三步,构建坐标精炼网络。
所述的构造特征抽取深度网络,该网络为深度学习网络结构,其网络结构为:第一层:卷积层,输入为768×1024×3,输出为768×1024×64,通道数channels=64;第二层:卷积层,输入为768×1024×64,输出为768×1024×64,通道数channels=64;第三层:池化层,输入第一层输出768×1024×64与第三层输出768×1024×64在第三个维度上相连接,输出为384×512×128;第四层:卷积层,输入为384×512×128,输出为384×512×128,通道数channels=128;第五层:卷积层,输入为384×512×128,输出为384×512×128,通道数channels=128;第六层:池化层,输入第四层输出384×512×128与第五层384×512×128在第三个维度上相连接,输出为192×256×256;第七层:卷积层,输入为192×256×256,输出为192×256×256,通道数channels=256;第八层:卷积层,输入为192×256×256,输出为192×256×256,通道数channels=256;第九层:卷积层,输入为192×256×256,输出为192×256×256,通道数channels=256;第十层:池化层,输入为第七层输出192×256×256与第九层192×256×256在第三个维度上相连接,输出为96×128×512;第十一层:卷积层,输入为96×128×512,输出为96×128×512,通道数channels=512;第十二层:卷积层,输入为96×128×512,输出为96×128×512,通道数channels=512;第十三层:卷积层,输入为96×128×512,输出为96×128×512,通道数channels=512;第十四层:池化层,输入为第十一层输出96×128×512与第十三层96×128×512在第三个维度上相连接,输出为48×64×1024;第十五层:卷积层,输入为48×64×1024,输出为48×64×512,通道数channels=512;第十六层:卷积层,输入为48×64×512,输出为48×64×512,通道数channels=512;第十七层:卷积层,输入为48×64×512,输出为48×64×512,通道数channels=512;第十八层:池化层,输入为第十五层输出48×64×512与第十七层48×64×512在第三个维度上相连接,输出为48×64×1024;第十九层:卷积层,输入为48×64×1024,输出为48×64×256,通道数channels=256;第二十层:池化层,输入为48×64×256,输出为24×62×256;第二十一层:卷积层,输入为24×32×1024,输出为24×32×256,通道数channels=256;第二十二层:池化层,输入为24×32×256,输出为12×16×256;第二十三层:卷积层,输入为12×16×256,输出为12×16×128,通道数channels=128;第二十四层:池化层,输入为12×16×128,输出为6×8×128;第二十五层:全连接层,首先将输入的6×8×128维度的数据展开成6144维度的向量,然后输入进全连接层,输出向量长度为768,激活函数为relu激活函数;第二十六层:全连接层,输入向量长度为768,输出向量长度为96,激活函数为relu激活函数;第二十七层:全连接层,输入向量长度为96,输出向量长度为2,激活函数为soft-max激活函数;所有卷积层的参数为卷积核kernel大小=3,步长stride=(1,1),激活函数为relu激活函数;所有池化层均为最大池化层,其参数为池化区间大小kernel_size=2,步长stride=(2,2);设该深度网络为Fconv27,对于一幅彩色图像X,经过该深度网络所得到的特征图集合用Fconv27(X)表示,该网络的评价函数为对(Fconv27(X)-y)计算其交叉熵损失函数,收敛方向为取最小值,y输入对应的分类。数据库为在自然界采集的包含人脸及非人脸的图像,每张图像为768×1024维度的彩色图像,按照图像中是否包含人脸分成两类,迭代次数为2000次。在训练结束后,取第一层到第十七层为特征抽取深度网络Fconv,对于一幅彩色图像X,经过该深度网络所得到的输出用Fconv(X)表示。
所述的构造区域选择网络,接收Fconv深度网络提取出512个48×64特征图集合Fconv(X),然后第一步经过卷积层得到Conv1(Fconv(X)),该卷积层的参数为:卷积核kernel大小=1,步长stride=(1,1),输入为48×64×512,输出为48×64×512,通道数channels=512;然后将Conv1(Fconv(X))分别输入到两个卷积层(Conv2-1和Conv2-2),Conv2-1的结构为:输入为48×64×512,输出为48×64×18,通道数channels=18,该层得到的输出为Conv2-1(Conv1(Fconv(X))),再对该输出使用激活函数softmax得到softmax(Conv2-1(Conv1(Fconv(X))));Conv2-2的结构为:输入为48×64×512,输出为48×64×36,通道数channels=36;该网络的损失函数有两个:第一个误差函数loss1为对Wshad-cls⊙(Conv2-1(Conv1(Fconv(X)))-Wcls(X))计算softmax误差,第二个误差函数loss2为对Wshad-reg(X)⊙(Conv2-1(Conv1(Fconv(X)))-Wreg(X))计算smooth L1误差,区域选择网络的损失函数=loss1/sum(Wcls(X))+loss2/sum(Wcls(X)),sum(·)表示矩阵所有元素之和,收敛方向为取最小值,Wcls(X)和Wreg(X)分别为数据库图像X对应的正负样本信息,⊙表示矩阵按照对应位相乘,Wshad-cls(X)和Wshad-reg(X)为掩码,其作用为选择Wshad(X)中权值为1的部分进行训练,从而避免正负样本数量差距过大,每次迭代时重新生成Wshad-cls(X)和Wshad-reg(X),算法迭代1000次。
所述的构造特征抽取深度网络中所使用的数据库,对于数据库中的每一张图像,第一步:人工标定图像中的人脸面部区域、手部区域和上肢区域,设其在输入图像的中心坐标为(abas_tr,bbas_tr),中心坐标在纵向距离上下边框的距离为lbas_tr,中心坐标在横向距离左右边框的距离为wbas_tr,则其对应于Conv1的位置为中心坐标为
Figure BDA0002489087330000161
半长为
Figure BDA0002489087330000162
半宽为
Figure BDA0002489087330000163
表示取整数部分;第二步:随机生成正负样本。
所述的随机生成正负样本,其方法为:第一步,构造9个区域框,第二步,对于数据库的每一张图像Xtr,设Wcls为48×64×18维度,Wreg为48×64×36维度,所有初始值均为0,对Wcls和Wreg进行填充。
所述的构造9个区域框,这9个区域框分别为:Ro1(xRo,yRo)=(xRo,yRo,64,64),Ro2(xRo,yRo)=(xRo,yRo,45,90),Ro3(xRo,yRo)=(xRo,yRo,90,45),Ro4(xRo,yRo)=(xRo,yRo,128,128),Ro5(xRo,yRo)=(xRo,yRo,90,180),Ro6(xRo,yRo)=(xRo,yRo,180,90),Ro7(xRo,yRo)=(xRo,yRo,256,256),Ro8(xRo,yRo)=(xRo,yRo,360,180),Ro9(xRo,yRo)=(xRo,yRo,180,360),对于每一个区域块,Roi(xRo,yRo)表示对于第i个区域框,当前区域框的中心坐标(xRo,yRo),第三位表示中心点距离上下边框的像素距离,第四位表示中心点距离左右边框的像素距离,i的取值从1到9。
所述的对Wcls和Wreg进行填充,其方法为:
对于每一个人工标定的人体区间,设其在输入图像的中心坐标为(abas_tr,bbas_tr),中心坐标在纵向距离上下边框的距离为lbas_tr,中心坐标在横向距离左右边框的距离为wbas_tr,则其对应于Conv1的位置为中心坐标为
Figure BDA0002489087330000171
半长为
Figure BDA0002489087330000172
半宽为
Figure BDA0002489087330000173
对于左上角
Figure BDA0002489087330000174
右下角坐标
Figure BDA0002489087330000175
所围成的区间内的每个点(xCtr,yctr):
对于i取值从1到9:
对于点(xCtr,yCtr),其在数据库图像的映射区间为左上角点(16(xCtr-1)+1,16(yCtr-1)+1)右下角点(16xCtr,16yCtr)所围成的16×16区间,对于该区间的每一个点(xOtr,yOtr):
计算(xOtr,yOtr)所对应区域Roi(xOtr,yOtr)与当前人工标定的区间的重合率;
选择当前16×16区间内重合率最高的点(xIoUMax,yIoUMax),若重合率>0.7,则Wcls(xCtr,yCtr,2i-1)=1,Wcls(xCtr,yCtr,2i)=0,该样本为正样本,Wreg(xCtr,yCtr,4i-3)=(xOtr-16xCtr+8)/8,Wreg(xCtr,yCtr,4i-2)=(yOtr-16yCtr+8)/8,Wreg(xCtr,yCtr,4i-2)=Down1(lbas_tr/Roi的第三位),Wreg(xCtr,yCtr,4i)=Down1(wbas_tr/Roi的第四位),Down1(·)表示若值大于1则取值为1;若重合率<0.3,则Wcls(xCtr,yCtr,2i-1)=0,Wcls(xCtr,yCtr,2i)=1;否则Wcls(xCtr,yCtr,2i-1)=-1,Wcls(xCtr,yCtr,2i)=-1.
若当前人工标定的区域没有重合率>0.6的Roi(xOtr,yotr),则选择重合率最高的Roi(xOtr,yOtr)对Wcls和Wreg赋值,赋值方法与重合率>0.7的赋值方法相同。
所述的计算(xOtr,yOtr)所对应区域Roi(xOtr,yOtr)与当前人工标定的区间的重合率,其方法为:设人工标定的人体区间在输入图像的中心坐标为(abas_tr,bbas_tr),中心坐标在纵向距离上下边框的距离为lbas_tr,中心坐标在横向距离左右边框的距离为wbas_tr,设Roi(xotr,yOtr)的第三位为lotr,第四位为wOtr,若满足|xOtr-abas_tr|≤lotr+lbas_tr-1并且|yOtr-bbas_tr|≤wOtr+wbas_tr-1,说明存在重合区域,重合区域=(lOtr+lbas_tr-1-|xOtr-abas_tr|)×(wOtr+wbas_tr-1-|yOtr-bbas_tr|),否则重合区域=0;计算全部区域=(2lOtr-1)×(2wOtr-1)+(2abas_tr-1)×(2wbas_tr-1)-重合区域;从而得到重合率=重合区域/全部区域,|·|表示取绝对值。
所述的Wshad-cls(X)和Wshad-reg(X),其构造方法为:对于该图像X,其对应的正负样本信息为Wcls(X)和Wreg(X),第一步,构造Wshad-cls(X)与和Wshad-reg(X),Wshad-cls(X)与Wcls(X)维度相同,Wshad-reg(X)与Wreg(X)维度相同;第二步,记录所有正样本的信息,对于i=1到9,若Wcls(X)(a,b,2i-1)=1,则Wshad-cls(X)(a,b,2i-1)=1,Wshad-cls(X)(a,b,2i)=1,Wshad-reg(X)(a,b,4i-3)=1,Wshad-reg(X)(a,b,4i-2)=1,Wshad-reg(X)(a,b,4i-1)=1,Wshad-reg(X)(a,b,4i)=1,正样本一共选择了sum(Wshad-cls(X))个,sum(·)表示对矩阵的所有元素求和,若sum(Wshad-cls(X))>256,随机保留256个正样本;第三步,随机选择负样本,随机选择(a,b,i),若Wcls(X)(a,b,2i-1)=1,则Wshad-cls(X)(a,b,2i-1)=1,Wshad-cls(X)(a,b,2i)=1,Wshad-reg(X)(a,b,4i-3)=1,Wshad-reg(X)(a,b,4i-2)=1,Wshad-reg(X)(a,b,4i-1)=1,Wshad-reg(X)(a,b,4i)=1,若已选中的负样本数量为256-sum(Wshad-cls(X))个,或者虽然负样本数量不足256-sum(Wshad-cls(X))个但是在20次生成随机数(a,b,i)内都无法得到负样本,则算法结束。
所述的ROI层,其输入为图像X和区域
Figure BDA0002489087330000181
其方法为:对于图像X通过特征抽取深度网络Fconv所得到的输出Fconv(X)的维度为48×64×512,对于每一个48×64矩阵VROI_I的信息(一共512个矩阵),提取VROI_I矩阵中左上角
Figure BDA0002489087330000182
Figure BDA0002489087330000183
右下角
Figure BDA0002489087330000184
所围成的区域,
Figure BDA0002489087330000185
表示取整数部分;输出为roiI(X)维度为7×7,则步长
Figure BDA0002489087330000186
Figure BDA0002489087330000187
对于iRoI=1:到7:
对于jROI=1到7:
构造区间
Figure BDA0002489087330000188
Figure BDA0002489087330000189
roiI(X)(iROI,jROI)=区间内最大点的值。
当512个48×64矩阵全部处理结束后,将输出拼接得到7×7×512维度的输出
Figure BDA00024890873300001810
参数表示对于图像X,在区域框
Figure BDA00024890873300001811
范围内的ROI。
所述的构建坐标精炼网络,其方法为:第一步,扩展数据库:扩展方法为对于数据库中的每一张图像X和对应的人工标定的每个区域
Figure BDA0002489087330000191
其对应的ROI为
Figure BDA0002489087330000192
若当前区间为人体图像区域则BClass=[1,0,0,0,0],BBox=[0,0,0,0],若当前区间为人脸面部区域则BClass=[0,1,0,0,0],BBox=[0,0,0,0],若当前区间为手部区域则BClass=[0,0,1,0,0],BBox=[0,0,0,0],若当前区间为产品区域则BClass=[0,0,0,1,0],BBox=[0,0,0,0];随机生成取值在-1到1之间随机数arand,brand,lrand,wrand,从而得到新的区间
Figure BDA0002489087330000193
Figure BDA0002489087330000194
表示取整数部分,该区间的BBox=[arand,brand,lrand,wrand],若新的区间与
Figure BDA0002489087330000195
的重合率>0.7则BClass=当前区域的BClass,若新的区间与
Figure BDA0002489087330000196
的重合率<0.3,则BClass=[0,0,0,0,1],二者均不满足,则不赋值。每个区间最多生成10个正样本区域,设生成Num1个正样本区域,则生成Num1+1个负样本区域,若负样本区域不够Num1+1个,则扩大arand,brand,lrand,wrand的范围,直到找到足够多的负样本数为止。第二步,构建坐标精炼网路:对于数据库中的每一张图像X和对应的人工标定的每个区域
Figure BDA0002489087330000197
其对应的ROI为
Figure BDA0002489087330000198
将将7×7×512维度的ROI展开成25088维向量,然后经过两个全连接层Fc2,得到输出Fc2(ROI),然后将Fc2(ROI)分别通过分类层FClass和区间微调层FBBox,得到输出FClass(Fc2(ROI))和FBBox(Fc2(ROI)),分类层FClass为全连接层,其输入向量长度为512,输出向量长度为4,区间微调层FBBox为全连接层,其输入向量长度为512,输出向量长度为4;该网络的损失函数有两个:第一个误差函数loss1为对FClass(Fc2(ROI))-BClass计算softmax误差,第二个误差函数loss2为对(FBBox(Fc2(RoI))-BBox)计算欧氏距离误差,则该精炼网络的整体损失函数=loss1+loss2,算法迭代过程为:首先迭代1000次收敛误差函数loss2,然后迭代1000次收敛整体损失函数。
所述的两个全连接层Fc2,其结构为:第一层:全连接层,输入向量长度为25088,输出向量长度为4096,激活函数为relu激活函数;第二层:全连接层,输入向量长度为4096,输出向量长度为512,激活函数为relu激活函数。
3.所述的人脸识别模块,其方法是:在初始化阶段,首先构造通用图像特征提取网络N1,然后保留深度网络N1的第一层到第二十三层,删掉第二十三层的激活函数,该深度网络FaceNet作为人脸图像特征提取网络,然后,读取学生在系统上登记的照片,使用初始化阶段构造人脸图像特征提取网络FaceNet对人脸图像进行特征提取,对于登记照片P,将P作为特征提取网络FaceNet的输入,得到对应的1000维度输出FaceNet(P)。
所述的构造通用图像特征提取网络N1,方法是:第一步,构建深度网络N1;第二步使用ILSVRC-2012国际标准数据库对深度网络N1进行训练。
所述的构建深度网络N1,其网络结构为:第一层:卷积层,输入为224×224×3,输出为224×224×64,通道数channels=64;第二层:卷积层,输入为224×224×64,输出为224×224×64,通道数channels=64;第三层:池化层,输入224×224×64,输出112×112×64;第四层:卷积层,输入为112×112×64,输出为112×112×128,通道数channels=128;第五层:卷积层,输入为112×112×128,输出为112×112×128,通道数channels=128;第六层:池化层,输入112×112×128,输出为56×56×128;第七层:卷积层,输入为56×56×128,输出为56×56×256,通道数channels=256;第八层:卷积层,输入为56×56×256,输出为56×56×256,通道数channels=256;第九层:卷积层,输入为56×56×256,输出为56×56×256,通道数channels=256;第十层:池化层,输入为56×56×256,输出为28×28×256;第十一层:卷积层,输入为28×28×256,输出为28×28×512,通道数channels=512;第十二层:卷积层,输入为28×28×512,输出为28×28×512,通道数channels=512;第十三层:卷积层,输入为28×28×512,输出为28×28×512,通道数channels=512;第十四层:池化层,输入为28×28×512,输出为14×14×512;第十五层:卷积层,输入为14×14×512,输出为14×14×512,通道数channels=512;第十六层:卷积层,输入为14×14×512,输出为14×14×512,通道数channels=512;第十七层:卷积层,输入为14×14×512,输出为14×14×512,通道数channels=512;第十八层:池化层,输入为14×14×512,输出为7×7×512;第十九层:首先将输入的7×7×512的数据展开成25,088维度的向量,然后输入进全连接层,输出向量长度为4096,激活函数为relu激活函数;第二十层:Dropout层,概率为0.5;第二十一层:全连接层,输入向量长度为4096,输出向量长度为4096,激活函数为relu激活函数;第二十二层:Dropout层,概率为0.5;第二十三层:全连接层,输入向量长度为4096,输出向量长度为1000,激活函数为soft-max激活函数;所有卷积层的参数为:卷积核kernel大小=3,步长stride=(1,1),激活函数为relu激活函数;所有池化层均为最大池化层,其参数为池化区间大小kernel_size=2,步长stride=(2,2)。
所述的使用ILSVRC-2012国际标准图像分类数据库对深度网络N1进行训练,其步骤为:首先对输入图像进行处理,因为ILSVRC-2012国际标准数据库的输入为高清图像,对于每一张图像按照最短边不变,最长以中心为基准截取一个正方形区域,然后将图像大小调整为224×224,图像大小调整采用双线性插值法,得到的224×224×3的彩色图像X作为输入,对于数据集中1000个类,构造一个1000维度的向量Y,若当前图像属于1000类中的第K类,则向量的第K位等于1,其他位等于0,处理好的数据对<X,Y>作为下一步的输入;第二步用处理好的每一个数据对<X,Y>训练深度网络N1,其中,优化方法为动量梯度下降法(SGD),动量为0.9,权重初始值为0.01,第100次迭代后变为0.001,第500次迭代后变为0.0001,设对于输入X,网络N1的输出为N1(X),算法的误差函数为
Figure BDA0002489087330000201
算法迭代1000次。
4.所述的头部方向检测模块,其方法是:在初始化过程中,根据通用图像特征提取网络N1构造人脸朝向神经网路分类器ForientNet,并使用搜集到的人脸不同角度朝向图像对人脸朝向神经网路分类器ForientNet进行训练。
所述的根据通用图像特征提取网络N1构造人脸朝向神经网路分类器ForientNet,其步骤为:首先,将通用图像特征提取网络N1的第二十三层的激活函数改为relu激活函数,然后添加:第二十四层:全连接层,输入向量长度为1000,输出向量长度为200,激活函数为relu激活函数;第二十五层:Dropout层,概率为0.5;第二十六层:由两个全连接层组成,分别为水平角度全连接层和垂直角度全连接层,两个全连接层的输入向量长度均为200,输出向量长度均为13,每一个全连接层激活函数均为soft-max激活函数,因此第二十六层整体的输出向量长度为26,添加层其他设置与通用图像特征提取网络N1相同。
所述的使用搜集到的人脸不同角度朝向图像对人脸朝向神经网路分类器ForientNet进行训练,其步骤为:第一步:构造人脸不同角度朝向图像数据集;第二步:对数据集图像进行处理,对于每一张照片,首先对于每一张图像按照最短边不变,最长以中心为基准截取一个正方形区域,然后将图像大小调整为224×224,图像大小调整采用双线性插值法,得到的224×224×3的彩色图像X作为输入,对于数据集合中的13类,构造一个13维度的向量Y,若当前图像属于13类中的第K类,则向量的第K位等于1,其他位等于0,处理好的数据对<X,Y>作为下一步的输入;第三步,用处理好的每一个数据对<X,Y>训练人脸朝向神经网路分类器ForientNet。
所述的构造人脸不同角度朝向图像数据集,其构造方法为:每一张图像由横向朝向角度和纵向朝向角度组成,首先采集人脸横向朝向图像,横向朝向以正面对摄像头为中心点0度,最左侧为-90度,最右侧为90度,每15度架设一个摄像头,从而横向坐标一共13个摄像头,被采集人脸面对0度摄像头,然后13个摄像头同时拍摄,待所有被摄人脸拍摄完毕后,水平方向的每一个摄像头内的照片为一组,以其照片摄像头水平架设角度命名,例如-90度摄像头命名为-90度,45度摄像头命名为45度;然后采集纵向朝向人脸图像,纵向朝向以正面对摄像头为中心点0度,最下侧为-75度,最上侧为90度,每15度架设一个摄像头,从而纵向坐标一共12个摄像头,被采集人脸面对0度摄像头,然后12个摄像头同时拍摄,待当前人脸拍摄结束后,人脸面对45度摄像头,-45度摄像头拍摄的图像作为最下侧-90度图像,待所有被摄人脸拍摄完毕后,水平方向的每一个摄像头内的照片为一组,以其照片摄像头水平架设角度命名。从而得到人脸不同角度朝向图像数据集,其中水平方向从-90度到90度,每15度为1类,共13类;垂直方向从-90度到90度,每15度为1类,共13类。
所述的用处理好的每一个数据对<X,Y>训练人脸朝向神经网路分类器ForientNet,其步骤为:将水平朝向数据集的输入数据对和垂直朝向数据集的输入数据对<Xv,Yv>依次作为网络的输入。网络的,优化方法为动量梯度下降法(SGD),动量为0.9,权重初始值为0.01,第100次迭代后变为0.001,第500次迭代后变为0.0001,设对于输入X,网络N1的输出为N1(X),算法的误差函数为
Figure BDA0002489087330000211
算法迭代1000次,取ForientNet中从第一层到第二十六层的水平角度全连接层作为水平朝向分类器ForientNet_Hor,取ForientNet中从第一层到第二十六层的垂直角度全连接层作为垂直朝向分类器ForientNet_Ver。每一轮迭代过程如下:对于每一轮迭代:
从水平朝向数据集取一个batch的输入数据对<Xh,Yh>:
以<Xh,Yh>作为输入,优化水平朝向分类器ForientNet_Hor,其中ForientNet_Hor网络的第一层到第二十三层参数不变,第二十六层的垂直角度全连接层参数不做优化。
从垂直朝向数据集取一个batch的输入数据对<Xv,Yv>:
以<Xv,Yv>作为输入,优化垂直朝向分类器ForientNet_Ver,其中ForientNet_Ver网络的第一层到第二十三层参数不变,第二十六层的水平角度全连接层参数不做优化。
直到水平朝向数据集和垂直朝向数据集均为空时,当前轮迭代结束。
5.所述的学生动作识别模块,其方法是:在初始化阶段,根据通用图像特征提取网络N1构造动作识别神经网路分类器MotionNet,然后使用搜集到的手部和上肢部的动作对MotionNet进行训练。
所述的根据通用图像特征提取网络N1构造动作识别神经网路分类器MotionNet,其步骤为:首先,将通用图像特征提取网络N1的第二十三层的激活函数改为relu激活函数,然后添加:第二十四层:全连接层,输入向量长度为1000,输出向量长度为200,激活函数为relu激活函数;第二十五层:Dropout层,概率为0.5;第二十六层:全连接层,输入向量长度为200,输出向量长度为23,激活函数为soft-max激活函数,添加层其他设置与通用图像特征提取网络N1相同。
所述的使用搜集到的手部和上肢部的动作对MotionNet进行训练,其步骤为:首先对输入图像进行处理,搜集到的手部动作包括:左手手势数字0到9,右手手势数字0到9,左手举手,右手举手动作,共22种动作,以及无效动作类,一共23种动作,将23种动作调整为224×224维度大小的图像X作为MotionNet的输入,对于23种动作,构造一个23维度的向量Y,每一个动作对应23维度种的一个维度,若当前图像属于23类中的第K类动作,则向量的第K位等于1,其他位等于0,处理好的数据对<X,Y>作为下一步的输入;然后用处理好的每一个数据对<X,Y>训练深度网络MotionNet,其中,MotionNet网络的第一层到第二十三层参数在整个训练过程中不变,网络的优化方法为动量梯度下降法(SGD),动量为0.9,权重初始值为0.01,第10次迭代后变为0.001,设对于输入X,网络N1的输出为N1(X),算法的误差函数为
Figure BDA0002489087330000221
算法迭代100次。
6.所述的识别结果处理模块,在初始化阶段。
实施例2:
本实施例实现了一种智能网课系统的检测过程。
1.图像预处理模块,在检测过程中:第一步,对监控摄像头所摄的监控图像进行均值去噪,从而得到去噪后的监控图像;第二步,对去噪后的监控图像进行光照补偿,从而得到光照补偿后的图像;第三步,将光照补偿后的图像进行图像增强,将图像增强后的数据传递给目标检测模块。
所述的对监控摄像头所摄的监控图像进行均值去噪,其方法是:设监控摄像头所摄的监控图像为Xsrc,因为Xsrc为彩色RGB图像,因此存在Xsrc-R,Xsrc-G,Xsrc-B三个分量,对于每一个分量Xsrc′,分别进行如下操作:首先设置一个3×3维的窗口,考虑该图像Xsrc′的每个像素点Xsrc′(i,j),以该点为中心点的3×3维矩阵所对应的像素值分别为[Xsrc′(i-1,j-1),Xsrc′(i-1,j),Xsrc′(i-1,j+1),Xsrc′(i,j-1),Xsrc′(i,j),Xsrc′(i,j+1),Xsrc′(i+1,j-1),Xsrc′(i+1,j),Xsrc′(j+1,j+1)]进行从大到小排列,取其排在中间的值为去噪后图像Xsrc″在像素(i,j)所对应滤波后值赋值给Xsrc″(i,j);对于Xsrc′的边界点,会出现其3×3维的窗口所对应的某些像素点不存在的情况,那么只需计算落在窗口内存在的像素点的中间值即可,若窗口内为偶数个点,将排在中间两个像素值的平均值作为该像素点去噪后的像素值赋值给Xsrc″(i,j),从而,新的图像矩阵Xsrc″即为Xsrc在当前RGB分量的去噪后的图像矩阵,对于Xsrc-R,Xsrc-G,Xsrc-B在三个分量分别进行去噪操作后,将得到的Xsrc-R″,Xsrc-G″,Xsrc-B″分量,将这三个新的分量整合成一张新的彩色图像XDen即为去噪后所得的图像。
所述的对去噪后的监控图像进行光照补偿,设去噪后的监控图像XDen,因为XDen为彩色RGB图像,因此XDen存在RGB三个分量,对于每一个分量XDen′,分别进行光照补偿,然后将得到的Xcpst′整合得到彩色RBG图像Xcpst,Xcpst即为XDen光照补偿后的图像,对每一个分量XDen′分别进行光照补偿的步骤为:第一步,设XDen′为m行n列,构造XDensum和NumDen为同样m行n列的矩阵,初始值均为0,
Figure BDA0002489087330000231
步长
Figure BDA0002489087330000232
窗口大小为l,其中函数min(m,n)表示取m和n的最小值,
Figure BDA0002489087330000233
表示取整数部分,sqrt(l)表示l的平方根,若l<1则l=1;第二步,设XDen左上角坐标为(1,1),从坐标(1,1)开始,根据窗口大小为l和步长s确定每一个候选框,该候选框为[(a,b),(a+l,b+l)]所围成的区域,对于XDen′在候选框区域内所对应的图像矩阵进行直方图均衡化,得到候选区域[(a,b),(a+l,b+l)]的均衡化后的图像矩阵XDen″,然后XDensum对应的[(a,b),(a+l,b+l)]区域的每一个元素计算XDensum(a+iXsum,b+jXsum)=XDensum(a+iXsum,b+jXsum)+XDen″(iXsum,jXsum),其中(iXsum,jXsum)为整数且1≤iXsum≤l,1≤jXsum≤l,并将NumDen对应的[(a,b),(a+l,b+l)]区域内的每一个元素加1;最后,计算
Figure BDA0002489087330000234
Figure BDA0002489087330000235
其中(iXsumNumjXsumNum)为XDen对应的每一个点,从而得到Xcpst即为对当前分量XDen′进行光照补偿。
所述的根据窗口大小为l和步长s确定每一个候选框,其步骤为:
设监控图像为m行n列,(a,b)为选定的区域的左上角坐标,(a+l,b+l)为选定区域的右下角坐标,该区域由[(a,b),(a+l,b+l)]表示,(a,b)的初始值为(1,1);
当a+l≤m时:
b=1;
当b+l≤n时:
选定的区域为[(a,b),(a+l,b+l)];
b=b+s;
内层循环结束;
a=a+s;
外层循环结束;
上述过程中,每次选定的区域[(a,b),(a+l,b+l)]均为候选框。
所述的对于XDen′在候选框区域内所对应的图像矩阵进行直方图均衡化,设候选框区域为[(a,b),(a+l,b+l)]所围成的区域,XDen″即为XDen′在[(a,b),(a+l,b+l)]区域内的图像信息,其步骤为:第一步,构造向量I,I(iI)为XDen′′中像素值等于iI的个数,0≤iI≤255;第二步,计算向量
Figure BDA0002489087330000236
第三步,对于XDen″上的每一个点(ixDen,jXDen),其像素值为XDen″(iXDen,jXDen),计算X″Den(iXDen,jXDen)=I′(X″Den(iXDen,jXDen))。待XDen″图像内的所有像素点值都计算并更改后直方图均衡化过程结束,XDen″内保存的即为直方图均衡化的结果。
所述的将光照补偿后的图像进行图像增强,设光照补偿后的图像为Xcpst,其对应的RGB通道分别为XcpstR,XcpstG,XcpstB,对Xcpst图像增强后得到的图像为Xenh。对其进行图像增强的步骤为:第一步,对于Xcpst的所有分量XcpstR,XcpstG,XcpstB计算其按指定尺度进行模糊后的图像;第二步,构造矩阵LXenhR,LXenhG,LXenhB为与XcpstR相同维度的矩阵,对于图像Xcpst的RGB通道中的R通道,计算LXenhR(i,j)=log(XcpstR(i,j))-LXcpstR(i,j),(i,j)的取值范围为图像矩阵中所有的点,对于图像Xcpst的RGB通道中的G通道和B通道采用与R通道同样的算法得到LXenhG和LXenhB;第三步,对于图像Xcpst的RGB通道中的R通道,计算LXenhR中所有点取值的均值MeanR和均方差VarR(注意是均方差),计算MinR=MeanR-2×VarR和MaxR=MeanR+2×VarR,然后计算XenhR(i,j)=Fix((LXcpstR(i,j)-MinR)/(MaxR-MinR)×255),其中Fix表示取整数部分,若取值<0则赋值为0,取值>255则赋值为255;对于RGB通道中的G通道和B通道采用与R通道同样的算法得到XenhG和XenhB,将分别属于RGB通道的XenhR、XenhG、XenhB整合成一张彩色图像Xenh
所述的对于Xcpst的所有分量XcpstR,XcpstG,XcpstB计算其按指定尺度进行模糊后的图像,对于RGB通道中的R通道XcpstR,其步骤为:第一步,定义高斯函数G(x,y,σ)=k×exp(-(x2+y2)/σ2),σ为尺度参数,k=1/∫∫G(x,y)dxdy,则对于XcpstR的每一个点XcpstR(i,j)计算,
Figure BDA0002489087330000241
Figure BDA0002489087330000242
其中
Figure BDA0002489087330000243
表示卷积运算,对于距离边界低于尺度σ的点,只计算XcpstR与G(x,y,σ)对应部分的卷积,Fix()表示取整数部分,若取值<0则赋值为0,取值>255则赋值为255。对于RGB通道中的G通道和B通道采用与R通道同样的算法更新XcpstG和XcpstG。2.目标检测模块,在检测过程中,接收图像预处理模块所传递来的图像,然后对其进行处理,对每一帧图像使用目标检测算法进行目标检测,得到当前图像的人脸面部区域、手部区域和上肢区域,将提取到的人脸面部区域传递给人脸识别模块和头部方向检测模块、将上肢区域和手部区域图像传递给学生动作识别模块。
所述的对每一帧图像使用目标检测算法进行目标检测,得到当前图像的人脸面部区域、手部区域和上肢区域,其步骤为:
第一步,将输入图像Xcpst分割成768×1024维度的子图;
第二步,对于每一个子图Xs
第2.1步,使用在初始化时构造的特征抽取深度网络Fconv进行变换,得到512个特征子图集合Fconv(Xs);
第2.2步,对Fconv(Xs)使用区域选择网络中第一层Conv1、第二层Conv2-1+softmax激活函数和Cony2-2进变换,分别得到输出softmax(Conv2-1(Conv1(Fconv(Xs))))和Conv2-2(Conv1(Fconv(Xs))),然后根据输出值得到该区间内的所有的初步候选区间;
第2.3步,对于当前帧图像的所有子图的所有的初步候选区间:
第2.3.1步,根据其当前候选区域的得分大小进行选取,选取最大的50个初步候选区间作为候选区域;
第2.3.2步,调整候选区间集合中所有的越界候选区间,然后剔除掉候选区间中重叠的框,从而得到最终候选区间;
第2.3.3步,将子图Xs和每一个最终候选区间输入到ROI层,得到对应的ROI输出,设当前的最终候选区间为(aBB(1),bBB(2),lBB(3),wBB(4)),然后计算FBBox(Fc2(ROI))得到四位输出(OutBB(1),OutBB(2),OutBB(3),OutBB(4))从而得到更新后的坐标(aBB(1)+8×OutBB(1),bBB(2)+8×OutBB(2),lBB(3)+8×OutBB(3),wBB(4)+8×OutBB(4));然后计算FClass(Fc2(ROI))得到输出,若输出第一位最大则当前区间为人脸面部区域,若输出第二位最大则当前区间为手部区域,若输出第三位最大则当前区间为上肢区域,若输出第四位最大则当前区间为负样本区域并删除该最终候选区间。
第三步,更新所有子图的精炼后的最终候选区间的坐标,更新的方法为设当前候选区域的坐标为(TLx,TLy,RBx,RBy),其对应的子图的左上角坐标为(Seasub,Sebsub),更新后的坐标为(TLx+Seasub-1,TLy+Sebsub-1,RBx,RBy)。
所述的将输入图像Xcpst分割成768×1024维度的子图,其步骤为:设分割的步长为384和512,设窗口大小为m行n列,(asub,bsub)为选定的区域的左上角坐标,(a,b)的初始值为(1,1);当asub<m时:
bsub=1;
当bsub<n时:
选定的区域为[(asub,bsub),(asub+384,bsub+512)],将输入图像Xcpst上该区间所对应的图像区域的信息复制到新的子图中,并附带左上角坐标(asub,bsub)作为位置信息;若选定区域超出输入图像Xcpst区间,则将超出范围内的像素点对应的RGB像素值均赋值为0;
bsub=bsub+512;
内层循环结束;
asub=asub+384;
外层循环结束;
所述的根据输出值得到该区间内的所有的初步候选区间,其方法为:第一步:对于softmax(Conv2-1(Conv1(Fconv(Xs))))其输出为48×64×18,对于Conv2-2(Conv1(Fconv(Xs))),其输出为48×64×36,对于48×64维空间上的任何一点(x,y),softmax(Conv2-1(Conv1(Fconv(Xs))))(x,y)为18维向量II,Conv2-2(Conv1(Fconv(Xs)))(x,y)为36维向量IIII,若II(2i-1)>II(2i),对于i取值从1到9,lotr为Roi(xOtr,yotr)的第三位,wotr为Roi(xOtr,yOtr)的第四位,则初步候选区间为[II(2i-1),(8×IIII(4i-3)+x,8×IIII(4i-2)+y,lOtr×IIII(4i-1),wotr×IIII(4i))],其中第一位II(2i-1)表示当前候选区域的得分,第二位(8×IIII(4i-3)+x,8×IIII(4i-2)+y,IIII(4i-1),IIII(4i))表示当前候选区间的中心点为(8×IIII(4i-3)+x,8×IIII(4i-2)+y),候选框的半长半宽分别为lotr×IIII(4i-1)和wOtr×IIII(4i))。
所述的调整候选区间集合中所有的越界候选区间,其方法为:设监控图像为m行n列,对于每一个候选区间,设其[(ach,bch)],候选框的半长半宽分别为lch和wch,若ach+lch>m,则
Figure BDA0002489087330000251
然后更新其ach=a′ch,lch=l′ch;若bch+wch>n,则
Figure BDA0002489087330000252
然后更新其bch=b′ch,wch=w′ch.
所述的剔除掉候选区间中重叠的框,其步骤为:
若候选区间集合不为空:
从候选区间集合中取出得分最大的候选区间iout
计算候选区间iout与候选区间集合中的每一个候选区间ic的重合率,若重合率>0.7,
则从候选区间集合删除候选区间ic
将候选区间iout放入输出候选区间集合;
当候选区间集合为空时,输出候选区间集合内所含的候选区间即为剔除掉候选区间中重叠的框后所得到的候选区间集合。
所述的计算候选区间iout与候选区间集合中的每一个候选区间ic的重合率,其方法为:设候选区间ic的坐标区间为中心点[(aic,bic)],候选框的半长半宽分别为lic和wic,候选区间ic的坐标区间为中心点[(aiout,bicout)],候选框的半长半宽分别为liout和wiout;计算xA=max(aic,aiout);yA=max(bic,biout);xB=min(lic,liout),yB=min(wic,wiout);若满足|aic-aiout|≤lic+liout-1并且|bic-biout|≤wic+wiout-1,说明存在重合区域,重合区域=(lic+liout-1-|aic-aiout|)×(wic+wiout-1-|bic-biout|),否则重合区域=0;计算全部区域=(2lic-1)×(2wic-1)+(2liout-1)×(2wiout-1)-重合区域;从而得到重合率=重合区域/全部区域。
3.人脸识别模块,在检测过程中,接受目标检测模块传递过来的人脸图像,然后判断人脸识别标签,若人脸识别标签为不识别,则跳过当前人脸图像;若人脸识别标签为识别,则对当前人脸图像进行识别,将识别结果发送给识别结果处理模块;若人脸识别标签为识别,但目标检测模块未传递过来人脸图像,将识别结果设为不通过,并发送给识别结果处理模块。
所述的对当前人脸图像进行识别,其步骤为:首先读取当前用户的人脸图像特征标准向量,若特征提取向量不存在,则以初始化阶段计算得到的FaceNet(P)作为该用户的人脸图像特征标准向量;然后待识别的目标检测模块传递来的图像Xc,将Xc作为特征提取网络FaceNet的输入,得到对应的1000维度输出FaceNet(Xc),然后计算
Figure BDA0002489087330000261
Figure BDA0002489087330000262
若loss(Xc)<θ,则识别通过并将该用户的人脸图像特征标准向量更新为FaceNet(Xc),否则识别不通过,其中θ为阈值。
所述的θ为阈值,该阈值的计算方法如下:从系统中抽取随机抽取9位用户,构建用户集合G9,设系统中共有Nsys个用户。
对于G9中的每一个用户i,其登记照片为X(i),lossSum=0:
对于系统中剩余Nsys-1个用户的每一个用户j,其登记照片为X(j):
Figure BDA0002489087330000263
用户i的loss(i)=lossSum/(Nsys-1).
将9位用户的计算结果从大到小排序,取第二位的值作为阈值θ。
4.所述的头部方向检测模块,在检测过程中,接受目标检测模块传递过来的人脸区域图像,若方向识别标签为不识别,则跳过当前图像;若方向识别标签为识别,则使用人脸朝向神经网路分类器ForientNet判断人脸区域图像的人脸朝向的角度,将识别结果发送给识别结果处理模块。
所述的使用人脸朝向神经网路分类器ForientNet判断人脸区域图像的人脸朝向的角度,其步骤为:对于当前输入的图像Xf,将Xf作为人脸朝向神经网路分类器ForientNet的输入,得到对应的26维度输出MotionNet(Xc),其中水平角度全连接层输出为13维,垂直角度全连接层输出为13维,若水平角度全连接层输出向量的第Kh位最大,则当前图像水平角度即为对应于13个角度的第Kh个角度Oh(Kh),若垂直角度全连接层输出向量的第Kv位最大,则当前图像垂直角度即为对应于13个角度的第Kv个角度Ov(Kv)。
5.所述的学生动作识别模块,在检测过程中,接受目标检测模块传递过来的手部区域图像或上肢区域图像,然后判断动作识别标签,若动作识别标签为不识别,则跳过当前图像,若动作识别标签为识别,则对当前图像使用动作识别神经网路分类器MotionNet进行识别,将识别结果发送给识别结果处理模块。
所述的对当前图像使用动作识别神经网路分类器MotionNet进行识别,其步骤为:对于当前输入的图像Xm,将Xm作为动作识别神经网路分类器MotionNet的输入,得到对应的23维度输出MotionNet(Xc),若输出向量的第K位最大,则当前图像即为第K类,对应于23种手部动作的第K个动作。
6.识别结果处理模块,在检测过程中,在识别过程中,对接收到的结果进行处理。对于每一个用户,构造人脸识别间隔变量Tface,每堂课开始时,Tface=100,构造注意力方向识别间隔变量Tattention,每堂课开始时,Tattention=100;构造动作识别间隔变量Tmotion,每堂课开始时,Tmotion=-1,构造人脸识别标签、方向识别标签、动作识别标签,初始时均为不识别。
对于人脸识别标签,在每堂课开始时,将人脸识别标签变为识别,然后每间隔Tface帧将人脸识别标签变为识别,在间隔Tface帧内将人脸识别标签变为不识别。
对人脸识别模块传递来的识别结果:对于当前用户,若人脸识别模块传递来的识别结果为通过,则更新Tface=5×Tface,若Tface>7200,则置Tface=7200;若人脸识别模块传递来的识别结果为不通过,则更新Tface=Tface/5,若Tface<1则置Tface=100,并统计识别不通过次数,若识别不通过次数超过1000,则将当前学生识别不通过信息通知教师,由教师进行识别,若教师识别为通过,则计算当前目标检测框人脸图像Xc对应于人脸图像特征提取网络FaceNet输出FaceNet(Xc),并更改该用户的人脸图像特征标准向量为FaceNet(Xc)。
对于方向识别标签,在每堂课开始时,将方向识别标签变为识别,然后每间隔Tattention帧将方向识别标签变为识别,在间隔Tattention帧内将方向识别标签变为不识别。
对头部方向检测模块传递来的识别结果:首先,设置人脸朝向的基准偏移角度,水平偏移θh=0度,垂直偏移θh=0度,然后接收到传递来的头部方向检测模块传递来的人脸图像横向朝向角度Angh和纵向朝向角度Angv,此时人脸图像实际朝向为水平朝向为Angh-θh,实际纵向朝向角度Angv-θv,若Angh-θh>0度或者|Angv-θv|>45度,认为当前学生视线方向不正确,否则认为当前学生视线方向正确。若识别为视线方向正确,则Tattention=5×Tattention,若Tattention>7200,则置Tattention=7200,若识别为视线方向不正确,则更新Tattention=Tattention/5,若Tattention<1则置Tattention=100,并统计识别视线方向不正确次数,若识别视线方向不正确次数超过1000,则将当前学生识别不通过信息通知教师,由教师进行识别,若教师识别为视线方向正确,则更改当前人脸朝向的基准偏移角度,将水平偏移θh=Angh,垂直偏移θh=Angv。
对于动作识别标签,若Tmotion=-1,则动作识别标签为不识别;然后等待Tmotion变化,若Tmotion>-1,则每间隔Tmotion帧将动作识别标签,在间隔Tattention帧内将方向识别标签变为不识别。在课堂进行中,动作识别标签根据教师的操作进行改变,若教师要求识别学生动作,则动作识别标签变为识别,并设置Tmotion=100,若学生动作识别模块传递来的识别结果为无效动作则Tmotion=2×Tmotion,否则将学生动作识别模块传递来的识别结果传递给教师并设置Tmotion=-1。

Claims (7)

1.一种智能网课系统,其特征在于,基于笔记本自带摄像头或电脑连接的摄像头所摄的视频图像作为输入,其中摄像头摆放在能够拍摄到人脸图像的位置,通常摆放在屏幕正前方,若不是正前方,可以在识别结果处理模块中更改人脸朝向的基准偏移角度值来补偿摄像头摆放位置;本系统包括:图像预处理模块,目标检测模块,人脸识别模块,头部方向检测模块,学生动作识别模块,识别结果处理模块;这6个功能模块各自的实现方法如下:
图像预处理模块,对摄像头采集到的图像进行去噪和光照补偿,然后进行图像增强,最后将处理后的图像数据传递给目标检测模块;
目标检测模块,对接收到图像预处理模块传递来的图像数据进行目标检测,分别检测当前区域是否有个体,若有个体则提取其面部区域并传递给人脸识别模块和头部方向检测模块、提取上肢区域和手部区域图像传递给学生动作识别模块;
人脸识别模块,对接收到目标检测模块传递来的人脸区域图像数据进行人脸识别,并将识别结果分别传递给头部方向检测模块和识别结果处理模块;
头部方向检测模块,根据目标检测模块传递来的人脸区域图像数据,并结合人脸识别模块传递来的识别结果进行人脸朝向识别,并将结果传递给识别结果处理模块;
学生动作识别模块,根据目标检测模块传递来的上肢区域和手部区域图像数据,进行动作识别,判断当前学生手部动作和上肢动作,并将识别结果传递给识别结果处理模块;
识别结果处理模块对接收到的识别结果进行整合,根据人脸识别模块的识别结果判断摄像头前的个体是否为当前登录账户对应的个体,根据头部方向检测模块所识别的个体面部朝向来判断当前个体注意力朝向,根据学生动作识别模块来判断当前学生与教师的交互动作。
2.根据权利要求1所述的一种智能网课系统,其特征在于所述的图像预处理模块的具体实现方法为:
在初始化阶段该模块不工作;在检测过程中:第一步,对监控摄像头所摄的监控图像进行均值去噪,从而得到去噪后的监控图像;第二步,对去噪后的监控图像进行光照补偿,从而得到光照补偿后的图像;第三步,将光照补偿后的图像进行图像增强,将图像增强后的数据传递给目标检测模块;
所述的对监控摄像头所摄的监控图像进行均值去噪,其方法是:设监控摄像头所摄的监控图像为Xsrc,因为Xsrc为彩色RGB图像,因此存在Xsrc-R,Xsrc-G,Xsrc-B三个分量,对于每一个分量Xsrc′,分别进行如下操作:首先设置一个3×3维的窗口,考虑该图像Xsrc′的每个像素点Xsrc′(i,j),以该点为中心点的3×3维矩阵所对应的像素值分别为[Xsrc′(i-1,j-1),Xsrc′(i-1,j),Xsrc′(i-1,j+1),Xsrc′(i,j-1),Xsrc′(i,j),Xsrc′(i,j+1),Xsrc′(i+1,j-1),Xsrc′(i+1,j),Xsrc′(j+1,j+1)]进行从大到小排列,取其排在中间的值为去噪后图像Xsrc″在像素(i,j)所对应滤波后值赋值给Xsrc″(i,j);对于Xsrc′的边界点,会出现其3×3维的窗口所对应的某些像素点不存在的情况,那么只需计算落在窗口内存在的像素点的中间值即可,若窗口内为偶数个点,将排在中间两个像素值的平均值作为该像素点去噪后的像素值赋值给Xsrc″(i,j),从而,新的图像矩阵Xsrc″即为Xsrc在当前RGB分量的去噪后的图像矩阵,对于Xsrc-R,Xsrc-G,Xsrc-B在三个分量分别进行去噪操作后,将得到的Xsrc-R″,Xsrc-G″,Xsrc-B″分量,将这三个新的分量整合成一张新的彩色图像XDen即为去噪后所得的图像;
所述的对去噪后的监控图像进行光照补偿,设去噪后的监控图像XDen,因为XDen为彩色RGB图像,因此XDen存在RGB三个分量,对于每一个分量XDen′,分别进行光照补偿,然后将得到的Xcpst′整合得到彩色RBG图像Xcpst,Xcpst即为XDen光照补偿后的图像,对每一个分量XDen′分别进行光照补偿的步骤为:第一步,设XDen′为m行n列,构造XDensum和NumDen为同样m行n列的矩阵,初始值均为0,
Figure FDA0002489087320000021
步长
Figure FDA0002489087320000022
窗口大小为l,其中函数min(m,n)表示取m和n的最小值,
Figure FDA0002489087320000023
表示取整数部分,sqrt(l)表示l的平方根,若l<1则l=1;第二步,设XDen左上角坐标为(1,1),从坐标(1,1)开始,根据窗口大小为l和步长s确定每一个候选框,该候选框为[(a,b),(a+l,b+l)]所围成的区域,对于XDen′在候选框区域内所对应的图像矩阵进行直方图均衡化,得到候选区域[(a,b),(a+l,b+l)]的均衡化后的图像矩阵XDen″,然后XDensum对应的[(a,b),(a+l,b+l)]区域的每一个元素计算XDensum(a+iXsum,b+jXsum)=XDensum(a+iXsum,b+jXsum)+XDen″(iXsum,jXsum),其中(iXsum,jXsum)为整数且1≤iXsum≤l,1≤jXsum≤l,并将NumDen对应的[(a,b),(a+l,b+l)]区域内的每一个元素加1;最后,计算
Figure FDA0002489087320000024
Figure FDA0002489087320000025
其中(iXsumNum,jXsumNum)为XDen对应的每一个点,从而得到Xcpst即为对当前分量XDen′进行光照补偿;
所述的根据窗口大小为l和步长s确定每一个候选框,其步骤为:
设监控图像为m行n列,(a,b)为选定的区域的左上角坐标,(a+l,b+l)为选定区域的右下角坐标,该区域由[(a,b),(a+l,b+l)]表示,(a,b)的初始值为(1,1);
当a+l≤m时:
b=1;
当b+l≤n时:
选定的区域为[(a,b),(a+l,b+l)];
b=b+s;
内层循环结束;
a=a+s;
外层循环结束;
上述过程中,每次选定的区域[(a,b),(a+l,b+l)]均为候选框;
所述的对于XDen′在候选框区域内所对应的图像矩阵进行直方图均衡化,设候选框区域为[(a,b),(a+l,b+l)]所围成的区域,XDen″即为XDen′在[(a,b),(a+l,b+l)]区域内的图像信息,其步骤为:第一步,构造向量I,I(iI)为XDen″中像素值等于iI的个数,0≤iI≤255;第二步,计算向量
Figure FDA0002489087320000026
第三步,对于XDen″上的每一个点(iXDen,jXDen),其像素值为XDen″(iXDen,jXDen),计算X″Den(iXDen,jXDen)=I′(X″Den(iXDen,jXDen));待XDen″图像内的所有像素点值都计算并更改后直方图均衡化过程结束,XDen″内保存的即为直方图均衡化的结果;
所述的将光照补偿后的图像进行图像增强,设光照补偿后的图像为Xcpst,其对应的RGB通道分别为XcpstR,XcpstG,XcpstB,对Xcpst图像增强后得到的图像为Xenh;对其进行图像增强的步骤为:第一步,对于Xcpst的所有分量XcpstR,XcpstG,XcpstB计算其按指定尺度进行模糊后的图像;第二步,构造矩阵LXenhR,LXenhG,LXenhB为与XcpstR相同维度的矩阵,对于图像Xcpst的RGB通道中的R通道,计算LXenhR(i,j)=log(XcpstR(i,j))-LXcpstR(i,j),(i,j)的取值范围为图像矩阵中所有的点,对于图像Xcpst的RGB通道中的G通道和B通道采用与R通道同样的算法得到LXenhG和LXenhB;第三步,对于图像Xcpst的RGB通道中的R通道,计算LXenhR中所有点取值的均值MeanR和均方差VarR(注意是均方差),计算MinR=MeanR-2×VarR和MaxR=MeanR+2×VarR,然后计算XenhR(i,j)=Fix((LXcpstR(i,j)-MinR)/(MaxR-MinR)×255),其中Fix表示取整数部分,若取值<0则赋值为0,取值>255则赋值为255;对于RGB通道中的G通道和B通道采用与R通道同样的算法得到XenhG和XenhB,将分别属于RGB通道的XenhR、XenhG、XenhB整合成一张彩色图像Xenh
所述的对于Xcpst的所有分量XcpstR,XcpstG,XcpstB计算其按指定尺度进行模糊后的图像,对于RGB通道中的R通道XcpstR,其步骤为:第一步,定义高斯函数G(x,y,σ)=k×exp(-(x2+y2)/σ2),σ为尺度参数,k=1/∫∫G(x,y)dxdy,则对于XcpstR的每一个点XcpstR(i,j)计算,
Figure FDA0002489087320000031
Figure FDA0002489087320000032
其中
Figure FDA0002489087320000033
表示卷积运算,对于距离边界低于尺度σ的点,只计算XcpstR与G(x,y,σ)对应部分的卷积,Fix()表示取整数部分,若取值<0则赋值为0,取值>255则赋值为255;对于RGB通道中的G通道和B通道采用与R通道同样的算法更新XcpstG和XcpstG
3.根据权利要求1所述的一种智能网课系统,其特征在于所述的目标检测模块的具体实现方法为:
在初始化过程中,使用带有已标定人脸面部区域、手部区域和上肢区域的图像对目标检测算法进行参数初始化;在检测过程中,接收图像预处理模块所传递来的图像,然后对其进行处理,对每一帧图像使用目标检测算法进行目标检测,得到当前图像的人脸面部区域、手部区域和上肢区域,将提取到的人脸面部区域传递给人脸识别模块和头部方向检测模块、将上肢区域和手部区域图像传递给学生动作识别模块;
所述的使用带有已标定人脸面部区域、手部区域和上肢区域的图像对目标检测算法进行参数初始化,其步骤为:第一步,构造特征抽取深度网络;第二步,构造区域选择网络,第三步,根据所述的构造特征抽取深度网络中所使用的数据库中的每一张图像X和对应的人工标定的每个区域
Figure FDA0002489087320000034
然后通过ROI层,其输入为图像X和区域
Figure FDA0002489087320000035
输出
Figure FDA0002489087320000036
为7×7×512维度的;第三步,构建坐标精炼网络;
所述的构造特征抽取深度网络,该网络为深度学习网络结构,其网络结构为:第一层:卷积层,输入为768×1024×3,输出为768×1024×64,通道数channels=64;第二层:卷积层,输入为768×1024×64,输出为768×1024×64,通道数channels=64;第三层:池化层,输入第一层输出768×1024×64与第三层输出768×1024×64在第三个维度上相连接,输出为384×512×128;第四层:卷积层,输入为384×512×128,输出为384×512×128,通道数channels=128;第五层:卷积层,输入为384×512×128,输出为384×512×128,通道数channels=128;第六层:池化层,输入第四层输出384×512×128与第五层384×512×128在第三个维度上相连接,输出为192×256×256;第七层:卷积层,输入为192×256×256,输出为192×256×256,通道数channels=256;第八层:卷积层,输入为192×256×256,输出为192×256×256,通道数channels=256;第九层:卷积层,输入为192×256×256,输出为192×256×256,通道数channels=256;第十层:池化层,输入为第七层输出192×256×256与第九层192×256×256在第三个维度上相连接,输出为96×128×512;第十一层:卷积层,输入为96×128×512,输出为96×128×512,通道数channels=512;第十二层:卷积层,输入为96×128×512,输出为96×128×512,通道数channels=512;第十三层:卷积层,输入为96×128×512,输出为96×128×512,通道数channels=512;第十四层:池化层,输入为第十一层输出96×128×512与第十三层96×128×512在第三个维度上相连接,输出为48×64×1024;第十五层:卷积层,输入为48×64×1024,输出为48×64×512,通道数channels=512;第十六层:卷积层,输入为48×64×512,输出为48×64×512,通道数channels=512;第十七层:卷积层,输入为48×64×512,输出为48×64×512,通道数channels=512;第十八层:池化层,输入为第十五层输出48×64×512与第十七层48×64×512在第三个维度上相连接,输出为48×64×1024;第十九层:卷积层,输入为48×64×1024,输出为48×64×256,通道数channels=256;第二十层:池化层,输入为48×64×256,输出为24×62×256;第二十一层:卷积层,输入为24×32×1024,输出为24×32×256,通道数channels=256;第二十二层:池化层,输入为24×32×256,输出为12×16×256;第二十三层:卷积层,输入为12×16×256,输出为12×16×128,通道数channels=128;第二十四层:池化层,输入为12×16×128,输出为6×8×128;第二十五层:全连接层,首先将输入的6×8×128维度的数据展开成6144维度的向量,然后输入进全连接层,输出向量长度为768,激活函数为relu激活函数;第二十六层:全连接层,输入向量长度为768,输出向量长度为96,激活函数为relu激活函数;第二十七层:全连接层,输入向量长度为96,输出向量长度为2,激活函数为soft-max激活函数;所有卷积层的参数为卷积核kernel大小=3,步长stride=(1,1),激活函数为relu激活函数;所有池化层均为最大池化层,其参数为池化区间大小kernel_size=2,步长stride=(2,2);设该深度网络为Fconv27,对于一幅彩色图像X,经过该深度网络所得到的特征图集合用Fconv27(X)表示,该网络的评价函数为对(Fconv27(X)-y)计算其交叉熵损失函数,收敛方向为取最小值,y输入对应的分类;数据库为在自然界采集的包含人脸及非人脸的图像,每张图像为768×1024维度的彩色图像,按照图像中是否包含人脸分成两类,迭代次数为2000次;在训练结束后,取第一层到第十七层为特征抽取深度网络Fconv,对于一幅彩色图像X,经过该深度网络所得到的输出用Fconv(X)表示;
所述的构造区域选择网络,接收Fconv深度网络提取出512个48×64特征图集合Fconv(X),然后第一步经过卷积层得到Conv1(Fconv(X)),该卷积层的参数为:卷积核kernel大小=1,步长stride=(1,1),输入为48×64×512,输出为48×64×512,通道数channels=512;然后将Conv1(Fconv(X))分别输入到两个卷积层(Conv2-1和Conv2-2),Conv2-1的结构为:输入为48×64×512,输出为48×64×18,通道数channels=18,该层得到的输出为Conv2-1(Conv1(Fconv(X))),再对该输出使用激活函数softmax得到softmax(Conv2-1(Conv1(Fconv(X))));Conv2-2的结构为:输入为48×64×512,输出为48×64×36,通道数channels=36;该网络的损失函数有两个:第一个误差函数loss1为对Wshad-cls⊙(Conv2-1(Conv1(Fconv(X)))-Wcls(X))计算softmax误差,第二个误差函数loss2为对Wshad-reg(X)⊙(Conv2-1(Conv1(Fconv(X)))-Wreg(X))计算smooth L1误差,区域选择网络的损失函数=loss1/sum(Wcls(X))+loss2/sum(Wcls(X)),sum(·)表示矩阵所有元素之和,收敛方向为取最小值,Wcls(X)和Wreg(X)分别为数据库图像X对应的正负样本信息,⊙表示矩阵按照对应位相乘,Wshad-cls(X)和Wshad-reg(X)为掩码,其作用为选择Wshad(X)中权值为1的部分进行训练,从而避免正负样本数量差距过大,每次迭代时重新生成Wshad-cls(X)和Wshad-reg(X),算法迭代1000次;
所述的构造特征抽取深度网络中所使用的数据库,对于数据库中的每一张图像,第一步:人工标定图像中的人脸面部区域、手部区域和上肢区域,设其在输入图像的中心坐标为(abas_tr,bbas_tr),中心坐标在纵向距离上下边框的距离为lbas_tr,中心坐标在横向距离左右边框的距离为wbas_tr,则其对应于Conv1的位置为中心坐标为
Figure FDA0002489087320000051
半长为
Figure FDA0002489087320000052
半宽为
Figure FDA0002489087320000053
Figure FDA0002489087320000054
表示取整数部分;第二步:随机生成正负样本;
所述的随机生成正负样本,其方法为:第一步,构造9个区域框,第二步,对于数据库的每一张图像Xtr,设Wcls为48×64×18维度,Wreg为48×64×36维度,所有初始值均为0,对Wcls和Wreg进行填充;
所述的构造9个区域框,这9个区域框分别为:Ro1(xRo,yRo)=(xRo,yRo,64,64),Ro2(xRo,yRo)=(xRo,yRo,45,90),Ro3(xRo,yRo)=(xRo,yRo,90,45),Ro4(xRo,yRo)=(xRo,yRo,128,128),Ro5(xRo,yRo)=(xRo,yRo,90,180),Ro6(xRo,yRo)=(xRo,yRo,180,90),Ro7(xRo,yRo)=(xRo,yRo,256,256),Ro8(xRo,yRo)=(xRo,yRo,360,180),Ro9(xRo,yRo)=(xRo,yRo,180,360),对于每一个区域块,Roi(xRo,yRo)表示对于第i个区域框,当前区域框的中心坐标(xRo,yRo),第三位表示中心点距离上下边框的像素距离,第四位表示中心点距离左右边框的像素距离,i的取值从1到9;
所述的对Wcls和Wreg进行填充,其方法为:
对于每一个人工标定的人体区间,设其在输入图像的中心坐标为(abas_tr,bbas_tr),中心坐标在纵向距离上下边框的距离为lbas_tr,中心坐标在横向距离左右边框的距离为wbas_tr,则其对应于Conv1的位置为中心坐标为
Figure FDA0002489087320000055
半长为
Figure FDA0002489087320000056
半宽为
Figure FDA0002489087320000057
对于左上角
Figure FDA0002489087320000058
右下角坐标
Figure FDA0002489087320000059
所围成的区间内的每个点(xCtr,yCtr):
对于i取值从1到9:
对于点(xCtr,yCtr),其在数据库图像的映射区间为左上角点(16(xCtr-1)+1,16(yCtr-1)+1)右下角点(16xCtr,16yCtr)所围成的16×16区间,对于该区间的每一个点(xOtr,yOtr):
计算(xOtr,yOtr)所对应区域Roi(xOtr,yOtr)与当前人工标定的区间的重合率;
选择当前16×16区间内重合率最高的点(xIoUMax,yIoUMax),若重合率>0.7,则Wcls(xCtr,yCtr,2i-1)=1,Wcls(xCtr,yCtr,2i)=0,该样本为正样本,Wreg(xCtr,yCtr,4i-3)=(xOtr-16xCtr+8)/8,Wreg(xCtr,yCtr,4i-2)=(yOtr-16yCtr+8)/8,Wreg(xCtr,yCtr,4i-2)=Down1(lbas_tr/Roi的第三位),Wreg(xCtr,yCtr,4i)=Down1(wbas_tr/Roi的第四位),Down1(·)表示若值大于1则取值为1;若重合率<0.3,则Wcls(xCtr,yCtr,2i-1)=0,Wcls(xCtr,yCtr,2i)=1;否则Wcls(xCtr,yCtr,2i-1)=-1,Wcls(xCtr,yCtr,2i)=-1;
若当前人工标定的区域没有重合率>0.6的Roi(xOtr,yOtr),则选择重合率最高的Roi(xOtr,yOtr)对Wcls和Wreg赋值,赋值方法与重合率>0.7的赋值方法相同;
所述的计算(xOtr,yOtr)所对应区域Roi(xOtr,yOtr)与当前人工标定的区间的重合率,其方法为:设人工标定的人体区间在输入图像的中心坐标为(abas_tr,bbas_tr),中心坐标在纵向距离上下边框的距离为lbas_tr,中心坐标在横向距离左右边框的距离为wbas_tr,设Roi(xOtr,yOtr)的第三位为lOtr,第四位为wOtr,若满足|xOtr-abas_tr|≤lOtr+lbas_tr-1并且|yOtr-bbas_tr|≤wOtr+wbas_tr-1,说明存在重合区域,重合区域=(lOtr+lbas_tr-1-|xOtr-abas_tr|)×(wOtr+wbas_tr-1-|yOtr-bbas_tr|),否则重合区域=0;计算全部区域=(2lOtr-1)×(2wOtr-1)+(2abas_tr-1)×(2wbas_tr-1)-重合区域;从而得到重合率=重合区域/全部区域,|·|表示取绝对值;
所述的Wshad-cls(X)和Wshad-reg(X),其构造方法为:对于该图像X,其对应的正负样本信息为Wcls(X)和Wreg(X),第一步,构造Wshad-cls(X)与和Wshad-reg(X),Wshad-cls(X)与Wcls(X)维度相同,Wshad-reg(X)与Wreg(X)维度相同;第二步,记录所有正样本的信息,对于i=1到9,若Wcls(X)(a,b,2i-1)=1,则Wshad-cls(X)(a,b,2i-1)=1,Wshad-cls(X)(a,b,2i)=1,Wshad-reg(X)(a,b,4i-3)=1,Wshad-reg(X)(a,b,4i-2)=1,Wshad-reg(X)(a,b,4i-1)=1,Wshad-reg(X)(a,b,4i)=1,正样本一共选择了sum(Wshad-cls(X))个,sum(·)表示对矩阵的所有元素求和,若sum(Wshad-cls(X))>256,随机保留256个正样本;第三步,随机选择负样本,随机选择(a,b,i),若Wcls(X)(a,b,2i-1)=1,则Wshad-cls(X)(a,b,2i-1)=1,Wshad-cls(X)(a,b,2i)=1,Wshad-reg(X)(a,b,4i-3)=1,Wshad-reg(X)(a,b,4i-2)=1,Wshad-reg(X)(a,b,4i-1)=1,Wshad-reg(X)(a,b,4i)=1,若已选中的负样本数量为256-sum(Wshad-cls(X))个,或者虽然负样本数量不足256-sum(Wshad-cls(X))个但是在20次生成随机数(a,b,i)内都无法得到负样本,则算法结束;
所述的ROI层,其输入为图像X和区域
Figure FDA0002489087320000061
其方法为:对于图像X通过特征抽取深度网络Fconv所得到的输出Fconv(X)的维度为48×64×512,对于每一个48×64矩阵VROI_I的信息(一共512个矩阵),提取VROI_I矩阵中左上角
Figure FDA0002489087320000062
Figure FDA0002489087320000063
右下角
Figure FDA0002489087320000064
所围成的区域,
Figure FDA0002489087320000065
表示取整数部分;输出为roiI(X)维度为7×7,则步长
Figure FDA0002489087320000066
Figure FDA0002489087320000067
对于iROI=1:到7:
对于jROI=1到7:
构造区间
Figure FDA0002489087320000068
Figure FDA0002489087320000069
Figure FDA00024890873200000610
roiI(C)(iROI,jROI)=区间内最大点的值;
当512个48×64矩阵全部处理结束后,将输出拼接得到7×7×512维度的输出
Figure FDA0002489087320000071
参数表示对于图像X,在区域框
Figure FDA0002489087320000072
范围内的ROI;
所述的构建坐标精炼网络,其方法为:第一步,扩展数据库:扩展方法为对于数据库中的每一张图像X和对应的人工标定的每个区域
Figure FDA0002489087320000073
其对应的ROI为
Figure FDA0002489087320000074
若当前区间为人体图像区域则BClass=[1,0,0,0,0],BBOx=[0,0,0,0],若当前区间为人脸面部区域则BClass=[0,1,0,0,0],BBox=[0,0,0,0],若当前区间为手部区域则BClass=[0,0,1,0,0],BBox=[0,0,0,0],若当前区间为产品区域则BClass=[0,0,0,1,0],BBox=[0,0,0,0];随机生成取值在-1到1之间随机数arand,brand,lrand,wrand,从而得到新的区间
Figure FDA0002489087320000075
Figure FDA0002489087320000076
Figure FDA0002489087320000077
表示取整数部分,该区间的BBox=[arand,brand,lrand,wrand],若新的区间与
Figure FDA0002489087320000078
的重合率>0.7则BClass=当前区域的BClass,若新的区间与
Figure FDA0002489087320000079
的重合率<0.3,则BClass=[0,0,0,0,1],二者均不满足,则不赋值;每个区间最多生成10个正样本区域,设生成Num1个正样本区域,则生成Num1+1个负样本区域,若负样本区域不够Num1+1个,则扩大arand,brand,lrand,wrand的范围,直到找到足够多的负样本数为止;第二步,构建坐标精炼网路:对于数据库中的每一张图像X和对应的人工标定的每个区域
Figure FDA00024890873200000710
其对应的ROI为
Figure FDA00024890873200000711
将将7×7×512维度的ROI展开成25088维向量,然后经过两个全连接层Fc2,得到输出Fc2(ROI),然后将Fc2(ROI)分别通过分类层FClass和区间微调层FBBox,得到输出FClass(Fc2(ROI))和FBBox(Fc2(ROI)),分类层FClass为全连接层,其输入向量长度为512,输出向量长度为4,区间微调层FBBox为全连接层,其输入向量长度为512,输出向量长度为4;该网络的损失函数有两个:第一个误差函数loss1为对FClass(Fc2(ROI))-FClass计算softmax误差,第二个误差函数loss2为对(FBBox(Fc2(ROI))-BBox)计算欧氏距离误差,则该精炼网络的整体损失函数=loss1+loss2,算法迭代过程为:首先迭代1000次收敛误差函数loss2,然后迭代1000次收敛整体损失函数;
所述的两个全连接层Fc2,其结构为:第一层:全连接层,输入向量长度为25088,输出向量长度为4096,激活函数为relu激活函数;第二层:全连接层,输入向量长度为4096,输出向量长度为512,激活函数为relu激活函数;
所述的对每一帧图像使用目标检测算法进行目标检测,得到当前图像的人脸面部区域、手部区域和上肢区域,其步骤为:
第一步,将输入图像Xcpst分割成768×1024维度的子图;
第二步,对于每一个子图Xs
第2.1步,使用在初始化时构造的特征抽取深度网络Fconv进行变换,得到512个特征子图集合Fconv(Xs);
第2.2步,对Fconv(Xs)使用区域选择网络中第一层Conv1、第二层Conv2-1+softmax激活函数和Conv2-2进变换,分别得到输出softmax(Conv2-1(Conv1(Fconv(Xs))))和Conv2-2(Conv1(Fconv(Xs))),然后根据输出值得到该区间内的所有的初步候选区间;
第2.3步,对于当前帧图像的所有子图的所有的初步候选区间:
第2.3.1步,根据其当前候选区域的得分大小进行选取,选取最大的50个初步候选区间作为候选区域;
第2.3.2步,调整候选区间集合中所有的越界候选区间,然后剔除掉候选区间中重叠的框,从而得到最终候选区间;
第2.3.3步,将子图Xs和每一个最终候选区间输入到ROI层,得到对应的ROI输出,设当前的最终候选区间为(aBB(1),bBB(2),lBB(3),wBB(4)),然后计算FBBox(Fc2(ROI))得到四位输出(OutBB(1),OutBB(2),OutBB(3),OutBB(4))从而得到更新后的坐标(aBB(1)+8×OutBB(1),bBB(2)+8×OutBB(2),lBB(3)+8×OutBB(3),wBB(4)+8×OutBB(4));然后计算FClass(Fc2(ROI))得到输出,若输出第一位最大则当前区间为人脸面部区域,若输出第二位最大则当前区间为手部区域,若输出第三位最大则当前区间为上肢区域,若输出第四位最大则当前区间为负样本区域并删除该最终候选区间;
第三步,更新所有子图的精炼后的最终候选区间的坐标,更新的方法为设当前候选区域的坐标为(TLx,TLy,RBx,RBy),其对应的子图的左上角坐标为(Seasub,Sebsub),更新后的坐标为(TLx+Seasub-1,TLy+Sebsub-1,RBx,RBy);
所述的将输入图像Xcpst分割成768×1024维度的子图,其步骤为:设分割的步长为384和512,设窗口大小为m行n列,(asub,bsub)为选定的区域的左上角坐标,(a,b)的初始值为(1,1);当asub<m时:
bsub=1;
当bsub<n时:
选定的区域为[(asub,asub),(asub+384,bsub+512)],将输入图像Xcpst上该区间所对应的图像区域的信息复制到新的子图中,并附带左上角坐标(asub,bsub)作为位置信息;
若选定区域超出输入图像Xcpst区间,则将超出范围内的像素点对应的RGB像素值均赋值为0;
bsub=bsub+512;
内层循环结束;
asub=asub+384;
外层循环结束;
所述的根据输出值得到该区间内的所有的初步候选区间,其方法为:第一步:对于softmax(Conv2-1(Conv1(Fconv(Xs))))其输出为48×64×18,对于Conv2-2(Conv1(Fconv(Xs))),其输出为48×64×36,对于48×64维空间上的任何一点(x,y),softmax(Conv2-1(Conv1(Fconv(Xs))))(x,y)为18维向量II,Conv2-2(Conv1(Fconv(Xs)))(x,y)为36维向量IIII,若II(2i-1)>II(2i),对于i取值从1到9,lOtr为Roi(xOtr,yOtr)的第三位,wOtr为Roi(xOtr,yOtr)的第四位,则初步候选区间为[II(2i-1),(8×IIII(4i-3)+x,8×IIII(4i-2)+y,lOtr×IIII(4i-1),wOtr×IIII(4i))],其中第一位II(2i-1)表示当前候选区域的得分,第二位(8×IIII(4i-3)+x,8×IIII(4i-2)+y,IIII(4i-1),IIII(4i))表示当前候选区间的中心点为(8×IIII(4i-3)+x,8×IIII(4i-2)+y),候选框的半长半宽分别为lOtr×IIII(4i-1)和wOtr×IIII(4i));
所述的调整候选区间集合中所有的越界候选区间,其方法为:设监控图像为m行n列,对于每一个候选区间,设其[(ach,bch)],候选框的半长半宽分别为lch和wch,若ach+lch>m,则
Figure FDA0002489087320000091
然后更新其ach=a′ch,lch=l′ch;若bch+wch>n,则
Figure FDA0002489087320000092
然后更新其bch=b′ch,wch=w′ch
所述的剔除掉候选区间中重叠的框,其步骤为:
若候选区间集合不为空:
从候选区间集合中取出得分最大的候选区间iout
计算候选区间iout与候选区间集合中的每一个候选区间ic的重合率,若重合率>0.7,
则从候选区间集合删除候选区间ic;将候选区间iout放入输出候选区间集合;
当候选区间集合为空时,输出候选区间集合内所含的候选区间即为剔除掉候选区间中重叠的框后所得到的候选区间集合;
所述的计算候选区间iout与候选区间集合中的每一个候选区间ic的重合率,其方法为:设候选区间ic的坐标区间为中心点[(aic,bic)],候选框的半长半宽分别为lic和wic,候选区间ic的坐标区间为中心点[(aiout,biout)],候选框的半长半宽分别为liout和wiout;计算xA=max(aic,aiout);yA=max(bic,biout);xB=min(lic,liout),yB=min(wic,wiout);若满足|aic-aiout|≤lic+liout-1并且|bic-biout|≤wic+wiout-1,说明存在重合区域,重合区域=(lic+liout-1-|aic-aiout|)×(wic+wiout-1-|bic-biout|),否则重合区域=0;计算全部区域=(2lic-1)×(2wic-1)+(2liout-1)×(2wiout-1)-重合区域;从而得到重合率=重合区域/全部区域。
4.根据权利要求1所述的一种智能网课系统,其特征在于所述的人脸识别模块的具体实现方法为:
在初始化阶段,首先构造通用图像特征提取网络N1,然后保留深度网络N1的第一层到第二十三层,删掉第二十三层的激活函数,该深度网络FaceNet作为人脸图像特征提取网络,然后,读取学生在系统上登记的照片,使用初始化阶段构造人脸图像特征提取网络FaceNet对人脸图像进行特征提取,对于登记照片P,将P作为特征提取网络FaceNet的输入,得到对应的1000维度输出FaceNet(P);在检测过程中,接受目标检测模块传递过来的人脸图像,然后判断人脸识别标签,若人脸识别标签为不识别,则跳过当前人脸图像;若人脸识别标签为识别,则对当前人脸图像进行识别,将识别结果发送给识别结果处理模块;若人脸识别标签为识别,但目标检测模块未传递过来人脸图像,将识别结果设为不通过,并发送给识别结果处理模块;
所述的构造通用图像特征提取网络N1,方法是:第一步,构建深度网络N1;第二步使用ILSVRC-2012国际标准数据库对深度网络N1进行训练;
所述的构建深度网络N1,其网络结构为:第一层:卷积层,输入为224×224×3,输出为224×224×64,通道数channels=64;第二层:卷积层,输入为224×224×64,输出为224×224×64,通道数channels=64;第三层:池化层,输入224×224×64,输出112×112×64;第四层:卷积层,输入为112×112×64,输出为112×112×128,通道数channels=128;第五层:卷积层,输入为112×112×128,输出为112×112×128,通道数channels=128;第六层:池化层,输入112×112×128,输出为56×56×128;第七层:卷积层,输入为56×56×128,输出为56×56×256,通道数channels=256;第八层:卷积层,输入为56×56×256,输出为56×56×256,通道数channels=256;第九层:卷积层,输入为56×56×256,输出为56×56×256,通道数channels=256;第十层:池化层,输入为56×56×256,输出为28×28×256;第十一层:卷积层,输入为28×28×256,输出为28×28×512,通道数channels=512;第十二层:卷积层,输入为28×28×512,输出为28×28×512,通道数channels=512;第十三层:卷积层,输入为28×28×512,输出为28×28×512,通道数channels=512;第十四层:池化层,输入为28×28×512,输出为14×14×512;第十五层:卷积层,输入为14×14×512,输出为14×14×512,通道数channels=512;第十六层:卷积层,输入为14×14×512,输出为14×14×512,通道数channels=512;第十七层:卷积层,输入为14×14×512,输出为14×14×512,通道数channels=512;第十八层:池化层,输入为14×14×512,输出为7×7×512;第十九层:首先将输入的7×7×512的数据展开成25,088维度的向量,然后输入进全连接层,输出向量长度为4096,激活函数为relu激活函数;第二十层:Dropout层,概率为0.5;第二十一层:全连接层,输入向量长度为4096,输出向量长度为4096,激活函数为relu激活函数;第二十二层:Dropout层,概率为0.5;第二十三层:全连接层,输入向量长度为4096,输出向量长度为1000,激活函数为soft-max激活函数;所有卷积层的参数为:卷积核kernel大小=3,步长stride=(1,1),激活函数为relu激活函数;所有池化层均为最大池化层,其参数为池化区间大小kernel_size=2,步长stride=(2,2);
所述的使用ILSVRC-2012国际标准图像分类数据库对深度网络N1进行训练,其步骤为:首先对输入图像进行处理,因为ILSVRC-2012国际标准数据库的输入为高清图像,对于每一张图像按照最短边不变,最长以中心为基准截取一个正方形区域,然后将图像大小调整为224×224,图像大小调整采用双线性插值法,得到的224×224×3的彩色图像X作为输入,对于数据集中1000个类,构造一个1000维度的向量Y,若当前图像属于1000类中的第K类,则向量的第K位等于1,其他位等于0,处理好的数据对<X,Y>作为下一步的输入;第二步用处理好的每一个数据对<X,Y>训练深度网络N1,其中,优化方法为动量梯度下降法(SGD),动量为0.9,权重初始值为0.01,第100次迭代后变为0.001,第500次迭代后变为0.0001,设对于输入X,网络N1的输出为N1(X),算法的误差函数为
Figure FDA0002489087320000101
算法迭代1000次;
所述的对当前人脸图像进行识别,其步骤为:首先读取当前用户的人脸图像特征标准向量,若特征提取向量不存在,则以初始化阶段计算得到的FaceNet(P)作为该用户的人脸图像特征标准向量;然后待识别的目标检测模块传递来的图像Xc,将Xc作为特征提取网络FaceNet的输入,得到对应的1000维度输出FaceNet(Xc),然后计算
Figure FDA0002489087320000111
Figure FDA0002489087320000112
若loss(Xc)<θ,则识别通过并将该用户的人脸图像特征标准向量更新为FaceNet(Xc),否则识别不通过,其中θ为阈值;
所述的θ为阈值,该阈值的计算方法如下:从系统中抽取随机抽取9位用户,构建用户集合G9,设系统中共有Nsys个用户;
对于G9中的每一个用户i,其登记照片为X(i),lossSum=0:
对于系统中剩余Nsys-1个用户的每一个用户j,其登记照片为X(j):
Figure FDA0002489087320000113
用户i的loss(i)=lossSum/(Nsys-1);
将9位用户的计算结果从大到小排序,取第二位的值作为阈值θ。
5.根据权利要求1所述的一种智能网课系统,其特征在于所述的头部方向检测模块的具体实现方法为:
在初始化过程中,根据通用图像特征提取网络N1构造人脸朝向神经网路分类器ForientNet,并使用搜集到的人脸不同角度朝向图像对人脸朝向神经网路分类器ForientNet进行训练;在检测过程中,接受目标检测模块传递过来的人脸区域图像,若方向识别标签为不识别,则跳过当前图像;若方向识别标签为识别,则使用人脸朝向神经网路分类器ForientNet判断人脸区域图像的人脸朝向的角度,将识别结果发送给识别结果处理模块;
所述的根据通用图像特征提取网络N1构造人脸朝向神经网路分类器ForientNet,其步骤为:首先,将通用图像特征提取网络N1的第二十三层的激活函数改为relu激活函数,然后添加:第二十四层:全连接层,输入向量长度为1000,输出向量长度为200,激活函数为relu激活函数;第二十五层:Dropout层,概率为0.5;第二十六层:由两个全连接层组成,分别为水平角度全连接层和垂直角度全连接层,两个全连接层的输入向量长度均为200,输出向量长度均为13,每一个全连接层激活函数均为soft-max激活函数,因此第二十六层整体的输出向量长度为26,添加层其他设置与通用图像特征提取网络N1相同;
所述的使用搜集到的人脸不同角度朝向图像对人脸朝向神经网路分类器ForientNet进行训练,其步骤为:第一步:构造人脸不同角度朝向图像数据集;第二步:对数据集图像进行处理,对于每一张照片,首先对于每一张图像按照最短边不变,最长以中心为基准截取一个正方形区域,然后将图像大小调整为224×224,图像大小调整采用双线性插值法,得到的224×224×3的彩色图像X作为输入,对于数据集合中的13类,构造一个13维度的向量Y,若当前图像属于13类中的第K类,则向量的第K位等于1,其他位等于0,处理好的数据对<X,Y>作为下一步的输入;第三步,用处理好的每一个数据对<X,Y>训练人脸朝向神经网路分类器ForientNet;
所述的构造人脸不同角度朝向图像数据集,其构造方法为:每一张图像由横向朝向角度和纵向朝向角度组成,首先采集人脸横向朝向图像,横向朝向以正面对摄像头为中心点0度,最左侧为-90度,最右侧为90度,每15度架设一个摄像头,从而横向坐标一共13个摄像头,被采集人脸面对0度摄像头,然后13个摄像头同时拍摄,待所有被摄人脸拍摄完毕后,水平方向的每一个摄像头内的照片为一组,以其照片摄像头水平架设角度命名,例如-90度摄像头命名为-90度,45度摄像头命名为45度;然后采集纵向朝向人脸图像,纵向朝向以正面对摄像头为中心点0度,最下侧为-75度,最上侧为90度,每15度架设一个摄像头,从而纵向坐标一共12个摄像头,被采集人脸面对0度摄像头,然后12个摄像头同时拍摄,待当前人脸拍摄结束后,人脸面对45度摄像头,-45度摄像头拍摄的图像作为最下侧-90度图像,待所有被摄人脸拍摄完毕后,水平方向的每一个摄像头内的照片为一组,以其照片摄像头水平架设角度命名;从而得到人脸不同角度朝向图像数据集,其中水平方向从-90度到90度,每15度为1类,共13类;垂直方向从-90度到90度,每15度为1类,共13类;
所述的用处理好的每一个数据对<X,Y>训练人脸朝向神经网路分类器ForientNet,其步骤为:将水平朝向数据集的输入数据对和垂直朝向数据集的输入数据对<Xv,Yv>依次作为网络的输入;网络的,优化方法为动量梯度下降法(SGD),动量为0.9,权重初始值为0.01,第100次迭代后变为0.001,第500次迭代后变为0.0001,设对于输入X,网络N1的输出为N1(X),算法的误差函数为
Figure FDA0002489087320000121
算法迭代1000次,取ForientNet中从第一层到第二十六层的水平角度全连接层作为水平朝向分类器ForientNet_Hor,取ForientNet中从第一层到第二十六层的垂直角度全连接层作为垂直朝向分类器ForientNet_Ver;每一轮迭代过程如下:对于每一轮迭代:
从水平朝向数据集取一个batch的输入数据对<Xh,Yh>:
以<Xh,Yh>作为输入,优化水平朝向分类器ForientNet_Hor,其中ForientNet_Hor网络的第一层到第二十三层参数不变,第二十六层的垂直角度全连接层参数不做优化;从垂直朝向数据集取一个batch的输入数据对<Xv,Yv>:
以<Xv,Yv>作为输入,优化垂直朝向分类器ForientNet_Ver,其中ForientNet_Ver网络的第一层到第二十三层参数不变,第二十六层的水平角度全连接层参数不做优化;
直到水平朝向数据集和垂直朝向数据集均为空时,当前轮迭代结束;所述的使用人脸朝向神经网路分类器ForientNet判断人脸区域图像的人脸朝向的角度,其步骤为:对于当前输入的图像Xf,将Xf作为人脸朝向神经网路分类器ForientNet的输入,得到对应的26维度输出MotionNet(Xc),其中水平角度全连接层输出为13维,垂直角度全连接层输出为13维,若水平角度全连接层输出向量的第Kh位最大,则当前图像水平角度即为对应于13个角度的第Kh个角度Oh(Kh),若垂直角度全连接层输出向量的第Kv位最大,则当前图像垂直角度即为对应于13个角度的第Kv个角度Ov(Kv)。
6.根据权利要求1所述的一种智能网课系统,其特征在于所述的学生动作识别模块的具体实现方法为:
在初始化阶段,根据通用图像特征提取网络N1构造动作识别神经网路分类器MotionNet,然后使用搜集到的手部和上肢部的动作对MotionNet进行训练;在检测过程中,接受目标检测模块传递过来的手部区域图像或上肢区域图像,然后判断动作识别标签,若动作识别标签为不识别,则跳过当前图像,若动作识别标签为识别,则对当前图像使用动作识别神经网路分类器MotionNet进行识别,将识别结果发送给识别结果处理模块;
所述的根据通用图像特征提取网络N1构造动作识别神经网路分类器MotionNet,其步骤为:首先,将通用图像特征提取网络N1的第二十三层的激活函数改为relu激活函数,然后添加:第二十四层:全连接层,输入向量长度为1000,输出向量长度为200,激活函数为relu激活函数;第二十五层:Dropout层,概率为0.5;第二十六层:全连接层,输入向量长度为200,输出向量长度为23,激活函数为soft-max激活函数,添加层其他设置与通用图像特征提取网络N1相同;
所述的使用搜集到的手部和上肢部的动作对MotionNet进行训练,其步骤为:首先对输入图像进行处理,搜集到的手部动作包括:左手手势数字0到9,右手手势数字0到9,左手举手,右手举手动作,共22种动作,以及无效动作类,一共23种动作,将23种动作调整为224×224维度大小的图像X作为MotionNet的输入,对于23种动作,构造一个23维度的向量Y,每一个动作对应23维度种的一个维度,若当前图像属于23类中的第K类动作,则向量的第K位等于1,其他位等于0,处理好的数据对<X,Y>作为下一步的输入;然后用处理好的每一个数据对<X,Y>训练深度网络MotionNet,其中,MotionNet网络的第一层到第二十三层参数在整个训练过程中不变,网络的优化方法为动量梯度下降法(SGD),动量为0.9,权重初始值为0.01,第10次迭代后变为0.001,设对于输入X,网络N1的输出为N1(X),算法的误差函数为
Figure FDA0002489087320000131
算法迭代100次;
所述的对当前图像使用动作识别神经网路分类器MotionNet进行识别,其步骤为:对于当前输入的图像Xm,将Xm作为动作识别神经网路分类器MotionNet的输入,得到对应的23维度输出MotionNet(Xc),若输出向量的第K位最大,则当前图像即为第K类,对应于23种手部动作的第K个动作。
7.根据权利要求1所述的一种智能网课系统,其特征在于所述的识别结果处理模块的具体实现方法为:
其方法为,在初始化阶段,该模块不工作;在检测过程中,在识别过程中,对接收到的结果进行处理;对于每一个用户,构造人脸识别间隔变量Tface,每堂课开始时,Tface=100,构造注意力方向识别间隔变量Tattention,每堂课开始时,Tattention=100;构造动作识别间隔变量Tmotion,每堂课开始时,Tmotion=-1,构造人脸识别标签、方向识别标签、动作识别标签,初始时均为不识别;
对于人脸识别标签,在每堂课开始时,将人脸识别标签变为识别,然后每间隔Tface帧将人脸识别标签变为识别,在间隔Tface帧内将人脸识别标签变为不识别;
对人脸识别模块传递来的识别结果:对于当前用户,若人脸识别模块传递来的识别结果为通过,则更新Tface=5×Tface,若Tface>7200,则置Tface=7200;若人脸识别模块传递来的识别结果为不通过,则更新Tface=Tface/5,若Tface<1则置Tface=100,并统计识别不通过次数,若识别不通过次数超过1000,则将当前学生识别不通过信息通知教师,由教师进行识别,若教师识别为通过,则计算当前目标检测框人脸图像Xc对应于人脸图像特征提取网络FaceNet输出FaceNet(Xc),并更改该用户的人脸图像特征标准向量为FaceNet(Xc);
对于方向识别标签,在每堂课开始时,将方向识别标签变为识别,然后每间隔Tattention帧将方向识别标签变为识别,在间隔Tattention帧内将方向识别标签变为不识别;
对头部方向检测模块传递来的识别结果:首先,设置人脸朝向的基准偏移角度,水平偏移θh=0度,垂直偏移θh=0度,然后接收到传递来的头部方向检测模块传递来的人脸图像横向朝向角度Angh和纵向朝向角度Angv,此时人脸图像实际朝向为水平朝向为Angh-θh,实际纵向朝向角度Angv-θv,若Angh-θh>0度或者|Angv-θv|>45度,认为当前学生视线方向不正确,否则认为当前学生视线方向正确;若识别为视线方向正确,则Tattention=5×Tattention,若Tattention>7200,则置Tattention=7200,若识别为视线方向不正确,则更新Tattention=Tattention/5,若Tattention<1则置Tattention=100,并统计识别视线方向不正确次数,若识别视线方向不正确次数超过1000,则将当前学生识别不通过信息通知教师,由教师进行识别,若教师识别为视线方向正确,则更改当前人脸朝向的基准偏移角度,将水平偏移θh=Angh,垂直偏移θh=Angv;
对于动作识别标签,若Tmotion=-1,则动作识别标签为不识别;然后等待Tmotion变化,若Tmotion>-1,则每间隔Tmotion帧将动作识别标签,在间隔Tattention帧内将方向识别标签变为不识别;在课堂进行中,动作识别标签根据教师的操作进行改变,若教师要求识别学生动作,则动作识别标签变为识别,并设置Tmotion=100,若学生动作识别模块传递来的识别结果为无效动作则Tmotion=2×Tmotion,否则将学生动作识别模块传递来的识别结果传递给教师并设置Tmotion=-1。
CN202010400166.8A 2020-05-13 2020-05-13 一种智能网课系统 Active CN111582202B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010400166.8A CN111582202B (zh) 2020-05-13 2020-05-13 一种智能网课系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010400166.8A CN111582202B (zh) 2020-05-13 2020-05-13 一种智能网课系统

Publications (2)

Publication Number Publication Date
CN111582202A true CN111582202A (zh) 2020-08-25
CN111582202B CN111582202B (zh) 2023-10-17

Family

ID=72112219

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010400166.8A Active CN111582202B (zh) 2020-05-13 2020-05-13 一种智能网课系统

Country Status (1)

Country Link
CN (1) CN111582202B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116563797A (zh) * 2023-07-10 2023-08-08 安徽网谷智能技术有限公司 一种用于智慧校园的监控管理系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102013176A (zh) * 2010-12-01 2011-04-13 曹乃承 在线学习系统
US20170069112A1 (en) * 2014-05-22 2017-03-09 Huawei Technologies Co., Ltd. Image Characteristic Estimation Method and Device
CN109977896A (zh) * 2019-04-03 2019-07-05 上海海事大学 一种超市智能售货系统
CN109977863A (zh) * 2019-03-26 2019-07-05 上海海事大学 一种基于监控的校园周边危险个体检测系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102013176A (zh) * 2010-12-01 2011-04-13 曹乃承 在线学习系统
US20170069112A1 (en) * 2014-05-22 2017-03-09 Huawei Technologies Co., Ltd. Image Characteristic Estimation Method and Device
CN109977863A (zh) * 2019-03-26 2019-07-05 上海海事大学 一种基于监控的校园周边危险个体检测系统
CN109977896A (zh) * 2019-04-03 2019-07-05 上海海事大学 一种超市智能售货系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘文定;李安琪;张军国;谢将剑;鲍伟东;: "基于ROI-CNN的赛罕乌拉国家级自然保护区陆生野生动物自动识别" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116563797A (zh) * 2023-07-10 2023-08-08 安徽网谷智能技术有限公司 一种用于智慧校园的监控管理系统
CN116563797B (zh) * 2023-07-10 2023-10-27 安徽网谷智能技术有限公司 一种用于智慧校园的监控管理系统

Also Published As

Publication number Publication date
CN111582202B (zh) 2023-10-17

Similar Documents

Publication Publication Date Title
CN107704857B (zh) 一种端到端的轻量级车牌识别方法及装置
CN108510485B (zh) 一种基于卷积神经网络的无参照图像质量评估方法
CN108416266B (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN113196289B (zh) 人体动作识别方法、人体动作识别系统及设备
CN110728209A (zh) 一种姿态识别方法、装置、电子设备及存储介质
KR102224253B1 (ko) 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법
CN110378208B (zh) 一种基于深度残差网络的行为识别方法
CN109740679B (zh) 一种基于卷积神经网络和朴素贝叶斯的目标识别方法
CN109711268B (zh) 一种人脸图像筛选方法及设备
CN111931686B (zh) 一种基于背景知识增强的视频卫星目标跟踪方法
CN104866868A (zh) 基于深度神经网络的金属币识别方法和装置
CN112288011A (zh) 一种基于自注意力深度神经网络的图像匹配方法
CN110097029B (zh) 基于Highway网络多视角步态识别的身份认证方法
CN111598182A (zh) 训练神经网络及图像识别的方法、装置、设备及介质
CN110619316A (zh) 人体关键点检测方法、装置和电子设备
CN109949200B (zh) 基于滤波器子集选择和cnn的隐写分析框架构建方法
CN111935479A (zh) 一种目标图像确定方法、装置、计算机设备及存储介质
CN109685772B (zh) 一种基于配准失真表示的无参照立体图像质量评估方法
CN114360067A (zh) 一种基于深度学习的动态手势识别方法
CN114663769B (zh) 一种基于YOLO v5的水果识别方法
CN115240259A (zh) 一种基于yolo深度网络的课堂环境下人脸检测方法及其检测系统
CN111027472A (zh) 一种基于视频光流和图像空间特征权重融合的视频识别方法
CN111582202A (zh) 一种智能网课系统
CN115346091B (zh) 一种Mura缺陷图像数据集的生成方法和生成装置
CN109583584B (zh) 可使具有全连接层的cnn接受不定形状输入的方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant