CN112861809A - 基于多目标视频分析的课堂抬头检测系统及其工作方法 - Google Patents
基于多目标视频分析的课堂抬头检测系统及其工作方法 Download PDFInfo
- Publication number
- CN112861809A CN112861809A CN202110301132.8A CN202110301132A CN112861809A CN 112861809 A CN112861809 A CN 112861809A CN 202110301132 A CN202110301132 A CN 202110301132A CN 112861809 A CN112861809 A CN 112861809A
- Authority
- CN
- China
- Prior art keywords
- face
- classroom
- model
- convolutional neural
- cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 73
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 34
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000005457 optimization Methods 0.000 claims description 13
- 238000013519 translation Methods 0.000 claims description 6
- 230000001629 suppression Effects 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims 1
- 238000011156 evaluation Methods 0.000 description 12
- 210000000887 face Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Abstract
本发明公开了一种基于多目标视频分析的课堂抬头检测系统及其工作方法,包括:人脸检测模块,根据获取的课堂视频数据,使用卷积神经网络模型得到每个视频帧中的人脸集合;人脸姿态估计模块,对上述人脸集合中的每一个人脸进行特征点检测,基于特征点进行姿态估计,得到其在空间中的姿态角,并根据俯仰角的大小作为学生是否听课的判断依据,统计课堂听课率;云边协同调度模块,根据系统当前的资源状态以及用户需求,对上述卷积神经网络模型及集成回归树模型的最优配置进行求解,以提高人脸检测和人脸姿态估计的精度。本发明解决了现有技术不能高精度、低时延地同时对多目标进行分析、以及无法充分利用边缘设备和云服务器计算资源的问题。
Description
技术领域
本发明属于多目标视频分析和边缘计算领域,具体指代一种基于多目标视频分析的课堂抬头检测系统及其工作方法。
背景技术
课堂教学评估是一种有效激励教师有目的性、针对性地不断改进并提高自己教学方式的手段,简要来说,开展课堂教学评价具有以下几点重要作用:
1)课堂教学评价具有导向功能,能够促进课堂教学改革;
2)课堂教学评价具有激励功能,可以加强教师之间的互相交流;
3)课堂教学评价是促进教师专业发展的重要途径;
4)课堂教学评价具有决策和鉴定功能,是学校管理工作的重要组成部分。
传统的课堂教学评价方式可以分为:1)现场观察评价:评价者进入课堂,实时实地听教师讲课并及时进行评价;2)监视监听评价:评价者不直接进入课堂,可以很大程度上避免给师生带来压力,使得获取的信息更加真实;3)量表评价:采用事先编制好的评价量表,由教师和学生根据他们对教学过程和效果的感受进行回答。以上几种评价方式都存在一定的缺点,首先它们都需要大量的人力与时间成本,其次都存在很大程度上的主观性。
如今,一些基于深度学习的方法开始被用于进行课堂教学评估,这类方法通常通过部署在教室中的监控摄像头获取视频数据,之后通过表情识别、动作识别等方式对学生的听课状态进行分析,判断学生的听课状态。这类方法可以比较准确地对单个学生的行为进行分析,然而,其缺点在于需要通过部署多个摄像头,才能够实现同时对多个目标的分析。另外,此类方法在实际部署时通常采用静态配置方法,无法根据当前资源状态以及用户需求进行自适应调整,导致边缘设备和云服务器的计算资源无法得到充分利用,从而无法实现精度和时延等关键指标的最优化。
因此,基于上述考虑,有必要提出一种基于多目标视频分析的课堂抬头检测系统,不仅可以节省大量的人力与时间成本,同时能够通过自适应的云边协同调度,充分利用边缘设备和云端的计算资源,满足高精度低时延的实时抬头检测需求。
发明内容
针对于上述现有技术的不足,本发明的目的在于提供一种基于多目标视频分析的课堂抬头检测系统及其工作方法,以解决现有技术不能高精度、低时延地同时对多目标进行分析、以及无法充分利用边缘设备和云服务器计算资源的问题。
为达到上述目的,本发明采用的技术方案如下:
本发明的一种基于多目标视频分析的课堂抬头检测系统,包括:人脸检测模块、人脸姿态估计模块及云边协同调度模块;
人脸检测模块,根据获取的课堂视频数据,使用卷积神经网络模型得到每个视频帧中的人脸集合;
人脸姿态估计模块,对上述人脸集合中的每一个人脸,使用集成回归树模型进行特征点检测,基于特征点进行姿态估计,得到其在空间中的姿态角,并根据俯仰角的大小作为学生是否听课的判断依据,统计课堂听课率;
云边协同调度模块,根据系统当前的资源状态以及用户需求,对上述卷积神经网络模型及集成回归树模型的最优配置进行求解,以提高人脸检测和人脸姿态估计的精度。
进一步地,所述系统当前的资源状态包括:当前可用的内存、处理器、以及带宽。
进一步地,所述用户需求为最大化抬头检测精度或最小化抬头检测时延。
进一步地,所述人脸检测模块包含以下步骤:
(11)将课堂视频的每一个视频帧作为卷积神经网络模型的输入,模型的输出为候选人脸集合;
(12)根据卷积神经网络模型的置信度,在候选人脸集合上执行非极大值抑制(Non-Maximum Suppression),去除重叠的冗余人脸,得到最终的人脸集合。
进一步地,所述人脸姿态估计模块包含以下步骤:
(21)对人脸集合F中的每一个人脸f,基于集成回归树模型进行人脸特征点检测,得到多个人脸关键特征点,记为集合P2d,其中,第i项(xi,yi)表示第i个特征点在二维空间中的坐标;
(22)根据三维人脸模型,将人脸特征点在三维空间中的坐标记为集合P3d,三维特征点投影到二维平面通过公式P2d=[R|t]P3d表示,其中,R表示3×3的旋转矩阵,t表示3×1的平移矩阵;
(23)基于若干个人脸特征点构建方程组,通过求解N点透视位姿问题得到旋转矩阵R和平移矩阵t,并将旋转矩阵转换成欧拉角表示,记为(yaw,pitch,roll),即人脸在三维空间中的姿态角,通过其中的俯仰角pitch与预定义阈值θ的对比,判断学生是否抬头,从而得到整个课堂的听课人数比例。
进一步地,所述云边协同调度模块由评估器和调度器组成;
所述评估器具体为:
(31)离线状态下,针对卷积神经网络模型和集成回归树模型,测试二者使用不同配置C时,抬头检测的精度Acc(C)和时延Lat(C),并生成模型配置文件;
C=[ecnn,rcnn,bcnn,θcnn,eert,nert,dert];ecnn,rcnn,bcnn,θcnn分别表示卷积神经网络模型的运行环境(边缘端或云端),输入视频帧的分辨率、网络骨架(backbone)以及分类置信度;eert,nert,dert分别表示集成回归树模型的运行环境,回归树的数量以及深度;
(32)在线状态下,接收以约束形式表示的用户需求,包括时延约束或精度约束;约束以三元组<T ar get,op,value>的形式表示,T ar get∈{Acc,Lat},表示约束目标,op∈{≤,≥},表示大小关系,value表示具体数值;
(33)在线状态下,获取系统当前的资源状态Rrem;Rrem=[Rmem,Rcpu,Rband],分别表示当前可用的内存、处理器以及带宽;
调度器具体为:
(34)在线状态下,基于评估器生成的模型配置文件、系统当前的资源状态以及用户需求,求解以下带约束的优化问题:
s.t. (2)
优化问题中,式(1)表示优化目标为最大化抬头检测精度,式(3)表示精度约束,式(4)表示时延约束,式(5)表示资源约束(模型所占资源需要小于可用资源),式(6)表示模型配置约束(只能选择一种配置),具体求解方式为:在模型配置文件中遍历搜索,保留满足上述约束的配置,然后从中选择精度最高的配置C*,C*中包含了卷积神经网络模型和集成回归树模型的运行环境的配置,调度器根据C*将模型分别部署到指定的运行环境(边缘端或云端)。
本发明的一种基于多目标视频分析的课堂抬头检测系统的工作方法,其包括以下步骤:
1)通过安装在教室中的边缘设备,获取实时课堂教学视频数据;
2)对获取的视频数据,使用卷积神经网络模型每隔固定帧进行人脸检测,得到视频帧中的所有人脸;
3)对上述得到每个人脸,使用集成回归树模型进行人脸特征点提取,并结合对应特征点在三维空间中的位置,求解得到人脸特征点从三维空间投影到二维空间的旋转矩阵;
4)将上述旋转矩阵转换为欧拉角,即人脸在三维空间中的姿态角,通过比较俯仰角和预定义阈值,判断学生是否抬头,从而统计整个课堂的听课人数比例;
5)将实时课堂视频数据及听课人数比例呈现给用户,同时接收用户需求输入:精度需求以及时延需求,以约束的形式表示;
6)实时获取系统的资源状态,结合输入的用户需求,通过云边协同调度模块,对人脸检测以及人脸姿态估计过程中所用模型的最优配置进行求解,提高人脸检测和人脸姿态估计的精度。
进一步地,所述步骤6)中的最优配置,对应以下部署模式:
61)边缘模式:此模式下,人脸检测模块、人脸姿态估计模块运行在边缘端,对应用户需求为低时延的场景;
62)云端模式:此模式下,人脸检测模块、人脸姿态估计模块运行在云端,对应用户需求为高精度的场景;
63)云边协同模式:此模式下,人脸检测模块和人脸姿态估计模块分别运行在边缘端和云端。
进一步地,所述步骤6)中系统的资源状态,包括:当前可用的内存、处理器以及带宽;所述步骤6)中的最优配置包括:人脸检测模块中卷积神经网络的运行环境、网络骨架、输入视频帧的分辨率、分类的置信度,以及人脸姿态估计模块中集成回归树模型的运行环境、回归树的数量以及深度。
进一步地,所述步骤6)中云边协同调度模块的求解方法为:
基于模型配置文件、系统当前资源状态以及用户需求,得到以下带约束的优化问题:
s.t.
求解方式为:在模型配置文件中遍历搜索,保留满足上述约束的配置,然后从中选择精度最高的配置C*,C*中包含了卷积神经网络模型和集成回归树模型的运行环境的配置。
进一步地,所述步骤6)中云边协同调度模块在每次得到最优配置后,都需要根据最优配置进行重新部署,将人脸检测任务和姿态估计任务重新分配到边缘端或云端。
进一步地,所述步骤1)、步骤2)至4)、步骤5)、步骤6)分别使用单独的线程来并行处理;具体地,使用4个线程分别进行视频数据获取、人脸检测及人脸姿态估计、结果显示及用户输入获取、以及云边协同调度。
本发明的有益效果:
1、高精度、低时延的抬头检测:本发明通过多目标视频分析和云边协同调度,弥补了现有深度学习方法无法同时处理多个目标、无法动态改变模型配置的不足,实现高精度、低时延的抬头检测;
2、充分利用计算资源:本发明通过自适应的云边协同调度,弥补了现有深度学习方法使用静态配置导致计算资源无法得到充分利用的不足;
3、实时反馈:本发明提供网页应用供用户访问,可以根据课堂听课率的实时变化得到反馈;
4、部署方便:只需要在成本低于1000元的边缘设备上集成摄像头,安装系统后部署在课堂中即可,不需要额外部署其它硬件设备。
附图说明
图1为本发明系统架构图;
图2为三维人脸特征点投影至二维平面原理图;
图3为本发明方法流程图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
参照图1所示,本发明的一种基于多目标视频分析的课堂抬头检测系统,包括:人脸检测模块、人脸姿态估计模块及云边协同调度模块;
人脸检测模块,根据边缘设备获取的课堂视频数据,使用卷积神经网络模型得到每个视频帧中的人脸集合;
所述人脸检测模块包含以下步骤:
(11)将课堂视频的每一个视频帧作为卷积神经网络模型的输入,模型的输出为候选人脸集合
(12)根据卷积神经网络模型的置信度,在候选人脸集合上执行非极大值抑制(Non-Maximum Suppression),去除重叠的冗余人脸,得到最终的人脸集合。
人脸姿态估计模块,对上述人脸集合中的每一个人脸,使用集成回归树模型进行特征点检测,基于特征点进行姿态估计,得到其在空间中的姿态角,并根据俯仰角的大小作为学生是否听课的判断依据,统计课堂听课率;
参照图2所示,所述人脸姿态估计模块包含以下步骤:
(21)对人脸集合F中的每一个人脸f,基于集成回归树模型进行人脸特征点检测,得到眼睛、鼻子、嘴巴等多个人脸关键特征点(实际应用中的人脸特征点数量为通常68),记为集合P2d,其中,第i项(xi,yi)表示第i个特征点在二维空间中的坐标;
(22)根据三维人脸模型,将人脸特征点在三维空间中的坐标记为集合P3d,三维特征点投影到二维平面通过公式P2d=[R|t]P3d表示,其中,R表示3×3的旋转矩阵,t表示3×1的平移矩阵;
(23)基于若干个人脸特征点构建方程组,通过求解N点透视位姿(Perspective-N-Point)问题得到旋转矩阵R和平移矩阵t,并将旋转矩阵转换成欧拉角表示,记为(yaw,pitch,roll),即人脸在三维空间中的姿态角,通过其中的俯仰角pitch与预定义阈值θ的对比,判断学生是否抬头,从而得到整个课堂的听课人数比例。
云边协同调度模块,根据系统当前的运行状态以及用户需求,对上述卷积神经网络模型及集成回归树模型的最优配置进行求解,以提高人脸检测和人脸姿态估计的精度;
所述系统当前的资源状态包括:当前可用的内存、处理器、以及带宽。
所述用户需求以约束的形式表示,包括时延需求和精度需求。
所述云边协同调度模块由评估器和调度器组成;
所述评估器具体为:
31)离线状态下,针对卷积神经网络模型和集成回归树模型,测试二者使用不同配置C时,抬头检测的精度Acc(C)和时延Lat(C),并生成模型配置文件;其中C=[ecnn,rcnn,bcnn,θcnn,eert,nert,dert],ecnn,rcnn,bcnn,θcnn分别表示卷积神经网络模型的运行环境(边缘端或云端),输入视频帧的分辨率、网络骨架(backbone)以及分类置信度。eert,nert,dert分别表示集成回归树模型的运行环境,回归树的数量以及深度。
(32)在线状态下,接收以约束形式表示的用户需求,包括时延约束或精度约束;约束以三元组<T ar get,op,value>的形式表示,T ar get∈{Acc,Lat},表示约束目标,op∈{≤,≥},表示大小关系,value表示具体数值;例如,约束<Acc,≥,0.8>表示用户需求为精度大于0.8。
(33)在线状态下,获取系统当前的资源状态Rrem;其中Rrem=[Rmem,Rcpu,Rband],分别表示当前可用的内存、处理器以及带宽。
调度器具体为:
(34)在线状态下,基于评估器生成的模型配置文件、系统当前的资源状态以及用户需求,求解以下带约束的优化问题:
s.t.
优化问题中,第一行表示优化目标为最大化抬头检测精度,第三行表示精度约束,第四行表示时延约束,第五行表示资源约束(模型所占资源需要小于可用资源),第六行表示模型配置约束(只能选择一种配置)。具体求解方式为:首先在模型配置文件中遍历搜索,保留满足上述约束的配置,然后从中选择精度最高的配置C*,C*中包含了卷积神经网络模型和集成回归树模型的运行环境等配置,调度器根据C*将模型分别部署到指定的运行环境(边缘端或云端);例如,当C*=[local,720p,ResNet,0.8,remote,5,2]时,表示最优配置下,卷积神经网络模型的运行环境为边缘端,视频帧输入分辨率为720p,网络骨架为残差网络(ResNet),人脸分类置信度为0.8,集成回归树模型的运行环境为云端,回归树的数量为5,树的深度为2。
参照图3所示,本发明的一种基于多目标视频分析的课堂抬头检测系统的工作方法,其包括以下步骤:
1)通过安装在教室中的边缘设备,获取实时课堂教学视频数据;
2)对获取的视频数据,使用卷积神经网络模型每隔固定帧进行人脸检测,得到视频帧中的所有人脸;
3)对上述得到每个人脸,使用集成回归树模型进行人脸特征点提取,并结合对应特征点在三维空间中的位置,求解得到人脸特征点从三维空间投影到二维空间的旋转矩阵;
4)将上述旋转矩阵转换为欧拉角,即人脸在三维空间中的姿态角,通过比较俯仰角和预定义阈值,判断学生是否抬头,从而统计整个课堂的听课人数比例;
5)将实时课堂视频数据及听课人数比例呈现给用户,同时接收用户需求输入:精度需求以及时延需求,以约束的形式表示;
6)实时获取系统的资源状态,结合输入的用户需求,通过云边协同调度模块,对人脸检测以及人脸姿态估计过程中所用模型的最优配置进行求解,提高人脸检测和人脸姿态估计的精度。
所述步骤6)中的最优配置,对应以下部署模式:
61)边缘模式:此模式下,人脸检测模块、人脸姿态估计模块运行在边缘端,对应用户需求为低时延的场景;
62)云端模式:此模式下,人脸检测模块、人脸姿态估计模块运行在云端,对应用户需求为高精度的场景;
63)云边协同模式:此模式下,人脸检测模块和人脸姿态估计模块分别运行在边缘端和云端。
所述步骤6)中系统的资源状态,包括:当前可用的内存、处理器以及带宽;所述步骤6)中的最优配置包括:人脸检测模块中卷积神经网络的运行环境、网络骨架、输入视频帧的分辨率以及分类结果的置信度,及人脸姿态估计模块中集成回归树模型的运行环境、集成回归树的数量以及深度。
所述步骤6)中云边协同调度模块的求解方法为:
基于模型配置文件、系统当前资源状态以及用户需求,可以得到以下带约束的优化问题:
s.t.
求解方式为:首先在模型配置文件中遍历搜索,保留满足上述约束的配置,然后从中选择精度最高的配置C*,C*中包含了卷积神经网络模型和集成回归树模型的运行环境等配置。
所述步骤6)中云边协同调度模块在每次得到最优配置C*后,根据其中的具体配置,将人脸检测模块和姿态估计模块重新部署到指定的运行环境;例如,C*中ecnn=local,eert=remote时,表示人脸检测模块和人脸姿态估计模块的运行环境分别为边缘端和云端。
所述步骤6)中云边协同调度模块在每次得到最优配置后,都需要根据最优配置进行重新部署,将人脸检测任务和姿态估计任务重新分配到边缘端或云端。
所述步骤1)、步骤2)至4)、步骤5)、步骤6)分别使用单独的线程来并行处理;具体地,使用4个线程分别进行视频数据获取、人脸检测及人脸姿态估计、结果显示及用户输入获取、以及云边协同调度。
本发明具体应用途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。
Claims (9)
1.一种基于多目标视频分析的课堂抬头检测系统,其特征在于,包括:人脸检测模块、人脸姿态估计模块及云边协同调度模块;
人脸检测模块,根据获取的课堂视频数据,使用卷积神经网络模型得到每个视频帧中的人脸集合;
人脸姿态估计模块,对上述人脸集合中的每一个人脸,使用集成回归树模型进行特征点检测,基于特征点进行姿态估计,得到其在空间中的姿态角,并根据俯仰角的大小作为学生是否听课的判断依据,统计课堂听课率;
云边协同调度模块,根据系统当前的资源状态以及用户需求,对上述卷积神经网络模型及集成回归树模型的最优配置进行求解,以提高人脸检测和人脸姿态估计的精度。
2.根据权利要求1所述的基于多目标视频分析的课堂抬头检测系统,其特征在于,所述系统当前的资源状态包括:当前可用的内存、处理器、以及带宽。
3.根据权利要求1所述的基于多目标视频分析的课堂抬头检测系统,其特征在于,所述人脸检测模块包含以下步骤:
(11)将课堂视频的每一个视频帧作为卷积神经网络模型的输入,模型的输出为候选人脸集合;
(12)根据卷积神经网络模型的置信度,在候选人脸集合上执行非极大值抑制,去除重叠的冗余人脸,得到最终的人脸集合。
4.根据权利要求1所述的基于多目标视频分析的课堂抬头检测系统,其特征在于,所述人脸姿态估计模块包含以下步骤:
(21)对人脸集合F中的每一个人脸f,基于集成回归树模型进行人脸特征点检测,得到多个人脸关键特征点,记为集合P2d,其中,第i项(xi,yi)表示第i个特征点在二维空间中的坐标;
(22)根据三维人脸模型,将人脸特征点在三维空间中的坐标记为集合P3d,三维特征点投影到二维平面通过公式P2d=[R|t]P3d表示,其中,R表示33的旋转矩阵,t表示31的平移矩阵;
(23)基于若干个人脸特征点构建方程组,通过求解N点透视位姿问题得到旋转矩阵R和平移矩阵t,并将旋转矩阵转换成欧拉角表示,记为(yaw,pitch,roll),即人脸在三维空间中的姿态角,通过其中的俯仰角pitch与预定义阈值θ的对比,判断学生是否抬头,从而得到整个课堂的听课人数比例。
5.根据权利要求1所述的基于多目标视频分析的课堂抬头检测系统,其特征在于,所述云边协同调度模块由评估器和调度器组成;
所述评估器具体为:
(31)离线状态下,针对卷积神经网络模型和集成回归树模型,测试二者使用不同配置C时,抬头检测的精度Acc(C)和时延Lat(C),并生成模型配置文件;
C=[ecnn,rcnn,bcnn,θcnn,eert,nert,dert];ecnn,rcnn,bcnn,θcnn分别表示卷积神经网络模型的运行环境,输入视频帧的分辨率、网络骨架以及分类置信度;eert,nert,dert分别表示集成回归树模型的运行环境,回归树的数量以及深度;
(32)在线状态下,接收以约束形式表示的用户需求,包括时延约束或精度约束;约束以三元组<Target,op,value>的形式表示,Target∈{Acc,Lat},表示约束目标,op∈{≤,≥},表示大小关系,value表示具体数值;
(33)在线状态下,获取系统当前的资源状态Rrem;Rrem=[Rmem,Rcpu,Rband],分别表示当前可用的内存、处理器以及带宽;
调度器具体为:
(34)在线状态下,基于评估器生成的模型配置文件、系统当前的资源状态以及用户需求,求解以下带约束的优化问题:
s.t. (2)
优化问题中,式(1)表示优化目标为最大化抬头检测精度,式(3)表示精度约束,式(4)表示时延约束,式(5)表示资源约束,式(6)表示模型配置约束,具体求解方式为:在模型配置文件中遍历搜索,保留满足上述约束的配置,然后从中选择精度最高的配置C*,C*中包含了卷积神经网络模型和集成回归树模型的运行环境的配置,调度器根据C*将模型分别部署到指定的运行环境。
6.一种基于多目标视频分析的课堂抬头检测系统的工作方法,其特征在于,包括以下步骤:
1)通过安装在教室中的边缘设备,获取实时课堂教学视频数据;
2)对获取的视频数据,使用卷积神经网络模型每隔固定帧进行人脸检测,得到视频帧中的所有人脸;
3)对上述得到每个人脸,使用集成回归树模型进行人脸特征点提取,并结合对应特征点在三维空间中的位置,求解得到人脸特征点从三维空间投影到二维空间的旋转矩阵;
4)将上述旋转矩阵转换为欧拉角,即人脸在三维空间中的姿态角,通过比较俯仰角和预定义阈值,判断学生是否抬头,从而统计整个课堂的听课人数比例;
5)将实时课堂视频数据及听课人数比例呈现给用户,同时接收用户需求输入:精度需求以及时延需求,以约束的形式表示;
6)实时获取系统的资源状态,结合输入的用户需求,通过云边协同调度模块,对人脸检测以及人脸姿态估计过程中所用模型的最优配置进行求解,提高人脸检测和人脸姿态估计的精度。
7.根据权利要求6所述的基于多目标视频分析的课堂抬头检测系统的工作方法,其特征在于,所述步骤6)中的最优配置,对应以下部署模式:
61)边缘模式:此模式下,人脸检测模块、人脸姿态估计模块运行在边缘端,对应用户需求为低时延的场景;
62)云端模式:此模式下,人脸检测模块、人脸姿态估计模块运行在云端,对应用户需求为高精度的场景;
63)云边协同模式:此模式下,人脸检测模块和人脸姿态估计模块分别运行在边缘端和云端。
8.根据权利要求6所述的基于多目标视频分析的课堂抬头检测系统的工作方法,其特征在于,所述步骤6)中系统的资源状态,包括:当前可用的内存、处理器以及带宽;所述步骤6)中的最优配置包括:人脸检测模块中卷积神经网络的运行环境、网络骨架、输入视频帧的分辨率、分类的置信度,以及人脸姿态估计模块中集成回归树模型的运行环境、回归树的数量以及深度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110301132.8A CN112861809B (zh) | 2021-03-22 | 2021-03-22 | 基于多目标视频分析的课堂抬头检测系统及其工作方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110301132.8A CN112861809B (zh) | 2021-03-22 | 2021-03-22 | 基于多目标视频分析的课堂抬头检测系统及其工作方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112861809A true CN112861809A (zh) | 2021-05-28 |
CN112861809B CN112861809B (zh) | 2024-03-12 |
Family
ID=75991860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110301132.8A Active CN112861809B (zh) | 2021-03-22 | 2021-03-22 | 基于多目标视频分析的课堂抬头检测系统及其工作方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112861809B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113901915A (zh) * | 2021-10-08 | 2022-01-07 | 无锡锡商银行股份有限公司 | 一种轻量网络与MagFace在视频中的表情检测方法 |
CN115907507A (zh) * | 2022-10-13 | 2023-04-04 | 华中科技大学 | 一种联合课堂场景的学生课堂行为检测和学情分析方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860256A (zh) * | 2020-07-10 | 2020-10-30 | 云镝智慧科技有限公司 | 安全检测方法、装置、计算机设备和存储介质 |
CN112348172A (zh) * | 2020-11-13 | 2021-02-09 | 之江实验室 | 一种基于端边云架构的深度神经网络协同推理方法 |
-
2021
- 2021-03-22 CN CN202110301132.8A patent/CN112861809B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860256A (zh) * | 2020-07-10 | 2020-10-30 | 云镝智慧科技有限公司 | 安全检测方法、装置、计算机设备和存储介质 |
CN112348172A (zh) * | 2020-11-13 | 2021-02-09 | 之江实验室 | 一种基于端边云架构的深度神经网络协同推理方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113901915A (zh) * | 2021-10-08 | 2022-01-07 | 无锡锡商银行股份有限公司 | 一种轻量网络与MagFace在视频中的表情检测方法 |
CN113901915B (zh) * | 2021-10-08 | 2024-04-02 | 无锡锡商银行股份有限公司 | 一种轻量网络与MagFace在视频中的表情检测方法 |
CN115907507A (zh) * | 2022-10-13 | 2023-04-04 | 华中科技大学 | 一种联合课堂场景的学生课堂行为检测和学情分析方法 |
CN115907507B (zh) * | 2022-10-13 | 2023-11-14 | 华中科技大学 | 一种联合课堂场景的学生课堂行为检测和学情分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112861809B (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020010785A1 (zh) | 一种课堂教学认知负荷测量系统 | |
JP2021504848A (ja) | 画像処理システム及び画像処理方法 | |
CN112861809B (zh) | 基于多目标视频分析的课堂抬头检测系统及其工作方法 | |
CN111209811B (zh) | 一种实时检测眼球注意力位置的方法及系统 | |
KR101887626B1 (ko) | 안면 데이터 기반 집중도 분석 시스템 및 그 방법 | |
CN112818969A (zh) | 一种基于知识蒸馏的人脸姿态估计方法及系统 | |
US20230025527A1 (en) | Quantitative analysis method and system for attention based on line-of-sight estimation neural network | |
TW202008293A (zh) | 教學品質監測系統及方法 | |
CN114898460B (zh) | 一种基于图卷积神经网络的教师非言语行为检测方法 | |
CN111832952A (zh) | 一种教育课件推送系统 | |
Liu et al. | An improved method of identifying learner's behaviors based on deep learning | |
CN111666829A (zh) | 多场景多主体身份行为情绪识别分析方法及智能监管系统 | |
CN115205926A (zh) | 一种基于多任务学习的轻量化鲁棒人脸对齐方法及系统 | |
CN114332927A (zh) | 课堂举手行为检测方法、系统、计算机设备和存储介质 | |
CN114359963A (zh) | 姿态识别方法及通信系统 | |
CN115810163B (zh) | 一种基于ai课堂行为识别的教学评估方法和系统 | |
CN113822907A (zh) | 图像处理方法及装置 | |
EP4318314A1 (en) | Image acquisition model training method and apparatus, image detection method and apparatus, and device | |
CN113705763A (zh) | 一种基于神经计算棒的配网变压器实时检测方法及系统 | |
CN116704401A (zh) | 操作类考试的评分校验方法、装置、电子设备及存储介质 | |
CN113688789B (zh) | 一种基于深度学习的在线学习投入度识别方法及系统 | |
CN115497025A (zh) | 一种基于3d头部姿态估计的青少年专注度评价方法 | |
CN115829234A (zh) | 基于课堂检测的自动化督导系统及其工作方法 | |
CN111831886B (zh) | 基于大数据的网络课件推送方法 | |
WO2021185317A1 (zh) | 动作识别方法及装置、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |