CN114333070A - 一种基于深度学习的考生异常行为检测方法 - Google Patents

一种基于深度学习的考生异常行为检测方法 Download PDF

Info

Publication number
CN114333070A
CN114333070A CN202210228572.XA CN202210228572A CN114333070A CN 114333070 A CN114333070 A CN 114333070A CN 202210228572 A CN202210228572 A CN 202210228572A CN 114333070 A CN114333070 A CN 114333070A
Authority
CN
China
Prior art keywords
examinee
video
abnormal behavior
model
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210228572.XA
Other languages
English (en)
Inventor
许信顺
李玉基
马磊
陈义学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHANDONG SHANDA OUMA SOFTWARE CO Ltd
Original Assignee
SHANDONG SHANDA OUMA SOFTWARE CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHANDONG SHANDA OUMA SOFTWARE CO Ltd filed Critical SHANDONG SHANDA OUMA SOFTWARE CO Ltd
Priority to CN202210228572.XA priority Critical patent/CN114333070A/zh
Publication of CN114333070A publication Critical patent/CN114333070A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提出的一种基于深度学习的考生异常行为检测方法,属于图像分析技术领域。方法包括:对考场监控视频进行视频帧采样,对采样的视频帧标注考生和监考老师的边界框,并利用标注的数据训练目标检测模型;根据异常行为发生位置对考场监控视频进行视频帧采样,对采样的视频帧标注考生的边界框和动作类别,利用标注的数据训练动作识别模型,并进行动作识别模型优化;使用目标检测模型对输入的数据进行目标检测,选择检测得分大于0.9的边界框进入动作识别阶段,通过动作识别模型对得到的边界框内的考生实例进行分类。本发明能够同时检测考生的位置信息和动作信息,有效提高了在考场环境下的异常行为检测的准确率。

Description

一种基于深度学习的考生异常行为检测方法
技术领域
本发明涉及图像分析技术领域,更具体的说是涉及一种基于深度学习的考生异常行为检测方法。
背景技术
目前,在各个行业累积了海量的图像和视频数据,比如公共安全领域的监控视频,交通领域的监控视频,教育考试领域的监控视频等。面对海量的监控视频,单靠人力去对监控视频进行识别是不现实的。理解视频中人类行为已经成为计算机视觉中的一个突出的研究课题,而识别公共场景中监控视频里的人类行为对于公共安全有着重要意义。比如识别地铁站,高铁站乘客的行为,识别人行道上行人的行为,识别考场上考生的异常行为。
教育考试是对受教育者知识水平和能力进行的一种测定,是评判考生学业水平的重要手段,考试的平等和公正对受教育者的合法权益具有十分重要的意义。目前应用与考场监控视频的考生异常行为检测方法主要有无监督的异常行为检测方法和有监督的动作识别方法。
无监督的异常行为检测方法主要有自编码器和未来帧预测方法,主要思想是在训练阶段用正常数据训练,学习正常行为的特征,在测试阶段,根据重构损失来判断正常行为和异常行为。但无监督的异常行为检测方法主要是面向帧级别的异常,对于视频帧中的局部异常并没有太好的识别效果。在行为识别领域常见的任务主要有动作识别,时空动作检测等。动作识别的主要任务是对每个输入视频进行分类,识别出视频中人物做出的动作,即输入视频序列,得到视频对应的类别。动作分类使用的数据集一般先将动作分割好,一个视频片段中包含一个明确的动作,时间较短且有唯一的标签,动作明确干扰少,输入是视频,输出是动作类别。所以对于考场这一复杂且人数多的密集场景,动作分类方法并不适用。时空动作检测主要解决两个任务:识别和定位。目的是知道动作是何时发生以及这是什么动作。时空动作检测的数据集大部分都是未经分割的长视频,场景更加复杂,一个场景可能有多个人做不同的动作。时空动作检测方法一般是先进行特征提取,再根据检测到的边界框进行ROIPooling,最后进行分类。但时空动作检测方法适合检测那些大目标行为,对于小目标的行为识别准确率很差。而考场监控中由于摄像头的位置问题,导致考生在视频帧中的分辨率差别很大,所以对于那些分辨率小的有异常行为的考生,时空动作检测任务并不能准确识别出来。面向考场监控的异常行为检测这一任务相比于其他动作识别任务,场景更加复杂,场景中人物数量更多,而且存在严重的遮挡现象。
发明内容
针对现有技术中存在的问题,本发明的目的在于提供一种基于深度学习的考生异常行为检测方法,采用目标检测方法和动作识别方法相结合,同时检测考生的位置信息和动作信息,能在复杂的考场环境中更好地识别考生的行为。
本发明为实现上述目的,通过以下技术方案实现:
一种基于深度学习的考生异常行为检测方法,包括如下步骤:
S1:对考场监控视频进行视频帧采样,对采样的视频帧标注考生和监考老师的边界框,并利用标注的数据训练目标检测模型;
S2:根据异常行为发生位置对考场监控视频进行视频帧采样,对采样的视频帧标注考生的边界框和动作类别,利用标注的数据训练动作识别模型,并进行动作识别模型优化;
S3:读取待检测的考场监控视频并进行视频帧采样,标注考生和监考老师的边界框,通过目标检测模型生成目标类别、边界框坐标和相应的检测得分;
S4;将检测得分大于阈值0.9的边界框对应的视频帧进行数据预处理,将处理后的数据输入动作识别模型,以生成考生的行为类别、边界框和相应的概率值。
进一步,步骤S2中,根据异常行为发生位置对考场监控视频进行视频帧采样,对采样的视频帧标注考生的边界框和动作类别,包括:
根据异常行为发生位置在考场监控视频中抽取一分钟时长的短视频,对采取的短视频每间隔一秒采集一个视频帧作为关键帧;
对每一个关键帧标注考生的边界框和动作类别。
进一步,目标检测模型采用Cascade R-CNN算法模型,目标检测模型包括三个级联的检查器,检查器的交并比逐级增大。针对现有的行为识别方法难以识别小目标行为的问题,引入了特征金字塔网络,通过融合多种尺度的特征信息,让小目标行为能在大尺度的特征层上进行映射,使得模型对小目标行为的识别能力大大提高。
进一步,所述目标检测模型利用损失函数进行模型优化,损失函数包括边界框的位置损失函数和分类损失函数。
进一步,所述边界框位置损失函数如下:
Figure DEST_PATH_IMAGE001
其中,xi是一个image patch,bi是对应的预测的边界框,gi是边界框的groundtruth,f是回归器;Lloc采用的是Smooth的L1损失函数smoothL1(x);
Figure 588739DEST_PATH_IMAGE002
所述分类损失函数如下:
Figure DEST_PATH_IMAGE003
其中,h(xi)表示预测的类别,yi是标注数据,Lcls采用的是交叉熵损失函数;
由于目标检测模型在结构上使用了级联的R-CNN算法,在每个阶段t,R-CNN算法有自己阈值ut下的分类器ht和回归器ft,其中ut>ut-1,因此所述最终损失函数如下:
Figure 221846DEST_PATH_IMAGE004
其中,
Figure DEST_PATH_IMAGE005
,g是标注数据,λ是平衡系数。
进一步,所述步骤S4中,将检测得分大于阈值0.9的边界框对应的视频帧进行数据预处理,包括:
将检测得分大于阈值0.9的边界框信息在待检测的考场监控视频的基础上进行裁剪,得到视频帧不同的考生子图像块;
根据将检测得分大于阈值0.9的边界框信息在待检测的考场监控视频中抽取关键,对采取的短视频每间隔一秒采集一个视频帧作为关键帧,根据关键帧组成考生的片段;
对考生子图像块进行随机抖动和随机裁剪,采用双线性插值法,将考生子图像块的分辨率调整为224x224,并进行水平翻转和颜色增强。
进一步,所述动作识别模型采用的基于3D ResNet的SlowFast网络作为特征提取网络,并使用在AVA数据集上预训练的权重进行初始化。
进一步,所述动作识别模型通过激活函数和交叉熵损失函数进行优化;所述激活函数采用softmax函数;
所述交叉熵损失函数具体如下:
Figure 417466DEST_PATH_IMAGE006
其中,c是类别数, yi是标签,pi是经过softmax函数之后得到的类别是i的概率。
对比现有技术,本发明有益效果在于:
1、本方法提出了一种目标检测和动作识别相结合的方法,分为两个阶段,目标检测阶段和动作识别阶段,能够同时检测考生的位置信息和动作信息,有效提高了在考场环境下的异常行为检测的准确率。
2 、本发明目标检测阶段采用Cascade R-CNN与FPN相结合的方法,对于考场监考视频中存在的考生遮挡现象有很好的识别效果,对于考生与监考老师的区分也更明显了。
3、本发明在动作识别阶段充分利用了目标检测阶段检测到的边界框信息,相比于其他时空动作检测方法对于小目标行为的识别,准确率有了很大的提高。
4、本发明在行为识别阶段引入了特征金字塔网络,通过融合多种尺度的特征信息,让小目标行为能在大尺度的特征层上进行映射,使得模型对小目标行为的识别能力大大提高。
5、本发明采用了带权重的分类损失来优化模型,并使用了带权重的采样策略,使模型更关注样本数量少的异常样本,避免了时空动作检测方法中小目标行为识别准确率低的问题。
由此可见,本发明与现有技术相比,具有突出的实质性特点和显著的进步,其实施的有益效果也是显而易见的。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
附图1是本发明实施例一的方法流程图。
附图2是本发明实施例二的目标检测模型的结构示意图。
附图3是本发明实施例二的动作识别模型的结构示意图。
具体实施方式
下面结合附图对本发明的具体实施方式做出说明。
实施例一:
如图1所示,本实施例公开了一种基于深度学习的考生异常行为检测方法,包括如下步骤:
S1:对考场监控视频进行视频帧采样,对采样的视频帧标注考生和监考老师的边界框,并利用标注的数据训练目标检测模型。
其中,目标检测模型采用级联式网络Cascade R-CNN算法模型,目标检测模型包括三个级联的检查器,检测器使用的是Faster R-CNN,检查器的交并比逐级增大。目标检测模型利用损失函数进行模型优化,损失函数包括边界框的位置损失函数和分类损失函数。
S2:根据异常行为发生位置对考场监控视频进行视频帧采样,对采样的视频帧标注考生的边界框和动作类别,利用标注的数据训练动作识别模型,并进行动作识别模型优化。
具体来说,根据异常行为发生位置从原视频中提取视频,每个视频时长为1min,共提取了70个视频。 对提取的视频进行视频帧采样,对采样的视频帧标注考生的边界框和动作类别,利用标注的数据训练行为识别模型,并进行行为识别模型优化。其中,动作类别有正常、喝水、举手、站立、捡东西、回头、与监考老师交谈。
在本步骤中,数据的标注过程包括:首先,根据异常行为发生位置在考场监控视频中抽取一分钟时长的短视频,对采取的短视频每间隔一秒采集一个视频帧作为关键帧。然后,对每一个关键帧标注考生的边界框和动作类别。
其中,动作识别模型采用的基于3D ResNet的SlowFast网络作为特征提取网络,并使用在AVA数据集上预训练的权重进行初始化,在特征提取模块引入了特征金字塔机构。动作识别模型通过激活函数和交叉熵损失函数进行优化。
S3:读取待检测的考场监控视频并进行视频帧采样,标注考生和监考老师的边界框,通过目标检测模型生成目标类别、边界框坐标和相应的检测得分。
本步骤为测试阶段,目标检测模型输入是视频帧,通过目标检测模型生成目标类别、边界框坐标和相应的检测得分,保留检测得分大于0.9的考生的边界框信息作为行为识别阶段的输入。
S4;将检测得分大于阈值0.9的边界框对应的视频帧进行数据预处理,将处理后的数据输入动作识别模型,以生成考生的行为类别、边界框和相应的概率值。
其中,数据预处理过程包括:首先,将检测得分大于阈值0.9的边界框信息在待检测的考场监控视频的基础上进行裁剪,得到视频帧不同的考生子图像块。
此时,根据将检测得分大于阈值0.9的边界框信息在待检测的考场监控视频中抽取关键,然后对采取的短视频每间隔一秒采集一个视频帧作为关键帧,根据关键帧组成考生的片段。最后,对考生子图像块进行随机抖动和随机裁剪,采用双线性插值法,将考生子图像块的分辨率调整为224x224,并进行水平翻转和颜色增强。
作为示例的,数据预处理过程包括对输入的多个视频帧进行随机抖动,范围是[256,320],之后将视频帧随机裁剪到224x224,再采用数据增强策略,包括水平翻转和颜色增强等手段。将输入的视频帧组成一个视频帧片段,每个片段由32帧组成,采帧率是2,也就是说每64帧采样32帧作为行为识别模型的输入,将考生的边界框信息也作为输入,对视频帧片段进行特征提取之后,根据考生的边界框信息进行ROI映射,得到每一名考生的特征,再经过分类网络,得到每一名考生的动作类别。
由此可见,本方法实质上包括目标检测阶段和行为识别阶段两部分。
本方法的目标检测阶段主要任务是区分监考老师和考生的类别,并识别出监考老师和考生的位置信息,前一项是分类任务,后一项是边界框回归任务。为实验本发明在考场数据集上的有效性,将目前流行的一些目标检测算法与本发明提出的目标检测算法进行了对比,结果如下表所示:
表1边界框回归实验结果
Figure 161431DEST_PATH_IMAGE007
表2分类实验结果(AP%)
Figure 539323DEST_PATH_IMAGE008
表1是边界框回归实验结果,表2是分类实验结果。评价指标是AP值,AP是类别的平均准确率,在目标检测领域中常用的评估指标是mAP,即各类别AP的均值。AP值通过PR曲线可以计算得到。AP值表示IoU取不同的阈值得到的结果。AP[0.5:0.95]表示IoU阈值从0.5到0.95以步长0.05共十个IoU阈值下的十个AP值平均得到的mAP值。APs,APm,APl分别表示模型对小目标,中等目标,大目标的识别准确率。本发明使用的目标检测模型是CascadeR-CNN,其中检测器使用的是FasterRCNN,backbone是ResNet50,还引入了FPN结构,从表1和表2可以看到,本发明的目标检测模型相比其他主流的目标检测模型是有一定优势的。
本方法的行为识别阶段,目的是识别出每一名考生的动作类别。为验证本文行为识别模型的有效性,将本方法与目前主流的行为识别方法进行了比较,结果如表3所示。
表3实验结果比较(AP%)
Figure 343331DEST_PATH_IMAGE009
从表3中可以看到,本方法在行为识别模型中引入了特征金字塔结构之后,对于喝水,回头,举手等小目标动作的识别准确率是有所提升的,在考场数据集上的实验结果表明,本发明提供的基于深度学习的考生异常行为检测方法明显优于其他行为识别方法。
实施例二:
基于实施例一,本实施例公开了一种基于深度学习的考生异常行为检测方法,该方法分为两个阶段,目标检测阶段和动作识别阶段。
一、目标检测阶段:
本阶段包括以下步骤:
1、针对考场监控视频进行采样视频帧。
2、对获取的视频帧进行目标检测任务标注,标注内容包括考生和监考老师的边界框和类别。
3、基于标注的数据训练目标检测模型。
其中,对考场监控视频采样时需要注意,采样的视频帧需要包括正常行为和异常行为,标注的时候也需要标注异常行为的实例类别是考生还是监考老师,比如监考老师在考场中会来回走动,需要标注监考老师在不同位置的边界框信息。考生发生异常行为时,比如考生站立或者喝水等动作,都需要完整标注考生的边界框。如果只标注正常行为的边界框信息,目标检测模型对异常行为的检测准确率会严重下降,这会直接影响动作识别阶段对异常行为的识别准确率。
本阶段采用Cascade R-CNN作为目标检测模型,并使用在COCO数据集上预训练的权值对其进行初始化,模型框架如图2所示。为更好地区分考生和监考老师,把Cascade R-CNN分类器最后一个fc层输出类别修改为2。针对考生和监考老师的特性,在标注时将考生和课桌标注为一个整体,将监考老师可能出现的不同位置都标注下来。需要注意的是异常行为的边界框也需要标注。Cascade R-CNN是基于Faster-RCNN的多阶段的结构,如图2所示,Cascade R-CNN包括一系列IoU逐渐增大的检测器,上一个检测器的输出作为下一个检测器的输入。目标检测模型采用的是三阶段的检测结构,将三个检测器进行级联,Iou阈值设置是[0.5,0.7,0.9]。Cascade R-CNN的核心就是通过不断提高的IoU阈值,在保证正样本数量不减少的情况下训练出高质量的检测器。Cascade R-CNN在进行目标检测时,ROI作用在最后一层,对于小目标来说,卷积池化到最后一层,实际的语义信息不足以进行准确检测,而在考场中,由于考场环境的特殊性,考生之间分辨率差异较大,小目标考生极多。为了能够更好识别小目标的考生,目标检测模型在Cascade R-CNN的基础上引入了FPN结构,同时利用低层特征高分辨率和高层特征的语义信息,通过融合不同层的特征表达,提高模型对小目标检测能力。损失函数包括边界框的位置损失函数和分类损失函数。
位置损失函数如下:
Figure 541094DEST_PATH_IMAGE010
其中,xi是一个image patch,bi是对应的预测的边界框,gi是边界框的groundtruth,f是回归器;Lloc使用的是Smooth L1 Loss。
Figure 603597DEST_PATH_IMAGE011
分类损失如下:
Figure 570416DEST_PATH_IMAGE012
其中,h(xi)表示预测的类别,yi是ground truth,Lcls采用的是交叉熵损失函数。
目标检测模型在结构上使用了级联的R-CNN,在每个阶段t,R-CNN算法有自己阈值ut下的分类器ht和回归器ft,其中ut>ut-1,因此所述最终损失函数如下:
Figure 810904DEST_PATH_IMAGE004
其中,
Figure 230384DEST_PATH_IMAGE013
,g是ground truth。λ是平衡系数。t-1阶段检测器的输出是t阶段检测器的输入,随着阈值的增加,检测质量依次提高。
另外,需要特别说明的是,在目标检测阶段,采用级联Faster-RCNN来获取考生和监考老师的边界框。后续动作识别阶段依赖于目标检测阶段得到的考生边界框信息。
二、行为识别阶段:
本阶段包括如下步骤:
1、根据异常行为发生位置从原视频提取视频片段。
2、将提取的视频转成视频帧。
3、对视频帧的关键帧进行标注,标注内容包括考生的边界框和动作类别。
4、基于标注的数据训练行为识别模型。
其中,考虑到考场监控视频是长的视频片段,而考生的异常行为可能是在很短时间内发生的,所以这里抽取考生发生异常行为附近的视频片段,一般为1min的短视频。要标记的内容包括考生的边界框和行为类别,同一时间不同考生可能有不同的行为发生。每一秒取一个视频帧作为关键帧进行标注,关键帧位于这一秒的中间位置,一段1min的视频需要对60帧进行标注。
在本阶段,首先需要进行数据的预处理,具体措施如下:
a、动作识别阶段的输入依赖于目标检测阶段的输出,目标检测阶段检测得分大于阈值0.9的考生的边界框被保留作为行为识别阶段的输入。为解决动作识别和时空动作检测在识别密集场景小目标动作方面准确率不足的问题,在行为识别阶段引入了特征金字塔结构,通过融合多尺度的特征,让小目标行为能在大尺度特征上进行映射,从而提高模型对小目标行为识别的准确率。
b、数据标注时只对关键帧进行标记,每1s取1帧作为关键帧。在得到一名考生的边界框信息之后,以该帧为关键帧,前后共采样32帧组成该考生的clip。
c、对输入的多个视频帧进行随机抖动和随机裁剪,并随机裁剪到224x224,之后进行水平翻转,颜色增强等数据增广操作。
本阶段的动作识别模型采用的特征提取网络是基于3D ResNet的SlowFast网络,并使用在AVA数据集上预训练的权重进行初始化。在特征提取部分引入了特征金字塔结构,与目标检测中的特征金字塔不同,这里的特征都是3D的,所以在FPN中进行上采样时,采用的是体积采样的方式。SlowFast网络是模拟双流网络所提出的,使用慢分支和快分支来模拟动作识别领域的双流网络—图像分支和光流分支。如图3所示,SlowFast网络分为两个分支,慢分支和快分支,慢分支使用一个低帧率,低时间分辨率的CNN网络来分析视频中的静态信息,快分支使用一个高帧率,高时间分辨率的CNN网络来分析视频中的动态信息。图3中上层是慢分支,下层是快分支,α表示采帧率,一般取8,表示快分支的时间通道是慢分支的8倍,β是通道比率,一般取1/8。在动作识别模型中设置快分支采帧率为2,即每2帧采样一帧,video clip设置为32帧,即每64帧采样32帧组成一个clip。从快分支到慢分支通过侧向连接相连,通过侧向连接,来自快分支的数据被送入慢分支中,单一数据样本形状在两个分支中是不同的,快分支是{αT,S2,βC},慢分支是{T,S2,C},分别表示时间,空间和channel的大小。最后,快分支和慢分支进入分类网络进行分类。
在分类部分,慢分支和快分支分别进行全局平均池化,将时间维度的特征进行融合,融合后的特征反映了在这段时间内的考生信息。动作识别模型在最大池化层前加了一个平均池化层,保留更多的特征,在最大池化层之后把慢分支和快分支的特征进行拼接,送入全连接层进行分类。动作识别模型把最后全连接层输出维度设置为考生行为类别数,最后得到该考生的的行为类别。激活函数采用softmax函数,损失函数使用的是交叉熵损失函数,具体如下:
Figure 847311DEST_PATH_IMAGE006
其中,c是类别数,yi是标签,pi是经过softmax函数之后得到的类别是i的概率。
由于考生异常行为样本数量少,类别不平衡性很严重,因此这里采用带权重的交叉熵损失函数,考生行为类别有正常,喝水,举手,站立,捡东西,回头,与监考老师交谈,根据不同类别行为样本数量的多少,权重系数设置为[0.05,0.15,0.15,0.15,0.15,0.2,0.15]。
动作识别模型采用了带权重的分类损失来优化模型,使模型更关注样本数量少的异常样本,有效避免了时空动作检测方法中小目标行为识别准确率低的问题。
结合附图和具体实施例,对本发明作进一步说明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所限定的范围。

Claims (8)

1.一种基于深度学习的考生异常行为检测方法,其特征在于,包括如下:
S1,对考场监控视频进行视频帧采样,对采样的视频帧标注考生和监考老师的边界框,并利用标注的数据训练目标检测模型;
S2,根据异常行为发生位置对考场监控视频进行视频帧采样,对采样的视频帧标注考生的边界框和动作类别,利用标注的数据训练动作识别模型,并进行动作识别模型优化;
S3,读取待检测的考场监控视频并进行视频帧采样,标注考生和监考老师的边界框,通过目标检测模型生成目标类别、边界框坐标和相应的检测得分;
S4,将检测得分大于阈值0.9的边界框对应的视频帧进行数据预处理,将处理后的数据输入动作识别模型,以生成考生的行为类别、边界框和相应的概率值。
2.根据权利要求1所述的基于深度学习的考生异常行为检测方法,其特征在于,所述步骤S2中,根据异常行为发生位置对考场监控视频进行视频帧采样,对采样的视频帧标注考生的边界框和动作类别,包括:
根据异常行为发生位置在考场监控视频中抽取一分钟时长的短视频,对采取的短视频每间隔一秒采集一个视频帧作为关键帧;
对每一个关键帧标注考生的边界框和动作类别。
3.根据权利要求1所述的基于深度学习的考生异常行为检测方法,其特征在于,所述目标检测模型采用Cascade R-CNN算法模型,目标检测模型包括三个级联的检查器,检查器的交并比逐级增大。
4.根据权利要求1所述的基于深度学习的考生异常行为检测方法,其特征在于,所述目标检测模型利用损失函数进行模型优化,损失函数包括边界框的位置损失函数和分类损失函数。
5.根据权利要求4所述的基于深度学习的考生异常行为检测方法,其特征在于,所述边界框位置损失函数如下:
Figure 928797DEST_PATH_IMAGE001
其中,xi是一个image patch,bi是对应的预测的边界框,gi是边界框的ground truth,f是回归器;Lloc采用的是Smooth的L1损失函数smoothL1(x);
Figure 845807DEST_PATH_IMAGE002
所述分类损失函数如下:
Figure 717948DEST_PATH_IMAGE003
其中,h(xi)表示预测的类别,yi是标注数据,Lcls采用的是交叉熵损失函数;
由于目标检测模型在结构上使用了级联的R-CNN算法,在每个阶段t,R-CNN算法有自己阈值ut下的分类器ht和回归器ft,其中ut>ut-1,因此所述最终损失函数如下:
Figure 445732DEST_PATH_IMAGE004
其中,
Figure 668903DEST_PATH_IMAGE005
,g是标注数据,λ是平衡系数。
6.根据权利要求1所述的基于深度学习的考生异常行为检测方法,其特征在于,所述步骤S4中,将检测得分大于阈值0.9的边界框对应的视频帧进行数据预处理,包括:
将检测得分大于阈值0.9的边界框信息在待检测的考场监控视频的基础上进行裁剪,得到视频帧不同的考生子图像块;
根据将检测得分大于阈值0.9的边界框信息在待检测的考场监控视频中抽取关键,对采取的短视频每间隔一秒采集一个视频帧作为关键帧,根据关键帧组成考生的片段;
对考生子图像块进行随机抖动和随机裁剪,采用双线性插值法,将考生子图像块的分辨率调整为224x224,并进行水平翻转和颜色增强。
7.根据权利要求1所述的基于深度学习的考生异常行为检测方法,其特征在于:所述动作识别模型采用的基于3D ResNet的SlowFast网络作为特征提取网络,并使用在AVA数据集上预训练的权重进行初始化。
8.根据权利要求7所述的基于深度学习的考生异常行为检测方法,其特征在于,所述动作识别模型通过激活函数和交叉熵损失函数进行优化;所述激活函数采用softmax函数;
所述交叉熵损失函数具体如下:
Figure 625489DEST_PATH_IMAGE006
其中,c是类别数, yi是标签,pi是经过softmax函数之后得到的类别是i的概率。
CN202210228572.XA 2022-03-10 2022-03-10 一种基于深度学习的考生异常行为检测方法 Pending CN114333070A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210228572.XA CN114333070A (zh) 2022-03-10 2022-03-10 一种基于深度学习的考生异常行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210228572.XA CN114333070A (zh) 2022-03-10 2022-03-10 一种基于深度学习的考生异常行为检测方法

Publications (1)

Publication Number Publication Date
CN114333070A true CN114333070A (zh) 2022-04-12

Family

ID=81033792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210228572.XA Pending CN114333070A (zh) 2022-03-10 2022-03-10 一种基于深度学习的考生异常行为检测方法

Country Status (1)

Country Link
CN (1) CN114333070A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114943922A (zh) * 2022-06-02 2022-08-26 浙大城市学院 一种基于深度学习的机考可疑行为识别方法
CN114998840A (zh) * 2022-07-18 2022-09-02 成都东方天呈智能科技有限公司 一种基于深度级联有监督学习的老鼠目标检测方法
CN115830517A (zh) * 2023-02-14 2023-03-21 江西云眼视界科技股份有限公司 基于视频的考场异常帧提取方法及系统
CN115880647A (zh) * 2023-02-22 2023-03-31 山东山大鸥玛软件股份有限公司 一种考生考场异常行为分析方法、系统、设备及存储介质
CN116740649A (zh) * 2023-08-07 2023-09-12 山东科技大学 一种基于深度学习的船员越界落水行为实时检测方法
CN117392758A (zh) * 2023-12-05 2024-01-12 广州阿凡提电子科技有限公司 基于视频分析的用户行为识别方法及系统
CN117437696A (zh) * 2023-12-20 2024-01-23 山东山大鸥玛软件股份有限公司 基于深度学习的行为监控分析方法、系统、设备及介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109271886A (zh) * 2018-08-29 2019-01-25 武汉大学 一种教育考试监控视频的人体行为分析方法及系统
CN109655019A (zh) * 2018-10-29 2019-04-19 北方工业大学 一种基于深度学习和三维重建的货物体积测量方法
CN110674866A (zh) * 2019-09-23 2020-01-10 兰州理工大学 迁移学习特征金字塔网络对X-ray乳腺病灶图像检测方法
CN111047554A (zh) * 2019-11-13 2020-04-21 华南理工大学 一种基于实例分割的复合绝缘子过热缺陷检测方法
CN111814704A (zh) * 2020-07-14 2020-10-23 陕西师范大学 基于级联注意力与点监督机制的全卷积考场目标检测方法
CN112132093A (zh) * 2020-09-30 2020-12-25 湖南省气象科学研究所 高分辨率遥感图像目标检测方法、装置和计算机设备
CN112287884A (zh) * 2020-11-19 2021-01-29 长江大学 一种考试异常行为检测方法、装置及计算机可读存储介质
CN112288776A (zh) * 2020-10-26 2021-01-29 杭州电子科技大学 一种基于多时间步金字塔编解码器的目标跟踪方法
CN112417990A (zh) * 2020-10-30 2021-02-26 四川天翼网络服务有限公司 一种考试学生违规行为识别方法及系统
CN113255606A (zh) * 2021-06-30 2021-08-13 深圳市商汤科技有限公司 行为识别方法、装置、计算机设备及存储介质
CN113569656A (zh) * 2021-07-02 2021-10-29 广州大学 一种基于深度学习的考场监控方法
CN113744311A (zh) * 2021-09-02 2021-12-03 北京理工大学 基于全连接注意力模块的孪生神经网络运动目标跟踪方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109271886A (zh) * 2018-08-29 2019-01-25 武汉大学 一种教育考试监控视频的人体行为分析方法及系统
CN109655019A (zh) * 2018-10-29 2019-04-19 北方工业大学 一种基于深度学习和三维重建的货物体积测量方法
CN110674866A (zh) * 2019-09-23 2020-01-10 兰州理工大学 迁移学习特征金字塔网络对X-ray乳腺病灶图像检测方法
CN111047554A (zh) * 2019-11-13 2020-04-21 华南理工大学 一种基于实例分割的复合绝缘子过热缺陷检测方法
CN111814704A (zh) * 2020-07-14 2020-10-23 陕西师范大学 基于级联注意力与点监督机制的全卷积考场目标检测方法
CN112132093A (zh) * 2020-09-30 2020-12-25 湖南省气象科学研究所 高分辨率遥感图像目标检测方法、装置和计算机设备
CN112288776A (zh) * 2020-10-26 2021-01-29 杭州电子科技大学 一种基于多时间步金字塔编解码器的目标跟踪方法
CN112417990A (zh) * 2020-10-30 2021-02-26 四川天翼网络服务有限公司 一种考试学生违规行为识别方法及系统
CN112287884A (zh) * 2020-11-19 2021-01-29 长江大学 一种考试异常行为检测方法、装置及计算机可读存储介质
CN113255606A (zh) * 2021-06-30 2021-08-13 深圳市商汤科技有限公司 行为识别方法、装置、计算机设备及存储介质
CN113569656A (zh) * 2021-07-02 2021-10-29 广州大学 一种基于深度学习的考场监控方法
CN113744311A (zh) * 2021-09-02 2021-12-03 北京理工大学 基于全连接注意力模块的孪生神经网络运动目标跟踪方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114943922A (zh) * 2022-06-02 2022-08-26 浙大城市学院 一种基于深度学习的机考可疑行为识别方法
CN114943922B (zh) * 2022-06-02 2024-04-02 浙大城市学院 一种基于深度学习的机考可疑行为识别方法
CN114998840A (zh) * 2022-07-18 2022-09-02 成都东方天呈智能科技有限公司 一种基于深度级联有监督学习的老鼠目标检测方法
CN115830517A (zh) * 2023-02-14 2023-03-21 江西云眼视界科技股份有限公司 基于视频的考场异常帧提取方法及系统
CN115830517B (zh) * 2023-02-14 2023-06-13 江西云眼视界科技股份有限公司 基于视频的考场异常帧提取方法及系统
CN115880647A (zh) * 2023-02-22 2023-03-31 山东山大鸥玛软件股份有限公司 一种考生考场异常行为分析方法、系统、设备及存储介质
CN116740649A (zh) * 2023-08-07 2023-09-12 山东科技大学 一种基于深度学习的船员越界落水行为实时检测方法
CN116740649B (zh) * 2023-08-07 2023-11-03 山东科技大学 一种基于深度学习的船员越界落水行为实时检测方法
CN117392758A (zh) * 2023-12-05 2024-01-12 广州阿凡提电子科技有限公司 基于视频分析的用户行为识别方法及系统
CN117392758B (zh) * 2023-12-05 2024-03-26 广州阿凡提电子科技有限公司 基于视频分析的用户行为识别方法及系统
CN117437696A (zh) * 2023-12-20 2024-01-23 山东山大鸥玛软件股份有限公司 基于深度学习的行为监控分析方法、系统、设备及介质

Similar Documents

Publication Publication Date Title
CN114333070A (zh) 一种基于深度学习的考生异常行为检测方法
CN108334848B (zh) 一种基于生成对抗网络的微小人脸识别方法
CN104050471B (zh) 一种自然场景文字检测方法及系统
CN107945153A (zh) 一种基于深度学习的路面裂缝检测方法
CN105740758A (zh) 基于深度学习的互联网视频人脸识别方法
Yang et al. Spatiotemporal trident networks: detection and localization of object removal tampering in video passive forensics
CN113536972B (zh) 一种基于目标域伪标签的自监督跨域人群计数方法
CN113011357A (zh) 基于时空融合的深度伪造人脸视频定位方法
CN112434723B (zh) 一种基于注意力网络的日/夜间图像分类及物体检测方法
CN110569843A (zh) 一种矿井目标智能检测与识别方法
CN113297956B (zh) 一种基于视觉的手势识别方法及系统
CN112464893A (zh) 一种复杂环境下的拥挤度分类方法
CN111027377A (zh) 一种双流神经网络时序动作定位方法
Wu et al. Single shot multibox detector for vehicles and pedestrians detection and classification
CN115719463A (zh) 一种基于超分辨率重构和自适应挤压激励的烟火检测方法
Liu et al. A multi-stream convolutional neural network for micro-expression recognition using optical flow and evm
Wang et al. Yolov5 enhanced learning behavior recognition and analysis in smart classroom with multiple students
CN112488165A (zh) 一种基于深度学习模型的红外行人识别方法及系统
Ren et al. Student behavior detection based on YOLOv4-Bi
CN116977917A (zh) 一种红外图像行人检测方法
CN116597438A (zh) 一种基于Yolov5的改进型水果识别方法及识别系统
CN110502995A (zh) 基于细微面部动作识别的驾驶员打哈欠检测方法
Lai et al. Research on head-up and down behavior computer detection by deep learning and artificial intelligence
CN115457620A (zh) 用户表情识别方法、装置、计算机设备及存储介质
CN113688789A (zh) 一种基于深度学习的在线学习投入度识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20220412

RJ01 Rejection of invention patent application after publication