CN111259844A - 标准化考场考生实时监控方法 - Google Patents

标准化考场考生实时监控方法 Download PDF

Info

Publication number
CN111259844A
CN111259844A CN202010070768.1A CN202010070768A CN111259844A CN 111259844 A CN111259844 A CN 111259844A CN 202010070768 A CN202010070768 A CN 202010070768A CN 111259844 A CN111259844 A CN 111259844A
Authority
CN
China
Prior art keywords
real
examination room
time monitoring
images
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010070768.1A
Other languages
English (en)
Other versions
CN111259844B (zh
Inventor
马苗
王哲
裴昭
杨楷芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN202010070768.1A priority Critical patent/CN111259844B/zh
Publication of CN111259844A publication Critical patent/CN111259844A/zh
Application granted granted Critical
Publication of CN111259844B publication Critical patent/CN111259844B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Educational Administration (AREA)
  • Tourism & Hospitality (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Educational Technology (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种标准化考场考生实时监控方法,由制作单帧考场图像数据集、预处理图像、设置超参数、构建实时监控模型、训练实时监控模型、测试预处理后的测试集图像步骤组成。与现有技术相比,具有网络结构简单、检测速度快和检测精度高等优点,可在标准化考场监控环境下推广使用。

Description

标准化考场考生实时监控方法
技术领域
本发明属于图像处理及目标检测技术领域,具体地涉及到标准化考场监控视频中获得的单帧图像中考生的识别、定位。
背景技术
考试是我国各类人才考核与选拔的重要手段,事关考生切身利益,社会关注度高,近年的各类重要考试中,标准化考场已经发挥着重要作用。在标准化考场的中央视频监控中,一名监控老师需要以人眼观察的方式同时监控9个考场的视频信息。长时间、不间断的连续工作不可避免地会引起监视人员的“视觉疲劳”和“顾此失彼”现象,极易导致考生异常情况漏报,因此将先进的计算机视觉技术融入标准化考场监控大数据,智能地分析考生行为的需求越来越迫切。
对标准化考场中考生位置的准确检测是智能分析考生行为的前提和基础,而基于单帧场景的考生行为涉及图像中的目标检测技术,包含目标识别与定位。目标识别指根据图像中提取的特征判断目标是什么,而目标定位指在图像中进一步找出感兴趣目标的位置信息。考场监控视频单帧图像的学生定位与计数是目标检测技术在标准化考场的一个重要应用,其过程涉及到很多图像处理和图像分析技术,例如对图像中人的形体特征的提取、背景及噪声干扰的抑制、检测区域交并比计算等方面。目前,国内外的图像目标检测方法主要有基于图像阈值的目标检测方法、基于帧间差分和双线性插值的目标检测方法和基于边缘碎片模型的目标识别方法等。上述目标识别及定位方法应用于标准化考场监控视频的单帧图像时,所存在的主要技术问题是目标识别率不高,定位准确度低,甚至出现大量漏检或无法计算等问题。这导致现有方法在标准化考场监控的场景下以学生异常行为检测为目的的应用微乎其微。
发明内容
本发明所要解决的技术问题在于克服现有技术的缺点,提供一种快速、高效的标准化考场考生实时监控方法。
解决上述技术问题所采用的技术方案是由下述步骤组成:
(1)制作单帧考场图像数据集
将标准化考场监控视频按不同的考场划分,每个考场提取时间间隔为10~100分钟的2帧图像,标注出每幅图像中考生所在位置及其类别标签,构成标注文件,图像与其对应的标注文件构成考场图像数据集,将考场图像数据集按1:3~5划分为训练集和测试集。
(2)预处理图像
将训练集和测试集中图像的像素调整为长边W为800~1200像素,短边H为400~800像素的图像。
(3)设置超参数
设置分类数为2、训练集训练轮数为24~48、训练批次尺寸为2~6、基础学习率参数为0.005~0.015、学习率衰减因子为0.85~0.95。
(4)构建实时监控模型
监控模型包括特征提取阶段、特征融合阶段、候选区域建议阶段、分类回归阶段。
1)特征提取阶段,选用MobileNetV2网络作为主干网络提取特征,输出到特征融合阶段。
2)特征融合阶段,将1×1、W/32×H/32、W/16×H/16大小的特征图,通过1×1卷积、双线性插值,调整成大小为W/16×H/16、通道数为256的特征图,三个特征图相加,输出到候选区域建议阶段。
3)候选区域建议阶段,用5×5深度可分离卷积核代替3×3的普通卷积核,将生成特征图输出到分类回归阶段。
4)分类回归阶段,用深度可分离卷积层替代第一个全连接层,减少一层共享全连接层,得到实时监控模型。
(5)训练实时监控模型
通过考场图像数据集训练实时监控模型的步骤为:
1)将标准化考场考生数据集中图像按照步骤(2)进行预处理,输出到实时监控模型,使用imagenet数据集上的权重对实时监控模型的MobileNetV2网络进行初始化;
2)将按步骤(2)预处理后的训练集输入到实时监控模型;设定交叉熵函数为损失函数,使用梯度下降法降低损失函数的损失值进行前向传播和反向传播;反复循环24~48个前向传播和反向传播轮数,并更新网络的权重值和偏置,得到训练好的实时监控模型权重;
(6)测试预处理后的测试集图像
1)设置测试参数
设置目标的类别置信度阈值为0.5~0.8;
2)测试
将步骤(2)预处理后的测试集内的图像输入到训练好的实时监控模型中,得到图像中每个目标的位置坐标、所属类别以及所属类别的置信度;
3)筛选检测结果
在检测结果中,保留类别置信度大于置信度阈值的目标位置坐标信息、类别信息和所属类别的置信度信息;
4)输出考生位置
输出图像中类别置信度大于置信度阈值的考生位置信息和定位结果图。
在本发明的制作单帧考场图像数据集步骤(1)中,将标准化考场监控视频按不同的考场划分,每个考场提取时间间隔为30分钟的2帧图像,标注出每幅图像中考生所在位置及其类别标签,构成标注文件,图像与其对应的标注文件构成考场图像数据集,将考场图像数据集按1:4划分为训练集和测试集。
在本发明的预处理图像步骤(2)中,将训练集和测试集中图像的像素调整为长边W为1000像素,短边H为600像素的图像;在构建实时监控模型步骤(4)的步骤2)中,所述的构建实时监控模型为:将1×1、1000/32×600/32、1000/16×600/16大小的特征图,通过1×1卷积、双线性插值,调整大小为1000/16×600/16、通道数为256的特征图,三个特征图相加,输出到候选区域建议阶段。
在本发明设置超参数步骤(3)中,设置分类数最佳为2、训练集训练轮数最佳为36、训练批次尺寸最佳为4、基础学习率参数最佳为0.01、学习率衰减因子为最佳为0.9。
在本发明的测试预处理后的测试集图像步骤(6)的步骤1)中,目标的类别置信度阈值最佳为0.7。
本发明采用考场监控视频获取单帧图像,制作成考场图像数据集,划分为训练集和测试集,对数据集中图像大小进行预处理,构建标准化考场实时监控模型,将预处理后的训练集输入实时监控模型进行训练,提取图像特征并利用损失函数优化网络。用预处理后的测试集测试网络并输出考生定位结果。与现有技术相比,具有网络结构简单、检测速度快和检测精度高等优点,可在标准化考场监控环境下推广使用。
附图说明
图1是本发明标准化考场监控的实验的流程图。
图2是标准化考场监控单帧图像数据集中随机抽取的9张图片的原图。
图3是图2在实施案例1下的考生定位效果图。
具体实施方式
下面结合附图和实例对本发明进行进一步的说明,但本发明不限于下述实例。
实施例1
从标准化考场考生数据集中选取9张像素为704×576的考场图像(见图2)为例,在图1中,本实施例的标准化考场考生实时监控方法,由下述步骤组成:
(1)制作单帧考场图像数据集
将标准化考场监控视频按不同的考场划分,每个考场提取时间间隔为30分钟的2帧图像,标注出每幅图像中考生所在位置及其类别标签,构成标注文件,图像与其对应的标注文件构成考场图像数据集,将考场图像数据集按1:4划分为训练集和测试集。
(2)预处理图像
将训练集和测试集中图像的像素调整为长边W为1000像素,短边H为600像素的图像。
(3)设置超参数
设置分类数为2、训练集训练轮数为36、训练批次尺寸为4、基础学习率参数为0.01、学习率衰减因子为0.9。
(4)构建实时监控模型
监控模型包括特征提取阶段、特征融合阶段、候选区域建议阶段、分类回归阶段;
1)特征提取阶段,选用MobileNetV2网络作为主干网络提取特征,输出到特征融合阶段,MobileNetV2网络为已知网络,已在CVPR国际会议2018年6月公开。通过此阶段改进,网络模型的参数量由64.4兆减少到18.89兆。
2)特征融合阶段,将1×1、W/32×H/32、W/16×H/16大小的特征图,通过1×1卷积、双线性插值,调整成大小为W/16×H/16、通道数为256的特征图,三个特征图相加,输出到候选区域建议阶段;本实施例的W为1000,H为600。通过此阶段改进检测图片帧率由8.88帧数/秒提高到11.12帧数/秒。
3)候选区域建议阶段,用5×5深度可分离卷积核代替3×3的普通卷积核,将生成特征图输出到分类回归阶段。通过此阶段改进检测图片帧率由11.12帧数/秒提高到25.63帧数/秒。
4)分类回归阶段,用深度可分离卷积层替代第一个全连接层,减少一层共享全连接层,得到实时监控模型。通过此阶段改进模型参数量由17.02兆减少到4.19兆,同时检测图片帧率由25.63帧数/秒提高到26.70帧数/秒。
(5)训练实时监控模型
通过考场图像数据集训练实时监控模型的步骤为:
1)将标准化考场考生数据集中图像按照步骤(2)进行预处理,输出到实时监控模型,使用imagenet数据集上的权重初始化实时监控模型的MobileNetV2网络权重,初始化的方法为本技术领域的常规方法。
2)将按步骤(2)预处理后的训练集输入到实时监控模型;设定交叉熵函数L为损失函数如下:
Figure BDA0002377265050000061
其中y(i)为第i类期望输出,取值为0或1,
Figure BDA0002377265050000062
为第i类实际输出,取值为0~1区间的实数,N是总类别数目、为有限的正整数,使用梯度下降法降低损失函数的损失值进行前向传播和反向传播,梯度下降法为本技术领域的常规方法;反复循环24~48个前向传播和反向传播轮数,并更新网络的权重值和偏置,得到训练好的实时监控模型权重。
(6)测试预处理后的测试集图像
1)设置测试参数
设置目标的类别置信度阈值为0.7。
2)测试
将步骤(2)预处理后的测试集内的图像输入到训练好的实时监控模型中,得到图像中每个目标的位置坐标、所属类别以及所属类别的置信度。
3)筛选检测结果
在检测结果中,保留类别置信度大于置信度阈值的目标位置坐标信息、类别信息和所属类别的置信度信息。
4)输出考生位置
输出图像中类别置信度大于置信度阈值的考生位置信息和定位结果图,见图3。由图2、3可见,该实时监控模型可以准确获取考生的位置信息。
实施例2
从标准化考场考生数据集中选取9张像素为704×576的考场图像为例,本实施例的标准化考场考生实时监控方法,由下述步骤组成:
(1)制作单帧考场图像数据集
将标准化考场监控视频按不同的考场划分,每个考场提取时间间隔为10分钟的2帧图像,标注出每幅图像中考生所在位置及其类别标签,构成标注文件,图像与其对应的标注文件构成考场图像数据集,将考场图像数据集按1:3划分为训练集和测试集。
(2)预处理图像
将训练集和测试集中图像的像素调整为长边W为800像素,短边H为400像素的图像。
(3)设置超参数
设置分类数为2、训练集训练轮数为24、训练批次尺寸为2、基础学习率参数为0.005、学习率衰减因子为0.85。
(4)构建实时监控模型
监控模型包括特征提取阶段、特征融合阶段、候选区域建议阶段、分类回归阶段;
1)特征提取阶段,选用MobileNetV2网络作为主干网络提取特征,输出到特征融合阶段;
2)特征融合阶段,将1×1、W/32×H/32、W/16×H/16大小的特征图,通过1×1卷积、双线性插值,调整成大小为W/16×H/16、通道数为256的特征图,三个特征图相加,输出到候选区域建议阶段;本实施例的W为800,H为400。
该步骤的其它步骤与实施例1相同。
(5)训练实时监控模型
该步骤与实施例1相同。
(6)测试预处理后的测试集图像
1)设置测试参数
设置目标的类别置信度阈值为0.5。
该步骤与实施例1相同。
其它步骤与实施例1相同。
实施例3
从标准化考场考生数据集中选取9张像素为704×576的考场图像为例,本实施例的标准化考场考生实时监控方法,由下述步骤组成:
(1)制作单帧考场图像数据集
将标准化考场监控视频按不同的考场划分,每个考场提取时间间隔为100分钟的2帧图像,标注出每幅图像中考生所在位置及其类别标签,构成标注文件,图像与其对应的标注文件构成考场图像数据集,将考场图像数据集按1:5划分为训练集和测试集。
(2)预处理图像
将训练集和测试集中图像的像素调整为长边W为1200像素,短边H为800像素的图像。
(3)设置超参数
设置分类数为2、训练集训练轮数为48、训练批次尺寸为6、基础学习率参数为0.015、学习率衰减因子为0.95。
(4)构建实时监控模型
监控模型包括特征提取阶段1、特征融合阶段2、候选区域建议阶段3、分类回归阶段4;
1)特征提取阶段1,选用MobileNetV2网络作为主干网络提取特征,输出到特征融合阶段;
2)特征融合阶段2,将1×1、W/32×H/32、W/16×H/16大小的特征图,通过1×1卷积、双线性插值,调整成大小为W/16×H/16、通道数为256的特征图,三个特征图相加,输出到候选区域建议阶段;本实施例的W为1200,H为800。
该步骤的其它步骤与实施例1相同。
(5)训练实时监控模型
该步骤与实施例1相同。
(6)测试预处理后的测试集图像
1)设置测试参数
设置目标的类别置信度阈值为0.8。
该步骤与实施例1相同。
其它步骤与实施例1相同。
为了验证本发明的有益效果,发明人采用本发明实施例1的标准化考场考生实时监控方法与现有的目标检测(FPN)方法、目标检测(Retinanet)方法、目标检测(SSD512)方法进行了对比试验,实验结果见表1。
表1改进后模型和现有模型性能对比表
网络模型 参数量(兆) 平均精度(%) 训练时间(分钟/轮) 测试速度(帧数/秒)
FPN 60.44 89.9 10.22 6.70
Retinanet 55.72 89.4 7.74 8.64
SSD512 27.19 89.5 3.56 10.64
实施例1 4.19 88.2 3.10 26.70
由表1可见,本发明实时监控模型参数量比其它3种方法减少为4.19M;平均精度比最好的FPN模型下降了1.7%,达到88.2%;训练时间为3.10分钟/轮,最少;测试速度达到26.70帧数/秒,比其它3种方法提升,满足实时性要求。

Claims (5)

1.一种标准化考场考生实时监控方法,其特征在于由下述步骤组成:
(1)制作单帧考场图像数据集
将标准化考场监控视频按不同的考场划分,每个考场提取时间间隔为10~100分钟的2帧图像,标注出每幅图像中考生所在位置及其类别标签,构成标注文件,图像与其对应的标注文件构成考场图像数据集,将考场图像数据集按1:3~5划分为训练集和测试集;
(2)预处理图像
将训练集和测试集中图像的像素调整为长边W为800~1200像素,短边H为400~800像素的图像;
(3)设置超参数
设置分类数为2、训练集训练轮数为24~48、训练批次尺寸为2~6、基础学习率参数为0.005~0.015、学习率衰减因子为0.85~0.95;
(4)构建实时监控模型
监控模型包括特征提取阶段、特征融合阶段、候选区域建议阶段、分类回归阶段;
1)特征提取阶段,选用MobileNetV2网络作为主干网络提取特征,输出到特征融合阶段;
2)特征融合阶段,将1×1、W/32×H/32、W/16×H/16大小的特征图,通过1×1卷积、双线性插值,调整成大小为W/16×H/16、通道数为256的特征图,三个特征图相加,输出到候选区域建议阶段;
3)候选区域建议阶段,用5×5深度可分离卷积核代替3×3的普通卷积核,将生成特征图输出到分类回归阶段;
4)分类回归阶段,用深度可分离卷积层替代第一个全连接层,减少一层共享全连接层,得到实时监控模型;
(5)训练实时监控模型
通过考场图像数据集训练实时监控模型的步骤为:
1)将标准化考场考生数据集中图像按照步骤(2)进行预处理,输出到实时监控模型,使用imagenet数据集上的权重对实时监控模型的MobileNetV2网络进行初始化;
2)将按步骤(2)预处理后的训练集输入到实时监控模型;设定交叉熵函数为损失函数,使用梯度下降法降低损失函数的损失值进行前向传播和反向传播;反复循环24~48个前向传播和反向传播轮数,并更新网络的权重值和偏置,得到训练好的实时监控模型权重;
(6)测试预处理后的测试集图像
1)设置测试参数
设置目标的类别置信度阈值为0.5~0.8;
2)测试
将步骤(2)预处理后的测试集内的图像输入到训练好的实时监控模型中,得到图像中每个目标的位置坐标、所属类别以及所属类别的置信度;
3)筛选检测结果
在检测结果中,保留类别置信度大于置信度阈值的目标位置坐标信息、类别信息和所属类别的置信度信息;
4)输出考生位置
输出图像中类别置信度大于置信度阈值的考生位置信息和定位结果图。
2.根据权利要求1所述的标准化考场考生实时监控方法,其特征在于:所述的在制作单帧考场图像数据集步骤(1)中,将标准化考场监控视频按不同的考场划分,每个考场提取时间间隔为30分钟的2帧图像,标注出每幅图像中考生所在位置及其类别标签,构成标注文件,图像与其对应的标注文件构成考场图像数据集,将考场图像数据集按1:4划分为训练集和测试集。
3.根据权利要求1所述的标准化考场考生实时监控方法,其特征在于:在预处理图像步骤(2)中,将训练集和测试集中图像的像素调整为长边W为1000像素,短边H为600像素的图像;在构建实时监控模型步骤(4)的步骤2)中,所述的构建实时监控模型为:将1×1、1000/32×600/32、1000/16×600/16大小的特征图,通过1×1卷积、双线性插值,调整大小为1000/16×600/16、通道数为256的特征图,三个特征图相加,输出到候选区域建议阶段。
4.根据权利要求1所述的标准化考场考生实时监控方法,其特征在于:在设置超参数步骤(3)中,设置分类数为2、训练集训练轮数为36、训练批次尺寸为4、基础学习率参数为0.01、学习率衰减因子为0.9。
5.根据权利要求1所述的标准化考场考生实时监控方法,其特征在于:所述的测试预处理后的测试集图像步骤(6)的步骤1)中,目标的类别置信度阈值为0.7。
CN202010070768.1A 2020-01-21 2020-01-21 标准化考场考生实时监控方法 Active CN111259844B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010070768.1A CN111259844B (zh) 2020-01-21 2020-01-21 标准化考场考生实时监控方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010070768.1A CN111259844B (zh) 2020-01-21 2020-01-21 标准化考场考生实时监控方法

Publications (2)

Publication Number Publication Date
CN111259844A true CN111259844A (zh) 2020-06-09
CN111259844B CN111259844B (zh) 2023-02-24

Family

ID=70949078

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010070768.1A Active CN111259844B (zh) 2020-01-21 2020-01-21 标准化考场考生实时监控方法

Country Status (1)

Country Link
CN (1) CN111259844B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814704A (zh) * 2020-07-14 2020-10-23 陕西师范大学 基于级联注意力与点监督机制的全卷积考场目标检测方法
CN112036299A (zh) * 2020-08-31 2020-12-04 山东科技大学 标准考场环境下的考试作弊行为检测方法及系统
CN114140751A (zh) * 2021-12-13 2022-03-04 江苏商贸职业学院 一种考场监控方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109711377A (zh) * 2018-12-30 2019-05-03 陕西师范大学 标准化考场监控的单帧图像中考生定位和计数方法
CN109961037A (zh) * 2019-03-20 2019-07-02 中共中央办公厅电子科技学院(北京电子科技学院) 一种考场视频监控异常行为特征识别方法
CN110222559A (zh) * 2019-04-24 2019-09-10 深圳市微纳集成电路与系统应用研究院 基于卷积神经网络的烟雾图像检测方法及装置
WO2019169942A1 (zh) * 2018-03-09 2019-09-12 华南理工大学 抗角度与遮挡干扰的快速人脸识别方法
CN110378232A (zh) * 2019-06-20 2019-10-25 陕西师范大学 改进的ssd双网络的考场考生位置快速检测方法
CN110472500A (zh) * 2019-07-09 2019-11-19 北京理工大学 一种基于高速无人艇的水面视觉目标快速检测算法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019169942A1 (zh) * 2018-03-09 2019-09-12 华南理工大学 抗角度与遮挡干扰的快速人脸识别方法
CN109711377A (zh) * 2018-12-30 2019-05-03 陕西师范大学 标准化考场监控的单帧图像中考生定位和计数方法
CN109961037A (zh) * 2019-03-20 2019-07-02 中共中央办公厅电子科技学院(北京电子科技学院) 一种考场视频监控异常行为特征识别方法
CN110222559A (zh) * 2019-04-24 2019-09-10 深圳市微纳集成电路与系统应用研究院 基于卷积神经网络的烟雾图像检测方法及装置
CN110378232A (zh) * 2019-06-20 2019-10-25 陕西师范大学 改进的ssd双网络的考场考生位置快速检测方法
CN110472500A (zh) * 2019-07-09 2019-11-19 北京理工大学 一种基于高速无人艇的水面视觉目标快速检测算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
魏伟航等: "改进卷积神经网络在图像烟雾检测的应用", 《智能计算机与应用》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111814704A (zh) * 2020-07-14 2020-10-23 陕西师范大学 基于级联注意力与点监督机制的全卷积考场目标检测方法
CN112036299A (zh) * 2020-08-31 2020-12-04 山东科技大学 标准考场环境下的考试作弊行为检测方法及系统
CN112036299B (zh) * 2020-08-31 2022-12-13 山东科技大学 标准考场环境下的考试作弊行为检测方法及系统
CN114140751A (zh) * 2021-12-13 2022-03-04 江苏商贸职业学院 一种考场监控方法及系统
CN114140751B (zh) * 2021-12-13 2024-02-09 江苏商贸职业学院 一种考场监控方法及系统

Also Published As

Publication number Publication date
CN111259844B (zh) 2023-02-24

Similar Documents

Publication Publication Date Title
CN109711377B (zh) 标准化考场监控的单帧图像中考生定位和计数方法
CN111259844B (zh) 标准化考场考生实时监控方法
CN108428227B (zh) 基于全卷积神经网络的无参考图像质量评价方法
CN107172418B (zh) 一种基于曝光情况分析的色阶映射图像质量评价方法
CN110378232B (zh) 改进的ssd双网络的考场考生位置快速检测方法
CN109034036B (zh) 一种视频分析方法、教学质量评估方法及系统、计算机可读存储介质
CN111898406B (zh) 基于焦点损失和多任务级联的人脸检测方法
CN110009210B (zh) 一种基于关注度和专注度的学生听课水平综合评估方法
CN109214298B (zh) 一种基于深度卷积网络的亚洲女性颜值评分模型方法
CN110400293B (zh) 一种基于深度森林分类的无参考图像质量评价方法
CN105741328A (zh) 基于视觉感知的拍摄图像质量评价方法
CN110135282B (zh) 一种基于深度卷积神经网络模型的考生回头抄袭作弊检测方法
CN110232379A (zh) 一种车辆姿态检测方法及系统
CN109191460A (zh) 一种对于色调映射图像的质量评价方法
CN110096945B (zh) 基于机器学习的室内监控视频关键帧实时提取方法
CN110443800A (zh) 视频图像质量的评价方法
CN105894507B (zh) 基于图像信息量自然场景统计特征的图像质量评价方法
CN106023214B (zh) 基于中央凹视梯度结构相似性的图像质量评价方法及系统
CN111666852A (zh) 一种基于卷积神经网络的微表情双流网络识别方法
CN113177937A (zh) 基于改进YOLOv4-tiny的布匹缺陷检测模型及方法
CN113705510A (zh) 目标识别跟踪的方法、装置、设备及存储介质
CN109754390A (zh) 一种基于混合视觉特征的无参考图像质量评价方法
CN106934770A (zh) 一种评价雾霾图像去雾效果的方法和装置
CN110503092B (zh) 基于领域适应的改进ssd监控视频目标检测方法
CN111539404A (zh) 一种基于结构线索的全参考图像质量评估方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant