CN112115870A - 一种基于YOLOv3的考试作弊小抄识别方法 - Google Patents

一种基于YOLOv3的考试作弊小抄识别方法 Download PDF

Info

Publication number
CN112115870A
CN112115870A CN202010992055.0A CN202010992055A CN112115870A CN 112115870 A CN112115870 A CN 112115870A CN 202010992055 A CN202010992055 A CN 202010992055A CN 112115870 A CN112115870 A CN 112115870A
Authority
CN
China
Prior art keywords
paper
examination
axis coordinate
student
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010992055.0A
Other languages
English (en)
Inventor
陈润彬
樊奕良
陈斗
许方园
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Runbei Intelligent Environment Research Institute Co ltd
Original Assignee
Nanjing Runbei Intelligent Environment Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Runbei Intelligent Environment Research Institute Co ltd filed Critical Nanjing Runbei Intelligent Environment Research Institute Co ltd
Priority to CN202010992055.0A priority Critical patent/CN112115870A/zh
Publication of CN112115870A publication Critical patent/CN112115870A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Educational Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于YOLOv3的考试作弊小抄识别方法,包括:学生端设置眼镜摄像头和正常考试纸张分析判断单元;正常考试纸张分析判断单元将采集考试纸张图像数据、标识符的图像数据,基于YOLOv3神经网络训练出目标识别网络;通过学生的眼镜摄像头进行采集学生端视频数据,并将学生端视频数据传输人目标识别网络;目标识别网络通过判断学学生端视频数据中的标识符是否在纸张中实现判断采集的学生端视频数据中的纸张是否为考试纸张;如果不是则判断出为非正常考试纸张事件,并将该非正常考试纸张事件的数据通过通信模块传输至监考管理端。本发明通过眼镜摄像头直接采集学生端视觉信息,分析非正常考试纸张,提高判断准确率。

Description

一种基于YOLOv3的考试作弊小抄识别方法
技术领域
本发明涉及图像识别领域,具体涉及一种基于YOLOv3的考试作弊小抄识别方法。
背景技术
随着互联网以及大数据应用的快速发展,线上授课,线上考试已经成为一种新的现在教学方式。而今年由于疫情的原因,学生与老师大部分只能在家学习与授课,这加速了线上授课与线上考试的普及,因此网上教学、网上授课已然成为了大众所认可的教学方式之一。虽然线上教学或考试可以打破空间与时间维度完成教学任务,但由于其先天缺点,学生处于无人监管的状态。当无监考人员监督学生考试时,则会导致无法检查控制考生的作弊行为,给考生的作弊提供了更大的可能性。
近年来,随着人工智能的迅速升温,人工智能结合互联网,视频监控等技术,实现各种现代化工作,提高生产过程可控性,减少人干预,提高工作效率等目的。目标检测算法是人工智计算机视觉中的一大方向,目标检测主要是通过提取待检测目标的多个样本不用尺度特征训练分类器,训练完成后在待检测图像上做滑动窗口搜索,判断扫描窗口区域是检测目标还是背景,最终输出图像中待检测目标额位置和区域。因此结合目标检测方法在线上实现考试作弊小抄具有一定的实用价值。
目前的在线考试小抄作弊行为检测分为人工监考与自动监考两类:人工监考为监考员通过在线考试系统提供考生实时画面或不定时截取考试画面,由监考人员在后台判断是否存在作弊嫌疑;自动监考为采集在线考试系统得到的图像数据进行处理分析,如识别考生的头部姿态、面部表情等方法进行作弊行为的判断。
人工监管需要教师与学生一对一或一对多进行监管,该方法可以确保监考的全面性,并且监考员长时间对监考屏幕保持观察容易产生视觉疲劳,同时,人工监考不可避免的存在主观因素等,在线考试所要求的公平性无法。
目前自动监考的在线考试作弊行为检测方法有基于头部姿态、基于注视点估计、基于语音检测等。系统通过电脑屏幕前的摄像头视频数据,经过MT-CNN人脸检测、ResNet50神经网络、XGBoost等方法对学生进行头部姿态、屏幕注视点估计及嘴部状态识别,结合上诉方法进行在线考试作弊行为检测。该方法通过对考生的动作行为进行识别然后判断考生是否有作弊嫌疑。
但由于在考试时每个考生都有不同的“考试小动作”让自己处于放松状态,对考生行为进行识别与判断的考试作弊检测方法很容易对考生的无意动作发生误判。导致准确率下降,提高了监考端的工作成本,增加教师的工作量。
发明内容
1.所要解决的技术问题:
针对上述技术问题,本发明提供一种基于YOLOv3的考试作弊小抄识别方法,通过在学生端收集学生的视觉信息并处理数据,而非处理电脑屏幕前的摄像头视频数据。本方案中由学生佩戴配有摄像头的眼镜收集学生视觉数据,然后对学生视觉的视频数据进行处理,识别视频中的纸张与标识符,计算纸张与标识符的相对位置,判断该纸张是否为作弊小抄。随后把非正常考试纸张分析结果数据包上传到监考管理端对考生的作弊嫌疑行为进行审核。因此解决了单纯对学生进行头部识别、表情识别时考生无意动作的误判别可能性,直接识别考生的第一人称视觉数据能够剔除许多第三人称视角数据所带来的附加干扰信息,提高了准确率降低监考端监考员的工作成本,降低了其工作量。
2.技术方案:
一种基于YOLOv3的考试作弊小抄识别方法,包括以下步骤:
步骤一:学生端设置眼镜摄像头以及正常考试纸张分析判断单元;所述眼镜摄像头将采集的视频数据传输至非正常考试纸张分析判断单元;所述正常考试纸张分析判断单元将采集考试纸张图像数据、标识符的图像数据,基于YOLOv3神经网络,训练出目标识别网络。
步骤二:通过学生的眼镜摄像头进行采集学生端视频数据,并将学生端视频数据传输人目标识别网络。
步骤三:目标识别网络通过判断学学生端视频数据中的标识符是否在纸张中实现判断采集的学生端视频数据中的纸张是否为考试纸张;如果不是则判断出为非正常考试纸张事件,并将该非正常考试纸张事件的数据通过通信模块传输至监考管理端。
进一步地,为了能够提高标识符的识别精度,步骤一中的YOLOv3神经网络采用Darknet-53作为骨干网络,识别输入的学生端视频帧数据,通过多尺度的预测将高层的特征语义信息能传输到低层的特征语义信息,使得对属于小物体的标识符的识别更为精准。
进一步地,步骤三中,正常考试纸张分析判断单元通过目标识别网络识别是否为考试纸张具体包括以下步骤:
S31:将学生端视频数据带入模型中,设识别图片中的纸张数目为J,标识符的数目为K,并把标识符的四个坐标组成四个标识符坐标集合,如公式(1)所示:
Figure BDA0002691185230000021
(1)式中
Figure BDA0002691185230000031
分别表示识别图片中第k个标识符的x轴坐标最小值,y轴坐标最小值,x轴坐标最大值,y轴坐标最大值;Xfmin、Yfmin、Xfmax、Yfmax分别表示图片中所有标识符x轴坐标最小值的集合,y轴坐标最小值的集合,x轴坐标最大值的集合,y轴坐标最大值的集合。
S32:根据纸张四点坐标与标识符集合的坐标位置,判断图中识别的每张纸是否为答题纸,若是则输出0,若否则输出1,如公式(2)所示:
Figure BDA0002691185230000032
公式(2)中P(j)表示图片中的第j张纸的识别结果,
Figure BDA0002691185230000033
分别表示图片中第j张纸的x轴坐标最小值,y轴坐标最小值,x轴坐标最大值,y轴坐标最大值;公式(2)表示当标识符的所有坐标被目标纸张包围时,目标纸张为印有特殊标识符的答题纸,并输出为1;否则目标纸张为非考试纸张,并输出为0。
S33:学生端视频数据中的每一帧的输出结果如公式(3)所示:
Figure BDA0002691185230000034
式(3)中,若result结果等于0时,表示视频帧中没有出现纸张,或出现的纸张为考试答题纸;若result结果大于等于1,则表示视频帧中出现非正常考试纸张,有夹带小抄作弊的嫌疑;当判断单元输出目标是为非正常考试纸张时,则记录学生ID、非正常事件时间段、纸张识别结果视频证据信息组成非正常考试纸张事件数据包。
进一步地,非正常考试纸张事件的数据包括学生ID号,非正常事件时间段、纸张识别结果视频证据。
3.有益效果:
(1)本发明采用YOLOv3网络作为纸张与标识符的识别网络。YOLOv3时目标检测方法中回归法的一种,相比于Fast R-CNN与Faster R-CNN等候选法具有速度快,结构简单等优点,使得纸张识别模块能够实时进行。YOLOv3采用Darknet-53作为骨干网络,同时加入了多尺度预测。如图3所示为网络的输入与输出形式,通过提取网络最后三层的特征,经过上采样把上层特征与下层特征进行融合,使得最后的特征层拥有高层特征信息。由于高层特征对小物体信息较为敏感,从而提高对小物体的识别,这有助于提升答题纸上的标识符的识别精度。
(2)本发明中监考员在后台通过直接观察学生屏幕判断是否有小抄作弊嫌疑的人工监考相比,本发明通过自动处理学生端的视频信息,自动判别学生是否有夹带小抄纸张的嫌疑,这大大减少了监考员的工作量。
(3)本发明通过眼镜摄像头直接采集学生的视觉信息,分析处理视频帧中是否出现非正常考试纸张。直接处理学生的作答考试的第一信息源视角信息,提高判断准确率。
(4)本发明采用YOLOv3模型方法处理图片信息,达到实时监测的效果,能够即时对考生做出警告相应处理。
附图说明
图1为本发明的流程图;
图2为本发明中目标识别网络识别非正常考试纸张的流程图;
图3为本发明中YOLOv3输入与输出形式。
具体实施方式
下面结合附图对本发明进行具体的说明。
如附图1至附图3所示,一种基于YOLOv3的考试作弊小抄识别方法,包括以下步骤:
步骤一:学生端设置眼镜摄像头以及正常考试纸张分析判断单元;所述眼镜摄像头将采集的视频数据传输至非正常考试纸张分析判断单元;所述正常考试纸张分析判断单元将采集考试纸张图像数据、标识符的图像数据,基于YOLOv3神经网络,训练出目标识别网络。
步骤二:通过学生的眼镜摄像头进行采集学生端视频数据,并将学生端视频数据传输人一种基于YOLOv3的考试作弊小抄识别方法,包括以下步骤:
步骤一:学生端设置眼镜摄像头以及正常考试纸张分析判断单元;所述眼镜摄像头将采集的视频数据传输至非正常考试纸张分析判断单元;所述正常考试纸张分析判断单元将采集考试纸张图像数据、标识符的图像数据,基于YOLOv3神经网络,训练出目标识别网络。
步骤二:通过学生的眼镜摄像头进行采集学生端视频数据,并将学生端视频数据传输人目标识别网络。
步骤三:目标识别网络通过判断学学生端视频数据中的标识符是否在纸张中实现判断采集的学生端视频数据中的纸张是否为考试纸张;如果不是则判断出为非正常考试纸张事件,并将该非正常考试纸张事件的数据通过通信模块传输至监考管理端。
进一步地,为了能够提高标识符的识别精度,步骤一中的YOLOv3神经网络采用Darknet-53作为骨干网络,识别输入的学生端视频帧数据,通过多尺度的预测将高层的特征语义信息能传输到低层的特征语义信息,使得对属于小物体的标识符的识别更为精准。
进一步地,步骤三中,正常考试纸张分析判断单元通过目标识别网络识别是否为考试纸张具体包括以下步骤:
S31:将学生端视频数据带入模型中,设识别图片中的纸张数目为J,标识符的数目为K,并把标识符的四个坐标组成四个标识符坐标集合,如公式(1)所示:
Figure BDA0002691185230000051
(1)式中
Figure BDA0002691185230000052
分别表示识别图片中第k个标识符的x轴坐标最小值,y轴坐标最小值,x轴坐标最大值,y轴坐标最大值;Xfmin、Yfmin、Xfmax、Yfmax分别表示图片中所有标识符x轴坐标最小值的集合,y轴坐标最小值的集合,x轴坐标最大值的集合,y轴坐标最大值的集合。
S32:根据纸张四点坐标与标识符集合的坐标位置,判断图中识别的每张纸是否为答题纸,若是则输出0,若否则输出1,如公式(2)所示:
Figure BDA0002691185230000053
公式中P(j)表示图片中的第j张纸的识别结果,
Figure BDA0002691185230000054
分别表示图片中第j张纸的x轴坐标最小值,y轴坐标最小值,x轴坐标最大值,y轴坐标最大值;公式(2)表示当标识符的所有坐标被目标纸张包围时,目标纸张为印有特殊标识符的答题纸,并输出为1;否则目标纸张为非考试纸张,并输出为0。
S33:学生端视频数据中的每一帧的输出结果如公式(3)所示:
Figure BDA0002691185230000055
若result结果等于0时,表示视频帧中没有出现纸张,或出现的纸张为考试答题纸;若result结果大于等于1,则表示视频帧中出现非正常考试纸张,有夹带小抄作弊的嫌疑;当判断单元输出目标是为非正常考试纸张时,则记录学生ID、非正常事件时间段、纸张识别结果视频证据信息组成非正常考试纸张事件数据包。
步骤三:目标识别网络通过判断学学生端视频数据中的标识符是否在纸张中实现判断采集的学生端视频数据中的纸张是否为考试纸张;如果不是则判断出为非正常考试纸张事件,并将该非正常考试纸张事件的数据通过通信模块传输至监考管理端。
进一步地,步骤一中的YOLOv3神经网络采用Darknet-53作为骨干网络,识别输入的学生端视频数据中的试卷纸图片信号,通过多尺度的预测将高层的特征语义信息能传输到低层的特征语义信息,使得对标识符识别更为精准。
进一步地,步骤三中,正常考试纸张分析判断单元通过目标识别网络识别是否为考试纸张具体包括以下步骤:
S31:将学生端视频数据带入模型中,设识别图片中的纸张数目为J,标识符的数目为K,并把标识符的四个坐标组成四个标识符坐标集合,如公式(1)所示:
Figure BDA0002691185230000061
(1)式中
Figure BDA0002691185230000062
分别表示识别图片中第k个标识符的x轴坐标最小值,y轴坐标最小值,x轴坐标最大值,y轴坐标最大值;Xfmin、Yfmin、Xfmax、Yfmax分别表示图片中所有标识符x轴坐标最小值的集合,y轴坐标最小值的集合,x轴坐标最大值的集合,y轴坐标最大值的集合。
S32:根据纸张四点坐标与标识符集合的坐标位置,判断图中识别的每张纸是否为答题纸,若是则输出0,若否则输出1,如公式(2)所示:
Figure BDA0002691185230000063
公式中P(j)表示图片中的第j张纸的识别结果,
Figure BDA0002691185230000064
分别表示图片中第j张纸的x轴坐标最小值,y轴坐标最小值,x轴坐标最大值,y轴坐标最大值;公式(2)表示当标识符的所有坐标被目标纸张包围时,目标纸张为印有特殊标识符的答题纸,并输出为1;否则目标纸张为非考试纸张,并输出为0。
S33:学生端视频数据中的每一帧的输出结果如公式(3)所示:
Figure BDA0002691185230000065
若result结果等于0时,表示视频帧中没有出现纸张,或出现的纸张为考试答题纸;若result结果大于等于1,则表示视频帧中出现非正常考试纸张,有夹带小抄作弊的嫌疑;当判断单元输出目标是为非正常考试纸张时,则记录学生ID、非正常事件时间段、纸张识别结果视频证据信息组成非正常考试纸张事件数据包。
具体实施例:
在进行图片的目标检测前我们首先需要训练yolov3网络,即在图2中的目标识别检测网络。通过输入已经打好标签的纸张数据与标识符数据,对网络进行训练直至损失值不在下降。其中纸张数据与标识符数据的训练标签格式为(xi,yi,wi,hi,ci),其中xi,yi表示第i个数据的中心点坐标,wi,hi表示第i个数据的长和宽,ci表示标签的类别。
图2中YOLOv3最后的输出层维度的前两个乘积表示该特征层的网格数,第三个乘积数表示先验框数,即输出层的每个网格数都有3个先验框,第四个乘积数中4是指每个先验框的四个坐标数据,1是指物体识别的置信度,2是指类别的数量,本发明所需检测的类别为纸张与标识符。
每个输出先验框数据为(xi,yi,wi,hi,C,c1,c2),其中xi,yi表示先验框的中心点坐标,wi,hi表示先验框的长宽,C表示物体识别置信度,c1,c2,表示类别。正好对应上述先验框输出的4个坐标数据、1个物体识别置信度,2个数量的类别。我们通过训练yolov3的损失函数,提升先验框对物体的识别精度。
具体的,YOLOv3的损失函数为:
Figure BDA0002691185230000071
L=L1+L2-L3-L4-L5 (5)
在公式(4)中L1表示中心坐标误差,其中λcoord为常数,
Figure BDA0002691185230000072
表示第i个网格的第j个先验框是否负责预测obj物体,是则为1,否则为0,xi、yi表示预测物体的中心坐标值,
Figure BDA0002691185230000073
Figure BDA0002691185230000074
表示物体的真实中心坐标;L2表示宽高坐标误差wi、hi表示预测物体的高宽,
Figure BDA0002691185230000075
表示物体的真实高宽;L3与L4表示置信度误差,
Figure BDA0002691185230000076
表示预测网格是否有物体的概率,
Figure BDA0002691185230000077
表示网格是否真实有物体,损失函数分为两部分:有物体,没有物体,其中没有物体损失部分增加了λnoord权重系数。L5表示分类误差,
Figure BDA0002691185230000078
表示分类为c类别的概率,
Figure BDA0002691185230000079
表示真实类别。公式(5)为YOLOv3的损失函数。
虽然本发明已以较佳实施例公开如上,但它们并不是用来限定本发明的,任何熟习此技艺者,在不脱离本发明之精神和范围内,自当可作各种变化或润饰,因此本发明的保护范围应当以本申请的权利要求保护范围所界定的为准。

Claims (4)

1.一种基于YOLOv3的考试作弊小抄识别方法,其特征在于:包括以下步骤:
步骤一:学生端设置眼镜摄像头以及正常考试纸张分析判断单元;所述眼镜摄像头将采集的视频数据传输至非正常考试纸张分析判断单元;所述正常考试纸张分析判断单元将采集考试纸张图像数据、标识符的图像数据,基于YOLOv3神经网络,训练出目标识别网络;
步骤二:通过学生的眼镜摄像头进行采集学生端视频数据,并将学生端视频数据传输人目标识别网络;
步骤三:目标识别网络通过判断学学生端视频数据中的标识符是否在纸张中实现判断采集的学生端视频数据中的纸张是否为考试纸张;如果不是则判断出为非正常考试纸张事件,并将该非正常考试纸张事件的数据通过通信模块传输至监考管理端。
2.根据权利要求1所述的一种基于YOLOv3的考试作弊小抄识别方法,其特征在于:为了能够提高标识符的识别精度,步骤一中的YOLOv3神经网络采用Darknet-53作为骨干网络,识别输入的学生端视频帧数据,通过多尺度的预测将高层的特征语义信息能传输到低层的特征语义信息,使得对属于小物体的标识符的识别更为精准。
3.根据权利要求1所述的一种基于YOLOv3的考试作弊小抄识别方法,其特征在于:步骤三中,正常考试纸张分析判断单元通过目标识别网络识别是否为考试纸张具体包括以下步骤:
S31:将学生端视频数据带入模型中,设识别图片中的纸张数目为J,标识符的数目为K,并把标识符的四个坐标组成四个标识符坐标集合,如公式(1)所示:
Figure FDA0002691185220000011
(1)式中
Figure FDA0002691185220000012
分别表示识别图片中第k个标识符的x轴坐标最小值,y轴坐标最小值,x轴坐标最大值,y轴坐标最大值;Xfmin、Yfmin、Xfmax、Yfmax分别表示图片中所有标识符x轴坐标最小值的集合,y轴坐标最小值的集合,x轴坐标最大值的集合,y轴坐标最大值的集合;
S32:根据纸张四点坐标与标识符集合的坐标位置,判断图中识别的每张纸是否为答题纸,若是则输出0,若否则输出1,如公式(2)所示:
Figure FDA0002691185220000013
(2)式中P(j)表示图片中的第j张纸的识别结果,
Figure FDA0002691185220000021
分别表示图片中第j张纸的x轴坐标最小值,y轴坐标最小值,x轴坐标最大值,y轴坐标最大值;公式(2)表示当标识符的所有坐标被目标纸张包围时,目标纸张为印有特殊标识符的答题纸,并输出为1;否则目标纸张为非考试纸张,并输出为0;
S33:学生端视频数据中的每一帧的输出结果如公式(3)所示:
Figure FDA0002691185220000022
(3)式中,若result结果等于0时,表示视频帧中没有出现纸张,或出现的纸张为考试答题纸;若result结果大于等于1,则表示视频帧中出现非正常考试纸张,有夹带小抄作弊的嫌疑;当判断单元输出目标是为非正常考试纸张时,则记录学生ID、非正常事件时间段、纸张识别结果视频证据信息组成非正常考试纸张事件数据包。
4.根据权利要求1所述的一种基于YOLOv3的考试作弊小抄识别方法,其特征在于:非正常考试纸张事件的数据包括学生ID号,非正常事件时间段、纸张识别结果视频证据。
CN202010992055.0A 2020-09-21 2020-09-21 一种基于YOLOv3的考试作弊小抄识别方法 Pending CN112115870A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010992055.0A CN112115870A (zh) 2020-09-21 2020-09-21 一种基于YOLOv3的考试作弊小抄识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010992055.0A CN112115870A (zh) 2020-09-21 2020-09-21 一种基于YOLOv3的考试作弊小抄识别方法

Publications (1)

Publication Number Publication Date
CN112115870A true CN112115870A (zh) 2020-12-22

Family

ID=73801326

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010992055.0A Pending CN112115870A (zh) 2020-09-21 2020-09-21 一种基于YOLOv3的考试作弊小抄识别方法

Country Status (1)

Country Link
CN (1) CN112115870A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743209A (zh) * 2021-07-30 2021-12-03 北京长峰科威光电技术有限公司 一种用于大规模线上考试的辅助监考方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101916365A (zh) * 2010-07-06 2010-12-15 北京竞业达数码科技有限公司 对考试作弊事件进行智能视频识别的方法
US20170263142A1 (en) * 2016-03-08 2017-09-14 Gholam Hossein Zereshkian Anti-cheating device for online examination
CN109509378A (zh) * 2019-02-13 2019-03-22 湖南强视信息科技有限公司 一种支持手写输入的在线考试方法
CN110032992A (zh) * 2019-04-25 2019-07-19 沈阳航空航天大学 一种基于姿态的考试作弊检测方法
CN110837795A (zh) * 2019-11-04 2020-02-25 防灾科技学院 基于课堂监控视频的教学情况智能监测方法、装置及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101916365A (zh) * 2010-07-06 2010-12-15 北京竞业达数码科技有限公司 对考试作弊事件进行智能视频识别的方法
US20170263142A1 (en) * 2016-03-08 2017-09-14 Gholam Hossein Zereshkian Anti-cheating device for online examination
CN109509378A (zh) * 2019-02-13 2019-03-22 湖南强视信息科技有限公司 一种支持手写输入的在线考试方法
CN110032992A (zh) * 2019-04-25 2019-07-19 沈阳航空航天大学 一种基于姿态的考试作弊检测方法
CN110837795A (zh) * 2019-11-04 2020-02-25 防灾科技学院 基于课堂监控视频的教学情况智能监测方法、装置及设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743209A (zh) * 2021-07-30 2021-12-03 北京长峰科威光电技术有限公司 一种用于大规模线上考试的辅助监考方法

Similar Documents

Publication Publication Date Title
CN110826538B (zh) 一种用于电力营业厅的异常离岗识别系统
CN108399376B (zh) 学生课堂学习兴趣智能分析方法及系统
WO2021068781A1 (zh) 一种疲劳状态识别方法、装置和设备
CN111523445B (zh) 一种基于改进的Openpose模型和面部微表情的考试行为检测方法
CN112102129A (zh) 一种基于学生端数据处理的智能考试作弊识别系统
CN112101074A (zh) 一种在线教育辅助评分方法和系统
CN111666829A (zh) 多场景多主体身份行为情绪识别分析方法及智能监管系统
CN107578015B (zh) 一种基于深度学习的第一印象识别与回馈系统及方法
Dvoršak et al. Kinship verification from ear images: An explorative study with deep learning models
CN112115870A (zh) 一种基于YOLOv3的考试作弊小抄识别方法
CN117033141A (zh) 一种计算机教学装置实时可视化监控模块
CN117218680A (zh) 一种景区异常监控数据的确认方法及系统
CN112417974A (zh) 一种公共卫生监控方法
CN112818740A (zh) 一种用于智能面试的心理素质维度评价方法及装置
CN112488165A (zh) 一种基于深度学习模型的红外行人识别方法及系统
Ray et al. Design and implementation of affective e-learning strategy based on facial emotion recognition
CN110852284A (zh) 一种基于虚拟现实环境预测用户专注度的系统及实现方法
CN113269079B (zh) 基于视频层次化比对分析和等级行为范式的儿童孤独症早期评估装置及系统
Hou Deep learning-based human emotion detection framework using facial expressions
CN115965992A (zh) 一种基于半监督学习的提高行人重识别聚类精度的方法
CN114783023A (zh) 一种融合ai面部表情识别和主观打分的满意度评价系统
CN114255509A (zh) 一种基于OpenPose的学生监督辅助工具
CN114764948A (zh) 活体检测方法、装置、设备及存储介质
CN111950472A (zh) 教师磨课测评方法及系统
CN111274898A (zh) 基于深度学习的视频流中群体情绪与凝聚力检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination