CN114998915A - 一种基于答题卡的学生作业时长采集方法 - Google Patents
一种基于答题卡的学生作业时长采集方法 Download PDFInfo
- Publication number
- CN114998915A CN114998915A CN202210942177.8A CN202210942177A CN114998915A CN 114998915 A CN114998915 A CN 114998915A CN 202210942177 A CN202210942177 A CN 202210942177A CN 114998915 A CN114998915 A CN 114998915A
- Authority
- CN
- China
- Prior art keywords
- student
- image
- answer sheet
- attention
- recognition model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/15—Cutting or merging image elements, e.g. region growing, watershed or clustering-based techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/16—Image preprocessing
- G06V30/162—Quantising the image signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/16—Image preprocessing
- G06V30/164—Noise filtering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及教育信息化技术领域,公开了一种基于答题卡的学生作业时长采集方法,包括:基于双重注意力机制建立双重注意力识别模型;训练双重注意力识别模型并验证双重注意力识别模型的准确性后,输出训练好的双重注意力识别模型;获取学生作业答题卡的图像,将图像输入进训练好的双重注意力识别模型中,使用轻量级神经网络模型和转换的推理框架对输入的图像进行识别,并进行容错处理;将识别后的图像特征与采集模型的数据库中的特征进行推理运算后,输出学生作答分类、数值和学生作业时长。本发明实现了学生作业时长数据高效采集,解决了手写体本身多样性和噪声污染导致的识别不准确问题,同时优化了识别效率。
Description
技术领域
本发明涉及教育信息化技术领域,具体地说,是一种基于答题卡的学生作业时长采集方法。
背景技术
现有技术采集学生作业时长的方法分为手动识别和自动识别,手动识别是通过学生填写时长数字到纸质登记卡上,教师通过电脑手动录入excel后进行统计保存。自动识别的方法目前通常使用神经网络模型,通过采集的数据学习手写数字的特征。
手动识别的方法中,通过人工录入采集学生作业时长的方法效率低下,并且严重占用教师的额外教学时间,无法及时上报和存储学生作业时长数据。自动识别的方法中现有识别对噪声污染遮挡的优化方式存在固有缺陷,通过前期图像处理去噪等方法可能破坏手写图像本身的完整性,影响识别结果;且提高识别精度一般需要增加识别模型参数量,影响效率增加硬件成本。
为克服相关技术中存在的问题,本专利提供一种方法,实现了学生作业时长数据高效采集,解决了手写体本身多样性和噪声污染导致的识别不准确问题,同时优化了识别效率。
发明内容
本发明的目的在于提供一种基于答题卡的学生作业时长采集方法,实现了学生作业时长数据高效采集,解决了手写体本身多样性和噪声污染导致的识别不准确问题,同时优化了识别效率。
本发明通过下述技术方案实现:一种基于答题卡的学生作业时长采集方法,包括以下步骤:
步骤S1,将双重注意力机制加入训练识别模型生成的双重注意力识别模型;
步骤S2,训练双重注意力识别模型并验证双重注意力识别模型的准确性后,输出训练好的双重注意力识别模型;
步骤S3,获取学生作业答题卡的图像,将图像输入进训练好的双重注意力识别模型中,使用轻量级神经网络模型和转换的推理框架对输入的图像进行识别,并进行容错处理;
步骤S4,将识别后的图像特征与双重注意力识别模型中的特征进行推理运算后,输出学生作答分类、数值和学生作业时长。
为了更好地实现本发明,进一步地,所述步骤S1包括:
步骤S11,制作包含作业时长记录的答题卡;
步骤S12,将答题卡打印分发给学生后通过扫描仪扫描上传答题卡图像;
步骤S13,对答题卡图像进行图像预处理,获取第一学生作业时长填写区域及其对应的第一特征;
步骤S14,基于通道注意力机制和空间注意力机制对第一学生作业时长填写区域进行二次处理,第一次处理获取第二学生作业时长填写区域及其对应的第二特征,第二次处理获取第三学生作业时长填写区域及其对应的第三特征;
步骤S15,根据双重注意力机制的二次处理构造完成双重注意力识别模型。
为了更好地实现本发明,进一步地,所述步骤S13包括:
步骤S131,答题卡图像上传后对答题卡图像进行图像二值化处理将答题卡图像呈现为图A;
步骤S132,通过傅里叶变化将图A转化为频域图像图B;
步骤S133,采用低通滤波去除图B中的噪声,再使用傅里叶反变换将图B恢复为图C;
步骤S134,使用连通域的几何约束在图C中判断定位点坐标,由坐标透视变换实现扫描的答题卡图像相比于图C的纠偏;
步骤S135,根据纠偏后的答题卡图像获取第一学生作业时长填写区域及其对应的第一特征。
为了更好地实现本发明,进一步地,所述步骤S14包括:
步骤S141,输入预处理后的图像,使用通道注意力机制将预处理后的图像进行卷积,获取多个通道C,每个通道C的分量组合起来形成整张图像的特征图,即第一学生作业时长填写区域及其对应的第一特征;
步骤S142,将第一学生作业时长填写区域对应的第一特征进行全局最大池化和全局平均池化;
再送入两层的神经网络中进行基于双重注意力机制的第一次处理,并输出第二学生作业时长填写区域及其对应的第二特征;
步骤S143,将输出的第二特征基于点乘的加和操作和sigmoid激活函数激活操作生成最终的通道注意力特征Mc;
步骤S144,将最终的通道注意力特征Mc和输入的第一特征进行点乘操作,生成第一次处理中通道注意力机制的输出特征Ma;
步骤S145,将所述第一次处理中通道注意力机制的输出特征Ma作为第一次处理中空间注意力机制的输入特征;
步骤S146,经过通道的全局最大池化和全局平均池化,得到两个尺寸相同的特征图。
为了更好地实现本发明,进一步地,所述步骤S15包括:
步骤S151,将两个特征图在通道维度做拼接再进行卷积操作,降维为1个通道,再经过sigmoid激活函数生成空间注意力特征Ms;
步骤S152,最后空间注意力特征MS和空间注意力机制的输入特征做乘法,得到最终生成的第三特征。
为了更好地实现本发明,进一步地,所述步骤S2包括:
使用Pytorch框架和学习率预热机制训练双重注意力识别模型。
为了更好地实现本发明,进一步地,所述步骤S2还包括:
在训练双重注意力识别模型的过程中,对双重注意力识别模型进行可视化分析,并引入注意力机制后的神经网络对双重注意力识别模型进行验证。
为了更好地实现本发明,进一步地,所述步骤S3中的容错处理包括:
当识别到只填写了十位,认为是个位数;
当个位十位均未填写或者填写00,认为异常不记录该时长;
返回的每一位数字输出其概率,当识别概率低于50%时抛出异常进入手动校验。
本发明与现有技术相比,具有以下优点及有益效果:
(1)本发明通过图像预处理能够相对准确找到作答时长的区域;
(2)本发明通过加入双重注意力机制,对图像遮挡,无关噪声的影响有较好的鲁棒性;
(3)本发明选择轻量级神经网络模型以及对推理框架的转换实现了识别性能的提升;
(4)本发明在答题卡上增加作答时长区,学生填写后系统扫描识别后自动识别时长数据的设计;
(5)本发明优化采集作业时长过程中提供了提高手写识别准确性的算法。
附图说明
本发明结合下面附图和实施例做进一步说明,本发明所有构思创新应视为所公开内容和本发明保护范围。
图1为本发明提供的一种基于答题卡的学生作业时长采集方法的整体流程图。
图2为本发明提供的作业时长采集的答题卡示意图。
图3为本发明提供的使用通道注意力机制的流程图。
图4为本发明提供的使用空间注意力机制的流程图。
图5为本发明提供的双重注意力识别模型的结构示意图。
具体实施方式
为了更清楚地说明本发明实施例的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,应当理解,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例,因此不应被看作是对保护范围的限定。基于本发明中的实施例,本领域普通技术工作人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
本实施例的一种基于答题卡的学生作业时长采集方法,如图2所示,在答题卡上方一区域制作两个并列矩形框作为填写区,记录矩形框在答题卡图像中的坐标信息,作为模板图像;作业打印分发给学生,学生在作业答题卡上作答完成后经过扫描仪扫描上传。
如图1-图5所示,上传后的图像通过图像处理算法与模板图像对齐,获取到作答时长填写框的真实坐标,然后切割填写的图像,通过数据增强获取训练图像。上传后的图像通过图像处理算法与模板图像对齐,获取到作答时长填写框的真实坐标,然后切割填写的图像,通过数据增强获取训练图像。在学校应用中,针对学生整个学期的单元作业制作专属的附带作业时长填涂区的答题卡,学生每次作业完成后进行填写,教师收集后通过高速扫描仪扫描答题卡,扫描后通过图像配准等方法分割出作答时长区域,然后使用深度学习模型识别填写的数字并上传统计,省去了教师手动采集作业时长数据的时间,并且教师可及时查看结果数据。
在本发明中,将双重注意力机制加入训练识别模型生成双重注意力识别模型中的过程主要包括制作包含作业时长记录的答题卡;将答题卡打印分发给学生后通过扫描仪扫描上传答题卡图像;对答题卡图像进行图像预处理,此时是第一次图像预处理,会根据扫描仪扫描上传答题卡图像,如图2所示,第一次图像预处理先粗略扫描出大于作业时长采集框的部分,即获取第一学生作业时长填写区域及其对应的第一特征;具体过程为:答题卡图像上传后对答题卡图像进行图像二值化处理将答题卡图像呈现为图A;通过傅里叶变化将图A转化为频域图像图B;采用低通滤波去除图B中的噪声,再使用傅里叶反变换将图B恢复为图C;使用连通域的几何约束在图C中判断定位点坐标,由坐标透视变换实现扫描的答题卡图像相比于图C的纠偏;根据纠偏后的答题卡图像获取第一学生作业时长填写区域及其对应的第一特征。
第二次对图像处理是指对粗略扫描出的大于作业时长采集框的部分进行细致扫描,即基于通道注意力机制和空间注意力机制对第一学生作业时长填写区域进行二次处理,第一次处理获取第二学生作业时长填写区域及其对应的第二特征,第二次处理获取第三学生作业时长填写区域及其对应的第三特征;具体过程为:输入预处理后的图像,使用通道注意力机制将预处理后的图像进行卷积,获取多个通道C,每个通道C的分量组合起来形成整张图像的特征图,即第一学生作业时长填写区域及其对应的第一特征;将第一学生作业时长填写区域对应的第一特征进行全局最大池化和全局平均池化;再送入两层的神经网络中进行基于双重注意力机制的第一次处理,并输出第二学生作业时长填写区域及其对应的第二特征;将输出的第二特征基于点乘的加和操作和sigmoid激活函数激活操作生成最终的通道注意力特征Mc;将最终的通道注意力特征Mc和输入的第一特征进行element-wise操作,生成第一次处理中通道注意力机制的输出特征Ma;将所述第一次处理中通道注意力机制的输出特征Ma作为第一次处理中空间注意力机制的输入特征;经过通道的global maxpooling 和global average pooling,得到两个的特征图;
第三次对图像处理是指根据双重注意力机制的二次处理构造完成双重注意力识别模型。即将两个特征图在通道维度做拼接再进行卷积操作,降维为1个通道,再经过sigmoid激活函数生成空间注意力特征Ms;最后空间注意力特征MS和空间注意力机制的输入特征做乘法,得到最终生成的第三特征。
实施例2:
本实施例在实施例1的基础上做进一步优化,在本实施例中,首先进行数据准备,如图2所示,制作包含作答时长记录的答题卡,在答题卡上方一区域制作两个并列矩形框作为填写区,记录矩形框在答题卡图像中的坐标信息。作业打印分发给学生,学生作答完成后经过扫描仪扫描上传,上传后的图像通过图像处理算法与模板图像对齐,获取到作答时长填写框的真实坐标。然后切割填写的图像,通过数据增强获取训练图像。
本实施例的其他部分与实施例1相同,故不再赘述。
实施例3:
本实施例在上述实施例1或2的基础上做进一步优化,通过一系列图像预处理以及改进轻量级卷积神经网络MobileNet模型(轻量级卷积神经网络MobileNet模型即训练识别模型),进而识别图像。通过对轻量级卷积神经网络MobileNet模型引入双重注意力机制模块,提升网络识别的准确性。该模块由通道注意力机制和空间注意力机制两部分组成。
图像预处理的过程为:图像上传后首先做图像二值化,通过傅里叶变换转为频域图像,噪声主要由高频组成,采用低通滤波去除噪声,再使用傅里叶反变换恢复图像,去噪后的图像经过连通域的几何约束判断定位点坐标,由坐标透视变换实现扫描图像的纠偏,纠偏后的作业可获取到学生作答时长填写区域。
本实施例的其他部分与上述实施例1或2相同,故不再赘述。
实施例4:
本实施例在上述实施例1-3任一项的基础上做进一步优化,本实施例训练卷积神经网络识别模型,在作业采集识别的图像中,只有填写的数字是真正有用的信息,而其它的区域边界框和噪声属于不需要关注的信息。真实场景中的采集区域经常有无关手写体的干扰,基于此,在网络中新增以下两个机制,提升网络识别准确性。
如图3所示,加入通道注意力机制:输入图像经过卷积之后得到多个通道C,每个通道的分量组合起来形成整张图像特征,但生成的每个通道对图像关键信息的贡献量是不同的,因此将生成的每个通道增加一个权重代表其与关键信息的相关度,权重越高的通道特征得到加强,无关通道的输出特征减弱。为有效计算通道注意力,使用平均池化对输入特征的空间维度压缩,最大池化收集通道独特的物体特征。输入的特征图F(H×W×C)分别经过global max pooling(全局最大池化)和global average pooling(全局平均池化),得到两个1×1×C的特征图,然后将它们分别送入一个两层的神经网络(MLP),之后将MLP输出的特征进行基于element-wise(点乘)的加和操作,再经过sigmoid激活操作,生成最终的通道注意力特征,即Mc。最后,将Mc和输入特征图F做element-wise操作,生成通道注意力模块需要的输入特征。
如图4所示,加入空间注意力机制:空间注意力聚焦图像特征中最具信息量的部分,聚焦手写图像本身,抑制作业采集框及打印扫描过程的噪声。将通道注意力的输出作为空间注意力的输入特征图。首先经过通道的global max pooling 和global averagepooling,得到两个H×W×1 的特征图,然后将这两个特征图在通道维度做拼接。然后经过一个7×7卷积操作,降维为1个通道,即H×W×1。再经过sigmoid激活函数生成空间注意力特征,即Ms。最后将该特征和该模块的输入特征做乘法,得到最终生成的特征。
本实施例采用两种注意力机制的组合提高识别的鲁棒性。
本实施例的其他部分与上述实施例1-3任一项相同,故不再赘述。
实施例5:
本实施例在上述实施例1-4任一项基础上做进一步优化,双重注意力识别模型使用Pytorch框架,包含7万张手写图像,刚开始训练时由于权重随机初始化,此时如果一个较大学习率可能导致模型不稳定,因此我们采用了学习率预热机制,在训练开始的时候使用较小的学习率,训练一个epoch(完成一次前向计算和反向传播的过程),之后使用0.001的学习率逐步衰减,每10个epoch学习率衰减为一半,一共迭代训练100个epoch。
双重注意力识别模型在第5个epoch时准确率达到95.2%,在第10个epoch时达到99.2%,模型收敛后的准确率在99.97%。通过对模型特征的可视化分析,在引入注意力机制后的神经网络中,特征覆盖到了图像的更多关键区域,说明该网络注意到更加有用的局部特征,忽略了更多不相关信息,判别正确的可能性更高。
本实施例的其他部分与上述实施例1-4任一项相同,故不再赘述。
实施例6:
本实施例在上述实施例1-5任一项基础上做进一步优化,一般来讲神经网络模型参数量大,在CPU上运算速度较慢。为了在CPU上实现快速识别,本文采用轻量级网络模型,并且通过转化为ONNX(开放神经网络交换格式),转换过程加入常量折叠,相较于原生Pytorch框架在识别速度上提升了约10倍。
本实施例还公开了一种识别后容错处理的方法:(1)当识别到只填写了十位,认为是个位数;(2)当个位十位均未填写或者填写00,认为异常不记录该时长;(3)返回的每一位数字输出其概率,当识别概率低于50%时抛出异常进入手动校验。
本实施例的其他部分与上述实施例1-5任一项相同,故不再赘述。
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化,均落入本发明的保护范围之内。
Claims (8)
1.一种基于答题卡的学生作业时长采集方法,其特征在于,包括以下步骤:
步骤S1,将双重注意力机制加入训练识别模型生成双重注意力识别模型;
步骤S2,训练双重注意力识别模型并验证双重注意力识别模型的准确性后,输出训练好的双重注意力识别模型;
步骤S3,获取学生作业答题卡的图像,将图像输入进训练好的双重注意力识别模型中,使用轻量级神经网络模型和转换的推理框架对输入的图像进行识别,并进行容错处理;
步骤S4,将识别后的图像特征与双重注意力识别模型中的特征进行推理运算后,输出学生作答分类、数值和学生作业时长。
2.根据权利要求1所述的一种基于答题卡的学生作业时长采集方法,其特征在于,所述步骤S1包括:
步骤S11,制作包含作业时长记录的答题卡;
步骤S12,将答题卡打印分发给学生后通过扫描仪扫描上传答题卡图像;
步骤S13,对答题卡图像进行图像预处理,获取第一学生作业时长填写区域及其对应的第一特征;
步骤S14,基于通道注意力机制和空间注意力机制对第一学生作业时长填写区域进行二次处理,第一次处理获取第二学生作业时长填写区域及其对应的第二特征,第二次处理获取第三学生作业时长填写区域及其对应的第三特征;
步骤S15,根据双重注意力机制的二次处理构造完成双重注意力识别模型。
3.根据权利要求2所述的一种基于答题卡的学生作业时长采集方法,其特征在于,所述步骤S13包括:
步骤S131,答题卡图像上传后对答题卡图像进行图像二值化处理将答题卡图像呈现为图A;
步骤S132,通过傅里叶变化将图A转化为频域图像图B;
步骤S133,采用低通滤波去除图B中的噪声,再使用傅里叶反变换将图B恢复为图C;
步骤S134,使用连通域的几何约束在图C中判断定位点坐标,由坐标透视变换实现扫描的答题卡图像相比于图C的纠偏;
步骤S135,根据纠偏后的答题卡图像获取第一学生作业时长填写区域及其对应的第一特征。
4.根据权利要求3所述的一种基于答题卡的学生作业时长采集方法,其特征在于,所述步骤S14包括:
步骤S141,输入预处理后的图像,使用通道注意力机制将预处理后的图像进行卷积,获取多个通道C,每个通道C的分量组合起来形成整张图像的特征图,即第一学生作业时长填写区域及其对应的第一特征;
步骤S142,将第一学生作业时长填写区域对应的第一特征进行全局最大池化和全局平均池化;
再送入两层的神经网络中进行基于双重注意力机制的第一次处理,并输出第二学生作业时长填写区域及其对应的第二特征;
步骤S143,将输出的第二特征基于点乘的加和操作和sigmoid激活函数激活操作生成最终的通道注意力特征Mc;
步骤S144,将最终的通道注意力特征Mc和输入的第一特征进行点乘操作;
步骤S145,将所述第一次处理中通道注意力机制的输出特征Ma作为第一次处理中空间注意力机制的输入特征;
步骤S146,经过通道的全局最大池化和全局平均池化,得到两个尺寸相同的特征图。
5.根据权利要求4所述的一种基于答题卡的学生作业时长采集方法,其特征在于,所述步骤S15包括:
步骤S151,将两个特征图在通道维度做拼接再进行卷积操作,降维为1个通道,再经过sigmoid激活函数生成空间注意力特征Ms;
步骤S152,最后空间注意力特征MS和空间注意力机制的输入特征做乘法,得到最终生成的第三特征。
6.根据权利要求1所述的一种基于答题卡的学生作业时长采集方法,其特征在于,所述步骤S2包括:
使用Pytorch框架和学习率预热机制训练双重注意力识别模型。
7.根据权利要求1所述的一种基于答题卡的学生作业时长采集方法,其特征在于,所述步骤S2还包括:
在训练双重注意力识别模型的过程中,对双重注意力识别模型进行可视化分析,并引入注意力机制后的神经网络对双重注意力识别模型进行验证。
8.根据权利要求1所述的一种基于答题卡的学生作业时长采集方法,其特征在于,所述步骤S3中的容错处理包括:
当识别到答题卡只填写了十位,认为是个位数;
当个位十位均未填写或者填写00,认为异常不记录该时长;
返回的每一位数字输出其概率,当识别概率低于50%时抛出异常进入手动校验。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210942177.8A CN114998915A (zh) | 2022-08-08 | 2022-08-08 | 一种基于答题卡的学生作业时长采集方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210942177.8A CN114998915A (zh) | 2022-08-08 | 2022-08-08 | 一种基于答题卡的学生作业时长采集方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114998915A true CN114998915A (zh) | 2022-09-02 |
Family
ID=83022897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210942177.8A Pending CN114998915A (zh) | 2022-08-08 | 2022-08-08 | 一种基于答题卡的学生作业时长采集方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114998915A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711284A (zh) * | 2018-12-11 | 2019-05-03 | 江苏博墨教育科技有限公司 | 一种考试答题卡系统智能识别分析方法 |
CN113657354A (zh) * | 2021-10-19 | 2021-11-16 | 深圳市菁优智慧教育股份有限公司 | 基于深度学习的答题卡识别方法及系统 |
CN114581269A (zh) * | 2022-02-28 | 2022-06-03 | 深圳懂你教育科技有限公司 | 作业到考试全方位学生学情跟踪平台 |
CN114782737A (zh) * | 2022-03-24 | 2022-07-22 | 福建亿榕信息技术有限公司 | 一种基于改进残差网络的图像分类方法、设备和存储介质 |
-
2022
- 2022-08-08 CN CN202210942177.8A patent/CN114998915A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711284A (zh) * | 2018-12-11 | 2019-05-03 | 江苏博墨教育科技有限公司 | 一种考试答题卡系统智能识别分析方法 |
CN113657354A (zh) * | 2021-10-19 | 2021-11-16 | 深圳市菁优智慧教育股份有限公司 | 基于深度学习的答题卡识别方法及系统 |
CN114581269A (zh) * | 2022-02-28 | 2022-06-03 | 深圳懂你教育科技有限公司 | 作业到考试全方位学生学情跟踪平台 |
CN114782737A (zh) * | 2022-03-24 | 2022-07-22 | 福建亿榕信息技术有限公司 | 一种基于改进残差网络的图像分类方法、设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
卓天天: "基于深度学习的英语阅卷系统设计与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
铅笔道: "这款软件能帮小学老师家长批作业1秒扫描口算题圈错准确率95%", 《网络在线公开: HTTPS://WWW.SOHU.COM/A/191137759_649045》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113674247B (zh) | 一种基于卷积神经网络的x射线焊缝缺陷检测方法 | |
CN109872305B (zh) | 一种基于质量图生成网络的无参考立体图像质量评价方法 | |
US7545985B2 (en) | Method and system for learning-based quality assessment of images | |
CN113240580A (zh) | 一种基于多维度知识蒸馏的轻量级图像超分辨率重建方法 | |
CN112270644B (zh) | 基于空间特征变换和跨尺度特征集成的人脸超分辨方法 | |
CN112861970B (zh) | 一种基于特征融合的细粒度图像分类方法 | |
CN109635714B (zh) | 文档扫描图像的矫正方法及装置 | |
CN111353533A (zh) | 基于多任务学习的无参考图像质量评价方法及系统 | |
CN113592735A (zh) | 文本页面图像还原方法及系统、电子设备和计算机可读介质 | |
Moorthy et al. | A two-stage framework for blind image quality assessment | |
CN114495124A (zh) | 一种试题成绩分析及练习提高系统 | |
US20220114901A1 (en) | Systems and Methods for Detecting Collusion in Student Testing Using Graded Scores or Answers for Individual Questions | |
CN113505780A (zh) | 一种基于二维码的智能检测维保的方法和设备 | |
CN114998915A (zh) | 一种基于答题卡的学生作业时长采集方法 | |
CN113159014A (zh) | 基于手写题号的客观题批阅方法、装置、设备及存储介质 | |
CN112200182A (zh) | 基于深度学习的晶圆id识别方法和装置 | |
CN115690934A (zh) | 基于批量人脸识别的师生考勤打卡方法及装置 | |
CN115482535A (zh) | 一种试卷自动批改方法、存储介质及设备 | |
CN112927109B (zh) | 一种智能辅助实践实训课程类别的教学系统 | |
CN115393333A (zh) | 一种基于注意力生成对抗网络的工业品表面缺陷检测方法 | |
US20110052064A1 (en) | Method for processing optical character recognition (ocr) output data, wherein the output data comprises double printed character images | |
Thamizhkkanal et al. | A Neural Based Approach to Evaluate an Answer Script | |
CN111832530A (zh) | 一种化学公式识别系统及方法 | |
Körber | Improving Camera-based Document Analysis with Deep Learning | |
CN117830044B (zh) | 一种基于云计算的互动教学数据管理系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220902 |
|
RJ01 | Rejection of invention patent application after publication |