CN111783901A - 一种基于深度学习的印刷质量分类方法 - Google Patents
一种基于深度学习的印刷质量分类方法 Download PDFInfo
- Publication number
- CN111783901A CN111783901A CN202010668181.0A CN202010668181A CN111783901A CN 111783901 A CN111783901 A CN 111783901A CN 202010668181 A CN202010668181 A CN 202010668181A CN 111783901 A CN111783901 A CN 111783901A
- Authority
- CN
- China
- Prior art keywords
- vggnet
- network model
- model
- quality classification
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的印刷质量分类方法,基于深度学习的网络模型根据样本集进行训练及优化,进行缺陷小图质量分类。将预先训练好的VGGNet‑16网络模型的前三组卷积层的参数固定,用缺陷小图数据集对VGGNet‑16网络模型的其余部分进行参数的微调。将VGGNet‑16网络模型的全连接层里面的Dropout层换成批标准化层。采用指数衰减法设置VGGNet‑16网络模型的学习率;在VGGNet‑16网络模型的损失函数中加入刻画模型复杂度的指标,训练VGGNet‑16网络模型时加入滑动平均模型。本发明采用深度学习方法实现印刷质量的分类,解决了部分缺陷类别由于样本量少而导致分类准确率差的问题。
Description
技术领域
本发明涉及印刷质量分类技术领域,尤其是一种基于深度学习的印刷质量分类方法。
背景技术
印刷品生产过程中的各种不确定因素,极易导致表面出现缺陷和瑕疵。而近年来,我国包装印刷品种类不断丰富,同时质量也得到了较大提高,传统缺陷分类方法灵活性及单一适用性的缺点逐渐浮出水面,尤其以样本量少的缺陷类别分类最难获得理想检出效果。
传统的基于对比的缺陷检测算法检出结果并不能将印刷质量问题定位到工艺环节,所以后续仍然需要对其检测出来的缺陷小图根据工艺进行进一步的分类,但是由于工艺缺陷类别的多样性与部分缺陷类别样本少导致分类难以有较高准确率,严重影响对缺陷进行追根溯源。
传统的印刷质量的分类成本较高,如果模型中有几个隐藏层,再添加一个层将消耗大量的计算资源,此外还需要大量的数据的支撑,通过从数据中获得重要信息,从而转化成相应的权重,对于那些样本量少的缺陷类别分类效果会很差。
由于样本分布不均匀,传统分类算法进行印刷质量分类,对样本量少的缺陷类别分类效果一般;此外,由于样本的多样性,从头训练会花费大量的时间和计算资源使得效率低下。较高的时间成本和运算成本,严重影响印刷质量的分类。
发明内容
本发明要解决的技术问题是:提供一种基于深度学习的印刷质量分类方法。
本发明解决其技术问题所采用的技术方案是:一种基于深度学习的印刷质量分类方法,所述方法包括有如下步骤:收集需进行印刷质量分类的样本形成样本集,基于深度学习的网络模型根据样本集进行训练及优化得到质量分类模型,利用质量分类模型进行缺陷小图质量分类。
更为具体地,其中,基于深度学习的网络模型根据样本集进行训练及优化得到质量分类模型的方法包括有:采用在ImageNet数据集上预先训练好的VGGNet-16网络模型,VGGNet-16网络模型根据样本集进行训练及优化得到质量分类模型,
更为具体地,其中,VGGNet-16网络模型根据样本集进行训练及优化的方法包括有:将预先训练好的VGGNet-16网络模型的前三组卷积层的参数固定,然后用缺陷小图数据集对VGGNet-16网络模型的其余部分进行参数的微调。
更为具体地,其中,VGGNet-16网络模型根据样本集进行训练及优化的方法包括有:将VGGNet-16网络模型的全连接层里面的Dropout层换成批标准化层。
更为具体地,其中,VGGNet-16网络模型根据样本集进行训练及优化的方法包括有:采用指数衰减法设置VGGNet-16网络模型的学习率;在VGGNet-16网络模型的损失函数中加入刻画模型复杂度的指标,来防止损失函数因为过拟合而导致太小;在使用小批次梯度下降算法训练VGGNet-16网络模型时加入滑动平均模型提高最终得到的质量分类模型在测试数据上的精度。
本发明的有益效果是:本发明采用深度学习方法实现印刷质量的分类,相比较传统的缺陷分类算法,实现简单,分类效果更佳,通用性更强。本发明解决了部分缺陷类别由于样本量少而导致分类准确率差的问题,不需要从头开始训练节省了大量的计算时间和资源。本发明中还采用三种优化方法使网络模型不断得到优化,优化后产生的新模型自动保存并替换原模型继续执行产品分类任务,如此循环,以实现不断优化模型,不断提高模型分类的准确性。
附图说明
下面结合附图对本发明进一步说明。
图1是本发明中的基于深度学习的网络模型的结构示意图;
图2是迁移学习的使用方法。
具体实施方式
现在结合附图对本发明作进一步的说明。这些附图均为简化的示意图仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
一种基于深度学习的印刷质量分类方法,所述方法包括有如下步骤:收集需进行印刷质量分类的样本形成样本集,基于深度学习的网络模型根据样本集进行训练及优化得到质量分类模型,利用质量分类模型进行缺陷小图质量分类。
如1所示,采用在ImageNet数据集上预先训练好的VGGNet-16网络模型,将预先训练好的VGGNet-16网络模型的前三组卷积层的参数固定,然后用缺陷小图数据集对VGGNet-16网络模型的其余部分进行参数的微调。
图2所示为迁移学习的使用方法,迁移学习允许对预先训练过的网络模型进行较小的修改便可以投入使用,不再需要从头开始花费大量的计算时间和资源训练一个神经网络模型。
本发明并没有将预先训练的VGGNet-16网络模型的卷积层权重全部固定,被固定住的卷积层就相当于图像的特征提取器,基于提取的特征重新训练一个分类器,这样效果并不理想。
本发明将预训练的VGGNet-16网络模型中的前三组卷积层的参数固定住,然后用印刷品的缺陷小图数据集对VGGNet-16网络模型的其余部分进行参数的微调。因为较低层(如本发明中优选的前3层)提取的是一些通用的特征映射(如边缘、颜色和纹理等等),而较高层提取的是与所需印刷质量分类的目标数据集密切相关的更加抽象的特征。预先训练好的VGGNet-16网络模型对印刷品的缺陷小图数据集进行迁移学习,从而得到较好的印刷质量分类效果。
优选的,如图1所示,本发明对VGGNet-16网络模型进行优化改进,本发明将VGGNet-16网络模型的全连接层里面的Dropout层换成批标准化层(Batch-normalized)。批标准化将卷积神经网络层输出激活值的均值和方差归一化为单位高斯分布。该方法减少了激活输入层的“internal covariance shift”。“internal covariance shift”是指在训练过程中,随着参数的更新,各层激活输入分布的变化。如果卷积神经网络的输入值的分布持续变化(即,“internal covariance shift”较大),训练过程会变慢,网络收敛时间较长。该分布的归一化使得在训练过程中得到了一致的激活分布,增强了收敛性,避免了网络失稳问题,如梯度消失/爆炸和激活输入饱和。
将VGGNet-16网络模型的全连接层里面的Dropout层换成批标准化层的有益效果如下:(1)在实践中,当使用批标准化时,网络训练会对超参数选择(如学习率)的敏感性降低。(2)它使非常深的网络的训练过程很稳定,并提供了对的权值初始化的鲁棒性。它也避免了梯度消失问题和激活函数(如tanh和sigmoid)的饱和。(3)批标准化大大提高了网络的收敛速度。这非常重要,因为非常深入的网络体系结构可能需要几天时间(即使有合理的硬件资源)来训练大规模数据集。它通过允许误差通过归一化层反向传播,将归一化集成到网络中,从而允许对深度网络进行端到端训练。(4)它使模型更少地依赖于正则化技术,如Dropout。因此,当批标准化被广泛用作正则化机制时,近期的体系结构不再使用Dropout。
优选的,VGGNet-16网络模型根据样本集进行训练及优化的方法包括有:采用指数衰减法设置VGGNet-16网络模型的学习率。
在训练神经网络模型时,我们需要设置学习率来控制参数更新的幅度。学习率决定了参数每次更新的幅度。如果参数更新幅度设置过大,将会导致参数在最优值的两侧来回移动,从而无法到达最优值。反过来说,如果参数更新幅度设置过小,虽然可以让参数最终到达最优值,但是这会大大降低优化速度。综上所述,学习率既不可以过大,也不可以过小。为了解决这个问题,本发明采用指数衰减法设置VGGNet-16网络模型的学习率,通过为基础学习率依据衰减步数来设置衰减系数,从而以指数衰减的方法来降低学习率。通过这种方法,使网络模型在训练后期会更加稳定,不会在最优解左右徘徊,同时也会加快收敛的速度。
优选的,在VGGNet-16网络模型的损失函数中加入刻画模型复杂度的指标,来防止损失函数因为过拟合而导致太小。
由于深度神经网络模型具有大量的参数,在学习过程中容易对训练数据过度拟合。所谓过拟合,是指模型对训练数据的处理非常好,但不能很好地推广到未知数据。因此,它会导致新数据(通常是测试集)的性能较差。当一个模型过分复杂之后,它就可以记住每个训练数据中的细节而忘记要去学习数据中的大致趋势。虽然模型可以记住每个数据中的随机噪音而使损失函数非常小,但是对于未知的测试集就无法很好的做出判断。为了避免过拟合导致的问题,本发明使用了正则化,即在损失函数中加入刻画模型复杂度的指标,来防止损失函数因为过拟合而导致太小。
模型在测试数据上的测试精度有时会飘忽不定。本发明提出了一个使模型在测试数据上变得更健壮的方法——滑动平均模型。优选的,在使用小批次梯度下降算法训练VGGNet-16网络模型时加入滑动平均模型提高最终得到的质量分类模型在测试数据上的精度。
本发明采用深度学习方法实现印刷质量的分类,相比较传统的缺陷分类算法,实现简单,分类效果更佳,通用性更强。本发明解决了部分缺陷类别由于样本量少而导致分类准确率差的问题,不需要从头开始训练节省了大量的计算时间和资源。本发明中还采用三种优化方法使网络模型不断得到优化,优化后产生的新模型自动保存并替换原模型继续执行产品分类任务,如此循环,以实现不断优化模型,不断提高模型分类的准确性。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。
Claims (5)
1.一种基于深度学习的印刷质量分类方法,其特征在于:所述方法包括有如下步骤:收集需进行印刷质量分类的样本形成样本集,基于深度学习的网络模型根据样本集进行训练及优化得到质量分类模型,利用质量分类模型进行缺陷小图质量分类。
2.根据权利要求1所述的一种基于深度学习的印刷质量分类方法,其特征在于:其中,基于深度学习的网络模型根据样本集进行训练及优化得到质量分类模型的方法包括有:采用在ImageNet数据集上预先训练好的VGGNet-16网络模型,VGGNet-16网络模型根据样本集进行训练及优化得到质量分类模型。
3.根据权利要求2所述的一种基于深度学习的印刷质量分类方法,其特征在于:其中,VGGNet-16网络模型根据样本集进行训练及优化的方法包括有:将预先训练好的VGGNet-16网络模型的前三组卷积层的参数固定,然后用缺陷小图数据集对VGGNet-16网络模型的其余部分进行参数的微调。
4.根据权利要求2所述的一种基于深度学习的印刷质量分类方法,其特征在于:其中,VGGNet-16网络模型根据样本集进行训练及优化的方法包括有:将VGGNet-16网络模型的全连接层里面的Dropout层换成批标准化层。
5.根据权利要求2所述的一种基于深度学习的印刷质量分类方法,其特征在于:其中,VGGNet-16网络模型根据样本集进行训练及优化的方法包括有:采用指数衰减法设置VGGNet-16网络模型的学习率;在VGGNet-16网络模型的损失函数中加入刻画模型复杂度的指标,来防止损失函数因为过拟合而导致太小;在使用小批次梯度下降算法训练VGGNet-16网络模型时加入滑动平均模型提高最终得到的质量分类模型在测试数据上的精度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010668181.0A CN111783901A (zh) | 2020-07-13 | 2020-07-13 | 一种基于深度学习的印刷质量分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010668181.0A CN111783901A (zh) | 2020-07-13 | 2020-07-13 | 一种基于深度学习的印刷质量分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111783901A true CN111783901A (zh) | 2020-10-16 |
Family
ID=72767547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010668181.0A Pending CN111783901A (zh) | 2020-07-13 | 2020-07-13 | 一种基于深度学习的印刷质量分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783901A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113935982A (zh) * | 2021-10-27 | 2022-01-14 | 征图新视(江苏)科技股份有限公司 | 基于深度学习的印刷质量检测分析系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108918527A (zh) * | 2018-05-15 | 2018-11-30 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于深度学习的印刷品缺陷检测方法 |
CN108960310A (zh) * | 2018-06-25 | 2018-12-07 | 北京普惠三农科技有限公司 | 一种基于人工智能的农业病虫害识别方法 |
US20190073568A1 (en) * | 2017-09-06 | 2019-03-07 | Kla-Tencor Corporation | Unified neural network for defect detection and classification |
CN111105396A (zh) * | 2019-12-12 | 2020-05-05 | 山东浪潮人工智能研究院有限公司 | 一种基于人工智能的印刷品质量检测方法及系统 |
CN111127390A (zh) * | 2019-10-21 | 2020-05-08 | 哈尔滨医科大学 | 基于迁移学习的x射线影像处理方法及系统 |
CN111307835A (zh) * | 2020-03-31 | 2020-06-19 | 安徽安视智能科技有限公司 | 一种基于深度学习的印刷品瑕疵检测方法及检测设备 |
CN111340898A (zh) * | 2020-05-20 | 2020-06-26 | 征图新视(江苏)科技股份有限公司 | 基于深度学习的印刷品背景异色缺陷检测方法 |
-
2020
- 2020-07-13 CN CN202010668181.0A patent/CN111783901A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190073568A1 (en) * | 2017-09-06 | 2019-03-07 | Kla-Tencor Corporation | Unified neural network for defect detection and classification |
CN108918527A (zh) * | 2018-05-15 | 2018-11-30 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于深度学习的印刷品缺陷检测方法 |
CN108960310A (zh) * | 2018-06-25 | 2018-12-07 | 北京普惠三农科技有限公司 | 一种基于人工智能的农业病虫害识别方法 |
CN111127390A (zh) * | 2019-10-21 | 2020-05-08 | 哈尔滨医科大学 | 基于迁移学习的x射线影像处理方法及系统 |
CN111105396A (zh) * | 2019-12-12 | 2020-05-05 | 山东浪潮人工智能研究院有限公司 | 一种基于人工智能的印刷品质量检测方法及系统 |
CN111307835A (zh) * | 2020-03-31 | 2020-06-19 | 安徽安视智能科技有限公司 | 一种基于深度学习的印刷品瑕疵检测方法及检测设备 |
CN111340898A (zh) * | 2020-05-20 | 2020-06-26 | 征图新视(江苏)科技股份有限公司 | 基于深度学习的印刷品背景异色缺陷检测方法 |
Non-Patent Citations (3)
Title |
---|
VOLKAU I 等: "Detection defect in printed circuit boards using unsupervised feature extraction upon transfer learning", 《2019 INTERNATIONAL CONFERENCE ON CYBERWORLDS (CW)》, pages 101 - 108 * |
赵志衡 等: "基于卷积神经网络的花生籽粒完整性识别算法及应用", 《农业工程学报》, no. 21, pages 1 - 2 * |
项宇杰 等: "基于深度卷积神经网络的木材表面缺陷检测系统设计", 《系统仿真技术》, no. 04, pages 253 - 257 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113935982A (zh) * | 2021-10-27 | 2022-01-14 | 征图新视(江苏)科技股份有限公司 | 基于深度学习的印刷质量检测分析系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108334936B (zh) | 基于迁移卷积神经网络的故障预测方法 | |
CN112991330B (zh) | 基于知识蒸馏的正样本工业缺陷检测方法 | |
CN110245550B (zh) | 一种基于总体余弦分布的人脸噪音数据集cnn训练方法 | |
CN113128620B (zh) | 一种基于层次关系的半监督领域自适应图片分类方法 | |
CN108629370B (zh) | 一种基于深度置信网络的分类识别算法及装置 | |
CN109993236A (zh) | 基于one-shot Siamese卷积神经网络的少样本满文匹配方法 | |
CN110598806A (zh) | 一种基于参数优化生成对抗网络的手写数字生成方法 | |
CN113743474B (zh) | 基于协同半监督卷积神经网络的数字图片分类方法与系统 | |
CN112819063B (zh) | 一种基于改进的Focal损失函数的图像识别方法 | |
CN114998202A (zh) | 一种半监督深度学习缺陷检测方法 | |
CN109002461A (zh) | 手写模型训练方法、文本识别方法、装置、设备及介质 | |
CN111239137A (zh) | 基于迁移学习与自适应深度卷积神经网络的谷物质量检测方法 | |
CN113780242A (zh) | 一种基于模型迁移学习的跨场景水声目标分类方法 | |
CN112949378A (zh) | 一种基于深度学习网络的细菌显微图像分割方法 | |
CN109034280B (zh) | 手写模型训练方法、手写字识别方法、装置、设备及介质 | |
Patil et al. | Fast, self supervised, fully convolutional color normalization of h&e stained images | |
CN111783901A (zh) | 一种基于深度学习的印刷质量分类方法 | |
CN116071560A (zh) | 一种基于卷积神经网络的水果识别方法 | |
CN114818931A (zh) | 一种基于小样本元学习的水果图像分类方法 | |
CN111178897B (zh) | 在不平衡数据上快速特征学习的代价敏感的动态聚类方法 | |
CN116894836A (zh) | 基于机器视觉的纱线瑕疵检测方法和装置 | |
CN114495114B (zh) | 基于ctc解码器的文本序列识别模型校准方法 | |
CN113869463B (zh) | 一种基于交叉增强匹配的长尾噪声学习方法 | |
CN114202031A (zh) | 一种基于强化学习的多源域迁移目标识别方法 | |
CN113627501A (zh) | 一种基于迁移学习的动物图像种类识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |