CN112270722A - 一种基于深度神经网络的数码印花织物缺陷检测方法 - Google Patents

一种基于深度神经网络的数码印花织物缺陷检测方法 Download PDF

Info

Publication number
CN112270722A
CN112270722A CN202011155761.6A CN202011155761A CN112270722A CN 112270722 A CN112270722 A CN 112270722A CN 202011155761 A CN202011155761 A CN 202011155761A CN 112270722 A CN112270722 A CN 112270722A
Authority
CN
China
Prior art keywords
defect
loss function
digital printing
neural network
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011155761.6A
Other languages
English (en)
Inventor
苏泽斌
武静威
李鹏飞
景军锋
张缓缓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Polytechnic University
Original Assignee
Xian Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Polytechnic University filed Critical Xian Polytechnic University
Priority to CN202011155761.6A priority Critical patent/CN112270722A/zh
Publication of CN112270722A publication Critical patent/CN112270722A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper

Abstract

本发明公开了一种基于深度神经网络的数码印花织物缺陷检测方法,具体按照以下步骤实施:步骤1、采集分辨率为416×416大小的RGB彩色数码印花织物缺陷图像;建立神经网络;步骤2、利用步骤1获得的彩色数码印花织物缺陷图像,进行目标信息的提取和标定,建立数码印花织物缺陷样本数据集,得到训练集、验证集和测试集;步骤3、利用步骤1建立的神经网络和ImageNet数据集的训练集建立损失函数,利用损失函数训练神经网络,得到预训练模型,利用步骤2得到的训练集和验证集对预训练模型进行调整和验证;步骤4、利用步骤2得到的测试集对模型进行评价。本发明公开的一种基于深度神经网络的数码印花织物缺陷检测方法能够实现数码印花缺陷的实时准确检测。

Description

一种基于深度神经网络的数码印花织物缺陷检测方法
技术领域
本发明属于纺织品疵点检测方法技术领域,涉及一种基于深度神经网络的数码印花织物缺陷检测方法。
背景技术
纺织品是人们生活中必不可少的产品,印花工艺是提升纺织品附加值的关键工序。数码印花作为一种新型的印花技术,将印花图像输入至计算机,利用计算机分色处理后,由专用RIP软件转换为数字点阵信息,控制孔径精度达微米级的喷头在织物上进行固定方向的喷印,形成预期高精度印花图案。因此,数码印花会由于喷孔堵塞、电机步进偏差、喷墨气压不稳定、喷头出墨、调试不均匀、设备压布不平整等故障,使印花产品出现PASS道、漏墨、喷墨不均以及布匹褶皱等缺陷,从而使产品的销售价格在其原价格的基础上降低45%~65%。因此,为确保数码印花织物产品的质量,缺陷检测是纺织品生产中质量控制的核心部分。
在一系列基于印花织物检测算法的基础上,数码印花织物缺陷检测方法主要分为两种,一种是基于传统图像处理的方法、一种基于深度神经网络的目标检测方法。传统的印花织物缺陷检测方法存在检测速度低、准确性差的缺点,并且其检测对象主要集中于白坯布、净色布、电子布以及纹理单一的色织物,针对图案丰富、色彩鲜明的印花产品,目前没有较为成熟的检测方法;基于此背景,基于深度神经网络的目标检测方法在数码印花织物缺陷检测领域中广泛应用。
发明内容
本发明的目的是提供一种基于深度神经网络的数码印花织物缺陷检测方法,能够实现数码印花缺陷的实时准确检测。
本发明所采用的技术方案是,一种基于深度神经网络的数码印花织物缺陷检测方法,具体按照以下步骤实施:
步骤1、采集分辨率为416×416大小的RGB彩色数码印花织物缺陷图像;建立神经网络;
步骤2、利用步骤1获得的彩色数码印花织物缺陷图像,进行目标信息的提取和标定,建立数码印花织物缺陷样本数据集,得到训练集、验证集和测试集;
步骤3、利用步骤1建立的神经网络和ImageNet数据集的训练集建立损失函数,利用损失函数训练神经网络,得到预训练模型,利用步骤2得到的训练集和验证集对预训练模型进行调整和验证;
步骤4、利用步骤2得到的测试集对模型进行评价。
本发明的特点还在于:
步骤1中采集分辨率为416×416大小的RGB彩色数码印花织物缺陷图像具体按照以下实施:利用扫描仪获取数码印花织物缺陷图像,运用局部均值法调整图像分辨率为416×416。包含PASS道、漏墨、布匹褶皱以及喷墨不均4类缺陷,每类缺陷800张,共3200张样本图像,并将图像统一命名为######.jpg格式。
步骤1中的建立神经网络具体按照以下实施:神经网络的构成具体如下:
1)建立CSPDarkNet53特征提取网络的子模块,CSPDarkNet53特征提取网络的子模块是在原DarkNet53子模块的基础上加上Cross Stage Partial,使其在保持网络结构轻量化的同时,增强其语义信息表达能力,子模块可对输入特征图进行2倍下采样,连续堆叠5个子模块,分别得到对输入图像进行8倍、16倍、32倍下采样的特征图作为特征融合网络的输入信息;
2)采用空间金字塔池化对经1)提取的特征图进行特征融合,使其输出特征图的像素点对于输入图像拥有较大的感受野,使其每个像素点都能够实现对于目标的检测,同时增加了每个像素点的语义信息,提高模型对于不同尺度目标的检测能力;
3)路径聚合网络旨在通过自底向上的路径增强顶层特征图的位置信息,缩短了低层与顶层特征之间的信息路径,通过自顶向下和自底向上的双向特征融合路径,使顶层的强语义信息与底层的强位置信息充分融合,提高了数码印花缺陷检测算法对于不同尺寸目标的检测能力;
4)利用分层预测的思想实现对于大、中、小目标的分层检测,使得顶层更关注于大目标的检测,底层更关注于小目标的检测。
步骤2具体按照以下实施:使用LabelImg标注工具对步骤1获得的彩色数码印花织物缺陷图像的印花缺陷信息进行标记,标记内容主要有输入缺陷标签,同时手动框选缺陷生成以图像左上角位置为基准的坐标信息,以及图像尺寸、存储路径的信息,并将标记信息生成的######.xml格式文件与######.jpg格式文件对应;从每类缺陷中随机选取600张作为训练样本,50张作为验证样本,150张作为测试样本。
步骤3具体按照以下实施:模型训练采用Python语言,Pytorch深度学习框架、第三方函数库Anaconda3.4.1完成。首先在ImageNet数据集上预训练网络模型,保存预训练的模型参数并使用我们的数据集对模型进行调整,作为数码印花缺陷检测算法的权重参数。反向传播过程中采用动量随机梯度下降算法更新网络的权值和偏置参数,经过53个epoch迭代得到最优的数码印花缺陷检测模型。
步骤3中建立损失函数具体按照以下实施:
1)置信度损失函数:
置信度损失函数缓解了单阶段目标检测中正负样本比例严重失衡和小目标缺陷难以检测的问题,权衡了难分、易分样本与正负样本(即织物有无缺陷)数量、大小织物缺陷(织物缺陷尺寸占输入图像尺寸的比率)目标数量的关系,公式(1)为置信度损失函数;
Lobj=-αylog(y′)(1-y′)2(1-β)-(1-α)(1-y)log(1-y′)(y′)2 (1)
上式中,y为锚包含目标的真实值、y′为其对应的预测值、参数α用来调整正负样本的比例、β为真实框面积占输入图像面积的比例;
2)类别损失函数:
类别损失函数增加了小目标缺陷的权重,权衡了大目标和小目标在损失函数所占的比例,使其更关注于小目标的检测,公式(2)为类别损失函数;
Lcls=-ylog(y′)(1-β)-(1-y)log(1-y′) (2)
上式中,y为锚包含目标类别的真实值、y′为其对应的预测值、β为真实框面积占输入图像面积的比例;
3)边界框回归损失函数:
边界框回归损失函数同时考虑了预测框和目标框重叠区域、中心点距离、长宽比的关系并权衡了大小缺陷目标对边界框的回归影响,提高了小目标边界框的回归能力,公式(3)为边界框回归损失函数;
Figure BDA0002742722570000041
上式中,
Figure BDA0002742722570000042
p表示预测框和真实框中心点的欧式距离、c表示预测框和真实框的最小外接矩形的对角线距离、α是用于做trade-off的参数,u是用来衡量长宽比一致性的参数,λ为真实框面积占输入图像面积的比例;
4)总损失函数:
总损失函数为置信度损失函数、类别损失函数和边界框回归损失函数三者的叠加,公式(4)为总损失函数;
Lsum=εLobj+φLcls+γLCIoU (4)
上式中,ε、φ和γ用来平衡置信度损失、类别损失和边界框回归损失三者占总损失的比例。
步骤4具体按照以下实施:为了评估数码印花缺陷检测模型针对不同缺陷类型的检测性能,选取AP指标来评价模型对于每类缺陷的检测精度,mAP指标来综合评价模型对于各类缺陷的检测精度,完成数码印花织物缺陷检测模型的评价。
本发明的有益效果是:本发明一种基于深度神经网络的数码印花织物缺陷检测方法,能够实现数码印花缺陷的实时准确检测。本方法继承了Yolov4目标检测算法的核心结构,其保持了Yolov4目标检测算法速度快、精度高的性能;本方法首先在ImageNet数据集上预训练网络模型,保存预训练的模型参数并使用我们的数据集对模型进行调整,作为数码印花缺陷检测算法的权重参数;本方法的损失函数充分考虑了难分、易分样本与正负样本(即织物有无缺陷)数量、大小织物缺陷(织物缺陷占输入图像尺寸的比率)目标数量的关系,提高了模型对于小目标缺陷(PASS道、漏墨、布匹褶皱)的检测精度。
附图说明
图1是本发明一种基于深度神经网络的数码印花织物缺陷检测方法的流程图;
图2是本发明一种基于深度神经网络的数码印花织物缺陷检测方法的CSPDarkNet53特征提取网络的子模块结构示意图;
图3是本发明一种基于深度神经网络的数码印花织物缺陷检测方法的空间金字塔的网络结构示意图;
图4是本发明一种基于深度神经网络的数码印花织物缺陷检测方法的路径聚合网路的结构示意图;
图5是本发明一种基于深度神经网络的数码印花织物缺陷检测方法的实验结果示意图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于深度神经网络的数码印花织物缺陷检测方法,如图1所示,具体按照以下步骤实施:
步骤1、采集分辨率为416×416大小的RGB彩色数码印花织物缺陷图像;建立神经网络;
步骤1中采集分辨率为416×416大小的RGB彩色数码印花织物缺陷图像具体按照以下实施:利用扫描仪获取数码印花织物缺陷图像,运用局部均值法调整图像分辨率为416×416。包含PASS道、漏墨、布匹褶皱以及喷墨不均4类缺陷,每类缺陷800张,共3200张样本图像,并将图像统一命名为######.jpg格式。
步骤1中的建立神经网络具体按照以下实施:神经网络的构成具体如下:
1)建立CSPDarkNet53特征提取网络的子模块,如图2所示,CSPDarkNet53特征提取网络的子模块是在原DarkNet53子模块的基础上加上Cross Stage Partial,使其在保持网络结构轻量化的同时,增强其语义信息表达能力,子模块可对输入特征图进行2倍下采样,连续堆叠5个子模块,分别得到对输入图像进行8倍、16倍、32倍下采样的特征图作为特征融合网络的输入信息;
2)采用空间金字塔池化对经1)提取的特征图进行特征融合,如图3所示,使其输出特征图的像素点对于输入图像拥有较大的感受野,使其每个像素点都能够实现对于目标的检测,同时增加了每个像素点的语义信息,提高模型对于不同尺度目标的检测能力;
3)路径聚合网络旨在通过自底向上的路径增强顶层特征图的位置信息,缩短了低层与顶层特征之间的信息路径,通过自顶向下和自底向上的双向特征融合路径,使顶层的强语义信息与底层的强位置信息充分融合,提高了数码印花缺陷检测算法对于不同尺寸目标的检测能力,如图4所示;
4)利用分层预测的思想实现对于大、中、小目标的分层检测,使得顶层更关注于大目标的检测,底层更关注于小目标的检测。
步骤2、利用步骤1获得的彩色数码印花织物缺陷图像,进行目标信息的提取和标定,建立数码印花织物缺陷样本数据集,得到训练集、验证集和测试集;
步骤2具体按照以下实施:使用LabelImg标注工具对步骤1获得的彩色数码印花织物缺陷图像的印花缺陷信息进行标记,标记内容主要有输入缺陷标签,同时手动框选缺陷生成以图像左上角位置为基准的坐标信息,以及图像尺寸、存储路径的信息,并将标记信息生成的######.xml格式文件与######.jpg格式文件对应;从每类缺陷中随机选取600张作为训练样本,50张作为验证样本,150张作为测试样本。
步骤3、利用步骤1建立的神经网络和ImageNet数据集的训练集建立损失函数,利用损失函数训练神经网络,得到预训练模型,利用步骤2得到的训练集和验证集对预训练模型进行调整和验证;
步骤3具体按照以下实施:模型训练采用Python语言,Pytorch深度学习框架、第三方函数库Anaconda3.4.1完成。首先在ImageNet数据集上预训练网络模型,保存预训练的模型参数并使用我们的数据集对模型进行调整,作为数码印花缺陷检测算法的权重参数。反向传播过程中采用动量随机梯度下降算法更新网络的权值和偏置参数,经过53个epoch迭代得到最优的数码印花缺陷检测模型。
步骤3中建立损失函数具体按照以下实施:
1)置信度损失函数:
置信度损失函数缓解了单阶段目标检测中正负样本比例严重失衡和小目标缺陷难以检测的问题,权衡了难分、易分样本与正负样本(即织物有无缺陷)数量、大小织物缺陷(织物缺陷尺寸占输入图像尺寸的比率)目标数量的关系,公式(1)为置信度损失函数;
Lobj=-αylog(y′)(1-y′)2(1-β)-(1-α)(1-y)log(1-y′)(y′)2 (1)
上式中,y为锚包含目标的真实值、y′为其对应的预测值、参数α用来调整正负样本的比例、β为真实框面积占输入图像面积的比例;
2)类别损失函数:
类别损失函数增加了小目标缺陷的权重,权衡了大目标和小目标在损失函数所占的比例,使其更关注于小目标的检测,公式(2)为类别损失函数;
Lcls=-ylog(y′)(1-β)-(1-y)log(1-y′) (2)
上式中,y为锚包含目标类别的真实值、y′为其对应的预测值、β为真实框面积占输入图像面积的比例;
3)边界框回归损失函数:
边界框回归损失函数同时考虑了预测框和目标框重叠区域、中心点距离、长宽比的关系并权衡了大小缺陷目标对边界框的回归影响,提高了小目标边界框的回归能力,公式(3)为边界框回归损失函数;
Figure BDA0002742722570000081
上式中,
Figure BDA0002742722570000091
p表示预测框和真实框中心点的欧式距离、c表示预测框和真实框的最小外接矩形的对角线距离、α是用于做trade-off的参数,u是用来衡量长宽比一致性的参数,λ为真实框面积占输入图像面积的比例;
4)总损失函数:
总损失函数为置信度损失函数、类别损失函数和边界框回归损失函数三者的叠加,公式(4)为总损失函数;
Lsum=εLobj+φLcls+γLCIoU (4)
上式中,ε、φ和γ用来平衡置信度损失、类别损失和边界框回归损失三者占总损失的比例。
步骤4、利用步骤2得到的测试集对模型进行评价。
步骤4具体按照以下实施:为了评估数码印花缺陷检测模型针对不同缺陷类型的检测性能,选取AP指标来评价模型对于每类缺陷的检测精度,mAP指标来综合评价模型对于各类缺陷的检测精度,完成数码印花织物缺陷检测模型的评价,实验结果如图5所示。
本发明一种基于深度神经网络的数码印花织物缺陷检测方法,输入图像尺寸大小为416×416,经过一系列卷积层和池化层,分别得到尺寸为13×13、26×26、52×52的特征图用于缺陷种类的预测和边界框的回归。下面以尺寸13×13的特征图为例,首先把输入图像等分为13×13个网格,特征图上的每个pixel则负责预测对应位置的缺陷,其中每个pixel预测3个边界框,每个边界框有9个分量,分别是物体的中心位置(x,y)和它的高(h)和宽(w),以及置信度和类别数量(喷墨不均、PASS道、漏墨、布匹褶皱)。最后,使用非极大值抑制算法优化目标位置,进一步优化数码印花缺陷检测性能。实验结果表明,相较以往的目标检测算法,本发明基于深度神经网络的数码印花缺陷检测算法能够实现数码印花缺陷的实时准确检测,具有一定的实际使用价值。

Claims (6)

1.一种基于深度神经网络的数码印花织物缺陷检测方法,其特征在于,具体按照以下步骤实施:
步骤1、采集分辨率为416×416大小的RGB彩色数码印花织物缺陷图像;建立神经网络;
步骤2、利用步骤1获得的彩色数码印花织物缺陷图像,进行目标信息的提取和标定,建立数码印花织物缺陷样本数据集,得到训练集、验证集和测试集;
步骤3、利用步骤1建立的神经网络和ImageNet数据集的训练集建立损失函数,利用损失函数训练神经网络,得到预训练模型,利用步骤2得到的训练集和验证集对预训练模型进行调整和验证;
步骤4、利用步骤2得到的测试集对模型进行评价。
2.根据权利要求1所述的一种基于深度神经网络的数码印花织物缺陷检测方法,其特征在于,所述步骤1中集分辨率为416×416大小的RGB彩色数码印花织物缺陷图像具体按照以下实施:利用扫描仪获取数码印花织物缺陷图像,运用局部均值法调整图像分辨率为416×416;包含PASS道、漏墨、布匹褶皱以及喷墨不均4类缺陷,每类缺陷800张,共3200张样本图像,并将图像统一命名为######.jpg格式。
3.根据权利要求1所述的一种基于深度神经网络的数码印花织物缺陷检测方法,其特征在于,所述步骤1中的建立神经网络体按照以下实施:神经网络的构成具体如下:
1)建立CSPDarkNet53特征提取网络的子模块,CSPDarkNet53特征提取网络的子模块是在原DarkNet53子模块的基础上加上Cross Stage Partial,使其在保持网络结构轻量化的同时,增强其语义信息表达能力,子模块可对输入特征图进行2倍下采样,连续堆叠5个子模块,分别得到对输入图像进行8倍、16倍、32倍下采样的特征图作为特征融合网络的输入信息;
2)采用空间金字塔池化对经1)提取的特征图进行特征融合,使其输出特征图的像素点对于输入图像拥有较大的感受野,使其每个像素点都能够实现对于目标的检测,同时增加了每个像素点的语义信息,提高模型对于不同尺度目标的检测能力;
3)路径聚合网络旨在通过自底向上的路径增强顶层特征图的位置信息,缩短了低层与顶层特征之间的信息路径,通过自顶向下和自底向上的双向特征融合路径,使顶层的强语义信息与底层的强位置信息充分融合,提高了数码印花缺陷检测算法对于不同尺寸目标的检测能力;
4)利用分层预测的思想实现对于大、中、小目标的分层检测,使得顶层更关注于大目标的检测,底层更关注于小目标的检测。
4.根据权利要求1所述的一种基于深度神经网络的数码印花织物缺陷检测方法,其特征在于,所述步骤2具体按照以下实施:使用LabelImg标注工具对步骤1获得的彩色数码印花织物缺陷图像的印花缺陷信息进行标记,标记内容主要有输入缺陷标签,同时手动框选缺陷生成以图像左上角位置为基准的坐标信息,以及图像尺寸、存储路径的信息,并将标记信息生成的######.xml格式文件与######.jpg格式文件对应;从每类缺陷中随机选取600张作为训练样本,50张作为验证样本,150张作为测试样本。
5.根据权利要求1所述的一种基于深度神经网络的数码印花织物缺陷检测方法,其特征在于,所述步骤3具体按照以下实施:模型训练采用Python语言,Pytorch深度学习框架、第三方函数库Anaconda3.4.1完成。首先在ImageNet数据集上预训练网络模型,保存预训练的模型参数并使用我们的数据集对模型进行调整,作为数码印花缺陷检测算法的权重参数;反向传播过程中采用动量随机梯度下降算法更新网络的权值和偏置参数,经过53个epoch迭代得到最优的数码印花缺陷检测模型。
步骤3中建立损失函数具体按照以下实施:
1)置信度损失函数:
置信度损失函数缓解了单阶段目标检测中正负样本比例严重失衡和小目标缺陷难以检测的问题,权衡了难分、易分样本与正负样本(即织物有无缺陷)数量、大小织物缺陷(织物缺陷尺寸占输入图像尺寸的比率)目标数量的关系,公式(1)为置信度损失函数;
Lobj=-αylog(y′)(1-y′)2(1-β)-(1-α)(1-y)log(1-y′)(y′)2 (1)
上式中,y为锚包含目标的真实值、y′为其对应的预测值、参数α用来调整正负样本的比例、β为真实框面积占输入图像面积的比例;
2)类别损失函数:
类别损失函数增加了小目标缺陷的权重,权衡了大目标和小目标在损失函数所占的比例,使其更关注于小目标的检测,公式(2)为类别损失函数;
Lcls=-ylog(y′)(1-β)-(1-y)log(1-y′) (2)
上式中,y为锚包含目标类别的真实值、y′为其对应的预测值、β为真实框面积占输入图像面积的比例;
3)边界框回归损失函数:
边界框回归损失函数同时考虑了预测框和目标框重叠区域、中心点距离、长宽比的关系并权衡了大小缺陷目标对边界框的回归影响,提高了小目标边界框的回归能力,公式(3)为边界框回归损失函数;
Figure FDA0002742722560000031
上式中,
Figure FDA0002742722560000032
p表示预测框和真实框中心点的欧式距离、c表示预测框和真实框的最小外接矩形的对角线距离、α是用于做trade-off的参数,u是用来衡量长宽比一致性的参数,λ为真实框面积占输入图像面积的比例;
4)总损失函数:
总损失函数为置信度损失函数、类别损失函数和边界框回归损失函数三者的叠加,公式(4)为总损失函数;
Lsum=εLobj+φLcls+γLCIoU (4)
上式中,ε、φ和γ用来平衡置信度损失、类别损失和边界框回归损失三者占总损失的比例。
6.根据权利要求1所述的一种基于深度神经网络的数码印花织物缺陷检测方法,其特征在于,所述步骤4具体按照以下实施:为了评估数码印花缺陷检测模型针对不同缺陷类型的检测性能,选取AP指标来评价模型对于每类缺陷的检测精度,mAP指标来综合评价模型对于各类缺陷的检测精度,完成数码印花织物缺陷检测模型的评价。
CN202011155761.6A 2020-10-26 2020-10-26 一种基于深度神经网络的数码印花织物缺陷检测方法 Pending CN112270722A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011155761.6A CN112270722A (zh) 2020-10-26 2020-10-26 一种基于深度神经网络的数码印花织物缺陷检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011155761.6A CN112270722A (zh) 2020-10-26 2020-10-26 一种基于深度神经网络的数码印花织物缺陷检测方法

Publications (1)

Publication Number Publication Date
CN112270722A true CN112270722A (zh) 2021-01-26

Family

ID=74341424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011155761.6A Pending CN112270722A (zh) 2020-10-26 2020-10-26 一种基于深度神经网络的数码印花织物缺陷检测方法

Country Status (1)

Country Link
CN (1) CN112270722A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112906794A (zh) * 2021-02-22 2021-06-04 珠海格力电器股份有限公司 一种目标检测方法、装置、存储介质及终端
CN112907529A (zh) * 2021-02-09 2021-06-04 南京航空航天大学 一种基于图像的编织预制体缺陷检测方法及装置
CN113192040A (zh) * 2021-05-10 2021-07-30 浙江理工大学 一种基于YOLO v4改进算法的织物瑕疵检测方法
CN113313694A (zh) * 2021-06-05 2021-08-27 西北工业大学 一种基于轻量型卷积神经网络的表面缺陷快速检测方法
CN113313706A (zh) * 2021-06-28 2021-08-27 安徽南瑞继远电网技术有限公司 基于检测参考点偏移分析的电力设备缺陷图像检测方法
CN113377356A (zh) * 2021-06-11 2021-09-10 四川大学 一种用户界面原型代码的生成方法、装置、设备及介质
CN113516650A (zh) * 2021-07-30 2021-10-19 深圳康微视觉技术有限公司 基于深度学习的电路板塞孔缺陷检测方法及装置
CN113538392A (zh) * 2021-07-26 2021-10-22 长江存储科技有限责任公司 晶圆的检测方法、设备及存储介质
CN114397306A (zh) * 2022-03-25 2022-04-26 南方电网数字电网研究院有限公司 一种电网均压环超复杂类别缺陷多阶段模型联合检测方法
CN114519803A (zh) * 2022-01-24 2022-05-20 东莞理工学院 一种基于迁移学习的小样本目标识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107316295A (zh) * 2017-07-02 2017-11-03 苏州大学 一种基于深度神经网络的织物瑕疵检测方法
WO2019104767A1 (zh) * 2017-11-28 2019-06-06 河海大学常州校区 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法
CN110930387A (zh) * 2019-11-21 2020-03-27 中原工学院 基于深度可分离卷积神经网络的织物疵点检测方法
CN111292305A (zh) * 2020-01-22 2020-06-16 重庆大学 一种改进型yolo-v3的金属加工表面缺陷检测方法
CN111462051A (zh) * 2020-03-14 2020-07-28 华中科技大学 一种基于深度神经网络的布匹疵点检测方法和系统
CN111553898A (zh) * 2020-04-27 2020-08-18 东华大学 一种基于卷积神经网络的面料疵点检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107316295A (zh) * 2017-07-02 2017-11-03 苏州大学 一种基于深度神经网络的织物瑕疵检测方法
WO2019104767A1 (zh) * 2017-11-28 2019-06-06 河海大学常州校区 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法
CN110930387A (zh) * 2019-11-21 2020-03-27 中原工学院 基于深度可分离卷积神经网络的织物疵点检测方法
CN111292305A (zh) * 2020-01-22 2020-06-16 重庆大学 一种改进型yolo-v3的金属加工表面缺陷检测方法
CN111462051A (zh) * 2020-03-14 2020-07-28 华中科技大学 一种基于深度神经网络的布匹疵点检测方法和系统
CN111553898A (zh) * 2020-04-27 2020-08-18 东华大学 一种基于卷积神经网络的面料疵点检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
张丽瑶;王志鹏;徐功平;: "基于SSD的织物瑕疵检测的研究", 电子设计工程, no. 06 *
景军锋;刘娆;: "基于卷积神经网络的织物表面缺陷分类方法", 测控技术, no. 09 *
金侠挺;王耀南;张辉;刘理;钟杭;贺振东;: "基于贝叶斯CNN和注意力网络的钢轨表面缺陷检测系统", 自动化学报, no. 12 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112907529A (zh) * 2021-02-09 2021-06-04 南京航空航天大学 一种基于图像的编织预制体缺陷检测方法及装置
CN112906794A (zh) * 2021-02-22 2021-06-04 珠海格力电器股份有限公司 一种目标检测方法、装置、存储介质及终端
CN113192040B (zh) * 2021-05-10 2023-09-22 浙江理工大学 一种基于YOLO v4改进算法的织物瑕疵检测方法
CN113192040A (zh) * 2021-05-10 2021-07-30 浙江理工大学 一种基于YOLO v4改进算法的织物瑕疵检测方法
CN113313694A (zh) * 2021-06-05 2021-08-27 西北工业大学 一种基于轻量型卷积神经网络的表面缺陷快速检测方法
CN113377356A (zh) * 2021-06-11 2021-09-10 四川大学 一种用户界面原型代码的生成方法、装置、设备及介质
CN113313706A (zh) * 2021-06-28 2021-08-27 安徽南瑞继远电网技术有限公司 基于检测参考点偏移分析的电力设备缺陷图像检测方法
CN113313706B (zh) * 2021-06-28 2022-04-15 安徽南瑞继远电网技术有限公司 基于检测参考点偏移分析的电力设备缺陷图像检测方法
CN113538392A (zh) * 2021-07-26 2021-10-22 长江存储科技有限责任公司 晶圆的检测方法、设备及存储介质
CN113516650A (zh) * 2021-07-30 2021-10-19 深圳康微视觉技术有限公司 基于深度学习的电路板塞孔缺陷检测方法及装置
CN113516650B (zh) * 2021-07-30 2023-08-25 深圳康微视觉技术有限公司 基于深度学习的电路板塞孔缺陷检测方法及装置
CN114519803A (zh) * 2022-01-24 2022-05-20 东莞理工学院 一种基于迁移学习的小样本目标识别方法
CN114397306A (zh) * 2022-03-25 2022-04-26 南方电网数字电网研究院有限公司 一种电网均压环超复杂类别缺陷多阶段模型联合检测方法

Similar Documents

Publication Publication Date Title
CN112270722A (zh) 一种基于深度神经网络的数码印花织物缺陷检测方法
Zhang et al. Detection of surface defects on solar cells by fusing Multi-channel convolution neural networks
CN107134144A (zh) 一种用于交通监控的车辆检测方法
CN109711474A (zh) 一种基于深度学习的铝材表面缺陷检测算法
CN110992311A (zh) 一种基于特征融合的卷积神经网络瑕疵检测方法
CN108009509A (zh) 车辆目标检测方法
CN109523520A (zh) 一种基于深度学习的染色体自动计数方法
CN113920107A (zh) 一种基于改进yolov5算法的绝缘子破损检测方法
CN109583483A (zh) 一种基于卷积神经网络的目标检测方法和系统
CN110287806A (zh) 一种基于改进ssd网络的交通标志识别方法
CN110135430A (zh) 一种基于深度神经网络的铝材模具id自动识别系统
CN111444939A (zh) 电力领域开放场景下基于弱监督协同学习的小尺度设备部件检测方法
CN114240885B (zh) 一种基于改进的Yolov4网络的布匹瑕疵检测方法
CN114092700B (zh) 基于目标检测和知识图谱的古文字识别方法
CN109614866A (zh) 基于级联深度卷积神经网络的人脸检测方法
CN109685968A (zh) 一种基于卷积神经网络的纸币图像缺陷的识别模型构建以及识别方法
CN116310718A (zh) 一种基于YOLOv5模型的害虫目标检测方法、系统及设备
CN108509953A (zh) 一种电视台标检测识别方法
CN110135480A (zh) 一种基于无监督物体检测消除偏差的网络数据学习方法
CN112884741B (zh) 一种基于图像相似性对比的印刷表观缺陷检测方法
CN109815957A (zh) 一种基于彩色图像在复杂背景下的文字识别方法
CN117372332A (zh) 一种基于改进YOLOv7模型的织物瑕疵检测方法
CN116309398A (zh) 一种多通道特征融合学习的印制电路板小目标缺陷检测方法
CN116883741A (zh) 一种基于金字塔注意力机制的小样本虫害检测方法
CN110348311A (zh) 一种基于深度学习的道路交叉口识别系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination