CN110490858A - 一种基于深度学习的织物缺陷像素级分类方法 - Google Patents

一种基于深度学习的织物缺陷像素级分类方法 Download PDF

Info

Publication number
CN110490858A
CN110490858A CN201910775145.1A CN201910775145A CN110490858A CN 110490858 A CN110490858 A CN 110490858A CN 201910775145 A CN201910775145 A CN 201910775145A CN 110490858 A CN110490858 A CN 110490858A
Authority
CN
China
Prior art keywords
network model
mobile
convolution
method based
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910775145.1A
Other languages
English (en)
Other versions
CN110490858B (zh
Inventor
景军锋
王震
张缓缓
苏泽斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Polytechnic University
Original Assignee
Xian Polytechnic University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Polytechnic University filed Critical Xian Polytechnic University
Priority to CN201910775145.1A priority Critical patent/CN110490858B/zh
Publication of CN110490858A publication Critical patent/CN110490858A/zh
Application granted granted Critical
Publication of CN110490858B publication Critical patent/CN110490858B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种基于深度学习的织物缺陷像素级分类方法,具体按照如下步骤实施:步骤1,采集有缺陷的织物图像组成图片集;步骤2,建立MobileNetV2网络模型;步骤3,用MobileNetV2网络模型对预训练集进行训练;步骤4,建立Mobile‑Unet网络模型;步骤5利用Mobile‑Unet网络模型对训练集进行训练;步骤6,训练好的Mobile‑Unet网络模型对输入图片进行分类,输出分类后的图像。本发明能够对有缺陷织物进行像素级分割,且本发明中参数与模型更小,提高了算法的鲁棒性。

Description

一种基于深度学习的织物缺陷像素级分类方法
技术领域
本发明属于图像分割技术领域,涉及一种基于深度学习的织物缺陷像素级分类方法。
背景技术
纺织行业竞争日趋激烈,布匹织造完成后的最后一个工序通常是织物缺陷检测,进而评价产品等级,质量的优劣程度对纺织生产影响巨大,各大纺织企业面临着低成本,高标准,效率高的巨大压力。针对织物表面缺陷检测,众多国内外学者做了相关研究。这些检测方法可以分为三类:基于统计的方法、基于频域的方法、基于模型的方法、基于学习的方法。基于统计的方法依赖参数的选择,准确性较差、精度不高。基于频域的方法检测结果依赖于滤波器的选择,对复杂纹理织物检测效果差。基于模型的方法计算量较大,难以满足实时性的要求。以上方法给纹理缺陷机器视觉检测开辟了很好的道路,但在寻求对多变纹理适应性强的鲁棒性方法上有待进一步研究。
发明内容
本发明的目的是提供一种基于深度学习的织物缺陷像素级分类方法,能够对有缺陷织物进行像素级分割,且本发明中参数与模型更小,提高了算法的鲁棒性。
本发明所采用的技术方案是一种基于深度学习的织物缺陷像素级分类方法,具体按照如下步骤实施:
步骤1,采集有缺陷的织物图像,组成图片集;
步骤2,建立MobileNetV2网络模型;
步骤3,对图片集进行图片分类,分类好的图片集组成预训练集,利用MobileNetV2网络模型对预训练集进行训练;
步骤4,建立Mobile-Unet网络模型,Mobile-Unet网络模型由编码部分和解码部分组成,编码部分为MobileNetV2网络模型中训练好的Inverted Residual卷积模块;
步骤5将图片集分为两部分,一部分为测试集;对另一部分进行像素级标记,标记好的图片作为训练集,利用Mobile-Unet网络模型对训练集进行训练;
步骤6,从测试集中选取一张图片作为输入图片,利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像。
本发明的特点还在于,
MobileNetV2网络模型包括Inverted Residual卷积模块和全连接分类层,Inverted Residual卷积模块包括三层卷积,第一层卷积与第三层卷积为卷积核大小为1*1的传统卷积,第二层卷积核大小为3*3的depth-wise卷积。
解码部分为与编码部分相对应的反卷积模块。
Mobile-Unet网络模型在构建中采用频加权损失函数解决样本中数据不均衡的问题。
本发明的有益效果是
一、depth-wise卷积相比与传统的卷积,模型参数更小,耗时更少;
二、本发明中采用的Mobile-Unet网络模型相比于主流算法的模型,其的参数大小与模型大小更小的,其计算量更小,计算速度更快,提高了算法的鲁棒性。
三、本发明一种基于深度学习的织物缺陷像素级分类方法的分割精度更高、分割更准确。
附图说明
图1是本发明一种基于深度学习的织物缺陷像素级分类方法的算法流程图;
图2是本发明一种基于深度学习的织物缺陷像素级分类方法中MobileNetV2网络模型的网络结构图;
图3是本发明一种基于深度学习的织物缺陷像素级分类方法中Mobile-Unet网络模型的网络结构图;
图4是本发明一种基于深度学习的织物缺陷像素级分类方法中的InvertedResidual卷积块;
图5是本发明一种基于深度学习的织物缺陷像素级分类方法中Mobile-Unet网络模型在学习过程中损失函数下降过程
图6为本发明一种基于深度学习的织物缺陷像素级分类方法中depth-wise卷积与传统卷积耗时对比图;
图7为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例1中的输入图像;
图8为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例1中的输出图像;
图9为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例2中的输入图像;
图10为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例2中的输出图像;
图11为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例3中的输入图像;
图12为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例3中的输出图像;
图13为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例4中的输入图像;
图14为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例4中的输出图像;
图15为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例5中的输入图像;
图16为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例5中的输出图像;
图17为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例6中的输入图像;
图18为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例6中的输出图像;
图19为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例7中的输入图像;
图20为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例7中的输出图像;
图21为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例8中的输入图像;
图22为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例8中的输出图像;
图23为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例9中的输入图像;
图24为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例9中的输出图像;
图25为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例10中的输入图像;
图26为本发明一种基于深度学习的织物缺陷像素级分类方法中实施例10中的输出图像;
图27为本发明一种基于深度学习的织物缺陷像素级分类方法中的Mobile-Unet网络模型与主流算法中模型在模型参数与模型大小的对比图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
一种基于深度学习的织物缺陷像素级分类方法,如图1所示,具体按照如下步骤实施:
步骤1,采集有缺陷的织物图像,组成图片集;
步骤2,建立MobileNetV2网络模型;
MobileNetV2网络模型包括Inverted Residual卷积模块和全连接分类层,Inverted Residual卷积模块包括三层卷积,第一层卷积与第三层卷积为卷积核大小为1*1的传统卷积,第二层卷积卷积核大小为3*3的depth-wise卷积。
MobileNetV2网络模型具体的网络结构如表1所示,其中D1-D5为5个InvertedResidual卷积模块,C1为全连接分类层,Conv代表传统卷积,BN代表批归一化层,Linear代表全连接层,N代表缺陷的类别,t表示扩张倍数,c表示输出通道数,n表示本次操作重复次数,s表示步长stride,k为卷积核大小,input size与output size代表输入与输出的尺寸。
表1 MobileNetV2网络模型的网络结构表
步骤3,对图片集进行图片分类,分类好的图片集组成预训练集,利用MobileNetV2网络模型对预训练集进行训练;
步骤4,建立Mobile-Unet网络模型,Mobile-Unet网络模型由编码部分和解码部分组成,编码部分为MobileNetV2网络模型中训练好的Inverted Residual卷积模块;解码部分为与编码部分相对应的反卷积模块;反卷积通过对解码部分提取的特征进行上采样,确保整个网络输入尺寸与输出尺寸相同。
Mobile-Unet网络模型的具体网络结构如表2所示,其中ConTranspose为反卷积,D1-D5为MobileNetV2的训练好的Inverted Residual卷积模块,X1-X5为D1-D5输出的特征,k为卷积核大小,t为膨胀因子,s为卷积步长,n代表缺陷的类别。网络的输入为大小为256*256的3通道RGB图像,输出尺寸为256*256,通道数为缺陷的类别数。
表2 Mobile-Unet网络模型的网络结构表
Mobile-Unet网络模型在构建中采用频加权损失函数解决样本中数据不均衡的问题,如式1所示:
其中N表示一张图片中像素的数量,C表示缺陷的种类,l表示人工标记的真实值,p表示网络预测值,w表示不同种类的权重,其计算方式为:
其中f表示某一种类出现的频率。中频加权损失函数平衡了种类分布之间的不均衡,提高了网络收敛的速度。
步骤5,将图片集分为两部分,一部分为测试集;对另一部分进行像素级标记,标记好的图片作为训练集,利用Mobile-Unet网络模型对训练集进行训练;
步骤6,从测试集中选取一张图片作为输入图片;,利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分割图像。
本发明中的损失函数下降过程如图5所示,可知迭代90次之后网络基本收敛。
本发明中采用的Inverted Residual卷积模块包括三层卷积,第一层卷积与第三层卷积为卷积核大小为1*1的传统卷积,第二层卷积核大小为3*3的depth-wise卷积。depth-wise卷积相比于传统的卷积,模型参数更小,且耗时更短,如图6所示为本发明采用的depth-wise卷积与传统卷积耗时对比,可知无论是在CPU上还是GPU上运行,depth-wise卷积的速度都更快。
以下为本发明的实施例,其中实施例1~实施例5中所用图片集为公开的FID数据集;实施例6~实施例10所用图片集为自己建立的YFI数据集;其中FID数据集与YFI数据集具体分类及数量如表3所示;
其中FID数据集包括有断经(Broken end),破洞(Hole),接头(Nettingmultiple),稀纬档(Thick bar),密路(Thin bar),正常(Reference)六类图片,每类图片各120张,每类图片中训练集和测试集的比为5:1;在做像素级分类时,像素级分类的方法为:将每张图片中断经(Broken end),破洞(Hole),接头(Knot),重网(Netting multiple),稀纬档(Thick bar),密路(Thin bar),用不同的颜色用ps填充,其对应关系为:断经-蓝绿色;破洞-品红;重网-红;稀纬档-绿色;密路-蓝色。
其中YFI数据集包括有漏(Drop stitch),油污(Blot),毛丝(Brokenfilament),破洞(Hole)四类;其中漏共300张,包括训练集250张,测试集50张,像素级分类时采用绿色填充;油污共250张,包括训练集200张,测试集50张,像素级分类时采用黄色填充;毛丝共290张,包括训练集240张,测试集50张,像素级分类时采用红色填充;油污共250张,包括训练集200张,测试集50张,像素级分类时采用蓝填充;
表3 FID数据集与YFI数据集图片分布表
实施例1
执行步骤1,采用FID数据集作为图片集;
执行步骤2~步骤5,得到训练好的Mobile-Unet网络模型;
执行步骤6,从测试集中选取一张图片作为输入图片,输入图片如图7所示;利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像,如图8所示。
实施例2
执行步骤1,采用FID数据集作为图片集;
执行步骤2~步骤5,得到训练好的Mobile-Unet网络模型;
执行步骤6,从测试集中选取一张图片作为输入图片,输入图片如图9所示;利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像,如图10所示。
实施例3
执行步骤1,采用FID数据集作为图片集;
执行步骤2~步骤5,得到训练好的Mobile-Unet网络模型;
执行步骤6,从测试集中选取一张图片作为输入图片,输入图片如图11所示;利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像,如图12所示。
实施例4
执行步骤1,采用FID数据集作为图片集;
执行步骤2~步骤5,得到训练好的Mobile-Unet网络模型;
执行步骤6,从测试集中选取一张图片作为输入图片,输入图片如图13所示;利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像,如图14所示。
实施例5
执行步骤1,采用FID数据集作为图片集;
执行步骤2~步骤5,得到训练好的Mobile-Unet网络模型;
执行步骤6,从测试集中选取一张图片作为输入图片,输入图片如图15所示;利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像,如图16所示。
实施例6
执行步骤1,采用YID数据集作为图片集;
执行步骤2~步骤5,得到训练好的Mobile-Unet网络模型;
执行步骤6,从测试集中选取一张图片作为输入图片,输入图片如图17所示;利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像,如图18所示。
实施例7
执行步骤1,采用YID数据集作为图片集;
执行步骤2~步骤5,得到训练好的Mobile-Unet网络模型;
执行步骤6,从测试集中选取一张图片作为输入图片,输入图片如图19所示;利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像,如图20所示。
实施例8
执行步骤1,采用YID数据集作为图片集;
执行步骤2~步骤5,得到训练好的Mobile-Unet网络模型;
执行步骤6,从测试集中选取一张图片作为输入图片,输入图片如图21所示;利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像,如图22所示。
实施例9
执行步骤1,采用YID数据集作为图片集;
执行步骤2~步骤5,得到训练好的Mobile-Unet网络模型;
执行步骤6,从测试集中选取一张图片作为输入图片,输入图片如图23所示;利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像,如图24所示。
实施例10
执行步骤1,采用YID数据集作为图片集;
执行步骤2~步骤5,得到训练好的Mobile-Unet网络模型;
执行步骤6,从测试集中选取一张图片作为输入图片,输入图片如图25所示;利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像,如图26所示。
另外,使用U-set、SegNet、和FCN这三种主流算法对FID数据集YID数据集做了像素级分割,并与本发明的方法作比较,如表4所示,其中使用像素准确率PA,平均准确率MPA,平均交占比MIoU来度量模型分割精度,PA,MPA,MIoU越大代表分割约准确,可以看出,本方法在YID与FID两个数据集上PA,MPA,MIoU均大于主流算法的PA,MPA,MIoU,在两个数据集上都取得了较好的像素级分类效果。
表4本发明方法与主流算法的比较
如图27为本发明使用的Mobile-Unet网络模型与U-set、SegNet、和FCN这三种主流算法在模型参数与模型大小的对比图;可以看出本发明中使用的Mobile-Unet网络模型的参数大小与模型大小都是最小的,也就是使用本发明的方法进行像素级分类,其计算量更小,计算速度更快,提高了算法的鲁棒性。

Claims (4)

1.一种基于深度学习的织物缺陷像素级分类方法,其特征在于,具体按照如下步骤实施:
步骤1,采集有缺陷的织物图像,组成图片集;
步骤2,建立MobileNetV2网络模型;
步骤3,对图片集进行图片分类,分类好的图片集组成预训练集,利用所述MobileNetV2网络模型对预训练集进行训练;
步骤4,建立Mobile-Unet网络模型,所述Mobile-Unet网络模型由编码部分和解码部分组成,所述编码部分为MobileNetV2网络模型中训练好的卷积模块;
步骤5,将所述图片集分为两部分,一部分为测试集;对另一部分进行像素级标记,标记好的图片作为训练集,利用所述Mobile-Unet网络模型对训练集进行训练;
步骤6,从测试集中选取一张图片作为输入图片,利用步骤5中训练好的Mobile-Unet网络模型对输入图片进行分类,输出分类后的图像。
2.如权利要求1所述的一种基于深度学习的织物缺陷像素级分类方法,其特征在于,所述MobileNetV2网络模型包括Inverted Residual卷积模块和全连接分类层,所述InvertedResidual卷积模块包括三层卷积,所述第一层卷积与第三层卷积为卷积核大小为1*1的传统卷积,所述第二层卷积核大小为3*3的depth-wise卷积。
3.如权利要求1所述的一种基于深度学习的织物缺陷像素级分类方法,所述解码部分为与编码部分相对应的反卷积模块。
4.如权利要求1所述的一种基于深度学习的织物缺陷像素级分类方法,其特征在于,所述Mobile-Unet网络模型在构建中采用频加权损失函数。
CN201910775145.1A 2019-08-21 2019-08-21 一种基于深度学习的织物缺陷像素级分类方法 Active CN110490858B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910775145.1A CN110490858B (zh) 2019-08-21 2019-08-21 一种基于深度学习的织物缺陷像素级分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910775145.1A CN110490858B (zh) 2019-08-21 2019-08-21 一种基于深度学习的织物缺陷像素级分类方法

Publications (2)

Publication Number Publication Date
CN110490858A true CN110490858A (zh) 2019-11-22
CN110490858B CN110490858B (zh) 2022-12-13

Family

ID=68552594

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910775145.1A Active CN110490858B (zh) 2019-08-21 2019-08-21 一种基于深度学习的织物缺陷像素级分类方法

Country Status (1)

Country Link
CN (1) CN110490858B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062918A (zh) * 2019-12-10 2020-04-24 歌尔股份有限公司 一种基于计算机视觉的异常检测方法及装置
CN111242073A (zh) * 2020-01-19 2020-06-05 武汉大学 一种融合加权Unet网络和IR-MAD的建筑物变化检测方法
CN111414860A (zh) * 2020-03-20 2020-07-14 杭州趣维科技有限公司 一种实时的人像跟踪分割方法
CN111595237A (zh) * 2020-05-13 2020-08-28 广西大学 一种基于机器视觉的织物尺寸测量分布式系统及方法
CN111784673A (zh) * 2020-06-30 2020-10-16 创新奇智(上海)科技有限公司 缺陷检测模型训练和缺陷检测方法、设备及存储介质
CN112132784A (zh) * 2020-08-22 2020-12-25 安徽大学 一种基于小样本深度卷积神经网络用于工业磁瓦缺陷图像分类和分割的方法
CN113223021A (zh) * 2021-05-28 2021-08-06 哈尔滨理工大学 一种基于UNet的肺部X光图像分割方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107316295A (zh) * 2017-07-02 2017-11-03 苏州大学 一种基于深度神经网络的织物瑕疵检测方法
CN107341499A (zh) * 2017-05-26 2017-11-10 昆明理工大学 一种基于无监督分割和elm的织物缺陷检测和分类方法
CN109145983A (zh) * 2018-08-21 2019-01-04 电子科技大学 一种基于轻量化网络的实时场景图像语义分割方法
CN109215037A (zh) * 2018-09-18 2019-01-15 Oppo广东移动通信有限公司 目标图像分割方法、装置及终端设备
CN109559298A (zh) * 2018-11-14 2019-04-02 电子科技大学中山学院 一种基于深度学习的乳液泵缺陷检测的方法
CN109685802A (zh) * 2018-12-13 2019-04-26 贵州火星探索科技有限公司 一种低延迟的视频分割实时预览方法
CN109741343A (zh) * 2018-12-28 2019-05-10 浙江工业大学 一种基于3D-Unet和图论分割的T1WI-fMRI图像肿瘤协同分割方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341499A (zh) * 2017-05-26 2017-11-10 昆明理工大学 一种基于无监督分割和elm的织物缺陷检测和分类方法
CN107316295A (zh) * 2017-07-02 2017-11-03 苏州大学 一种基于深度神经网络的织物瑕疵检测方法
CN109145983A (zh) * 2018-08-21 2019-01-04 电子科技大学 一种基于轻量化网络的实时场景图像语义分割方法
CN109215037A (zh) * 2018-09-18 2019-01-15 Oppo广东移动通信有限公司 目标图像分割方法、装置及终端设备
CN109559298A (zh) * 2018-11-14 2019-04-02 电子科技大学中山学院 一种基于深度学习的乳液泵缺陷检测的方法
CN109685802A (zh) * 2018-12-13 2019-04-26 贵州火星探索科技有限公司 一种低延迟的视频分割实时预览方法
CN109741343A (zh) * 2018-12-28 2019-05-10 浙江工业大学 一种基于3D-Unet和图论分割的T1WI-fMRI图像肿瘤协同分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
任欢欢: "应用GIS和FTDT的织物错花缺陷检测研究", 《激光与光电子学进展》 *
曹振军: "基于树莓派的深度学习色织物疵点检测研究", 《棉纺织技术》 *
王震: "基于主结构提取与签名算法的织物缺陷检测", 《电子测量与仪器学报 》 *
马浩等: "基于LBP和HOG特征的图案织物缺陷检测", 《电子测量与仪器学报》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062918A (zh) * 2019-12-10 2020-04-24 歌尔股份有限公司 一种基于计算机视觉的异常检测方法及装置
CN111062918B (zh) * 2019-12-10 2023-11-21 歌尔股份有限公司 一种基于计算机视觉的异常检测方法及装置
CN111242073A (zh) * 2020-01-19 2020-06-05 武汉大学 一种融合加权Unet网络和IR-MAD的建筑物变化检测方法
CN111414860A (zh) * 2020-03-20 2020-07-14 杭州趣维科技有限公司 一种实时的人像跟踪分割方法
CN111595237A (zh) * 2020-05-13 2020-08-28 广西大学 一种基于机器视觉的织物尺寸测量分布式系统及方法
CN111784673A (zh) * 2020-06-30 2020-10-16 创新奇智(上海)科技有限公司 缺陷检测模型训练和缺陷检测方法、设备及存储介质
CN111784673B (zh) * 2020-06-30 2023-04-18 创新奇智(上海)科技有限公司 缺陷检测模型训练和缺陷检测方法、设备及存储介质
CN112132784A (zh) * 2020-08-22 2020-12-25 安徽大学 一种基于小样本深度卷积神经网络用于工业磁瓦缺陷图像分类和分割的方法
CN113223021A (zh) * 2021-05-28 2021-08-06 哈尔滨理工大学 一种基于UNet的肺部X光图像分割方法
CN113223021B (zh) * 2021-05-28 2022-07-22 哈尔滨理工大学 一种基于UNet的肺部X光图像分割方法

Also Published As

Publication number Publication date
CN110490858B (zh) 2022-12-13

Similar Documents

Publication Publication Date Title
CN110490858A (zh) 一种基于深度学习的织物缺陷像素级分类方法
WO2023070911A1 (zh) 一种基于自注意力的彩色纹理织物缺陷区域的检测方法
CN106248559B (zh) 一种基于深度学习的白细胞五分类方法
CN109711474A (zh) 一种基于深度学习的铝材表面缺陷检测算法
CN107194872A (zh) 基于内容感知深度学习网络的遥感图像超分辨率重建方法
CN110473173A (zh) 一种基于深度学习语义分割的缺陷检测方法
CN111223093A (zh) 一种aoi缺陷检测方法
CN108960255A (zh) 基于颜色相似性和位置聚集性的显著性织物疵点检测方法
CN105893925A (zh) 基于肤色的人手检测方法及装置
CN109711288A (zh) 基于特征金字塔和距离约束fcn的遥感船舶检测方法
CN107909556A (zh) 基于卷积神经网络的视频图像去雨方法
CN109785250B (zh) 一种基于Criminisi算法的图像修复方法
CN105657402A (zh) 一种深度图恢复方法
CN108520114A (zh) 一种纺织布疵点检测模型及其训练方法和应用
CN110136126A (zh) 基于全卷积神经网络的织物纹理瑕疵检测方法
CN104537625A (zh) 一种基于方向标志位的Bayer彩色图像插值方法
CN112837295A (zh) 一种基于生成对抗网络的橡胶手套缺陷检测方法
WO2023050563A1 (zh) 一种基于自编码器的彩色纹理织物缺陷区域的检测方法
CN106373124B (zh) 基于灰度共生矩阵与ransac的工业产品表面缺陷视觉检测方法
CN106996935A (zh) 一种多层次模型布匹疵点检测方法和系统
CN111402197A (zh) 一种针对色织物裁片缺陷区域的检测方法
CN106485288A (zh) 一种色织物组织的自动识别方法
CN109509171A (zh) 一种基于gmm和图像金字塔的布匹疵点检测方法
CN106127234A (zh) 基于特征字典的无参考图像质量评价方法
CN110544253A (zh) 基于图像金字塔和列模板的织物瑕疵检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant