CN116823718A - 一种基于深度学习的筒纱缺陷图像分类方法 - Google Patents
一种基于深度学习的筒纱缺陷图像分类方法 Download PDFInfo
- Publication number
- CN116823718A CN116823718A CN202310407403.7A CN202310407403A CN116823718A CN 116823718 A CN116823718 A CN 116823718A CN 202310407403 A CN202310407403 A CN 202310407403A CN 116823718 A CN116823718 A CN 116823718A
- Authority
- CN
- China
- Prior art keywords
- sample
- model
- defect image
- layer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007547 defect Effects 0.000 title claims abstract description 48
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract description 18
- 230000007246 mechanism Effects 0.000 claims abstract description 13
- 239000004753 textile Substances 0.000 claims abstract description 8
- 230000001965 increasing effect Effects 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 23
- 238000010606 normalization Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 12
- 238000009826 distribution Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 6
- 238000002474 experimental method Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000004519 manufacturing process Methods 0.000 claims description 5
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims 1
- 230000002776 aggregation Effects 0.000 claims 1
- 238000007781 pre-processing Methods 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 12
- 230000008901 benefit Effects 0.000 description 3
- 238000009940 knitting Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000009987 spinning Methods 0.000 description 3
- 238000007619 statistical method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000009941 weaving Methods 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供了一种基于深度学习的筒纱缺陷图像分类方法,属于纺织工艺技术领域。其技术方案为:包括以下步骤:S1、构建筒纱缺陷图像数据集;S2、构建筒纱缺陷图像特征提取模型结构;S3、融入Transformer框架,增加多头自注意力机制;S4、融入稳定学习框架,增加傅里叶特征特征提取层与样本权重学习层;S5、使用所述数据集对网络模型进行训练和验证,得到目标识别模型。本发明的有益效果为:本发明能够提高模型的语义理解能力,提高筒纱缺陷分类的准确性;能够消除背景特征与本质特征的相关联系,提高模型的泛化能力。
Description
技术领域
本发明涉及纺织工艺技术领域,尤其涉及一种基于深度学习的筒纱缺陷图像分类方法。
背景技术
近年来,纺织行业发展迅速,我国已经成为全世界最大的纺织品生产国家。纺织工艺流程包括纺纱工序和织造工艺,其中,络筒工序为纺纱工序与织造工序承上启下的一道工序,它的作用是将捻线机上下来的管纱重新卷绕成一定形状、容量大的筒纱。筒纱在成型过程中可能产生多种缺陷问题,如乱纱、松皮纱、重叠纱和腰带纱等,筒纱出现乱纱、腰带纱会造成退绕不良,引起断头;针织机织造时,筒纱乱纱会使织针在行针过程中套圈失败,甚至断针,造成破洞。目前,企业在针对筒纱缺陷问题,采用的是人工检测的方法,然而人工检测准确率低,检测速度慢,人工成本高,因此如何提高纺织生产线上筒纱检测的效益是极其重要的。
目前,对于筒纱缺陷检测的研究主要为传统图像处理方法。比如空间域图像特征统计方法、空间域图像特征统计方法。统计方法在用于描述纹理图像的全局特性时有操作简便、计算量小的优点,但对于点状、线状等细小瑕疵的检测则有相对的不足;频谱法将图像纹理映射到频率域,在尺度上对细小瑕疵的检测效果较好,但随之而来的抗噪声性效果较差,且频谱法的计算量普遍较大,难以应用于工厂复杂多变的环境。这严重限制了传统分析方法的应用范围。
发明内容
本发明的目的在于提供一种基于深度学习的筒纱缺陷图像分类方法,对于点状、线状等细小瑕疵的检测,通过Transformer解码器解码,可以提高小目标缺陷的检测精度,对于工厂环境复杂多变,训练数据和测试数据的分布发生偏移时,通过稳定学习消除背景特征的影响,提高模型的泛化能力。
为了实现上述发明目的,本发明采用技术方案具体为:一种基于深度学习的筒纱缺陷图像分类方法,其中,包括以下步骤:
步骤一、构建筒纱缺陷图像数据集;
步骤二、构建筒纱缺陷图像特征提取模型结构;
步骤三、融入Transformer框架,提高语义理解能力,提高模型分类的准确性;
步骤四、融入稳定学习框架,增加傅里叶特征特征提取层(RFF Extractor)与样本权重学习层(LSWD),消除背景特征与本质特征的相关联系,提高模型的泛化能力;
步骤五、使用所述数据集对网络模型进行训练和验证,得到目标识别模型。
进一步地,所述步骤一包含如下步骤:
1-1)、利用工业相机对纺织厂生产线上筒纱进行采集图像,采集过程中不要混入多个筒纱,保证样本纯度;
1-2)、对采集的数据图像增加白色、黑色、蓝色、绿色四种不同的背景颜色,背景颜色提供主体特征有偏数据分布,增加实用性与适用性。
1-3)、对上述数据图像进行裁剪、缩放、翻转、移位、旋转、亮度和增加噪声,增强图片数据,得到最终数据集;
进一步地,所述步骤二包含如下步骤:
2-1)、构建以ResNet-18为基础网络结构模型,对筒纱缺陷图像进行特征提取。具体包括:
a)筒纱缺陷图像经过预处理,生成为像素256×像素256的三通道RGB图像。图像数据进入网络后经过一个卷积核为7×7,步距为2的卷积层,经过批归一化处理(Batchnormalization,BN)、激活函数(Activation function)、以及一个3×3的最大池化层下采样。
b)4个残差结构卷积模块进行浅层至深层的特征提取,每个卷积块包括两个残差单元,每个残差单元又包括两个卷积层,即通过堆叠3×3卷积来提取特征信息,每隔两个卷积层引入残差结构。
c)通过1×1的平均池化层下采样,得到图像特征图(Feature Map)。
进一步地,所述步骤三包含如下步骤:
3-1)、将图像特征图分成9部分,输入到Transformer编码器中进行全局信息提取。
3-2)、Transformer编码器内部结构通过层归一化、多头自注意力、多层感知机以及残差连接组成,精确分割提取到的空间信息和全局信息。具体包括:
a)自注意力机制由查询矩阵Q,键矩阵K以及值矩阵V组成,自注意力机制公式为:
QKT计算出输入矩阵的注意力分数,缩放因子可以提高稳定性,通过Softmax函数将注意力分数转换为概率,乘上值矩阵获得权重矩阵。
b)通过多个自注意力机制拼接成多头注意力,来提高自注意力机制的特征提取能力,公式为
MSA(Q,K,V)=Contact(head1,...headn)W0
W为权重矩阵,n为多头的数量,默认为6。
c)通过层归一化增加训练收敛速度,残差连接提高信息流。
3-3)、通过反复堆叠编码器不断地提取全局上下文依赖和聚合特征信息。
进一步地,所述步骤四中包含如下步骤:
4-1)、通过随机傅里叶特征(Random Fourier feature)对核函数进行替换,将输入的特征图从低维空间映射到R维空间,消除表征空间中的相关性。随机傅里叶函数公式为:
随机变量ω服从标准正态分布,b在区间[0,2π]内服从均匀分布;
4-2)、通过计算变量A,B之间的协方差最小值得到样本权重W,随机变量A,B的协方差矩阵公式为:进一步地,所述步骤四中包含如下步骤:
u和v为随机傅里叶特征映射函数,n为数据集样本数目。
4-3)、通过对样本权重W优化得到W*,优化后的权重公式为:
为特征z:,i和z:,j的部分协方差矩阵。
4-4)、在每个训练迭代的结束融合并保存当前的样本特征与权重,在下一个训练迭代开始时重加载,作为训练数据的全局先验知识优化新一轮的样本权重,用于优化样本权重的特征公式为:
ZO表示用于优化样本权重的样本特征,WO表示用于优化样本的权重。ZG1,ZG2,...,ZGK表示全局样本特征,WG1,WG2,...,WGK表示全局样本权重,在每轮迭代结束后重新进行更新,代表了筒纱缺陷数据集的全局样本信息。ZL和WL代表当前训练批次的样本特征及样本权重,代表本轮的样本信息。
4-5)、将计算得到的最优权重与模型的损失函数相乘得到最终的损失函数。
进一步地,所述步骤五中包含如下步骤:
5-1)、使用所述数据集对网络模型进行训练和验证,得到目标识别模型。
6-1)、结束实验。
与现有技术相比,本发明的有益效果为:
1、本发明提供的一种基于深度学习的筒纱缺陷检测方法,该方法是一种数据处理手段,由计算机视觉软件实现。用机器视觉技术及图像处理方法对筒纱缺陷进行检测处理显然能够克服人工检测的诸多弊端,极大提高检测精度和检测效率。
2、本发明融入Transformer框架,通过解码器对图像特征图解码,提高语义理解能力,结合更多的信息以提升小目标筒纱缺陷检测精度。
3、本发明融入稳定学习框架,在训练数据和测试数据的分布发生偏移时,可以去除本质特征和背景之间虚假相关关系,缩小训练数据和测试数据的分布差异,提高模型的泛化能力
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
图1为本发明提供的基于深度学习的筒纱缺陷图像分类的整体流程图。
图2为本发明提供的基于深度学习的筒纱缺陷图像分类的整体模型结构图。
图3为本发明提供的基于深度学习的筒纱缺陷图像分类的特征提取网络模型结构图。
图4为本发明提供的基于深度学习的筒纱缺陷图像分类的Transformer模型结构图。
图5为本发明提供的基基于深度学习的筒纱缺陷图像分类的稳定学习模型结构图。
图6为本发明中不同模型在数据集上对比结果示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。当然,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1至图6所示,本实施例提供一种基于深度学习的筒纱缺陷图像分类方法,包括以下步骤:
步骤1、构建筒纱缺陷图像数据集;
步骤2、构建筒纱缺陷图像特征提取模型结构;
步骤3、融入Transformer框架,提高语义理解能力,提高模型分类的准确性;
步骤4、融入稳定学习框架,增加傅里叶特征特征提取层(RFF Extractor)与样本权重学习层(LSWD),消除背景特征与本质特征的相关联系,提高模型的泛化能力;
步骤5、使用所述数据集对网络模型进行训练和验证,得到目标识别模型。
具体地,步骤1:构建筒纱缺陷图像数据集,具体包括:
1-1)、利用工业相机对纺织厂生产线上筒纱进行采集图像,采集过程中不要混入多个筒纱,保证样本纯度;
1-2)、对采集的数据图像增加白色、黑色、蓝色、绿色四种不同的背景颜色,背景颜色提供主体特征有偏数据分布,增加实用性与适用性。
1-3)、对上述数据图像进行裁剪、缩放、翻转、移位、旋转、亮度和增加噪声,增强图片数据,得到最终数据集;
步骤2:构建筒纱缺陷图像特征提取模型结构。如图3所示,具体包括:
2-1)、构建以ResNet-18为基础网络结构模型,对筒纱缺陷图像进行特征提取。具体包括:
a)筒纱缺陷图像经过预处理,生成为像素256×像素256的三通道RGB图像。图像数据进入网络后经过一个卷积核为7×7,步距为2的卷积层,经过批归一化处理(Batchnormalization,BN)、激活函数(Activation function)、以及一个3×3的最大池化层下采样。
b)4个残差结构卷积模块进行浅层至深层的特征提取,每个卷积块包括两个残差单元,每个残差单元又包括两个卷积层,即通过堆叠3×3卷积来提取特征信息,每隔两个卷积层引入残差结构。
c)通过1×1的平均池化层下采样,得到图像特征图(Feature Map)。
步骤3:融入Transformer框架,通过语义理解能力,提高模型分类的准确性。如图4所示,具体包括:
3-1)、将图像特征图分成9部分,输入到Transformer编码器中进行全局信息提取。
3-2)、Transformer编码器内部结构通过层归一化、多头自注意力、多层感知机以及残差连接组成,精确分割提取到的空间信息和全局信息。具体包括:
a)自注意力机制由查询矩阵Q,键矩阵K以及值矩阵V组成,自注意力机制公式为:
QKT计算出输入矩阵的注意力分数,缩放因子可以提高稳定性,通过Softmax函数将注意力分数转换为概率,乘上值矩阵获得权重矩阵。
b)通过多个自注意力机制拼接成多头注意力,来提高自注意力机制的特征提取能力,公式为
MSA(Q,K,V)=Contact(head1,...headn)W0
W为权重矩阵,n为多头的数量,默认为6。
c)通过层归一化增加训练收敛速度,残差连接提高信息流。
3-3)、通过反复堆叠编码器不断地提取全局上下文依赖和聚合特征信息。
步骤4:融入稳定学习框架,通过傅里叶特征特征提取层(RFF Extractor)与因果权重计算层(LSWD),消除背景特征与本质特征的相关联系,提高模型的泛化能力。如图5所示,具体包括:
4-1)、通过随机傅里叶特征(Random Fourier feature)对核函数进行替换,将输入的特征图从低维空间映射到R维空间,消除表征空间中的相关性。随机傅里叶函数公式为:
随机变量ω服从标准正态分布,b在区间[0,2π]内服从均匀分布;
4-2)、通过计算变量A,B之间的协方差最小值得到样本权重W,随机变量A,B的协方差矩阵公式为:进一步地,所述步骤四中包含如下步骤:
u和v为随机傅里叶特征映射函数,n为数据集样本数目。
4-3)、通过对样本权重W优化得到W*,优化后的权重公式为:
为特征z:,i和z:,j的部分协方差矩阵。
4-4)、在每个训练迭代的结束融合并保存当前的样本特征与权重,在下一个训练迭代开始时重加载,作为训练数据的全局先验知识优化新一轮的样本权重,用于优化样本权重的特征公式为:
ZO表示用于优化样本权重的样本特征,WO表示用于优化样本的权重。ZG1,ZG2,...,ZGK表示全局样本特征,WG1,WG2,...,WGK表示全局样本权重,在每轮迭代结束后重新进行更新,代表了筒纱缺陷数据集的全局样本信息。ZL和WL代表当前训练批次的样本特征及样本权重,代表本轮的样本信息。
4-5)、将计算得到的最优权重与模型的损失函数相乘得到最终的损失函数。
步骤5:使用所述数据集对网络模型进行训练和验证,得到目标识别模型。具体包括:
5-1)、通过使用连接远程服务器进行训练,操作系统为Ubuntu20.04.1、CPU为13thGenCore(TM)i9-13900k、GPU为/>GeForce RTXTM 4090。
5-2)、实验采用Pytorch深度学习框架,Python版本为3.9,Pytorch版本为1.10.2,CUDA版本为12.0,采用SGD优化器,配置了0.9的动量,初始学习率设为0.001,批量大小(batch size)设为64,共有100个周期。
5-3)、本次实验选取LeNet、AlexNet、ResNet18、VIT模型作为对比实验,在相同配置的服务器上使用相同的数据进行训练,来验证本发明提出的基于深度学习的筒纱缺陷图像分类方法的可行性。
5-4)、不同模型在数据集上的实验结果如图6所示。在相同数据集上,LeNet、AlexNet、ResNet18、VIT模型的分类最高准确率分别为90.42%,86.47%,89.29%和96.00%,本发明方法最高准确率为99.73%,与其他模型分类方法最高分类准确率相比分别提高了9.31%,13.26%,10.44%和3.73%,验证了本发明方法的可行性。
5-5)、结束实验
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于深度学习的筒纱缺陷图像分类方法,其特征在于,包括以下步骤:
S1、构建筒纱缺陷图像数据集;
S2、构建筒纱缺陷图像特征提取模型结构;
S3、融入Transformer框架,通过语义理解能力,提高模型分类的准确性;
S4、融入稳定学习框架,通过傅里叶特征提取层(RFF Extractor)与样本权重学习层(LSWD),消除背景特征与本质特征的相关联系,提高模型的泛化能力;
S5、使用所述步骤S1中的数据集对网络模型进行训练和验证,得到目标识别模型。
2.根据权利要求1所述的基于深度学习的筒纱缺陷图像分类方法,其特征在于,所述步骤S1具体包括如下步骤:
S11、利用工业相机对纺织厂生产线上筒纱进行采集图像,采集过程中不要混入多个筒纱,保证样本纯度;
S12、对采集的数据图像增加白色、黑色、蓝色、绿色四种不同的背景颜色,背景颜色提供主体特征有偏数据分布,增加实用性与适用性;
S13、对上述数据图像进行裁剪、缩放、翻转、移位、旋转、亮度和增加噪声,增强图片数据,得到最终数据集;
所述步骤S2具体包括如下步骤:
S21:构建以ResNet-18为基础网络结构模型,对筒纱缺陷图像进行特征提取,具体包括以下步骤:
1)筒纱缺陷图像经过预处理,生成为像素256×像素256的三通道RGB图像,图像数据进入网络后经过一个卷积核为7×7,步距为2的卷积层,经过批归一化处理(Batchnormalization,BN)、激活函数(Activation function)、以及一个3×3的最大池化层下采样;
2)4个残差结构卷积模块进行浅层至深层的特征提取,每个卷积块包括两个残差单元,每个残差单元又包括两个卷积层,即通过堆叠3×3卷积来提取特征信息,每隔两个卷积层引入残差结构;
3)通过1×1的平均池化层下采样,得到图像特征图(Feature Map)。
3.根据权利要求1所述的基于深度学习的筒纱缺陷图像分类方法,其特征在于,所述步骤S3包括如下步骤:
S31:将图像特征图分成9部分,输入到Transformer编码器中进行全局信息提取;
S32:Transformer编码器内部结构通过层归一化、多头自注意力、多层感知机以及残差连接组成,精确分割提取到的空间信息和全局信息,具体包括以下步骤:
1)自注意力机制由查询矩阵Q,键矩阵K以及值矩阵V组成,自注意力机制公式为:
QKT计算出输入矩阵的注意力分数,缩放因子提高稳定性,通过Softmax函数将注意力分数转换为概率,乘上值矩阵获得权重矩阵;
2)通过多个自注意力机制拼接成多头注意力,来提高自注意力机制的特征提取能力,公式为:
MSA(Q,K,V)=Contact(head1,...headn)W0
W为权重矩阵,n为多头的数量,默认为6;
3)通过层归一化增加训练收敛速度,残差连接提高信息流;
S33、通过反复堆叠编码器不断地提取全局上下文依赖和聚合特征信息。
4.根据权利要求1所述的基于深度学习的筒纱缺陷图像分类方法,其特征在于,所述步骤S4具体包括如下步骤:
S41:通过随机傅里叶特征(Random Fourier feature)对核函数进行替换,将输入的特征图从低维空间映射到R维空间,消除表征空间中的相关性,随机傅里叶函数公式为:
随机变量ω服从标准正态分布,b在区间[0,2π]内服从均匀分布;
S42:通过计算变量A,B之间的协方差最小值得到样本权重W,随机变量A,B的协方差矩阵公式为:所述步骤四中包含如下步骤:
u和v为随机傅里叶特征映射函数,n为数据集样本数目;
S43:通过对样本权重W优化得到W*,优化后的权重公式为:
为特征z:,i和z:,j的部分协方差矩阵;
S44:在每个训练迭代的结束融合并保存当前的样本特征与权重,在下一个训练迭代开始时重加载,作为训练数据的全局先验知识优化新一轮的样本权重,用于优化样本权重的特征公式为:
ZO表示用于优化样本权重的样本特征,WO表示用于优化样本的权重,ZG1,ZG2,...,ZGK表示全局样本特征,WG1,WG2,...,WGK表示全局样本权重,在每轮迭代结束后重新进行更新,代表了筒纱缺陷数据集的全局样本信息,ZL和WL代表当前训练批次的样本特征及样本权重,代表本轮的样本信息。
5.根据权利要求1所述的基于深度学习的筒纱缺陷图像分类方法,其特征在于,所述步骤S5具体包括如下步骤:
S51:使用所述数据集对网络模型进行训练和验证,得到目标识别模型;
S52:结束实验。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310407403.7A CN116823718B (zh) | 2023-04-17 | 2023-04-17 | 一种基于深度学习的筒纱缺陷图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310407403.7A CN116823718B (zh) | 2023-04-17 | 2023-04-17 | 一种基于深度学习的筒纱缺陷图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116823718A true CN116823718A (zh) | 2023-09-29 |
CN116823718B CN116823718B (zh) | 2024-02-23 |
Family
ID=88111690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310407403.7A Active CN116823718B (zh) | 2023-04-17 | 2023-04-17 | 一种基于深度学习的筒纱缺陷图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116823718B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117557503A (zh) * | 2023-10-25 | 2024-02-13 | 维克多精密工业(深圳)有限公司 | 基于人工智能的热成型模具检测方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110570396A (zh) * | 2019-08-07 | 2019-12-13 | 华中科技大学 | 一种基于深度学习的工业产品缺陷检测方法 |
CN114897894A (zh) * | 2022-07-11 | 2022-08-12 | 海门市芳华纺织有限公司 | 一种筒纱菊花芯缺陷检测方法 |
WO2023019636A1 (zh) * | 2021-08-18 | 2023-02-23 | 浙江工商大学 | 一种基于深度学习网络的瑕疵点识别方法 |
-
2023
- 2023-04-17 CN CN202310407403.7A patent/CN116823718B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110570396A (zh) * | 2019-08-07 | 2019-12-13 | 华中科技大学 | 一种基于深度学习的工业产品缺陷检测方法 |
WO2023019636A1 (zh) * | 2021-08-18 | 2023-02-23 | 浙江工商大学 | 一种基于深度学习网络的瑕疵点识别方法 |
CN114897894A (zh) * | 2022-07-11 | 2022-08-12 | 海门市芳华纺织有限公司 | 一种筒纱菊花芯缺陷检测方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117557503A (zh) * | 2023-10-25 | 2024-02-13 | 维克多精密工业(深圳)有限公司 | 基于人工智能的热成型模具检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116823718B (zh) | 2024-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116823718B (zh) | 一种基于深度学习的筒纱缺陷图像分类方法 | |
JP5282658B2 (ja) | 画像学習、自動注釈、検索方法及び装置 | |
CN103077512B (zh) | 基于主成分析的数字图像的特征提取与匹配方法 | |
CN108520114A (zh) | 一种纺织布疵点检测模型及其训练方法和应用 | |
CN110992317A (zh) | 一种基于语义分割的pcb板缺陷检测方法 | |
Zhang et al. | Zju-leaper: A benchmark dataset for fabric defect detection and a comparative study | |
CN109410255A (zh) | 一种基于改进的sift与哈希算法的图像配准方法及装置 | |
Chang et al. | Fabric defect detection based on pattern template correction | |
CN113344923B (zh) | 化纤丝锭表面缺陷检测方法、装置、电子设备及存储介质 | |
CN111858990B (zh) | 一种基于卷积分类网络的晶圆图失效模式相似检索的方法 | |
US12056950B2 (en) | Transformer-based multi-scale pedestrian re-identification method | |
WO2019196718A1 (zh) | 元素图像生成方法、装置及系统 | |
CN110163631A (zh) | 客户精准服务方法、装置、计算机设备及存储介质 | |
Gu et al. | Dot-coded structured light for accurate and robust 3D reconstruction | |
CN108363962B (zh) | 一种基于多层次特征深度学习的人脸检测方法及系统 | |
CN111126303B (zh) | 一种面向智能停车的多车位检测方法 | |
CN112819837A (zh) | 一种基于多源异构遥感影像的语义分割方法 | |
Azeem et al. | A robust automatic meter reading system based on mask-rcnn | |
CN116862883A (zh) | 基于图像语义分割的混凝土坍落度检测方法 | |
CN114220012B (zh) | 一种基于深度自注意力网络的纺织品棉麻鉴别方法 | |
CN116091818A (zh) | 基于多神经网络级联模型的指针式仪表读数识别方法 | |
Tena et al. | East Nusa Tenggara Weaving Image Retrieval Using Convolutional Neural Network | |
CN114463764A (zh) | 表格线检测方法、装置、计算机设备和存储介质 | |
Yang et al. | Adaptive density peak clustering for determinging cluster center | |
CN117876291A (zh) | 一种基于深度学习的络筒机槽筒纱线缠绕检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |