CN116823817A - 一种基于深度学习的纺织提花缺陷检测方法及系统 - Google Patents
一种基于深度学习的纺织提花缺陷检测方法及系统 Download PDFInfo
- Publication number
- CN116823817A CN116823817A CN202311084468.9A CN202311084468A CN116823817A CN 116823817 A CN116823817 A CN 116823817A CN 202311084468 A CN202311084468 A CN 202311084468A CN 116823817 A CN116823817 A CN 116823817A
- Authority
- CN
- China
- Prior art keywords
- defect
- jacquard
- training
- image data
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007547 defect Effects 0.000 title claims abstract description 216
- 239000004753 textile Substances 0.000 title claims abstract description 75
- 238000001514 detection method Methods 0.000 title claims abstract description 42
- 238000013135 deep learning Methods 0.000 title claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 81
- 238000000034 method Methods 0.000 claims abstract description 66
- 238000000605 extraction Methods 0.000 claims abstract description 52
- 238000013528 artificial neural network Methods 0.000 claims abstract description 49
- 238000013145 classification model Methods 0.000 claims abstract description 30
- 238000012360 testing method Methods 0.000 claims abstract description 28
- 238000009941 weaving Methods 0.000 claims abstract description 21
- 238000013507 mapping Methods 0.000 claims abstract description 13
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 239000002245 particle Substances 0.000 claims description 45
- 238000004364 calculation method Methods 0.000 claims description 27
- 238000005457 optimization Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 20
- 238000013461 design Methods 0.000 claims description 13
- 238000010606 normalization Methods 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000005284 excitation Effects 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 description 7
- 230000002950 deficient Effects 0.000 description 5
- 239000004744 fabric Substances 0.000 description 4
- 230000008439 repair process Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 238000012850 discrimination method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30124—Fabrics; Textile; Paper
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Abstract
本发明公开了一种基于深度学习的纺织提花缺陷检测方法及系统,包括以下步骤:通过信息采集端获取历史纺织提花图像数据,利用去噪的方式对数据实施预处理,并将数据分解为测试集与训练集;基于深度学习方法结合训练集设计缺陷判别方法,并根据判别方法对测试集进行检测生成缺陷样本;对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据扩充缺陷样本,并根据缺陷样本建立特征提取模型;将缺陷特征提取结果映射至模板纺织提花图像数据中分析其几何形状;将几何形状作为训练数据设计基于神经网络的提花缺陷分类模型;将构建完成的缺陷特征提取模型及分类模型与管理系统进行连接。本发明可以提高检测准确性,支持多类别缺陷检测。
Description
技术领域
本发明涉及纺织检测技术领域,具体来说,涉及一种基于深度学习的纺织提花缺陷检测方法及系统。
背景技术
纺织提花是一种纺织技术,通过在织物上交织不同颜色和材质的纱线,形成具有图案、花纹或装饰性效果的织物。提花织造可以在纺织品上创建出各种复杂的几何形状、图案和纹理。它通常使用专门的提花织机进行生产。在纺织提花中,可以使用计算机辅助设计软件来创建和编辑提花图案。这些图案可以通过计算机将指令传输给提花织机,控制织机上各个织纱机构的动作,从而实现图案的织造。
在纺织提花生产过程中,纺织提花检测是极其具有必要性的,通过提花检测提花图案的缺陷或错误,确保提花织物的质量符合要求,同时提花图案的正确性和一致性对于织物的美观和市场需求非常重要,同时通过提花检测,可以及时发现并纠正生产过程中的问题,改进和优化生产流程,提高生产效率和产品质量。综上所述,纺织提花检测对于确保产品质量、满足市场需求、保护品牌声誉和优化生产流程都具有重要的必要性。它可以帮助纺织企业提高竞争力,保持市场优势,并提供满足消费者需求的高质量产品。
但是在目前纺织提花检测过程中,仍然存在无法准确自动区分各种缺陷情况的情况,便会导致无法及时发现和纠正产品的真正问题,造成生产出有缺陷的产品,降低产品质量,甚至影响产品的可用性和安全性,因此,为了确保产品质量,准确自动区分不同的缺陷情况是非常重要的。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的问题,本发明提出一种基于深度学习的纺织提花缺陷检测方法及系统,以克服现有相关技术所存在的上述技术问题。
为此,本发明采用的具体技术方案如下:
根据本发明的一个方面,提供了一种基于深度学习的纺织提花缺陷检测方法,该检测方法包括以下步骤:
S1、通过信息采集端获取历史纺织提花图像数据,利用去噪的方式对数据实施预处理,并将数据分解为测试集与训练集;
S2、基于深度学习方法结合训练集设计缺陷判别方法,并根据判别方法对测试集进行检测生成缺陷样本;
S3、对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据扩充缺陷样本,并根据缺陷样本建立特征提取模型;
S4、将缺陷特征提取结果映射至模板纺织提花图像数据中分析其几何形状;
S5、将几何形状作为训练数据设计基于神经网络的提花缺陷分类模型;
S6、将构建完成的缺陷特征提取模型及分类模型与管理系统进行连接,实时输出纺织提花缺陷检测与分类结果。
进一步的,所述对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据扩充缺陷样本,并根据缺陷样本建立特征提取模型包括以下步骤:
S31、生成一组包含图嵌入模块、两个生成器、分类器及判别器的样本对抗训练的学习框架;
S32、将纺织提花图像映射至特征空间中,并通过一组生成器生成图像中与缺陷样本相似的合成样本;
S33、通过另一组生成器生成图像中与缺陷样本存在差异的未合成样本,并通过分类器对样本标签进行分类;
S34、根据判别器辨别生成的合成样本与缺陷样本之间的差异,设定一组生成器与判别器进行对抗训练,使生成的合成样本与缺陷样本更贴近,并通过分类器对合成样本与缺陷样本进行训练;
S35、在经过多次迭代训练后将生成的合成样本加入至缺陷样本中;
S36、根据扩充后的缺陷样本构建特征提取模型,输出提取结果,对结果进行重复率检测,并对重复率进行排序,选取重复率排序位于前列的结果生成缺陷特征。
进一步的,所述将缺陷特征提取结果映射至模板纺织提花图像数据中分析其几何形状包括以下步骤:
S41、确定纺织提花图像数据的坐标系,并将缺陷特征提取结果分别与图像坐标系对齐;
S42、通过图像处理技术将缺陷特征提取结果在图像数据上进行绘制标记;
S43、采用迭代阈值法对图像数据进行二值化分割,并采用边界跟踪方法进行边缘提取得到目标完整轮廓的边缘点集;
S44、对边缘点集构成的曲线进行多边形拟合,并对拟合后的多边形进行归一化处理提取几何特征;
S45、计算相应的几何特征参数,并将几何特征参数与几何形状进行比对确定其形状。
进一步的,所述采用迭代阈值法对图像数据进行二值化分割,并采用边界跟踪方法进行边缘提取得到目标完整轮廓的边缘点集包括以下步骤:
S431、将图像数据的最大灰度值和最小灰度值的均值作为灰度阈值的初始估计值,并通过灰度阈值将图像数据像素分为两组;
S432、分别计算两组图像数据像素中的所有像素的平均灰度值;
S433、重复步骤S431与步骤S432进行迭代得到灰度阈值,将大于灰度阈值的像素灰度值设置为指定数值,其余像素的灰度值设为零得到二值图像;
S434、在二值图像的坐标序列上通过大步距的方法找到起始点,并利用小步距顺时针搜索的方法寻找其余边界点,进行重复操作完成边缘点集的提取。
进一步的,所述对边缘点集构成的曲线进行多边形拟合,并对拟合后的多边形进行归一化处理提取几何特征包括以下步骤:
S441、设定边缘点集总个数,并根据当前边缘点集的序号给定一个距离阈值,创建一组空的链表;
S442、将每一个边缘点集中的起点与终点作为一条虚拟线段的两个端点,并计算两端点的边缘点该虚拟线段的距离;
S443、若上述距离小于设定的阈值,则将该虚拟线段定位多边形的一条边;
S444、通过上述步骤的处理得到拟合后的多边形顶点的有序集合,并以边界点集的形心到多边形顶点的最大距离作为归一化因子结合计算公式对拟合的多边形进行归一化处理;
S445、对归一化完成的多边形进行几何特征计算,其中几何特征包括面积、长宽及周长。
进一步的,所述将几何形状作为训练数据设计基于神经网络的提花缺陷分类模型包括以下步骤:
S51、将上述步骤得到的不同几何形状特征作为模型训练样本输入神经网络;
S52、通过依次实施初始化、隐含层及输出层计算、权值计算步骤完成神经网络模型训练;
S53、采用粒子群算法确定神经网络的最优权值与阈值,并计算粒子适应度值,更新粒子速度和位置;
S54、符合终止条件时输出神经网络的权值与阈值优化结果,并构建基于群智优化神经网络的提花缺陷分类模型。
进一步的,所述通过依次实施初始化、隐含层及输出层计算、权值计算步骤完成神经网络模型训练中输出层计算的计算公式为:
式中,/>表示第i个输入节点的变量;
f表示隐含层激励函数;
表示输入层和隐含层各神经元间彼此连接权值,j表示隐含层节点的数量;
n表示输入层节点数量。
进一步的,所述采用粒子群算法确定神经网络的最优权值与阈值,并计算粒子适应度值,更新粒子速度和位置包括以下步骤:
S531、初始化粒子群的相关参数,并获取神经网络拓扑结构,初始化处理神经网络权值与阈值长度;
S532、编码神经网络的阈值与权值,获取粒子群算法的初始种群;
S533、采用粒子群优化神经网络寻优迭代,获取各组粒子的适应度,并通过适应度值确定粒子极值和粒子群极值,其中粒子历史最佳位置为粒子寻优迭代过程中的最佳位置;
S534、通过计算公式更新处理迭代粒子的速度与位置,并判断是否符合终止条件。
进一步的,所述符合终止条件时输出神经网络的权值与阈值优化结果,并构建基于群智优化神经网络的提花缺陷分类模型包括以下步骤:
S541、输入涵盖几何特征多边形的样本,并将其分为训练集与测试集;
S542、将训练集进行输入完成神经网络训练,构建基于群智优化神经网络的提花缺陷分类模型;
S543、对构建完成的模型进行测试集输入测试其分类效果,并对其进行更新。
根据本发明的另一个方面,还提供了一种基于深度学习的纺织提花缺陷检测系统,该检测系统包括:数据采集模块、判别模块、建立模块、分析模块、设计模块及连接模块;
其中,所述数据采集模块与所述判别模块连接,所述判别模块与所述建立模块连接,所述建立模块与所述分析模块连接,所述分析模块与所述设计模块连接,所述设计模块与所述连接模块连接;
所述数据采集模块,用于通过信息采集端获取历史纺织提花图像数据,利用去噪的方式对数据实施预处理,并将数据分解为测试集与训练集;
所述判别模块,用于基于深度学习方法结合训练集设计缺陷判别方法,并根据判别方法对测试集进行检测生成缺陷样本;
所述建立模块,用于对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据扩充缺陷样本,并根据缺陷样本建立特征提取模型;
所述分析模块,用于将缺陷特征提取结果映射至模板纺织提花图像数据中分析其几何形状;
所述设计模块,用于将几何形状作为训练数据设计基于神经网络的提花缺陷分类模型;
所述连接模块,用于将构建完成的缺陷特征提取模型及分类模型与管理系统进行连接,实时输出纺织提花缺陷检测与分类结果。
本发明的有益效果为:
1、本发明提出的基于深度学习的纺织提花缺陷检测方法中先识别缺陷再对缺陷进行分类可以提高检测准确性,降低计算复杂度,支持多类别缺陷检测,便于缺陷定位和后期修复,首先基于历史纺织提花图像数据提取缺陷特征并构建特征提取模型,并根据特征提取模型输出的特征对缺陷进行分类,使得通过先识别缺陷,可以将注意力集中在可能存在缺陷的区域上,减少对正常区域的检测,从而提高检测准确性,同时纺织提花图像中可能存在多种不同类型的缺陷,通过先识别缺陷再进行分类,可以有效支持多类别的缺陷检测和分类,先识别缺陷可以提供缺陷的位置信息,有助于操作员快速定位和修复缺陷,从而提高生产效率。
2、本发明首先通过对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据,通过生成与缺陷样本相似的对抗样本,从而扩充缺陷样本的数量,对抗训练可以使模型对缺陷样本的干扰更加鲁棒,通过引入与缺陷样本相似的对抗样本,模型可以学会对缺陷进行更准确的分类和检测,提高模型对缺陷的识别能力,同时通过生成与缺陷样本相似的对抗样本,模型可以更好地学习到缺陷样本的特征和模式,从而提高对新样本的泛化能力。
3、本发明根据缺陷的形状建立分类模型可以帮助准确地判断不同形状的缺陷,不同形状的缺陷可能与不同的纺织问题相关,例如线状缺陷、面状缺陷、点状缺陷等,通过建立分类模型,模型可以学习到不同形状缺陷的特征,从而提高准确性并减少误报率,根据具体需求进行定制和调整,同时通过建立基于缺陷形状的分类模型,可以对不同形状的缺陷进行记录和统计,有助于分析和理解不同形状缺陷的出现规律和原因。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的一种基于深度学习的纺织提花缺陷检测方法的流程图;
图2是根据本发明实施例的一种基于深度学习的纺织提花缺陷检测系统的原理框图。
图中:
1、数据采集模块;2、判别模块;3、建立模块;4、分析模块;5、设计模块;6、连接模块。
具体实施方式
为进一步说明各实施例,本发明提供有附图,这些附图为本发明揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理,配合参考这些内容,本领域普通技术人员应能理解其他可能的实施方式以及本发明的优点。
根据本发明的实施例,提供了一种基于深度学习的纺织提花缺陷检测方法及系统。
现结合附图和具体实施方式对本发明进一步说明,如图1所示,根据本发明实施例的基于深度学习的纺织提花缺陷检测方法,提供了一种基于深度学习的纺织提花缺陷检测方法,该检测方法包括以下步骤:
S1、通过信息采集端获取历史纺织提花图像数据,利用去噪的方式对数据实施预处理,并将数据分解为测试集与训练集。
在一个实施例中,所述通过信息采集端获取历史纺织提花图像数据,利用去噪的方式对数据实施预处理,并将数据分解为测试集与训练集包括以下步骤:
通过信息采集端获取历史纺织提花图像数据,确保数据的质量和完整性,对采集到的纺织提花图像数据进行清洗,去除可能存在的噪声、无效数据或异常值,确保数据的准确性和一致性。
应用去噪算法(如高斯滤波、中值滤波等)对图像数据进行去噪处理,以减少噪声对后续分析的影响,可以应用图像增强技术(如对比度增强、边缘增强等)来改善图像质量,使缺陷更加突出。
从预处理后的数据中选择一部分作为训练集,用于训练深度学习模型。,从预处理后的数据中保留一部分作为测试集,用于评估训练好的模型的性能和泛化能力。
根据纺织提花图像数据的实际情况,对训练集中的图像进行标注,标注缺陷的位置和类型,以便在训练模型时进行监督学习,可以采用数据增强技术(如旋转、翻转、缩放等)对训练集进行扩充,增加数据的多样性和数量,提高模型的泛化能力。
对图像数据进行归一化处理,使其在训练过程中具有相似的尺度和分布,有助于加快后期训练速度和提高模型效果。
S2、基于深度学习方法结合训练集设计缺陷判别方法,并根据判别方法对测试集进行检测生成缺陷样本。
在一个实施例中,所述基于深度学习方法结合训练集设计缺陷判别方法,并根据判别方法对测试集进行检测生成缺陷样本包括以下步骤;
基于深度学习方法设计缺陷判别方法并根据判别方法对测试集生成缺陷样本的一般步骤如下:
使用预处理过的训练集,包括缺陷图像和正常图像。确保训练集中的缺陷图像被正确标注(标明缺陷位置和类型)。
将预处理后的训练集输入到深度学习模型中进行训练,输入图像可以是单通道灰度图像或多通道彩色图像。
标签定义:将缺陷图像标注为正样本,正常图像标注为负样本。
损失函数:选择适当的损失函数(如交叉熵损失函数)来衡量预测与真实标签之间的差异。
优化算法:选择适当的优化算法(如随机梯度下降法)来最小化损失函数,更新模型的权重参数。
使用验证集对训练好的模型进行评估,计算准确率、召回率、F1值等指标,评估模型的性能和泛化能力。
将预处理后的测试集输入到训练好的模型中进行检测。
根据模型的输出进行缺陷判别,可以设定一个阈值来确定是否为缺陷样本。
对于被判定为缺陷的图像,在图像上标记缺陷位置,并将其保存为缺陷样本,以便后续分析和进一步处理。
对生成的缺陷样本进行分析,可以统计缺陷的类型、数量和位置分布等信息,帮助优化模型或进行后续处理。
S3、对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据扩充缺陷样本,并根据缺陷样本建立特征提取模型。
在一个实施例中,所述对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据扩充缺陷样本,并根据缺陷样本建立特征提取模型包括以下步骤:
S31、生成一组包含图嵌入模块、两个生成器、分类器及判别器的样本对抗训练的学习框架;
S32、将纺织提花图像映射至特征空间中,并通过一组生成器生成图像中与缺陷样本相似的合成样本;
S33、通过另一组生成器生成图像中与缺陷样本存在差异的未合成样本,并通过分类器对样本标签进行分类;
S34、根据判别器辨别生成的合成样本与缺陷样本之间的差异,设定一组生成器与判别器进行对抗训练,使生成的合成样本与缺陷样本更贴近,并通过分类器对合成样本与缺陷样本进行训练;
S35、在经过多次迭代训练后将生成的合成样本加入至缺陷样本中;
S36、根据扩充后的缺陷样本构建特征提取模型,输出提取结果,对结果进行重复率检测,并对重复率进行排序,选取重复率排序位于前列的结果生成缺陷特征。
S4、将缺陷特征提取结果映射至模板纺织提花图像数据中分析其几何形状。
在一个实施例中,所述将缺陷特征提取结果映射至模板纺织提花图像数据中分析其几何形状包括以下步骤:
S41、确定纺织提花图像数据的坐标系,并将缺陷特征提取结果分别与图像坐标系对齐;
S42、通过图像处理技术将缺陷特征提取结果在图像数据上进行绘制标记;
S43、采用迭代阈值法对图像数据进行二值化分割,并采用边界跟踪方法进行边缘提取得到目标完整轮廓的边缘点集。
其中,所述采用迭代阈值法对图像数据进行二值化分割,并采用边界跟踪方法进行边缘提取得到目标完整轮廓的边缘点集包括以下步骤:
S431、将图像数据的最大灰度值和最小灰度值的均值作为灰度阈值的初始估计值,并通过灰度阈值将图像数据像素分为两组;
S432、分别计算两组图像数据像素中的所有像素的平均灰度值;
S433、重复步骤S431与步骤S432进行迭代得到灰度阈值,将大于灰度阈值的像素灰度值设置为指定数值,其余像素的灰度值设为零得到二值图像;
S434、在二值图像的坐标序列上通过大步距的方法找到起始点,并利用小步距顺时针搜索的方法寻找其余边界点,进行重复操作完成边缘点集的提取。
S44、对边缘点集构成的曲线进行多边形拟合,并对拟合后的多边形进行归一化处理提取几何特征。
其中,所述对边缘点集构成的曲线进行多边形拟合,并对拟合后的多边形进行归一化处理提取几何特征包括以下步骤:
S441、设定边缘点集总个数,并根据当前边缘点集的序号给定一个距离阈值,创建一组空的链表;
S442、将每一个边缘点集中的起点与终点作为一条虚拟线段的两个端点,并计算两端点的边缘点该虚拟线段的距离;
S443、若上述距离小于设定的阈值,则将该虚拟线段定位多边形的一条边;
S444、通过上述步骤的处理得到拟合后的多边形顶点的有序集合,并以边界点集的形心到多边形顶点的最大距离作为归一化因子结合计算公式对拟合的多边形进行归一化处理;
S445、对归一化完成的多边形进行几何特征计算,其中几何特征包括面积、长宽及周长
S45、计算相应的几何特征参数,并将几何特征参数与几何形状进行比对确定其形状。
S5、将几何形状作为训练数据设计基于神经网络的提花缺陷分类模型。
在一个实施例中,所述将几何形状作为训练数据设计基于神经网络的提花缺陷分类模型包括以下步骤:
S51、将上述步骤得到的不同几何形状特征作为模型训练样本输入神经网络;
S52、通过依次实施初始化、隐含层及输出层计算、权值计算步骤完成神经网络模型训练。
具体的,所述通过依次实施初始化、隐含层及输出层计算、权值计算步骤完成神经网络模型训练中输出层计算的计算公式为:
式中,/>表示第i个输入节点的变量;
f表示隐含层激励函数;
表示输入层和隐含层各神经元间彼此连接权值,j表示隐含层节点的数量;
n表示输入层节点数量。
S53、采用粒子群算法确定神经网络的最优权值与阈值,并计算粒子适应度值,更新粒子速度和位置。
具体的,所述采用粒子群算法确定神经网络的最优权值与阈值,并计算粒子适应度值,更新粒子速度和位置包括以下步骤:
S531、初始化粒子群的相关参数,并获取神经网络拓扑结构,初始化处理神经网络权值与阈值长度;
S532、编码神经网络的阈值与权值,获取粒子群算法的初始种群;
S533、采用粒子群优化神经网络寻优迭代,获取各组粒子的适应度,并通过适应度值确定粒子极值和粒子群极值,其中粒子历史最佳位置为粒子寻优迭代过程中的最佳位置;
S534、通过计算公式更新处理迭代粒子的速度与位置,并判断是否符合终止条件。
S54、符合终止条件时输出神经网络的权值与阈值优化结果,并构建基于群智优化神经网络的提花缺陷分类模型。
具体的,所述符合终止条件时输出神经网络的权值与阈值优化结果,并构建基于群智优化神经网络的提花缺陷分类模型包括以下步骤:
S541、输入涵盖几何特征多边形的样本,并将其分为训练集与测试集;
S542、将训练集进行输入完成神经网络训练,构建基于群智优化神经网络的提花缺陷分类模型;
S543、对构建完成的模型进行测试集输入测试其分类效果,并对其进行更新。
S6、将构建完成的缺陷特征提取模型及分类模型与管理系统进行连接,实时输出纺织提花缺陷检测与分类结果。
如图2所示,根据本发明的另一个实施例,还提供了一种基于深度学习的纺织提花缺陷检测系统,该检测系统包括:数据采集模块1、判别模块2、建立模块3、分析模块4、设计模块5及连接模块6;
其中,所述数据采集模块1与所述判别模块2连接,所述判别模块3与所述建立模块3连接,所述建立模块3与所述分析模块4连接,所述分析模块4与所述设计模块5连接,所述设计模块5与所述连接模块6连接;
所述数据采集模块1,用于通过信息采集端获取历史纺织提花图像数据,利用去噪的方式对数据实施预处理,并将数据分解为测试集与训练集;
所述判别模块2,用于基于深度学习方法结合训练集设计缺陷判别方法,并根据判别方法对测试集进行检测生成缺陷样本;
所述建立模块3,用于对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据扩充缺陷样本,并根据缺陷样本建立特征提取模型;
所述分析模块4,用于将缺陷特征提取结果映射至模板纺织提花图像数据中分析其几何形状;
所述设计模块5,用于将几何形状作为训练数据设计基于神经网络的提花缺陷分类模型;
所述连接模块6,用于将构建完成的缺陷特征提取模型及分类模型与管理系统进行连接,实时输出纺织提花缺陷检测与分类结果。
综上所述,借助于本发明的上述技术方案,本发明提出的基于深度学习的纺织提花缺陷检测方法中先识别缺陷再对缺陷进行分类可以提高检测准确性,降低计算复杂度,支持多类别缺陷检测,便于缺陷定位和后期修复,首先基于历史纺织提花图像数据提取缺陷特征并构建特征提取模型,并根据特征提取模型输出的特征对缺陷进行分类,使得通过先识别缺陷,可以将注意力集中在可能存在缺陷的区域上,减少对正常区域的检测,从而提高检测准确性,同时纺织提花图像中可能存在多种不同类型的缺陷,通过先识别缺陷再进行分类,可以有效支持多类别的缺陷检测和分类,先识别缺陷可以提供缺陷的位置信息,有助于操作员快速定位和修复缺陷,从而提高生产效率。本发明首先通过对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据,通过生成与缺陷样本相似的对抗样本,从而扩充缺陷样本的数量,对抗训练可以使模型对缺陷样本的干扰更加鲁棒,通过引入与缺陷样本相似的对抗样本,模型可以学会对缺陷进行更准确的分类和检测,提高模型对缺陷的识别能力,同时通过生成与缺陷样本相似的对抗样本,模型可以更好地学习到缺陷样本的特征和模式,从而提高对新样本的泛化能力。本发明根据缺陷的形状建立分类模型可以帮助准确地判断不同形状的缺陷,不同形状的缺陷可能与不同的纺织问题相关,例如线状缺陷、面状缺陷、点状缺陷等,通过建立分类模型,模型可以学习到不同形状缺陷的特征,从而提高准确性并减少误报率,根据具体需求进行定制和调整,同时通过建立基于缺陷形状的分类模型,可以对不同形状的缺陷进行记录和统计,有助于分析和理解不同形状缺陷的出现规律和原因。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的纺织提花缺陷检测方法,其特征在于,该检测方法包括以下步骤:
S1、通过信息采集端获取历史纺织提花图像数据,利用去噪的方式对数据实施预处理,并将数据分解为测试集与训练集;
S2、基于深度学习方法结合训练集设计缺陷判别方法,并根据判别方法对测试集进行检测生成缺陷样本;
S3、对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据扩充缺陷样本,并根据缺陷样本建立特征提取模型;
S4、将缺陷特征提取结果映射至模板纺织提花图像数据中分析其几何形状;
S5、将几何形状作为训练数据设计基于神经网络的提花缺陷分类模型;
S6、将构建完成的缺陷特征提取模型及分类模型与管理系统进行连接,实时输出纺织提花缺陷检测与分类结果。
2.根据权利要求1所述的一种基于深度学习的纺织提花缺陷检测方法,其特征在于,所述对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据扩充缺陷样本,并根据缺陷样本建立特征提取模型包括以下步骤:
S31、生成一组包含图嵌入模块、两个生成器、分类器及判别器的样本对抗训练的学习框架;
S32、将纺织提花图像映射至特征空间中,并通过一组生成器生成图像中与缺陷样本相似的合成样本;
S33、通过另一组生成器生成图像中与缺陷样本存在差异的未合成样本,并通过分类器对样本标签进行分类;
S34、根据判别器辨别生成的合成样本与缺陷样本之间的差异,设定一组生成器与判别器进行对抗训练,使生成的合成样本与缺陷样本更贴近,并通过分类器对合成样本与缺陷样本进行训练;
S35、在经过多次迭代训练后将生成的合成样本加入至缺陷样本中;
S36、根据扩充后的缺陷样本构建特征提取模型,输出提取结果,对结果进行重复率检测,并对重复率进行排序,选取重复率排序位于前列的结果生成缺陷特征。
3.根据权利要求1所述的一种基于深度学习的纺织提花缺陷检测方法,其特征在于,所述将缺陷特征提取结果映射至模板纺织提花图像数据中分析其几何形状包括以下步骤:
S41、确定纺织提花图像数据的坐标系,并将缺陷特征提取结果分别与图像坐标系对齐;
S42、通过图像处理技术将缺陷特征提取结果在图像数据上进行绘制标记;
S43、采用迭代阈值法对图像数据进行二值化分割,并采用边界跟踪方法进行边缘提取得到目标完整轮廓的边缘点集;
S44、对边缘点集构成的曲线进行多边形拟合,并对拟合后的多边形进行归一化处理提取几何特征;
S45、计算相应的几何特征参数,并将几何特征参数与几何形状进行比对确定其形状。
4.根据权利要求3所述的一种基于深度学习的纺织提花缺陷检测方法,其特征在于,所述采用迭代阈值法对图像数据进行二值化分割,并采用边界跟踪方法进行边缘提取得到目标完整轮廓的边缘点集包括以下步骤:
S431、将图像数据的最大灰度值和最小灰度值的均值作为灰度阈值的初始估计值,并通过灰度阈值将图像数据像素分为两组;
S432、分别计算两组图像数据像素中的所有像素的平均灰度值;
S433、重复步骤S431与步骤S432进行迭代得到灰度阈值,将大于灰度阈值的像素灰度值设置为指定数值,其余像素的灰度值设为零得到二值图像;
S434、在二值图像的坐标序列上通过大步距的方法找到起始点,并利用小步距顺时针搜索的方法寻找其余边界点,进行重复操作完成边缘点集的提取。
5.根据权利要求3所述的一种基于深度学习的纺织提花缺陷检测方法,其特征在于,所述对边缘点集构成的曲线进行多边形拟合,并对拟合后的多边形进行归一化处理提取几何特征包括以下步骤:
S441、设定边缘点集总个数,并根据当前边缘点集的序号给定一个距离阈值,创建一组空的链表;
S442、将每一个边缘点集中的起点与终点作为一条虚拟线段的两个端点,并计算两端点的边缘点该虚拟线段的距离;
S443、若上述距离小于设定的阈值,则将该虚拟线段定位多边形的一条边;
S444、通过上述步骤的处理得到拟合后的多边形顶点的有序集合,并以边界点集的形心到多边形顶点的最大距离作为归一化因子结合计算公式对拟合的多边形进行归一化处理;
S445、对归一化完成的多边形进行几何特征计算,其中几何特征包括面积、长宽及周长。
6.根据权利要求1所述的一种基于深度学习的纺织提花缺陷检测方法,其特征在于,所述将几何形状作为训练数据设计基于神经网络的提花缺陷分类模型包括以下步骤:
S51、将上述步骤得到的不同几何形状特征作为模型训练样本输入神经网络;
S52、通过依次实施初始化、隐含层及输出层计算、权值计算步骤完成神经网络模型训练;
S53、采用粒子群算法确定神经网络的最优权值与阈值,并计算粒子适应度值,更新粒子速度和位置;
S54、符合终止条件时输出神经网络的权值与阈值优化结果,并构建基于群智优化神经网络的提花缺陷分类模型。
7.根据权利要求6所述的一种基于深度学习的纺织提花缺陷检测方法,其特征在于,所述通过依次实施初始化、隐含层及输出层计算、权值计算步骤完成神经网络模型训练中输出层计算的计算公式为:
式中,/>表示第i个输入节点的变量;
f表示隐含层激励函数;
表示输入层和隐含层各神经元间彼此连接权值,j表示隐含层节点的数量;
n表示输入层节点数量。
8.根据权利要求6所述的一种基于深度学习的纺织提花缺陷检测方法,其特征在于,所述采用粒子群算法确定神经网络的最优权值与阈值,并计算粒子适应度值,更新粒子速度和位置包括以下步骤:
S531、初始化粒子群的相关参数,并获取神经网络拓扑结构,初始化处理神经网络权值与阈值长度;
S532、编码神经网络的阈值与权值,获取粒子群算法的初始种群;
S533、采用粒子群优化神经网络寻优迭代,获取各组粒子的适应度,并通过适应度值确定粒子极值和粒子群极值,其中粒子历史最佳位置为粒子寻优迭代过程中的最佳位置;
S534、通过计算公式更新处理迭代粒子的速度与位置,并判断是否符合终止条件。
9.根据权利要求6所述的一种基于深度学习的纺织提花缺陷检测方法,其特征在于,所述符合终止条件时输出神经网络的权值与阈值优化结果,并构建基于群智优化神经网络的提花缺陷分类模型包括以下步骤:
S541、输入涵盖几何特征多边形的样本,并将其分为训练集与测试集;
S542、将训练集进行输入完成神经网络训练,构建基于群智优化神经网络的提花缺陷分类模型;
S543、对构建完成的模型进行测试集输入测试其分类效果,并对其进行更新。
10.一种基于深度学习的纺织提花缺陷检测系统,用于实现权利要求1-9中任一项所述基于深度学习的纺织提花缺陷检测方法,其特征在于,该检测系统包括:数据采集模块、判别模块、建立模块、分析模块、设计模块及连接模块;
其中,所述数据采集模块与所述判别模块连接,所述判别模块与所述建立模块连接,所述建立模块与所述分析模块连接,所述分析模块与所述设计模块连接,所述设计模块与所述连接模块连接;
所述数据采集模块,用于通过信息采集端获取历史纺织提花图像数据,利用去噪的方式对数据实施预处理,并将数据分解为测试集与训练集;
所述判别模块,用于基于深度学习方法结合训练集设计缺陷判别方法,并根据判别方法对测试集进行检测生成缺陷样本;
所述建立模块,用于对待检测的纺织提花图像数据进行对抗训练,生成与缺陷样本相似的数据扩充缺陷样本,并根据缺陷样本建立特征提取模型;
所述分析模块,用于将缺陷特征提取结果映射至模板纺织提花图像数据中分析其几何形状;
所述设计模块,用于将几何形状作为训练数据设计基于神经网络的提花缺陷分类模型;
所述连接模块,用于将构建完成的缺陷特征提取模型及分类模型与管理系统进行连接,实时输出纺织提花缺陷检测与分类结果。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311541980.1A CN117541557A (zh) | 2023-08-28 | 2023-08-28 | 一种基于深度学习的纺织提花缺陷检测方法及系统 |
CN202311084468.9A CN116823817B (zh) | 2023-08-28 | 2023-08-28 | 一种基于深度学习的纺织提花缺陷检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311084468.9A CN116823817B (zh) | 2023-08-28 | 2023-08-28 | 一种基于深度学习的纺织提花缺陷检测方法及系统 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311541980.1A Division CN117541557A (zh) | 2023-08-28 | 2023-08-28 | 一种基于深度学习的纺织提花缺陷检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116823817A true CN116823817A (zh) | 2023-09-29 |
CN116823817B CN116823817B (zh) | 2023-12-08 |
Family
ID=88122444
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311541980.1A Pending CN117541557A (zh) | 2023-08-28 | 2023-08-28 | 一种基于深度学习的纺织提花缺陷检测方法及系统 |
CN202311084468.9A Active CN116823817B (zh) | 2023-08-28 | 2023-08-28 | 一种基于深度学习的纺织提花缺陷检测方法及系统 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311541980.1A Pending CN117541557A (zh) | 2023-08-28 | 2023-08-28 | 一种基于深度学习的纺织提花缺陷检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN117541557A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117115147A (zh) * | 2023-10-19 | 2023-11-24 | 山东华盛创新纺织科技有限公司 | 一种基于机器视觉的纺织品检测方法及系统 |
CN117635606A (zh) * | 2024-01-23 | 2024-03-01 | 锐卡(常州)科技有限公司 | 激光切管机卡盘缺陷检测方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105913151A (zh) * | 2016-04-12 | 2016-08-31 | 河海大学常州校区 | 基于自适应变异粒子群与bp网络光伏电站发电量预测方法 |
CN108470187A (zh) * | 2018-02-26 | 2018-08-31 | 华南理工大学 | 一种基于扩充训练数据集的类别不平衡问题分类方法 |
CN109509171A (zh) * | 2018-09-20 | 2019-03-22 | 江苏理工学院 | 一种基于gmm和图像金字塔的布匹疵点检测方法 |
CN115439405A (zh) * | 2022-07-27 | 2022-12-06 | 太原科技大学 | 一种钢板表面缺陷的分类方法 |
CN116228651A (zh) * | 2022-12-23 | 2023-06-06 | 宁波海棠信息技术有限公司 | 一种布匹缺陷检测方法、系统、设备及介质 |
-
2023
- 2023-08-28 CN CN202311541980.1A patent/CN117541557A/zh active Pending
- 2023-08-28 CN CN202311084468.9A patent/CN116823817B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105913151A (zh) * | 2016-04-12 | 2016-08-31 | 河海大学常州校区 | 基于自适应变异粒子群与bp网络光伏电站发电量预测方法 |
CN108470187A (zh) * | 2018-02-26 | 2018-08-31 | 华南理工大学 | 一种基于扩充训练数据集的类别不平衡问题分类方法 |
CN109509171A (zh) * | 2018-09-20 | 2019-03-22 | 江苏理工学院 | 一种基于gmm和图像金字塔的布匹疵点检测方法 |
CN115439405A (zh) * | 2022-07-27 | 2022-12-06 | 太原科技大学 | 一种钢板表面缺陷的分类方法 |
CN116228651A (zh) * | 2022-12-23 | 2023-06-06 | 宁波海棠信息技术有限公司 | 一种布匹缺陷检测方法、系统、设备及介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117115147A (zh) * | 2023-10-19 | 2023-11-24 | 山东华盛创新纺织科技有限公司 | 一种基于机器视觉的纺织品检测方法及系统 |
CN117115147B (zh) * | 2023-10-19 | 2024-01-26 | 山东华盛创新纺织科技有限公司 | 一种基于机器视觉的纺织品检测方法及系统 |
CN117635606A (zh) * | 2024-01-23 | 2024-03-01 | 锐卡(常州)科技有限公司 | 激光切管机卡盘缺陷检测方法、装置、设备及存储介质 |
CN117635606B (zh) * | 2024-01-23 | 2024-04-05 | 锐卡(常州)科技有限公司 | 激光切管机卡盘缺陷检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116823817B (zh) | 2023-12-08 |
CN117541557A (zh) | 2024-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116823817B (zh) | 一种基于深度学习的纺织提花缺陷检测方法及系统 | |
CN108765412B (zh) | 一种带钢表面缺陷分类方法 | |
Tong et al. | Fabric defect detection for apparel industry: a nonlocal sparse representation approach | |
CN103871053B (zh) | 一种基于视觉显著性的布匹瑕疵检测方法 | |
CN107437243B (zh) | 基于x光图像的轮胎杂质检测方法及装置 | |
Kuo et al. | Application of computer vision in the automatic identification and classification of woven fabric weave patterns | |
CN111861996B (zh) | 一种印花织物疵点检测方法 | |
CN101739570B (zh) | 棉花异性纤维在线分类方法和系统 | |
CN110021028B (zh) | 一种基于服装款式图的自动制衣方法 | |
Pan et al. | Automatic detection of the layout of color yarns for yarn-dyed fabric via a FCM algorithm | |
Liu et al. | Unsupervised segmentation and elm for fabric defect image classification | |
Pan et al. | Automatic detection of structure parameters of yarn-dyed fabric | |
CN116188475B (zh) | 一种外观缺陷自动光学检测的智慧控制方法、系统及介质 | |
CN113643276B (zh) | 一种基于统计分析的纺织物纹理缺陷自动检测方法 | |
CN108647706A (zh) | 基于机器视觉的物品识别分类与瑕疵检测方法 | |
CN112488211A (zh) | 一种织物图像瑕疵分类方法 | |
CN109993213A (zh) | 一种用于服装部件图的自动识别方法 | |
CN115147363A (zh) | 一种基于深度学习算法的影像缺陷检测和分类方法及系统 | |
CN114693677A (zh) | 一种针织面料轧染工艺异常检测方法 | |
CN116664565A (zh) | 一种光伏太阳能电池片的隐裂检测方法及系统 | |
CN113435219B (zh) | 防伪检测方法、装置、电子设备及存储介质 | |
CN103258218A (zh) | 蒙版检测框架生成方法、装置、缺陷检测方法及装置 | |
CN114078106A (zh) | 基于改进Faster R-CNN的疵点检测方法 | |
CN109829511B (zh) | 基于纹理分类的下视红外图像中云层区域检测方法 | |
CN116188445A (zh) | 一种产品表面缺陷的检测定位方法、装置及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |