CN116934725A - 一种基于无监督学习的铝箔封口密封性的检测方法 - Google Patents

一种基于无监督学习的铝箔封口密封性的检测方法 Download PDF

Info

Publication number
CN116934725A
CN116934725A CN202310937867.9A CN202310937867A CN116934725A CN 116934725 A CN116934725 A CN 116934725A CN 202310937867 A CN202310937867 A CN 202310937867A CN 116934725 A CN116934725 A CN 116934725A
Authority
CN
China
Prior art keywords
image
feature
residual
module
reconstruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310937867.9A
Other languages
English (en)
Inventor
魏长赟
韩辉
包宇航
王啸海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202310937867.9A priority Critical patent/CN116934725A/zh
Publication of CN116934725A publication Critical patent/CN116934725A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/041Abduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于无监督学习的铝箔封口密封性的检测方法。包括:S1,获取铝箔封口红外图像;S2,对铝箔封口红外图像进行自适应ROI区域识别和提取;S3,对提取的热成像图像进行预处理并将正常样本图像制作成数据集;S4,将预处理后的正常样本数据集输入多尺度图像重构网络模型进行模型参数训练;S5,将预处理后的待测图像输入训练好的重构模型中进行图像重构,输出重构图像,将待测图像与重构图像进行残差计算,得到残差图;S6,对残差图进行预处理,突出缺陷部分,通过异常得分判断红外封口图像是否存在缺陷,若存在缺陷,对缺陷部分进行定位。本发明可以快速有效的对铝箔封口红外图像进行重构修复,具有更高的检测精度。

Description

一种基于无监督学习的铝箔封口密封性的检测方法
技术领域
本发明属于检测技术领域,具体涉及一种基于无监督学习的铝箔封口密封性的检测方法。
背景技术
当今,瓶体包装作为包装行业的主流产品之一,广泛应用于食品、药品、化妆品等行业,而铝箔封口技术所提供的瓶体密封性是保证产品质量的重要因素。在铝箔封口的过程中,温度、铝箔片质量、旋盖松紧等因素都会影响铝箔封口的密封性,进而影响到产品的质量时效。因此,铝箔封口密封性的检测是十分有必要的。
现有的封口检测方法主要靠人工抽样调查,如水压法、气压法等,但其所需人工成本高且效率较低,同时还易损坏待检样品,不能满足大批量生产;目前市面上已经出现了采用机器视觉判断封口是否完整的方法,通过红外相机捕捉封口温度分布图进行缺陷检测;然而,传统的机器视觉方法需要丰富的先验知识,泛化性较差,需要通过调整各种参数适应不同包材。
近年来,深度学习因其强大的学习能力,开始被广泛应用在工业检测中。其中,大部分网络是基于有监督学习的,即需要大量带人工标注的正常样本与缺陷样本。然而,随着包装产线的精密度不断提高,封口缺陷样本的获取难度陡然增加。因此,人工标注成本高、缺陷样本少、缺陷未知性大成为了当前基于深度学习的铝箔封口缺陷检测的主要问题。
发明内容
为了解决上述技术问题,本发明提供了一种基于无监督学习的铝箔封口密封性的检测方法,包括如下步骤:
步骤S1,获取铝箔封口红外图像;
步骤S2,对铝箔封口红外图像进行自适应ROI区域提取;
步骤S21,对获取的红外图像进行三通道加权平均,实现灰度化处理;
步骤S22,对灰度图像进行平滑降噪处理,去除细小的纹理和不规则性噪点,所述平滑降噪处理方法为高斯滤波,其表达式为:
式中,(x,y)表示图像中的像素坐标,G(x,y)表示在该位置计算的高斯函数值,σ表示高斯核的标准,e为自然对数函数的常量底数;
步骤S23,采用Canny边缘检测提取平滑处理后灰度图像的边缘轮廓,并得到二值化后的边缘图像;
步骤S24,采用轮廓提取算法,遍历二值化图像的像素值,提取边缘图像中所有完全闭合的边缘轮廓,并使用最大轮阔的边界框,即外接正矩形来标记目标区域,根据外接矩形的位置和尺寸,在原始图像裁剪出对应区域,所得的对应区域即为铝箔封口红外图像的ROI区域。
步骤S3,对提取的红外图像进行预处理并将正常样本图像制作成数据集;
步骤S31,对提取的ROI图像进行图像增强,首先,对图像的对比度进行增强,提高图像细节可见性,具体的使用自适应直方图均衡化,其公式如下:
式中,f(x,y)是原始图像,(x,y)为像素点坐标,h(i,j)是窗口函数,W是窗口大小;T(x,y)指以(x,y)为中心的像素值,f(x+i,y+j)指原始图像中以(x+i,y+j)为中心的像素值,i和j指窗口函数的坐标;
然后,采用拉普拉斯滤波器,对图像进行锐化操作,增强图像的边缘和细节;
步骤S32,对图像增强后的样本进行插值上采样操作,提高红外图像的分辨率,为后续的深度学习模型训练提供更多的图像信息,具体采用双三次插值法,公式如下:
式中,(bx,by)为插值点坐标,B(bx,by)为双三次插值结果,(bxi,byj)为插值点近邻的16个点,W(x)为加权函数,这里的a取-0.5;
步骤S33,对图像进行随机旋转,以扩充训练数据集并增加模型的鲁棒性;
步骤S34,将图像像素值归一化到0到1之间,并对归一化后的图像像素值进行标准化,使其均值为0,方差为1,以加速模型收敛,其公式为:
式中,xnorm为归一化结果,xstd为标准化结果,xorg为原始图像的像素值,μ和σ为单一通道像素值的均值和标准差;
步骤S35,将预处理后的图像数据集划分为训练和测试集,采用正常样本数据作为训练集占75%,剩余25%的正常样本和缺陷样本作为测试集。
步骤S4,将预处理后的正常样本数据集输入多尺度图像重构网络模型进行模型参数训练;
多尺度图像重构网络模型包括图像生成网络和图像判别网络,其中图像生成网络包括多尺度特征采样模块,全局上下文特征提取模块,异常特征检测模块,图像生成模块。
所述多尺度特征采样模块由四个卷积组构成,第一层卷积组由卷积核为7*7的卷积层和最大池化层构成,目的是捕捉大尺度特征,减少后续层计算复杂性;后续三个卷积组均由残差块结构构成,包括3*3卷积核的卷积层、批归一化、激活函数和残差连接,用于更好的提取如纹理、边缘等局部特征,同时避免了梯度消失;多尺度特征采样模块输出三种不同尺度的特征图,分别由第二层、第三层、第四层卷积组输出,多尺度特征提高了模型的泛化能力和鲁棒性并且有利于图像重建网络对图像细节的重构;
所述全局上下文特征提取模块融合了Transformer结构和卷积结构,具体包括基于下采样的3*3卷积层和改进的轻量级Vision Transformer模块,改进的轻量级VisionTransformer模块依次为相对位置编码、局部感知单元、LayerNorm层、轻量级多头自注意力模块、LayerNorm层、改进的MLP模块;
其中,局部感知单元采用深度分离卷积,将卷积的平移不变性引入模块,具体公式为:
LPU(X)=DWConv(X)+X
式中,X为输入特征张量,DWConv为深度可分离卷积层,整体采用残差连接;
轻量级多头自注意力模块在原始的多自注意力的基础上,通过卷积操作对Key和Value的生成进行了简化处理,注意力的计算公式如下:
式中,Q、K、V分别为Transformer中的Query、Key、Value,Softmax为归一化指数函数,KT为K的转置矩阵,R为实数域,B为偏置矩阵,k为K和V沿空间方向缩小的倍数;
改进的MLP模块在原有的全连接层之间加入了3*3的卷积层,并通过残差连接避免梯度消失的同时,增强了Transformer模块的局部语义信息提取的能力;
全局上下文特征提取模块共三条分支,输入特征为多尺度特征采样模块输出的三种不同尺度的特征,经过三条分支结构网络的特征提取后,对特征进行融合并输出。
所述异常特征检测模块由K-means聚类和特征检测组成,主要用于抑制图像重建过程中的缺陷特征,将从全局上下文特征提取模块输出的特征图沿维度分解,包含的N个特征向量P,P={p1,p2,...,pN}(P∈RC×1,N=H*W),输入K-means聚类中,选择K个中点作为聚类中心,中心向量为C,C={C1,C2,...,Ck}(C∈RC×1),特征检测是将特征向量中的与中心向量相距过远的缺陷特征替换成正常特征向量;
所述图像生成模块和图像判别网络的主体部分采用DCGAN的网络结构,图像生成模块由五层上采样模块组成,模块中的归一化操作采用Instance Norm,图像生成模块输出三通道彩色重构图像,图像大小与输入图像一致;图像判别网络包括五层特征下采样模块和一个全连接层,在图像生成模块的第四到第五层之间、图像判别网络的第一层到第二层之间分别加入自注意力模块,图像判别网络的输出为输入图像为真的概率,范围在0-1之间。
步骤S41,向训练集中的图像加入随机彩色高斯噪声,并进行掩码操作;
步骤S42,排除图像重构模型中的异常特征检测模块,将处理好的图像输入模型中进行参数训练,将对抗损失作为图像判别网络的训练损失函数,将图像重构损失作为图像生成网络的训练损失函数;
步骤S43,固定训练好的网络权重,加入异常特征检测模块,对K-means聚类进行参数训练:随机初始化K个聚类中心的特征向量C,对于每个输入的特征向量P,计算其与各聚类中心之间的距离,并将特征向量分配到距离最近的聚类中心,于每个聚类,计算该聚中所有样本的均值,将该均值作为新的类中心,不断迭代上述步骤,完成对K-means聚类的训练。
步骤S5,将预处理后的待测图像输入训练好的重构模型中进行图像重构,输出重构图像,将待测图像与重构图像进行残差计算,得到残差图;
步骤S51,向预处理后的待测图像加入随机彩色高斯噪声,将其输入固定好训练权重的图像重构模型中进行图像重构,其中,经过异常特征检测模块时,计算输入的特征向量P到所有聚类中心C的空间距离d,若空间距离d超出异常阈值T,则将改特征向量视为缺陷特征,并用距离其最近的中心特征向量代替缺陷特征向量,达到缺陷特征抑制的效果,其空间距离d的计算公式为:
式中,X和Y分别为输入的特征向量P和中心特征向量C,d(X,Y)为两个向量之间的欧氏距离;
异常阈值T由正样本的特征向量训练时得到,其计算公式为:
式中,di为正样本训练时,特征向量距离中心特征向量的空间距离,N为特征向量的个数,σd为距离di的标准差;
步骤S52,将模型输出的重构图像与待测图像进行像素残差计算,得到初步残差图,残差计算的公式如下:
Ldif(i,j)=(Lsrc(i,j)-Lrec(i,j))2
式中,Lsrc(i,j)为待检测图像,Lrec(i,j)为重构图像,将计算的残差图进一步归一化,得到最终结果。
步骤S6,对残差图进行预处理,突出缺陷部分,通过异常得分判断红外封口图像是否存在缺陷,若存在缺陷,对缺陷部分进行定位。
步骤S61,对残差图进行三通道加权平均,实现灰度化处理;
步骤S62,采用均值滤波进行图像去噪处理,消除噪点形成的伪缺陷;
步骤S63,计算处理好的灰度图的异常概率得分,异常概率得分大于异常阈值时,则表示残差图中存在异常点,其公式为:
式中,Smap是单通道的残差图矩阵,Smapmax为像素矩阵中的最大值,Smapmin为像素矩阵中的最小值,S为残差图矩阵归一化后的最大值;
步骤S64,对残差图使用自适应阈值法进行二值化处理,采用大津法计算图像分割阈值,将灰度图转成二值化图像,其公式如下:
式中,TOTSU为大津法所得阈值,t为该灰度图中的像素值;
步骤S65,根据所得二值化图像,求出图中像素值为1的像素点所占全图像素点比重R,若同时满足异常概率得分大于异常阈值,缺陷像素占比大于比例阈值,则判定图像存在缺陷,否则,图像正常;
步骤S66,若图像存在缺陷,则采用轮廓提取算法,遍历二值化图像的像素值,提取边缘图像中所有完全闭合的边缘轮廓,并使用最大轮阔的边界框(外接正矩形)来标记目标区域,实现缺陷定位。
与现有技术相比,本发明的有益效果是,本发明的基于无监督学习的铝箔封口密封性的检测方法利用红外相机捕捉的封口红外图像,对铝箔封口进行无损缺陷检测。该方法采用基于无监督学习的神经网络,无需缺陷样本以及相关的人工标注,极大地节约了准备时间和人工成本;将Transformer与CNN结构相结合,从全局和局部提取多语义特征并对缺陷进行抑制,达到细节重建的效果,实现了缺陷的细粒度检测与精确定位,具有较强的鲁棒性,极大的提高了封口缺陷检测的精度和效率,实现瓶装产线封口缺陷的实时监测。
本发明的其它特征和优点将在之后的说明书中进行具体阐述,部分可从说明书中或具体实施例中直接可见。
为使上述发明目的、优点和特征更加清晰直观,下文特具本发明较好的实施案例以及相关附图作详细说明。
附图说明
为了更清晰地说明本发明的具体实施案例或现有的技术方案,以下将对本发明的具体实施方案进行相关的附图说明。
图1为本发明的铝箔封口密封性的检测方法的具体实施例流程示意图;
图2为本发明的铝箔封口密封性的检测方法的步骤示意图;
图3为本发明的铝箔封口密封性的检测方法的多尺度图像重构网络模型;
图4为本发明的多尺度图像重构网络模型的残差模块;
图5为本发明的多尺度图像重构网络模型的轻量级Vision Transformer模块;
图6为本发明的实施例中一组输入图像、重建图像、残差图像和缺陷定位图像的示例图。
具体实施方式
为了更清楚地说明本发明的各实施例的目的、技术方案和优势,以下将结合附图清楚而完整地描述本发明的技术方案。显然,所述实例仅代表本发明的部分实例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图2是本发明的一实施例提供的基于无监督学习的铝箔封口密封性的检测方法的步骤示意图,参考图1的具体实施例流程示意图,该方法的具体步骤如下:
步骤S1,获取铝箔封口红外图像;
步骤S2,对铝箔封口红外图像进行自适应ROI区域提取;
步骤S3,对提取的红外图像进行预处理并将正常样本图像制作成数据集;
步骤S4,将预处理后的正常样本数据集输入多尺度图像重构网络模型进行模型参数训练;
步骤S5,将预处理后的待测图像输入训练好的重构模型中进行图像重构,输出重构图像,将待测图像与重构图像进行残差计算,得到残差图;
步骤S6,对残差图进行预处理,突出缺陷部分,通过异常得分判断红外封口图像是否存在缺陷,若存在缺陷,对缺陷部分进行定位。
本实施例中,利用红外相机捕捉的封口红外图像,对铝箔封口进行无损缺陷检测。该方法采用基于无监督学习的神经网络,无需缺陷样本以及相关的人工标注,极大地节约了准备时间和人工成本;将Transformer与CNN结构相结合,从全局和局部提取多语义特征并对缺陷进行抑制,达到细节重建的效果,实现了缺陷的细粒度检测与精确定位,具有较强的鲁棒性,极大的提高了封口缺陷检测的精度和效率,实现瓶装产线封口缺陷的实时监测。
实施例中,所述步骤S1中获取铝箔封口红外图像可通过一台分辨率为384×288的红外相机32mini安装在电磁铝箔封口机后0.5m到1m处,配合光电信号,在瓶子正上方获取瓶盖表面的红外图像,该红外图像由封口瞬时温度向上传导至瓶盖得到。
所述步骤S2中对铝箔封口红外图像进行自适应ROI区域提取的步骤包括:
步骤S21,对获取的红外图像进行三通道加权平均,实现灰度化处理;
示例性的,对三通道的加权平均公式可以为:
Gray=0.417B+0.205G+0.378R
式中,B、G、R为蓝、绿、红三通道像素值,通道前的权重由该实施例中的红外图像数据集计算得出;
步骤S22,对灰度图像进行平滑降噪处理,去除细小的纹理和不规则性噪点,所述平滑降噪处理方法为高斯滤波,其表达式为:
式中,(x,y)表示图像中的像素坐标,G(x,y)表示在该位置计算的高斯函数值,σ表示高斯核的标准,e为自然对数函数的常量底数;
步骤S23,采用Canny边缘检测提取平滑处理后灰度图像的边缘轮廓,并得到二值化后的边缘图像;
步骤S24,采用轮廓提取算法,遍历二值化图像的像素值,提取边缘图像中所有完全闭合的边缘轮廓,并使用最大轮阔的边界框,即外接正矩形来标记目标区域,根据外接矩形的位置和尺寸,在原始图像裁剪出对应区域,所得的对应区域即为铝箔封口红外图像的ROI区域。
所述步骤S3中对提取的红外图像进行预处理并将正常样本图像制作成数据集的步骤包括:
步骤S31,对提取的ROI图像进行图像增强,首先,对图像的对比度进行增强,提高图像细节可见性,具体的使用自适应直方图均衡化,其公式如下:
式中,f(x,y)是原始图像,(x,y)为像素点坐标,h(i,j)是窗口函数,W是窗口大小;T(x,y)指以(x,y)为中心的像素值,f(x+i,y+j)指原始图像中以(x+i,y+j)为中心的像素值,i和j指窗口函数的坐标;
然后,采用拉普拉斯滤波器,对图像进行锐化操作,增强图像的边缘和细节;
步骤S32,对图像增强后的样本进行插值上采样操作,提高红外图像的分辨率,为后续的深度学习模型训练提供更多的图像信息,具体采用双三次插值法,公式如下:
式中,(bx,by)为插值点坐标,B(bx,by)为双三次插值结果,(bxi,byj)为插值点近邻的16个点,W(x)为加权函数,这里的a取-0.5;
实例中,上采样后的图像大小为224×224;
步骤S33,对图像进行随机旋转,以扩充训练数据集并增加模型的鲁棒性;
实例中,为保证旋转后图像边缘的完整性,在旋转前对图像四边填充背景像素值至图像大小到256×256,以10度随机顺时针或逆时针旋转后,沿中心裁剪成224×224大小,完成数据集扩充;
步骤S34,将图像像素值归一化到0到1之间,并对归一化后的图像像素值进行标准化,使其均值为0,方差为1,以加速模型收敛,其公式为:
式中,xnorm为归一化结果,xstd为标准化结果,xorg为原始图像的像素值,μ和σ为单一通道像素值的均值和标准差;
步骤S35,将预处理后的图像数据集划分为训练和测试集,采用正常样本数据作为训练集占75%,剩余25%的正常样本和缺陷样本作为测试集。
该实施例中,图像样本数据来自某工厂,总共612张图像,其中588张为正常样本图像,24张图像为人工制作的缺陷图像,分辨率为388×284,经过图像预处理后,大小变成224×224,随机挑选460张正常样本作为训练集,剩余128张正常样本和24张缺陷样本作为测试集。
所述步骤S4中多尺度图像重构网络模型实例如图3所示,包括图像生成网络和图像判别网络,其中图像生成网络包括多尺度特征采样模块,全局上下文特征提取模块,异常特征检测模块,图像生成模块。
具体的,输入图像大小为224×224×3,经过多尺度特征采样模块后输出三种不同尺度的特征图,大小分别为56×56×64、28×28×128、14×14×256;三种特征图输入全局上下文特征提取模块进行多分支特征提取,将提取出的大小为7×7×512的特征图输入异常特征检测模块进行缺陷特征的抑制,将输出结果转化成1×1024的特征向量Z,即为该输入图像的正常特征;将Z输入图像生成网络生成最终的正常样本重建结果;图像判别网络将重建结果输入,判别图像是否为正常图像,用来在训练过程中增强重建网络的细节重构效果。
所述实例中,如图3所示,多尺度特征采样模块由四个卷积组构成,第一层卷积组由卷积核为7*7的卷积层和最大池化层构成,目的是捕捉大尺度特征,减少后续层计算复杂性;后续三个卷积组均由残差块结构构成,如图4所示,包括3*3卷积核的卷积层、1*1卷积核的卷积层、批归一化、激活函数和残差连接,用于更好的提取如纹理、边缘等局部特征,同时避免了梯度消失;多尺度特征采样模块输出三种不同尺度的特征图,分别由第二层、第三层、第四层卷积组输出,多尺度特征提高了模型的泛化能力和鲁棒性并且有利于图像重建网络对图像细节的重构;
所述全局上下文特征提取模块融合了Transformer结构和卷积结构,具体包括基于下采样的3*3卷积层和改进的轻量级Vision Transformer模块,改进的轻量级VisionTransformer模块依次为相对位置编码、局部感知单元、LayerNorm层、轻量级多头自注意力模块、LayerNorm层、改进的MLP模块,图5展示了该实例所使用的轻量级VisionTransformer模块,具体改进的模块如下:
局部感知单元采用深度分离卷积,将卷积的平移不变性引入模块,具体公式为:
LPU(X)=DWConv(X)+X
式中,X为输入特征张量,DWConv为深度可分离卷积层,整体采用残差连接;
此实例中,首先采用3*3的卷积进行逐通道卷积,然后采用1*1的卷积进行逐点卷积,实现深度可分离卷积的作用;
轻量级多头自注意力模块在原始的多自注意力的基础上,通过卷积操作对Key和Value的生成进行了简化处理,极大的节省了计算量,注意力的计算公式如下:
式中,Q、K、V分别为Transformer中的Query、Key、Value,Softmax为归一化指数函数,KT为K的转置矩阵,R为实数域,B为偏置矩阵,k为K和V沿空间方向缩小的倍数;
具体地,在求Q、K、V三者时,采用1*1的卷积代替原本的Wq、Wk、Wv的权重矩阵,加快模型的训练和推断速度,同时引入非线性变换,增强模型的表达能力;
改进的MLP模块在原有的全连接层之间加入了3*3的卷积层,并通过残差连接避免梯度消失的同时,增强了Transformer模块的局部语义信息提取的能力;
全局上下文特征提取模块共三条分支,输入特征为多尺度特征采样模块输出的三种不同尺度的特征,经过三条分支结构网络的特征提取后,对特征进行融合并输出。
异常特征检测模块由K-means聚类和特征检测组成,主要用于抑制图像重建过程中的缺陷特征,将从全局上下文特征提取模块输出的特征图沿维度分解,包含的N个特征向量P,P={p1,p2,...,pN}(P∈RC×1,N=H*W),输入K-means聚类中,选择K个中点作为聚类中心,中心向量为C,C={C1,C2,...,Ck}(C∈RC×1),特征检测是将特征向量中的与中心向量相距过远的缺陷特征替换成正常特征向量。
图像生成模块和图像判别网络的主体部分采用DCGAN的网络结构,图像生成模块由五层上采样模块组成,模块中的归一化操作采用Instance Norm,图像生成模块输出三通道彩色重构图像,图像大小与输入图像一致;图像判别网络包括五层特征下采样模块和一个全连接层,在图像生成模块的第四到第五层之间、图像判别网络的第一层到第二层之间分别加入自注意力模块,图像判别网络的输出为输入图像为真的概率,范围在0-1之间,具体的,自注意力模块的结构可参考图5所示轻量级Vision Transformer模块的多头注意机制。
所述步骤S4中将预处理后的正常样本数据集输入多尺度图像重构网络模型进行模型参数训练的步骤包括:
步骤S41,向训练集中的图像加入随机彩色高斯噪声,并进行掩码操作;
步骤S42,排除图像重构模型中的异常特征检测模块,将处理好的图像输入模型中进行参数训练,将对抗损失作为图像判别网络的训练损失函数,将图像重构损失作为图像生成网络的训练损失函数;
该实例中,图像判别网络的训练损失函数可以选择Wasserstein距离配合梯度惩罚作对抗损失函数,其中Wasserstein距离公式为:
式中,Pr是真实样本分布,Pg是生成器产生的样本分布,Π(Pr,Pg)是Pr和Pg组合起来的所有可能的联合分布的集合,inf是取该期望值的下界,||xw-yw||表示范数,E表示期望值;
根据Wasserstein距离可以得到判别网络的损失函数,公式为:
式中,代表真实样本的判别器输出的期望值,/>代表生成器生成的样本的判别器输出的期望值,λ为梯度惩罚项的常系数,/>是求判别器网络的梯度,当/>时,对梯度进行惩罚,且距离1越远,惩罚越大,此处λ取0.09,xd为判别器输入值;
图像生成网络的训练损失函数由均方误差和SSIM结构相似度系数共同构成,均方误差公式如下:
式中,n表示样本数量,ym表示真实值,表示预测值;
SSIM结构相似度的公式为:
式中,u,v代表输入的两个图像样本,μ代表像素样本均值,σu、σv代表像素样本公差,σuv表示u、v的互相关系数,c1和c2一般为常数项;
图像生成网络的训练损失函数为:
式中,α为权重系数,在该实例中取0.3;
步骤S43,固定训练好的网络权重,加入异常特征检测模块,对K-means聚类进行参数训练:随机初始化K个聚类中心的特征向量C,对于每个输入的特征向量P,计算其与各聚类中心之间的距离,并将特征向量分配到距离最近的聚类中心,于每个聚类,计算该聚中所有样本的均值,将该均值作为新的类中心,不断迭代上述步骤,完成对K-means聚类的训练。
该实例中,模型训练环境及相关参数:在python3.7版本下,深度学习框架Pytorch1.7.0,显卡为NVIDIA GeForce RTX 3060,采用默认参数的Adam优化器,batchsize为16,learning rate为0.0001,epoch为100。
所述步骤S5中将预处理后的待测图像输入训练好的重构模型中进行图像重构,输出重构图像,将待测图像与重构图像进行残差计算,得到残差图的步骤包括:
步骤S51,向预处理后的待测图像加入随机彩色高斯噪声,将其输入固定好训练权重的图像重构模型中进行图像重构,其中,经过异常特征检测模块时,计算输入的特征向量P到所有聚类中心C的空间距离d,若空间距离d超出异常阈值T,则将改特征向量视为缺陷特征,并用距离其最近的中心特征向量代替缺陷特征向量,达到缺陷特征抑制的效果,其空间距离d的计算公式为:
式中,X和Y分别为输入的特征向量P和中心特征向量C,d(X,Y)为两个向量之间的欧氏距离;
异常阈值T由正样本的特征向量训练时得到,其计算公式为:
/>
式中,di为正样本训练时,特征向量距离中心特征向量的空间距离,N为特征向量的个数,σd为距离di的标准差;
步骤S52,将模型输出的重构图像与待测图像进行像素残差计算,得到初步残差图,残差计算的公式如下:
Ldif(i,j)=(Lsrc(i,j)-Lrec(i,j))2
式中,Lsrc(i,j)为待检测图像,Lrec(i,j)为重构图像,将计算的残差图进一步归一化,得到最终结果。
实施例中,所述步骤S6中对残差图进行预处理,突出缺陷部分,通过异常得分判断红外封口图像是否存在缺陷,若存在缺陷,对缺陷部分进行定位的步骤包括:
步骤S61,对残差图进行三通道加权平均,实现灰度化处理;
步骤S62,采用均值滤波进行图像去噪处理,消除噪点形成的伪缺陷;
步骤S63,计算处理好的灰度图的异常概率得分,异常概率得分大于异常阈值时,则表示残差图中存在异常点,其公式为:
式中,Smap是单通道的残差图矩阵,Smapmax为像素矩阵中的最大值,Smapmin为像素矩阵中的最小值,S为残差图矩阵归一化后的最大值;
步骤S64,对残差图使用自适应阈值法进行二值化处理,采用大津法计算图像分割阈值,将灰度图转成二值化图像,其公式如下:
式中,TOTSU为大津法所得阈值,t为该灰度图中的像素值;
步骤S65,根据所得二值化图像,求出图中像素值为1的像素点所占全图像素点比重R,若同时满足异常概率得分大于异常阈值,缺陷像素占比大于比例阈值,则判定图像存在缺陷,否则,图像正常;
步骤S66,若图像存在缺陷,则采用轮廓提取算法,遍历二值化图像的像素值,提取边缘图像中所有完全闭合的边缘轮廓,并使用最大轮阔的边界框(外接正矩形)来标记目标区域,实现缺陷定位。
完整的缺陷检测流程包括四张图像,分别是待检图像、重建图像、残差图像、缺陷定位图像,具体实例如图6所示。
在本申请所提供的实施例中,显而易见,所揭露的方法也可以通过其它方式去实现,并不局限于以上所描述的方法。例如,附图中的检测方法流程图中所描述的步骤,某些工序可以同时进行,也可以改变实现的步骤顺序,这些都可以视不同功能情况而定。同时,流程图所示的每个方框可以用执行相关功能或动作的专用硬件系统来实现,或者通过计算机程序与硬件搭配实现。
所述功能若以软件功能模块的形式实现,并且被当作单独的产品出售或被使用时,该系统可以通过可读取存储介质进行储存。基于此,本发明的技术方案实质上或其一部分技术方案可以作为软件产品,其包含若干指令以使一台计算机装置(可以是个人电脑、服务器、或网络装置等)实现本发明各实施方式中描述的所有或部分方法,前述存储介质包含:U盘、移动硬盘、RAM、ROM和光盘等可以存储程序的介质。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (8)

1.一种基于无监督学习的铝箔封口密封性的检测方法,其特征在于,包括如下步骤:
步骤S1,获取铝箔封口红外图像;
步骤S2,对铝箔封口红外图像进行自适应ROI区域提取;
步骤S3,对提取的红外图像进行预处理并将正常样本图像制作成数据集;
步骤S4,将预处理后的正常样本数据集输入多尺度图像重构网络模型进行模型参数训练;
步骤S5,将预处理后的待测图像输入训练好的重构模型中进行图像重构,输出重构图像,将待测图像与重构图像进行残差计算,得到残差图;
步骤S6,对残差图进行预处理,突出缺陷部分,通过异常得分判断红外封口图像是否存在缺陷,若存在缺陷,对缺陷部分进行定位。
2.根据权利要求1所述的基于无监督学习的铝箔封口密封性的检测方法,其特征在于,
所述步骤S2中对铝箔封口红外图像进行自适应ROI区域提取的步骤包括:
步骤S21,对获取的红外图像进行三通道加权平均,实现灰度化处理;
步骤S22,对灰度图像进行平滑降噪处理,去除细小的纹理和不规则性噪点,所述平滑降噪处理方法为高斯滤波,其表达式为:
式中,(x,y)表示图像中的像素坐标,G(x,y)表示在该位置计算的高斯函数值,σ表示高斯核的标准,e为自然对数函数的常量底数;
步骤S23,采用Canny边缘检测提取平滑处理后灰度图像的边缘轮廓,并得到二值化后的边缘图像;
步骤S24,采用轮廓提取算法,遍历二值化图像的像素值,提取边缘图像中所有完全闭合的边缘轮廓,并使用最大轮阔的边界框,即外接正矩形来标记目标区域,根据外接矩形的位置和尺寸,在原始图像裁剪出对应区域,所得的对应区域即为铝箔封口红外图像的ROI区域。
3.根据权利要求1所述的基于无监督学习的铝箔封口密封性的检测方法,其特征在于,
所述步骤S3中对提取的红外图像进行预处理并将正常样本图像制作成数据集的步骤包括:
步骤S31,对提取的ROI图像进行图像增强,首先,对图像的对比度进行增强,提高图像细节可见性,具体的使用自适应直方图均衡化,其公式如下:
式中,f(x,y)是原始图像,(x,y)为像素点坐标,h(i,j)是窗口函数,W是窗口大小;T(x,y)指以(x,y)为中心的像素值,f(x+i,y+j)指原始图像中以(x+i,y+j)为中心的像素值,i和j指窗口函数的坐标;
然后,采用拉普拉斯滤波器,对图像进行锐化操作,增强图像的边缘和细节;
步骤S32,对图像增强后的样本进行插值上采样操作,提高红外图像的分辨率,为后续的深度学习模型训练提供更多的图像信息,具体采用双三次插值法,公式如下:
式中,(bx,by)为插值点坐标,B(bx,by)为双三次插值结果,(bxi,byj)为插值点近邻的16个点,W(x)为加权函数,这里的a取-0.5;
步骤S33,对图像进行随机旋转,以扩充训练数据集并增加模型的鲁棒性;
步骤S34,将图像像素值归一化到0到1之间,并对归一化后的图像像素值进行标准化,使其均值为0,方差为1,以加速模型收敛,其公式为:
式中,xnorm为归一化结果,xstd为标准化结果,xorg为原始图像的像素值,μ和σ为单一通道像素值的均值和标准差;
步骤S35,将预处理后的图像数据集划分为训练和测试集,采用正常样本数据作为训练集占75%,剩余25%的正常样本和缺陷样本作为测试集。
4.根据权利要求1所述的基于无监督学习的铝箔封口密封性的检测方法,其特征在于,
所述步骤S4中多尺度图像重构网络模型包括图像生成网络和图像判别网络,其中图像生成网络包括多尺度特征采样模块,全局上下文特征提取模块,异常特征检测模块,图像生成模块。
5.根据权利要求4所述的基于无监督学习的铝箔封口密封性的检测方法,其特征在于,
所述多尺度特征采样模块由四个卷积组构成,第一层卷积组由卷积核为7*7的卷积层和最大池化层构成,目的是捕捉大尺度特征,减少后续层计算复杂性;后续三个卷积组均由残差块结构构成,包括3*3卷积核的卷积层、批归一化、激活函数和残差连接,用于更好的提取如纹理、边缘等局部特征,同时避免了梯度消失;多尺度特征采样模块输出三种不同尺度的特征图,分别由第二层、第三层、第四层卷积组输出,多尺度特征提高了模型的泛化能力和鲁棒性并且有利于图像重建网络对图像细节的重构;
所述全局上下文特征提取模块融合了Transformer结构和卷积结构,具体包括基于下采样的3*3卷积层和改进的轻量级Vision Transformer模块,改进的轻量级VisionTransformer模块依次为相对位置编码、局部感知单元、LayerNorm层、轻量级多头自注意力模块、LayerNorm层、改进的MLP模块;
其中,局部感知单元采用深度分离卷积,将卷积的平移不变性引入模块,具体公式为:
LPU(X)=DWConv(X)+X
式中,X为输入特征张量,DWConv为深度可分离卷积层,整体采用残差连接;
轻量级多头自注意力模块在原始的多自注意力的基础上,通过卷积操作对Key和Value的生成进行了简化处理,注意力的计算公式如下:
式中,Q、K、V分别为Transformer中的Query、Key、Value,Softmax为归一化指数函数,KT为K的转置矩阵,R为实数域,B为偏置矩阵,k为K和V沿空间方向缩小的倍数;
改进的MLP模块在原有的全连接层之间加入了3*3的卷积层,并通过残差连接避免梯度消失的同时,增强了Transformer模块的局部语义信息提取的能力;
全局上下文特征提取模块共三条分支,输入特征为多尺度特征采样模块输出的三种不同尺度的特征,经过三条分支结构网络的特征提取后,对特征进行融合并输出。
所述异常特征检测模块由K-means聚类和特征检测组成,主要用于抑制图像重建过程中的缺陷特征,将从全局上下文特征提取模块输出的特征图沿维度分解,包含的N个特征向量P,P={p1,p2,...,pN}(P∈RC×1,N=H*W),输入K-means聚类中,选择K个中点作为聚类中心,中心向量为C,C={C1,C2,...,Ck}(C∈RC×1),特征检测是将特征向量中的与中心向量相距过远的缺陷特征替换成正常特征向量;
所述图像生成模块和图像判别网络的主体部分采用DCGAN的网络结构,图像生成模块由五层上采样模块组成,模块中的归一化操作采用Instance Norm,图像生成模块输出三通道彩色重构图像,图像大小与输入图像一致;图像判别网络包括五层特征下采样模块和一个全连接层,在图像生成模块的第四到第五层之间、图像判别网络的第一层到第二层之间分别加入自注意力模块,图像判别网络的输出为输入图像为真的概率,范围在0-1之间。
6.根据权利要求1所述的基于无监督学习的铝箔封口密封性的检测方法,其特征在于,
所述步骤S4中将预处理后的正常样本数据集输入多尺度图像重构网络模型进行模型参数训练的步骤包括:
步骤S41,向训练集中的图像加入随机彩色高斯噪声,并进行掩码操作;
步骤S42,排除图像重构模型中的异常特征检测模块,将处理好的图像输入模型中进行参数训练,将对抗损失作为图像判别网络的训练损失函数,将图像重构损失作为图像生成网络的训练损失函数;
步骤S43,固定训练好的网络权重,加入异常特征检测模块,对K-means聚类进行参数训练:随机初始化K个聚类中心的特征向量C,对于每个输入的特征向量P,计算其与各聚类中心之间的距离,并将特征向量分配到距离最近的聚类中心,于每个聚类,计算该聚中所有样本的均值,将该均值作为新的类中心,不断迭代上述步骤,完成对K-means聚类的训练。
7.根据权利要求1所述的基于无监督学习的铝箔封口密封性的检测方法,其特征在于,
所述步骤S5中将预处理后的待测图像输入训练好的重构模型中进行图像重构,输出重构图像,将待测图像与重构图像进行残差计算,得到残差图的步骤包括:
步骤S51,向预处理后的待测图像加入随机彩色高斯噪声,将其输入固定好训练权重的图像重构模型中进行图像重构,其中,经过异常特征检测模块时,计算输入的特征向量P到所有聚类中心C的空间距离d,若空间距离d超出异常阈值T,则将改特征向量视为缺陷特征,并用距离其最近的中心特征向量代替缺陷特征向量,达到缺陷特征抑制的效果,其空间距离d的计算公式为:
式中,X和Y分别为输入的特征向量P和中心特征向量C,d(X,Y)为两个向量之间的欧氏距离;
异常阈值T由正样本的特征向量训练时得到,其计算公式为:
式中,di为正样本训练时,特征向量距离中心特征向量的空间距离,N为特征向量的个数,σd为距离di的标准差;
步骤S52,将模型输出的重构图像与待测图像进行像素残差计算,得到初步残差图,残差计算的公式如下:
Ldif(i,j)=(Lsrc(i,j)-Lrec(i,j))2
式中,Lsrc(i,j)为待检测图像,Lrec(i,j)为重构图像,将计算的残差图进一步归一化,得到最终结果。
8.根据权利要求1所述的基于无监督学习的铝箔封口密封性的检测方法,其特征在于,
所述步骤S6中对残差图进行预处理,突出缺陷部分,通过异常得分判断红外封口图像是否存在缺陷,若存在缺陷,对缺陷部分进行定位的步骤包括:
步骤S61,对残差图进行三通道加权平均,实现灰度化处理;
步骤S62,采用均值滤波进行图像去噪处理,消除噪点形成的伪缺陷;
步骤S63,计算处理好的灰度图的异常概率得分,异常概率得分大于异常阈值时,则表示残差图中存在异常点,其公式为:
式中,Smap是单通道的残差图矩阵,Smapmax为像素矩阵中的最大值,Smapmin为像素矩阵中的最小值,S为残差图矩阵归一化后的最大值;
步骤S64,对残差图使用自适应阈值法进行二值化处理,采用大津法计算图像分割阈值,将灰度图转成二值化图像,其公式如下:
式中,TOTSU为大津法所得阈值,t为该灰度图中的像素值;
步骤S65,根据所得二值化图像,求出图中像素值为1的像素点所占全图像素点比重R,若同时满足异常概率得分大于异常阈值,缺陷像素占比大于比例阈值,则判定图像存在缺陷,否则,图像正常;
步骤S66,若图像存在缺陷,则采用轮廓提取算法,遍历二值化图像的像素值,提取边缘图像中所有完全闭合的边缘轮廓,并使用最大轮阔的边界框,即外接正矩形,来标记目标区域,实现缺陷定位。
CN202310937867.9A 2023-07-28 2023-07-28 一种基于无监督学习的铝箔封口密封性的检测方法 Pending CN116934725A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310937867.9A CN116934725A (zh) 2023-07-28 2023-07-28 一种基于无监督学习的铝箔封口密封性的检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310937867.9A CN116934725A (zh) 2023-07-28 2023-07-28 一种基于无监督学习的铝箔封口密封性的检测方法

Publications (1)

Publication Number Publication Date
CN116934725A true CN116934725A (zh) 2023-10-24

Family

ID=88389563

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310937867.9A Pending CN116934725A (zh) 2023-07-28 2023-07-28 一种基于无监督学习的铝箔封口密封性的检测方法

Country Status (1)

Country Link
CN (1) CN116934725A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117372791A (zh) * 2023-12-08 2024-01-09 齐鲁空天信息研究院 细粒度定向能毁伤区域检测方法、装置及存储介质
CN117746000A (zh) * 2023-12-27 2024-03-22 广东瑞福密封科技有限公司 橡胶密封圈多类表面缺陷分类定位方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117372791A (zh) * 2023-12-08 2024-01-09 齐鲁空天信息研究院 细粒度定向能毁伤区域检测方法、装置及存储介质
CN117372791B (zh) * 2023-12-08 2024-03-22 齐鲁空天信息研究院 细粒度定向能毁伤区域检测方法、装置及存储介质
CN117746000A (zh) * 2023-12-27 2024-03-22 广东瑞福密封科技有限公司 橡胶密封圈多类表面缺陷分类定位方法

Similar Documents

Publication Publication Date Title
CN110009013B (zh) 编码器训练及表征信息提取方法和装置
CN110363182B (zh) 基于深度学习的车道线检测方法
CN111680614B (zh) 一种基于视频监控中的异常行为检测方法
CN111383209B (zh) 一种基于全卷积自编码器网络的无监督瑕疵检测方法
CN116934725A (zh) 一种基于无监督学习的铝箔封口密封性的检测方法
CN114677346B (zh) 基于记忆信息的端到端的半监督图像表面缺陷的检测方法
CN111738054B (zh) 一种基于时空自编码器网络和时空cnn的行为异常检测方法
CN113327231B (zh) 一种基于空谱联合的高光谱异常目标检测方法和系统
CN116910752B (zh) 一种基于大数据的恶意代码检测方法
WO2024021461A1 (zh) 缺陷检测方法及装置、设备、存储介质
Hou et al. Texture defect detection using support vector machines with adaptive Gabor wavelet features
CN113850725A (zh) 一种滤波增强深度学习的被动式太赫兹图像目标检测方法
Li et al. Hyperspectral anomaly detection via image super-resolution processing and spatial correlation
CN115953784A (zh) 基于残差和特征分块注意力的激光打码字符分割方法
CN111882525A (zh) 一种基于lbp水印特征和细粒度识别的图像翻拍检测方法
CN111563577A (zh) 基于Unet的跳跃层分频和多尺度鉴别的本征图像分解方法
CN113421223B (zh) 基于深度学习和高斯混合的工业产品表面缺陷检测方法
CN117036352B (zh) 一种基于人工智能的视频分析方法及系统
CN112767331A (zh) 基于零样本学习的图像异常检测方法
CN112418241A (zh) 一种基于红外成像技术的电力设备识别方法
CN115861226A (zh) 基于特征值梯度变化的深度神经网络智能识别表面缺陷方法
CN115829942A (zh) 基于非负性约束稀疏自编码器的电子电路缺陷检测方法
CN112949344B (zh) 一种用于异常检测的特征自回归方法
CN113313678A (zh) 一种基于多尺度特征融合的精子形态学自动分析方法
Wu et al. Object-Enhanced YOLO Networks for Synthetic Aperture Radar Ship Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination