CN113538331A - 金属表面损伤目标检测识别方法、装置、设备及存储介质 - Google Patents
金属表面损伤目标检测识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113538331A CN113538331A CN202110524338.7A CN202110524338A CN113538331A CN 113538331 A CN113538331 A CN 113538331A CN 202110524338 A CN202110524338 A CN 202110524338A CN 113538331 A CN113538331 A CN 113538331A
- Authority
- CN
- China
- Prior art keywords
- metal surface
- target detection
- surface damage
- network
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30136—Metal
Abstract
本发明公开了一种金属表面损伤目标检测识别方法、装置、设备及存储介质,属于计算机视觉识别技术领域。该方法首先构建ADC‑Mask R‑CNN模型,训练得到目标检测识别网络,采用数据增强对样本数据集进行扩充,作为网络模型的输入;再采用特征金字塔网络生成特征图做感兴趣区域的分类与目标检测框回归,由此生成候选区域;而后将候选的感兴趣区域送入区域推荐网络进行二值分类与目标检测回归,过滤掉一部分的感兴趣区域;最后将剩下的感兴趣区域进行对齐操作,并且进行最终的金属损伤分类、目标检测框回归以及掩码生成。本发明能有效克服金属损伤图像中的小目标与不规则目标检测难题,从金属损伤图像中准确地识别目标位置。
Description
技术领域
本发明属于计算机视觉识别技术领域。更具体地,涉及金属表面损伤目标检测识别方法、装置、设备及存储介质。
背景技术
金属材料是指具有光泽、延展性、导电性、传热等性质的材料,人类文明的发展和社会的进步同金属材料关系十分密切。21世纪,中国金属工业紧密结合市场和可持续发展的需求,使传统金属加工技术逐步完成向现代化金属材料加工技术的转变。由于许多金属比如铝型材等,具备抗腐蚀性、电导率低、热导量率低、非铁磁性、可加工性、可成形性、回收性等诸多优点,被广泛应用于散热器型材、航天航空、交通运输(轨道车辆、冷藏集装箱)、船舶、建筑、医疗器械等领域。但是在金属的实际生产过程中,由于加工、冶炼、运输过程中各方面因素的影响(比如熔炼炉、合金元素、型材挤压等),金属材料表面会产生诸如起坑、涂层开裂、脏点、擦花、横条压槽、碰伤以及不导电等问题。这些瑕疵会严重影响金属材料的质量。为了保证产品质量,需要人工进行肉眼目测。然而金属材料表面本身就包含纹路,与各种瑕疵的区分度不高,目视解译的方法不仅十分费力,还缺乏一定的准确性,质检的效率也难以把控。因此需要借助一些非人工的方法来提升质检的效率与精度。
目前,对于金属制品的表面损伤检测,工业界大部分还停留在人工抽样检查(抽样率为100%),受现场客观条件以及个人主观判别因素的影响容易出现错误且检测效率极低,这种落后的检测手段已经无法满足现代金属工业发展的需求。因此工业界发展了一些传统的基于不同原理的检测方法。
目标检测作为计算机视觉的任务之一,其问题定义是确定目标在给定图像中的位置(目标定位)和每个目标所属的类别(目标分类)。目标检测模型主要包含信息区域选择、特征提取和分类三个阶段。目标检测主要可以划分为两大类:一般目标检测和检测应用,其中,一般目标检测的目的是探索在统一的框架下检测不同类型物体的方法,以模拟人类的视觉和认知,更偏理论。检测应用则侧重于技术在现实生活的应用,比如行人检测,人脸检测等。近年来随着深度学习的爆发,越来越多目标检测的应用开始落地,如自动驾驶,监控安防,机器视觉等应用取得了长足的进步。
计算机视觉方法应用于金属表面损伤检测虽然能取得一定的效果,但是鉴于检测目标的复杂性以及多样性,即便是肉眼也很难区分一些损伤类别,因此针对现有的一些工业金属表面损伤数据集,现有的深度学习的目标检测识别算法对目标位置识别准确率不高。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了计算机视觉识别技术,其目的在于先利用基于深度学习的目标检测算法强大的拟合能力,找到损伤目标检测框。本文首先发明利用目标检测识别深度神经网络模型,对金属表面损伤图像进行目标检测识别;之后采用数据增强对样本数据集进行扩充,作为网络模型的输入;再采用特征金字塔网络生成特征图做感兴趣区域的分类与目标检测框回归,由此生成候选区域;而后将候选的感兴趣区域送入区域推荐网络进行二值分类与目标检测回归,过滤掉一部分的感兴趣区域;最后将剩下的感兴趣区域进行对齐操作,并且进行最终的金属损伤分类、目标检测框回归以及掩码生成。本发明能有效克服金属损伤图像中的小目标与不规则目标检测难题,从金属损伤图像中将目标位置准确识别出来。
为实现上述目的,本发明提供了一种金属表面损伤目标检测识别方法,包括以下步骤:
S1、在Mask R-CNN模型的主干网络ResNet101中嵌入注意力机制、特征金字塔、可变形卷积和可变形感兴趣区域池化,得到ADC-Mask R-CNN模型;
S2、通过金属表面损伤数据集对所述ADC-Mask R-CNN模型进行预训练,得到训练好的目标检测识别网络;
S3、根据数据增强方法对所述金属表面损伤数据集进行样本扩充,得到扩充后的金属表面损伤数据集;
S4、将所述扩充后的金属表面损伤数据集输入所述训练好的目标检测识别网络的深度卷积层中,生成特征图;
S5、将所述特征图输入所述训练好的目标检测识别网络的区域推荐网络,通过全连接网络进行损伤分类与目标检测框回归,得到目标候选区域;
S6、对所述目标候选区域进行感兴趣区域对齐,重塑特征图的尺寸,得到重塑尺寸后的特征图;
S7、将所述重塑尺寸后的特征图输入所述训练好的目标检测识别网络的三个全连接网络,分别对所述扩充后的金属表面损伤数据集进行损伤分类、损伤目标检测框回归、掩码生成,以识别金属表面损伤。
优选地,所述损伤目标检测框回归具体包括:
S01、对金属表面损伤图像进行尺寸归一化,之后对图像做正方形填充;
S02、利用主干网络ResNet101计算金属表面损伤图像的卷积特征,以最后一层卷积层特征图作为输入,通过特征金字塔构建包含语义信息与位置信息的特征图,以最后一层卷积特征图为输入构建目标潜在区域生成网络,由目标潜在区域生成网络生成目标候选区域;
S03、对所述目标候选区域进行可变形池化与感兴趣区域对齐,得到重塑尺寸后的特征图,将所述重塑尺寸后的特征图输入到全连接层网络中,得到多个目标检测候选框;
S04、采用非极大值抑制算法,从多个目标检测候选框剔除多于的目标检测框,得到最终的损伤目标检测框。
优选地,步骤S1中,加强对金属损伤中面积占比较小的损伤的检测性能,在主干网络ResNet101中嵌入空间域注意力机制以及通道域注意力机制,在不显著增加计算量和参数量的前提下能提升网络模型的特征提取能力。
通道注意力机制:特征的每一个通道都代表着一个专门的检测器,为了汇总空间特征,此处采用了全局平均池化和最大池化两种方式来分别利用不同的信息,所述通道注意力机制的表达式为:
其中,σ表示sigmoid函数,MLP表示多层感知器,AvgPool和MaxPool分别表示平均池化和最大池化,F表示输入的特征图,W0和W1均表示通道注意力模型的权重矩阵,和分别代表全局平均池化和全局最大值池化输出的特征,Mc(F)表示生成最终的通道注意力特征。
输入的特征图F分别通过基于宽和高的全局最大值池化和全局平均值池化,然后分别通过多层感知器,将感知器输出的特征进行基于逐元素的相加操作,最后经过sigmoid激活函数,生成最终的通道注意力特征Mc。
空间注意力机制:在通道注意力机制之后,再引入空间注意力模块,所述空间注意力机制的表达式为:
其中,σ表示sigmoid函数,MLP表示多层感知器,用于共享参数,和分别代表全局平均池化和全局最大值池化输出的特征,f7*7表示在拼接后的特征图上做7*7的卷积,Ms(F)表示最终生成的空间注意力特征。
优选地,步骤S1中,在所述主干网络ResNet101中加入特征金字塔进行多尺度融合,对ResNet101第5层的输出进行1×1的卷积降维,与上采样结果相加融合后用3×3卷积处理,固定特征图上的通道数都为256。
优选地,步骤S1中,在所述主干网络ResNet101中加入可变形卷积与可变形感兴趣区域池化,这两个操作都是二维的,在同一通道上进行,常规的规则网格R通过增加一个偏移量进行扩张,位置p0变为:
其中,y(p0)为经过可变形卷积与可变形感兴趣区域池化后的输出,pn为偏移位置,w(pn)为pn处的权重,p0为扩张点的位置;
采样的位置变成了不规则位置,由于偏移量Δpn通常是小数,因此通过双线性插值法进行实现:x(p)=∑qG(q,p)·x(q),
其中,x(p)表示p点处插值后的输出,p表示插值点,q表示插值偏移,x(q)表示在q点处插值后的输出;
可变形感兴趣区域池化,给定输入特征图x和一个大小为w×h位于左上角的区域p0,w和h分别表示特征图x的宽和高,RoI Pooling把这个RoI划分为k×k个单元,同时输出一个尺寸为k×k的特征图y:
其中,y(i,j)表示在(i,j)处经过可变形感兴趣区域池化后的输出,i和j分别表示在图中的横纵坐标,Bin(i,j)表示所有的像素点集合,p表示偏移,nij是单元中像素的数量,可变形池化公式如下:
其中,Δpij表示在(i,j)处的偏移量。
优选地,步骤S1还包括:将所述主干网络ResNet101的R-CNN进行级联操作,在每一个阶段都添加MaskR-CNN模型的Mask分支:
其中,x表示主干网络ResNet101的卷积特征,和分别表示由特征x与RoIPooling得到的回归框与掩码特征,函数P()是一个池化操作,表示RoIAlign,Bt和Mt表示第t个阶段的边界框和掩码,rt和mt表示相应的边界框回归与掩码预测。
此外,为了实现上述目的,本发明还提供了一种金属表面损伤目标检测识别装置,所述金属表面损伤目标检测识别装置包括:
构建模块,用于在Mask R-CNN模型的主干网络ResNet101中嵌入注意力机制、特征金字塔、可变形卷积和可变形感兴趣区域池化,得到ADC-Mask R-CNN模型;
预训练模块,用于通过金属表面损伤数据集对所述ADC-Mask R-CNN模型进行预训练,得到训练好的目标检测识别网络;
样本扩充模块,用于根据数据增强方法对所述金属表面损伤数据集进行样本扩充,得到扩充后的金属表面损伤数据集;
特征图生成模块,用于将所述扩充后的金属表面损伤数据集输入所述训练好的目标检测识别网络的深度卷积层中,生成特征图;
候选区域获取模块,用于将所述特征图输入所述训练好的目标检测识别网络的区域推荐网络,通过全连接网络进行损伤分类与目标检测框回归,得到候选区域;
对齐重塑模块,用于对所述候选区域进行感兴趣区域对齐,重塑特征图的尺寸,得到重塑尺寸后的特征图;
识别模块,用于将所述重塑尺寸后的特征图输入三个全连接网络,分别对所述扩充后的金属表面损伤数据集进行损伤分类、损伤目标检测框回归、掩码生成,以识别金属表面损伤。
此外,为了实现上述目的,本发明还提供了一种金属表面损伤目标检测识别设备,所述金属表面损伤目标检测识别设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的金属表面损伤目标检测识别程序,所述金属表面损伤目标检测识别程序被所述处理器执行时实现所述的金属表面损伤目标检测识别方法的步骤。
此外,为了实现上述目的,本发明还提供了一种存储介质,所述存储介质上存储有金属表面损伤目标检测识别程序,所述金属表面损伤目标检测识别程序被处理器执行时实现所述的金属表面损伤目标检测识别方法的步骤。
本发明提供的技术方案带来的有益效果是:本发明采用基于深度学习的目标检测算法检测出金属表面损伤图像中所有损伤目标的位置,并识别出目标的类别;利用数据增强算法扩充金属表面损伤数据集,利用特征金字塔融合多尺度特征图检测小目标金属损伤,利用通道域注意力与空间域注意力提升模型泛化能力,利用可变形卷积与可变形感兴趣区域池化提升长条状损伤检测精度,最后通过全连接网络层定位金属损伤目标检测框,识别损伤类型以及生成损伤掩码。本发明能有效克服金属损伤图像中的小目标与不规则目标检测难题,从金属损伤图像中将目标位置准确识别出来。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明金属表面损伤目标检测识别方法的执行流程图;
图2是本发明的网络框架图;
图3是本发明的检测效果图;
图4是本发明金属表面损伤目标检测识别装置结构图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
参考图1,图1是本发明金属表面损伤目标检测识别方法的执行流程图;
本实施例中,提供了一种金属表面损伤目标检测识别方法,包括以下步骤:
S1、在Mask R-CNN模型的主干网络ResNet101中嵌入注意力机制、特征金字塔、可变形卷积和可变形感兴趣区域池化,得到ADC-Mask R-CNN模型(A-注意力机制,D-可变形卷积,C-级联);
S2、通过金属表面损伤数据集对所述ADC-Mask R-CNN模型进行预训练,得到训练好的目标检测识别网络;
S3、根据数据增强方法对所述金属表面损伤数据集进行样本扩充,得到扩充后的金属表面损伤数据集;
S4、将所述扩充后的金属表面损伤数据集输入所述训练好的目标检测识别网络的深度卷积层中,生成特征图;
S5、将所述特征图输入所述训练好的目标检测识别网络的区域推荐网络,通过全连接网络进行损伤分类与目标检测框回归,得到目标候选区域;
S6、对所述目标候选区域进行感兴趣区域对齐,重塑特征图的尺寸,得到重塑尺寸后的特征图;
S7、将所述重塑尺寸后的特征图输入所述训练好的目标检测识别网络的三个全连接网络,分别对所述扩充后的金属表面损伤数据集进行损伤分类、损伤目标检测框回归、掩码生成,以识别金属表面损伤。
本实施例中,S2中,通过金属表面损伤数据集对所述ADC-Mask R-CNN模型进行预训练,采用如下的损失函数:
公式中i是给定小批量中锚框的索引。上述损失函数由三部分组成,第一部分用于分类,第二部分用于边界框回归,第三部分用于掩码。pi是对象的预测概率。如果锚框标签为正,Ground Truth标签为1,如果锚框标签为负,Ground Truth标签为0。分类损失Lcls是在两个类(前景类和背景类)上的对数损失。这个总分类损失由Ncls标准化,等于小批量的大小。ti是预测框的4个偏移参数,是给定的Ground Truth。损失其中R是L1平滑损失。
Lmask:对于每一个RoI,mask分支定义一个K*m*2维的矩阵表示K个不同的分类对于每一个m*m的区域,对于每一个像素,都是用sigmoid函数进行求相对熵,得到平均相对熵误差Lmask,对于每一个RoI,如果检测得到RoI属于哪一个分类,就只使用哪一个分支的相对熵误差作为差值进行计算。二值的交叉熵定义如下:
crossentropy(t,o)=-(t·log(o)+(1-t)·log(1-o))
其中t表示目标张量,o表示输出张量,点乘表示元素积。
模型训练完成后,还要对模型进行评价,模型评价指标包括:准确率(Accuracy)、错误率(Error rate)、混淆矩阵(Confusion Matrix)、召回率(Recall)、精确率(Precision)、P-R曲线、平均精度(Average-Precison)、F指标、ROC(Receiver OperatingCharacteristic)、AUC(Area Under Curve)、平均精度均值(MeanAverage Precison,mAP)。其中F-score是常见的衡量指标,β表示权重值,其计算公式如下:
参考图2,图2是本发明的网络框架图。整个网络架构各模块的说明如下:
(1)数据处理模块:主要实现对金属表面损伤数据集的预处理,包含一些常见的数据增强手段,如旋转、平移、翻转、缩放、裁减、色彩变换等。
(2)主干网络(backbone):采用ResNet101作为主干网络,并且在ResNet卷积层之间嵌入注意力模块和特征金字塔,以此来增强对小目标的语义提取以及检测精度。其中注意力模块采用先加入通道域注意力再加入空间域注意力的方式,在卷积层的每一层网络之间都嵌入一个封装好的注意力模块。如图2所示。ResNet101中的第五层卷积层conv5_x此处替换为可变形卷积网络,用来增强对长条状瑕疵以及不规则瑕疵的特征提取。
(3)候选区域推荐:RPN网络。RPN网络生成的候选区域作为可变形感兴趣区域池化(Deformable RoI Pooling)的输入,同时另一条分支将生成的候选区域作RoIAlign。最后将两条分支生成的特征图进行拼接与叠加。
(4)head网络:头部网络采用与Faster R-CNN类似的结构,包含了RoIAlign。RoIAlign使用双线性插值,在实现图像缩放时,有两种方法来确定缩放后的图像的像素值,第一种是根据原图像中的像素找到对应的缩放后的图像中的像素,第二种是根据缩放后的图像找到对应的原图像中的像素。第一种方法有缺点,因为小图中的像素点到大图中的像素点不是满射,因此大图中的点不能完全有像素值,第二种方法也有缺点,大图中的点逆映射为小图中的点时,得到的像素坐标值可能不是整数,一种办法是采用最近邻方法,即将得到的坐标值与相邻的原图像中的像素坐标值比较,取离得最近的坐标值对应的像素值作为缩放后的图像对应的坐标值的像素值,这种办法可能导致图像失真,因此采用双线性差值的办法来进行计算相应的像素值。RoIAlign解决此问题的思路很简单:取消量化操作,使用双线性内插的方法获得坐标为浮点数的像素点上的图像数值,从而将整个特征聚集过程转化为一个连续的操作。在具体的算法操作上,RoIAlign并不是简单地补充出候选区域边界上的坐标点,然后将这些坐标点进行池化,而是重新设计了一套流程,如下所示:
a)遍历每一个候选区域,保持浮点数边界不做量化。
b)将候选区域分割成k×k个单元,每个单元的边界也不做量化。
c)在每个单元中计算固定四个坐标位置,用双线性内插的方法计算出这四个位置的值,然后进行最大池化操作。
RoIAlign反向传播的公式如下:
上式中,d()表示两点之间的距离,Δh和Δw表示x_i与x_i*在(r,j)横纵坐标的差值,L表示损失,这里作为双线性内插的系数乘在原始的梯度上。
head网络中除了RoI Align,还加入了可变形卷积对RPN的输出做处理,通过可变形卷积的可变性来增强对长条状目标的检测精度。最后将输出的特征图送入第二阶段的分支网络,分别用来做分类、回归和掩码。模型的损失函数定义如下:
L=Lcls+Lreg+Lmask
其中,Lcls表示分类误差,Lreg表示检测误差,Lmask表示分割误差。其中对于Lmask,对于每一个RoI,mask分支定义一个K*m*2维的矩阵表示K个不同的分类对于每一个m*m的区域,对于每一个像素,都是用sigmoid函数进行求相对熵,得到平均相对熵误差Lmask,对于每一个RoI,如果检测得到RoI属于哪一个分类,就只使用哪一个分支的相对熵误差作为差值进行计算(比如存在三个类别dog、cat、people,检测得到RoI属于people这一类,那么所使用的Lmask为people这一分支的mask)。这样的定义使得网络不需要区分每个像素所属的类别,只需要去区别在这个类中的不同分别小类。最后可以通过与阈值0.5做比较输出二值mask,这样可以避免类间的竞争,将分类任务交给专门的分类分支。二值的交叉熵定义如下:
crossentropy(t,o)=-(t·log(o)+(1-t)·log(1-o))
其中t表示目标张量,o表示输出张量,点乘表示元素积。
参考图3,图3是本发明的检测效果图;
在本实施例中,金属表面损伤数据集按照8:1:1的比例划分为训练集、验证集、测试集。测试过程挑选一部分测试样本进行可视化。从模型的训练过程分析,整个训练流程中,loss的全局最低值出现在第29轮,loss值约为0.8。因此在测试阶段选用第29轮的权重模型来测试。测试集包含不同类别但数量分布均匀的样本,在测试过程中加入了边界框及检测置信度的可视化。图3为9个类别的不同样本在最优模型上测试得到的可视化结果,每个样本中绘制出边界框,标出对应目标的类别标签和置信度。9张图片的目标类别分别为角位漏底(cornerexposure)、喷流(jet)、漆泡(lacquerbubble)、不导电(nonconducting)、桔皮(orangepeel)、脏点(dirtypoint)、擦花(scratch)、漏底(undercase)、杂色(variegated)。可以看出,对于长条状的损伤,如不导电、漏底等类别,模型对于此类长条状的损伤检测效果相对理想,能准确识别出损伤的类别以及定位损伤的位置,说明可变形卷积可能对于此类损伤的检测存在一定的促进效果。
参考图4,本实施例还提供了一种金属表面损伤目标检测识别装置,所述金属表面损伤目标检测识别装置包括:
构建模块1,用于在MaskR-CNN模型的主干网络ResNet101中嵌入注意力机制、特征金字塔、可变形卷积和可变形感兴趣区域池化,得到ADC-MaskR-CNN模型;
预训练模块2,用于通过金属表面损伤数据集对所述ADC-MaskR-CNN模型进行预训练,得到训练好的目标检测识别网络;
样本扩充模块3,用于根据数据增强方法对所述金属表面损伤数据集进行样本扩充,得到扩充后的金属表面损伤数据集;
特征图生成模块4,用于将所述扩充后的金属表面损伤数据集输入所述训练好的目标检测识别网络的深度卷积层中,生成特征图;
候选区域获取模块5,用于将所述特征图输入所述训练好的目标检测识别网络的区域推荐网络,通过全连接网络进行损伤分类与目标检测框回归,得到候选区域;
对齐重塑模块6,用于对所述候选区域进行感兴趣区域对齐,重塑特征图的尺寸,得到重塑尺寸后的特征图;
识别模块7,用于将所述重塑尺寸后的特征图输入三个全连接网络,分别对所述扩充后的金属表面损伤数据集进行损伤分类、损伤目标检测框回归、掩码生成,以识别金属表面损伤。
作为可选地实施方式,本实施例还提供了一种金属表面损伤目标检测识别设备,所述金属表面损伤目标检测识别设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的金属表面损伤目标检测识别程序,所述金属表面损伤目标检测识别程序被所述处理器执行时实现所述的金属表面损伤目标检测识别方法的步骤。
作为可选地实施方式,本实施例还提供了一种存储介质,所述存储介质上存储有金属表面损伤目标检测识别程序,所述金属表面损伤目标检测识别程序被处理器执行时实现所述的金属表面损伤目标检测识别方法的步骤。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (9)
1.一种金属表面损伤目标检测识别方法,其特征在于,所述金属表面损伤目标检测识别方法包括以下步骤:
S1、在Mask R-CNN模型的主干网络ResNet101中嵌入注意力机制、特征金字塔、可变形卷积和可变形感兴趣区域池化,得到ADC-Mask R-CNN模型;
S2、通过金属表面损伤数据集对所述ADC-Mask R-CNN模型进行预训练,得到训练好的目标检测识别网络;
S3、根据数据增强方法对所述金属表面损伤数据集进行样本扩充,得到扩充后的金属表面损伤数据集;
S4、将所述扩充后的金属表面损伤数据集输入所述训练好的目标检测识别网络的深度卷积层中,生成特征图;
S5、将所述特征图输入所述训练好的目标检测识别网络的区域推荐网络,通过全连接网络进行损伤分类与目标检测框回归,得到目标候选区域;
S6、对所述目标候选区域进行感兴趣区域对齐,重塑特征图的尺寸,得到重塑尺寸后的特征图;
S7、将所述重塑尺寸后的特征图输入所述训练好的目标检测识别网络的三个全连接网络,分别对所述扩充后的金属表面损伤数据集进行损伤分类、损伤目标检测框回归、掩码生成,以识别金属表面损伤。
2.根据权利要求1所述的金属表面损伤目标检测识别方法,其特征在于,所述损伤目标检测框回归具体包括:
S01、对金属表面损伤图像进行尺寸归一化,之后对图像做正方形填充;
S02、利用主干网络ResNet101计算金属表面损伤图像的卷积特征,以最后一层卷积层特征图作为输入,通过特征金字塔构建包含语义信息与位置信息的特征图,以最后一层卷积特征图为输入构建目标潜在区域生成网络,由目标潜在区域生成网络生成目标候选区域;
S03、对所述目标候选区域进行可变形池化与感兴趣区域对齐,得到重塑尺寸后的特征图,将所述重塑尺寸后的特征图输入到全连接层网络中,得到多个目标检测候选框;
S04、采用非极大值抑制算法,从多个目标检测候选框剔除多于的目标检测框,得到最终的损伤目标检测框。
3.根据权利要求1所述的金属表面损伤目标检测识别方法,其特征在于,步骤S1中,在所述主干网络ResNet101中嵌入注意力机制,包括:通道注意力机制和空间注意力机制;
所述通道注意力机制的表达式为:
其中,σ表示sigmoid函数,MLP表示多层感知器,AvgPool和MaxPool分别表示平均池化和最大池化,F表示输入的特征图,W0和W1均表示通道注意力模型的权重矩阵,和分别代表全局平均池化和全局最大值池化输出的特征,Mc(F)表示生成最终的通道注意力特征;
所述空间注意力机制的表达式为:
4.根据权利要求1所述的金属表面损伤目标检测识别方法,其特征在于,步骤S1中,在所述主干网络ResNet101中加入特征金字塔进行多尺度融合,对ResNet101第5层的输出进行1×1的卷积降维,与上采样结果相加融合后用3×3卷积处理,固定特征图上的通道数都为256。
5.根据权利要求1所述的金属表面损伤目标检测识别方法,其特征在于,步骤S1中,在所述主干网络ResNet101中加入可变形卷积与可变形感兴趣区域池化,这两个操作都是二维的,在同一通道上进行,常规的规则网格R通过增加一个偏移量进行扩张,位置p0变为:
其中,y(p0)为经过可变形卷积与可变形感兴趣区域池化后的输出,pn为偏移位置,w(pn)为pn处的权重,p0为扩张点的位置;
采样的位置变成了不规则位置,由于偏移量Δpn通常是小数,因此通过双线性插值法进行实现:x(p)=∑qG(q,p)·x(q)
其中,x(p)表示p点处插值后的输出,p表示插值点,q表示插值偏移,x(q)表示在q点处插值后的输出;
可变形感兴趣区域池化,给定输入特征图x和一个大小为w×h位于左上角的区域p0,w和h分别表示特征图x的宽和高,RoI Pooling把这个RoI划分为k×k个单元,同时输出一个尺寸为k×k的特征图y:
其中,y(i,j)表示在(i,j)处经过可变形感兴趣区域池化后的输出,i和j分别表示在图中的横纵坐标,Bin(i,j)表示所有的像素点集合,p表示偏移,nij是单元中像素的数量,可变形池化公式如下:
其中,Δpij表示在(i,j)处的偏移量。
7.一种金属表面损伤目标检测识别装置,其特征在于,所述金属表面损伤目标检测识别装置包括:
构建模块,用于在Mask R-CNN模型的主干网络ResNet101中嵌入注意力机制、特征金字塔、可变形卷积和可变形感兴趣区域池化,得到ADC-Mask R-CNN模型;
预训练模块,用于通过金属表面损伤数据集对所述ADC-Mask R-CNN模型进行预训练,得到训练好的目标检测识别网络;
样本扩充模块,用于根据数据增强方法对所述金属表面损伤数据集进行样本扩充,得到扩充后的金属表面损伤数据集;
特征图生成模块,用于将所述扩充后的金属表面损伤数据集输入所述训练好的目标检测识别网络的深度卷积层中,生成特征图;
候选区域获取模块,用于将所述特征图输入所述训练好的目标检测识别网络的区域推荐网络,通过全连接网络进行损伤分类与目标检测框回归,得到候选区域;
对齐重塑模块,用于对所述候选区域进行感兴趣区域对齐,重塑特征图的尺寸,得到重塑尺寸后的特征图;
识别模块,用于将所述重塑尺寸后的特征图输入三个全连接网络,分别对所述扩充后的金属表面损伤数据集进行损伤分类、损伤目标检测框回归、掩码生成,以识别金属表面损伤。
8.一种金属表面损伤目标检测识别设备,其特征在于,所述金属表面损伤目标检测识别设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的金属表面损伤目标检测识别程序,所述金属表面损伤目标检测识别程序被所述处理器执行时实现如权利要求1至6中任一项所述的金属表面损伤目标检测识别方法的步骤。
9.一种存储介质,其特征在于,所述存储介质上存储有金属表面损伤目标检测识别程序,所述金属表面损伤目标检测识别程序被处理器执行时实现如权利要求1至6中任一项所述的金属表面损伤目标检测识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110524338.7A CN113538331A (zh) | 2021-05-13 | 2021-05-13 | 金属表面损伤目标检测识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110524338.7A CN113538331A (zh) | 2021-05-13 | 2021-05-13 | 金属表面损伤目标检测识别方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113538331A true CN113538331A (zh) | 2021-10-22 |
Family
ID=78095355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110524338.7A Withdrawn CN113538331A (zh) | 2021-05-13 | 2021-05-13 | 金属表面损伤目标检测识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113538331A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114332456A (zh) * | 2022-03-16 | 2022-04-12 | 山东力聚机器人科技股份有限公司 | 大分辨率图像的目标检测和识别方法及装置 |
CN114399628A (zh) * | 2021-12-21 | 2022-04-26 | 四川大学 | 复杂空间环境下的绝缘子高效检测系统 |
CN114913401A (zh) * | 2022-07-13 | 2022-08-16 | 江苏烨明光电有限公司 | Led灯芯柱与外壳的焊接设备及其焊接质量监控方法 |
CN117593301A (zh) * | 2024-01-18 | 2024-02-23 | 深圳市奥斯珂科技有限公司 | 基于机器视觉的内存条损伤快速检测方法及系统 |
CN117670881A (zh) * | 2024-01-31 | 2024-03-08 | 张家港大裕橡胶制品有限公司 | 基于目标分割的橡胶手套生产质量检测方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564025A (zh) * | 2018-04-10 | 2018-09-21 | 广东电网有限责任公司 | 一种基于可变形卷积神经网络的红外图像物体识别方法 |
CN111027547A (zh) * | 2019-12-06 | 2020-04-17 | 南京大学 | 一种针对二维图像中的多尺度多形态目标的自动检测方法 |
CN111401201A (zh) * | 2020-03-10 | 2020-07-10 | 南京信息工程大学 | 一种基于空间金字塔注意力驱动的航拍图像多尺度目标检测方法 |
CN111461110A (zh) * | 2020-03-02 | 2020-07-28 | 华南理工大学 | 一种基于多尺度图像和加权融合损失的小目标检测方法 |
-
2021
- 2021-05-13 CN CN202110524338.7A patent/CN113538331A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564025A (zh) * | 2018-04-10 | 2018-09-21 | 广东电网有限责任公司 | 一种基于可变形卷积神经网络的红外图像物体识别方法 |
CN111027547A (zh) * | 2019-12-06 | 2020-04-17 | 南京大学 | 一种针对二维图像中的多尺度多形态目标的自动检测方法 |
CN111461110A (zh) * | 2020-03-02 | 2020-07-28 | 华南理工大学 | 一种基于多尺度图像和加权融合损失的小目标检测方法 |
CN111401201A (zh) * | 2020-03-10 | 2020-07-10 | 南京信息工程大学 | 一种基于空间金字塔注意力驱动的航拍图像多尺度目标检测方法 |
Non-Patent Citations (5)
Title |
---|
JIFENG DAI ET AL.: "Deformable Convolutional Networks", 《ARXIV.ORG》 * |
MAO YULIN ET AL.: "Automatic image detection of multi-type surface defects on wind turbine blades based on cascade deep learning network", 《INTELLIGENT DATA ANALYSIS》 * |
RUIYANG HAO ET AL.: "A steel surface defect inspection approach towards smart industrial monitoring", 《JOURNAL OF INTELLIGENT MANUFACTURING》 * |
吴湘宁 等: "一种基于注意力机制的小目标检测深度学习模型", 《计算机工程与科学》 * |
高鑫 等: "基于可变形卷积神经网络的遥感影像密集区域车辆检测方法", 《电子与信息学报》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399628A (zh) * | 2021-12-21 | 2022-04-26 | 四川大学 | 复杂空间环境下的绝缘子高效检测系统 |
CN114399628B (zh) * | 2021-12-21 | 2024-03-08 | 四川大学 | 复杂空间环境下的绝缘子高效检测系统 |
CN114332456A (zh) * | 2022-03-16 | 2022-04-12 | 山东力聚机器人科技股份有限公司 | 大分辨率图像的目标检测和识别方法及装置 |
CN114913401A (zh) * | 2022-07-13 | 2022-08-16 | 江苏烨明光电有限公司 | Led灯芯柱与外壳的焊接设备及其焊接质量监控方法 |
CN117593301A (zh) * | 2024-01-18 | 2024-02-23 | 深圳市奥斯珂科技有限公司 | 基于机器视觉的内存条损伤快速检测方法及系统 |
CN117593301B (zh) * | 2024-01-18 | 2024-04-30 | 深圳市奥斯珂科技有限公司 | 基于机器视觉的内存条损伤快速检测方法及系统 |
CN117670881A (zh) * | 2024-01-31 | 2024-03-08 | 张家港大裕橡胶制品有限公司 | 基于目标分割的橡胶手套生产质量检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113538331A (zh) | 金属表面损伤目标检测识别方法、装置、设备及存储介质 | |
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN108918536B (zh) | 轮胎模具表面字符缺陷检测方法、装置、设备及存储介质 | |
CN113592845A (zh) | 一种电池涂布的缺陷检测方法及装置、存储介质 | |
CN109740665A (zh) | 基于专家知识约束的遮挡图像船只目标检测方法及系统 | |
Liu et al. | A rail surface defect detection method based on pyramid feature and lightweight convolutional neural network | |
CN110991257B (zh) | 基于特征融合与svm的极化sar溢油检测方法 | |
CN114581782B (zh) | 一种基于由粗到精检测策略的细微缺陷检测方法 | |
CN113643268A (zh) | 基于深度学习的工业制品缺陷质检方法、装置及存储介质 | |
CN115496746A (zh) | 基于图像和点云数据融合的板材表面缺陷检测方法和系统 | |
Yao et al. | AYOLOv3-Tiny: An improved convolutional neural network architecture for real-time defect detection of PAD light guide plates | |
Bhattacharya et al. | Multi-deformation aware attention learning for concrete structural defect classification | |
CN113012153A (zh) | 一种铝型材瑕疵检测方法 | |
CN112149665A (zh) | 一种基于深度学习的高性能多尺度目标检测方法 | |
CN112541884A (zh) | 缺陷检测方法及设备、计算机可读存储介质 | |
CN115937518A (zh) | 一种基于多源图像融合的路面病害识别方法及系统 | |
CN111815620B (zh) | 一种基于卷积特征和低秩表示的织物疵点检测方法 | |
CN117576079A (zh) | 一种工业产品表面异常检测方法、装置及系统 | |
CN107529647B (zh) | 一种基于多层无监督稀疏学习网络的云图云量计算方法 | |
CN116452809A (zh) | 一种基于语义分割的线条物体提取方法 | |
Wu et al. | Detection of defects on aluminum profile surface based on improved YOLO | |
CN116434230A (zh) | 一种复杂环境下的船舶水尺读数方法 | |
CN115330705A (zh) | 一种基于自适应加权模板ncc的蒙皮漆面缺陷检测方法 | |
CN110751189B (zh) | 一种基于感知对比度和特征选择的椭圆检测方法 | |
CN114387592A (zh) | 一种复杂背景下字符定位和识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20211022 |
|
WW01 | Invention patent application withdrawn after publication |