CN115063573A - 一种基于注意力机制的多尺度目标检测方法 - Google Patents
一种基于注意力机制的多尺度目标检测方法 Download PDFInfo
- Publication number
- CN115063573A CN115063573A CN202210671234.3A CN202210671234A CN115063573A CN 115063573 A CN115063573 A CN 115063573A CN 202210671234 A CN202210671234 A CN 202210671234A CN 115063573 A CN115063573 A CN 115063573A
- Authority
- CN
- China
- Prior art keywords
- layer
- feature
- convolution
- module
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开一种基于注意力机制的多尺度目标检测方法,包括步骤1,获取图像数据集;步骤2,对图像数据集进行预处理,并划分训练集、测试集、验证集;步骤3,建立基于注意力机制的多尺度目标检测的目标检测模型,所述目标检测模型包括CSPdarknet53主干网络、SPP池化模块、RP‑PANet特征融合模块、检测头部几个部分,其中,在CSPdarknet53主干网络中添加Coordinate Attention注意力机制,有效的提高对于特征图的提取;步骤4,训练目标检测模型;步骤5,基于训练好的目标检测模型进行目标检测,将待识别数据集图像输入到训练好的目标检测模型中,模型对图像进行分类、输出物体的名称以及识别的置信度,完成识别。与现有技术相比,本发明具有较好的识别效果。
Description
技术领域
本发明属于目标检测技术领域,特别是涉及一种基于注意力机制的多尺度目标检测方法。
背景技术
目标检测负责识别和定位数字图像中的单个或多个目标,是计算机视觉领域的重要研究任务之一,也是许多其他任务(例如目标跟踪、实例分割、图像描述生成等)的重要环节。在过去的二十年内,目标检测的发展历程分为两个时期:传统的目标检测时期以及基于深度学习的目标检测时期。传统的目标检测方法采用滑动窗口技术筛选目标区域,通过人工设计的算法提取图像特征,最后利用分类器判定目标类别。随着深度学习技术的不断发展,基于卷积神经网络的目标检测技术逐渐替代了传统的目标检测算法,在精确度和速度方面都取得了明显提升。
YOLOv3目标检测模型对于较小的目标、目标分布密集、复杂的背景结构的遥感影像的检测不能满足现有的需求。原始YOLOv4目标检测已经不能有效的以及快速的识别具体物体,不能满足高精确度以及快速的响应时间。现在需要更快速以及精确度更高的目标检测模型来满足物体检测需求。
发明内容
本发明针对现有技术的不足,提供一种基于注意力机制的多尺度目标检测方法,对原始YOLOv4网络进行修改,使用CoordAttention注意力机制,有利于主干网络获取图像特征的空间位置信息,对更感兴趣的对象进行特征提取,提高模型对空间特征提取能力。PyConv多尺度卷积能够提高图像特征融合能力,扩大卷积核的感受野,使模型能够处理多尺度的目标,因为卷积核和卷积深度的灵活性,能够灵活处理不同大小的目标物体,对于输入的特征图在不同尺度核上处理时,不会提升计算成本以及模型的参数量。使用Reslayer结构,解决深层网络容易产生梯度消失以及学习退化的问题,增强模型对特征图特征信息的提取能力。
为了达到上述目的,本发明提供的技术方案是,一种基于注意力机制的多尺度目标检测方法,包括如下步骤:
步骤1,获取图像数据集;
步骤2,对图像数据集进行预处理,并划分训练集、测试集、验证集;
步骤3,建立基于注意力机制的多尺度目标检测的目标检测模型,所述目标检测模型包括CSPdarknet53主干网络、SPP池化模块、RP-PANet特征融合模块、检测头部几个部分,其中,在CSPdarknet53主干网络中添加Coordinate Attention注意力机制,有效的提高对于特征图的提取;
步骤4,训练目标检测模型;
步骤5,基于训练好的目标检测模型进行目标检测,将待识别数据集图像输入到训练好的目标检测模型中,模型对图像进行分类、输出物体的名称以及识别的置信度,完成识别。
进一步的,在主干网络CSPdarknet53的第一层结构中引入Coordinate Attention注意力机制模块;CoordAttention注意力机制分为两个阶段:第一阶段为CoordAttention信息的嵌入,对输入的特征图,先经过一个残差结构,然后使用尺寸为(H,1)和(1,W)的池化核,分别在水平坐标和竖直坐标方向对每个通道进行编码,得到特征和 表示高度为h的第c个通道的输出特征,xc(h,i)表示在第c个通道上,高度为h,宽为i位置的特征层;表示宽度为w的第c个通道的输出特征,xc(j,w)表示在第c个通道上,宽为w,高为j位置的特征层,W和H分别表示输入特征图的宽和高;上述获取的特征,分别沿着水平和竖直两个空间方向进行特征的聚合,得到一对具有方向感知的注意力图,使得注意力模块能够捕捉到图像特征的空间位置信息和精确的位置信息,使网络更准确的定位感兴趣的对象;
第二个阶段为Coordinate Attention生成,通过第一个阶段获取的信息,将xc(h,i)和xc(j,w)进行concatenate操作得到特征图xc(i,j),使用一个共享的1×1卷积进行F1变换操作:f=δ(F1([Zh,Zw])),式中,[.,.]为沿着空间维数的concatenate操作,δ为非线性激活函数,f是空间信息在水平和垂直方向上进行编码的中间特征映射,Zh表示在高这个维度上的输出特征,Zw表示在宽这个维度上的输出特征;然后沿着空间维数将f分解为2个单独的张量fh∈RC/r×H和fw∈RC/r×W,其中fh表示垂直方向空间信息的中间特征图,fw表示水平方向空间信息的中间特征图,r表示缩减因子;gw=σ(Fw(fw)),gh=σ(Fh(fh)),式中,gw表示水平方向的权重矩阵,gh表示垂直方向的权重矩阵,Fw表示在水平方向使用卷积变换函数F,Fh表示在垂直方向使用进行卷积变函数F,σ是sigmoid激活函数,对于分解的两个空间方向的张量,通过Fh和Fw这2个1×1的卷积操作将fh和fw的通道数变为一致,通过r的大小,适当调节f的通道数,达到降低模型复杂性和计算开销的目的,最后分别给gw和gh,作为注意力的权重;最终CA模块的输出特征为:yc(i,j)表示最终输出的特征图,表示在垂直方向第c个通道的注意力权重,表示在水平方向第c个通道的注意力权重。
进一步的,在RP-PANet特征融合模块中引入pyconv卷积模块,pyconv卷积模块的处理过程如下;
设置FMi为输入的特征图,PyConv的层次为{level1,level2,…,leveln},提供的多尺度卷积核为kn是指卷积核的大小;每个卷积核对应的深度为不同层次的卷积核输出的特征图为{FMo1,FMo2,…,FMon},输出的特征图的宽度和高度是不变的,PyConv的参数量为:
PyConv的计算量为:
最后各个层次特征图组成最后的输出特征图表示为:FMo=FMo1+FMo1+...+FMon,其中W表示输入特征图的的宽,H表示输入特征图的的高。
进一步的,在RP-PANet特征融合模块中引入Reslayer结构,对于输入的特征图,经过Reslayer结构后会分成左右两个分支进行卷积运算,右边的分支,只进行卷积操作,左边的分支,首先进行卷积操作,然后进入n个残差网络块,对特征图的特征进行深度提取,不会造成梯度的发散,n层残差网络块处理后,与右边的分支的特征层进行concat操作,扩大特征图通道,提高特征图的特征信息,最后进行卷积操作进一步对图像特征进行提取;其中每个卷积操作之后还连接了BN层和SILU层;
Xi表示第i层残差网络块的输出,残差函数记为F(),LeakyReLU函数记为L(),Wi表示i层的随机参数,每层残差网络块的输入输出都为正,可以得出:
Xi+1层残差网络块输出特征为:
Xi+1=L(Xi+F(Xi,Wi))=Xi+F(Xi,Wi)
Xi+2层残差网络块输出特征为:
Xi+2=L(Xi+1+F(Xi+1,Wi+1))=Xi+1+F(Xi+1,Wi+1)=Xi+F(Xi,Wi)+F(Xi+1,Wi+1)
Xn层残差网络块输出特征为:
残差网络块的梯度更新值可以表示为:
由于每层残差网络块的输出结果都为正,所以Di>0,在这种情况下,随着网络的加深,不会造成梯度消失。
进一步的,步骤3中目标检测模型的具体处理过程如下;
数据集中的每幅图像经过改进后的CSPdarknet53主干网络进行特征提取后,输出第一输出特征层,第二输出特征层,第三输出特征层;
所述第一输出特征层定义为:X1;
所述第二输出特征层定义为:X2;
所述第三输出特征层定义为:X3;
所述第三输出特征层先经过3次卷积,然后经过SPP模块进行池化操作,再经过3次卷积,得到池化后第三输出特征层;
所述池化后第三输出特征层定义为:X3’;
所述Py-PANet特征融合模块包括:
第一Reslayer模块、第二Reslayer模块、第三Reslayer模块、第四Reslayer模块、第一上采样层、第二上采样层、第一下采样层、第二下采样层、第一卷积连接层、第二卷积连接层、第三卷积连接层、第四卷积连接层;
所述第一上采样层定义为:Up1;
所述第二上采样层定义为:Up2;
所述第一下采样层定义为:Down1;
所述第二下采样层定义为:Down2;
所述第一卷积连接层定义为:Concat1;
所述第二卷积连接层定义为:Concat2;
所述第三卷积连接层定义为:Concat3;
所述第四卷积连接层定义为:Concat4;
所述第一Reslayer模块定义为:Reslayer1;
所述第二Reslayer模块定义为:Reslayer2;
所述第三Reslayer模块定义为:Reslayer3;
所述第四Reslayer模块定义为:Reslayer4;
X1、X2和X3’输入RP-PANet特征融合模块,X3’经过Up1,进行上采样操作得到改变通道数后的特征层,再进行多尺度卷积操作对特征层进行特征融合,再与X2一起进入Concat1,Concat1操作对X3’和X2特征层进行通道数整合得到特征层X23’,经过Reslayer1,对整合的特征层X23’进行更深层次的特征融合,特征融合后的X23’再经过Up2,进行上采样操作得到改变通道数后的特征层,再进行多尺度卷积操作对特征层进行特征融合,再与X1一起进入Concat2,Concat2操作对特征融合后的X23’和X1特征层进行通道数整合,经过Reslayer2进行深度特征融合后,得到第一最终输出特征层,定义为Head1,X1经过Down1,进行下采样操作得到改变通道数后的特征层,再与特征融合后的X23’一起进入Concat3,经过Reslayer3对特征层进行特征融合,得到第二最终输出特征层,定义为Head2,X2经过Down2,进行下采样操作得到改变通道数后的特征层,与X3’一起进入Concat4,经过Reslayer3对特征层进行特征融合,得到第三最终输出特征层,定义为Head3;
最后将Head1,Head2,Head3传入检测头部。
进一步的,步骤4中训练目标检测模型的实现过程如下;
步骤4.1,根据CSPdarnet53模块的初始训练权重,对图像数据集进行训练,得到预训练权重;
步骤4.2,基于步骤4.1的预训练权重,再根据添加的Coordinate Attention注意力机制,进行训练,进一步得到添加Coordinate Attention注意力机制后的训练权重;
步骤4.3,基于步骤4.2的训练权重,在RP-PANet中添加多尺度卷积操作pyconv进行训练,第二训练权重;
步骤4.4,基于步骤4.3的第二训练权重,在RP-PANet中添加Reslayer进行训练,得到完整的训练模型。
与现有技术相比,本发明的优点和有益效果:本发明利用的CoordAttention注意力机制,对目标的空间位置和通道间的关系进行捕捉,更加准确找到感兴趣的对象,增强网络对于图像特征的提取能力;PyConv模块,扩大卷积核的感受野,通过不同大小的卷积核,使模型能够处理多尺度的目标,提高模型的特征提取能力;Reslayer模块,有效防止模型在深层网络中梯度发散,造成模型难以收敛的问题,进一步提高模型在深层网络中的特征提取能力。
附图说明
图1为本发明整体流程图。
图2为本发明中Coordinate Attention注意力机制模型图。
图3为本发明中pyconv卷积结构图。
图4为本发明中组卷积结构图。
图5为本发明Reslayer结构图
图6为本发明中整体模型结构图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
如图1所示,本发明实施例提供的一种基于注意力机制的多尺度目标检测方法,其具体步骤如下:
步骤1:图像的获取:基于使用的数据集,提取对应的图片,将提取的图片按照Pascal VOC数据集格式将图片命名,同时创建名为Annotations、ImageSets、JPEGimages的三个文件夹;
步骤2:图像预处理:
步骤2.1图像标记:在步骤1获取的图片,运用图像标注工具LabelImg对图像中的物体进行标注,标注出物体的位置以及名称。
步骤2.2划分数据集:将标记好数据集按照合适的百分比划分为训练集、测试集、验证集。
步骤3:建立基于注意力机制的多尺度目标检测目标检测模型
步骤3.1:在主干网络CSPdarknet53的第一层结构中引入Coordinate Attention注意力机制模块,如图2所示,CoordAttention注意力机制分为两个阶段:第一阶段为CoordAttention信息的嵌入,对输入的特征图,先经过一个残差结构,然后使用尺寸为(H,1)和(1,W)的池化核,分别在水平坐标和竖直坐标方向对每个通道进行编码,即在宽和高两个维度(水平方向X和垂直方向Y)上进行平均池化,得到特征和 表示高度为h的第c个通道的输出特征,xc(h,i)表示在第c个通道上,高度为h,宽为i位置的特征层;表示宽度为w的第c个通道的输出特征,xc(j,w)表示在第c个通道上,宽为w,高为j位置的特征层,W和H分别表示输入特征图的宽和高。上述获取的特征,分别沿着水平和竖直两个空间方向进行特征的聚合,得到一对具有方向感知的注意力图,使得注意力模块能够捕捉到图像特征的空间位置信息和精确的位置信息,使网络更准确的定位感兴趣的对象。第二个阶段为Coordinate Attention生成,通过第一个阶段获取的信息,将xc(h,i)和xc(j,w)进行concatenate操作得到特征图xc(i,j),使用一个共享的1×1卷积进行F1变换操作:f=δ(F1([Zh,Zw])),式中,[.,.]为沿着空间维数的concatenate操作,δ为非线性激活函数,f是空间信息在水平和垂直方向上进行编码的中间特征映射,Zh表示在高这个维度上的输出特征,Zw表示在宽这个维度上的输出特征。然后沿着空间维数将f分解为2个单独的张量fh∈RC/r×H和fw∈RC/r×W,其中fh表示垂直方向空间信息的中间特征图,fw表示水平方向空间信息的中间特征图,r表示缩减因子;gw=σ(Fw(fw)),gh=σ(Fh(fh)),式中,gw表示水平方向的权重矩阵,gh表示垂直方向的权重矩阵,Fw表示在水平方向使用卷积变换函数F,Fh表示在垂直方向使用进行卷积变函数F,σ是sigmoid激活函数,对于分解的两个空间方向的张量,通过Fh和Fw这2个1×1的卷积操作将fh和fw的通道数变为一致,通过r的大小,适当调节f的通道数,达到降低模型复杂性和计算开销的目的,最后分别给gw和gh,作为注意力的权重。最终CA模块的输出特征为:yc(i,j)表示最终输出的特征图,表示在垂直方向第c个通道的注意力权重。表示在水平方向第c个通道的注意力权重。CoordAttention注意力机制,更有利于主干网络获取图像特征的空间位置信息,对更感兴趣的对象进行特征提取。图2中,Residual表示残差结构,Re-weight表示对模型设置新的权重。
步骤3.2:在RP-PANet特征融合模块中引入pyconv卷积模块(即多尺度卷积操作),如图3所示,PyConv有n个不同类型的卷积核构成,从level1到leveln卷积核的大小逐渐降低,但是卷积核的深度逐渐变大,核深度的变化与核尺度的变化是互斥的。因为卷积核和卷积深度的灵活性,使PyConv能够灵活处理不同大小的目标物体,对于输入的特征图在不同尺度核上处理时,不会提升计算成本以及模型的参数量。
如图3所示,FMi为输入的特征图,PyConv的层次为{level1,level2,…,leveln},提供的多尺度卷积核为kn是指卷积核的大小;每个卷积核对应的深度为不同层次的卷积核输出的特征图为{FMo1,FMo2,…,FMon},输出的特征图的宽度和高度是不变的。PyConv的参数量为:
PyConv的计算量为:
最后各个层次特征图组成最后的输出特征图表示为:FMo=FMo1+FMo1+...+FMon,其中W表示输入特征图的的宽,H表示输入特征图的的高。
其中,FMi的分母指的是在图4中组卷积所示被分割的组数。无论每个层次设计的卷积核大小和卷积核深度是多少,PyConv的参数量和计算量与常规卷积一样,不会增加额外的计算量和参数量。
如图4所示,对于输入的特征图,当组数为1时,卷积核的深度等于特征图的数量,每个输入特征图都连接到每个输出特征图,当组数为2时,输入特征图被分为2组,进行独立的分组卷积,卷积核的深度减少两倍,当组数为3时,输入特征图被分为3组,卷积核的深度减少3倍,随着组数的增加,特征图的连接性和卷积深度都会降低。组数不同时,参数量和计算量减少的程度不同。
步骤3.3:将Reslayer结构引入RP-PANet特征融合模块中,如图5所示,对于输入的特征图,会分成左右两个分支进行卷积运算,右边的分支,只进行卷积操作,左边的分支,首先进行卷积操作,然后进入n个残差网络块,对特征图的特征进行深度提取,不会造成梯度的发散,n层残差网络块处理后,与右边的分支的特征层进行concat操作,扩大特征图通道,提高特征图的特征信息,最后进行卷积操作进一步对图像特征进行提取。
Reslayer解决深层网络容易产生梯度消失以及学习退化的问题,证明如下:
Xi表示第i层残差网络块的输出,残差函数记为F(),LeakyReLU函数记为L(),Wi表示i层的随机参数,每层残差网络块的输入输出都为正,可以得出:
Xi+1层残差网络块输出特征为:
Xi+1=L(Xi+F(Xi,Wi))=Xi+F(Xi,Wi)
Xi+2层残差网络块输出特征为:
Xi+2=L(Xi+1+F(Xi+1,Wi+1))=Xi+1+F(Xi+1,Wi+1)=Xi+F(Xi,Wi)+F(Xi+1,Wi+1)
Xn层残差网络块输出特征为:
残差网络块的梯度更新值可以表示为:
由于每层残差网络块的输出结果都为正,所以Di>0,在这种情况下,随着网络的加深,不会造成梯度消失。
结合PyConv和Reslayer模块,设计RP-PANet结构,提高模型特征融合模块对于多尺度目标的特征融合能力,防止模型在深层网络中梯度发散,造成模型难以收敛的问题。
步骤3.4:模型的整体结构如图6所示,首先图片会经过CSPdarknet53主干网络进行特征图的特征提取,后面经过3次卷积,到达SPP结构,通过不同尺度的池化进一步的进行特征的提取,再经过3次卷积,进入RP-PANet结构,此时有两条路径,一条路径是上采样与CSPdarknet53的输出26×26×512的特征图进行Concat操作后进行五次卷积操作,另一条是前进与上面下采样的特征图进行Concat操作与五次卷积后输出到头部。CSPdarknet53的输出26×26×512的特征图与SPP输出进过上采样后的特征图进行特征融合后也有两条路径,一条是继续上采样与CSPdarknet53的输出52×52×256的特征图进行Concat操作以及五次卷积操作,另一条路径是继续前向传播,与第一条路径的特征图经过下采样后的特征图进行特征融合前向传播将特征图输出到头部以及继续下采样与SPP结构输出的特征图进行Concat操作以及五次卷积后将特征图输出到头部。CSPdarknet53的输出52×52×256的特征图与上采样后的CSPdarknet53的输出26×26×512的特征图进行Concat操作以及五次卷积操作后也有两条路径,一条路径是下采样与26×26×512的特征图前向传播的特征图进行特征融合,另一条路径是直接将特征图输出到头部。
步骤3.4所述一种基于注意力机制的多尺度目标检测方法包括:
CSPdarknet53主干网络、SPP池化模块、RP-PANet特征融合模块、检测头部;
数据集中每幅图像经过改进后的CSPdarknet53主干网络进行特征提取后,输出第一输出特征层,第二输出特征层,第三输出特征层;
所述第一输出特征层定义为:X1;
所述第二输出特征层定义为:X2;
所述第三输出特征层定义为:X3;
所述第三输出特征层先经过3次卷积,然后经过SPP模块进行池化操作,再经过3次卷积,得到池化后第三输出特征层;
所述池化后第三输出特征层定义为:X3’;
所述Py-PANet特征融合模块包括:
第一Reslayer模块、第二Reslayer模块、第三Reslayer模块、第四Reslayer模块、第一上采样层、第二上采样层、第一下采样层、第二下采样层、第一卷积连接层、第二卷积连接层、第三卷积连接层、第四卷积连接层;
所述第一上采样层定义为:Up1;
所述第二上采样层定义为:Up2;
所述第一下采样层定义为:Down1;
所述第二下采样层定义为:Down2;
所述第一卷积连接层定义为:Concat1;
所述第二卷积连接层定义为:Concat2;
所述第三卷积连接层定义为:Concat3;
所述第四卷积连接层定义为:Concat4;
所述第一Reslayer模块定义为:Reslayer1;
所述第二Reslayer模块定义为:Reslayer2;
所述第三Reslayer模块定义为:Reslayer3;
所述第四Reslayer模块定义为:Reslayer4;
X1、X2和X3’输入RP-PANet特征融合模块,X3’经过Up1,进行上采样操作得到改变通道数后的特征层,再进行多尺度卷积操作对特征层进行特征融合,再与X2一起进入Concat1,Concat1操作对X3’和X2特征层进行通道数整合得到特征层X23’,经过Reslayer1,对整合的特征层X23’进行更深层次的特征融合,特征融合后的X23’经过Up2,进行上采样操作得到改变通道数后的特征层,再进行多尺度卷积操作对特征层进行特征融合,再与X1一起进入Concat2,Concat2操作对特征融合后的X23’和X1特征层进行通道数整合,经过Reslayer2进行深度特征融合后,得到第一最终输出特征层,定义为Head1,X1经过Down1,进行下采样操作得到改变通道数后的特征层,再与特征融合后的X23’一起进入Concat3,经过Reslayer3对特征层进行特征融合,得到第二最终输出特征层,定义为Head2,X2经过Down2,进行下采样操作得到改变通道数后的特征层,与X3’一起进入Concat4,经过Reslayer3对特征层进行特征融合,得到第三最终输出特征层,定义为Head3;
最后将Head1,Head2,Head3传入检测头部。
步骤4:训练目标检测模型。
步骤4.1:根据CSPdarnet53模块的初始训练权重,对图像数据集进行训练,得到预训练权重。
步骤4.2:基于步骤4.1的预训练权重,再根据添加的Coordinate Attention注意力机制,进行训练,进一步得到添加Coordinate Attention注意力机制后的训练权重。
步骤4.3:基于步骤4.2的训练权重,在RP-PANet中添加pyconv进行训练,第二训练权重。
步骤4.4:基于步骤4.3的第二训练权重,在RP-PANet中添加Reslayer进行训练,得到完整的训练模型。
步骤5:基于建立的目标检测模型进行目标检测:将待识别数据集图像输入到训练好的目标检测模型中,模型对图像进行分类、输出物体的名称以及识别的置信度,完成识别。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (6)
1.一种基于注意力机制的多尺度目标检测方法,其特征在于,包括以下步骤:
步骤1,获取图像数据集;
步骤2,对图像数据集进行预处理,并划分训练集、测试集、验证集;
步骤3,建立基于注意力机制的多尺度目标检测的目标检测模型,所述目标检测模型包括CSPdarknet53主干网络、SPP池化模块、RP-PANet特征融合模块、检测头部几个部分,其中,在CSPdarknet53主干网络中添加Coordinate Attention注意力机制,有效的提高对于特征图的提取;
步骤4,训练目标检测模型;
步骤5,基于训练好的目标检测模型进行目标检测,将待识别数据集图像输入到训练好的目标检测模型中,模型对图像进行分类、输出物体的名称以及识别的置信度,完成识别。
2.如权利要求1所述的一种基于注意力机制的多尺度目标检测方法,其特征在于:在主干网络CSPdarknet53的第一层结构中引入Coordinate Attention注意力机制模块;CoordAttention注意力机制分为两个阶段:第一阶段为CoordAttention信息的嵌入,对输入的特征图,先经过一个残差结构,然后使用尺寸为(H,1)和(1,W)的池化核,分别在水平坐标和竖直坐标方向对每个通道进行编码,得到特征和 表示高度为h的第c个通道的输出特征,xc(h,i)表示在第c个通道上,高度为h,宽为i位置的特征层;表示宽度为w的第c个通道的输出特征,xc(j,w)表示在第c个通道上,宽为w,高为j位置的特征层,W和H分别表示输入特征图的宽和高;上述获取的特征,分别沿着水平和竖直两个空间方向进行特征的聚合,得到一对具有方向感知的注意力图,使得注意力模块能够捕捉到图像特征的空间位置信息和精确的位置信息,使网络更准确的定位感兴趣的对象;
第二个阶段为Coordinate Attention生成,通过第一个阶段获取的信息,将xc(h,i)和xc(j,w)进行concatenate操作得到特征图xc(i,j),使用一个共享的1×1卷积进行F1变换操作:f=δ(F1([Zh,Zw])),式中,[.,.]为沿着空间维数的concatenate操作,δ为非线性激活函数,f是空间信息在水平和垂直方向上进行编码的中间特征映射,Zh表示在高这个维度上的输出特征,Zw表示在宽这个维度上的输出特征;然后沿着空间维数将f分解为2个单独的张量fh∈RC/r×H和fw∈RC/r×W,其中fh表示垂直方向空间信息的中间特征图,fw表示水平方向空间信息的中间特征图,r表示缩减因子;gw=σ(Fw(fw)),gh=σ(Fh(fh)),式中,gw表示水平方向的权重矩阵,gh表示垂直方向的权重矩阵,Fw表示在水平方向使用卷积变换函数F,Fh表示在垂直方向使用进行卷积变函数F,σ是sigmoid激活函数,对于分解的两个空间方向的张量,通过Fh和Fw这2个1×1的卷积操作将fh和fw的通道数变为一致,通过r的大小,适当调节f的通道数,达到降低模型复杂性和计算开销的目的,最后分别给gw和gh,作为注意力的权重;最终CA模块的输出特征为:yc(i,j)表示最终输出的特征图,表示在垂直方向第c个通道的注意力权重,表示在水平方向第c个通道的注意力权重。
3.如权利要求1所述的一种基于注意力机制的多尺度目标检测方法,其特征在于:在RP-PANet特征融合模块中引入pyconv卷积模块,即多尺度卷积操作,pyconv卷积模块的处理过程如下;
设置FMi为输入的特征图,PyConv的层次为{level1,level2,…,leveln},提供的多尺度卷积核为kn是指卷积核的大小;每个卷积核对应的深度为不同层次的卷积核输出的特征图为{FMo1,FMo2,…,FMon},输出的特征图的宽度和高度是不变的,PyConv的参数量为:
PyConv的计算量为:
最后各个层次特征图组成最后的输出特征图表示为:FMo=FMo1+FMo1+...+FMon,其中W表示输入特征图的的宽,H表示输入特征图的的高。
4.如权利要求1所述的一种基于注意力机制的多尺度目标检测方法,其特征在于:在RP-PANet特征融合模块中引入Reslayer结构,对于输入的特征图,经过Reslayer结构后会分成左右两个分支进行卷积运算,右边的分支,只进行卷积操作,左边的分支,首先进行卷积操作,然后进入n个残差网络块,对特征图的特征进行深度提取,不会造成梯度的发散,n层残差网络块处理后,与右边的分支的特征层进行concat操作,扩大特征图通道,提高特征图的特征信息,最后进行卷积操作进一步对图像特征进行提取;其中每个卷积操作之后还连接了BN层和SILU层;
Xi表示第i层残差网络块的输出,残差函数记为F(),LeakyReLU函数记为L(),Wi表示i层的随机参数,每层残差网络块的输入输出都为正,可以得出:
Xi+1层残差网络块输出特征为:
Xi+1=L(Xi+F(Xi,Wi))=Xi+F(Xi,Wi)
Xi+2层残差网络块输出特征为:
Xi+2=L(Xi+1+F(Xi+1,Wi+1))=Xi+1+F(Xi+1,Wi+1)=Xi+F(Xi,Wi)+F(Xi+1,Wi+1)
Xn层残差网络块输出特征为:
残差网络块的梯度更新值可以表示为:
由于每层残差网络块的输出结果都为正,所以Di>0,在这种情况下,随着网络的加深,不会造成梯度消失。
5.如权利要求1所述的一种基于注意力机制的多尺度目标检测方法,其特征在于:步骤3中目标检测模型的具体处理过程如下;
数据集中的每幅图像经过改进后的CSPdarknet53主干网络进行特征提取后,输出第一输出特征层,第二输出特征层,第三输出特征层;
所述第一输出特征层定义为:X1;
所述第二输出特征层定义为:X2;
所述第三输出特征层定义为:X3;
所述第三输出特征层先经过3次卷积,然后经过SPP模块进行池化操作,再经过3次卷积,得到池化后第三输出特征层;
所述池化后第三输出特征层定义为:X3’;
所述Py-PANet特征融合模块包括:
第一Reslayer模块、第二Reslayer模块、第三Reslayer模块、第四Reslayer模块、第一上采样层、第二上采样层、第一下采样层、第二下采样层、第一卷积连接层、第二卷积连接层、第三卷积连接层、第四卷积连接层;
所述第一上采样层定义为:Up1;
所述第二上采样层定义为:Up2;
所述第一下采样层定义为:Down1;
所述第二下采样层定义为:Down2;
所述第一卷积连接层定义为:Concat1;
所述第二卷积连接层定义为:Concat2;
所述第三卷积连接层定义为:Concat3;
所述第四卷积连接层定义为:Concat4;
所述第一Reslayer模块定义为:Reslayer1;
所述第二Reslayer模块定义为:Reslayer2;
所述第三Reslayer模块定义为:Reslayer3;
所述第四Reslayer模块定义为:Reslayer4;
X1、X2和X3’输入RP-PANet特征融合模块,X3’经过Up1,进行上采样操作得到改变通道数后的特征层,再进行多尺度卷积操作对特征层进行特征融合,再与X2一起进入Concat1,Concat1操作对X3’和X2特征层进行通道数整合得到特征层X23’,经过Reslayer1,对整合的特征层X23’进行更深层次的特征融合,特征融合后的X23’再经过Up2,进行上采样操作得到改变通道数后的特征层,再进行多尺度卷积操作对特征层进行特征融合,再与X1一起进入Concat2,Concat2操作对特征融合后的X23’和X1特征层进行通道数整合,经过Reslayer2进行深度特征融合后,得到第一最终输出特征层,定义为Head1,X1经过Down1,进行下采样操作得到改变通道数后的特征层,再与特征融合后的X23’一起进入Concat3,经过Reslayer3对特征层进行特征融合,得到第二最终输出特征层,定义为Head2,X2经过Down2,进行下采样操作得到改变通道数后的特征层,与X3’一起进入Concat4,经过Reslayer3对特征层进行特征融合,得到第三最终输出特征层,定义为Head3;
最后将Head1,Head2,Head3传入检测头部。
6.如权利要求5所述的一种基于注意力机制的多尺度目标检测方法,其特征在于:步骤4中训练目标检测模型的实现过程如下;
步骤4.1,根据CSPdarnet53模块的初始训练权重,对图像数据集进行训练,得到预训练权重;
步骤4.2,基于步骤4.1的预训练权重,再根据添加的Coordinate Attention注意力机制,进行训练,进一步得到添加Coordinate Attention注意力机制后的训练权重;
步骤4.3,基于步骤4.2的训练权重,在RP-PANet中添加多尺度卷积操作pyconv进行训练,第二训练权重;
步骤4.4,基于步骤4.3的第二训练权重,在RP-PANet中添加Reslayer进行训练,得到完整的训练模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210671234.3A CN115063573A (zh) | 2022-06-14 | 2022-06-14 | 一种基于注意力机制的多尺度目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210671234.3A CN115063573A (zh) | 2022-06-14 | 2022-06-14 | 一种基于注意力机制的多尺度目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115063573A true CN115063573A (zh) | 2022-09-16 |
Family
ID=83200639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210671234.3A Pending CN115063573A (zh) | 2022-06-14 | 2022-06-14 | 一种基于注意力机制的多尺度目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115063573A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115272814A (zh) * | 2022-09-28 | 2022-11-01 | 南昌工学院 | 一种远距离空间自适应多尺度的小目标检测方法 |
CN115565077A (zh) * | 2022-09-29 | 2023-01-03 | 哈尔滨天枢问道技术有限公司 | 一种基于空间特征整合的遥感图像小目标检测算法 |
CN116091781A (zh) * | 2022-11-18 | 2023-05-09 | 中国人民解放军军事科学院系统工程研究院 | 一种用于图像识别的数据处理方法及装置 |
CN116385814A (zh) * | 2023-03-07 | 2023-07-04 | 广州市妇女儿童医疗中心 | 一种检测目标的超声筛查方法、系统、装置及介质 |
CN116416440A (zh) * | 2023-01-13 | 2023-07-11 | 北京百度网讯科技有限公司 | 目标识别方法、模型训练方法、装置、介质和电子设备 |
CN116469034A (zh) * | 2023-04-17 | 2023-07-21 | 中国农业大学 | 一种基于改进的YOLOv7模型的猪只监测计数方法 |
CN116503398A (zh) * | 2023-06-26 | 2023-07-28 | 广东电网有限责任公司湛江供电局 | 绝缘子污闪检测方法、装置、电子设备及存储介质 |
CN117237614A (zh) * | 2023-11-10 | 2023-12-15 | 江西啄木蜂科技有限公司 | 基于深度学习的湖面漂浮物小目标检测方法 |
-
2022
- 2022-06-14 CN CN202210671234.3A patent/CN115063573A/zh active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115272814A (zh) * | 2022-09-28 | 2022-11-01 | 南昌工学院 | 一种远距离空间自适应多尺度的小目标检测方法 |
CN115272814B (zh) * | 2022-09-28 | 2022-12-27 | 南昌工学院 | 一种远距离空间自适应多尺度的小目标检测方法 |
CN115565077A (zh) * | 2022-09-29 | 2023-01-03 | 哈尔滨天枢问道技术有限公司 | 一种基于空间特征整合的遥感图像小目标检测算法 |
CN116091781A (zh) * | 2022-11-18 | 2023-05-09 | 中国人民解放军军事科学院系统工程研究院 | 一种用于图像识别的数据处理方法及装置 |
CN116416440B (zh) * | 2023-01-13 | 2024-02-06 | 北京百度网讯科技有限公司 | 目标识别方法、模型训练方法、装置、介质和电子设备 |
CN116416440A (zh) * | 2023-01-13 | 2023-07-11 | 北京百度网讯科技有限公司 | 目标识别方法、模型训练方法、装置、介质和电子设备 |
CN116385814B (zh) * | 2023-03-07 | 2023-12-05 | 广州市妇女儿童医疗中心 | 一种检测目标的超声筛查方法、系统、装置及介质 |
CN116385814A (zh) * | 2023-03-07 | 2023-07-04 | 广州市妇女儿童医疗中心 | 一种检测目标的超声筛查方法、系统、装置及介质 |
CN116469034A (zh) * | 2023-04-17 | 2023-07-21 | 中国农业大学 | 一种基于改进的YOLOv7模型的猪只监测计数方法 |
CN116503398A (zh) * | 2023-06-26 | 2023-07-28 | 广东电网有限责任公司湛江供电局 | 绝缘子污闪检测方法、装置、电子设备及存储介质 |
CN116503398B (zh) * | 2023-06-26 | 2023-09-26 | 广东电网有限责任公司湛江供电局 | 绝缘子污闪检测方法、装置、电子设备及存储介质 |
CN117237614A (zh) * | 2023-11-10 | 2023-12-15 | 江西啄木蜂科技有限公司 | 基于深度学习的湖面漂浮物小目标检测方法 |
CN117237614B (zh) * | 2023-11-10 | 2024-02-06 | 江西啄木蜂科技有限公司 | 基于深度学习的湖面漂浮物小目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115063573A (zh) | 一种基于注意力机制的多尺度目标检测方法 | |
CN111339903B (zh) | 一种多人人体姿态估计方法 | |
CN110287849B (zh) | 一种适用于树莓派的轻量化深度网络图像目标检测方法 | |
CN111080629B (zh) | 一种图像拼接篡改的检测方法 | |
CN107967695B (zh) | 一种基于深度光流和形态学方法的运动目标检测方法 | |
CN108460403A (zh) | 一种图像中多尺度特征融合的目标检测方法与系统 | |
CN111612807A (zh) | 一种基于尺度和边缘信息的小目标图像分割方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
CN110909615B (zh) | 基于多尺度输入混合感知神经网络的目标检测方法 | |
CN112818969A (zh) | 一种基于知识蒸馏的人脸姿态估计方法及系统 | |
CN112257741B (zh) | 一种基于复数神经网络的生成性对抗虚假图片的检测方法 | |
CN114820655B (zh) | 可靠区域作为注意力机制监督的弱监督建筑物分割方法 | |
CN113743269B (zh) | 一种轻量化识别视频人体姿态的方法 | |
CN103646256A (zh) | 一种基于图像特征稀疏重构的图像分类方法 | |
CN111507184B (zh) | 基于并联空洞卷积和身体结构约束的人体姿态检测方法 | |
CN113139489A (zh) | 基于背景提取和多尺度融合网络的人群计数方法及系统 | |
CN112580480A (zh) | 一种高光谱遥感影像分类方法及装置 | |
CN113378812A (zh) | 一种基于Mask R-CNN和CRNN的数字表盘识别方法 | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN111401209B (zh) | 一种基于深度学习的动作识别方法 | |
CN113516693A (zh) | 一种快速通用的图像配准方法 | |
CN113344110B (zh) | 一种基于超分辨率重建的模糊图像分类方法 | |
CN114926691A (zh) | 基于卷积神经网络的虫害智能化识别方法及系统 | |
CN113159158A (zh) | 一种基于生成对抗网络的车牌矫正与重构方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |