CN111242071A - 一种基于锚框的注意力遥感图像目标检测方法 - Google Patents
一种基于锚框的注意力遥感图像目标检测方法 Download PDFInfo
- Publication number
- CN111242071A CN111242071A CN202010057803.6A CN202010057803A CN111242071A CN 111242071 A CN111242071 A CN 111242071A CN 202010057803 A CN202010057803 A CN 202010057803A CN 111242071 A CN111242071 A CN 111242071A
- Authority
- CN
- China
- Prior art keywords
- feature map
- feature
- prediction
- target detection
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
一种基于锚框的注意力遥感图像目标检测方法,包括如下步骤:S100:将跳跃连接特征金字塔模块和基于锚框的位置注意力模块嵌入到目标检测模型中,建立一个端到端的单阶段遥感目标检测模型;S200:采用所述端到端的单阶段遥感目标检测模型对遥感目标进行检测;S300:输出遥感目标的检测结果。该方法能够提高目标检测模型的精度和速度。
Description
技术领域
本公开属于遥感图像处理技术领域,特别涉及一种基于锚框的注意力遥感图像目标检测方法。
背景技术
遥感目标检测是遥感图像领域非常重要的任务之一,随着卷积神经网络的兴起,遥感目标检测也取得了巨大的发展。然而在目标检测任务中,仍存在一些挑战难以解决,比如不同尺寸目标的检测问题和遮挡目标的检测问题。由于遥感图像中目标尺寸差异大,目标对象分布不均匀,树丛灌木遮挡等特点往往会进一步放大目标检测任务中的固有问题。
对于不同尺寸目标的检测,可以采用图像金字塔解决,但是计算量大运行速度慢,无法实现实时目标检测;也可以在单层特征图上使用锚框机制解决,但是单层特征图信息有限,效果提升有限。因此使用较多的策略是特征金字塔结构,在多层不同分辨率特征图上使用锚框机制检测多尺度目标。特征金字塔结构之所以取得出色的效果,是因为在特征金字塔网络中,深层特征的语义信息能沿着自顶向下路径逐层传递至浅层特征,且浅层特征的细节信息能沿着自底向上路径逐层传递至深层特征,使浅层特征图和深层特征图都既有丰富的细节定位信息又有足够的语义信息,从而提升不同尺寸目标的检测性能。然而在特征金字塔结构中,使用逐层传递特征信息的方式,随着传递层数的增加,特征信息会逐渐丢失,减弱了语义信息和细节信息的传递效果。
目标检测中的遮挡问题主要是由于遮挡造成被遮挡目标的边界框标签内的目标区域是少量或者被弱化的,从而对检测被遮挡的目标造成很大的困难。在目标检测领域处理遮挡问题可以在后处理阶段入手,如Soft-NMS(Soft Non-Maximum Suppression),主要用来解决同类目标的遮挡。也可以强化边界框内区域的特征,以达到强化被遮挡的目标区域特征的目的,如FAN(Face Attention Network)模型。在FAN模型的注意力模块中,将边界框内的像素标记为目标像素,边界框之外的像素标记为背景像素,形成弱监督标签,损失函数按照图像分割处理,构成弱监督注意力模块。注意力模块训练学习后,可以对预测特征图施加位置注意力信息,被注意力模块识别为边界框内的目标像素,增强其特征,识别为边界框外的背景像素,弱化其特征。即使用在注意力模块中学习到的信息重标定预测特征图的特征分布,以得到有助于目标检测的更好的特征分布。
然而这样的处理有两个明显的缺点,首先因为是弱监督标签,所以边界框标签内的少量背景像素被标记为目标像素,在当作分割网络处理时不够精确;其次在目标检测头网络中,不是所有边界框标签内的像素都负责预测目标边界框。在FAN模型中,注意力模块训练学习后,将边界框内外的像素分别识别为目标和背景像素,形成位置注意力权重作用至预测特征图上强化目标像素。但是在随后的目标检测头网络中,预测对象类别和位置信息是基于锚框进行的,在锚框机制下,不是所有边界框内的像素都负责预测对象的类别与位置信息,而主要是边界框内中心位置附近的像素区域负责预测该对象的类别与位置信息。边界框内四周位置的像素区域对应的锚框与边界框标签的 IOU(Intersection overUnion)比较小甚至为0,在训练中会视为负样本或者不参与训练,在预测中会根据预测结果分数和后处理去除掉对应的不精确的边界框,因此边界框内四周位置的像素不属于正样本像素,不应该被强化。而在注意力模块中将边界框内的像素无差别的强化的做法会强化边界框四周位置的像素区域的不精确的预测结果,对最终预测结果产生干扰。
发明内容
为了解决上述问题,本公开提供了一种基于锚框的注意力遥感图像目标检测方法,包括如下步骤:
S100:将跳跃连接特征金字塔模块和基于锚框的位置注意力模块嵌入到目标检测模型中,建立一个端到端的单阶段遥感目标检测模型;
S200:采用所述端到端的单阶段遥感目标检测模型对遥感目标进行检测;
S300:输出遥感目标的检测结果。
通过上述技术方案,首先,提出跳跃连接特征金字塔模块,减小特征金字塔结构中特征信息逐层传递的丢失问题,进一步增强预测特征图的语义信息和细节信息,从而更好地检测不同大小的目标。其次,提出基于锚框的位置注意力模块,通过强化锚框的中心位置附近特征区域,以尽可能地强化能做出精确预测结果的特征区域,从而实现更准确地强化目标特征区域,进一步提升遮挡目标的检测性能。总之,使用改进后的端到端的单阶段遥感目标检测模型能够大大提高遥感目标检测的精度和速度。
附图说明
图1是本公开一个实施例中所提供的一种基于锚框的注意力遥感图像目标检测方法的流程示意图;
图2是本公开所提供的一种基于锚框的注意力遥感图像目标检测方法中端到端的单阶段遥感目标检测模型的结构示意图;
图3是本公开所提供的一种基于锚框的注意力遥感图像目标检测方法在UCAS-AOD数据集上的检测结果;
图4是本公开所提供的一种基于锚框的注意力遥感图像目标检测方法在RSOD数据集上的检测结果。
具体实施方式
在一个实施例中,如图1所示,公开了一种基于锚框的注意力遥感图像目标检测方法,包括如下步骤:
S100:将跳跃连接特征金字塔模块和基于锚框的位置注意力模块嵌入到目标检测模型中,建立一个端到端的单阶段遥感目标检测模型;
S200:采用所述端到端的单阶段遥感目标检测模型对遥感目标进行检测;
S300:输出遥感目标的检测结果。
就该实施例而言,将跳跃连接特征金字塔模块和基于锚框的位置注意力模块嵌入到RetinaNet模型中,形成端到端的单阶段遥感目标检测模型AANet(Anchor-basedAttention Network)。对于跳跃连接特征金字塔模块(Feature Pyramid Network withShortcut Connections,SCFPN)而言:在自顶向下的路径上,为弥补语义信息从深层特征传递至浅层特征的丢失问题,在主干网络末尾使用全局平均池化生成聚合丰富语义信息的特征图,利用跳跃连接相加融合至自顶向下路径上的各层特征图,以增加各特征层的语义信息。由于细节定位信息沿着主干网络传递,中间经过的特征层数较多,因此细节定位信息相对丢失更多,因此在自顶向下路径的基础上构造自底向上路径,减少中间经过的特征层数,同时也将高分辨率特征图的细节定位信息利用跳跃连接相加融合至自底向上路径上的各层特征图,以进一步增加各特征层的细节信息。对于基于锚框的位置注意力模块 (Anchor-based Spatial Attention Module,ASAM)而言:在基于锚框的位置注意力模块中,采用基于锚框的识别方法,以达到只强化边界框内中心位置附近的像素区域的目的。在预测时,不关注位置信息,只预测以该像素位置为中心的锚框包含目标的概率,再使用通道维度取最大值方法将预测值压缩为一个通道形成位置注意力权重特征图,作用至预测特征图上以更精确地辅助后续的目标检测过程。
在另一个实施例中,所述步骤S100进一步包括:
S101:使用主干网络和跳跃连接特征金字塔模块从输入图像中提取卷积特征,得到预测特征图;
S102:使用基于锚框的位置注意力模块生成位置注意力权重特征图,并作用于所述预测特征图,重标定预测特征图的特征分布;
S103:使用目标检测头网络中的分类和回归子网络生成预测边界框的类别分数和位置信息,并使用非极大值抑制NMS(Non-Maximum Suppression)操作筛选检测结果。
就该实施例而言,提出跳跃连接特征金字塔模块来增强特征金字塔结构中各层特征的语义和细节信息。同时,提出基于锚框的位置注意力模块,主要强化更可能产生精确预测结果的特征区域。该方法最终能够大大提高遥感目标检测的精度和速度。其中的类别分数指预测的属于各类别的概率。此处的检测结果是生成的是最终的检测结果。步骤S102和S103共同构成目标检测头网络。
在另一个实施例中,所述步骤S100中的目标检测模型采用 RetinaNet模型。
在另一个实施例中,所述步骤S101进一步包括:
S1011:在提取特征的主干网络之后添加两个步长为2的卷积操作,生成两个不同分辨率的特征图作为P6特征图、P7特征图;
S1012:在主干网络末尾添加全局平均池化操作,生成聚合丰富语义信息的GAP特征图;
S1013:在每次使用最近邻插值上采样特征图后和主干网络上对应的C5特征图、C4特征图、C3特征图相加融合时,同时加上GAP特征图,得到自顶向下路径上的P5特征图、P4特征图、P3特征图;
S1014:从P3特征图开始下采样特征图,依次传递细节定位信息,与对应自顶向下路径上的P5特征图、P4特征图、P3特征图相加融合;
S1015:将P3特征图分别二倍、四倍池化,相加融合至自底向上路径上的各层特征图,得到自底向上路径上的N3特征图、N4特征图、 N5特征图;
S1016:将所得到的N3特征图、N4特征图、N5特征图、P6特征图和P7特征图作为预测特征图。
就该实施例而言,如图2所示,在提取特征的主干网络(图2中的A:Backbone)之后添加两个步长为2的卷积操作,生成两个不同分辨率的特征图作为P6、P7预测特征图。由于逐层传递特征信息的方式随着传递经过的层数增加,特征信息会逐渐丢失,因此在构造自顶向下和自底向上路径的过程中,添加跳跃连接以弥补特征信息丢失。在构造自顶向下路径(图2中的B:Top-down)的过程中,先在主干网络末尾添加全局平均池化操作,生成聚合丰富语义信息的特征图,称为GAP(Global Average Pooling)特征图(图2中的GAP)。在每次使用最近邻插值上采样特征图后和主干网络上对应的特征图相加融合时,同时加上GAP特征图,使自顶向下路径上的特征图(图2中的 P3,P4,P5)既融合逐层依次传递的语义信息,又直接融合GAP语义信息,进一步增强特征图的语义信息。
给定主干网络上的特征图Ci∈RC×H×W和全局平均池化形成的特征图GAP256×H×W,则自顶向下路径上对应的特征图Pi∈R256×H×W可表示为:
在特征金字塔结构中,语义信息沿着自顶向下的路径(图2中的 B:Top-down)传递,中间经过的特征层数不多,语义信息丢失相对较少;而细节定位信息沿着主干网络路径(图2中的A:Backbone)传递,中间经过的特征层数多,细节定位信息丢失相对较多。即自顶向下路径上的深层特征图的语义信息可以有效的传递至浅层特征图,但是浅层特征图的细节定位信息不能有效地传递至深层特征图,因此需要在自顶向下路径(图2中的B:Top-down)的基础上构造自底向上路径(图 2中的C:Bottom-up),减少中间经过的特征层数,使浅层特征图的细节定位信息有效传递至深层特征图。在构造自底向上路径(图2中的 C:Bottom-up)的过程中,从P3特征图开始下采样特征图,依次传递细节定位信息,与对应自顶向下路径上的特征图(图2中的P3,P4,P5) 相加融合。此外,将P3特征图分别二倍、四倍池化,相加融合至自底向上路径上的各层特征图,使自底向上路径上的特征图(图2中的 N3,N4,N5)既融合依次传递的细节定位信息,又融合直接池化得到的细节定位信息,进一步增强特征图的细节定位信息。
给定自顶向下路径上的特征图Pi∈R256×H×W,则自底向上路径上对应的特征图Ni∈R256×H×W可表示为:
式中,MaxPoolk表示k倍池化下采样,i∈[4,5],C、H和W表示特征图的通道数、高、宽。
最终将自底向上路径上的特征图(图2中的N3,N4,N5)以及P6、 P7特征图作为预测特征图,这些特征图既具有丰富的语义信息,又具有丰富的细节定位信息。
在另一个实施例中,所述步骤S102进一步包括:
S1021:在所述预测特征图上连接四次卷积操作,然后基于锚框判别所述预测特征图上每一位置像素的类别,得到每一位置像素类别的预测结果特征图;
S1022:将所述每一位置像素类别的预测结果特征图压缩为一个通道形成位置注意力权重特征图;
S1023:将所述位置注意力权重特征图作用于所述预测特征图上,重标定预测特征图的特征分布。
就该实施例而言,目标检测头网络中的预测过程是基于锚框进行的。在基于锚框的预测中,位于边界框标签中心位置附近区域的像素对应的锚框与边界框标签的IOU较大,在训练期间视为正样本,在测试期间通常是微调后需要保留的预测结果;而其他区域的像素对应的锚框与边界框标签的IOU较小甚至为零,在训练期间或者为负样本或者不参与训练,在测试期通常是根据预测分数和后处理操作筛选掉的预测结果。因此基于锚框的预测方式要求施加位置注意力权重时只强化边界框标签中心位置附近区域的像素,而四周位置区域像素和背景区域像素都不需要强化。因此本方法的位置注意力模块采用基于锚框的方式判别像素是目标像素还是背景像素,这种方式形成的位置注意力权重和目标检测头网络中的检测过程具有一致性。基于锚框的位置注意力模块在框级标签的监督学习下可以识别目标区域特征,利用学习到的注意力信息区分目标区域特征和背景区域特征,通过强化目标区域特征和弱化背景区域特征重标定预测特征图的特征分布,得到更有益于目标检测的特征分布。
如图2中的Attention:ASAM所示,先连接四次卷积操作,然后基于锚框判别特征图上每一位置像素的类别。若某一位置的像素对应的多个锚框中有锚框与边界框标签IOU值较大,则认为此像素为正样本像素;若某一位置的像素对应的多个锚框都不负责预测目标对象,则认为此像素为负样本像素。
在另一个实施例中,所述步骤S1021进一步包括:
将与边界框标签的IOU大于0.5的锚框视为正样本,与边界框标签的IOU小于0.4的锚框视为负样本。
就该实施例而言,在锚框预测中,只预测锚框的类别信息,不预测锚框的位置信息,将与边界框标签的IOU大于0.5的锚框视为正样本,与边界框标签的IOU小于0.4的锚框视为负样本,锚框的尺寸比率设置与目标检测头网络中锚框的设置相同,损失函数为二分类Focal Loss 交叉熵损失函数。边界框标签指数据的边界框级的标签,预测边界框指神经网络输出的预测的边界框
在另一个实施例中,所述步骤S1022进一步包括:
位置注意力权重特征图的形成方式为使用通道维度取最大值方法。
就该实施例而言,当某一位置的像素对应的某一锚框负责预测对象时,该像素属于正样本像素,负责预测对象的锚框的预测值接近于 1,不负责预测对象的锚框的预测值接近于0,则通道维度取最大值压缩结果接近于1;当某一位置的像素对应的多个锚框都不负责预测对象时,该像素属于负样本像素,所有的预测值都接近于0,则通道维度取最大值压缩结果接近于0。
在另一个实施例中,所述步骤S1023进一步包括:
所述将所述位置注意力权重特征图作用于所述预测特征图上的作用方式采用先点乘预测特征图,再相加融合至预测特征图。
就该实施例而言,将得到的1xHxW的位置注意力权重作用于预测特征图,辅助后续目标检测过程。作用方式采用先点乘预测特征图,再相加融合至预测特征图,从而起到对正样本像素强化的作用。
给定特征图F∈RC×H×W,则位置注意力权重特征图 Ms(F)∈R1×H×W可表示为:
F′=[σ(f256 3×3(F))]4 (3)
Ms(F)=MaxPoolC(δ(fA 3×3(F′)))
(4)
式中,表示卷积核为3×3、通道数为K的卷积操作,σ表示ReLU激活函数,[]4表示4次相同的操作,δ表示Sigmoid激活函数,MaxPoolC()表示通道维度取最大值池化,C、H和W表示特征图的通道数、高、宽。
在另一个实施例中,所述步骤S1014进一步包括:
所述下采样是采用池化下采样操作。
就该实施例而言,池化操作不需要学习参数相对来说速度最快。
在另一个实施例中,所述步骤S103中的目标检测头网络中的分类和回归子网络为:分别连接4个256通道的卷积操作后,再分别添加KA个通道的卷积层和4A个通道的卷积层,经过激活层后预测边界框的类别分数和位置信息,K表示类别数,A表示每一像素位置的锚框数量。
就该实施例而言,通常目标检测头网络中只包含分类和回归子网络,本方法添加了基于锚框的位置注意力模块,虽然注意力模块属于目标检测头网络,但在作用的先后顺序上,注意力模块先重标定预测特征图,分类和回归子网络再在预测特征图上预测边界框的类别和位置信息。
预测每一位置像素类别是在注意力模块中的预测过程,且只预测类别信息;预测边界框的类别和位置信息是分类和回归子网络完成的预测过程,会预测边界框的类别和位置信息。前者是像素级的预测后者是框级的预测,且本方法中的一个重要改进点就是注意力模块中像素级预测与图像分割中像素级预测采用的方法不同,是更适于目标检测的基于锚框的像素级预测。
在另一个实施例中,本方法使用多任务损失函数联合优化AANet 模型的参数。损失函数由分类、回归和注意力损失三部分构成,定义为:
式中k表示特征金字塔层次的索引(k∈[3,7]),Ak表示特征金字塔层次Pk上定义的锚框的集合。分类损失是多类焦点(focal loss)损失,表示Pk中参与分类损失计算的锚框的数量,为1表示匹配成功的正锚框,为0表示未匹配的负锚框,pi表示AANet模型分类分支预测的检测框的类别结果。回归损失是平滑L1定位损失,ti表示AANet模型回归分支预测的检测框的4维位置坐标,表示与正锚框匹配的真值框的位置坐标,限制回归损失只回归正锚框的位置,注意力损失是二分类焦点(focal loss)损失,表示Pk中参与注意力损失计算的锚框的数量,为1表示匹配成功的正锚框,为0表示未匹配的负锚框, mi表示AANet模型注意力分支预测的属于正样本像素的概率。λ1和λ2用来平衡分类损失、回归损失和注意力损失,此处设置为λ1=λ2=1。
在另一个实施例中,给出了实验环境。本方法使用ResNet-50作为主干网络,并用在ImageNet预训练的权重初始化主干网络。在跳跃连接特征金字塔模块后面的注意力、分类和回归子网络中,前四个卷积层以偏置b=0和高斯方差σ=0.01的权重初始化。在分类子模块和基于锚框的位置注意力模块中的做预测的卷积层以偏置 b=log((1-π)/π)和π=0.01初始化。所有的实验在一块Titan X GPU上训练,实验数据集以7:3的比率随机划分成训练集和测试集,图像尺寸800×800像素,batch-size为2。使用随机梯度下降法训练模型,迭代训练100个epoch,初始学习率为0.001,学习率在60epoch和 80epoch分别降低10倍。权重衰减和动量分别设置为0.0001和0.9。
本方法提出的模型的性能在两个遥感图像目标检测数据集上进行评价,分别是RSOD和UCAS-AOD数据集。UCAS-AOD数据集中,汽车图像510张,包含汽车样本7114个;飞机图像1000张,包含飞机样本7482个。RSOD数据集总计2326张图像,类别包含飞机、油桶、操场、立交桥四种,图像采集于Google Earth。其中飞机图像446 张,包含飞机样本4993个;油桶图像165张,包含油桶样本1586个;操场图像189张,包含操场样本191个;立交桥图像176张,包含立交桥样本180个;其余是背景图像。使用mAP和运行时间作为评价指标。
定义精确率P(Precision)为:
召回率R(Reca]l)为:
式中TP指正类被判定为正类;FN指正类被判定为负类;FP指负类被判定为正类;TN指负类被判定为负类。
AP(Average Precision)被定义为在11个不同召回率水平 [0,0.1,0.2,...,1]上的最大精确率的平均值:
式中Pmax(r)指在召回率为r时的最大精确率。AP是单个类别目标的评价指标,mAP指多个类别目标的AP的平均值。
在另一个实施例中,使用跳跃连接特征金字塔模块增强预测特征图的语义信息和细节定位信息,以提升模型对不同大小目标的检测性能。在UCAS-AOD遥感数据集上对比了FAN模型和添加跳跃连接特征金字塔模块的FAN模型的实验结果。实验结果见表1。
表1
从表1中可以看到,采用跳跃连接特征金字塔模块获得1.35%的精度提升。主要是由于跳跃连接金字塔模块中的跳跃连接可以在一定程度上弥补逐层传递信息的丢失问题,进一步增强特征图的语义和细节信息。
表2中展示了采用跳跃连接的特征金字塔模块在UCAS-AOD数据集上的探究实验。在自底向上路径上逐层传递特征细节定位信息的过程中,我们尝试三种不同的操作下采样特征图,分别是池化、步长为 2的卷积操作以及使用通道分离后,一部分通道特征池化另一部分通道特征卷积下采样。在这三种下采样操作中,池化操作不需要学习参数相对来说速度最快,卷积操作需要学习参数会增加运行时间,第三种操作兼用卷积操作和池化操作,复杂度更高。综上以及结合表2的实验结果,本文在跳跃连接特征金字塔模块的自底向上路径上使用池化下采样操作。
表2
在另一个实施例中,使用基于锚框的位置注意力模块强化预测特征图上的正样本像素,通过强化预测特征图上目标区域特征,重标定预测特征图的特征分布,以提升目标检测性能。表3在UCAS-AOD数据集上对比了不使用位置注意力模块的模型和本方法中AANet模型的结果。
表3
从实验结果可以看到,使用基于锚框的位置注意力模块有0.43%的精度提升。主要是由于在基于锚框的位置注意力模块中强化的正样本像素的特征区域就是目标检测头网络中负责预测边界框的特征区域,因此可以提升目标检测头网络的检测能力。
表4展示了基于锚框的位置注意力模块在UCAS-AOD数据集上的探究实验。在生成位置注意力权重的过程中,尝试了三种位置注意力形成方式。第一种是在基于锚框的位置注意力模块中第四个卷积操作之后添加一个降维的卷积操作,将256通道的特征图转变为1维通道权重特征图;第二种是使用取最大值压缩通道的方式将基于锚框的位置注意力模块的预测结果特征图压缩为1维通道的权重特征图;第三种是在第二种操作方式的基础上再做卷积操作,以学习将压缩后的预测结果特征图转化为位置注意力权重的转化参数。三种做法的实验结果展示在表4中,三种位置注意力生成方式都比较有效。考虑到对预测结果特征图的利用及综合表4的实验结果,本方法采用第二种位置权重生成方式。
表4
本方法在UCAS-AOD数据集上对位置注意力权重特征图的施加方式进行了探究实验,分别对比了指数化权重后相乘、直接权重相乘以及权重相乘后相加三种方式,实验结果展示在表5中。由于注意力权重是在0到1之间,所以直接权重相乘会对预测特征图的目标区域和背景区域都产生不同程度的弱化,因此需要采用权重大于1的方式,结合表5的实验结果考虑,本方法选择使用相乘后相加的位置注意力权重施加方式。
表5
在另一个实施例中,给出了本方法中的模型与其他先进模型的对比。在表6中,展示了本方法中的模型AANet和其他先进的模型在 UCAS-AOD数据集上的对比情况。其中RetinaNet、FAN和AANet结果来自本实验。AANet取得95.47%的精度,高于采用特征金字塔和焦点损失的RetinaNet和特征注意力网络FAN,以及文献的模型,在 UCAS-AOD数据集上取得较高的精度。
表6
为了验证本方法中的模型的有效性与鲁棒性,在RSOD遥感数据集上对比了本方法中的模型和其他先进模型,表7展示了对比实验结果。RetinaNet、Face Attention Network和AANet结果为本实验所得,其他模型结果来自原文献。将区域建议生成阶段和目标检测阶段通过特征共享实现集成的R-P-Faster R-CNN模型和采用可形变卷积的Deformable R-FCN模型分别取得84.47%和85.70%的mAP精度,对操场的检测性能较好,对飞机、立交桥、油桶的检测性能较差。 Deformable R-FCN and arcNMS添加比率限制后处理arcNMS之后,立交桥的检测精度有所提升,但飞机、油桶的检测精度没有提升。用于多角度目标检测的RFN(Rotated Feature Network)模型的mAP精度达到了92.30%,立交桥和操场的检测性能较好,飞机的精度有一定的提升,但仍旧不高。采用密集连接特征金字塔结构的DenselyConnected FPN模型对飞机的检测精度有进一步的提升,对油桶的检测精度也有明显的提升,在ResNet-50的主干网络下精度达到91.53%,而使用ResNet-101主干网络时,mAP精度达到94.19%,精度有显著提高。本文基线模型Face Attention Network和对比模型RetinaNet 对不同尺度的目标都能较好地处理,飞机和油桶的检测精度得到进一步提升,但是立交桥、操场的精度略有降低。本文模型AANet在保持立交桥、操场较高检测精度的同时,提升了飞机和油桶的检测精度,在RSOD数据集上超越了其他先进模型。
表7
表8对比了本方法的模型和其他遥感目标检测模型每张图像的测试运行时间,各实验结果使用的GPU型号是12GB存储的Titan X。其中AANet和FAN模型结果来自本实验,其他模型结果来自文献 (Tayara,2018)。从表8中可以看出AANet的测试时间较短。
表8
在图3至图4中展示了本方法中的模型AANet分别在UCAS-AOD 和RSOD遥感目标检测数据集上的一些检测结果。从图3至图4中可以看出采用跳跃连接特征金字塔模块和基于锚框的位置注意力模块的AANet模型对不同大小的目标和一些遮挡目标都有较好的检测性能。
尽管以上结合附图对本发明的实施方案进行了描述,但本发明并不局限于上述的具体实施方案和应用领域,上述的具体实施方案仅仅是示意性的、指导性的,而不是限制性的。本领域的普通技术人员在本说明书的启示下和在不脱离本发明权利要求所保护的范围的情况下,还可以做出很多种的形式,这些均属于本发明保护之列。
Claims (10)
1.一种基于锚框的注意力遥感图像目标检测方法,包括如下步骤:
S100:将跳跃连接特征金字塔模块和基于锚框的位置注意力模块嵌入到目标检测模型中,建立一个端到端的单阶段遥感目标检测模型;
S200:采用所述端到端的单阶段遥感目标检测模型对遥感目标进行检测;
S300:输出遥感目标的检测结果。
2.根据权利要求1所述的方法,其中,优选的,所述步骤S100进一步包括:
S101:使用主干网络和跳跃连接特征金字塔模块从输入图像中提取卷积特征,得到预测特征图;
S102:使用基于锚框的位置注意力模块生成位置注意力权重特征图,并作用于所述预测特征图,重标定预测特征图的特征分布;
S103:使用目标检测头网络中的分类和回归子网络生成预测边界框的类别分数和位置信息,并使用非极大值抑制NMS操作筛选检测结果。
3.根据权利要求1所述的方法,其中,所述步骤S100中的目标检测模型采用RetinaNet模型。
4.根据权利要求2所述的方法,其中,所述步骤S101进一步包括:
S1011:在提取特征的主干网络之后添加两个步长为2的卷积操作,生成两个不同分辨率的特征图作为P6特征图、P7特征图;
S1012:在主干网络末尾添加全局平均池化操作,生成聚合丰富语义信息的GAP特征图;
S1013:在每次使用最近邻插值上采样特征图后和主干网络上对应的C5特征图、C4特征图、C3特征图相加融合时,同时加上GAP特征图,得到自顶向下路径上的P5特征图、P4特征图、P3特征图;
S1014:从P3特征图开始下采样特征图,依次传递细节定位信息,与对应自顶向下路径上的P5特征图、P4特征图、P3特征图相加融合;
S1015:将P3特征图分别二倍、四倍池化,相加融合至自底向上路径上的各层特征图,得到自底向上路径上的N3特征图、N4特征图、N5特征图;
S1016:将所得到的N3特征图、N4特征图、N5特征图、P6特征图和P7特征图作为预测特征图。
5.根据权利要求2所述的方法,其中,所述步骤S102进一步包括:
S1021:在所述预测特征图上连接四次卷积操作,然后基于锚框判别所述预测特征图上每一位置像素的类别,得到每一位置像素类别的预测结果特征图;
S1022:将所述每一位置像素类别的预测结果特征图压缩为一个通道形成位置注意力权重特征图;
S1023:将所述位置注意力权重特征图作用于所述预测特征图上,重标定预测特征图的特征分布。
6.根据权利要求5所述的方法,其中,所述步骤S1021进一步包括:
将与边界框标签的IOU大于0.5的锚框视为正样本,与边界框标签的IOU小于0.4的锚框视为负样本。
7.根据权利要求5所述的方法,其中,所述步骤S1022进一步包括:
位置注意力权重特征图的形成方式为使用通道维度取最大值方法。
8.根据权利要求5所述的方法,其中,所述步骤S1023进一步包括:
所述将所述位置注意力权重特征图作用于所述预测特征图上的作用方式采用先点乘预测特征图,再相加融合至预测特征图。
9.根据权利要求4所述的方法,其中,所述步骤S1014进一步包括:
所述下采样是采用池化下采样操作。
10.根据权利要求2所述的方法,其中,所述步骤S103中的目标检测头网络中的分类和回归子网络为:分别连接4个256通道的卷积操作后,再分别添加KA个通道的卷积层和4A个通道的卷积层,经过激活层后预测边界框的类别分数和位置信息,K表示类别数,A表示每一像素位置的锚框数量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010057803.6A CN111242071B (zh) | 2020-01-17 | 2020-01-17 | 一种基于锚框的注意力遥感图像目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010057803.6A CN111242071B (zh) | 2020-01-17 | 2020-01-17 | 一种基于锚框的注意力遥感图像目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111242071A true CN111242071A (zh) | 2020-06-05 |
CN111242071B CN111242071B (zh) | 2023-04-07 |
Family
ID=70872793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010057803.6A Active CN111242071B (zh) | 2020-01-17 | 2020-01-17 | 一种基于锚框的注意力遥感图像目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111242071B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723854A (zh) * | 2020-06-08 | 2020-09-29 | 杭州像素元科技有限公司 | 一种高速公路交通拥堵检测方法、设备及可读存储介质 |
CN111738231A (zh) * | 2020-08-06 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 目标对象检测方法、装置、计算机设备和存储介质 |
CN111915613A (zh) * | 2020-08-11 | 2020-11-10 | 华侨大学 | 一种图像实例分割方法、装置、设备及存储介质 |
CN111985503A (zh) * | 2020-08-17 | 2020-11-24 | 浩鲸云计算科技股份有限公司 | 一种基于改进的特征金字塔网络结构的目标检测方法和装置 |
CN112200163A (zh) * | 2020-12-03 | 2021-01-08 | 中国科学院自动化研究所 | 水下底栖生物检测方法及系统 |
CN112883887A (zh) * | 2021-03-01 | 2021-06-01 | 中央财经大学 | 一种基于高空间分辨率光学遥感图像的建筑物实例自动提取方法 |
CN112949508A (zh) * | 2021-03-08 | 2021-06-11 | 咪咕文化科技有限公司 | 模型训练方法、行人检测方法、电子设备及可读存储介质 |
CN113111718A (zh) * | 2021-03-16 | 2021-07-13 | 苏州海宸威视智能科技有限公司 | 一种基于多模态遥感图像细粒度弱特征目标涌现检测方法 |
CN113255759A (zh) * | 2021-05-20 | 2021-08-13 | 广州广电运通金融电子股份有限公司 | 基于注意力机制的目标内特征检测系统、方法和存储介质 |
CN113255699A (zh) * | 2021-06-10 | 2021-08-13 | 浙江华睿科技有限公司 | 小目标物体图像检测方法、装置、电子设备及存储介质 |
CN113378686A (zh) * | 2021-06-07 | 2021-09-10 | 武汉大学 | 一种基于目标中心点估计的两阶段遥感目标检测方法 |
CN115599107A (zh) * | 2022-12-08 | 2023-01-13 | 唐山雄炜机器人有限公司(Cn) | 基于人工智能的激光自动除锈机器人控制系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287927A (zh) * | 2019-07-01 | 2019-09-27 | 西安电子科技大学 | 基于深度多尺度和上下文学习的遥感影像目标检测方法 |
CN110427981A (zh) * | 2019-07-11 | 2019-11-08 | 四川大学 | 基于深度神经网络的sar船舶检测系统及方法 |
WO2019218826A1 (zh) * | 2018-05-17 | 2019-11-21 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
-
2020
- 2020-01-17 CN CN202010057803.6A patent/CN111242071B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019218826A1 (zh) * | 2018-05-17 | 2019-11-21 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN110287927A (zh) * | 2019-07-01 | 2019-09-27 | 西安电子科技大学 | 基于深度多尺度和上下文学习的遥感影像目标检测方法 |
CN110427981A (zh) * | 2019-07-11 | 2019-11-08 | 四川大学 | 基于深度神经网络的sar船舶检测系统及方法 |
Non-Patent Citations (1)
Title |
---|
刘涛;汪西莉;: "采用卷积核金字塔和空洞卷积的单阶段目标检测" * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723854A (zh) * | 2020-06-08 | 2020-09-29 | 杭州像素元科技有限公司 | 一种高速公路交通拥堵检测方法、设备及可读存储介质 |
CN111723854B (zh) * | 2020-06-08 | 2023-08-29 | 杭州像素元科技有限公司 | 一种高速公路交通拥堵检测方法、设备及可读存储介质 |
CN111738231A (zh) * | 2020-08-06 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 目标对象检测方法、装置、计算机设备和存储介质 |
CN111738231B (zh) * | 2020-08-06 | 2020-12-11 | 腾讯科技(深圳)有限公司 | 目标对象检测方法、装置、计算机设备和存储介质 |
CN111915613A (zh) * | 2020-08-11 | 2020-11-10 | 华侨大学 | 一种图像实例分割方法、装置、设备及存储介质 |
CN111915613B (zh) * | 2020-08-11 | 2023-06-13 | 华侨大学 | 一种图像实例分割方法、装置、设备及存储介质 |
CN111985503A (zh) * | 2020-08-17 | 2020-11-24 | 浩鲸云计算科技股份有限公司 | 一种基于改进的特征金字塔网络结构的目标检测方法和装置 |
CN111985503B (zh) * | 2020-08-17 | 2024-04-26 | 浩鲸云计算科技股份有限公司 | 一种基于改进的特征金字塔网络结构的目标检测方法和装置 |
CN112200163A (zh) * | 2020-12-03 | 2021-01-08 | 中国科学院自动化研究所 | 水下底栖生物检测方法及系统 |
CN112200163B (zh) * | 2020-12-03 | 2021-06-25 | 中国科学院自动化研究所 | 水下底栖生物检测方法及系统 |
CN112883887A (zh) * | 2021-03-01 | 2021-06-01 | 中央财经大学 | 一种基于高空间分辨率光学遥感图像的建筑物实例自动提取方法 |
CN112949508A (zh) * | 2021-03-08 | 2021-06-11 | 咪咕文化科技有限公司 | 模型训练方法、行人检测方法、电子设备及可读存储介质 |
CN113111718A (zh) * | 2021-03-16 | 2021-07-13 | 苏州海宸威视智能科技有限公司 | 一种基于多模态遥感图像细粒度弱特征目标涌现检测方法 |
CN113255759A (zh) * | 2021-05-20 | 2021-08-13 | 广州广电运通金融电子股份有限公司 | 基于注意力机制的目标内特征检测系统、方法和存储介质 |
CN113255759B (zh) * | 2021-05-20 | 2023-08-22 | 广州广电运通金融电子股份有限公司 | 基于注意力机制的目标内特征检测系统、方法和存储介质 |
CN113378686B (zh) * | 2021-06-07 | 2022-04-15 | 武汉大学 | 一种基于目标中心点估计的两阶段遥感目标检测方法 |
CN113378686A (zh) * | 2021-06-07 | 2021-09-10 | 武汉大学 | 一种基于目标中心点估计的两阶段遥感目标检测方法 |
CN113255699B (zh) * | 2021-06-10 | 2022-01-18 | 浙江华睿科技股份有限公司 | 小目标物体图像检测方法、装置、电子设备及存储介质 |
CN113255699A (zh) * | 2021-06-10 | 2021-08-13 | 浙江华睿科技有限公司 | 小目标物体图像检测方法、装置、电子设备及存储介质 |
CN115599107A (zh) * | 2022-12-08 | 2023-01-13 | 唐山雄炜机器人有限公司(Cn) | 基于人工智能的激光自动除锈机器人控制系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111242071B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111242071B (zh) | 一种基于锚框的注意力遥感图像目标检测方法 | |
CN109891897B (zh) | 用于分析媒体内容的方法 | |
US10275719B2 (en) | Hyper-parameter selection for deep convolutional networks | |
US9928213B2 (en) | Event-driven spatio-temporal short-time fourier transform processing for asynchronous pulse-modulated sampled signals | |
JP7037478B2 (ja) | 分類のための強制的なスパース性 | |
CN112150821B (zh) | 轻量化车辆检测模型构建方法、系统及装置 | |
US20220215227A1 (en) | Neural Architecture Search Method, Image Processing Method And Apparatus, And Storage Medium | |
KR20180044295A (ko) | 트레이닝된 머신 학습 모델의 성능을 개선시키는 방법 | |
JP2018514852A (ja) | 逐次画像サンプリングおよび微調整された特徴の記憶 | |
KR20170140214A (ko) | 신경망을 위한 훈련 기준으로서의 필터 특이성 | |
US11551076B2 (en) | Event-driven temporal convolution for asynchronous pulse-modulated sampled signals | |
JP2018523182A (ja) | 深層畳み込みネットワークにおいて画像解像度を低減すること | |
US11200648B2 (en) | Method and apparatus for enhancing illumination intensity of image | |
KR102175531B1 (ko) | 인공신경망을 학습시키기 위한 레이블을 포함하는 학습 데이터를 생성하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 | |
Patel et al. | An optimized deep learning model for flower classification using nas-fpn and faster r-cnn | |
EP3942461A1 (en) | Subject-object interaction recognition model | |
KR20230088714A (ko) | 개인화된 뉴럴 네트워크 프루닝 | |
CN115565043A (zh) | 结合多表征特征以及目标预测法进行目标检测的方法 | |
TW202147139A (zh) | 機器學習方法、機器學習系統以及非暫態電腦可讀取媒體 | |
KR20230078655A (ko) | 에너지 효율적인 딥 러닝을 위한 동적 양자화 | |
CN112132207A (zh) | 基于多分支特征映射目标检测神经网络构建方法 | |
Mozaffari et al. | Facial expression recognition using deep neural network | |
US20230169694A1 (en) | Flow-agnostic neural video compression | |
US20240161312A1 (en) | Realistic distraction and pseudo-labeling regularization for optical flow estimation | |
KR20230091879A (ko) | 뉴럴 오디오 데이터 프로세싱을 위한 서브-스펙트럼 정규화 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |