CN111259758A - 一种针对密集区域的两阶段遥感图像目标检测方法 - Google Patents
一种针对密集区域的两阶段遥感图像目标检测方法 Download PDFInfo
- Publication number
- CN111259758A CN111259758A CN202010030047.8A CN202010030047A CN111259758A CN 111259758 A CN111259758 A CN 111259758A CN 202010030047 A CN202010030047 A CN 202010030047A CN 111259758 A CN111259758 A CN 111259758A
- Authority
- CN
- China
- Prior art keywords
- frames
- feature map
- target
- frame
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种针对密集区域的两阶段遥感图像目标检测方法,主要解决现有技术对目标密集区域目标识别准确率低的问题,其步骤为:1、对于输入图像进行数据增强操作,增加训练样本集;2、构建基于多尺度特征提取模块;3、在不同尺度的特征图上进行目标检测,找出目标密集的区域;4、针对目标密集的区域进行二次目标检测;5、对检测出的目标进行分类和位置回归,输出目标对应的分类标签和位置坐标,完成对图像的目标识别和定位。本发明利用网络多尺度结构的特点提取和融合不同尺度下的特征图来检测不同大小的目标,并对目标密集度高的区域进行二次检测,提高了小目标识别准确率。该方法可用于无人机以及卫星对目标的检测,侦查和监视。
Description
技术领域
本发明涉及一种针对密集区域的两阶段遥感图像目标检测方法,可用于无人机以及卫星对目标的检测、侦查和监视,属于图像处理技术。
背景技术
随着深度学习在计算机视觉领域的飞速发展,目标检测技术作为计算机视觉领域的一部分也得到了突破性的发展。近几年,与目标检测技术紧密相连的应用产品的出现,比如智慧城市监控、无人驾驶等,以及依靠目标检测技术支撑的如行人识别、目标追踪、视觉感知等技术的快速发展,都表明了目标检测在计算机视觉中的重要地位。
作为计算机视觉领域的焦点和挑战,小目标的检测是目标检测领域中较难解决问题之一。以前的大多数的目标检测方法都是利用图像金字塔和基于手工制作的特征,对目标在不同的尺度上进行识别,以此提高目标检测的准确率。虽然目标特征的尺度对于检测任务至关重要,但考虑到内存和检测时间等问题,这些方法的准确率较低,计算成本较高,很难进行广泛的应用。近年来,随着深度卷积网络的到来,手工设计的特征被通过卷积神经网络计算的特征所取代,常见的图像特征提取的卷积神经网络如AlexNet、VGGNet、GooleNet以及深度残差网络等。这些卷积神经网的使用使目标检测的性能得到了显著的提高。然而,对遥感图像中较多的小目标检测仍然是一个具有挑战性的问题。
从高空拍摄的遥感图像相比于普通图像存在以下问题:
(1)图像中目标的个数多,种类多,而且目标尺寸普遍较小;
(2)部分类别目标的数据规模小,像工程用车,消防车,警车等特殊车辆;
(3)不同拍摄角度的目标形变较大,如对于使用无人机从正面角度与从上向下的角度拍摄的行人目标的图像在形态上差别较大;
(4)目标尺度变化范围大,例如从近景的大物体(如卡车)到远景的小物体(如行人),目标的尺度变化过大;
(5)目标容易被背景,如树,房屋物体等遮挡,密集目标容易相互重叠遮挡。
这些遥感图像中目标的尺度变化大、种类多、个数多、易受遮挡等问题导致深度神经网络不能很好的对目标进行特征提取,极大地限制了目标检测技术的应用与发展。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种针对密集区域的两阶段遥感图像目标检测方法,解决现有技术对目标密集区域目标识别准确率低的问题,该方法采用多尺度特征融合技术,考虑了包含较多细节内容的高分辨特征和有较强语义的低分辨率特征,通过它们之间的相互融合来进行目标检测;同时,对输入图像中目标较多的区域进行统计并对这些区域进行二次检测来提高整体的检测准确率。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种针对密集区域的两阶段遥感图像目标检测方法,包括如下步骤:
(a)图像数据增强
对原始训练集中的每一张原始图像均依次进行旋转变换、反射变换、平移变换和对比度变换,把原始图像和变换后的图像统一成深度残差网络设定的输入尺寸(比如1000×600的像素尺寸),把统一尺寸后的图像作为对原始训练集数据增强后的训练集;
(b)构建多尺度特征提取模块
使用深度残差网络对训练集中的图像进行多尺度特征提取,将深度残差网络中的第三卷积块、第四卷积块、第五卷积块的最后一张特征图通过上采样的方式分别拼接到第二卷积块、第三卷积块、第四卷积块的最后一张特征图上,从而增加第二卷积块、第三卷积块、第四卷积块的最后一张特征图的语义性,并形成用于目标检测的特征金字塔;
训练时采用迁移学习策略,向深度残差网络导入经ImageNet数据集训练好的网络参数(即将该网络参数作为深度残差网络的预训练参数),将训练好的网络参数作为深度残差网络的初始化参数;
(c)对不同尺度的特征图像进行目标检测
在特征金字塔的每个像素点上设置不同尺寸的预定义边框,对预定义边框进行前景与背景的分类和位置回归得到初步预测边框,对所有初步预测边框采用非极大值抑制的方法进行筛选,再根据初步预测边框的前景概率值从筛选结果中选择出前景概率值最高的k1个初步预测边框作为初步预测前景边框;
(d)计算目标密集区域
对特征金字塔中的特征图进行区域划分,找出包含初步预测前景边框数量最多的区域,并将该区域映射到原始图像的对应区域上;
(e)对目标密集的区域进行二次目标检测
裁剪出原始图像的对应区域,将裁减出的原始图像缩放到深度残差网络设定的输入尺寸,并通过多尺度特征提取模块形成特征金字塔,在形成的特征金字塔的每个像素点上设置不同尺寸的预定义边框,对预定义边框进行前景与背景的分类和位置回归得到二次预测边框,对所有二次预测边框采用非极大值抑制的方法进行筛选,再根据二次预测边框的前景概率值从筛选结果中选择出前景概率值最高的k2个二次预测边框作为二次预测前景边框;
(f)获取目标的检测和识别结果
对初步预测前景边框和二次预测前景边框进行非极大值抑制操作过滤掉交并比大于设定阈值(一般取值为0.7)的预测前景边框,再根据前景概率值从过滤结果中选择出前景概率值最高的k3个(比如前1000个)预测前景边框作为可能为目标的区域,将这些可能为目标的区域作为预选边框,对预选边框所在的特征区域进行池化,统一目标特征的大小;
将统一大小后的目标特征分别放入两个全连接层后分别连接一个用于分类的分类输出层(分类器)和一个用于位置回归的回归输出层(回归器),将分类输出层输出的类别概率值和位置回归层输出的位置信息共同作为目标预测边框,根据目标预测边框的位置信息和类别概率值对目标预测边框进行非极大值抑制过滤后,选择出类别概率值最大的k个目标预测边框作为目标的识别结果;进行非极大值抑制时通过设置边框的交并比阈值来调节过滤的程度。
具体的,所述步骤(a)中,旋转变换、反射变换、平移变换和对比度变换如现有技术的一般定义,具体如下:
旋转变换:将图像按顺时针随机旋转45°、90°、135°或180°;
反射变换:先沿水平方向对图像进行一次翻转,再沿垂直方向对图像进行一次翻转;
平移变换:即对图像上的内容以一定方式进行平移,具体操作为,将9张一样大小图像进行3×3的随机排列形成新图像(相邻图片之间无重叠无间隙),在新图像上随机截取原图像大小的图片,形成图像上的内容发生平移的效果;
对比度变换:在图像的HSV颜色空间上,保持色调分量(H分量)不变,改变饱和度分量(S分量)和亮度分量(V分量),对每个像素的饱和度分量和亮度分量进行指数运算,可以设计指数因子在0.25~4之间随机选取,增加光照变化。
具体的,所述步骤(b)中,将深度残差网络中的第三卷积块、第四卷积块、第五卷积块的最后一张特征图通过上采样的方式拼接到第二卷积块、第三卷积块、第四卷积块最后一张特征图上,形成特征金字塔(P2,P3,P4,P5),具体方法为:
特征图P5:第5个卷积块的最后一张特征图经过膨胀率为2的空洞卷积,生成特征图P5;
特征图P4:先上采样第5个卷积块的最后一张特征图,再经过膨胀率为2的空洞卷积,接着与第4个卷积块的最后一张特征图进行拼接,最后经过一个卷积层生成特征图P4;
特征图P3:先上采样第4个卷积块中间层的特征图,再与特征图P4和第3个卷积块的最后一张特征图进行拼接,生成特征图P3;
特征图P2:先上采样特征图P3,再与第2个卷积块的最后一张特征图进行拼接,生成特征图P2。
具体的,所述步骤(c)中,预定义边框的大小和长宽比根据对训练集中目标的真实边框大小统计计算获得,具体方法为:
将训练集中的图像目标标签对应的真实边框大小设置为3个尺度,先求出所有真实边框的平均值,包括平均面积s、平均长度len和平均宽度wd;然后筛选出面积小于等于s的真实边框,计算筛选出的所有真实边框的平均值,包括平均面积s0、平均长度len0和平均宽度wd0;再筛选出面积大于s的真实边框,计算筛选出的所有真实边框的平均值,包括平均面积s1、平均长度len1和平均宽度wd1;
在特征图P2的每个像素点上设置一种基准的正方形边框,对应感受野边长大小为s0的开方值sq0;在特征图P2的每个像素点上设置一种长方形边框,对应感受野长和宽分别为len0和wd0;在特征图P2的每个像素点上设置另一种长方形边框,对应感受野长和宽分别为wd0和len0;
在特征图P3的每个像素点上设置一种基准的正方形边框,对应感受野边长大小为s的开方值sq;在特征图P3的每个像素点上设置一种长方形边框,对应感受野长和宽分别为len和wd;在特征图P3的每个像素点上设置另一种长方形边框,对应感受野长和宽分别为wd和len;
在特征图P4的每个像素点上设置一种基准的正方形边框,对应感受野边长大小为s1的开方值sq1;在特征图P4的每个像素点上设置一种长方形边框,对应感受野长和宽分别为len1和wd1;在特征图P4的每个像素点上设置另一种长方形边框,对应感受野长和宽分别为wd1和len1;
特征图P5负责对图片中所有的目标进行检测,因此在特征图P5的每个像素点上设置九种正方形边框,对应感受野边长大小分别为sq0、0.5sq0、2sq0、sq、0.5sq、2sq0、sq1、0.5sq1、2sq1。
在设置好边框的特征图P2、P3、P4和P5上分别进行两个1×1的卷积,第一个1×1卷积得到对应边框的前景概率值和背景概率值,第二个1×1卷积得到对应边框的位置信息(边框的中心坐标以及长和宽),边框的中心坐标以及长和宽的值为浮点小数不取整。
具体的,所述步骤(d)中,对特征金字塔中的特征图进行区域划分,具体方法为:将特征图P2划分为五个正方形区域,分别为包含左上角的左上正方形区域、包含左下角的左下正方形区域、包含右上角的右上正方形区域、包含右下角的右下正方形区域、包含中点的中间正方形区域,五个正方形区域的边长为特征图P2边长的3/5;分别在五个正方形区域上统计初步预测前景边框数量,找出包含初步预测前景边框数量最多的正方形区域,并通过感受野映射到原始图像的对应区域上。
由于P2主要用于检测小目标,在寻找目标密集区域时,主要针对小目标密集的区域,因此仅对P2进行划分,不需要对金字塔中的其他特征图进行划分。
具体的,所述步骤(f)中,对预选边框所在的特征区域进行池化,即将预选边框所在的特征区域分成3×3个格子,每个格子通过双线性内插的方法得到每个格子虚点的值,即每个格子的中心点的值,3×3个格子的中心点组合在一起即为统一目标特征。
具体的,所述步骤(f)中,通过特征图P2、P3、P4和P5预测预选边框,其中特征图P2用于预测小尺度小目标,特征图P3用于预测中等尺度目标,特征图P4用于预测大尺度目标,特征图P5对所有尺度的目标进行预测。
具体的,所有卷积层均使用批归一化方法(Batch Normalization方法)进行归一化操作,以避免梯度消失。
有益效果:本发明提供的针对密集区域的两阶段遥感图像目标检测方法,相对于现有技术,具有如下优势:
(1)本发明提出的多尺度的特征提取模块,通过拼接和上采样等方法对深度残差网络中不同尺度的特征图进行融合,使融合后的特征图同时具有较强的细节内容和语义特征;
(2)本发明设计了不同尺度下边框的选取方法,通过计算对训练集中目标标签中真实边框的面积和长宽的平均值,以及对大于平均面积的边框和小于平均面积的边框求平均,得到3种尺度范围的边框;
(3)本发明通过对特征图进行区域划分,找到对应原输入图片目标最多的区域,并进行二次目标检测,能够有效提高精度;
(4)对边框位置进行回归时,采用3×3的方式统一目标特征的大小,并在每个目标特征对应的9个格子中通过双线性内插的方法计算出相应格子的虚点值。
附图说明
图1为本发明的实施流程图;
图2为本发明中用于目标检测的网络结构示意图;
图3为本发明中对P2特征图的五大区域进行划分的示意图;
图4为预选框所对应的特征区域池化的示意图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
如图1所示为一种针对密集区域的两阶段遥感图像目标检测方法的实施流程图,包括如下步骤:
步骤一:图像数据增强
对原始训练集中的每一张原始图像均依次进行旋转变换、反射变换、平移变换和对比度变换,把原始图像和变换后的图像统一1000×600的像素尺寸,把统一尺寸后的图像作为对原始训练集数据增强后的训练集。
步骤二:构建多尺度特征提取模块
使用深度残差网络Resnet101对训练集中的图像进行多尺度特征提取,将深度残差网络中的低分辨率特征图通过上采样的方式拼接到高分辨率特征图上,从而增加高分辨率特征图的语义性,并形成用于目标检测的特征金字塔(P2,P3,P4,P5),具体方法为:第5个卷积块的最后一张特征图经过膨胀率为2的空洞卷积,生成特征图P5;先上采样第5个卷积块的最后一张特征图,再经过膨胀率为2的空洞卷积,接着与第4个卷积块的最后一张特征图进行拼接,最后经过一个卷积层生成特征图P4;先上采样第4个卷积块中间层的特征图,再与特征图P4和第3个卷积块的最后一张特征图进行拼接,生成特征图P3;先上采样特征图P3,再与第2个卷积块的最后一张特征图进行拼接,生成特征图P2。
训练时采用迁移学习策略,向深度残差网络导入经ImageNet数据集训练好的网络参数(即将该网络参数作为深度残差网络的预训练参数),将训练好的网络参数作为深度残差网络的初始化参数。
步骤三:对不同尺度的特征图像进行目标检测
在特征金字塔的每个像素点上设置不同尺寸的预定义边框,预定义边框的大小和长宽比根据对训练集中目标的真实边框大小统计计算获得,具体方法为:
(31)将训练集中的图像目标标签对应的真实边框大小设置为3个尺度,先求出所有真实边框的平均值,包括平均面积s、平均长度len和平均宽度wd;然后筛选出面积小于等于s的真实边框,计算筛选出的所有真实边框的平均值,包括平均面积s0、平均长度len0和平均宽度wd0;再筛选出面积大于s的真实边框,计算筛选出的所有真实边框的平均值,包括平均面积s1、平均长度len1和平均宽度wd1;
(32)在特征图P2的每个像素点(即每个格子,大小为1×1)上设置一种基准的正方形边框,对应感受野边长大小为s0的开方值sq0;在特征图P2的每个像素点上设置一种长方形边框,对应感受野长和宽分别为len0和wd0;在特征图P2的每个像素点上设置另一种长方形边框,对应感受野长和宽分别为wd0和len0;
(33)在特征图P3的每个像素点上设置一种基准的正方形边框,对应感受野边长大小为s的开方值sq;在特征图P3的每个像素点上设置一种长方形边框,对应感受野长和宽分别为len和wd;在特征图P3的每个像素点上设置另一种长方形边框,对应感受野长和宽分别为wd和len;
(34)在特征图P4的每个像素点上设置一种基准的正方形边框,对应感受野边长大小为s1的开方值sq1;在特征图P4的每个像素点上设置一种长方形边框,对应感受野长和宽分别为len1和wd1;在特征图P4的每个像素点上设置另一种长方形边框,对应感受野长和宽分别为wd1和len1;
(35)特征图P5负责对图片中所有的目标进行检测,因此在特征图P5的每个像素点上设置九种正方形边框,对应感受野边长大小分别为sq0、0.5sq0、2sq0、sq、0.5sq、2sq0、sq1、0.5sq1、2sq1。
设置好边框的特征图P2、P3、P4和P5各自通过两个1×1的卷积核进行前景/背景分类和位置回归操作,具体过程为:特征图P2、P3、P4、P5通过第一个1×1卷积后形成对应通道为2×3的特征图,2×3表示存储了6个概率值(三种边框的前景概率值和背景概率值),特征图P2、P3、P4、P5通过第二个1×1卷积形成对应通道为4×3的特征图,其中4×3表示存储了12个位置信息(三种边框的中心坐标以及三种边框的长和宽)。
对预定义边框进行前景与背景的分类和位置回归得到初步预测边框,对所有初步预测边框采用非极大值抑制的方法进行筛选,再根据初步预测边框的前景概率值从筛选结果中选择出前景概率值最高的k1个初步预测边框作为初步预测前景边框。
步骤四:计算目标密集区域
如图3所示,对特征金字塔中的特征图进行区域划分,具体方法为:将特征图P2划分为五个正方形区域,分别为包含左上角的左上正方形区域、包含左下角的左下正方形区域、包含右上角的右上正方形区域、包含右下角的右下正方形区域、包含中点的中间正方形区域,五个正方形区域的边长为特征图P2边长的3/5,各个正方形区域互有重叠;分别在五个正方形区域上统计初步预测前景边框数量,找出包含初步预测前景边框数量最多的正方形区域,并通过感受野映射到原始图像的对应区域上。
步骤五:对目标密集的区域进行二次目标检测
裁剪出原始图像的对应区域,将裁减出的原始图像缩放到深度残差网络设定的输入尺寸,并通过多尺度特征提取模块形成特征金字塔,在形成的特征金字塔的每个像素点上设置不同尺寸的预定义边框,对预定义边框进行前景与背景的分类和位置回归得到二次预测边框,对所有二次预测边框采用非极大值抑制的方法进行筛选,再根据二次预测边框的前景概率值从筛选结果中选择出前景值最高的k2个二次预测边框作为二次预测前景边框。
步骤六:获取目标的检测和识别结果
对初步预测前景边框和二次预测前景边框进行非极大值抑制操作过滤掉交并比大于0.7的预测前景边框(即去除重叠率较高的预测前景边框),再根据前景概率值从过滤结果中选择出前景概率值最高的1000个预测前景边框作为可能为目标的区域,将这些可能为目标的区域作为预选边框。
如图4所示,对预选边框所在的特征区域进行池化,统一目标特征的大小,即将预选边框所对应的特征图P2、P3、P4、P5上的区域统一分成3×3个格子,每个格子通过双线性内插的方法得到每个格子虚点的值,即每个格子的中心点的值,3×3个格子的中心点组合在一起即为统一目标特征。
将统一大小后的目标特征分别放入两个全连接层后分别连接一个用于分类的分类输出层(分类器)和一个用于位置回归的回归输出层(回归器),分类器和回归器共享两个全连接层,每个全连接层有2048个神经元,其中分类器的输出层输出个数为要检测的类别数,输出的是目标预测边框的类别概率值,回归器的输出层输出的个数为要检测的类别数乘以4,倍数4表示用来定位目标预测边框的中心位置坐标和边框的宽和高。
根据输入图像的真实位置标注以及分类器得到的分类结果(类别概率值)和回归器得到的位置信息(目标预测边框的中心坐标以及宽和高)计算出分类损失和位置回归损失,其中分类损失使用的是交叉熵损失记为Lossc,位置回归损失使用的是L1平滑损失记为Lossreg,总损失Loss表示为:
Loss=Lossc+λLossreg
其中:λ表示位置回归损失的权重。
在全连接层输出的最终预测边框中,通过非极大值抑制抑制过滤掉相同类别交并比大于0.7的最终预测边框,并在过滤后的最终预测边框中选择前100个检测结果作为识别结果。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (6)
1.一种针对密集区域的两阶段遥感图像目标检测方法,其特征在于:包括如下步骤:
(a)图像数据增强
对原始训练集中的每一张原始图像均依次进行旋转变换、反射变换、平移变换和对比度变换,最后把原始图像和变换后的图像统一成深度残差网络设定的输入尺寸,把统一尺寸后的图像作为对原始训练集数据增强后的训练集;
(b)构建多尺度特征提取模块
使用深度残差网络对训练集中的图像进行多尺度特征提取,将深度残差网络中的第三卷积块、第四卷积块、第五卷积块的最后一张特征图通过上采样的方式分别拼接到第二卷积块、第三卷积块、第四卷积块的最后一张特征图上,从而增加第二卷积块、第三卷积块、第四卷积块的最后一张特征图的语义性,并形成用于目标检测的特征金字塔;
训练时采用迁移学习策略,向深度残差网络导入经ImageNet数据集训练好的网络参数,将训练好的网络参数作为深度残差网络的初始化参数;
(c)对不同尺度的特征图像进行目标检测
在特征金字塔的每个像素点上设置不同尺寸的预定义边框,对预定义边框进行前景与背景的分类和位置回归得到初步预测边框,对所有初步预测边框采用非极大值抑制的方法进行筛选,再根据初步预测边框的前景概率值从筛选结果中选择出前景概率值最高的k1个初步预测边框作为初步预测前景边框;
(d)计算目标密集区域
对特征金字塔中的特征图进行区域划分,找出包含初步预测前景边框数量最多的区域,并将该区域映射到原始图像的对应区域上;
(e)对目标密集的区域进行二次目标检测
裁剪出原始图像的对应区域,将裁减出的原始图像缩放到深度残差网络设定的输入尺寸,并通过多尺度特征提取模块形成特征金字塔,在形成的特征金字塔的每个像素点上设置不同尺寸的预定义边框,对预定义边框进行前景与背景的分类和位置回归得到二次预测边框,对所有二次预测边框采用非极大值抑制的方法进行筛选,再根据二次预测边框的前景概率值从筛选结果中选择出前景概率值最高的k2个二次预测边框作为二次预测前景边框;
(f)获取目标的检测和识别结果
对初步预测前景边框和二次预测前景边框进行非极大值抑制操作过滤掉交并比大于设定阈值的预测前景边框,再根据前景概率值从过滤结果中选择出前景概率值最高的k3个预测前景边框作为可能为目标的区域,将这些可能为目标的区域作为预选边框,对预选边框所在的特征区域进行池化,统一目标特征的大小;
将统一大小后的目标特征分别放入两个全连接层后分别连接一个用于分类的分类输出层和一个用于位置回归的回归输出层,将分类输出层输出的类别概率值和位置回归层输出的位置信息共同作为目标预测边框,根据目标预测边框的位置信息和类别概率值对目标预测边框进行非极大值抑制过滤后,选择出类别概率值最大的k个目标预测边框作为目标的识别结果;进行非极大值抑制时通过设置边框的交并比阈值来调节过滤的程度。
2.根据权利要求1所述的针对密集区域的两阶段遥感图像目标检测方法,其特征在于:所述步骤(b)中,将深度残差网络中的第三卷积块、第四卷积块、第五卷积块的最后一张特征图通过上采样的方式拼接到第二卷积块、第三卷积块、第四卷积块最后一张特征图上,形成特征金字塔(P2,P3,P4,P5),具体方法为:
特征图P5:第5个卷积块的最后一张特征图经过膨胀率为2的空洞卷积,生成特征图P5;
特征图P4:先上采样第5个卷积块的最后一张特征图,再经过膨胀率为2的空洞卷积,接着与第4个卷积块的最后一张特征图进行拼接,最后经过一个卷积层生成特征图P4;
特征图P3:先上采样第4个卷积块中间层的特征图,再与特征图P4和第3个卷积块的最后一张特征图进行拼接,生成特征图P3;
特征图P2:先上采样特征图P3,再与第2个卷积块的最后一张特征图进行拼接,生成特征图P2。
3.根据权利要求1所述的针对密集区域的两阶段遥感图像目标检测方法,其特征在于:所述步骤(c)中,预定义边框的大小和长宽比根据对训练集中目标的真实边框大小统计计算获得,具体方法为:
将训练集中的图像目标标签对应的真实边框大小设置为3个尺度,先求出所有真实边框的平均值,包括平均面积s、平均长度len和平均宽度wd;然后筛选出面积小于等于s的真实边框,计算筛选出的所有真实边框的平均值,包括平均面积s0、平均长度len0和平均宽度wd0;再筛选出面积大于s的真实边框,计算筛选出的所有真实边框的平均值,包括平均面积s1、平均长度len1和平均宽度wd1;
在特征图P2的每个像素点上设置一种基准的正方形边框,对应感受野边长大小为s0的开方值sq0;在特征图P2的每个像素点上设置一种长方形边框,对应感受野长和宽分别为len0和wd0;在特征图P2的每个像素点上设置另一种长方形边框,对应感受野长和宽分别为wd0和len0;
在特征图P3的每个像素点上设置一种基准的正方形边框,对应感受野边长大小为s的开方值sq;在特征图P3的每个像素点上设置一种长方形边框,对应感受野长和宽分别为len和wd;在特征图P3的每个像素点上设置另一种长方形边框,对应感受野长和宽分别为wd和len;
在特征图P4的每个像素点上设置一种基准的正方形边框,对应感受野边长大小为s1的开方值sq1;在特征图P4的每个像素点上设置一种长方形边框,对应感受野长和宽分别为len1和wd1;在特征图P4的每个像素点上设置另一种长方形边框,对应感受野长和宽分别为wd1和len1;
在特征图P5的每个像素点上设置九种正方形边框,对应感受野边长大小分别为sq0、0.5sq0、2sq0、sq、0.5sq、2sq0、sq1、0.5sq1、2sq1。
4.根据权利要求1所述的针对密集区域的两阶段遥感图像目标检测方法,其特征在于:所述步骤(d)中,对特征金字塔中的特征图进行区域划分,具体方法为:将特征图P2划分为五个正方形区域,分别为包含左上角的左上正方形区域、包含左下角的左下正方形区域、包含右上角的右上正方形区域、包含右下角的右下正方形区域、包含中点的中间正方形区域,五个正方形区域的边长为特征图P2边长的3/5;分别在五个正方形区域上统计初步预测前景边框数量,找出包含初步预测前景边框数量最多的正方形区域,并通过感受野映射到原始图像的对应区域上。
5.根据权利要求1所述的针对密集区域的两阶段遥感图像目标检测方法,其特征在于:所述步骤(f)中,对预选边框所在的特征区域进行池化,即将预选边框所在的特征区域分成3×3个格子,每个格子通过双线性内插的方法得到每个格子虚点的值,即每个格子的中心点的值,3×3个格子的中心点组合在一起即为统一目标特征。
6.根据权利要求1所述的针对密集区域的两阶段遥感图像目标检测方法,其特征在于:所有卷积层均使用批归一化方法进行归一化操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010030047.8A CN111259758B (zh) | 2020-01-13 | 2020-01-13 | 一种针对密集区域的两阶段遥感图像目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010030047.8A CN111259758B (zh) | 2020-01-13 | 2020-01-13 | 一种针对密集区域的两阶段遥感图像目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111259758A true CN111259758A (zh) | 2020-06-09 |
CN111259758B CN111259758B (zh) | 2023-04-07 |
Family
ID=70950441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010030047.8A Active CN111259758B (zh) | 2020-01-13 | 2020-01-13 | 一种针对密集区域的两阶段遥感图像目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111259758B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111738231A (zh) * | 2020-08-06 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 目标对象检测方法、装置、计算机设备和存储介质 |
CN111860236A (zh) * | 2020-07-06 | 2020-10-30 | 中国科学院空天信息创新研究院 | 一种基于迁移学习的小样本遥感目标检测方法及系统 |
CN111860398A (zh) * | 2020-07-28 | 2020-10-30 | 河北师范大学 | 遥感图像目标检测方法、系统及终端设备 |
CN112053342A (zh) * | 2020-09-02 | 2020-12-08 | 陈燕铭 | 基于人工智能的脑垂体磁共振图像的提取识别方法和装置 |
CN112199984A (zh) * | 2020-07-10 | 2021-01-08 | 北京理工大学 | 一种大尺度遥感图像的目标快速检测方法 |
CN112330540A (zh) * | 2020-11-08 | 2021-02-05 | 哈尔滨理工大学 | 一种基于多尺度优化的图像超分辨率方法 |
CN112418106A (zh) * | 2020-11-25 | 2021-02-26 | 北京航空航天大学 | 一种基于密集关键点引导的舰船检测方法 |
CN112800955A (zh) * | 2021-01-27 | 2021-05-14 | 中国人民解放军战略支援部队信息工程大学 | 基于加权双向特征金字塔的遥感影像旋转目标检测方法及系统 |
CN113033644A (zh) * | 2021-03-18 | 2021-06-25 | 中国科学院大学 | 一种基于凸包特征自适应的旋转密集目标检测方法 |
CN113223026A (zh) * | 2021-04-14 | 2021-08-06 | 山东师范大学 | 基于轮廓的目标果实图像实例分割方法及系统 |
CN113536986A (zh) * | 2021-06-29 | 2021-10-22 | 南京逸智网络空间技术创新研究院有限公司 | 一种基于代表特征的遥感图像中的密集目标检测方法 |
CN113743521A (zh) * | 2021-09-10 | 2021-12-03 | 中国科学院软件研究所 | 一种基于多尺度上下文感知的目标检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960143A (zh) * | 2018-07-04 | 2018-12-07 | 北京航空航天大学 | 一种高分辨率可见光遥感图像中的舰船检测深度学习方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN109522966A (zh) * | 2018-11-28 | 2019-03-26 | 中山大学 | 一种基于密集连接卷积神经网络的目标检测方法 |
CN109685067A (zh) * | 2018-12-26 | 2019-04-26 | 江西理工大学 | 一种基于区域和深度残差网络的图像语义分割方法 |
CN109740460A (zh) * | 2018-12-21 | 2019-05-10 | 武汉大学 | 基于深度残差密集网络的光学遥感图像舰船检测方法 |
-
2020
- 2020-01-13 CN CN202010030047.8A patent/CN111259758B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960143A (zh) * | 2018-07-04 | 2018-12-07 | 北京航空航天大学 | 一种高分辨率可见光遥感图像中的舰船检测深度学习方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN109522966A (zh) * | 2018-11-28 | 2019-03-26 | 中山大学 | 一种基于密集连接卷积神经网络的目标检测方法 |
CN109740460A (zh) * | 2018-12-21 | 2019-05-10 | 武汉大学 | 基于深度残差密集网络的光学遥感图像舰船检测方法 |
CN109685067A (zh) * | 2018-12-26 | 2019-04-26 | 江西理工大学 | 一种基于区域和深度残差网络的图像语义分割方法 |
Non-Patent Citations (1)
Title |
---|
杜泽星 等: "基于密集连接网络的遥感图像检测方法", 《激光与光电子学进展》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860236B (zh) * | 2020-07-06 | 2021-12-03 | 中国科学院空天信息创新研究院 | 一种基于迁移学习的小样本遥感目标检测方法及系统 |
CN111860236A (zh) * | 2020-07-06 | 2020-10-30 | 中国科学院空天信息创新研究院 | 一种基于迁移学习的小样本遥感目标检测方法及系统 |
CN112199984A (zh) * | 2020-07-10 | 2021-01-08 | 北京理工大学 | 一种大尺度遥感图像的目标快速检测方法 |
CN111860398A (zh) * | 2020-07-28 | 2020-10-30 | 河北师范大学 | 遥感图像目标检测方法、系统及终端设备 |
CN111860398B (zh) * | 2020-07-28 | 2022-05-10 | 河北师范大学 | 遥感图像目标检测方法、系统及终端设备 |
CN111738231A (zh) * | 2020-08-06 | 2020-10-02 | 腾讯科技(深圳)有限公司 | 目标对象检测方法、装置、计算机设备和存储介质 |
CN112053342A (zh) * | 2020-09-02 | 2020-12-08 | 陈燕铭 | 基于人工智能的脑垂体磁共振图像的提取识别方法和装置 |
CN112330540A (zh) * | 2020-11-08 | 2021-02-05 | 哈尔滨理工大学 | 一种基于多尺度优化的图像超分辨率方法 |
CN112418106A (zh) * | 2020-11-25 | 2021-02-26 | 北京航空航天大学 | 一种基于密集关键点引导的舰船检测方法 |
CN112418106B (zh) * | 2020-11-25 | 2022-08-30 | 北京航空航天大学 | 一种基于密集关键点引导的舰船检测方法 |
CN112800955A (zh) * | 2021-01-27 | 2021-05-14 | 中国人民解放军战略支援部队信息工程大学 | 基于加权双向特征金字塔的遥感影像旋转目标检测方法及系统 |
CN113033644A (zh) * | 2021-03-18 | 2021-06-25 | 中国科学院大学 | 一种基于凸包特征自适应的旋转密集目标检测方法 |
CN113033644B (zh) * | 2021-03-18 | 2021-12-07 | 中国科学院大学 | 一种基于凸包特征自适应的旋转密集目标检测方法 |
CN113223026A (zh) * | 2021-04-14 | 2021-08-06 | 山东师范大学 | 基于轮廓的目标果实图像实例分割方法及系统 |
CN113536986A (zh) * | 2021-06-29 | 2021-10-22 | 南京逸智网络空间技术创新研究院有限公司 | 一种基于代表特征的遥感图像中的密集目标检测方法 |
WO2023273337A1 (zh) * | 2021-06-29 | 2023-01-05 | 南京逸智网络空间技术创新研究院有限公司 | 一种基于代表特征的遥感图像中的密集目标检测方法 |
CN113536986B (zh) * | 2021-06-29 | 2024-06-14 | 南京逸智网络空间技术创新研究院有限公司 | 一种基于代表特征的遥感图像中的密集目标检测方法 |
CN113743521A (zh) * | 2021-09-10 | 2021-12-03 | 中国科学院软件研究所 | 一种基于多尺度上下文感知的目标检测方法 |
CN113743521B (zh) * | 2021-09-10 | 2023-06-27 | 中国科学院软件研究所 | 一种基于多尺度上下文感知的目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111259758B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259758B (zh) | 一种针对密集区域的两阶段遥感图像目标检测方法 | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN110378381B (zh) | 物体检测方法、装置和计算机存储介质 | |
CN112330601B (zh) | 一种基于鱼眼相机的停车检测方法、装置、设备及介质 | |
CN112288008B (zh) | 一种基于深度学习的马赛克多光谱图像伪装目标检测方法 | |
CN110969670B (zh) | 基于显著特征的多光谱相机动态立体标定方法 | |
CN112766188B (zh) | 一种基于改进yolo算法的小目标行人检测方法 | |
CN110659664B (zh) | 一种基于ssd的高精度识别小物体的方法 | |
CN114359851A (zh) | 无人驾驶目标检测方法、装置、设备及介质 | |
CN112949633B (zh) | 一种基于改进YOLOv3的红外目标检测方法 | |
CN111242026B (zh) | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 | |
CN111523439B (zh) | 一种基于深度学习的目标检测的方法、系统、设备及介质 | |
CN111768415A (zh) | 一种无量化池化的图像实例分割方法 | |
CN112364865B (zh) | 一种复杂场景中运动小目标的检测方法 | |
CN115631344B (zh) | 一种基于特征自适应聚合的目标检测方法 | |
CN116188999B (zh) | 一种基于可见光和红外图像数据融合的小目标检测方法 | |
CN112990136B (zh) | 一种目标检测方法及装置 | |
WO2023065665A1 (zh) | 图像处理方法、装置、设备、存储介质及计算机程序产品 | |
CN113191204B (zh) | 一种多尺度遮挡行人检测方法及系统 | |
CN111127516A (zh) | 无搜索框的目标检测和跟踪方法及系统 | |
CN113901972A (zh) | 遥感图像建筑物的检测方法、装置、设备及存储介质 | |
CN112396053A (zh) | 一种基于级联神经网络的环视鱼眼图像目标检测方法 | |
CN117237740B (zh) | 一种基于CNN和Transformer的SAR图像分类方法 | |
CN114332796A (zh) | 一种多传感器融合体素特征图生成方法及系统 | |
CN112132753A (zh) | 多尺度结构引导图像的红外图像超分辨率方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |