CN109711288B - 基于特征金字塔和距离约束fcn的遥感船舶检测方法 - Google Patents

基于特征金字塔和距离约束fcn的遥感船舶检测方法 Download PDF

Info

Publication number
CN109711288B
CN109711288B CN201811524239.3A CN201811524239A CN109711288B CN 109711288 B CN109711288 B CN 109711288B CN 201811524239 A CN201811524239 A CN 201811524239A CN 109711288 B CN109711288 B CN 109711288B
Authority
CN
China
Prior art keywords
pixel
remote sensing
ship
network
bounding box
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811524239.3A
Other languages
English (en)
Other versions
CN109711288A (zh
Inventor
张向荣
焦李成
侯伟宁
唐旭
朱鹏
周挥宇
马文萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201811524239.3A priority Critical patent/CN109711288B/zh
Publication of CN109711288A publication Critical patent/CN109711288A/zh
Application granted granted Critical
Publication of CN109711288B publication Critical patent/CN109711288B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提出一种基于特征金字塔结构全卷积神经网络的遥感船舶检测方法,主要解决现有技术存在水平轮廓包围框互相重叠、覆盖及检出率低的问题。其实现方案为:1.在现有遥感数据集中选取样本图片并裁剪,划分为训练样本和测试样本;2.使用由带像素距离边框最小值约束的类别损失函数和形状损失函数构成的整体损失函数,训练全卷积神经网络;3.将测试样本输入训练好的全卷积网络,输出为各像素点的特征矩阵,并进行坐标变换获得轮廓包围框的坐标;4.对各像素轮廓包围框进行筛选、合并,得到检测结果图及坐标文件。本发明能对遥感船舶图像生成带有角度的轮廓边界框,检出率高,边界准确,可用于从光学传感器拍摄的遥感图像中提取船舶目标。

Description

基于特征金字塔和距离约束FCN的遥感船舶检测方法
技术领域
本发明属于图像处理技术领域,涉及一种遥感船舶检测方法,可用于从光学传感器拍摄的遥感图像中提取船舶目标。
背景技术
遥感图像中的船舶检测,旨在取代繁琐的人工作业,利用深度学习方法,得到相较于传统平行轮廓包围框更为精确的船舶检测结果图。目前的船舶提取方法大致可以分为三类。第一类是基于知识的船舶提取方法,例如:阈值法、模版匹配法;第二类是基于传统机器学习的方法,例如:聚类、支撑矢量机、贝叶斯分类等;这两大类方法船舶提取效果不够理想,总体精度较低。目前更多研究人员致力于基于深度学习学习的船舶检测方法,例如:Faster R-CNN、YOLO等,这些方法利用一些有标记的训练样本,能够在平行轮廓包围框上取得很好的结果,但是对于密集场景,如对船舶的遥感图像来说,平行轮廓包围框的提取会造成较多区域覆盖、重叠,需要更精确的轮廓包围框进行遥感图像中的船舶目标。
特征金字塔结构,是利用卷积神经网络各卷积层特征信息的结构,因其包含有自上而下阶段和自下而上阶段两个部分,相较于一般卷积神经网络只对同一个尺寸的图片进行训练,特征金字塔结构对卷积神经网络各层级获得的特征图进行连接,在基本不增加原有模型计算量情况下,提升了小型目标的检测性能。
FCN(Fully Convolutional Networks)即全卷积神经网络,是一种用于语义分割的深度神经网络,相较于一般的卷积神经网络网络,全卷积神经网络用卷积层取代了全连接层,用特征金字塔结构,使得特征图恢复原始输入图片的分辨率大小,来满足逐像素标注的需求。这种网络的优势在于,输入图像经过一个训练好的全卷积神经网络,可以获取一个端对端的语义分割结果,且分割结果具有很高的准确率。
全卷积神经网络用于遥感图像的船舶目标提取,是一种基于深度学习的目标检测方法,相较于其他深度学习的目标检测方法,全卷积神经网络有其特有的良好特性。全卷积神经网络能够提取遥感图像中具有判别性的特征,并利用这些特征得到准确的目标检测结果。目前,已有学者将全卷积神经网络模型以及其针对损失函数的改进模型,用于遥感目标检测。
例如,Zikun Liu等人在其发表的论文“A High Resolution Optical SatelliteImage Dataset for Ship Recognition and Some New Baselines”(PatternRecognition Application and Methods,2017年)中提出了一种基于卷积神经网络的目标检测方法。该方法的步骤是:首先,建立一个用于目标提取的卷积神经网络;其次,对该网络设置损失函数;最后,将遥感图像划分为训练集和测试集,用训练集来训练卷积神经网络,并将训练好的网络,用于船舶检测。虽然这个方法利用了卷积神经网络的优良特性,能够提取判别性特征,并将这些特征船舶提取结果,但是,在用该模型进行船舶提取的时候,存在一定的不足之处:首先,该方法用于船舶提取时,没有考虑到遥感图像中船舶尺度的不平衡分布;其次,利用该卷积神经网络进行船舶提取的时候,不能考虑到密集场景下平行轮廓框的互相覆盖、重叠;以上两点在很大程度上影响了船舶检测的效果,船舶轮廓包围框提取效果差,船舶提取结果查全率低。
申请公布号为CN201610382461.9,名称为“一种多分辨层次化筛选的遥感图像港口船舶检测方法”的专利申请,提出了一种基于Harris角点描述子的船舶目标检测方法。该方法的实现方案是:首先,将大尺寸图像抽样后的图像分别执行突异与多角度旋转突异检测,判断两种方法得到的疑似船舶面积,并将判断结果进行区域拓展,得到港口区域的疑似显著区;之后,取得原分辨率图像中的疑似显著区域,再对原分辨率下的疑似显著区分别进行突异和多角度旋转突异检测,使用Harris角点描述子方法检测两种检测方法得到的疑似船舶的船头特征,将检测得到的船舶坐标返回到原高分辨率图像中进行标记,最终得到原高分辨率图像中的船舶标记。该方法虽说解决了针对遥感图像中船舶类别的检测识别问题,提高了船舶提取的精确率,但是由于其方法很大程度依赖于特征描述子的选取,而特征描述子属于粗糙分类方法,不能普适于多种类型的图片场景,准确率和鲁棒性较差,且对于密集船舶目标,会导致多个目标间的确定区域发生连通,影响检测效果。
申请公布号为CN201810128120.8,名称为“一种基于轻量级深度神经网络的船舶目标检测方法”的专利申请,提出了一种基于深度神经网络的船舶目标检测方法。该方法的实现方案:首先计算训练得到船舶目标检测的轻量级深度神经网络模型;其次,制作两个数据集分别用于分类网络和训练,第二数据集用于检测网络训练,对所有获取的船舶目标图像进行标注,获得相应船舶目标在图中的坐标位置信息以及分类信息;之后,根据第一数据集,利用深度卷积神经网络模型来进行船舶目标基础分类模型训练和剪枝,得到轻量化分类网络模型;最后,将上步中得到的船舶目标分类模型,移植到Faster R-CNN(一类主流的目标检测模型)的特征提取模块中,再次进行训练,得到用于船舶目标检测的深度神经网络模型。该方法使用目前主流目标检测模型及参数,通过使用船舶数据集对分类模块参数进行微调,获得船舶目标检测的神经网络模型。该方法由于其基于的主流目标检测模型的框架只能生成水平方向的轮廓包围框,且对于密集、重叠船舶目标,生成的水平轮廓包围框在进行非极大化抑制时会互相干扰,查全率和准确率较差。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于特征金字塔结构的全卷积网络的遥感船舶检测方法,以通过获取带有角度信息的轮廓包围框,提高遥感船舶检测结果的查全率和定位的准确率,增强鲁棒性。
为实现上述目的,本发明采取的技术方案包括如下:
(1)从现有遥感数据库中获取图像及类标文件,并对其进行划分构建训练样本集和测试样本集;
(2)将用于特征提取的残差网络1至5级残差块的输出层,按照特征金字塔结构的连接方式,与包含有上采样层、特征拼接层、卷积层的四个全卷积模块分别连接,构成全卷积网络;
(3)设定全卷积神经网络的损失函数Lloss
(3a)定义船舶类别判断损失函数Ls
Figure GDA0002739881810000031
其中,
Figure GDA0002739881810000032
代表预测结果的集合,Y代表真实结果的集合,
Figure GDA0002739881810000033
Ym代表集合中单个像素预测结果和其对应的真实结果,n代表Y中元素的个数,dmin为像素点距离上、下、左、右边框距离中的最小值,β为正负样本的平衡系数:
Figure GDA0002739881810000034
(3b)定义几何形状损失函数Lg:
Figure GDA0002739881810000035
其中,
Figure GDA0002739881810000041
为预测面积,
Figure GDA0002739881810000042
分别为像素点距离上、下、左、右四边的预测距离;R=(d3+d4)×(d1+d2)为真实面积,d1、d2、d3、 d4为像素点距离上、下、左、右四边的真实距离;
Figure GDA0002739881810000043
Figure GDA0002739881810000044
和 R重叠部分的宽;
Figure GDA0002739881810000045
Figure GDA0002739881810000046
和R重叠部分的高;
Figure GDA0002739881810000047
Figure GDA0002739881810000048
λθ为实验选取的权重系数,
Figure GDA0002739881810000049
为预测角度,θ为实际角度;
(3c)根据(2a)和(2b)得到全卷积神经网络的整体损失函数Lloss
Lloss=LsgLg
其中,λg代表多次实验后测得的权重系数;
(4)通过梯度下降法对损失函数Lloss进行优化,得到训练好的全卷积神经网络参数;
(5)将测试样本集中的测试样本图片依次输入到训练好的全卷积神经网络中,得到对应的多通道特征矩阵:If=[S,AABB,∠],该特征矩阵分别包括单通道像素类别判断信息S,四通道像素距离边框四边的距离信息AABB以及单通道角度信息∠;
(6)设置像素类别判断信息的过滤阈值,对特征矩阵进行挑选,当特征点像素类别判断信息超过该阈值时,保留该点的特征矩阵,该特征矩阵含有距离信息和角度信息;当像素类别判断信息低于该阈值时,则舍弃;
(7)将通过(5)保留的像素类别判断信息S及每像素点的距离信息和角度信息,通过数值计算的方法,获得对应像素点的轮廓包围框,表示为:
W=[x1,y1,x2,y2,∠]
其中x1、y1为轮廓包围框左上点坐标,x2、y2为轮廓包围框右下点坐标,∠为角度信息。
(8)采用改进的添加合并权重的非极大值抑制方法,对(5)中保留的特征矩阵中像素获得的轮廓包围框进行两两合并,得到船舶检测目标。
本发明与现有技术相比,具有以下优点:
第一,本发明在做船舶提取的时候,运用全卷积神经网络对输入的遥感图像进行船舶检测,克服了传统目标检测方法对于遥感图像中密集、小目标检出效果差的问题,与现有技术相比,提高了船舶检测的查全率。
第二,本发明为了增强轮廓包围框的精确度,使用了带点距离边框距离的交叉熵损失函数进行学习,使得轮廓框中心的损失相对降低,轮廓框边缘的损失相对提高,提高了包围框边缘的精度。
第三,本发明针对现有船舶检测方法得到的水平轮廓包围框存在互相重叠,定位不准确的问题,提供了有角度信息的旋转轮廓包围框的解决方案,相比于现有方法,对简单或复杂场景的遥感图像,均具有良好的性能,船舶检测结果不受复杂训练样本的制约,提高了船舶检测的鲁棒性。
第四,本发明使用带有合并权重的非极大值抑制方案,相比现有方案直接取类别判断信息最高的轮廓包围框进行合并的方式,可以利用轮廓包围框的坐标信息,减少了位置误差。
附图说明
图1为本发明的实现流程图;
图2为本发明中使用的特征金字塔结构的全卷积网络示意图;
图3为用本发明对测试数据集裁剪后的一张测试样本图片;
图4为用本发明和现有技术在复杂场景下对图3进行船舶检测的仿真对比图。
具体实施方式
以下结合附图和具体实施例,对本发明作进一步详细说明。
参照图1、本实例的实现步骤如下:
步骤1,对输入的遥感图像进行划分,构建训练样本集和测试样本集。
获取数量为M、大小为N×N的光学遥感图像以及与光学遥感图像对应的类标文件,将这些光学遥感图像和类标文件作为样本集,其中N=1024,M≥200;
现有遥感图像数据库中,遥感图像图幅大多是N×N的正方形图像,全卷积神经网络在进行特征提取的时候,会多次对输入图像进行下采样,因此输入图像的大小有下限要求,通常的遥感图像大小在500×500至2000×2000之间,因此需要对现有数据集进行有重叠的裁剪满足需求。
在本实施例中,选取434张大小为8000×8000左右的遥感图像作为样本集,将图像样本集中326张作为训练原图,其余108张作为测试原图;裁剪后样本集中共有 37028张样本图片,其中28068张训练样本,8960张测试样本。
步骤2,按照特征金字塔结构进行全卷积神经网络的构建。
如图2所示,利用现有残差网络ResNet-50作为特征金字塔自底向上的特征提取部分,将其1-5级残差块的输出层,与自上向下的包含有上采样层、特征拼接层和卷积层的4个全卷积模块进行连接,其中第5级残差块的输出层直接与第一个全卷积模块的上采样层连接,其余残差块的输出层与对应全卷积模块的特征拼接层连接,得到特征金字塔结构的全卷积网络。
步骤3,设定全卷积神经网络的损失函数。
3.1)设船舶类别损失函数Ls
本实例船舶类别损失函数为带像素点到边框最小距离的交叉熵损失函数Ls
Figure GDA0002739881810000061
其中,
Figure GDA0002739881810000062
代表预测结果的集合,Y代表真实结果的集合,
Figure GDA0002739881810000063
Ym代表集合中单个像素预测结果和其对应的真实结果,n代表Y中元素的个数,dmin为像素点距离上、下、左、右边框距离中的最小值,β为正负样本的平衡系数:
Figure GDA0002739881810000064
3.2)设几何形状损失函数Lg
本实例设几何形状损失函数由包含交并比损失函数
Figure GDA0002739881810000065
和角度损失
Figure GDA0002739881810000066
两部分组成的Lg
Figure GDA0002739881810000067
其中,
Figure GDA0002739881810000068
为预测面积,
Figure GDA0002739881810000069
分别为像素点距离上、下、左、右四边的预测距离;R=(d3+d4)×(d1+d2)为真实面积,d1、d2、d3、 d4为像素点距离上、下、左、右四边的真实距离;
Figure GDA00027398818100000610
Figure GDA00027398818100000611
和 R重叠部分的宽;
Figure GDA00027398818100000612
Figure GDA00027398818100000613
和R重叠部分的高;
Figure GDA00027398818100000614
Figure GDA00027398818100000615
λθ为实验选取的权重系数,
Figure GDA00027398818100000616
为预测角度,θ为实际角度;
3.3)将包括船舶类别判断损失Ls、实验测得的权重系数λg和几何形状损失Lg的函数Lloss设定为整体损失函数:
Lloss=LsgLg
步骤4对全卷积神经网络进行训练。
采用梯度下降法,通过训练样本和全卷积神经网络的损失函数,对图2所示全卷积神经网络进行训练,得到训练好的全卷积神经网络。
本实例用于船舶提取的全卷积神经网络,是在现有的残差网络的基础上,通过输出其中四个残差块的池化层特征,残差网络后依次连接四个上采样部分,包含上采样层、特征拼接层和卷积层,之后将以上输出的结果,通过一个1×1卷积层,得到为原图大小1/4大小的输出结果;在网络的训练过程中,预先加载ResNet-50的网络参数,在网络参数的基础上,进行微调,将学习率设置为10-5,批量大小设置为32,采用ADAM优化器,训练10000代后网络收敛,得到训练好的全卷积神经网络。
步骤5获取测试样本的特征矩阵并进行筛选。
将测试样本输入到步骤3训练好的全卷积网络中,通过网络前向运算,获得对应 6通道的特征矩阵If=[S,AABB,∠],其中S为单通道像素类别判断信息,AABB为四通道像素到边框四边的距离信息,∠为单通道角度信息;
之后,设置过滤阈值k=0.9,将单通道像素类别判断信息S与k进行比较:
若S≥k,则保留该像素的特征矩阵;
若S<k,则舍弃该像素的特征矩阵。
步骤6使用科学计算库进行轮廓包围框坐标的计算。
因为步骤4中所得的是像素点到上、下、左、右轮廓包围框的距离和轮廓包围框的旋转角度信息,需要得到轮廓包围框的左上点及右下点的坐标信息。因此使用现有的numpy科学计算库,输入像素坐标、像素距离边框四边的距离信息以及轮廓包围框的角度信息,即可使用numpy库中已有的坐标变换函数,获得像素对应的左上点 x1,y1与右下点坐标x2,y2
步骤7使用带有合并权重的非极大值抑制算法进行轮廓包围框的合并。
与其他深度学习目标检测算法相似,经阈值化后的网络输出结果是大量轮廓包围框,需要经过非极大值抑制来得到最终的结果。由于本发明中逐像素获得的是大量轮廓包围框,使用标准非极大值抑制,其计算复杂度大,且没有利用到像素特征矩阵里的坐标信息。故在标准非极大值抑制的基础上使用包围轮廓框的面积R作为权重合并,其具体实现如下:
对所有类别判断信息S按降序排序,按序列从前到后对轮廓包围框进行两两遍历合并:每次遍历当前轮廓包围框与其他剩余轮廓包围框,两个待合并的轮廓包围框 Wa=[x1a,y1a,x2a,y2a,∠a]和Wb=[x1b,y1b,x2b,y2b,∠b],对通过轮廓包围框坐标信息所得的包围轮廓框面积Ra、Rb及两包围轮廓框相交面积Ri进行比较,获得合并指标H:
Figure GDA0002739881810000081
使用合并指标H和设定阈值γ进行比较,当合并指标H大于γ时,将Wb所代表的轮廓包围框滤除。
步骤8,利用步骤4训练好的全卷积神经网络对测试样本进行船舶提取,获得带轮廓包围框的结果图和该图上所有包围框对应的坐标文件。
在本发明实施例中,将待进行船舶提取的测试样本,输入到训练好的全卷积神经网络中,通过全卷积神经网络进行一次前向运算;
利用步骤6获得所有输出框的左上点和右下点的坐标,使用这些坐标在测试图片上绘制封闭的、带有旋转角度的矩形轮廓包围框,得到1024×1024大小的船舶结果图,船舶结果图中的复数轮廓包围框之内为船舶目标,轮廓包围框之外为背景;
将船舶结果图中所有轮廓包围框的坐标保存,作为该测试图片的坐标文件。
以下结合仿真试验,对本发明的技术效果作进一步说明:
1.仿真条件
实验数据采用武汉大学公布的DOTA数据集的部分图片。该数据集包含训练集和验证集总共434幅大小为8000×8000、对包括谷歌地球、高分系列卫星的多种传感器平台船舶遥感图像,对数据集图片经过有重叠的裁剪后,获得37028张大小为1024× 1024,其中每张样本图片中包含不同数量的船舶目标,如图3所示;
仿真平台为:CPU为主频3.30GHz的Intel Xeon E3-1230 v3,内存容量为64.0GB,GPU为GTX1080ti,ubuntu16.04操作系统,tensorflow深度学习平台,Matlab 2016a开发平台。
2.仿真内容
利用现有Faster R-CNN目标检测神经网络方法和本发明方法对图3进行船舶检测,结果如图4,其中图4(a)为现有技术仿真结果图,图4(b)为本发明仿真结果图。
从图4(a)可以看出,大量船舶样本未能检出,被检出的船舶轮廓包围框也有部分重叠。从图4(b)可以看出,本方法得到的轮廓包围框重叠、覆盖区域明显减少,船舶检出性能得到明显改善,即在轮廓包围框所示区域能检出更多的船舶样本。
仿真结果表明,本发明相较于现有技术,整体查全率有较大提升,网络模型具有较高的鲁棒性。

Claims (5)

1.一种基于特征金字塔结构全卷积网络的遥感船舶检测方法,其特征在于,包括如下:
(1)从现有遥感数据库中获取图像及类标文件,并对其进行划分构建训练样本集和测试样本集;
(2)将用于特征提取的残差网络1至5级残差块的输出层,按照特征金字塔结构的连接方式,与包含有上采样层、特征拼接层、卷积层的四个全卷积模块分别连接,构成全卷积网络;
(3)设定全卷积神经网络的损失函数Lloss
(3a)定义船舶类别判断损失函数Ls
Figure FDA0002739881800000011
其中,
Figure FDA0002739881800000012
代表预测结果的集合,Y代表真实结果的集合,
Figure FDA0002739881800000013
Ym代表集合中单个像素预测结果和其对应的真实结果,n代表Y中元素的个数,dmin为像素点距离上、下、左、右边框距离中的最小值,β为正负样本的平衡系数:
Figure FDA0002739881800000014
(3b)定义几何形状损失函数Lg:
Figure FDA0002739881800000015
其中,
Figure FDA0002739881800000016
为预测面积,
Figure FDA0002739881800000017
分别为像素点距离上、下、左、右四边的预测距离;R=(d3+d4)×(d1+d2)为真实面积,d1、d2、d3、d4为像素点距离上、下、左、右四边的真实距离;
Figure FDA0002739881800000018
Figure FDA0002739881800000019
和R重叠部分的宽;
Figure FDA00027398818000000110
Figure FDA00027398818000000111
和R重叠部分的高;
Figure FDA00027398818000000112
λθ为实验选取的权重系数,
Figure FDA00027398818000000113
为预测角度,θ为实际角度;
(3c)根据(2a)和(2b)得到全卷积神经网络的整体损失函数Lloss
Lloss=LsgLg
其中,λg代表多次实验后测得的权重系数;
(4)通过梯度下降法对损失函数Lloss进行优化,得到训练好的全卷积神经网络参数;
(5)将测试样本集中的测试样本图片依次输入到训练好的全卷积神经网络中,得到对应的多通道特征矩阵:If=[S,AABB,∠],该特征矩阵分别包括单通道像素类别判断信息S,四通道像素距离边框四边的距离信息AABB以及单通道角度信息∠;
(6)设置像素类别判断信息的过滤阈值,对特征矩阵进行挑选,当特征点像素类别判断信息超过该阈值时,保留该点的特征矩阵,该特征矩阵含有距离信息和角度信息;当像素类别判断信息低于该阈值时,则舍弃;
(7)将像素类别判断信息S及每像素点的距离信息和角度信息,通过数值计算的方法,获得对应像素点的轮廓包围框,表示为:
W=[x1,y1,x2,y2,∠]
其中x1、y1为轮廓包围框左上点坐标,x2、y2为轮廓包围框右下点坐标,∠为角度信息;
(8)采用改进的添加合并权重的非极大值抑制方法,对(5)中保留的特征矩阵中像素获得的轮廓包围框进行两两合并,得到船舶检测目标。
2.根据权利要求1所述的方法,其中(1)中对获取图像及类标文件进行划分构建训练样本集和测试样本集,是先从遥感数据库中图像及类标文件中,获取数量为434张、大小为8000×8000的光学遥感图像以及与光学遥感图像对应的类标文件;再对选取的图像进行有重叠的切割,获得37028张样本图片和其对应的类标文件,作为图像样本集;然后将图像样本集中的70%图像作为训练样本集,30%作为测试样本集。
3.根据权利要求1所述的方法,其中(4)中通过梯度下降法对全卷积网络的损失函数Lloss进行优化,其实现如下:
(4b)在特征提取部分加载现有的ResNet-v1-50的网络参数;
(4c)使用(1)中描述的训练样本集对整体全卷积网络进行微调,将学习率设为10-5,批量大小设置为32,使用ADAM梯度下降优化器;经过10000代训练后网络收敛,获得全卷积神经网络的网络参数。
4.根据权利要求1所述的方法,其中(7)中通过数值计算的方法,获得对应像素点的轮廓包围框,是使用现有numpy科学计算工具,通过输入像素坐标,像素点距离上、下、左、右四边的距离、预测的旋转角度,即可获得对应的轮廓包围框的左上点(x1,y1)和右下点(x2,y2)的坐标和旋转角度∠,表示为:
W=[x1,y1,x2,y2,∠]。
5.根据权利要求1所述的方法,其中(8)中通过采用改进的非极大值抑制方法,对所有类别判断信息S按降序排序,按序列从前到后对轮廓包围框进行两两遍历合并:每次遍历当前轮廓包围框与其他剩余轮廓包围框,是将两个待合并的轮廓包围框Wa=[x1a,y1a,x2a,y2a,∠a]和Wb=[x1b,y1b,x2b,y2b,∠b],对通过轮廓包围框坐标信息所得的包围轮廓框面积Ra、Rb及两包围轮廓框相交面积Ri进行比较,获得合并指标H:
Figure FDA0002739881800000031
使用合并指标H和设定阈值γ进行比较,当合并指标H大于γ时,将Wb所代表的轮廓包围框滤除。
CN201811524239.3A 2018-12-13 2018-12-13 基于特征金字塔和距离约束fcn的遥感船舶检测方法 Active CN109711288B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811524239.3A CN109711288B (zh) 2018-12-13 2018-12-13 基于特征金字塔和距离约束fcn的遥感船舶检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811524239.3A CN109711288B (zh) 2018-12-13 2018-12-13 基于特征金字塔和距离约束fcn的遥感船舶检测方法

Publications (2)

Publication Number Publication Date
CN109711288A CN109711288A (zh) 2019-05-03
CN109711288B true CN109711288B (zh) 2021-05-04

Family

ID=66255798

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811524239.3A Active CN109711288B (zh) 2018-12-13 2018-12-13 基于特征金字塔和距离约束fcn的遥感船舶检测方法

Country Status (1)

Country Link
CN (1) CN109711288B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097129B (zh) * 2019-05-05 2023-04-28 西安电子科技大学 基于轮廓波分组特征金字塔卷积的遥感目标检测方法
CN110110665B (zh) * 2019-05-08 2021-05-04 北京创源微致软件有限公司 一种驾驶环境下手部区域的检测方法
CN112287594B (zh) * 2019-07-11 2024-04-16 北京大学 一种用于纳米光子学器件的神经网络自学习系统及其运用
CN110532859B (zh) * 2019-07-18 2021-01-22 西安电子科技大学 基于深度进化剪枝卷积网的遥感图像目标检测方法
CN110555371A (zh) * 2019-07-19 2019-12-10 华瑞新智科技(北京)有限公司 一种基于无人机的野生动物信息获取方法和装置
CN110751077B (zh) * 2019-10-15 2022-07-05 武汉大学 一种基于部件匹配与距离约束的光学遥感图片船舶检测方法
CN111179262B (zh) * 2020-01-02 2024-09-06 国家电网有限公司 一种结合形状属性的电力巡检图像金具检测方法
CN111738295B (zh) * 2020-05-22 2024-03-22 南通大学 图像的分割方法及存储介质
CN111753677B (zh) * 2020-06-10 2023-10-31 杭州电子科技大学 基于特征金字塔结构的多角度遥感船舶图像目标检测方法
CN111882040B (zh) * 2020-07-30 2023-08-11 中原工学院 基于通道数量搜索的卷积神经网络压缩方法
CN111985376A (zh) * 2020-08-13 2020-11-24 湖北富瑞尔科技有限公司 一种基于深度学习的遥感影像舰船轮廓提取方法
CN112329765B (zh) * 2020-10-09 2024-05-24 中保车服科技服务股份有限公司 文本检测的方法及装置、存储介质及计算机设备
CN112528862B (zh) * 2020-12-10 2023-02-10 西安电子科技大学 基于改进的交叉熵损失函数的遥感图像目标检测方法
CN112560671B (zh) * 2020-12-15 2022-04-12 哈尔滨工程大学 基于旋转卷积神经网络的船舶检测方法
CN112529095B (zh) * 2020-12-22 2023-04-07 合肥市正茂科技有限公司 一种基于卷积区域重配准的单阶段目标检测方法
CN113657551B (zh) * 2021-09-01 2023-10-20 陕西工业职业技术学院 一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法
CN113688798A (zh) * 2021-09-29 2021-11-23 北京拙河科技有限公司 一种基于超高清图像的识别方法及装置
CN113971660B (zh) * 2021-09-30 2022-11-08 哈尔滨工业大学 桥梁健康诊断的计算机视觉方法和智能摄像系统
CN114687012A (zh) * 2022-02-25 2022-07-01 武汉智目智能技术合伙企业(有限合伙) 一种针对高含杂量原棉的高效异纤清除装置以及清除方法
CN114662315B (zh) * 2022-03-25 2024-10-18 北京大学 一种纳米光子学器件的设计和/或优化方法
CN114399719B (zh) * 2022-03-25 2022-06-17 合肥中科融道智能科技有限公司 一种变电站火灾视频监测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633527A (zh) * 2016-07-19 2018-01-26 北京图森未来科技有限公司 基于全卷积神经网络的目标追踪方法及装置
WO2018085425A1 (en) * 2016-11-01 2018-05-11 Snap Inc. Neural network for object detection in images
CN108460382A (zh) * 2018-03-26 2018-08-28 西安电子科技大学 基于深度学习单步检测器的光学遥感图像舰船检测方法
CN108681718A (zh) * 2018-05-20 2018-10-19 北京工业大学 一种无人机低空目标精准检测识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633527A (zh) * 2016-07-19 2018-01-26 北京图森未来科技有限公司 基于全卷积神经网络的目标追踪方法及装置
WO2018085425A1 (en) * 2016-11-01 2018-05-11 Snap Inc. Neural network for object detection in images
CN108460382A (zh) * 2018-03-26 2018-08-28 西安电子科技大学 基于深度学习单步检测器的光学遥感图像舰船检测方法
CN108681718A (zh) * 2018-05-20 2018-10-19 北京工业大学 一种无人机低空目标精准检测识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Automatic Ship Detection in Remote Sensing Images from Google Earth of Complex Scenes Based on Multiscale Rotation Dense Feature Pyramid Networks";Xue Y;《Remote Sensing》;20180118;第1-14页 *
"基于Faster R-CNN深度网络的遥感影像目标识别方法研究";王金传;《地球信息科学学报》;20181031;第1500-1508页 *

Also Published As

Publication number Publication date
CN109711288A (zh) 2019-05-03

Similar Documents

Publication Publication Date Title
CN109711288B (zh) 基于特征金字塔和距离约束fcn的遥感船舶检测方法
CN111027547B (zh) 一种针对二维图像中的多尺度多形态目标的自动检测方法
CN109829399B (zh) 一种基于深度学习的车载道路场景点云自动分类方法
CN109829893B (zh) 一种基于注意力机制的缺陷目标检测方法
CN108573276B (zh) 一种基于高分辨率遥感影像的变化检测方法
CN111062915B (zh) 一种基于改进YOLOv3模型的实时钢管缺陷检测方法
WO2019192397A1 (zh) 一种任意形状的场景文本端到端识别方法
CN110263717B (zh) 一种融入街景影像的土地利用类别确定方法
CN110163213B (zh) 基于视差图和多尺度深度网络模型的遥感图像分割方法
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN108596108B (zh) 基于三元组语义关系学习的航拍遥感图像变化检测方法
CN111047695B (zh) 一种城市群高度空间信息及等高线的提取方法
CN107481279A (zh) 一种单目视频深度图计算方法
CN113111727B (zh) 一种基于特征对齐的遥感场景下旋转目标检测方法
CN109977997A (zh) 基于卷积神经网络快速鲁棒的图像目标检测与分割方法
CN106295613A (zh) 一种无人机目标定位方法及系统
CN109284779A (zh) 基于深度全卷积网络的物体检测方法
CN112215217B (zh) 模拟医师阅片的数字图像识别方法及装置
CN109919145A (zh) 一种基于3d点云深度学习的矿卡检测方法及系统
CN109242968A (zh) 一种基于多属性超体素图割的河道三维建模方法
CN115019181B (zh) 遥感图像旋转目标检测方法、电子设备及存储介质
CN113901972A (zh) 遥感图像建筑物的检测方法、装置、设备及存储介质
CN117315146B (zh) 基于跨尺度多源数据的三维模型的重建方法及存储方法
CN108664970A (zh) 一种快速目标检测方法、电子设备、存储介质及系统
CN114842364A (zh) 一种露天矿山边坡图像裂隙参数提取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant