CN108830224B - 一种基于深度学习的高分辨率遥感影像舰船目标检测方法 - Google Patents

一种基于深度学习的高分辨率遥感影像舰船目标检测方法 Download PDF

Info

Publication number
CN108830224B
CN108830224B CN201810628290.2A CN201810628290A CN108830224B CN 108830224 B CN108830224 B CN 108830224B CN 201810628290 A CN201810628290 A CN 201810628290A CN 108830224 B CN108830224 B CN 108830224B
Authority
CN
China
Prior art keywords
ship
remote sensing
ship target
sensing image
resolution remote
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810628290.2A
Other languages
English (en)
Other versions
CN108830224A (zh
Inventor
姚剑
韩婧
李昊昂
涂静敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201810628290.2A priority Critical patent/CN108830224B/zh
Publication of CN108830224A publication Critical patent/CN108830224A/zh
Application granted granted Critical
Publication of CN108830224B publication Critical patent/CN108830224B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种基于深度学习的高分辨率遥感影像舰船目标检测方法,包括采集包含舰船目标的高分辨率遥感影像,使用能包围舰船目标的最小四边形对影像中的舰船进行人工标注;设置深度学习网络模型的结构,对具有不同语义性和分辨率的特征映射图进行连接,然后对特征映射图上的每个位置设置多个参考四边形,使用全连接层对参考四边形分类;训练网络模型,将待检测的高分辨率遥感影像输入到训练好的网络模型中,检测影像中的舰船区域,并构建包围舰船目标的最小四边形,从而指示舰船目标的精确位置。本发明相比传统舰船目标检测方法,能更有效地抵抗环境因素的干扰,更稳定、更精确地对高分辨率遥感影像中处于不同场景、具有不同尺寸和姿态的舰船进行检测。

Description

一种基于深度学习的高分辨率遥感影像舰船目标检测方法
技术领域
本发明属于高分辨率遥感影像舰船目标检测领域,具体涉及一种基于深度学习的高分辨率遥感影像舰船目标检测方法,能有效抵抗环境因素的干扰,稳定、精确地对高分辨率遥感影像中处于不同场景、具有不同尺寸和姿态的舰船进行检测。
背景技术
舰船目标检测技术主要指从影像中,利用合适的目标提取和识别方法,自动检测舰船目标的过程。高效、高精度地对舰船进行检测,在航线规划、军事目标侦察以及海洋环境监测等方面都具有重要意义,因此,舰船目标检测具有重要的研究价值。
随着众多高分辨率卫星的发射和遥感影像质量的提高,越来越多的国家和地区开始关注针对高分辨率遥感影像的舰船目标检测方法。基于高分辨率遥感影像的舰船目标检测技术主要利用卫星搭载的各类传感器,获取高分辨率遥感影像,然后对影像进行分析和特征提取,构建决策模型,进而检测影像中的舰船区域,并指示舰船在影像中的具体位置。
高分辨率遥感影像舰船目标检测方法主要分为以下两种:基于舰船固有特征的方法;基于通用特征描述算子的方法。基于舰船固有特征的方法主要根据舰船的固有特性,以舰船的轮廓、形态、灰度、纹理等属性作为描述舰船目标的特征,然后基于这些特征对影像中的舰船进行检测;基于通用特征描述子的方法主要使用图像处理领域的通用特征描述算子(SIFT、SURF、HOG、小波变换等)对舰船进行特征提取,然后基于提取的特征检测影像中的舰船目标。
无论是舰船固有特征还是基于通用特征描述算子提取的特征,这些特征都依赖于人工设计,是局部、低层的特征,其语义性弱、鲁棒性差,难以抵抗不同光照、天气、云层、海浪等环境因素给舰船目标检测任务带来的干扰,容易产生错检、漏检等现象。此外,现有的舰船目标检测算法通常只能对特定尺度范围内的舰船目标进行检测,而遥感影像中的舰船包含民用的游艇、货船和军用的军舰等,不同种类的舰船尺寸差异巨大,现有方法无法灵活地适应影像中舰船尺寸的变化。此外,现有的舰船检测算法通过构建水平的矩形包围盒来指示舰船目标的位置,而在实际场景中,舰船姿态多变,且在外形上呈现狭长的几何特性,水平的矩形包围盒无法精确指示舰船目标的实际位置。
发明内容
为了克服以上技术问题,本发明提出了一种基于深度学习的高分辨率遥感影像舰船目标检测方法。本发明使用深度学习方法,利用卷积神经网络提取影像的全局、高层特征,对具有不同语义性和分辨率的特征映射图进行连接,最终构建能精确指示舰船位置的四边形。本发明能有效抵抗环境因素的干扰,稳定、精确地对高分辨率遥感影像中处于不同场景、具有不同尺寸和姿态的舰船进行检测。
本发明提供了一种基于深度学习的高分辨率遥感影像舰船目标检测方法,包括以下步骤:
步骤1,采集包含舰船目标的高分辨率遥感影像,使用能包围舰船目标的最小四边形对影像中的舰船进行预先标注,将遥感影像和对应的标注信息打包作为舰船数据集;
步骤2,设置深度学习网络模型的结构,包括使用级联的卷积层和池化层提取输入影像的全局和高层特征,并对具有不同语义性和分辨率的特征映射图进行连接,对连接得到的特征映射图上的每个位置设置多个参考四边形,使用全连接层对参考四边形分类,保留被判定为舰船区域的参考四边形,然后使用另一个全连接层回归得到被保留的参考四边形与包围舰船目标的最小四边形之间的映射函数;
步骤3,基于训练样本集,对网络模型进行训练,包括使用交叉熵定义分类的损失函数,使用平滑的L1范数定义回归的损失函数,以分类损失函数与回归损失函数之和作为整体的损失函数,基于随机梯度下降算法迭代求解能最小化损失函数的网络参数,从而得到训练好的网络模型;
步骤4,将待检测的高分辨率遥感影像输入步骤3训练好的网络模型中,得到被分类为舰船区域的参考四边形及其对应的映射函数,根据参考四边形与映射函数,构建包围舰船目标的最小四边形。
而且,步骤1中,标注信息提取方式为,对于影像中的每个舰船,找到包围此舰船的最小四边形Gi,用Gi的中心点坐标
Figure BDA0001699689510000022
以及左上角点、右上角点、左下角点、右下角点关于中心点的相对坐标
Figure BDA0001699689510000021
Figure BDA0001699689510000031
表示该四边形。
而且,步骤2中,对连接得到的特征映射图上的每个位置设置9个参考四边形,包括对于每个位置i,设置以i为中心9个参考四边形,长宽比和倾斜角度为2、1、0.5三种长宽比和-45°、0°、45°三种角度的组合。
本发明与现有技术相比,具有以下三个优点:
(1)鲁棒性强,能有效抵抗环境因素的干扰;
本发明使用深度学习方法,利用卷积神经网络对高分辨率遥感影像中的舰船目标进行特征抽取,基于全局、高层特征对影像中的舰船目标进行检测,鲁棒性强,能有效抵抗环境因素给舰船目标检测任务带来的干扰。
(2)对舰船目标尺寸差异的适应性好;
本发明在设计网络模型的结构时,对不同层次的特征映射图进行了连接,融合了语义性强的高层特征和分辨率高的低层特征,加强了网络模型对舰船尺寸差异的适应性,能灵活有效地检测具有不同尺寸的舰船目标。
(3)检测结果的定位精确度高;
本发明构建了包围舰船目标的最小四边形,相较于现有方法所构建的水平矩形包围盒,本发明的检测结果能更精确地指示舰船目标的位置。
附图说明
图1为本发明实施例基于深度学习的高分辨率遥感影像舰船目标检测流程图。
图2为本发明实施例训练样本集的影像和标注信息示例图。
图3为本发明实施例四边形中心点以及各个角点关于中心点的相对坐标示意图。
图4为本发明实施例的网络模型结构图。
图5为本发明实施例的参考区域示意图,图5(a)为长宽比为2的参考四边形示意图,图5(b)为长宽比为1的参考四边形示意图,图5(c)为长宽比为0.5的参考四边形示意图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
本发明实施例提供了一种如图1所示的基于深度学习的高分辨率遥感影像舰船目标检测方法,包括以下步骤:
步骤1,采集包含舰船目标的高分辨率遥感影像,使用能包围舰船目标的最小四边形对影像中的舰船进行预先标注。将遥感影像和对应的标注信息打包作为舰船数据集。
训练样本集可以在需要检测之前预先构建。实施例以如图2所示的方法构建训练样本集,包括以下子步骤:
步骤1.1,以谷歌地球影像为数据源,从港口、码头等地点采集包含舰船目标的高分辨率遥感影像。
步骤1.2,对于影像中的每个舰船,找到包围此舰船的最小四边形Gi,用Gi的中心点坐标
Figure BDA0001699689510000041
以及左上角点、右上角点、左下角点、右下角点关于中心点的相对坐标
Figure BDA0001699689510000042
表示该四边形Gi。其示意如图3所示。
步骤1.3,将采集的遥感影像和对应的标注信息打包,构建舰船目标检测训练样本集。
例如,得到影像中的4个舰船的最小四边形,分别提取左上角点、右上角点、左下角点、右下角点关于中心点的相对坐标,获得标注信息:
312 138 363 70 382 84 331 152
546 148 567 152 558 201 537 197
376 398 396 333 414 338 395 404
137 332 163 337 152 393 126 389
步骤2,设置深度学习网络模型的结构,包括使用级联的卷积层和池化层提取输入影像的全局、高层特征,并对具有不同语义性和分辨率的特征映射图进行连接,对连接得到的特征映射图上的每个位置设置9个参考四边形,使用全连接层对参考四边形分类,保留被判定为舰船区域的参考四边形,然后使用另一个全连接层回归得到被保留的参考四边形与包围舰船目标的最小四边形之间的映射函数。
实施例设计如图4所示的深度学习网络模型结构,与现有技术相比,本发明使用深度学习方法,利用卷积神经网络提取高分辨率遥感影像的特征,基于提取到的高层、全局特征对影像中的舰船目标进行检测,能更有效地抵抗环境因素的干扰;对不同层次的特征映射图进行了连接,融合了语义性强的高层特征和分辨率高的低层特征,对舰船目标尺寸差异的适应性更好;构建了包围舰船目标的最小四边形,能更精确地指示舰船目标的位置。包括以下子步骤:
步骤2.1,使用5组级联的卷积层Conv1-5和池化层pool1-5,每次卷积或池化操作后均生成一组特征映射图。
步骤2.2,使用反卷积层,将第四组特征映射图Conv4上采样到2倍大小得到Deconv4,将第五组特征映射图Conv5上采样到4倍大小得到Deconv5。
步骤2.3,将反卷积得到的Deconv4、Deconv5与第三组特征映射图Conv3连接,得到连接的特征映射图Conv_cat。
步骤2.4,使用卷积层,从Conv_cat的每个位置i提取一个512维的特征fi
步骤2.5,根据训练样本集中舰船目标长宽比和倾斜角度的统计规律,选取出现频率最高的三种长宽比(2、1、0.5)和三种倾斜角度(-45°、0°、45°),对于每个位置i,设置9个如图5所示的参考四边形。这些参考四边形以i为中心,其长宽比和倾斜角度为2、1、0.5三种长宽比和-45°、0°、45°三种角度的组合,图5(a)为长宽比为2的参考四边形示意图,图5(b)为长宽比为1的参考四边形示意图,图5(c)为长宽比为0.5的参考四边形示意图,分别包含-45°、0°、45°三种角度。使用一个全连接层fc1,基于特征fi对每个参考四边形Ri进行分类,输出Ri为背景区域和舰船区域的概率pi=(p0,p1),其中,p0为Ri被分类为背景区域的概率,p1为Ri被分类为舰船区域的概率。
步骤2.6,使用一个全连接层fc2,对被分类为舰船区域概率较大(如p1高于0.9)的参考四边形Ri,基于特征fi输出Ri与包围舰船的最小四边形Bi之间的映射函数
Figure BDA0001699689510000051
步骤3,基于训练样本集,对网络模型进行训练,包括使用交叉熵定义分类的损失函数,使用平滑的L1范数定义回归的损失函数,以分类损失函数与回归损失函数之和作为整体的损失函数,基于随机梯度下降算法迭代求解能最小化损失函数的网络参数,从而得到训练好的网络模型。
实施例中,包括以下子步骤:
步骤3.1,定义分类损失Lcls(pi,yi):
设位置i的类别标签为yi(其中,“0”表示背景区域,“1”表示舰船区域),pi=(p0,p1)为步骤2.5中,参考区域Ri被分类为背景区域和舰船区域的概率。用交叉熵定义分类损失Lcls(pi,yi):
Figure BDA0001699689510000061
其中,
Figure BDA0001699689510000062
为参考区域Ri被分类为类别yi的概率。
步骤3.2,定义回归损失
Figure BDA0001699689510000063
对位置i的每个参考四边形Ri,将其表示为向量
Figure BDA0001699689510000064
其中
Figure BDA0001699689510000065
是Ri的中心点坐标,
Figure BDA0001699689510000066
分别是Ri的左上角点、右上角点、左下角点、右下角点关于中心点的相对坐标,其示意如图3所示。
同理,将包围舰船的最小四边形Bi表示为向量
Figure BDA0001699689510000067
其中
Figure BDA0001699689510000068
是Bi的中心点坐标,
Figure BDA0001699689510000069
分别是Bi的左上角点、右上角点、左下角点、右下角点关于中心点的相对坐标。
Figure BDA00016996895100000610
为将Ri中心点坐标变换到Bi中心点坐标的映射函数,
Figure BDA00016996895100000611
为将Ri左上角点关于中心点的相对坐标变换到Bi左上角点关于中心点的相对坐标的映射函数,
Figure BDA00016996895100000612
为将Ri右上角点关于中心点的相对坐标变换到Bi右上角点关于中心点的相对坐标的映射函数,
Figure BDA00016996895100000613
为将Ri左下角点关于中心点的相对坐标变换到Bi左下角点关于中心点的相对坐标的映射函数,
Figure BDA00016996895100000614
为将Ri右下角点关于中心点的相对坐标变换到Bi右下角点关于中心点的相对坐标的映射函数。则Ri与Bi之间的映射函数集合
Figure BDA0001699689510000071
为:
Figure BDA0001699689510000072
其中,w为Bi横坐标最大值xmax与最小值xmin之间的差值xmax-xmin,h为Bi纵坐标最大值ymax与最小值之间的差值ymax-ymin
同理可得Ri与步骤1.2中预先标注的包围舰船目标的最小四边形Gi间的映射函数
Figure BDA0001699689510000073
使用平滑的L1范数
Figure BDA0001699689510000074
定义回归损失
Figure BDA0001699689510000075
Figure BDA0001699689510000076
其中,映射函数的索引集合S={x,y,w1,h1,w2,h2,w3,h3,w4,h4},k为S中的任一个索引,
Figure BDA0001699689510000077
为索引k对应的参考四边形Ri与预先标注包围舰船目标的最小四边形Gi之间的映射函数,
Figure BDA0001699689510000078
为索引k对应的参考四边形Ri与网络模型构建的包围舰船目标的最小四边形Bi之间的映射函数。
步骤3.3,定义整体损失函数L(W):
将整体损失函数L(W)定义为分类损失Lcls(pi,yi)与回归损失
Figure BDA0001699689510000079
之和:
Figure BDA00016996895100000710
其中,N为连接的特征映射图Conv_cat上的位置个数。
步骤3.4,使用随机梯度下降算法,迭代求解最小化损失函数L(W)的网络参数,得到训练好的网络模型。随机梯度下降算法是现有技术,本发明不予赘述。
步骤4,输入待检测的高分辨率遥感影像,对其中的舰船目标进行检测:将待检测的高分辨率遥感影像输入步骤3训练好的网络模型中,得到被分类为舰船区域的参考四边形及其对应的映射函数,根据参考四边形与映射函数,构建包围舰船目标的最小四边形。
实施例中,包括以下步骤:
步骤4.1,将待检测的高分辨率遥感影像输入到训练好的网络模型中,得到被分类为舰船区域概率高于0.9的参考四边形Ri和对应的映射函数
Figure BDA0001699689510000081
步骤4.2,根据Ri与映射函数
Figure BDA0001699689510000082
计算包围舰船的最小四边形Bi的中心点坐标
Figure BDA0001699689510000083
以及Bi的左上角点、右上角点、左下角点、右下角点关于中心点的相对坐标
Figure BDA0001699689510000084
Figure BDA0001699689510000085
Figure BDA0001699689510000086
Figure BDA0001699689510000087
步骤4.3,设Bi的左上角点、右上角点、左下角点、右下角点坐标分别为
Figure BDA0001699689510000088
根据Bi的中心点坐标
Figure BDA0001699689510000089
以及Bi的四个角点关于中心点的相对坐标
Figure BDA00016996895100000810
有:
Figure BDA00016996895100000811
由四个角点坐标
Figure BDA00016996895100000812
即可得到包围舰船目标的最小四边形。
具体实施时,以上流程可以采用计算机软件技术实现自动运行流程。
使用本发明对10000张高分辨率遥感影像进行舰船目标检测,
对所有检测结果进行统计分析,计算本发明实施例方案的召回率和准确率。其中,召回率为正确检测的舰船目标数与输入高分辨率遥感影像中实际舰船目标数的比值,准确率为正确检测的舰船目标数与所有检测结果数的比值。本发明与现有技术在召回率和准确率指标上的对比如表1所示。
Figure BDA00016996895100000813
Figure BDA0001699689510000091
[1]Lin J,Yang X,Xiao S,Yu Y and Jia C.A Line Segment Based InshoreShip Detection Method[J].Lecture Notes in Electrical Engineering,2012:261-269.
[2]Yang C,Zhang L,Lu H,Ruan X and Yang M.Saliency Detection viaGraph-Based Manifold Ranking[J].IEEE Conference on Computer Vision andPattern Recognition(CVPR),2013,9(4):3166-3173.
[3]Xu J,Sun X,Zhang D and Fu K.Automatic Detection of Inshore Shipsin High-Resolution Remote Sensing Images Using Robust Invariant GeneralizedHough Transform[J].IEEE Geoscience and Remote Sensing Letters,2014,11(12):2070-2074.
由本发明的检测结果示例和表1可以看出,本发明能有效抵抗环境因素的干扰,稳定、精确地对高分辨率遥感影像中处于不同场景、具有不同尺寸和姿态的舰船进行检测。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (3)

1.一种基于深度学习的高分辨率遥感影像舰船目标检测方法,其特征在于,包括以下步骤:
步骤1,采集包含舰船目标的高分辨率遥感影像,使用能包围舰船目标的最小四边形对影像中的舰船进行预先标注,将遥感影像和对应的标注信息打包作为舰船数据集;
步骤2,设置深度学习网络模型的结构,包括使用级联的卷积层和池化层提取输入影像的全局和高层特征,并对具有不同语义性和分辨率的特征映射图进行连接,对连接得到的特征映射图上的每个位置设置多个参考四边形,使用全连接层对参考四边形分类,保留被判定为舰船区域的参考四边形,然后使用另一个全连接层回归得到被保留的参考四边形与包围舰船目标的最小四边形之间的映射函数;
步骤3,基于训练样本集,对网络模型进行训练,包括使用交叉熵定义分类的损失函数,使用平滑的L1范数定义回归的损失函数,以分类损失函数与回归损失函数之和作为整体的损失函数,基于随机梯度下降算法迭代求解能最小化损失函数的网络参数,从而得到训练好的网络模型;
步骤4,将待检测的高分辨率遥感影像输入步骤3训练好的网络模型中,得到被分类为舰船区域的参考四边形及其对应的映射函数,根据参考四边形与映射函数,构建包围舰船目标的最小四边形。
2.根据权利要求1所述基于深度学习的高分辨率遥感影像舰船目标检测方法,其特征在于:步骤1中,标注信息提取方式为,对于影像中的每个舰船,找到包围此舰船的最小四边形Gi,用Gi的中心点坐标
Figure FDA0001699689500000011
以及左上角点、右上角点、左下角点、右下角点关于中心点的相对坐标
Figure FDA0001699689500000012
表示该四边形。
3.根据权利要求1或2所述基于深度学习的高分辨率遥感影像舰船目标检测方法,其特征在于:步骤2中,对连接得到的特征映射图上的每个位置设置9个参考四边形,包括对于每个位置i,设置以i为中心9个参考四边形,长宽比和倾斜角度为2、1、0.5三种长宽比和-45°、0°、45°三种角度的组合。
CN201810628290.2A 2018-06-19 2018-06-19 一种基于深度学习的高分辨率遥感影像舰船目标检测方法 Active CN108830224B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810628290.2A CN108830224B (zh) 2018-06-19 2018-06-19 一种基于深度学习的高分辨率遥感影像舰船目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810628290.2A CN108830224B (zh) 2018-06-19 2018-06-19 一种基于深度学习的高分辨率遥感影像舰船目标检测方法

Publications (2)

Publication Number Publication Date
CN108830224A CN108830224A (zh) 2018-11-16
CN108830224B true CN108830224B (zh) 2021-04-02

Family

ID=64142774

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810628290.2A Active CN108830224B (zh) 2018-06-19 2018-06-19 一种基于深度学习的高分辨率遥感影像舰船目标检测方法

Country Status (1)

Country Link
CN (1) CN108830224B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109631911B (zh) * 2018-12-17 2021-02-05 浙江大学 一种基于深度学习目标识别算法的卫星姿态转动信息确定方法
CN111382632A (zh) * 2018-12-29 2020-07-07 中国科学院长春光学精密机械与物理研究所 目标检测方法、终端设备及计算机可读存储介质
CN109934122A (zh) * 2019-02-21 2019-06-25 北京以萨技术股份有限公司 一种基于深度学习的遥感影像船舶检测方法
CN110276287B (zh) * 2019-06-17 2022-10-18 百度在线网络技术(北京)有限公司 车位检测方法、装置、计算机设备以及存储介质
CN110516606A (zh) * 2019-08-28 2019-11-29 北京观微科技有限公司 高分辨率卫星影像任意方向舰船目标检测方法
CN112102394B (zh) * 2020-09-17 2021-05-28 中国科学院海洋研究所 基于深度学习的遥感图像舰船尺寸一体化提取方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106250812A (zh) * 2016-07-15 2016-12-21 汤平 一种基于快速r‑cnn深度神经网络的车型识别方法
EP3147799A1 (en) * 2015-09-22 2017-03-29 Xerox Corporation Similarity-based detection of prominent objects using deep cnn pooling layers as features
CN107316058A (zh) * 2017-06-15 2017-11-03 国家新闻出版广电总局广播科学研究院 通过提高目标分类和定位准确度改善目标检测性能的方法
CN107609601A (zh) * 2017-09-28 2018-01-19 北京计算机技术及应用研究所 一种基于多层卷积神经网络的舰船目标识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170124409A1 (en) * 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Cascaded neural network with scale dependent pooling for object detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3147799A1 (en) * 2015-09-22 2017-03-29 Xerox Corporation Similarity-based detection of prominent objects using deep cnn pooling layers as features
CN106250812A (zh) * 2016-07-15 2016-12-21 汤平 一种基于快速r‑cnn深度神经网络的车型识别方法
CN107316058A (zh) * 2017-06-15 2017-11-03 国家新闻出版广电总局广播科学研究院 通过提高目标分类和定位准确度改善目标检测性能的方法
CN107609601A (zh) * 2017-09-28 2018-01-19 北京计算机技术及应用研究所 一种基于多层卷积神经网络的舰船目标识别方法

Also Published As

Publication number Publication date
CN108830224A (zh) 2018-11-16

Similar Documents

Publication Publication Date Title
CN108830224B (zh) 一种基于深度学习的高分辨率遥感影像舰船目标检测方法
CN109598241B (zh) 基于Faster R-CNN的卫星图像海上舰船识别方法
US10607362B2 (en) Remote determination of containers in geographical region
US10319107B2 (en) Remote determination of quantity stored in containers in geographical region
Shao et al. Saliency-aware convolution neural network for ship detection in surveillance video
Ma et al. Computer vision for road imaging and pothole detection: a state-of-the-art review of systems and algorithms
CN106909902B (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN110443201B (zh) 基于多源影像联合形状分析与多属性融合的目标识别方法
Wang et al. Bottle detection in the wild using low-altitude unmanned aerial vehicles
CN111985466A (zh) 一种集装箱危险品标志识别方法
CN109726717A (zh) 一种车辆综合信息检测系统
EP3553700A2 (en) Remote determination of containers in geographical region
Xiao et al. 3D urban object change detection from aerial and terrestrial point clouds: A review
CN110298855B (zh) 一种基于高斯混合模型和纹理分析的海天线检测方法
Li et al. Sea–sky line detection using gray variation differences in the time domain for unmanned surface vehicles
CN111401203A (zh) 基于多维图像融合的目标识别方法
CN115019107B (zh) 基于风格迁移的声呐仿真图像生成方法、系统及介质
CN115565072A (zh) 一种道路垃圾识别和定位方法、装置、电子设备及介质
Yuan et al. Graph neural network based multi-feature fusion for building change detection
Yu et al. Multimodal urban remote sensing image registration via roadcross triangular feature
Pandey et al. Toward mutual information based place recognition
Sami et al. Text detection and recognition for semantic mapping in indoor navigation
CN116106899B (zh) 一种基于机器学习的港口航道小目标识别方法
RU2811357C2 (ru) Программно-аппаратный комплекс, предназначенный для обработки аэрокосмических изображений местности с целью обнаружения, локализации и классификации до типа авиационной и сухопутной техники
US20230386163A1 (en) Object Level Data Augmentation Scheme for Training Object Detectors

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant