CN112016511A - 基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法 - Google Patents

基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法 Download PDF

Info

Publication number
CN112016511A
CN112016511A CN202010934958.3A CN202010934958A CN112016511A CN 112016511 A CN112016511 A CN 112016511A CN 202010934958 A CN202010934958 A CN 202010934958A CN 112016511 A CN112016511 A CN 112016511A
Authority
CN
China
Prior art keywords
anchor frame
network
feature
module
remote sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010934958.3A
Other languages
English (en)
Inventor
李朋龙
丁忆
马泽忠
敖影
钱进
朱智勤
李鹏华
肖禾
陈静
刘建
欧其健
陈培恩
陈甲全
李政
杨光谱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Geographic Information And Remote Sensing Application Center
Original Assignee
Chongqing Geographic Information And Remote Sensing Application Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Geographic Information And Remote Sensing Application Center filed Critical Chongqing Geographic Information And Remote Sensing Application Center
Priority to CN202010934958.3A priority Critical patent/CN112016511A/zh
Publication of CN112016511A publication Critical patent/CN112016511A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法,包括步骤:获取训练数据集并进行标注;构建包含特征提取网络、上下文增强模块、目标区域生成网络、空间注意模块、池化层、目标检测模块的网络模型;输入标注后的训练数据集训练网络模型;将待检测的遥感图像输入已训练好的网络模型,得到蓝顶房的检测结果。其显著效果是:通过将深度特征提取、目标候选区生成、锚框生成、上下文增强、空间注意力机制、目标检测过程都融入到一个端到端的深度网络模型中,对于多尺度的遥感图像蓝顶房的检测,能够达到良好的检测效果。

Description

基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法
技术领域
本发明涉及到遥感图像目标检测技术领域,尤其涉及利用深度神经网络模型实现具有多尺度变化的遥感图像的目标检测,具体涉及一种基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法。
背景技术
随着卫星遥感技术及计算机视觉技术的发展和应用,遥感图像中的目标检测成为研究的热点,利用遥感图像高效快速地检测出蓝顶房等典型的高价值目标在模式识别,侦察探测等领域具有很高的应用价值,同时也是遥感智能处理领域的重点研究问题。
遥感图像蓝顶房检测用得较多的是传统的模式识别分类方法,如最小距离法、平行六面体法,最大似然法、循环集群法等监督与非监督分类法。其检测结果由于遥感图像本身的空间分辨率的限制以及同物异谱、异物同谱现象的存在,往往出现较多的错分、漏分现象,导致分类精度不高。
发明内容
针对现有技术的不足,本发明的目的是提供一种基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法,通过将深度特征提取、目标候选区生成、锚框生成、上下文增强、空间注意力机制、目标检测过程都融入到一个端到端的深度卷积神经网络模型中,从而能够有效的提高检测精度。
为达到上述目的,本发明采用的技术方案如下:
一种基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法,其关键在于,包括如下步骤:
步骤1:获取训练数据集并进行标注;
步骤2:构建包含特征提取网络、上下文增强模块、目标区域生成网络、空间注意模块、池化层、目标检测模块的网络模型;
步骤3:输入标注后的训练数据集训练网络模型;
训练网络模型时,所述特征提取网络用于提取训练数据集的多尺度特征;所述上下文增强模块用于聚合所述特征提取网络输出的多尺度特征图中的局部上下文信息和全局上下文信息;所述目标区域生成网络用于根据上下文增强模块输出的特征图构建目标候选区域,并通过特征微调的锚框生成模块生成锚框;所述空间注意模块用于利用所述目标区域生成网络的中间层特征,对所述上下文增强模块输出的特征图进行惩罚加权优化;所述池化层用于将目标候选区对应区域上的卷积特征下采样到一个统一大小的特征向量,并输入目标检测模块;所述目标检测模块用于进行目标检测和锚框回归进行联合迭代训练;
步骤4:将待检测的遥感图像输入已训练好的网络模型,得到蓝顶房的检测结果。
进一步的,所述训练数据集采用预处理后的谷歌地球的遥感图像。
进一步的,所述训练数据集采用labelme标注工具进行标注,标注格式统一为COCO格式。
进一步的,所述上下文增强模块采用特征金字塔将所述特征提取网络输出的多尺度特征图通过卷积层进行通道数恢复,再通过上采样将特征图变为固定尺寸,最后对生成的各尺度的特征图进行标记,并利用局部上下文信息和全局上下文信息将特征图相加输入全连接层得到输出结果。
进一步的,所述目标区域生成网络通过特征微调的锚框生成模块生成锚框的步骤为:
步骤S1:锚框位置预测,采用位置预测网络对所述上下文增强模块输出的特征图进行卷积,计算得到每个位置出现物体的概率值,并获得概率值高于预定阈值的位置预测出锚框的位置;
步骤S2:锚框形状预测,采用形状预测网络对所述上下文增强模块输出的特征图进行卷积,计算出锚框的最佳尺寸从而预测出锚框的中心点;
步骤S3:结合锚框的位置和中心点生成初始锚框;
步骤S4:初始锚框特征微调,利用可变形卷积结构修正原始特征图中各个位置进行可变形卷积,并通过形状预测网络根据锚框形状预测偏移字段,然后对带偏移的原始特征图做变形卷积获得微调后的特征图。
进一步的,所述空间注意模块对所述上下文增强模块输出的特征图进行惩罚加权优化的公式为:
F-SAM=F-CEM·sigmoid(θ(F-RPN)),
其中,F-SAM为所述空间注意模块输出的特征图,F-CEM为所述上下文增强模块输出的特征图,F-RPN为所述目标区域生成网络的中间层特征图,sigmoid为激活函数,θ(·)为尺寸变换函数,以匹配两组特征图中的通道数。
本发明设计了基于特征微调的锚框生成方法来生成锚框,代替了滑窗等方法,区域生成网络用深度可分离卷积策略代替普通卷积,检测部分采用了上下文增强模块和空间注意模块,提高了检测精度;本专利对遥感图像中蓝顶房的检测具有较好的效果。
与其它方法相比,本专利基于图像的先验知识,采用了稀疏的锚框生成方式,生成可能包含目标的区域中心位置,在图像不同位置确定尺度和长宽比、形状生成位置可变的锚框,在很大程度上避免了冗余的卷积计算,并且具有平移不变的良好特性,同时目标区域生成网络采用深度可分离卷积策略代替原来的卷积,采用了上下文增强模块和空间注意模块,将全局特征和局部特征融合,利用注意力机制强调前景特征,弱化背景特征,达到了更好提取特征的目的。
本发明的显著效果是:
第一,本发明提出了一种新的锚框生成策略,用于产生稀疏的任意形状的锚框,产生的锚框质量更高,锚框生成的参数在所有层次的特征都是共享的,因此效率较高,这种策略具有良好的鲁棒性,有效地提高了遥感图像蓝顶房模型的检测精度。
第二,本专利在检测部分采用了上下文增强模块和空间注意模块,通过结合多尺度的局部上下文信息和全局信息来生成更具判别性的特征,使用区域生成网络的信息对特征图重新定义特征分布,得到的特征图具有更好的特征分布,从而提高了遥感图像蓝顶房的检测精度。
第三,本发明是一种基于多尺度深度卷积神经网络的遥感图像蓝顶房检测算法,将深度特征提取、目标候选区生成、锚框生成、上下文增强、空间注意力机制、目标检测过程都融入到一个端到端的深度网络模型中,对于多尺度的遥感图像蓝顶房的检测,在多尺度的遥感图像上完成快速准确的蓝顶房检测。
附图说明
图1是本发明的方法流程图;
图2是所述大尺度深度卷积神经网络的结构示意图;
图3是所述上下文增强模块的结构示意图;
图4是所述特征微调的锚框生成模块的结构示意图;
图5是所述空间注意模块的结构示意图。
具体实施方式
下面结合附图对本发明的具体实施方式以及工作原理作进一步详细说明。
如图1所示,一种基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法,具体步骤如下:
步骤1:获取训练数据集并进行标注,具体的:
a)采用谷歌地球作为主要数据来源,采集蓝顶房遥感图像数据;
b)由于遥感图像的分辨率都比较高,若直接喂入网络会导致参数过多的现象,所以先将遥感图像进行裁剪;
c)通过labelme标注工具对图像进行标注,标注格式统一为COCO格式。
步骤2:构建包含特征提取网络、上下文增强模块、目标区域生成网络、空间注意模块、池化层、目标检测模块的网络模型,其中所述特征提取网络采用残差卷积网络搭建而成;
步骤3:输入标注后的训练数据集训练网络模型;
所述网络模型的训练过程如下:
首先,通过残差卷积网络作为主干网络的所述特征提取网络提取训练数据集的多尺度特征;
接着,采用如图3所示的所述上下文增强模块(CEM)聚合所述特征提取网络输出的多尺度特征图中的局部上下文信息和全局上下文信息,生成区分性更强的特征,在上下文增强模块中合并三个尺度的特征图,通过局部和全局信息,上下文增强模块有效的扩大了感受野,并且细化了特征图的表示能力;
a)采用特征金字塔的网络结构增加感受野;
b)把三种不同尺度的特征图通过1X1卷积层将通道数都恢复到245个,再通过上采样将特征图变为固定尺寸;
c)对这三个生成的特征图进行标记,通过利用局部上下文信息和全局上下文信息,将特征图相加传到全连接层里面输出结果F-CEM。
然后,采用所述目标区域生成网络(RPN)根据上下文增强模块输出的特征图构建目标候选区域,并通过如图4所述的特征微调的锚框生成模块(GA-Net)生成锚框,具体步骤为:
本例中,目标区域生成网络采用深度可分离卷积结构代替普通卷积方式。
锚框的生成过程:锚框的生成模块是一个由两个分支组成的网络,分别用于位置和形状预测,对象的位置和形状可以用(x,y,w,h)形式的四元组来表征,其中(x,y)是中心的空间坐标,w是宽度,h是高度,假设我们从给定图像I绘制对象,那么可以认为其位置和形状遵循以I为条件的分布:
p(x,y,w,h|I)=p(x,y|I)p(w,h|x,y,I)
锚框的概率分布可以被分解成两个条件概率分布,也就是给定图像特征之后锚框中心点的概率分布和给定图像特征和中心点之后的形状概率分布,根据上面的公式,锚框的生成过程可以分解为两个步骤,锚框位置预测和锚框形状预测。
步骤S1:锚框位置预测,采用位置预测网络NL对所述上下文增强模块输出的输入特征图FI使用1×1的卷积,得到与FI相同分辨率的输出,该输出的位置(i,j)对应原图上((i+0.5)s,(j+0.5)s),其中s是这个FI的步长。位置预测网络NL得到的输出的每个位置的值表示原图I上对应位置出现物体的可能性。位置预测分支的目标是预测那些区域应该作为中心点来生成锚框,是一个二分类问题,并不是预测每个点是前景还是背景,而是预测是不是物体的中心,预测哪些区域应该作为中心点来生成锚框,将整个特征图的区域分为物体中心区域、外围区域和忽略区域,最后通过选择对应概率值高于预定阈值的位置来确定可能存在对象活动的区域,也即预测出锚框的位置;
步骤S2:锚框形状预测,采用形状预测网络NS对所述上下文增强模块输出的特征图进行卷积,计算出锚框的最佳尺寸从而预测出锚框的中心点,具体的:
形状预测网络NS的目标是给定锚框中心点,预测最佳的长和宽,这是一个回归问题,形状预测网络NS是给定锚框中心点,采用1×1的卷积网络Ns输入特征图FI,输出与FI尺寸相同的2通道的特征图,每个通道分别代表dw和dh,表示每个位置可能的最好的锚框尺寸,预测目标是w和h。
w=σ×s×edw,h=σ×s×edh
其中,s是步幅,σ是经验因子。
步骤S3:结合锚框的位置和中心点生成初始锚框;
由于每个位置的形状不同,大的锚框对应较大感受野,小的锚框对应小的感受野,因此,需要对特征图进行特征微调。
步骤S4:初始锚框特征微调,利用一个3×3的可变形卷积结构修正原始特征图中各个位置进行可变形卷积,根据形状对各个位置单独进行转换,把锚框的形状信息直接融入到特征图中,这样新得到的特征图就可以去适应每个位置锚框的形状,可变形卷积的变化量是通过锚框的w和h经过一个1×1卷积得到的。
FI'=NT(fi,wi,hi),
其中,FI'是第i个位置的特征(wi,hi)是对应的锚框形状,NT通过3×3的可变形卷积实现,通过形状预测网络NS预测偏移字段,然后对带偏移的原始特征图做变形卷积获得微调后的特征图,之后进一步做分类和回归。
本例采用了基于特征微调的锚框生成模块,通过稀疏的锚框生成方式,生成可能包含目标的子区域中心位置,在图像不同位置确定尺度并形成长宽比、形状位置可变的锚框,在很大程度上避免了冗余的卷积计算,并且具平移不变的良好特性。
接着,采用如图5所示的所述空间注意模块(SAM)用于利用所述目标区域生成网络的中间层特征,将所述目标区域生成网络的中间层信息先通过1X1卷积后,采用BatchNorm进行标准化处理,在把标准化后的信息用sigmoid激活函数放置在(0,1)分布区间,对所述上下文增强模块输出的特征图进行惩罚加权优化,从而优化前景特征和背景特征的分布,强调前景特征,弱化背景特征,达到更好提取特征目的;
所述惩罚加权优化的公式为:
F-SAM=F-CEM·sigmoid(θ(F-RPN)),
其中,F-SAM为所述空间注意模块输出的特征图,F-CEM为所述上下文增强模块输出的特征图,F-RPN为所述目标区域生成网络的中间层特征图,sigmoid为激活函数,θ(·)为尺寸变换函数,以匹配两组特征图中的通道数。
之后,所述ROI池化层用于将目标候选区对应区域上的卷积特征下采样到一个统一大小的特征向量,并分别输入目标检测模块;
最后,所述目标检测模块用于通过全连接层进行目标检测和锚框回归进行联合训练,经过多次训练迭代后,获得已训练好的网络模型。
所述目标检测模块包括分类层与回归层,所述分类层用于判定该图像所属类别,所述回归层用于对目标位置进行再次回归和修正,通过综合分类层与回归层的输出信息,可以得到目标检测结果。
步骤4:将待检测的遥感图像输入已训练好的网络模型,得到蓝顶房的检测结果。
本实施例公开了一种专门针对于遥感图像蓝顶房检测的方法,设计了基于特征微调的锚框生成模块(GA-Net)来生成锚框,代替了传统的滑窗等方法,区域生成网络(RPN)用深度可分离卷积策略代替普通卷积,检测模块采用了上下文增强模块(CEM)和空间注意模块(SAM),提高了检测精度;通过将深度特征提取、目标候选区生成、锚框生成、上下文增强、空间注意力机制、目标检测过程都融入到一个端到端的深度网络模型中,对于多尺度的遥感图像蓝顶房的检测,能够达到良好的检测效果。
以上对本发明所提供的技术方案进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (6)

1.一种基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法,其特征在于,包括如下步骤:
步骤1:获取训练数据集并进行标注;
步骤2:构建包含特征提取网络、上下文增强模块、目标区域生成网络、空间注意模块、池化层、目标检测模块的网络模型;
步骤3:输入标注后的训练数据集训练网络模型;
训练网络模型时,所述特征提取网络用于提取训练数据集的多尺度特征;所述上下文增强模块用于聚合所述特征提取网络输出的多尺度特征图中的局部上下文信息和全局上下文信息;所述目标区域生成网络用于根据上下文增强模块输出的特征图构建目标候选区域,并通过特征微调的锚框生成模块生成锚框;所述空间注意模块用于利用所述目标区域生成网络的中间层特征,对所述上下文增强模块输出的特征图进行惩罚加权优化;所述池化层用于将目标候选区对应区域上的卷积特征下采样到一个统一大小的特征向量,并输入目标检测模块;所述目标检测模块用于进行目标检测和锚框回归进行联合迭代训练;
步骤4:将待检测的遥感图像输入已训练好的网络模型,得到蓝顶房的检测结果。
2.根据权利要求1所述的基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法,其特征在于:所述训练数据集采用预处理后的谷歌地球的遥感图像。
3.根据权利要求2所述的基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法,其特征在于:所述训练数据集采用labelme标注工具进行标注,标注格式统一为COCO格式。
4.根据权利要求1所述的基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法,其特征在于:所述上下文增强模块采用特征金字塔将所述特征提取网络输出的多尺度特征图通过卷积层进行通道数恢复,再通过上采样将特征图变为固定尺寸,最后对生成的各尺度的特征图进行标记,并利用局部上下文信息和全局上下文信息将特征图相加输入全连接层得到输出结果。
5.根据权利要求1所述的基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法,其特征在于:所述目标区域生成网络通过特征微调的锚框生成模块生成锚框的步骤为:
步骤S1:锚框位置预测,采用位置预测网络对所述上下文增强模块输出的特征图进行卷积,计算得到每个位置出现物体的概率值,并获得概率值高于预定阈值的位置预测出锚框的位置;
步骤S2:锚框形状预测,采用形状预测网络对所述上下文增强模块输出的特征图进行卷积,计算出锚框的最佳尺寸从而预测出锚框的中心点;
步骤S3:结合锚框的位置和中心点生成初始锚框;
步骤S4:初始锚框特征微调,利用可变形卷积结构修正原始特征图中各个位置进行可变形卷积,并通过形状预测网络根据锚框形状预测偏移字段,然后对带偏移的原始特征图做变形卷积获得微调后的特征图。
6.根据权利要求1所述的基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法,其特征在于:所述空间注意模块对所述上下文增强模块输出的特征图进行惩罚加权优化的公式为:
F-SAM=F-CEM·sigmoid(θ(F-RPN)),
其中,F-SAM为所述空间注意模块输出的特征图,F-CEM为所述上下文增强模块输出的特征图,F-RPN为所述目标区域生成网络的中间层特征图,sigmoid为激活函数,θ(·)为尺寸变换函数,以匹配两组特征图中的通道数。
CN202010934958.3A 2020-09-08 2020-09-08 基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法 Pending CN112016511A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010934958.3A CN112016511A (zh) 2020-09-08 2020-09-08 基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010934958.3A CN112016511A (zh) 2020-09-08 2020-09-08 基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法

Publications (1)

Publication Number Publication Date
CN112016511A true CN112016511A (zh) 2020-12-01

Family

ID=73516439

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010934958.3A Pending CN112016511A (zh) 2020-09-08 2020-09-08 基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法

Country Status (1)

Country Link
CN (1) CN112016511A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112270280A (zh) * 2020-11-02 2021-01-26 重庆邮电大学 一种基于深度学习的遥感图像中的露天矿场检测方法
CN112508132A (zh) * 2021-01-29 2021-03-16 广州市玄武无线科技股份有限公司 一种识别sku的训练方法及装置
CN113220915A (zh) * 2021-04-29 2021-08-06 华中科技大学 一种基于残差注意力的遥感图像检索方法及装置
CN113283429A (zh) * 2021-07-21 2021-08-20 四川泓宝润业工程技术有限公司 基于深度卷积神经网络的液位式表计读数方法
CN113378686A (zh) * 2021-06-07 2021-09-10 武汉大学 一种基于目标中心点估计的两阶段遥感目标检测方法
CN114005028A (zh) * 2021-07-30 2022-02-01 北京航空航天大学 一种抗干扰的遥感图像目标检测轻量模型及其方法
CN114529825A (zh) * 2022-04-24 2022-05-24 城云科技(中国)有限公司 用于消防通道占用目标检测的目标检测模型、方法及应用

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107121681A (zh) * 2017-05-23 2017-09-01 国家地理空间信息中心 基于高分卫星遥感数据的居民地提取系统
CN109255352A (zh) * 2018-09-07 2019-01-22 北京旷视科技有限公司 目标检测方法、装置及系统
CN109801226A (zh) * 2018-12-13 2019-05-24 中国科学院西安光学精密机械研究所 基于sam和加权自相关cem算法的水面目标探测方法
CN110427836A (zh) * 2019-07-11 2019-11-08 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) 一种基于多尺度优化的高分辨率遥感影像水体提取方法
CN111582104A (zh) * 2020-04-28 2020-08-25 中国科学院空天信息创新研究院 一种遥感图像语义分割方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107121681A (zh) * 2017-05-23 2017-09-01 国家地理空间信息中心 基于高分卫星遥感数据的居民地提取系统
CN109255352A (zh) * 2018-09-07 2019-01-22 北京旷视科技有限公司 目标检测方法、装置及系统
CN109801226A (zh) * 2018-12-13 2019-05-24 中国科学院西安光学精密机械研究所 基于sam和加权自相关cem算法的水面目标探测方法
CN110427836A (zh) * 2019-07-11 2019-11-08 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) 一种基于多尺度优化的高分辨率遥感影像水体提取方法
CN111582104A (zh) * 2020-04-28 2020-08-25 中国科学院空天信息创新研究院 一种遥感图像语义分割方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIAQI WANG等: "Region Proposal by Guided Anchoring", 《ARXIV》 *
ZHENG QIN: "ThunderNet: Towards Real-time Generic Object Detection", 《ARXIV》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112270280A (zh) * 2020-11-02 2021-01-26 重庆邮电大学 一种基于深度学习的遥感图像中的露天矿场检测方法
CN112270280B (zh) * 2020-11-02 2022-10-14 重庆邮电大学 一种基于深度学习的遥感图像中的露天矿场检测方法
CN112508132A (zh) * 2021-01-29 2021-03-16 广州市玄武无线科技股份有限公司 一种识别sku的训练方法及装置
CN112508132B (zh) * 2021-01-29 2021-08-03 广州市玄武无线科技股份有限公司 一种识别sku的训练方法及装置
CN113220915A (zh) * 2021-04-29 2021-08-06 华中科技大学 一种基于残差注意力的遥感图像检索方法及装置
CN113378686A (zh) * 2021-06-07 2021-09-10 武汉大学 一种基于目标中心点估计的两阶段遥感目标检测方法
CN113378686B (zh) * 2021-06-07 2022-04-15 武汉大学 一种基于目标中心点估计的两阶段遥感目标检测方法
CN113283429A (zh) * 2021-07-21 2021-08-20 四川泓宝润业工程技术有限公司 基于深度卷积神经网络的液位式表计读数方法
CN114005028A (zh) * 2021-07-30 2022-02-01 北京航空航天大学 一种抗干扰的遥感图像目标检测轻量模型及其方法
CN114529825A (zh) * 2022-04-24 2022-05-24 城云科技(中国)有限公司 用于消防通道占用目标检测的目标检测模型、方法及应用

Similar Documents

Publication Publication Date Title
CN112016511A (zh) 基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法
CN110728200B (zh) 一种基于深度学习的实时行人检测方法及系统
CN112418117B (zh) 一种基于无人机图像的小目标检测方法
Li et al. Adaptive deep convolutional neural networks for scene-specific object detection
CN111126359B (zh) 基于自编码器与yolo算法的高清图像小目标检测方法
CN111310666B (zh) 一种基于纹理特征的高分辨率影像地物识别与分割方法
CN111310861A (zh) 一种基于深度神经网络的车牌识别和定位方法
CN112052783A (zh) 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法
CN113449594B (zh) 一种多层网络组合的遥感影像地类语义分割与面积计算方法
CN112232371B (zh) 一种基于YOLOv3与文本识别的美式车牌识别方法
CN114694038A (zh) 基于深度学习的高分辨率遥感影像分类方法及系统
CN113221874A (zh) 基于Gabor卷积和线性稀疏注意力的文字识别系统
CN115424017B (zh) 一种建筑物内外轮廓分割方法、装置及存储介质
CN115775316A (zh) 基于多尺度注意力机制的图像语义分割方法
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
CN110287798B (zh) 基于特征模块化和上下文融合的矢量网络行人检测方法
CN114743126A (zh) 一种基于图注意力机制网络的车道线标志分割方法
CN114445620A (zh) 一种改进Mask R-CNN的目标分割方法
CN116630610A (zh) 基于语义分割模型和条件随机场的roi区域提取方法
CN110570450A (zh) 一种基于级联的上下文感知框架的目标跟踪方法
CN113657225B (zh) 一种目标检测方法
CN115578574A (zh) 一种基于深度学习和拓扑感知的三维点云补全方法
CN116091946A (zh) 一种基于YOLOv5的无人机航拍图像目标检测方法
CN114898464A (zh) 一种基于机器视觉的轻量化精准手指语智能算法识别方法
Ye et al. FMAM-Net: Fusion Multi-Scale Attention Mechanism Network for Building Segmentation in Remote Sensing Images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination