CN112270280B - 一种基于深度学习的遥感图像中的露天矿场检测方法 - Google Patents

一种基于深度学习的遥感图像中的露天矿场检测方法 Download PDF

Info

Publication number
CN112270280B
CN112270280B CN202011204160.XA CN202011204160A CN112270280B CN 112270280 B CN112270280 B CN 112270280B CN 202011204160 A CN202011204160 A CN 202011204160A CN 112270280 B CN112270280 B CN 112270280B
Authority
CN
China
Prior art keywords
feature
attention
network
open
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011204160.XA
Other languages
English (en)
Other versions
CN112270280A (zh
Inventor
朱智勤
罗柳
李嫄源
李鹏华
李朋龙
丁忆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202011204160.XA priority Critical patent/CN112270280B/zh
Publication of CN112270280A publication Critical patent/CN112270280A/zh
Application granted granted Critical
Publication of CN112270280B publication Critical patent/CN112270280B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于深度学习的遥感图像中的露天矿场检测方法,属于目标检测领域。基于Mask R‑CNN网络,在此网络上设计了基于混合注意力的区域生成网络MA‑RPN和基于扩展的特征金字塔网络ET‑FPN,MA‑RPN引入了混合注意力机制,在区域生成网络中添加注意力模块,通过注意力掩码将图片中露天矿场的关键特征标识出来,从而帮助模型学习到需要关注的露天矿场区域;ET‑FPN具有专门用于露天矿场检测的金字塔层,用以提取遥感图像中露天矿场的信息,扩展的特征金字塔层反馈到后续的检测器进一步进行定位和分类。本发明能够在遥感图像中实现露天矿场的检测。

Description

一种基于深度学习的遥感图像中的露天矿场检测方法
技术领域
本发明属于目标检测领域,涉及一种基于深度学习的遥感图像中的露天矿场检测方法。
背景技术
传统的目标检测方法只能在特定场景下有比较好的效果,当光照等环境发生变化时则难以实现比较好的效果,容易出现漏检和误检;此外传统的方法分类的准确率并不高,难以适用于遥感图像中露天矿场的检测,本发明发明了一种专门针对于遥感图像中露天矿场检测的方法,以Mask RCNN网络为基础,在此基础上设计了基于混合注意力的区域生成网络(MA-RPN)和基于扩展的特征金字塔网络(ET-FPN),本发明发明的深度学习模型对遥感图像中露天矿场的检测具有较好的效果。
发明内容
有鉴于此,本发明的目的在于提供一种基于深度学习的遥感图像中的露天矿场检测方法。
为达到上述目的,本发明提供如下技术方案:
一种基于深度学习的遥感图像中的露天矿场检测方法,该方法包括以下步骤:
1)采集露天矿场的遥感图像,制作露天矿场检测的数据集;
2)构建露天矿场检测的深度学习模型,将遥感图像输入特征提取网络,用以提取特征;
3)将获取的特征图输入到扩展的特征金字塔网络ET-FPN进行处理,提取露天矿场多尺度特征信息;
4)混合注意力的区域生成区域候选网络MA-RPN生成候选区域,采用滑动窗口的方式生成锚框,并对锚框进行分类和边界框回归,基于混合注意力机制提取出感兴趣区域RoI;
5)感兴趣区域对齐层RoIAlign采用非线性插值法将MA-RPN筛选的感兴趣区域与特征提取网络提取的特征图对应区域的特征,得到固定尺寸的特征图;
6)对MA-RPN筛选的感兴趣区域RoI进行分类和边界框的回归,并使用全卷积网络从感兴趣区域预测分割掩膜。
可选的,所述特征金字塔网络ET-FPN满足:
1)特征纹理迁移模块用于超分辨率特征并选取置信度较高的区域特征;
2)设计一种前景和背景之间平衡的损失函数来减轻前景和背景的面积不平衡的问题。
可选的,所述区域候选网络MA-RPN,为区域生成网络引入混合注意力机制,其中混合注意力机制包括空间注意力和通道注意力。
可选的,所述1)具体为:
a)以谷歌地球作为数据源,采集露天矿场遥感图像数据;
b)将采集的图像裁剪为512x512大小并进行数据增强,防止训练时过拟合;
c)使用标注工具对图像进行标注,标注好的数据划分为训练集和测试集。
可选的,所述2)具体为:
a)以残差模块构成的特征提取网络为骨干网络,用来提取特征;
b)扩展的特征金字塔网络ET-FPN提取露天矿场多尺度特征信息;扩展的特征金字塔网络ET-FPN框架中:Ai表示特征提取网络中第i阶段的特征图,Bi表示ET-FPN上的各个特征金字塔层;
特征纹理迁移模块输入特征B3的主要语义内容首先由内容提取器提取,纹理提取器从主流特征和参考特征的组合中选择可靠的区域纹理用于露天矿场检测,通过残差连接将纹理和高分辨的内容特征融合在一起,为ET-FPN生成B'3层;
特征纹理迁移模块的主要输入是ET-FPN第三层特征图B3,参考ET-FPN第四层特征图B2,输出B'3定义为:
B'3=Pt(B2||Pc(B3)↑2×)+Pc(B3)↑2×
在训练模型中,正样本特征图误差定义为:
Figure BDA0002756457930000021
全局特征图误差定义为:
L全局(F,Ft)=||Ft-F||1
前景和背景之间平衡的损失函数定义为:
L前-背(F,Ft)=L全局(F,Ft)+λL(F,Ft)
总损失函数:
L=L前-背(B'3,B3↑2×)+L前-背(B'2,B2↑2×)
其中Pt表示纹理提取器,Pc表示内容提取器,↑2×表示2倍上采样操作,L分别来自B'3-B3层特征图差和B'2-B2层特征图误差;
c)使用混合注意力的区域生成网络MA-RPN生成锚框和提取出感兴趣区域RoI,MA-RPN由通道注意力和空间注意力组成;
通道注意力将一个通道上整个空间特征编码聚合为一个全局特征,再通一种运算提取通道之间的关系,通道注意力模块的计算公式如下:
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))
=σ(W1(W0(Fc avg))+W1(W0(Fc max)))
其中,σ表示sigmoid激活函数,MLP表示多层感知器,用来共享参数,Fc avg和Fc max表示全局平均池化和全局最大池化输出的特征;输入的特征图F通过全局最大池化和全局平均池化,然后分别通过多层感知器,将感知器输出的特征进行基于逐元素的相加操作,最后经过sigmoid激活函数,生成最终的通道注意力特征Mc
空间注意力用于准确定位空间中的露天矿场特征,添加空间注意力能准确定位露天矿场,提高检测的准确率;空间注意力模块的计算公式如下:
Ms(F)=σ(f3*3([AvgPool(F),MaxPool(F)]))
=σ(f3*3([Fs avg,Fs max]))
其中,σ表示sigmoid激活函数,f3*3表示卷积层使用3*3的卷积,空间注意力模块使用全局平均池化和全局最大池化对输入的特征图F进行压缩操作,对输入特征分别在通道维度上做平均池化和最大池化操作,然后将得到的两个特征图按通道维度拼接,再经过一个卷积操作降维为1个通道,最后经过sigmoid函数生成空间注意力特征Ms
d)感兴趣区域对齐层RoIAlign采用非线性插值法将MA-RPN筛选的感兴趣区域与特征提取网络提取的特征图对应区域的特征,得到固定尺寸的特征图;
e)对MA-RPN筛选的感兴趣区域RoI进行分类和边界框的回归,并使用全卷积网络从感兴趣区域预测分割掩膜。
本发明的有益效果在于:
第一,提出了一种基于扩展的特征金字塔网络(ET-FPN),用于提取露天矿场多尺度特征信息,ET-FPN中特征纹理迁移模块用选取置信度较高的区域特征,同时设计一种前景和背景之间平衡的损失函数来减轻前景和背景的面积不平衡的问题,提高了遥感图像中露天矿场检测模型的精度;
第二,本发明在传统的区域生成网络上进行改进,引入了混合空间注意力,为区域生成网络提供空间注意力和通道注意力,使得不同模块的特征会随着网络的加深产生适应性改变,能够提高遥感影像中露天矿场检测的准确性。
第三,本发明是一种基于多尺度深度卷积神经网络的遥感图像露天矿场检测算法,将深度特征提取、特征金字塔网络、目标候选区生成、锚框生成、混合注意力机制、目标检测过程都融入到一个端到端的深度网络模型中,对于多尺度的遥感图像露天矿场的检测,能够达到较好的检测效果。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为露天矿场深度学习模型;
图2为ET-FPN结构;
图3为特征纹理迁移模块;
图4为混合注意力模块。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
请参阅图1~图4,本发明包括以下步骤:
(1)采集遥感图像并制作数据集;
a)以谷歌地球作为数据源,采集露天矿场遥感图像数据。
b)将采集的图像裁剪为512x512大小并进行数据增强,防止训练时过拟合。
c)使用标注工具对图像进行标注,标注好的数据划分为训练集和测试集。
(2)构建露天矿场检测的深度学习模型;
a)以残差模块构成的特征提取网络为骨干网络,用来提取特征;
b)扩展的特征金字塔网络(ET-FPN)提取露天矿场多尺度特征信息。扩展的特征金字塔网络(ET-FPN)框架中:Ai表示特征提取网络中第i阶段的特征图,Bi表示ET-FPN上的各个特征金字塔层。
特征纹理迁移模块输入特征B3的主要语义内容首先由内容提取器提取,纹理提取器从主流特征和参考特征的组合中选择可靠的区域纹理用于露天矿场检测,通过残差连接将纹理和高分辨的内容特征融合在一起,为ET-FPN生成B'3层。
特征纹理迁移模块的主要输入是ET-FPN第三层特征图B3,参考ET-FPN第四层特征图B2,输出B'3定义为:
B'3=Pt(B2||Pc(B3)↑2×)+Pc(B3)↑2×
在训练模型中,正样本特征图误差定义为:
Figure BDA0002756457930000051
全局特征图误差定义为:
L全局(F,Ft)=||Ft-F||1
前景和背景之间平衡的损失函数定义为:
L前-背(F,Ft)=L全局(F,Ft)+λL(F,Ft)
总损失函数:
L=L前-背(B'3,B3↑2×)+L前-背(B'2,B2↑2×)
其中Pt表示纹理提取器,Pc表示内容提取器,↑2×表示2倍上采样操作,L分别来自B'3-B3层特征图差和B'2-B2层特征图误差。
c)使用混合注意力的区域生成网络(MA-RPN)生成锚框和提取出感兴趣区域(RoI),MA-RPN由通道注意力和空间注意力组成。
通道注意力将一个通道上整个空间特征编码聚合为一个全局特征,再通一种运算提取通道之间的关系,通道注意力模块的计算公式如下:
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))
=σ(W1(W0(Fc avg))+W1(W0(Fc max)))
其中,σ表示sigmoid激活函数,MLP表示多层感知器,用来共享参数,Fc avg和Fc max表示全局平均池化和全局最大池化输出的特征。输入的特征图F通过全局最大池化和全局平均池化,然后分别通过多层感知器,将感知器输出的特征进行基于逐元素的相加操作,最后经过sigmoid激活函数,生成最终的通道注意力特征Mc
空间注意力用于准确定位空间中的露天矿场特征,添加空间注意力能准确定位露天矿场,提高检测的准确率。空间注意力模块的计算公式如下:
Ms(F)=σ(f3*3([AvgPool(F),MaxPool(F)]))
=σ(f3*3([Fs avg,Fs max]))
其中,σ表示sigmoid激活函数,f3*3表示卷积层使用3*3的卷积,空间注意力模块使用全局平均池化和全局最大池化对输入的特征图F进行压缩操作,对输入特征分别在通道维度上做平均池化和最大池化操作,然后将得到的两个特征图按通道维度拼接,再经过一个卷积操作降维为1个通道,最后经过sigmoid函数生成空间注意力特征Ms
d)感兴趣区域对齐层(RoIAlign)采用非线性插值法将MA-RPN筛选的感兴趣区域与特征提取网络提取的特征图对应区域的特征,得到固定尺寸的特征图;
e)对MA-RPN筛选的感兴趣区域(RoI)进行分类和边界框的回归,并使用全卷积网络从感兴趣区域预测分割掩膜。
(3)搭建环境并设置模型的初始参数;
(4)将露天矿场数据集中的训练集输入到构建好的深度学习模型中进行训练;
(5)通过不断调整参数,得到一个性能较好的检测模型,并用测试集来评估模型的性能;
(6)将待测的遥感图像输入到深度学习模型,得到露天矿场的检测结果。
本发明各部分具体实施细节如下:
(1)收集训练数据集与标注,以谷歌地球作为主要数据来源,采集露天矿场遥感图像数据。
(2)建立露天矿场检测的深度学习模型,采用残差卷积网络作为主干网络来提取输入图像特征,ET-FPN提取露天矿场多尺度特征信息。
(3)使用混合注意力的区域生成网络(MA-RPN)以滑窗的方式生成锚框和提取出感兴趣区域(RoI),感兴趣区域对齐层(RoIAlign)对RoI进行进一步处理,进行分类和边界框的回归,并使用全卷积网络从感兴趣区域预测分割掩膜。
(4)用露天矿场的训练集来训练模型,通过不断调整参数,得到一个性能较好的检测模型,并用测试集来评估模型的性能。
(5)将待测的遥感图像输入到深度学习模型,得到露天矿场的检测结果。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (1)

1.一种基于深度学习的遥感图像中的露天矿场检测方法,其特征在于:该方法包括以下步骤:
1)采集露天矿场的遥感图像,制作露天矿场检测的数据集;
2)构建露天矿场检测的深度学习模型,将遥感图像输入特征提取网络,用以提取特征;
3)将获取的特征图输入到扩展的特征金字塔网络ET-FPN进行处理,提取露天矿场多尺度特征信息;
4)混合注意力的区域生成区域候选网络MA-RPN生成候选区域,采用滑动窗口的方式生成锚框,并对锚框进行分类和边界框回归,基于混合注意力机制提取出感兴趣区域RoI;
5)感兴趣区域对齐层RoIAlign采用非线性插值法将MA-RPN筛选的感兴趣区域与特征提取网络提取的特征图对应区域的特征,得到固定尺寸的特征图;
6)对MA-RPN筛选的感兴趣区域RoI进行分类和边界框的回归,并使用全卷积网络从感兴趣区域预测分割掩膜;
所述特征金字塔网络ET-FPN满足:
1)特征纹理迁移模块用于超分辨率特征并选取置信度较高的区域特征;
2)设计一种前景和背景之间平衡的损失函数来减轻前景和背景的面积不平衡的问题;
所述区域候选网络MA-RPN,为区域生成网络引入混合注意力机制,其中混合注意力机制包括空间注意力和通道注意力;
所述1)具体为:
a)以谷歌地球作为数据源,采集露天矿场遥感图像数据;
b)将采集的图像裁剪为512x512大小并进行数据增强,防止训练时过拟合;
c)使用标注工具对图像进行标注,标注好的数据划分为训练集和测试集;
所述2)具体为:
a)以残差模块构成的特征提取网络为骨干网络,用来提取特征;
b)扩展的特征金字塔网络ET-FPN提取露天矿场多尺度特征信息;扩展的特征金字塔网络ET-FPN框架中:Ai表示特征提取网络中第i阶段的特征图,Bi表示ET-FPN上的各个特征金字塔层;
特征纹理迁移模块输入特征B3的主要语义内容首先由内容提取器提取,纹理提取器从主流特征和参考特征的组合中选择可靠的区域纹理用于露天矿场检测,通过残差连接将纹理和高分辨的内容特征融合在一起,为ET-FPN生成B'3层;
特征纹理迁移模块的主要输入是ET-FPN第三层特征图B3,参考ET-FPN第四层特征图B2,输出B'3定义为:
B'3=Pt(B2||Pc(B3)↑2×)+Pc(B3)↑2×
在训练模型中,正样本特征图误差定义为:
Figure FDA0003797639270000021
全局特征图误差定义为:
L全局(F,Ft)=||Ft-F||1
前景和背景之间平衡的损失函数定义为:
L前-背(F,Ft)=L全局(F,Ft)+λL(F,Ft)
总损失函数:
L=L前-背(B'3,B3↑2×)+L前-背(B'2,B2↑2×)
其中Pt表示纹理提取器,Pc表示内容提取器,↑2×表示2倍上采样操作,L分别来自B'3-B3层特征图差和B'2-B2层特征图误差;
c)使用混合注意力的区域生成网络MA-RPN生成锚框和提取出感兴趣区域RoI,MA-RPN由通道注意力和空间注意力组成;
通道注意力将一个通道上整个空间特征编码聚合为一个全局特征,再通一种运算提取通道之间的关系,通道注意力模块的计算公式如下:
Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))
=σ(W1(W0(Fc avg))+W1(W0(Fc max)))
其中,σ表示sigmoid激活函数,MLP表示多层感知器,用来共享参数,Fc avg和Fc max表示全局平均池化和全局最大池化输出的特征;输入的特征图F通过全局最大池化和全局平均池化,然后分别通过多层感知器,将感知器输出的特征进行基于逐元素的相加操作,最后经过sigmoid激活函数,生成最终的通道注意力特征Mc
空间注意力用于准确定位空间中的露天矿场特征,添加空间注意力能准确定位露天矿场,提高检测的准确率;空间注意力模块的计算公式如下:
Ms(F)=σ(f3*3([AvgPool(F),MaxPool(F)]))
=σ(f3*3([Fs avg,Fs max]))
其中,σ表示sigmoid激活函数,f3*3表示卷积层使用3*3的卷积,空间注意力模块使用全局平均池化和全局最大池化对输入的特征图F进行压缩操作,对输入特征分别在通道维度上做平均池化和最大池化操作,然后将得到的两个特征图按通道维度拼接,再经过一个卷积操作降维为1个通道,最后经过sigmoid函数生成空间注意力特征Ms
d)感兴趣区域对齐层RoIAlign采用非线性插值法将MA-RPN筛选的感兴趣区域与特征提取网络提取的特征图对应区域的特征,得到固定尺寸的特征图;
e)对MA-RPN筛选的感兴趣区域RoI进行分类和边界框的回归,并使用全卷积网络从感兴趣区域预测分割掩膜。
CN202011204160.XA 2020-11-02 2020-11-02 一种基于深度学习的遥感图像中的露天矿场检测方法 Active CN112270280B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011204160.XA CN112270280B (zh) 2020-11-02 2020-11-02 一种基于深度学习的遥感图像中的露天矿场检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011204160.XA CN112270280B (zh) 2020-11-02 2020-11-02 一种基于深度学习的遥感图像中的露天矿场检测方法

Publications (2)

Publication Number Publication Date
CN112270280A CN112270280A (zh) 2021-01-26
CN112270280B true CN112270280B (zh) 2022-10-14

Family

ID=74344555

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011204160.XA Active CN112270280B (zh) 2020-11-02 2020-11-02 一种基于深度学习的遥感图像中的露天矿场检测方法

Country Status (1)

Country Link
CN (1) CN112270280B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113160117A (zh) * 2021-02-04 2021-07-23 成都信息工程大学 一种自动驾驶场景下的三维点云目标检测方法
CN113076972A (zh) * 2021-03-04 2021-07-06 山东师范大学 一种基于深度学习的两阶段Logo图像检测方法及系统
CN113239825B (zh) * 2021-05-19 2022-08-19 四川中烟工业有限责任公司 一种复杂场景下高精度烟草甲虫检测方法
CN113379773B (zh) * 2021-05-28 2023-04-28 陕西大智慧医疗科技股份有限公司 基于双重注意力机制的分割模型建立、分割方法及装置
CN113361428B (zh) * 2021-06-11 2023-03-24 浙江澄视科技有限公司 一种基于图像的交通标志检测方法
CN113435411B (zh) * 2021-07-26 2022-06-17 中国矿业大学(北京) 一种基于改进DeepLabV3+的露天矿区土地利用识别方法
CN113793472B (zh) * 2021-09-15 2023-01-20 应急管理部沈阳消防研究所 基于特征深度聚合网络的图像型火灾探测器位姿估计方法
CN113887459B (zh) * 2021-10-12 2022-03-25 中国矿业大学(北京) 一种基于改进Unet++的露天矿区采场变化区域检测方法
CN114549972B (zh) * 2022-01-17 2023-01-03 中国矿业大学(北京) 露天矿采场提取方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874593A (zh) * 2019-11-06 2020-03-10 西安电子科技大学 基于掩膜的遥感图像旋转目标检测方法
CN111753677A (zh) * 2020-06-10 2020-10-09 杭州电子科技大学 基于特征金字塔结构的多角度遥感船舶图像目标检测方法
CN111783523A (zh) * 2020-05-19 2020-10-16 中国人民解放军93114部队 一种遥感影像旋转目标检测方法
CN112016511A (zh) * 2020-09-08 2020-12-01 重庆市地理信息和遥感应用中心 基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MY188125A (en) * 2014-09-15 2021-11-22 Temasek Life Sciences Laboratory Image recognition system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874593A (zh) * 2019-11-06 2020-03-10 西安电子科技大学 基于掩膜的遥感图像旋转目标检测方法
CN111783523A (zh) * 2020-05-19 2020-10-16 中国人民解放军93114部队 一种遥感影像旋转目标检测方法
CN111753677A (zh) * 2020-06-10 2020-10-09 杭州电子科技大学 基于特征金字塔结构的多角度遥感船舶图像目标检测方法
CN112016511A (zh) * 2020-09-08 2020-12-01 重庆市地理信息和遥感应用中心 基于大尺度深度卷积神经网络的遥感图像蓝顶房检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Novel Robust Feature Descriptor for Multi-Source Remote Sensing Image Registration;S.Cui;《IGARSS 2019 - 2019 IEEE International Geoscience and Remote Sensing Symposium》;20190802;全文 *
特征增强SSD算法及其在遥感目标检测中的应用;史文旭;《光子学报》;20200327;全文 *

Also Published As

Publication number Publication date
CN112270280A (zh) 2021-01-26

Similar Documents

Publication Publication Date Title
CN112270280B (zh) 一种基于深度学习的遥感图像中的露天矿场检测方法
CN110287849B (zh) 一种适用于树莓派的轻量化深度网络图像目标检测方法
CN109685776B (zh) 一种基于ct图像的肺结节检测方法及系统
CN109886066B (zh) 基于多尺度和多层特征融合的快速目标检测方法
CN110852316B (zh) 一种采用密集结构卷积网络的图像篡改检测和定位方法
KR102166458B1 (ko) 인공신경망 기반의 영상 분할을 이용한 불량 검출 방법 및 불량 검출 장치
JP2024509411A (ja) 欠陥検出方法、装置及びシステム
CN111488921B (zh) 一种全景数字病理图像智能分析系统及方法
CN111160301B (zh) 基于机器视觉的隧道病害目标智能识别及提取方法
CN109272060B (zh) 一种基于改进的darknet神经网络进行目标检测的方法和系统
CN109685765B (zh) 一种基于卷积神经网络的x光片肺炎结果预测装置
CN111401293B (zh) 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法
CN112801182B (zh) 一种基于困难样本感知的rgbt目标跟踪方法
KR20200092143A (ko) 딥러닝 신경망을 이용한 디스플레이 패널 불량 진단 시스템 및 방법
CN115909006B (zh) 基于卷积Transformer的乳腺组织图像分类方法及系统
CN114155474A (zh) 基于视频语义分割算法的损伤识别技术
CN107564032A (zh) 一种基于外观网络的视频跟踪对象分割方法
CN114627437A (zh) 一种交通目标识别方法及系统
CN114170422A (zh) 一种煤矿井下图像语义分割方法
CN113435514A (zh) 一种基于元深度学习的建筑垃圾精细分类方法、装置
CN112418207A (zh) 一种基于自注意力蒸馏的弱监督文字检测方法
CN116883650A (zh) 一种基于注意力和局部拼接的图像级弱监督语义分割方法
CN113920127B (zh) 一种训练数据集独立的单样本图像分割方法和系统
KR20200124887A (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치
CN112132816B (zh) 一种基于多任务与感兴趣区域分割引导的目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant