CN113468993B - 一种基于深度学习的遥感图像目标检测方法 - Google Patents

一种基于深度学习的遥感图像目标检测方法 Download PDF

Info

Publication number
CN113468993B
CN113468993B CN202110687924.3A CN202110687924A CN113468993B CN 113468993 B CN113468993 B CN 113468993B CN 202110687924 A CN202110687924 A CN 202110687924A CN 113468993 B CN113468993 B CN 113468993B
Authority
CN
China
Prior art keywords
fine
layer
grained
frame
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110687924.3A
Other languages
English (en)
Other versions
CN113468993A (zh
Inventor
雷建军
王梦园
彭勃
张轩宇
于传波
郭亭佚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202110687924.3A priority Critical patent/CN113468993B/zh
Publication of CN113468993A publication Critical patent/CN113468993A/zh
Application granted granted Critical
Publication of CN113468993B publication Critical patent/CN113468993B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度学习的遥感图像目标检测方法,方法包括:以遥感图像作为输入,使用特征金字塔网络提取不同尺度的特征图;构建自底向上的细粒度增强模块,用于底层特征向上传递、与上层特征逐层融合,实现自底向上加强细粒度信息、优化目标定位;在细粒度信息的基础上获取检测框位置的初步预测,确定初步预测框的位置;使用卷积网络搭建预测头,将不同尺度的对齐特征送入并行的分类支路和回归支路进行预测;构建具有角度周期约束的方向敏感回归损失函数,对回归损失进行修正,获得更接近真实框的预测值,进而构建网络优化的总体损失,训练基于深度学习的遥感图像目标检测网络。本发明通过利用底层特征富含的细粒度信息“自底向上”地增强上层特征,提高了定位准确度。

Description

一种基于深度学习的遥感图像目标检测方法
技术领域
本发明涉及目标检测、计算机视觉领域,尤其涉及一种基于深度学习的遥感图像目标检测方法。
背景技术
随着遥感平台和传感器技术的不断进步发展,利用星载、机载等载荷平台可以获得大量高空间分辨率的遥感图像。遥感图像富含丰富的空间及地面信息,是对地探测的重要数据来源,被广泛应用于军用和民用领域。光学遥感图像中的目标检测旨在分类和定位给定航空或卫星图像中包含的一个或多个感兴趣目标,其检测结果通常由包含检测目标的检测框和该目标的类别判断得分组成。
由于视点变化、背景复杂、光照、阴影等因素的影响,区别于自然图像,遥感图像具备目标体积较小、分布密集、角度多变,以及背景与目标之间的区分度较小的特点,增加了遥感图像目标检测的难度。由于遥感图像俯视拍摄的特殊性,在检测目标时需要额外关注目标的方向信息,这使得自然图像目标检测难以有效地适用于遥感图像。
传统的遥感图像目标检测方法通过提取手工设计特征来对图像进行检测框预测。例如,Li等人提出了一种基于脊波变换和修正的平行光束拉东变换的直路边缘检测方法。但是这类方法所采用的特征无法表达目标的抽象语义特征,导致其检测性能受到限制。近年来,人们开始关注基于深度学习的目标检测方法。这类方法的基本步骤为:首先提取一组能够表征目标的特征,然后使用所提特征进行类别和位置的预测。针对遥感图像中目标方向任意旋转的问题,许多方法使用旋转框代替水平框检测,以使得检测结果兼具目标的方向信息。如Ding等人设计感兴趣区域(Region of Interest,ROI)Transformer,通过全连接学习将水平RoI转化为旋转RoI。Han等人通过设计对齐卷积层缓解了旋转框预测中分类和回归的不一致问题。然而,上述方法没有充分利用细粒度信息来增强目标的位置信息,导致遥感图像目标检测的定位精度受到限制。此外,旋转角度的预测对于水平框到旋转框的转换至关重要,上述方法没有考虑到旋转角度回归的特殊性,使用与水平框检测中常用的回归损失函数来约束旋转角度的预测,易对网络角度预测造成一定程度的误导。
因此,充分利用底层特征所富含的细粒度信息,并加强对于旋转角度回归的关注在遥感图像目标检测中具有重要的研究意义。
发明内容
考虑到细粒度信息对于检测框的准确定位具有较大的帮助、以及确定旋转角度对于水平框到旋转框转换至关重要,本发明提出了一种基于深度学习的遥感图像目标检测方法,通过利用底层特征富含的细粒度信息“自底向上”地增强上层特征,进而提高定位准确度,详见下文描述:
一种基于深度学习的遥感图像目标检测方法,所述方法包括:
以遥感图像作为输入,使用特征金字塔网络提取不同尺度的特征图;
构建自底向上的细粒度增强模块,用于底层特征向上传递、与上层特征逐层融合,实现自底向上加强细粒度信息、优化目标定位;
在细粒度信息的基础上获取检测框位置的初步预测,确定初步预测框的位置;使用卷积网络搭建预测头,将不同尺度的对齐特征送入并行的分类支路和回归支路进行预测;
构建具有角度周期约束的方向敏感回归损失函数,对Smoothl1 loss回归损失进行修正,获得更接近真实框的预测值,进而构建网络优化的总体损失,训练基于深度学习的遥感图像目标检测网络。
其中,所述自底向上的细粒度增强模块具体为:
在第i层,以更低一层的增强后特征
Figure BDA0003125261900000021
和对应尺寸的FPN特征Fi作为输入,输出该层细粒度增强特征
Figure BDA0003125261900000022
通过卷积对
Figure BDA0003125261900000023
进行下采样以适应Fi尺寸;
通过逐像素相加进行初步的特征融合,通过使用注意力模块来学习两种特征的最佳融合权重,实现最终的特征融合。
进一步地,所述细粒度增强模块表示如下:
Figure BDA0003125261900000024
其中,Ca[·]表示兼顾了全局注意力和局部注意力的注意力学习模块,
Figure BDA0003125261900000025
表示逐像素点相加,τ[·]表示一个步长为2的3×3卷积,用于降低较底层特征
Figure BDA0003125261900000026
的分辨率,
Figure BDA0003125261900000027
表示逐像素点相乘;
通过迭代使用细粒度增强模块,得到细粒度增强特征
Figure BDA0003125261900000028
在一种实施方式中,所述具有角度周期约束的方向敏感回归损失函数为:
Figure BDA0003125261900000029
其中,θ表示预测框旋转角度,θgt是真值旋转角度,j和jgt分别表示旋转框预测参数和其对应的真实值,k表示权重系数。
本发明提供的技术方案的有益效果是:
1、本发明充分利用了底层特征的细粒度信息,并考虑了旋转角度的约束,实现了遥感图像旋转框检测的较好性能;
2、考虑到底层特征具备更丰富的细粒度信息,且细粒度信息对于检测框的准确定位具有较大的帮助价值,本发明设计了细粒度增强模块,利用底层特征富含的细粒度信息“自底向上”地增强上层特征,进而提高定位准确度;
3、考虑到确定旋转角度对于水平框到旋转框的转换至关重要,且角度具有周期性的特点,本发明设计基于角度周期性约束的回归损失函数以保证旋转角度的准确预测,从而获得较好的检测效果。
附图说明
图1为一种基于深度学习的遥感图像目标检测方法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
一、获取多尺度特征图
为了达到对于不同尺寸目标的有效检测,本方法以遥感图像作为输入,使用特征金字塔网络(Feature Pyramid Network,FPN)提取不同尺度的特征F∈Xh×w×c,其中h×w表示特征图的尺寸,c表示特征图通道,X表示特征空间。在所提取不同尺度特征中,底层特征尺寸较大,感受野较小,用于检测小目标;顶层特征尺寸较小,感受野较大,用于检测大目标。本方法中所用于检测的特征图尺寸分别为128×128,64×64,32×32,16×16,8×8。
二、构建自底向上的细粒度增强模块
考虑到底层特征具备更加丰富的细粒度信息,有助于更加精确地定位目标,本方法构建了自底向上的细粒度增强模块,用于将富含细粒度信息的底层特征向上传递、与上层特征逐层融合,达到自底向上加强细粒度信息、优化目标定位的效果。
具体来说,特征金字塔输出的特征表示为{F0,F1,F2,F3,F4},其中从F0到F4,特征图的尺寸通过二倍下采样依次递减。所提出自底向上的细粒度增强模块输出的细粒度增强特征表示为
Figure BDA0003125261900000041
其中,最底层的增强特征
Figure BDA0003125261900000042
由F0直接传递得到,其他层增强特征
Figure BDA0003125261900000043
则通过搭建自底向上的特征传递路径、迭代地堆叠细粒度增强模块而得到。
在第i层,所设计的细粒度增强模块以更低一层的增强后特征
Figure BDA0003125261900000044
和对应尺寸的FPN特征Fi作为输入,输出该层细粒度增强特征
Figure BDA0003125261900000045
首先,通过卷积对
Figure BDA0003125261900000046
进行下采样以适应Fi尺寸。然后通过逐像素相加进行初步的特征融合。最后通过使用注意力模块来学习两种特征的最佳融合权重,从而实现最终的特征融合。上述细粒度增强模块的过程可表示如下:
Figure BDA0003125261900000047
其中,Ca[·]表示兼顾了全局注意力和局部注意力的注意力学习模块,
Figure BDA0003125261900000048
表示逐像素点相加,τ[·]表示一个步长为2的3×3卷积,用于降低较底层特征
Figure BDA0003125261900000049
的分辨率,
Figure BDA00031252619000000410
表示逐像素点相乘。
通过迭代使用细粒度增强模块,可以得到细粒度增强特征
Figure BDA00031252619000000411
在此基础上进行第三部分的旋转框初步预测和特征对齐。
三、构建细粒度增强的特征对齐模块
为了在细粒度增强的特征基础上得到检测框位置的初步预测,构建了一个初步预测支路,该支路由两层3×3卷积构成,卷积的步长均设置为1。输出通道设置为5,分别表征预测框中心点x轴坐标、y轴坐标、框长、框宽以及框的旋转角度。通过这5个参量即可确定初步预测框的位置。
在得到初步预测框的位置坐标后,在每个预测框中均匀选择9个采样点,采样点的坐标位置通过该预测框坐标计算得到。基于所得的采样坐标,使用对齐卷积对各个尺度特征图进行卷积操作。对于特征图上的每一个像素点p,对齐卷积后的输出可由下式计算得到:
Figure BDA00031252619000000412
其中,X表示对齐卷积的输入特征图,Y表示对齐卷积的输出特征图,R表示p点对应初步检测框所算得的采样点坐标,W表示采样权重,r表示遍历R中的每一个采样点。
所使用对齐卷积与传统的卷积核大小为3×3的2D卷积的区别在于对齐卷积的采样点位置根据该点的初步预测框动态变化。目的是通过对齐卷积的操作,使用初步预测框的位置信息来指导卷积的采样,达到特征采样与检测框位置的对齐统一。
四、构建检测预测头
遥感图像目标检测的任务是输出恰好包围所关注目标的检测框坐标以及类别得分。本方法使用卷积网络进行最终的预测头设计。对于不同尺度的对齐特征,送入并行的分类支路和回归支路进行预测,两支路均由两层3×3卷积构成。
其中,分类支路输出通道数为C,C代表数据集所包含的类别总数,输出结果为每个检测框属于各个类别的概率值,概率值最大的类别则为该框对应的预测类别。回归支路的输出通道数为5,输出结果代表相对于初步预测框,每个最终预测框的中心点x轴坐标、y轴坐标、长、宽以及旋转角度的偏移量。分类结果和回归结果联合即为最终的检测结果。
五、设计方向敏感的回归损失
在检测头的回归分支中,用五个参数{x,y,w,h,θ}表示任意旋转角度的矩形框,参数分别代表旋转框中心点x轴坐标、y轴坐标、宽度、高度和旋转角度。通过设置适当的回归损失函数,可以引导网络在训练过程中获得更接近真实框的预测值。
目前的方法大多采用Smoothl1 loss来约束五个不同的参数,而没有考虑旋转角度的特殊性。其中,Smoothl1 loss计算过程如下:
Figure BDA0003125261900000051
其中,L表示预测框参数,Lgt表示真实框参数。
本方法对常见的Smoothl1 loss回归损失进行修正,设计了一个具有角度周期约束的方向敏感回归损失函数。
其中,优化后的回归损失函数如下:
Figure BDA0003125261900000052
其中,θ表示预测框旋转角度,θgt是真值旋转角度,j和jgt分别表示其他旋转框预测参数和其对应的真实值,k表示权重系数,本发明实施例中k设置为4。
考虑到旋转角度具有周期性的特点,旋转框回归的目标不是预测框角度和真实框角度完全一致,而是预测框和真实框保持平行即可。因此,设计smoothl1[sin(θ-θgt)]项进行旋转角度的约束,可以避免对于一些较为准确的预测框带来过大的损失惩罚的情况,引导网络更准确地进行角度预测。
六、构建网络优化的总体损失
考虑到检测任务包括:分类和回归两个子任务,本方法使用不同的损失函数分别约束。其中,分类损失使用Focal loss进行约束:
FL(pt)=-αt(1-pt)γlog(pt) (5)
Figure BDA0003125261900000061
其中,p表示预测样本属于正确类别的概率,范围为0-1,y表示真实标签,γ和αt表示调制系数。在本发明实施例中,γ设置为2.0,αt设置为0.25。
网络训练时总的损失函数为分类损失与回归损失的联合表示:
Figure BDA0003125261900000062
其中,Npos为所有正样本框(即属于真实目标框)的数目,Nneg为所有负样本框(即不属于真实目标框)的数目,Lcls为所有样本框的分类损失,Lreg为所有正样本框的回归损失。
七、训练基于深度学习的遥感图像目标检测网络
本发明实施例提出的基于深度学习的遥感图像目标检测网络结构包括:遥感图像多尺度特征提取、自底向上的细粒度增强模块、细粒度增强的特征对齐模块、检测预测头。通过约束损失函数端到端地训练整体网络,直到收敛。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种基于深度学习的遥感图像目标检测方法,其特征在于,所述方法包括:
以遥感图像作为输入,使用特征金字塔网络提取不同尺度的特征图;
构建自底向上的细粒度增强模块,用于底层特征向上传递、与上层特征逐层融合,实现自底向上加强细粒度信息、优化目标定位;
在细粒度信息的基础上获取检测框位置的初步预测,确定初步预测框的位置;使用卷积网络搭建预测头,将不同尺度的对齐特征送入并行的分类支路和回归支路进行预测;
构建具有角度周期约束的方向敏感回归损失函数,对Smoothl1 loss回归损失进行修正,获得更接近真实框的预测值,进而构建网络优化的总体损失,训练基于深度学习的遥感图像目标检测网络;
其中,所述自底向上的细粒度增强模块具体为:
在第i层,以更低一层的增强后特征
Figure FDA0003647037350000011
和对应尺寸的FPN特征Fi作为输入,输出该层细粒度增强特征
Figure FDA0003647037350000012
通过卷积对
Figure FDA0003647037350000013
进行下采样以适应Fi尺寸;
通过逐像素相加进行初步的特征融合,通过使用注意力模块来学习两种特征的最佳融合权重,实现最终的特征融合;
其中,所述细粒度增强模块表示如下:
Figure FDA0003647037350000014
其中,Ca表示兼顾了全局注意力和局部注意力的注意力学习模块,
Figure FDA0003647037350000015
表示逐像素点相加,τ表示一个步长为2的3×3卷积,用于降低较底层特征
Figure FDA0003647037350000016
的分辨率,
Figure FDA0003647037350000017
表示逐像素点相乘;
通过迭代使用细粒度增强模块,得到细粒度增强特征
Figure FDA0003647037350000018
其中,所述具有角度周期约束的方向敏感回归损失函数为:
Figure FDA0003647037350000019
其中,θ表示预测框旋转角度,θgt是真值旋转角度,j和jgt分别表示旋转框预测参数和其对应的真实值,k表示权重系数。
CN202110687924.3A 2021-06-21 2021-06-21 一种基于深度学习的遥感图像目标检测方法 Active CN113468993B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110687924.3A CN113468993B (zh) 2021-06-21 2021-06-21 一种基于深度学习的遥感图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110687924.3A CN113468993B (zh) 2021-06-21 2021-06-21 一种基于深度学习的遥感图像目标检测方法

Publications (2)

Publication Number Publication Date
CN113468993A CN113468993A (zh) 2021-10-01
CN113468993B true CN113468993B (zh) 2022-08-26

Family

ID=77869082

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110687924.3A Active CN113468993B (zh) 2021-06-21 2021-06-21 一种基于深度学习的遥感图像目标检测方法

Country Status (1)

Country Link
CN (1) CN113468993B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113902793B (zh) * 2021-11-05 2024-05-14 长光卫星技术股份有限公司 基于单视觉遥感影像端到端建筑物高度预测方法、系统和电子设备
CN114419520B (zh) * 2022-03-28 2022-07-05 南京智谱科技有限公司 视频级目标检测模型的训练方法及装置、设备、存储介质
CN115641445B (zh) * 2022-12-23 2023-03-14 西南石油大学 一种非对称内卷积与Transformer相融合的遥感图像阴影检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785298A (zh) * 2018-12-25 2019-05-21 中国科学院计算技术研究所 一种多角度物体检测方法和系统
CN111291786A (zh) * 2020-01-17 2020-06-16 清华大学 一种车载视觉实时多目标航向角估计方法及装置
CN112215308A (zh) * 2020-12-13 2021-01-12 之江实验室 一种吊装物体单阶检测方法、装置、电子设备及存储介质
CN112395975A (zh) * 2020-11-17 2021-02-23 南京泓图人工智能技术研究院有限公司 一种基于旋转区域生成网络的遥感图像目标检测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110599B (zh) * 2019-04-03 2023-05-09 天津大学 一种基于多尺度特征融合的遥感图像目标检测方法
CN111667030B (zh) * 2020-07-13 2023-04-07 华东理工大学 基于深度神经网络实现遥感图像目标检测的方法、系统及其存储介质
CN112101277B (zh) * 2020-09-24 2023-07-28 湖南大学 一种图像语义特征约束的遥感目标检测方法
CN112446301B (zh) * 2020-11-05 2022-08-09 中国科学院大学 一种遥感图像多类别目标检测方法和系统
CN112446327B (zh) * 2020-11-27 2022-06-07 中国地质大学(武汉) 一种基于无锚框的遥感图像目标检测方法
CN112560671B (zh) * 2020-12-15 2022-04-12 哈尔滨工程大学 基于旋转卷积神经网络的船舶检测方法
CN112699953B (zh) * 2021-01-07 2024-03-19 北京大学 基于多信息路径聚合的特征金字塔神经网络架构搜索方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785298A (zh) * 2018-12-25 2019-05-21 中国科学院计算技术研究所 一种多角度物体检测方法和系统
CN111291786A (zh) * 2020-01-17 2020-06-16 清华大学 一种车载视觉实时多目标航向角估计方法及装置
CN112395975A (zh) * 2020-11-17 2021-02-23 南京泓图人工智能技术研究院有限公司 一种基于旋转区域生成网络的遥感图像目标检测方法
CN112215308A (zh) * 2020-12-13 2021-01-12 之江实验室 一种吊装物体单阶检测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN113468993A (zh) 2021-10-01

Similar Documents

Publication Publication Date Title
CN113468993B (zh) 一种基于深度学习的遥感图像目标检测方法
Cao et al. An improved faster R-CNN for small object detection
CN112818903B (zh) 一种基于元学习和协同注意力的小样本遥感图像目标检测方法
WO2020143323A1 (zh) 遥感影像分割方法、装置及存储介质、服务器
Zhou et al. BOMSC-Net: Boundary optimization and multi-scale context awareness based building extraction from high-resolution remote sensing imagery
CN110110599B (zh) 一种基于多尺度特征融合的遥感图像目标检测方法
US11816149B2 (en) Electronic device and control method thereof
CN111985376A (zh) 一种基于深度学习的遥感影像舰船轮廓提取方法
Chen et al. Adaptive effective receptive field convolution for semantic segmentation of VHR remote sensing images
CN111061904B (zh) 一种基于图像内容识别的本地图片快速检测方法
CN112149547A (zh) 基于图像金字塔引导和像素对匹配的遥感影像水体识别
CN111753677A (zh) 基于特征金字塔结构的多角度遥感船舶图像目标检测方法
CN114373009B (zh) 基于高分辨率遥感影像的建筑物阴影测高智能化计算方法
CN108133235A (zh) 一种基于神经网络多尺度特征图的行人检测方法
Liu et al. Survey of road extraction methods in remote sensing images based on deep learning
CN112883850A (zh) 一种基于卷积神经网络的多视角空天遥感图像匹配方法
Nurkarim et al. Building footprint extraction and counting on very high-resolution satellite imagery using object detection deep learning framework
CN115937552A (zh) 一种基于融合手工特征与深度特征的图像匹配方法
CN115661569A (zh) 一种高精度的细粒度sar目标检测方法
CN114821341A (zh) 基于fpn与pan网络的双重注意力的遥感小目标检测方法
Sun et al. Decoupled feature pyramid learning for multi-scale object detection in low-altitude remote sensing images
CN113610032A (zh) 基于遥感影像的建筑物识别方法和装置
Shi et al. Anchor Free remote sensing detector based on solving discrete polar coordinate equation
CN116246096A (zh) 一种基于前景强化知识蒸馏的点云3d目标检测方法
CN115331254A (zh) 一种免锚框的实例人像语义解析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant