CN117351371A - 一种基于深度学习的遥感图像目标检测方法 - Google Patents

一种基于深度学习的遥感图像目标检测方法 Download PDF

Info

Publication number
CN117351371A
CN117351371A CN202311346895.XA CN202311346895A CN117351371A CN 117351371 A CN117351371 A CN 117351371A CN 202311346895 A CN202311346895 A CN 202311346895A CN 117351371 A CN117351371 A CN 117351371A
Authority
CN
China
Prior art keywords
remote sensing
sensing image
target detection
module
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311346895.XA
Other languages
English (en)
Inventor
陈辉
田博
寇文博
袁航
姜越
张欣雨
崔婧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lanzhou University of Technology
Original Assignee
Lanzhou University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lanzhou University of Technology filed Critical Lanzhou University of Technology
Priority to CN202311346895.XA priority Critical patent/CN117351371A/zh
Publication of CN117351371A publication Critical patent/CN117351371A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的遥感图像目标检测方法,包括:获取遥感图像数据集,对所述遥感图像数据集进行预处理;构建遥感图像目标检测模型,其中,所述遥感图像目标检测模型通过预处理后的遥感图像数据集进行训练得到;将待测遥感图像输入所述遥感图像目标检测模型,获取目标检测结果,其中,所述目标检测结果包括所述待测遥感图像中目标的位置及目标对应的类别。本发明基于深度学习,采用一种精细化特征提取的目标检测策略,对遥感图像进行快速精确的定位分类,能够实现对遥感图像中的目标精准检测,检测效率高。

Description

一种基于深度学习的遥感图像目标检测方法
技术领域
本发明属于计算机视觉技术领域,尤其涉及一种基于深度学习的遥感图像目标检测方法。
背景技术
随着科技的快速发展,遥感技术正处于持续演进的阶段,广泛应用于军事和民用领域。这一技术在海洋监测、天气预报、城市规划等多个领域都发挥着关键作用,对于国家的战略决策和社会发展至关重要。遥感技术的基础是电磁波传播原理,其应用的核心在于多传感器系统捕获并处理来自地面和大气中的电磁波信号,将其转化为可视化的图像信息。目前,随着遥感技术的不断进步和高分辨率卫星的广泛使用,获取高质量的遥感图像数据变得更为便捷。这些图像包含丰富的地物信息,为科研提供了宝贵的资源,可用于深入研究各种科学和技术问题。
遥感图像目标检测任务是一项重要的研究领域,旨在识别和定位特定类别的物体,对于海域监控、环境质量监测、城市规划等领域具有广泛的应用价值。提高目标检测性能,以获得更精确的定位和更细致的分类结果,已成为该领域的研究关注点。在遥感图像目标检测任务中,关键的挑战之一是有效的特征提取。传统的特征提取方法通常依赖于一系列基础几何特征,如边缘、纹理和颜色等,通过使用如角点检测算子(Harris)、方向梯度直方图(HOG)、哈尔特征(Haar)以及尺度不变特征变换(SIFT)等来实现。随后,通常会采用模板匹配或机器学习方法,如Adaboost等,来执行目标检测任务。然而,遥感图像通常具有较高的分辨率和大量数据,传统的方法在效率上存在一定局限,导致时间和人力成本较高。因此,提高遥感图像目标检测的效率和准确性,是当前该领域的迫切需求之一。新的方法和技术的引入,例如深度学习和卷积神经网络(Convolutional Neural Network,CNN),为解决这些挑战提供了新的可能性,有望显著改善遥感图像目标检测任务的性能。这些方法能够更好地处理高分辨率图像,并在减少时间和人力成本的同时提供更精确的检测结果。
近年来,深度学习技术的蓬勃发展为解决遥感图像中的目标检测问题带来了革命性的变革。相较于传统的遥感图像目标检测方法,深度学习方法不再需要繁琐的手工特征提取和先验信息设置。取而代之的是,深度神经网络模型直接参与目标检测任务,从而极大地简化了整个检测流程。这种新方法不仅显著提升了检测速度,还能够自动学习更为复杂的目标特征,使检测性能得到显著提升。因此,深度学习技术在遥感图像分析领域的广泛应用程度逐渐攀升,并且为遥感图像目标检测领域带来了重要的进展。然而,由于遥感图像的复杂性以及通用深度神经网络的一些限制,现有方法仍然存在一些问题,尤其是在处理目标尺度变化较大的遥感图像时,检测效果和鲁棒性方面仍然不尽如人意。因此,如何充分利用深度学习技术,使计算机能够在各种复杂环境中自动、高效、精确地检测出遥感图像中的典型目标,已经成为计算机视觉领域急需解决的难题。深入研究基于深度学习的遥感图像目标检测方法,不仅在学术界具备重要的理论研究价值,同时其理论成果还能够为社会和经济带来巨大的潜在收益。这包括但不限于提高军事侦察、自然灾害监测、城市规划等领域的效率和准确性,从而为社会和经济发展带来积极的影响。因此,对基于深度学习的遥感图像目标检测方法的深入研究具有重要的理论和实际意义。
发明内容
为解决上述技术问题,本发明提出了一种基于深度学习的遥感图像目标检测方法,以达到对遥感图像进行快速精确定位分类的目的。
为实现上述目的,本发明提供了一种基于深度学习的遥感图像目标检测方法,包括:
获取遥感图像数据集,对所述遥感图像数据集进行预处理;
构建遥感图像目标检测模型,其中,所述遥感图像目标检测模型通过预处理后的遥感图像数据集进行训练得到;
将待测遥感图像输入所述遥感图像目标检测模型,获取目标检测结果,其中,所述目标检测结果包括所述待测遥感图像中目标的位置及目标对应的类别。
可选的,对所述遥感图像数据集进行预处理包括:对所述遥感图像数据集中的图像进行缩放、翻转、分割和增强处理,并绘制目标的标签。
可选的,所述遥感图像目标检测模型包括:输入网络、特征提取主干网络、注意力机制特征融合网络和多级检测头;
所述输入网络,用于输入所述待测遥感图像;
所述特征提取主干网络,用于对输入的所述待测遥感图像进行降采样,获取若干大小不同的特征图;
所述注意力机制特征融合网络,用于对所述特征图进行特征融合,获取不同尺度的融合特征图;
所述多级检测头,用于对所述不同尺度的融合特征图进行分类检测,获取所述目标检测结果。
可选的,所述特征提取主干网络包括依次连接的若干特征图提取子网络,每个所述特征图提取子网络输出不同尺寸的特征图。
可选的,每个所述特征图提取子网络中均包括D-ELAN模块,所述D-ELAN模块采用多分支结构,每个分支的输入通道和输出通道一致;其中所述D-ELAN模块包括左分支和右分支;
所述D-ELAN模块的左分支采用可变形卷积模块压缩通道,所述D-ELAN模块的右分支经过若干个可变形卷积模块压缩通道,通过Concat连接操作将左右分支串联连接,并对输出采用DCNblock可变形卷积模块提取特征。
可选的,所述特征图提取子网络还包括D-MP模块,所述D-MP模块包括左分支和右分支,所述D-MP模块的左分支和所述D-MP模块的右分支通过Concat连接操作连接在一起;其中,所述D-MP模块的左分支采用最大池化进行降采样,并采用卷积压缩通道;所述D-MP模块的右分支采用卷积压缩通道,并利用DCNblock可变形卷积模块进行降采样。
可选的,所述注意力机制特征融合网络的横向连接处采用SimAM三维无参注意力机制融合特征。
可选的,所述遥感图像目标检测模型中的损失函数为:
其中,LGWD代表目标的训练损失函数,代表预测框的中心坐标、宽度和高度,/>代表真实框的中心坐标、宽度和高度,Na表示预测框的高斯分布模型,Nb为真实框的高斯分布模型,/>是距离度量,C为常数,GWD(Na,Nb)表示两个边界框之间的高斯瓦瑟斯坦距离。
还提供一种计算机可读存储介质,所述计算机可读存储介质存储有可执行指令,机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现基于基于深度学习的遥感图像目标检测方法。
还提供一种计算机设备,所述设备包括存储器和处理器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器执行所述机器可执行指令以实现基于深度学习的遥感图像目标检测方法。
本发明技术效果:
(1)本发明提供的一种基于深度学习的遥感图像目标检测方法,采用可变形卷积在骨干网络中提取样本特征的策略,针对性处理浅层特征表达不良好的问题,显著提高了检测精度;
(2)本发明提供的一种基于深度学习的遥感图像目标检测方法,在颈部网络中融入SimAM三维无参注意力机制,自适应调节浅层特征的纹理信息和深层语义信息的融合权重,更有针对性地抑制提取浅层特征时带来的噪声,显著提高了检测准确性。
(3)本发明提供的一种基于深度学习的遥感图像目标检测方法,采用高斯瓦瑟斯坦距离作为损失函数,针对性处理多尺度问题,显著提高了小目标检测能力。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例一种基于深度学习的遥感图像目标检测方法的流程图;
图2为本发明实施例中遥感图像目标检测模型的结构示意图;
图3为本发明实施例提供的基于深度学习的遥感图像目标检测方法执行网球场检测任务的遥感图像检测结果示意图。
图4为本发明实施例提供的基于深度学习的遥感图像目标检测方法执行飞机检测任务的遥感图像检测结果示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
如图1所示,本实施例中提供一种基于深度学习的遥感图像目标检测方法,包括:
获取遥感图像数据集,对遥感图像数据集进行预处理;
构建遥感图像目标检测模型,其中,遥感图像目标检测模型通过预处理后的遥感图像数据集进行训练得到;
将待测遥感图像输入所述遥感图像目标检测模型,获取目标检测结果,其中,目标检测结果包括所述待测遥感图像中目标的位置及目标对应的类别。
具体为:
获取大型遥感图像数据集,并分为训练数据集、验证数据集和测试数据集;
获取训练数据集,并对数据集中的图像进行缩放、翻转和分割操作,并绘制目标的标签。
使用数据集对初始遥感图像目标检测模型进行训练,将训练后的最优权重文件加载至模型当中,得到遥感图像目标检测模型;
使用遥感图像目标检测模型输出对应的目标检测结果,检测结果包括待分类图像中目标的位置及每个目标对应的类别:
如图2所示,遥感图像目标检测模型结构包括输入、特征提取主干网络、注意力机制特征融合网络和多级检测头,特征提取主干网络输出四个大小分别为160×160、80×80、40×40、20×20的特征图,经过SimAM三维注意力机制从三维空间调制特征权重,输入到特征融合网络,多级检测头基于特征融合网络输出160×160、80×80、40×40、20×20四个尺度的融合特征图进行分类检测,最终由多级检测头输出目标的检测结果;
特征提取主干网络包括对输入图像的降采样4、8、16、32倍的特征图P2、P3、P4、P5;
注意力机制特征融合网络结构为特征图P2、P3、P4、P5通过SimAM三维注意力机制进入特征融合网络,经过卷积层、上采样层和拼接层;注意力机制融合网络结构第一采样层的输出作为大小160×160的融合特征输出至多级检测头;注意力机制融合网络结构第三采样层的输出作为大小80×80的融合特征输出至多级检测头;注意力机制融合网络结构第五采样层的输出作为大小40×40的融合特征输出至多级检测头;注意力机制融合网络结构第七采样层的输出作为大小20×20的融合特征输出至多级检测头。
特征提取主干网络包括依次连接的若干特征图提取子网络,每个特征图提取子网络输出不同尺寸的特征图,每个特征图提取子网络中均包括D-ELAN模块,除第一个特征图提取子网络外,其他特征图提取子网络还包括D-MP模块,并且D-MP模块与D-ELAN模块连接,本实施例中,特征提取主干网络包括依次连接的4个特征图提取子网络,其中,第一特征图提取子网络包括依次连接的第一CBS模块、第二CBS模块、第三CBS模块、第四CBS模块、第一D-ELAN模块,第二特征图提取子网络包括第一D-MP模块、第二D-ELAN模块,第三特征图提取子网络包括第二D-MP模块、第三D-ELAN模块,第四特征图提取子网络包括第三D-MP模块和第四D-ELAN模块;其中,CBS模块包括卷积、批量归一化、silu激活函数。
第一D-ELAN模块输出大小为160×160的特征图,第二D-ELAN模块输出大小为80×80的特征图,第三D-ELAN模块输出大小为40×40的特征图,第四D-ELAN模块输出大小为20×20的特征图,
D-EALN模块采用多分支结构,每个分支的输入通道和输出通道保持一致。保持最长梯度路径不变,使用Concat连接操作将特征拼接在一起,最后使用1×1卷积对通道进行压缩。其中左分支采用可变形卷积模块压缩通道,右分支经过五个可变形卷积模块压缩通道,依次串联起来,通过Concat连接操作将左右分支连接起来,并对输出采用可变形卷积模块提取特征。
D-MP模块的左边分支采用最大池化来实现降采样,并使用一个1×1卷积来压缩通道。右边分支首先用1×1卷积压缩通道,然后再使用DCNblock可变形卷积模块来完成降采样。最后,将这两个分支通过Concat连接操作连接在一起。
基于注意力机制融合网络结构横向连接处使用SimAM三维无参注意力机制融合特征。
损失函数采用下式进行:
在公式中,LGWD代表目标的训练损失函数,损失函数为高斯瓦瑟斯坦距离损失函数,代表预测框的中心坐标、宽度和高度,/>代表真实框的中心坐标、宽度和高度,Na表示预测框的高斯分布模型,Nb为真实框的高斯分布模型,GWD(Na,Nb)是距离度量,C为常数。GWD(Na,Nb)表示两个边界框之间的高斯瓦瑟斯坦距离。
采用上述基于深度学习的遥感图像目标检测方法,利用DIOR遥感数据集,训练检测模型,获取遥感图像目标检测模型,将训练后的最优权重文件加载至模型当中,得到遥感图像目标检测模型;如图4所示,从遥感数据集中获取任意一张飞机的遥感图像,使用遥感图像目标检测模型输出对应的目标检测结果。
本实施例的基于深度学习的遥感图像目标检测方法由训练检测模型和测试检测模型两个步骤构成,训练检测模型的步骤如下:
(1)获取训练样本并进行预处理
(a)使用大型遥感图像数据集DIOR中选取5262张图像作为训练样本图像,从遥感数据集中选取5863张图像作为验证样本图像,从遥感数据集中选取11738张图像作为测试样本图像。
(b)对5262张训练样本进行预处理,具体措施为翻转、缩放、分割、CutOut增强、CutMix增强、MixUp增强和Mosaic增强。
(c)5863张验证样本图像不需要预处理,11738张测试样本图像不需要预处理。
(2)训练深度学习神经网络模型
(a)使用5262张训练样本作为模型的输入,确定训练批次大小为32,最大迭代次数为300;
(b)输入依次通过卷积网络特征提取、金字塔特征融合结构和检测头结构,通过标签匹配与损失计算得到梯度,重新更新模型中的参数,每次迭代使用5863张图像进行测试,通过整个迭代次数,获得训练收敛最优的一组权重。
(3)上述训练完成后,得到了完成的用于遥感图像目标检测的深度卷积网络模型。
本实例的测试检验模型的步骤如下:
(1)获取测试样本
从遥感数据集中获取任意一张遥感图像,测试样本图像不要求范围和分辨率,也不限制大小和形状。所有测试样本图像不需要进行额外的预处理。
(2)调整检测模型
训练检测模型的步骤全部完成后,载入最优权重,对输入的图像调整为640×640,提取阈值为0.45,保留交并比大于0.45的边界框。
(3)获得检测框
使用检测框融合算法处理测试样本中的所有检测框,可以得到最终的遥感图像目标检测结果。
如图3所示,为基于深度学习的遥感图像目标检测方法执行网球场检测任务第一的遥感图像检测结果示意图,本实施例的测试样本来自DIOR遥感图像数据集,DIOR遥感图像数据集中的测测试样本图像一般包含地面的一些常见目标。本发明在DIOR遥感图像数据集上执行网球场检测任务。测试样本图像的大小范围是800×800,测试样本图像或者其部分没有出现在训练样本中。
本实施例还提供一种计算机可读存储介质,计算机可读存储介质存储有可执行指令,机器可执行指令在被处理器调用和执行时,机器可执行指令促使处理器实现基于深度学习的遥感图像目标检测方法。
本实施例还提供一种计算机设备,设备包括存储器和处理器,存储器存储有能够被处理器执行的机器可执行指令,处理器执行所述机器可执行指令以实现基于深度学习的遥感图像目标检测方法。
本发明提出了一种基于深度学习的遥感图像目标检测算法,该方法能够实现对遥感图像目标的精确定位和识别。改进模型采用了可变形卷积作为主干网络,从而提升了网络的特征提取能力。同时,通过引入SimAM注意力机制改进多尺度特征融合结构,成功抑制了背景特征带来的干扰,增强了模型对遥感图像目标特征的提取能力,进而提高了模型的定位准确性。引入了高斯瓦瑟斯坦距离损失函数,计算回归损失,有效增加了模型的多尺度检测能力。所以在整体上提升了遥感图像的检测能力。
以上,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (10)

1.一种基于深度学习的遥感图像目标检测方法,其特征在于,包括:
获取遥感图像数据集,对所述遥感图像数据集进行预处理;
构建遥感图像目标检测模型,其中,所述遥感图像目标检测模型通过预处理后的遥感图像数据集进行训练得到;
将待测遥感图像输入所述遥感图像目标检测模型,获取目标检测结果,其中,所述目标检测结果包括所述待测遥感图像中目标的位置及目标对应的类别。
2.如权利要求1所述的基于深度学习的遥感图像目标检测方法,其特征在于,对所述遥感图像数据集进行预处理包括:对所述遥感图像数据集中的图像进行缩放、翻转、分割和增强处理,并绘制目标的标签。
3.如权利要求1所述的基于深度学习的遥感图像目标检测方法,其特征在于,所述遥感图像目标检测模型包括:输入网络、特征提取主干网络、注意力机制特征融合网络和多级检测头;
所述输入网络,用于输入所述待测遥感图像;
所述特征提取主干网络,用于对输入的所述待测遥感图像进行降采样,获取若干大小不同的特征图;
所述注意力机制特征融合网络,用于对所述特征图进行特征融合,获取不同尺度的融合特征图;
所述多级检测头,用于对所述不同尺度的融合特征图进行分类检测,获取所述目标检测结果。
4.如权利要求3所述的基于深度学习的遥感图像目标检测方法,其特征在于,所述特征提取主干网络包括依次连接的若干特征图提取子网络,每个所述特征图提取子网络输出不同尺寸的特征图。
5.如权利要求4所述的基于深度学习的遥感图像目标检测方法,其特征在于,每个所述特征图提取子网络中均包括D-ELAN模块,所述D-ELAN模块采用多分支结构,每个分支的输入通道和输出通道一致,其中所述D-ELAN模块包括左分支和右分支;
所述D-ELAN模块的左分支采用可变形卷积模块压缩通道,所述D-ELAN模块的右分支经过若干个可变形卷积模块压缩通道,通过Concat连接操作将左右分支串联连接,并对输出采用DCNblock可变形卷积模块提取特征。
6.如权利要求5所述的基于深度学习的遥感图像目标检测方法,其特征在于,所述特征图提取子网络还包括D-MP模块,所述D-MP模块包括左分支和右分支,所述D-MP模块的左分支和所述D-MP模块的右分支通过Concat连接操作连接在一起;其中,所述D-MP模块的左分支采用最大池化进行降采样,并采用卷积压缩通道;所述D-MP模块的右分支采用卷积压缩通道,并利用DCNblock可变形卷积模块进行降采样。
7.如权利要求3所述的基于深度学习的遥感图像目标检测方法,其特征在于,所述注意力机制特征融合网络的横向连接处采用SimAM三维无参注意力机制融合特征。
8.如权利要求1所述的基于深度学习的遥感图像目标检测方法,其特征在于,所述遥感图像目标检测模型中的损失函数为:
其中,LGWD代表目标的训练损失函数,代表预测框的中心坐标、宽度和高度,/>代表真实框的中心坐标、宽度和高度,Na表示预测框的高斯分布模型,Nb为真实框的高斯分布模型,/>是距离度量,C为常数,GWD(Na,Nb)表示两个边界框之间的高斯瓦瑟斯坦距离。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有可执行指令,机器可执行指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现权利要求1至8任一项所述的基于深度学习的遥感图像目标检测方法。
10.一种计算机设备,其特征在于,所述设备包括存储器和处理器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器执行所述机器可执行指令以实现权利要求1至8任一项所述的基于深度学习的遥感图像目标检测方法。
CN202311346895.XA 2023-10-18 2023-10-18 一种基于深度学习的遥感图像目标检测方法 Pending CN117351371A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311346895.XA CN117351371A (zh) 2023-10-18 2023-10-18 一种基于深度学习的遥感图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311346895.XA CN117351371A (zh) 2023-10-18 2023-10-18 一种基于深度学习的遥感图像目标检测方法

Publications (1)

Publication Number Publication Date
CN117351371A true CN117351371A (zh) 2024-01-05

Family

ID=89366362

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311346895.XA Pending CN117351371A (zh) 2023-10-18 2023-10-18 一种基于深度学习的遥感图像目标检测方法

Country Status (1)

Country Link
CN (1) CN117351371A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117876797A (zh) * 2024-03-11 2024-04-12 中国地质大学(武汉) 图像多标签分类方法、装置及存储介质
CN117876797B (zh) * 2024-03-11 2024-06-04 中国地质大学(武汉) 图像多标签分类方法、装置及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117876797A (zh) * 2024-03-11 2024-04-12 中国地质大学(武汉) 图像多标签分类方法、装置及存储介质
CN117876797B (zh) * 2024-03-11 2024-06-04 中国地质大学(武汉) 图像多标签分类方法、装置及存储介质

Similar Documents

Publication Publication Date Title
CN107657279B (zh) 一种基于少量样本的遥感目标检测方法
CN104361313B (zh) 一种基于多核学习异构特征融合的手势识别方法
CN110163069B (zh) 用于辅助驾驶的车道线检测方法
CN103778435A (zh) 一种基于视频的行人快速检测方法
CN107767400A (zh) 基于层次化显著性分析的遥感图像序列动目标检测方法
CN109919145B (zh) 一种基于3d点云深度学习的矿卡检测方法及系统
CN107886539B (zh) 一种工业场景下高精度齿轮视觉检测方法
CN108229551A (zh) 一种基于紧凑字典稀疏表示的高光谱遥感图像分类方法
CN111339935A (zh) 一种基于可解释cnn图像分类模型的光学遥感图片分类方法
CN104751475A (zh) 一种面向静态图像对象识别的特征点优选匹配方法
CN114863189B (zh) 一种基于大数据的图像智能识别方法
CN111639697B (zh) 基于非重复采样与原型网络的高光谱图像分类方法
CN113536963A (zh) 基于轻量化yolo网络的sar图像飞机目标检测方法
CN105512622A (zh) 一种基于图分割和监督学习的可见光遥感图像海陆分割方法
CN111368691A (zh) 无监督高光谱遥感图像空谱特征提取方法
CN109034213A (zh) 基于相关熵原则的高光谱图像分类方法和系统
CN105354547A (zh) 一种结合纹理和彩色特征的行人检测方法
CN103268494B (zh) 基于稀疏表示的寄生虫虫卵识别方法
CN106886754A (zh) 一种基于三角面片的三维场景下的物体识别方法及系统
CN103455798B (zh) 基于最大几何流向直方图的人体检测方法
CN108257148A (zh) 特定对象的目标建议窗口生成方法及其在目标跟踪的应用
CN109977892A (zh) 基于局部显著性特征和cnn-svm的舰船检测方法
CN113408651B (zh) 基于局部判别性增强的无监督三维物体分类方法
CN117351371A (zh) 一种基于深度学习的遥感图像目标检测方法
Chen et al. Improved Faster R-CNN identification method for containers

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination