CN114882376B - 基于最优锚点尺度的卷积神经网络遥感影像目标检测方法 - Google Patents

基于最优锚点尺度的卷积神经网络遥感影像目标检测方法 Download PDF

Info

Publication number
CN114882376B
CN114882376B CN202210484475.7A CN202210484475A CN114882376B CN 114882376 B CN114882376 B CN 114882376B CN 202210484475 A CN202210484475 A CN 202210484475A CN 114882376 B CN114882376 B CN 114882376B
Authority
CN
China
Prior art keywords
target
anchor point
target detection
optimal
anchor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210484475.7A
Other languages
English (en)
Other versions
CN114882376A (zh
Inventor
董志鹏
刘焱雄
冯义楷
王艳丽
陈义兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
First Institute of Oceanography MNR
Original Assignee
First Institute of Oceanography MNR
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by First Institute of Oceanography MNR filed Critical First Institute of Oceanography MNR
Priority to CN202210484475.7A priority Critical patent/CN114882376B/zh
Publication of CN114882376A publication Critical patent/CN114882376A/zh
Application granted granted Critical
Publication of CN114882376B publication Critical patent/CN114882376B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于最优目标锚点尺度的卷积神经网络遥感影像目标检测方法,属于遥感影像目标识别及信息提取技术领域。本发明首先提出了一种遥感影像最优目标锚点尺度学习方法,可自适应获得不同目标检测任务的最优目标锚点尺度;然后基于最优目标锚点尺度学习方法,设计了一种基于最优目标锚点尺度的卷积神经网络遥感影像目标检测架构,可根据不同目标检测任务自适应调整锚点尺度,良好的耦合不同类型的目标尺度,实现对不同目标检测任务的精确检测。本发明具有简单、可靠、精度高、易于实现的特点。本发明可广泛运用于遥感影像目标识别及信息提取场合。

Description

基于最优锚点尺度的卷积神经网络遥感影像目标检测方法
技术领域
本发明涉及一种基于最优锚点尺度的卷积神经网络遥感影像目标检测方法,属于遥感影像目标识别及信息提取技术领域。
背景技术
目标检测作为高分辨率遥感影像信息自动提取、分析和理解的一项关键技术,在高分对地观测系统应用于军事侦察、灾害监测和精确打击等方面扮演着重要角色。遥感影像目标检测是指检测出影像中感兴趣的目标对象,并对感兴趣的目标对象进行精确定位的过程。针对目标检测过程中目标特征生成方式,现有目标检测方法分为传统的目标检测方法和基于卷积神经网络的目标检测方法。其中传统的目标检测方法需要认为设计目标特征,进行影像目标检测;基于卷积神经网络的目标检测方法可以基于训练数据自动学习与提取目标特征,实现影像目标检测。
传统的目标检测检测方法通常采用①提取目标候选区域->②获得目标候选区域特征->③基于目标候选区域特征进行分类,实现影像中目标检测。传统的目标检测检测方法通常对特定情况下的遥感影像目标检测可取得较好的效果,但由于高分辨率遥感卫星通常以一种自上而下的拍摄角度对地成像,易受天气、云、雾等环境条件影响,获得的遥感影像复杂多变,且高分辨率遥感卫星每天产生大量的遥感影像,传统的目标检测检测方法难以适应大数据量不同环境条件下的影像目标检测,算法的鲁棒性和普适性较弱。
近年来,深度学习引起不同领域学者的广泛关注。卷积神经网络(convolutionalneural networks,CNNs)作为最热门的深度学习模型,由于其不需要人为设计图像特征,且同一图像特征图通过共享“局部感受野”的卷积核参数,使得卷积神经网络比其他网络模型具有更少的网络参数量。此外,卷积神经网络可基于其特有的网络结构,根据海量数据和标注自行进行有效图像特征提取和学习;另外,在训练数据充足的情况下,模型具有良好的泛化能力,能够在复杂多变的条件下亦然保持良好的鲁棒性和普适性。因此,卷积神经网络模型已被广泛应用于数字图像处理中。自2014年基于卷积神经网络的regional CNN(R-CNN)目标检测架构,比传统的目标检测方法性能方面取得巨大提升以来,基于卷积神经网络目标检测方法被迅速发展,如Faster-RCNN、SSD(single shot multibox detector)和YOLO(you only look once)系列等目标检测框架相继被提出,这些目标检测架构在大数据量的遥感影像目标检测中取得良好的目标检测结果。目标锚点尺度是影响基于卷积神经网络目标检测方法检测精度的一项关键因素,但现有的基于卷积神经网络的目标检测架构均需要人为预先设定锚点尺度,难以根据不同目标检测任务自适应调整目标锚点尺度,使得目标锚点尺度难以藕合不同目标检测任务,影响影像目标检测结果精度。
针对以上问题,本发明提出了一种基于最优锚点尺度的卷积神经网络遥感影像目标检测方法。
发明内容
针对现有技术存在的上述缺陷,本发明提出了一种基于最优锚点尺度的卷积神经网络遥感影像目标检测方法。
本发明所述的基于最优锚点尺度的卷积神经网络遥感影像目标检测方法,包括以下步骤:
S1:自适应目标锚点尺度学习:基于目标锚点对训练数据集最优覆盖率准则,使用k均值聚类算法对不同类型的目标尺度聚类,获得不同目标检测任务的最优目标锚点尺度;
基于k均值聚类算法对训练数据集中目标尺度进行聚类,获得目标锚点的尺度大小,其中聚类过程基于目标与锚点间的交并比进行相似度度量,对目标锚点训练数据集覆盖率与测试集检测结果精度进行统计分析,当目标锚点可覆盖训练数据集80%的目标时对应的测试集目标检测结果精度最高,基于该统计准则,获得计算最优目标锚点尺度的目标函数:
Avg-IOU≥0.8 (2)
其中:n是训练数据集中目标数目;IOUimax是标签为i的目标与k个锚点间的最大交并比;Avg-IOU为训练集中所有目标与锚点交并比的平均值;
S2:自适应目标锚点尺度的卷积神经网络目标检测:基于最优目标锚点尺度的卷积神经网络遥感影像目标检测架构,实现对不同目标检测任务的精确检测;架构的训练损失计算如下:
Loss=Lcoord+Lclass+Lobj (3)
其中:Loss为目标检测架构的训练损失;Lcoord、Lclass和Lobj分别为目标坐标、类别和置信度损失;m为特征图的宽或高;n为在特征图的每个位置上锚点的数目;表示在特征图(i,j)位置上的标签为k的锚点是否为正样本,如果是正样本/>为1,否则为0;wij和hij为在特征图(i,j)位置上的标签为k的锚点对应的真值目标区域的宽与高;(xij,yij,wij,hij)为真值目标区域的中心点坐标和宽与高;/>为基于标签为k的锚点生成的目标区域中心点坐标和宽与高的网络架构的预测值;wa和ha为标签为k的锚点的宽与高;r为网络架构的分类数;/>为网络测架构对生成的目标区域不同类别的预测值;/>为基于标签为k的锚点生成的目标区域为目标的置信度预测值;
在目标检测架构测试阶段,使用公式(7)对网络架构中关于目标区域中心点坐标、置信度和类别预测值进行处理;使用公式(8)-(11)获得基于锚点的目标生成区域的中心点坐标和宽与高:
其中:(Ox,Oy,Ow,Oh)为网络目标生成区域的中心点坐标和宽与高。
优选地,所述步骤S1中,目前基于卷积神经网络的目标检测架构多采用多尺度目标检测方法对影像中目标进行检测,则本发明中也采用多尺度方式将聚类获得锚点均匀分布到网络架构的低、中和高三种不同层次水平的特征图上进行网络架构的训练与测试。
优选地,所述步骤S1中,遥感影像自适应目标锚点尺度学习方法具体实施如下所示:
S11:目标锚点的初始数目设定为3;
S12:基于训练集中目标与锚点数目,使用k均值算法对目标尺度聚类获得目标锚点;
S13:使用公式(1)计算训练集中目标与锚点的Avg-IOU值;
S14:如果Avg-IOU值满足公式(2),则获得目标的最优锚点,否则将锚点数目增加3,重复步骤S12;
S15:根据锚点面积对锚点从小到大排列,将排序后锚点均匀分配到目标检测架构的低、中和高不同层次水平的特征图上进行目标检测架构的训练与测试。
优选地,所述步骤S2中,将目标检测架构应用于不同目标检测任务时,首先使用自适应目标尺度学习算法获得该类任务的最优目标锚点尺度,然后基于最优目标锚点尺度对架构进行多尺度目标检测训练与测试。
优选地,所述步骤S2中,在目标检测架构中使用darknet-53获得影像的特征图,进行目标训练与测试的低、中和高水平的特征图尺度分别为52像素×52像素、26像素×26像素和13像素×13像素;该架构进行多尺度训练时,如果一个锚点与真值目标区域的交并比是所有锚点与该真值目标区域的交并比中最大的,则该锚点区域标记为正样本;剩余没有被标记为正样本的锚点均标记为负样本。
优选地,所述步骤S2中,如果生成的目标区域的置信度大于设定的阈值则保留,否则去掉;为了减少目标检测结果的冗余,使用非极大值抑制算法对保留的目标区域进行抑制,其中交并比阈值设定为0.3;非极大值抑制后剩余的目标区域为发明目标检测架构的目标检测结果。
本发明的有益效果是:本发明所述的基于最优锚点尺度的卷积神经网络遥感影像目标检测方法,可根据不同目标检测任务自适应调整锚点尺度,良好的耦合不同类型的目标尺度,获得准确的高分辨率遥感影像目标检测结果。
附图说明
图1是基于最优目标锚点尺度的卷积神经网络目标检测架构图。
图2是自适应目标尺度学习算法示意图。
图3是测试集检测结果精度与训练集目标锚点覆盖范围关系图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
实施例:
本发明技术方案可采用计算机软件方式支持自动运行流程。以下结合附图和实施例详细说明本发明技术方案。
(1)自适应目标锚点尺度学习:基于目标锚点对训练数据集最优覆盖率准则,使用k均值聚类算法对不同类型的目标尺度聚类,获得不同目标检测任务的最优目标锚点尺度。
本发明中基于k均值聚类算法对训练数据集中目标尺度进行聚类,获得目标锚点的尺度大小,其中聚类过程基于目标与锚点间的交并比进行相似度度量,具体聚类过程中如图2所示。对目标锚点训练数据集覆盖率与测试集检测结果精度进行统计分析,统计分析结果如图3所示。在图3中,当目标锚点可覆盖训练数据集80%的目标时对应的测试集目标检测结果精度最高。基于该统计准则,获得计算最优目标锚点尺度的目标函数如公式2所示。
Avg-IOU≥0.8 (2)
其中:n是训练数据集中目标数目;IOUimax是标签为i的目标与k个锚点间的最大交并比;Avg-IOU为训练集中所有目标与锚点交并比的平均值。
目前基于卷积神经网络的目标检测架构多采用多尺度目标检测方法对影像中目标进行检测,则本发明中也采用多尺度方式将聚类获得锚点均匀分布到网络架构的低、中和高三种不同层次水平的特征图上进行网络架构的训练与测试。遥感影像自适应目标锚点尺度学习方法具体实施如下所示:
1)目标锚点的初始数目设定为3;
2)基于训练集中目标与锚点数目,使用k均值算法对目标尺度聚类获得目标锚点;
3)使用公式(1)计算训练集中目标与锚点的Avg-IOU值;
4)如果Avg-IOU值满足公式(2),则获得目标的最优锚点,否则将锚点数目增加3,重复步骤2;
5)根据锚点面积对锚点从小到大排列,将排序后锚点均匀分配到目标检测架构的低、中和高不同层次水平的特征图上进行目标检测架构的训练与测试。
(2)自适应目标锚点尺度的卷积神经网络目标检测:基于最优目标锚点尺度的卷积神经网络遥感影像目标检测架构,实现对不同目标检测任务的精确检测。
基于自适应目标尺度学习算法,设计了一种基于最优目标锚点尺度的卷积神经网络遥感影像目标检测架构,如图1所示。将该架构应用于不同目标检测任务时,首先使用自适应目标尺度学习算法获得该类任务的最优目标锚点尺度,然后基于最优目标锚点尺度对架构进行多尺度目标检测训练与测试。在目标检测架构中使用darknet-53获得影像的特征图,进行目标训练与测试的低、中和高水平的特征图尺度分别为52像素×52像素、26像素×26像素和13像素×13像素。该架构进行多尺度训练时,如果一个锚点与真值目标区域的交并比是所有锚点与该真值目标区域的交并比中最大的,则该锚点区域标记为正样本;剩余没有被标记为正样本的锚点均标记为负样本。本发明架构的训练损失计算如下:
Loss=Lcoord+Lclass+Lobj (3)
其中:Loss为目标检测架构的训练损失;Lcoord、Lclass和Lobj分别为目标坐标、类别和置信度损失;m为特征图的宽或高;n为在特征图的每个位置上锚点的数目;表示在特征图(i,j)位置上的标签为k的锚点是否为正样本,如果是正样本/>为1,否则为0;wij和hij为在特征图(i,j)位置上的标签为k的锚点对应的真值目标区域的宽与高;(xij,yij,wij,hij)为真值目标区域的中心点坐标和宽与高;/>为基于标签为k的锚点生成的目标区域中心点坐标和宽与高的网络架构的预测值;wa和ha为标签为k的锚点的宽与高;r为网络架构的分类数;/>为网络测架构对生成的目标区域不同类别的预测值;/>为基于标签为k的锚点生成的目标区域为目标的置信度预测值。
在本发明目标检测架构测试阶段,使用公式(7)对网络架构中关于目标区域中心点坐标、置信度和类别预测值进行处理。使用公式(8)-(11)获得基于锚点的目标生成区域的中心点坐标和宽与高。
其中:(Ox,Oy,Ow,Oh)为网络目标生成区域的中心点坐标和宽与高。
本文中所描述的具体实例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
本发明可广泛运用于遥感影像目标识别及信息提取场合。

Claims (6)

1.一种基于最优锚点尺度的卷积神经网络遥感影像目标检测方法,其特征在于,包括以下步骤:
S1:自适应目标锚点尺度学习:基于目标锚点对训练数据集最优覆盖率准则,使用k均值聚类算法对不同类型的目标尺度聚类,获得不同目标检测任务的最优目标锚点尺度;
基于k均值聚类算法对训练数据集中目标尺度进行聚类,获得目标锚点的尺度大小,其中聚类过程基于目标与锚点间的交并比进行相似度度量,对目标锚点训练数据集覆盖率与测试集检测结果精度进行统计分析,当目标锚点可覆盖训练数据集80%的目标时对应的测试集目标检测结果精度最高,基于该统计准则,获得计算最优目标锚点尺度的目标函数:
Avg-IOU≥0.8 (2)
其中:n是训练数据集中目标数目;IOUimax是标签为i的目标与k个锚点间的最大交并比;Avg-IOU为训练集中所有目标与锚点交并比的平均值;
S2:自适应目标锚点尺度的卷积神经网络目标检测:基于最优目标锚点尺度的卷积神经网络遥感影像目标检测架构,实现对不同目标检测任务的精确检测;架构的训练损失计算如下:
Loss=Lcoord+Lclass+Lobj (3)
其中:Loss为目标检测架构的训练损失;Lcoord、Lclass和Lobj分别为目标坐标、类别和置信度损失;m为特征图的宽或高;n为在特征图的每个位置上锚点的数目;表示在特征图(i,j)位置上的标签为k的锚点是否为正样本,如果是正样本/>为1,否则为0;wij和hij为在特征图(i,j)位置上的标签为k的锚点对应的真值目标区域的宽与高;(xij,yij,wij,hij)为真值目标区域的中心点坐标和宽与高;/>为基于标签为k的锚点生成的目标区域中心点坐标和宽与高的网络架构的预测值;wa和ha为标签为k的锚点的宽与高;r为网络架构的分类数;/>为网络测架构对生成的目标区域不同类别的预测值;/>为基于标签为k的锚点生成的目标区域为目标的置信度预测值;
在目标检测架构测试阶段,使用公式(7)对网络架构中关于目标区域中心点坐标、置信度和类别预测值进行处理;使用公式(8)-(11)获得基于锚点的目标生成区域的中心点坐标和宽与高:
其中:(Ox,Oy,Ow,Oh)为网络目标生成区域的中心点坐标和宽与高。
2.根据权利要求1所述的基于最优锚点尺度的卷积神经网络遥感影像目标检测方法,其特征在于,所述步骤S1中,目前基于卷积神经网络的目标检测架构多采用多尺度目标检测方法对影像中目标进行检测,则本发明中也采用多尺度方式将聚类获得锚点均匀分布到网络架构的低、中和高三种不同层次水平的特征图上进行网络架构的训练与测试。
3.根据权利要求1所述的基于最优锚点尺度的卷积神经网络遥感影像目标检测方法,其特征在于,所述步骤S1中,遥感影像自适应目标锚点尺度学习方法具体实施如下所示:
S11:目标锚点的初始数目设定为3;
S12:基于训练集中目标与锚点数目,使用k均值算法对目标尺度聚类获得目标锚点;
S13:使用公式(1)计算训练集中目标与锚点的Avg-IOU值;
S14:如果Avg-IOU值满足公式(2),则获得目标的最优锚点,否则将锚点数目增加3,重复步骤S12;
S15:根据锚点面积对锚点从小到大排列,将排序后锚点均匀分配到目标检测架构的低、中和高不同层次水平的特征图上进行目标检测架构的训练与测试。
4.根据权利要求1所述的基于最优锚点尺度的卷积神经网络遥感影像目标检测方法,其特征在于,所述步骤S2中,将目标检测架构应用于不同目标检测任务时,首先使用自适应目标尺度学习算法获得该类任务的最优目标锚点尺度,然后基于最优目标锚点尺度对架构进行多尺度目标检测训练与测试。
5.根据权利要求4所述的基于最优锚点尺度的卷积神经网络遥感影像目标检测方法,其特征在于,所述步骤S2中,在目标检测架构中使用darknet-53获得影像的特征图,进行目标训练与测试的低、中和高水平的特征图尺度分别为52像素×52像素、26像素×26像素和13像素×13像素;该架构进行多尺度训练时,如果一个锚点与真值目标区域的交并比是所有锚点与该真值目标区域的交并比中最大的,则该锚点区域标记为正样本;剩余没有被标记为正样本的锚点均标记为负样本。
6.根据权利要求5所述的基于最优锚点尺度的卷积神经网络遥感影像目标检测方法,其特征在于,所述步骤S2中,如果生成的目标区域的置信度大于设定的阈值则保留,否则去掉;为了减少目标检测结果的冗余,使用非极大值抑制算法对保留的目标区域进行抑制,其中交并比阈值设定为0.3;非极大值抑制后剩余的目标区域为发明目标检测架构的目标检测结果。
CN202210484475.7A 2022-05-06 2022-05-06 基于最优锚点尺度的卷积神经网络遥感影像目标检测方法 Active CN114882376B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210484475.7A CN114882376B (zh) 2022-05-06 2022-05-06 基于最优锚点尺度的卷积神经网络遥感影像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210484475.7A CN114882376B (zh) 2022-05-06 2022-05-06 基于最优锚点尺度的卷积神经网络遥感影像目标检测方法

Publications (2)

Publication Number Publication Date
CN114882376A CN114882376A (zh) 2022-08-09
CN114882376B true CN114882376B (zh) 2024-03-22

Family

ID=82673083

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210484475.7A Active CN114882376B (zh) 2022-05-06 2022-05-06 基于最优锚点尺度的卷积神经网络遥感影像目标检测方法

Country Status (1)

Country Link
CN (1) CN114882376B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111046756A (zh) * 2019-11-27 2020-04-21 武汉大学 高分辨率遥感影像目标尺度特征的卷积神经网络检测方法
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN111768365A (zh) * 2020-05-20 2020-10-13 太原科技大学 基于卷积神经网络多特征融合的太阳能电池缺陷检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN111046756A (zh) * 2019-11-27 2020-04-21 武汉大学 高分辨率遥感影像目标尺度特征的卷积神经网络检测方法
CN111768365A (zh) * 2020-05-20 2020-10-13 太原科技大学 基于卷积神经网络多特征融合的太阳能电池缺陷检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘晨 ; 郑恩让 ; 张桐 ; .基于最优区域生成的深度多尺度融合遥感飞机检测方法.科学技术与工程.2019,(第30期),第:258-262页. *

Also Published As

Publication number Publication date
CN114882376A (zh) 2022-08-09

Similar Documents

Publication Publication Date Title
CN107133569B (zh) 基于泛化多标记学习的监控视频多粒度标注方法
CN110889324A (zh) 一种基于yolo v3面向末端制导的热红外图像目标识别方法
CN109871902B (zh) 一种基于超分辨率对抗生成级联网络的sar小样本识别方法
CN113705478B (zh) 一种基于改进YOLOv5的红树林单木目标检测方法
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN107506729B (zh) 一种基于深度学习的能见度检测方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN112487900A (zh) 一种基于特征融合的sar图像舰船目标检测方法
CN110766690A (zh) 基于深度学习点监督思想的麦穗检测和计数方法
CN110852317A (zh) 一种基于弱边缘的小尺度目标检测方法
CN112465854A (zh) 基于无锚点检测算法的无人机跟踪方法
CN112270285B (zh) 一种基于稀疏表示和胶囊网络的sar图像变化检测方法
CN115100497A (zh) 基于机器人的通道异常物体巡检方法、装置、设备及介质
CN115082781A (zh) 一种舰船图像检测方法、装置以及存储介质
CN114549909A (zh) 一种基于自适应阈值的伪标签遥感图像场景分类方法
CN114463624A (zh) 一种应用于城市管理监督的违章建筑物检测方法及装置
CN116704490B (zh) 车牌识别方法、装置和计算机设备
CN113723558A (zh) 基于注意力机制的遥感图像小样本舰船检测方法
CN110909645B (zh) 一种基于半监督流形嵌入的人群计数方法
CN112348820A (zh) 基于深度辨别性增强网络的遥感影像语义分割方法
CN112418262A (zh) 车辆再识别的方法、客户端及系统
CN114882376B (zh) 基于最优锚点尺度的卷积神经网络遥感影像目标检测方法
CN116503750A (zh) 融合目标检测和视觉注意机制的大范围遥感影像农村街区式居民地提取方法及系统
Wu et al. Research on asphalt pavement disease detection based on improved YOLOv5s
CN115965867A (zh) 基于伪标签和类别词典学习的遥感图像地表覆盖分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant