CN112381030B - 一种基于特征融合的卫星光学遥感图像目标检测方法 - Google Patents

一种基于特征融合的卫星光学遥感图像目标检测方法 Download PDF

Info

Publication number
CN112381030B
CN112381030B CN202011328462.8A CN202011328462A CN112381030B CN 112381030 B CN112381030 B CN 112381030B CN 202011328462 A CN202011328462 A CN 202011328462A CN 112381030 B CN112381030 B CN 112381030B
Authority
CN
China
Prior art keywords
features
output
convolution
groups
convolution layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011328462.8A
Other languages
English (en)
Other versions
CN112381030A (zh
Inventor
龚致远
吕增利
李兴斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Star Network Application Co Ltd
Original Assignee
Dongfanghong Satellite Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dongfanghong Satellite Mobile Communication Co Ltd filed Critical Dongfanghong Satellite Mobile Communication Co Ltd
Priority to CN202011328462.8A priority Critical patent/CN112381030B/zh
Publication of CN112381030A publication Critical patent/CN112381030A/zh
Application granted granted Critical
Publication of CN112381030B publication Critical patent/CN112381030B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及深度学习中的多目标检测技术领域,具体涉及一种基于特征融合的卫星光学遥感图像目标检测方法,包括:构建并训练多尺度特征网络模型;将测试数据输入到训练好的多尺度特征网络模型中,得到测试数据中目标的候选框和置信度;对候选框的比例特征进行筛选,得到检测框;对所有检测框进行非极大值抑制处理,得到遥感图像目标检测结果。本发明通过多尺度卷积核以及多层特征融合来丰富目标的细节特征,同时采用锚框拟合来获得更精确的目标位置,使得检测精度更高。

Description

一种基于特征融合的卫星光学遥感图像目标检测方法
技术领域
本发明涉及深度学习中的多目标检测技术领域,具体涉及一种基于特征融合的卫星光学遥感图像目标检测方法。
背景技术
随着卫星遥感技术的发展,从高空获取地面图像数据已经变得越来越容易且画面也愈加清晰。目前,基于遥感图像的目标检测研究包括舰船检测、飞机检测、油罐检测、道路检测等,都具有较高的实际意义。因此,如何提高遥感图像中目标的检测精度,是近年来该领域的研究热点和难点,也受到了各界相关研究人士越来越多的关注。
由于卫星光学遥感图像的成像方式和自然场景图像有所不同,因此遥感图像中目标可能存在一定程度的尺度失真、变形、褪色等,导致检测精度受到影响。同时,由于遥感图像的分辨率通常较高,目标在画幅中往往表现为小目标的形式,这给检测任务增加了难度。
目前,实现目标检测任务主要采用以下两类方法:基于回归的单阶段目标检测与基于区域提议的双阶段目标检测。单阶段目标检测算法以Joseph Redmon于2016年提出的YOLO算法为典型,将检测任务表述成一个统一的、端到端的回归问题,在处理一次图片的同时得到位置和分类,其优点是消耗资源少、检测速度快;不足是检测精度尤其是小目标检测精度较低。双阶段目标检测算法以Ross Girshick等人提出的RCNN系列目标检测网络为典型,将检测分为了两个阶段,首先在图像中生成一系列锚框,通过训练RPN网络来判断锚框内目标是前景或背景并对目标位置进行回归,然后再进行具体目标类别的分类以及对目标位置进行精修。双阶段目标检测网络由于其特有的锚框机制,在检测精度上高于单阶段目标检测网络,然而也因其消耗了更多计算资源,因此检测速度较慢。
发明内容
为了解决上述问题,本发明提供一种基于特征融合的卫星光学遥感图像目标检测方法。
一种基于特征融合的卫星光学遥感图像目标检测方法,包括以下步骤:
S1、构建多尺度特征网络模型;
S2、通过遥感图像数据训练多尺度特征网络模型,得到训练好的多尺度特征网络模型;
S3、将测试数据输入到训练好的多尺度特征网络模型中,得到测试数据中目标的候选框和置信度;
S4、将置信度高于设定阈值的候选框根据比例特征进行筛选,得到原始目标检测框;
S5、对原始目标检测框进行非极大值抑制处理,得到遥感图像目标检测结果。
进一步的,多尺度特征网络模型基于Faster R-CNN的思想构建,多尺度特征网络模型包括基础网络部分和区域提议RPN网络部分,其中基础网络部分包含五个卷积阶段(Stage):Stage1包含卷积层1、卷积层2与池化层1;Stage2包含卷积层3~卷积层11在内的3轮分组卷积及特征融合;Stage3包含卷积层12~卷积层20在内的3轮分组卷积及特征融合;Stage4包含卷积层21~卷积层29在内的3轮分组卷积及特征融合;Stage5包含卷积层30~卷积层38在内的3轮分组卷积及特征融合。
进一步的,多尺度特征网络模型还包括区域提议RPN网络,RPN网络的输入是基础网络提取的特征,为了保证融合特征尺寸大小与通道数一致,使用卷积与反卷积操作对Stage3的输出进行下采样,使用卷积与反卷积操作对Stage5的输出进行上采样,最终将Stage3的上采样结果、Stage5的下采样结果与Stage4的输出特征进行融合,并将融合后的特征作为RPN网络的输入。
进一步的,多尺度特征网络模型的训练过程包括:
S21、基于遥感图像目标特征,构造RPN网络的锚框:选取尺寸聚类中心,采用K-means聚类算法对训练数据中的目标的尺寸特征进行聚类,得到第一聚类结果,将得到的第一聚类结果作为锚框尺寸;选取比例聚类中心,用K-means聚类算法对训练数据中的目标的比例特征进行聚类,得到第二聚类结果,将得到的第二聚类结果作为锚框比例,输出锚框;输出的锚框用于RPN网络的计算,RPN网络计算中,网络输出预测候选框与置信度,将置信度大于90且交并比IoU高于0.7的预测候选框作为前景;
S22、计算多尺度特征网络模型的损失函数,损失函数包括:前/背景二分类损失、候选框回归损失、目标类别交叉熵损失、检测框回归损失,将上述四类损失的和作为多尺度特征网络模型的整体损失;
S23、采用Adam作为优化器训练多尺度特征网络模型的权重参数,权重初始化方式采用“He初始化”,学习率设置为0.001,当损失函数无法继续降低时,模型训练完毕,得到训练好的多尺度特征网络模型。
进一步的,多尺度特征网络模型的整体损失函数表达式为:
Figure BDA0002795069230000031
其中,i表示一个批量训练中的锚点序号,pi表示锚点i对应的区域预测为目标的概率;pi*表示原样本是正样本(为1)还是负样本(为0),
Figure BDA0002795069230000032
表示候选框i对应的区域预测为目标的概率;ti表示预测候选框的中心坐标x、y以及宽高w、h四个位置参数;ti*表示正样本对应的真实的位置参数;t'i表示锚框正样本对应的真实的位置参数;/>
Figure BDA0002795069230000033
表示候选框正样本对应的真实的位置参数;LOSScls为候选区域是前景还是背景的分类损失;LOSSreg为候选区域边界框的回归损失;λ、Ncls、Nreg均为平衡参数;N是平衡参数,M表示类别的数量,yic代表类别c是否为真,pic表示样本i属于类别c的预测概率;
LOSScls采用逻辑回归中的对数损失函数,定义为以下表达式:
Figure BDA0002795069230000041
LOSSreg采用HuberLoss作为损失函数,定义如以下表达式:
Figure BDA0002795069230000042
进一步的,构建的多尺度特征网络模型中,各层参数为:
卷积层1:卷积核大小7×7,输出特征64维,步长为2;
卷积层2:卷积核大小3×3,输出特征128维,步长为1;
池化层1:卷积核大小3×3,输出特征128维,步长为2,采用最大池化;
卷积层3:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为4;
卷积层4:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层3的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为4;
卷积层5:卷积核大小1×1,分别与卷积层4的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为256;
融合1:首先对卷积层5输出的32组特征进行加性融合,随后将该特征再与池化层1升维处理后的特征进行加性融合;
卷积层6:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为4;
卷积层7:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层6的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为4;
卷积层8:卷积核大小1×1,分别与卷积层7的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为256;
融合2:首先对卷积层8输出的32组特征进行加性融合,随后将该特征再与融合1输出的特征进行加性融合;
卷积层9:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为4;
卷积层10:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层9的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为4;
卷积层11:卷积核大小1×1,分别与卷积层10的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为256;
融合3:首先对卷积层11输出的32组特征进行加性融合,随后将该特征再与融合2输出的特征进行加性融合;
卷积层12:卷积核大小1×1,步长为2,输出32组特征,每组特征通道数为8;
卷积层13:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层12的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为8;
卷积层14:卷积核大小1×1,分别与卷积层13的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为512;
融合4:首先对卷积层14输出的32组特征进行加性融合,随后将该特征再与融合3升维处理后的特征进行加性融合;
卷积层15:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为8;
卷积层16:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层15的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为8;
卷积层17:卷积核大小1×1,分别与卷积层16的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为512;
融合5:首先对卷积层17输出的32组特征进行加性融合,随后将该特征再与融合4输出的特征进行加性融合;
卷积层18:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为8;
卷积层19:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层18的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为8;
卷积层20:卷积核大小1×1,分别与卷积层19的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为512;
融合6:首先对卷积层20输出的32组特征进行加性融合,随后将该特征再与融合4输出的特征进行加性融合;
卷积层21:卷积核大小1×1,步长为2,输出32组特征,每组特征通道数为16;
卷积层22:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层21的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为16;
卷积层23:卷积核大小1×1,分别与卷积层22的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为1024;
融合7:首先对卷积层23输出的32组特征进行加性融合,随后将该特征再与融合6升维处理后的特征进行加性融合;
卷积层24:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为16;
卷积层25:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层24的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为16;
卷积层26:卷积核大小1×1,分别与卷积层25的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为1024;
融合8:首先对卷积层26输出的32组特征进行加性融合,随后将该特征再与融合7输出的特征进行加性融合;
卷积层27:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为16;
卷积层28:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层27的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为16;
卷积层29:卷积核大小1×1,分别与卷积层28的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为1024;
融合9:首先对卷积层29输出的32组特征进行加性融合,随后将该特征再与融合8输出的特征进行加性融合;
卷积层30:卷积核大小1×1,步长为2,输出32组特征,每组特征通道数为32;
卷积层31:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层30的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为32;
卷积层32:卷积核大小1×1,分别与卷积层31的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为2048;
融合10:首先对卷积层32输出的32组特征进行加性融合,随后将该特征再与融合9升维处理后的特征进行加性融合;
卷积层33:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为32;
卷积层34:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层33的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为32;
卷积层35:卷积核大小1×1,分别与卷积层34的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为2048;
融合11:首先对卷积层35输出的32组特征进行加性融合,随后将该特征再与融合10输出的特征进行加性融合;
卷积层36:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为32;
卷积层37:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层36的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为32;
卷积层38:卷积核大小1×1,分别与卷积层37的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为2048;
融合12:首先对卷积层38输出的32组特征进行加性融合,随后将该特征再与融合11输出的特征进行加性融合。
进一步的,尺寸聚类中心包括:46、75、140、250、400;比例聚类中心包括:1:1、2:1、3:1、5:1。
进一步的,将置信度高于设定阈值的候选框根据比例特征进行筛选,得到原始目标检测框,候选框比例筛选条件为:
μmin≤μ≤μmax
其中,μmin表示候选框最小比例值,且μmin设置为0.7,μmax表示候选框最大比例值,且μmax设置为8。
本发明的有益效果:
1.本发明通过多尺度卷积核以及多层特征融合的方式,卫星遥感图像中目标特征图像的信息表达和细节信息,尤其提高了遥感图像中小目标的信息表达,进而提高了各类目标尤其是小尺寸目标、轻度失真目标的检测精度与分类精度。
2.本发明采用锚框拟合来提高边界回归的运算效率,使目标检测框更加精准。
3.本发明引入候选框筛选机制来优化NMS算法,大幅降低了整体检测算法的计算开销。
附图说明
下面结合附图和具体实施方式对本发明做进一步详细的说明。
图1为本发明实施例的目标检测模型框架;
图2为本发明实施例的一种多尺度特征网络模型中的分组卷积结构示意图;
图3为本发明实施例的一种多尺度特征网络模型的特征融合示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施使用到的硬件环境为:
CPU:Intel Core i7 8700K
GPU:NVIDIA RTX2080Ti
RAM:32G
Hard disk:2TB
实施例的原始数据可以从公开数据集中获取,例如采用公开数据集DOTADataset,DOTA Dataset中包含2806张高分辨率卫星遥感图像,每幅图像大小约为4000×4000,包含飞机、舰船等15个类别。
数据预处理:获取高分辨率遥感图像数据,对遥感图像数据进行预处理。所述预处理包括:平衡遥感图像数据中的样本数量,对样本量较少的类别通过对其图像轻微旋转、调整亮度等方式进行样本扩充;平衡数据的样本量后,将整体样本尺寸调整为相同大小,优选的,将所有遥感图像样本的尺寸调整为1024×1024。
一种基于特征融合的卫星光学遥感图像目标检测方法,包括但不限于以下步骤:
S1、基于Faster R-CNN的思想构建多尺度特征网络模型;
S2、通过遥感图像数据训练多尺度特征网络模型;
S3、将测试数据输入到多尺度特征网络模型中,得到测试数据中目标的候选框和置信度;
S4、将置信度高于设定阈值的候选框根据比例特征进行筛选,得到原始目标检测框;
S5、对原始目标检测框进行非极大值抑制处理,得到遥感图像目标检测结果。
在一个实施例中,如图1所示,多尺度特征网络模型主要包括基础网络和区域提议网络(Region Proposal Network,Region Proposal,RPN,以下简称RPN网络)两部分,基础网络又可以称为特征融合网络,基础网络的作用是从输入的原始图片中提取不同维度的特征并进行多维特征融合,得到特征图;RPN网络的作用是预测卫星遥感图像的目标边界和目标置信度,生成高质量的区域建议。所述多尺度特征网络模型是一个拥有多尺度卷积核以及多层特征融合的深度残差神经网络模型,用来解决高分辨率遥感图像中目标检测精度低的问题。
S11、图2所示为基础网络中某一卷积块的分组卷积结构示意。基础网络部分包含五个卷积阶段(Stage):Stage1包含卷积层1、卷积层2与池化层1;Stage2包含卷积层3~卷积层11在内的3轮分组卷积及特征融合;Stage3包含卷积层12~卷积层20在内的3轮分组卷积及特征融合;Stage4包含卷积层21~卷积层29在内的3轮分组卷积及特征融合;Stage5包含卷积层30~卷积层38在内的3轮分组卷积及特征融合。
S12、图3所示为基础网络进行多维特征融合的流程示意。将原始遥感图像输入基础网络中,各个卷积阶段(Stage)依次提取图像特征,为了保证融合特征尺寸大小与通道数一致,使用卷积与反卷积操作对Stage3的输出进行下采样,使用卷积与反卷积操作对Stage5的输出进行上采样,最终将Stage3的上采样结果、Stage5的下采样结果与Stage4的输出特征进行融合,得到融合后的特征(即特征图),并将融合后的特征作为RPN网络的输入。
RPN网络是一个全卷积的网络,可以同时预测每个位置的目标边界和目标置信度,对RPN进行训练后可以生成高质量的区域建议。由于RPN网络的结构不是本发明的改进要点,因此本发明对此不做过多赘述,RPN网络的具体结构可参见文章:
S.Ren,R.Girshick,R.Girshick,and J.Sun,"Faster R-CNN:Towards Real-TimeObject Detection with Region Proposal Networks",IEEE Transactions on PatternAna lysis&Machine Intelligence,vol.39,no.6,pp.1137-1149,2017.7.
特征图输入RPN网络中后,进行的操作包括:生成锚框;判断每个锚框是属于背景/前景,进行二分类;边界框回归对锚框进行微调,使输出的锚框与真实框更加接近,最终输出的锚框即检测目标。
在一个实施例中,多尺度特征网络模型的训练过程包括:
S21、基于遥感图像目标特征,构造RPN网络的锚框:选取尺寸聚类中心,采用K-means聚类算法对训练数据中的目标的尺寸特征进行聚类,得到第一聚类结果,将得到的第一聚类结果作为锚框尺寸;选取比例聚类中心,用K-means聚类算法对训练数据中的目标的比例特征进行聚类,得到第二聚类结果,将得到的第二聚类结果作为锚框比例,输出锚框,输出的锚框用于RPN网络的计算,RPN网络计算中,网络会输出预测候选框与置信度(预测为真的概率值),将IoU(交并比)的阈值设为0.7,将置信度大于90且与目标实际位置IoU(交并比)高于0.7的锚框作为前景。
作为一个优选的实施方案,设计5个尺寸聚类中心,即聚类后的锚框尺寸包括:46、75、140、250、400;设计4个比例聚类中心,即锚框比例包括:1:1、2:1、3:1、5:1,按照此类尺寸聚类中心和比例聚类中心构造锚框包括20类,共计输出20类锚框。
S22、计算多尺度特征网络模型的损失函数,损失函数包括前/背景二分类损失、候选框回归损失、目标类别交叉熵损失、检测框回归损失共四类损失,将上述损失的和作为多尺度特征网络模型的整体损失。
多尺度特征网络模型的整体损失函数表达式为:
Figure BDA0002795069230000121
其中,i表示一个批量训练中的锚点序号,pi表示锚点i对应的区域预测为目标的概率;pi*表示原样本是正样本(为1)还是负样本(为0),
Figure BDA0002795069230000122
表示候选框i对应的区域预测为目标的概率;ti表示预测框的中心坐标x、y以及宽高w、h四个位置参数;ti*表示正样本对应的真实的位置参数,t'i表示锚框正样本对应的真实的位置参数;/>
Figure BDA0002795069230000123
表示候选框正样本对应的真实的位置参数;LOSScls为候选区域是前景还是背景的分类损失;LOSSreg为候选区域边界框的回归损失;λ、Ncls、Nreg均为平衡参数。N是平衡参数,M表示类别的数量,yic代表类别c是否为真,pic表示样本i属于类别c的预测概率。
LOSScls采用逻辑回归中的对数损失函数,定义为以下表达式:
Figure BDA0002795069230000124
LOSSreg采用HuberLoss作为损失函数,可以增强平方误差损失函数对离群点的鲁棒性,其定义如以下表达式:
Figure BDA0002795069230000125
S23、采用Adam作为优化器训练多尺度特征网络模型的权重参数,权重初始化方式采用“He初始化”,学习率设置为0.001,当多尺度特征网络模型的整体损失函数无法继续降低时,模型训练完毕,得到训练好的多尺度特征网络模型。
在一个实施例中,由于遥感图像目标的比例特征大多具有相似性,因此得到目标的候选框后,在执行非极大值抑制算法(NMS算法)之前,引入候选框筛选机制,对多尺度特征网络模型输出的候选框进行来优化NMS算法,大幅降低了整体检测算法的计算量。具体地,将置信度高于设定阈值的候选框根据比例特征进行筛选,得到原始目标检测框。候选框比例筛选条件为:
μmin≤μ≤μmax
其中,μmin表示候选框最小比例值,且μmin设置为0.7,μmax表示候选框最大比例值,且μmax设置为8。
对原始目标检测框进行执行非极大值抑制(Soft-NMS)处理,最终得到遥感图像目标检测结果。
在一个实施例中,多尺度特征网络模型中各层参数包括:
卷积层1:卷积核大小7×7,输出特征64维,步长为2;
卷积层2:卷积核大小3×3,输出特征128维,步长为1;
池化层1:卷积核大小3×3,输出特征128维,步长为2,采用最大池化;
卷积层3:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为4;
卷积层4:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层3的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为4;
卷积层5:卷积核大小1×1,分别与卷积层4的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为256;
融合1:首先对卷积层5输出的32组特征进行加性融合,随后将该特征再与池化层1升维处理后(256维)的特征进行加性融合。
卷积层6:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为4;
卷积层7:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层6的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为4;
卷积层8:卷积核大小1×1,分别与卷积层7的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为256;
融合2:首先对卷积层8输出的32组特征进行加性融合,随后将该特征再与融合1输出的特征进行加性融合。
卷积层9:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为4;
卷积层10:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层9的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为4;
卷积层11:卷积核大小1×1,分别与卷积层10的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为256;
融合3:首先对卷积层11输出的32组特征进行加性融合,随后将该特征再与融合2输出的特征进行加性融合。
卷积层12:卷积核大小1×1,步长为2,输出32组特征,每组特征通道数为8;
卷积层13:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层12的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为8;
卷积层14:卷积核大小1×1,分别与卷积层13的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为512;
融合4:首先对卷积层14输出的32组特征进行加性融合,随后将该特征再与融合3升维处理后(512维)的特征进行加性融合。
卷积层15:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为8;
卷积层16:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层15的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为8;
卷积层17:卷积核大小1×1,分别与卷积层16的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为512;
融合5:首先对卷积层17输出的32组特征进行加性融合,随后将该特征再与融合4输出的特征进行加性融合。
卷积层18:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为8;
卷积层19:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层18的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为8;
卷积层20:卷积核大小1×1,分别与卷积层19的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为512;
融合6:首先对卷积层20输出的32组特征进行加性融合,随后将该特征再与融合4输出的特征进行加性融合。
卷积层21:卷积核大小1×1,步长为2,输出32组特征,每组特征通道数为16;
卷积层22:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层21的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为16;
卷积层23:卷积核大小1×1,分别与卷积层22的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为1024;
融合7:首先对卷积层23输出的32组特征进行加性融合,随后将该特征再与融合6升维处理后(1024维)的特征进行加性融合。
卷积层24:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为16;
卷积层25:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层24的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为16;
卷积层26:卷积核大小1×1,分别与卷积层25的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为1024;
融合8:首先对卷积层26输出的32组特征进行加性融合,随后将该特征再与融合7输出的特征进行加性融合。
卷积层27:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为16;
卷积层28:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层27的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为16;
卷积层29:卷积核大小1×1,分别与卷积层28的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为1024;
融合9:首先对卷积层29输出的32组特征进行加性融合,随后将该特征再与融合8输出的特征进行加性融合。
卷积层30:卷积核大小1×1,步长为2,输出32组特征,每组特征通道数为32;
卷积层31:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层30的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为32;
卷积层32:卷积核大小1×1,分别与卷积层31的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为2048;
融合10:首先对卷积层32输出的32组特征进行加性融合,随后将该特征再与融合9升维处理后(2048维)的特征进行加性融合。
卷积层33:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为32;
卷积层34:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层33的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为32;
卷积层35:卷积核大小1×1,分别与卷积层34的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为2048;
融合11:首先对卷积层35输出的32组特征进行加性融合,随后将该特征再与融合10输出的特征进行加性融合。
卷积层36:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为32;
卷积层37:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层36的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为32;
卷积层38:卷积核大小1×1,分别与卷积层37的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为2048;
融合12:首先对卷积层38输出的32组特征进行加性融合,随后将该特征再与融合11输出的特征进行加性融合。
在一个具体的实施例中,根据测试数据计算本发明模型的均值平均精度(mAP),并与传统Faster RCNN以及YOLOv2模型检测效果进行对比,对比结果如下表所示:
Figure BDA0002795069230000171
通过上表的检测效果对比可以发现,本发明方法的均值平均精度明显高于传统方法,这是由于本方面方法的多尺度特征网络模型包括基础网络和区域提议网络两部分,基础网络利用5个stage进行特征提取和特征融合,提取出的特征图像含有更丰富的细节信息,区域提议网络输出锚框并进行筛选和非极大值抑制处理,因此发明的多尺度特征网络模型以及目标检测方法更有利于遥感图像中实现小目标的检测,因此检测平均精度相较于传统的单阶段、双阶段检测算法更高,在卫星遥感图像目标检测任务上具有一定优越性。
当介绍本申请的各种实施例的元件时,冠词“一”、“一个”、“这个”和“所述”都意图表示有一个或多个元件。词语“包括”、“包含”和“具有”都是包括性的并意味着除了列出的元件之外,还可以有其它元件。
需要说明的是,本领域普通技术人员可以理解实现上述方法实施例中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。其中,所述存储介质可为磁碟、光盘、只读存储记忆体(Read-0nly Memory,ROM)或随机存储记忆体(RandomAccess Memory,RAM)等。
以上所述仅是本申请的具体实施方式,应当指出,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (4)

1.一种基于特征融合的卫星光学遥感图像目标检测方法,其特征在于,包括以下步骤:
S1、构建多尺度特征网络模型;多尺度特征网络模型基于Faster R-CNN的思想构建,多尺度特征网络模型包括基础网络部分和区域提议RPN网络部分,其中基础网络部分包含五个卷积阶段(Stage):Stage1包含卷积层1、卷积层2与池化层1;Stage2包含卷积层3~卷积层11在内的3轮分组卷积及特征融合;Stage3包含卷积层12~卷积层20在内的3轮分组卷积及特征融合;Stage4包含卷积层21~卷积层29在内的3轮分组卷积及特征融合;Stage5包含卷积层30~卷积层38在内的3轮分组卷积及特征融合;多尺度特征网络模型还包括区域提议RPN网络,RPN网络的输入是基础网络提取的特征,为了保证融合特征尺寸大小与通道数一致,使用卷积与反卷积操作对Stage3的输出进行下采样,使用卷积与反卷积操作对Stage5的输出进行上采样,最终将Stage3的上采样结果、Stage5的下采样结果与Stage4的输出特征进行融合,并将融合后的特征作为RPN网络的输入;
S2、通过遥感图像数据训练多尺度特征网络模型,得到训练好的多尺度特征网络模型;多尺度特征网络模型的训练过程包括:
S21、基于遥感图像目标特征,构造RPN网络的锚框:选取尺寸聚类中心,采用K-means聚类算法对训练数据中的目标的尺寸特征进行聚类,得到第一聚类结果,将得到的第一聚类结果作为锚框尺寸;选取比例聚类中心,用K-means聚类算法对训练数据中的目标的比例特征进行聚类,得到第二聚类结果,将得到的第二聚类结果作为锚框比例,输出锚框;输出的锚框用于RPN网络的计算,RPN网络计算中,网络输出预测候选框与置信度,将置信度大于90且交并比IoU高于0.7的预测候选框作为前景;
S22、计算多尺度特征网络模型的损失函数,损失函数包括:前/背景二分类损失、候选框回归损失、目标类别交叉熵损失、检测框回归损失,将上述四类损失的和作为多尺度特征网络模型的整体损失;多尺度特征网络模型的整体损失函数表达式为:
Figure FDA0004181061620000021
其中,i表示一个批量训练中的锚点序号,pi表示锚点i对应的区域预测为目标的概率;pi*表示原样本是正样本(为1)还是负样本(为0),
Figure FDA0004181061620000022
表示候选框i对应的区域预测为目标的概率;ti表示预测候选框的中心坐标x、y以及宽高w、h四个位置参数;ti*表示正样本对应的真实的位置参数;t'i表示锚框正样本对应的真实的位置参数;/>
Figure FDA0004181061620000023
表示候选框正样本对应的真实的位置参数;LOSScls为候选区域是前景还是背景的分类损失;LOSSreg为候选区域边界框的回归损失;λ、Ncls、Nreg均为平衡参数;N是平衡参数,M表示类别的数量,yic代表类别c是否为真,pic表示样本i属于类别c的预测概率;
LOSScls采用逻辑回归中的对数损失函数,定义为以下表达式:
Figure FDA0004181061620000024
LOSSreg采用HuberLoss作为损失函数,定义如以下表达式:
Figure FDA0004181061620000025
S23、采用Adam作为优化器训练多尺度特征网络模型的权重参数,权重初始化方式采用“He初始化”,学习率设置为0.001,当损失函数无法继续降低时,模型训练完毕,得到训练好的多尺度特征网络模型;
S3、将测试数据输入到训练好的多尺度特征网络模型中,得到测试数据中目标的候选框和置信度;
S4、将置信度高于设定阈值的候选框根据比例特征进行筛选,得到原始目标检测框;
S5、对原始目标检测框进行非极大值抑制处理,得到遥感图像目标检测结果。
2.根据权利要求1中所述的一种基于特征融合的卫星光学遥感图像目标检测方法,其特征在于,构建的多尺度特征网络模型中,各层参数为:
卷积层1:卷积核大小7×7,输出特征64维,步长为2;
卷积层2:卷积核大小3×3,输出特征128维,步长为1;
池化层1:卷积核大小3×3,输出特征128维,步长为2,采用最大池化;
卷积层3:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为4;
卷积层4:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层3的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为4;
卷积层5:卷积核大小1×1,分别与卷积层4的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为256;
融合1:首先对卷积层5输出的32组特征进行加性融合,随后将该特征再与池化层1升维处理后的特征进行加性融合;
卷积层6:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为4;
卷积层7:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层6的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为4;
卷积层8:卷积核大小1×1,分别与卷积层7的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为256;
融合2:首先对卷积层8输出的32组特征进行加性融合,随后将该特征再与融合1输出的特征进行加性融合;
卷积层9:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为4;
卷积层10:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层9的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为4;
卷积层11:卷积核大小1×1,分别与卷积层10的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为256;
融合3:首先对卷积层11输出的32组特征进行加性融合,随后将该特征再与融合2输出的特征进行加性融合;
卷积层12:卷积核大小1×1,步长为2,输出32组特征,每组特征通道数为8;
卷积层13:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层12的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为8;
卷积层14:卷积核大小1×1,分别与卷积层13的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为512;
融合4:首先对卷积层14输出的32组特征进行加性融合,随后将该特征再与融合3升维处理后的特征进行加性融合;
卷积层15:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为8;
卷积层16:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层15的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为8;
卷积层17:卷积核大小1×1,分别与卷积层16的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为512;
融合5:首先对卷积层17输出的32组特征进行加性融合,随后将该特征再与融合4输出的特征进行加性融合;
卷积层18:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为8;
卷积层19:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层18的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为8;
卷积层20:卷积核大小1×1,分别与卷积层19的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为512;
融合6:首先对卷积层20输出的32组特征进行加性融合,随后将该特征再与融合4输出的特征进行加性融合;
卷积层21:卷积核大小1×1,步长为2,输出32组特征,每组特征通道数为16;
卷积层22:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层21的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为16;
卷积层23:卷积核大小1×1,分别与卷积层22的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为1024;
融合7:首先对卷积层23输出的32组特征进行加性融合,随后将该特征再与融合6升维处理后的特征进行加性融合;
卷积层24:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为16;
卷积层25:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层24的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为16;
卷积层26:卷积核大小1×1,分别与卷积层25的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为1024;
融合8:首先对卷积层26输出的32组特征进行加性融合,随后将该特征再与融合7输出的特征进行加性融合;
卷积层27:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为16;
卷积层28:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层27的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为16;
卷积层29:卷积核大小1×1,分别与卷积层28的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为1024;
融合9:首先对卷积层29输出的32组特征进行加性融合,随后将该特征再与融合8输出的特征进行加性融合;
卷积层30:卷积核大小1×1,步长为2,输出32组特征,每组特征通道数为32;
卷积层31:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层30的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为32;
卷积层32:卷积核大小1×1,分别与卷积层31的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为2048;
融合10:首先对卷积层32输出的32组特征进行加性融合,随后将该特征再与融合9升维处理后的特征进行加性融合;
卷积层33:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为32;
卷积层34:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层33的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为32;
卷积层35:卷积核大小1×1,分别与卷积层34的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为2048;
融合11:首先对卷积层35输出的32组特征进行加性融合,随后将该特征再与融合10输出的特征进行加性融合;
卷积层36:卷积核大小1×1,步长为1,输出32组特征,每组特征通道数为32;
卷积层37:卷积核包含1×1、3×3、5×5、7×7共四种尺度,每种尺度的卷积核依次与卷积层36的输出特征进行8组卷积,步长为1,一共输出32组特征,每组特征通道数为32;
卷积层38:卷积核大小1×1,分别与卷积层37的输出特征进行卷积,步长为1,一共输出32组特征,每组特征通道数为2048;
融合12:首先对卷积层38输出的32组特征进行加性融合,随后将该特征再与融合11输出的特征进行加性融合。
3.根据权利要求1所述的一种基于特征融合的卫星光学遥感图像目标检测方法,其特征在于,尺寸聚类中心包括:46、75、140、250、400;比例聚类中心包括:1:1、2:1、3:1、5:1。
4.根据权利要求1所述的一种基于特征融合的卫星光学遥感图像目标检测方法,其特征在于,将置信度高于设定阈值的候选框根据比例特征进行筛选,得到原始目标检测框,候选框比例筛选条件为:
μmin≤μ≤μmax
其中,μmin表示候选框最小比例值,且μmin设置为0.7,μmax表示候选框最大比例值,且μmax设置为8。
CN202011328462.8A 2020-11-24 2020-11-24 一种基于特征融合的卫星光学遥感图像目标检测方法 Active CN112381030B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011328462.8A CN112381030B (zh) 2020-11-24 2020-11-24 一种基于特征融合的卫星光学遥感图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011328462.8A CN112381030B (zh) 2020-11-24 2020-11-24 一种基于特征融合的卫星光学遥感图像目标检测方法

Publications (2)

Publication Number Publication Date
CN112381030A CN112381030A (zh) 2021-02-19
CN112381030B true CN112381030B (zh) 2023-06-20

Family

ID=74589074

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011328462.8A Active CN112381030B (zh) 2020-11-24 2020-11-24 一种基于特征融合的卫星光学遥感图像目标检测方法

Country Status (1)

Country Link
CN (1) CN112381030B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112949520B (zh) * 2021-03-10 2022-07-26 华东师范大学 一种基于多尺度小样本的航拍车辆检测方法及检测系统
CN113191222B (zh) * 2021-04-15 2024-05-03 中国农业大学 水下鱼类目标检测方法及装置
CN113076962B (zh) * 2021-05-14 2022-10-21 电子科技大学 一种基于可微神经网络搜索技术的多尺度目标检测方法
CN113378686B (zh) * 2021-06-07 2022-04-15 武汉大学 一种基于目标中心点估计的两阶段遥感目标检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491757A (zh) * 2018-02-05 2018-09-04 西安电子科技大学 基于多尺度特征学习的光学遥感图像目标检测方法
CN110909800A (zh) * 2019-11-26 2020-03-24 浙江理工大学 一种基于Faster R-CNN改进算法的车辆检测方法
CN111461110A (zh) * 2020-03-02 2020-07-28 华南理工大学 一种基于多尺度图像和加权融合损失的小目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491757A (zh) * 2018-02-05 2018-09-04 西安电子科技大学 基于多尺度特征学习的光学遥感图像目标检测方法
CN110909800A (zh) * 2019-11-26 2020-03-24 浙江理工大学 一种基于Faster R-CNN改进算法的车辆检测方法
CN111461110A (zh) * 2020-03-02 2020-07-28 华南理工大学 一种基于多尺度图像和加权融合损失的小目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于改进Faster R-CNN模型的交通标志检测;张毅; 龚致远; 韦文闻;激光与光电子学进展;第57卷(第18期);第1-9页 *
基于深度卷积神经网络的遥感图像目标检测方法;刘思远;程良伦;;工业控制计算机(05);第1-4页 *

Also Published As

Publication number Publication date
CN112381030A (zh) 2021-02-19

Similar Documents

Publication Publication Date Title
CN112381030B (zh) 一种基于特征融合的卫星光学遥感图像目标检测方法
CN112396002B (zh) 一种基于SE-YOLOv3的轻量级遥感目标检测方法
CN111027493B (zh) 一种基于深度学习多网络软融合的行人检测方法
CN111753828B (zh) 一种基于深度卷积神经网络的自然场景水平文字检测方法
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
Chen et al. Saliency detection via the improved hierarchical principal component analysis method
WO2017113232A1 (zh) 一种基于深度学习的产品分类方法及装置
CN113572742B (zh) 基于深度学习的网络入侵检测方法
CN107392919B (zh) 基于自适应遗传算法的灰度阈值获取方法、图像分割方法
CN112836713A (zh) 基于图像无锚框检测的中尺度对流系统识别与追踪方法
CN113762138B (zh) 伪造人脸图片的识别方法、装置、计算机设备及存储介质
CN111612017A (zh) 一种基于信息增强的目标检测方法
CN114511576B (zh) 尺度自适应特征增强深度神经网络的图像分割方法与系统
CN112418108A (zh) 一种基于样本重加权的遥感图像多类目标检测方法
CN111986126A (zh) 一种基于改进vgg16网络的多目标检测方法
CN110991554B (zh) 一种基于改进pca的深度网络图像分类方法
CN111368865B (zh) 遥感影像储油罐检测方法、装置、可读存储介质及设备
CN113963272A (zh) 一种基于改进yolov3的无人机图像目标检测方法
CN105844299B (zh) 一种基于词袋模型的图像分类方法
CN115331008A (zh) 一种基于目标概率密度图的端到端目标检测方法
CN115393631A (zh) 基于贝叶斯层图卷积神经网络的高光谱图像分类方法
CN112131996B (zh) 基于通道分离卷积的路侧图像多尺度行人快速检测方法
CN114332754A (zh) 基于多度量检测器的Cascade R-CNN行人检测方法
CN113657196A (zh) Sar图像目标检测方法、装置、电子设备和存储介质
Liu et al. Target detection of hyperspectral image based on faster R-CNN with data set adjustment and parameter turning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 401120 39-1, Building 1, No. 64, Middle Huangshan Avenue, Yubei District, Chongqing

Patentee after: China Star Network Application Co.,Ltd.

Address before: 618 Liangjiang Avenue, Longxing Town, Yubei District, Chongqing

Patentee before: Dongfanghong Satellite Mobile Communication Co.,Ltd.