CN111191566B - 基于像素分类的光学遥感图像多目标检测方法 - Google Patents

基于像素分类的光学遥感图像多目标检测方法 Download PDF

Info

Publication number
CN111191566B
CN111191566B CN201911366599.XA CN201911366599A CN111191566B CN 111191566 B CN111191566 B CN 111191566B CN 201911366599 A CN201911366599 A CN 201911366599A CN 111191566 B CN111191566 B CN 111191566B
Authority
CN
China
Prior art keywords
target
point
loss function
target frame
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911366599.XA
Other languages
English (en)
Other versions
CN111191566A (zh
Inventor
李映
张谷雨
刘凌毅
李西萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201911366599.XA priority Critical patent/CN111191566B/zh
Publication of CN111191566A publication Critical patent/CN111191566A/zh
Application granted granted Critical
Publication of CN111191566B publication Critical patent/CN111191566B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于像素分类的光学遥感图像多目标检测方法,首先通过卷积神经网络对光学遥感图像进行特征提取,得到图像的特征图。之后是特征融合部分,使用了ASPP网络获得了不同感受野的特征,再结合通道注意力机制对不同通道的特征分配权重,之后对特征图进行上采样并将不同层的特征合并。在上采样后的特征图上的每一个像素点上进行目标的检测。本发明只预测了每个目标的一个中心点及其对应的目标框,没有多余的目标框生成,所以最后不需要通过非极大值抑制来合并多余的目标框,在速度上有很大优势。

Description

基于像素分类的光学遥感图像多目标检测方法
技术领域
本发明属于计算机视觉领域,涉及一种对遥感图像中多目标检测的方法,是一种能够从具有复杂背景的光学遥感图像中精确地检测到多种目标的方法。
背景技术
目标检测是计算机视觉领域中一个重要的分支,近些年来,基于深度学习的目标检测算法发展迅速,但大部分经典的目标检测算法都是针对普通自然图像数据集的,如Faster R-CNN,Yolo,SSD,Retinanet等算法。而遥感图像的目标实例数量级更大。因为传感器的空间分辨率,拍摄的高度比较高,目标更丰富。在通用的目标检测数据集上,目标的位置通常由于重力以及拍摄位置而呈现出一种整体向下的状态,而遥感的数据集图像常常处于很极端的位置上,这是因为遥感拍摄的平台和视角不同。遥感图像中的目标可能在任意的位置出现,有一些目标常常有着比较夸张的长宽比,如舰船和桥梁。并且遥感数据集中许多小物体实例在遥感图像中是紧密排列在一起的,例如停车场中的车辆和港口的船舶。
常用目标检测算法产生的都是正矩形框,而用矩形框去检测排列紧密且具有旋转角度的目标,目标与框之间会产生很大的空隙。并且排列紧密的目标之间的目标框会互相覆盖、互相影响。并且传统目标检测算法会预测出大量的目标框,为了生成最终结果,阈值化后的目标框由非极大值抑制算法进行归并。而标准的非极大值抑制算法运行时间复杂度为O(n^2),其中n是候选几何形状的数量,在合并目标框的过程中,会耗费大量的时间。
发明内容
要解决的技术问题
为了在光学遥感数据集上得到更加精确的结果,能够更加快速精确的框住数据集中的目标。本发明提供了一种基于逐像素分类的目标检测算法,用于检测光学遥感图像中密集排列的目标。
技术方案
一种基于像素分类的光学遥感图像多目标检测方法,其特征在于步骤如下:
步骤1:对输入的光学遥感图像进行归一化操作,使得数据分布符合标准正态分布,然后将图像随机剪裁、缩放到同一尺寸;
步骤2:构建网络模型,所述的网络模型包括特征提取层、特征融合层、预测层,特征提取层使用残差网络结构,并且加入了空洞卷积;特征融合层使用了ASPP网络,获得了不同感受野的特征,再结合通道注意力机制对不同通道的特征分配权重,之后对特征图进行上采样并将不同层的特征合并;预测层通过四组1*1的卷积核同时得到不同作用的特征图,分别为类别预测、目标框长宽预测、中心点偏移量预测以及旋转角度预测;
步骤3:根据标注的光学遥感图像数据集,计算每个像素点的真实值Yxyc、目标框的宽高(w,h)、图像下采样到1/4之后中心点的偏移量
Figure BDA0002338589240000021
目标框的旋转角度θ;
所述的Yxyc的计算式:
Figure BDA0002338589240000022
其中,x,y表示图像任意坐标,p表示原图中某个目标中心点的坐标;
Figure BDA0002338589240000023
表示下采样后的坐标
Figure BDA0002338589240000024
所述的目标框的宽高(w,h)由数据标注文件直接读出;
所述的图像下采样到1/4之后中心点的偏移量
Figure BDA0002338589240000025
包括偏移和纵向的偏移;
所述的目标框的旋转角度θ的计算过程:定义目标框的四个顶点分别是a,b,c,d,顺时针方向标记;首先找到纵坐标最大的一个点作为基准点,定为a点;之后,选择a点相邻的右边的顶点d,计算出这两个点之间边与纵轴构成的夹角θ;
步骤4:对于步骤2中特征提取部分使用在ImageNet数据集上预训练过的残差网络参数初始化,而特征融合部分以及预测部分的参数使用随机初始化的方式;
步骤5:每次在光学遥感图像训练集中随机选取图片作为网络输入,将网络得到的输出结果以及通过人工标注的目标框计算得到的真值计算类别损失、目标大小损失、中心点偏移量损失和旋转角度的损失,通过Adam优化算法来对整个网络的参数进行更新;
所述的类别损失函数:
Figure BDA0002338589240000031
其中,
Figure BDA0002338589240000032
表示坐标(x,y)这一像素点是C类的某个物体的中心点的预测的概率得分,Yxyc是这一点从标注中计算出真实的概率;
所述的目标大小损失函数:
Figure BDA0002338589240000033
其中,
Figure BDA0002338589240000034
Figure BDA0002338589240000035
分别代表预测框的长和宽,hk和wk分别代表真实的长和款,k代表预测的第k个目标的中心,N代表中心点数量;
所述的中心点偏移量损失函数:
Figure BDA0002338589240000036
其中,p表示原始坐标,
Figure BDA0002338589240000037
表示下采样后成都坐标;
Figure BDA0002338589240000038
表示预测的偏移量,共2维,表示横向和纵向的偏移量;
所述的旋转角度的损失函数:
Figure BDA0002338589240000039
其中,
Figure BDA0002338589240000041
是模型预测的角度,θ是真实的角度;
步骤6:重复步骤5,使用Adam优化算法不断的对网络参数进行更新,直到损失函数收敛;
步骤7:把测试集的图片作为网络的输入,利用网络得到的每个像素点是否是中心的概率,目标框大小和旋转角度对目标框进行预测,具体而言,如果某点是某个类别中心点的概率大于设定的阈值,则根据该点预测的目标大小、中心偏移以及旋转角度得到目标框。
所述的步骤7的设定的阈值取0.3。
有益效果
本发明提出的一种基于像素分类的光学遥感图像多目标检测方法,不同于经典的目标检测框架无法精确地对光学遥感数据集排列密集且有旋转的目标进行检测。通过预测每个像素点属于某个目标框中心点的概率、该中心点位置的偏移量以及在该目标框的长宽和该点所在目标框旋转的角度实现了对于光学遥感图像中目标的检测。并且本发明只预测了每个目标的一个中心点及其对应的目标框,没有多余的目标框生成,所以最后不需要通过非极大值抑制来合并多余的目标框,在速度上有很大优势。
附图说明
图1是本发明基于光学遥感图像的多目标检测框架图
图2是本发明ASPP的结构图
图3是本发明ASPP与channel attention结合的结构图
图4是本发明角度计算的原理图
具体实施方式
本发明首先通过卷积神经网络对光学遥感图像进行特征提取,得到图像的特征图。之后是特征融合部分,使用了ASPP(AtrousSpatial Pyramid Pooling)网络获得了不同感受野的特征,再结合通道注意力机制(channel attention)对不同通道的特征分配权重,之后对特征图进行上采样并将不同层的特征合并。在上采样后的特征图上的每一个像素点上进行目标的检测。详细的操作是在输出的特征图上的每个像素点上预测该点属于某个目标框中心点的概率、该中心点位置的偏移量以及在该目标框的长宽和该点所在目标框旋转的角度。如果某个像素点属于目标的中心大于设定的阈值,可以通过该中心点的偏移量、预测到的目标长宽和该点预测的目标框的旋转角度来得到预测出的目标框。并且本发明只预测了每个目标的一个中心点及其对应的目标框,没有多余的目标框生成,所以最后不需要通过非极大值抑制来合并多余的目标框,在速度上有很大优势。
现结合实施例、附图对本发明作进一步描述:
1.对光学遥感图像进行归一化操作,使得光学遥感数据集分布符合标准正态分布,即使得光学遥感数据集服从于均值为0,标准差为1的分布,然后将图像随机剪裁、缩放到512*512的大小;
2.网络模型的构建,如附图1所示,特征提取层使用了残差网络结构(Resnet101),并且加入了空洞卷积,在最后一个残差模块将原本的标注卷积改为空洞卷积,空洞率设置为2。
之后是特征融合部分,使用了ASPP(Atrous Spatial Pyramid Pooling)网络获得了不同感受野的特征,其中ASPP模块如附图2所示,包含一组1*1的卷积核,3组空洞率分别为2、4、6的3*3的卷积,以及一组image Pooling层。得到五组256维的特征图之后将它们合并起来得到1280维的特征。输入到后续的通道注意力机制(channel attention)模块中,对不同通道的特征分配权重,如附图3所示。之后对特征图进行上采样并将不同层的特征合并。上采样的使用了双线性插值,融合的过程使用了1*1的卷积降维并通过相同维数的3*3的卷积,特征图由1280逐步降维到192维。
最后通过四组1*1的卷积核同时得到不同作用的特征图,分别为类别预测、目标框长宽预测、中心点偏移量预测以及旋转角度预测。其中类别预测负责输出特征图上每个点属于某类目标中心的概率,网络输出为128*128*15(数据集有15类);目标框长宽预测了该中心点所在目标框的大小,网络输出为128*128*2;中心点偏移量对该中心点位置进行了微调,是目标位置更精确,网络输出为128*128*2。旋转角度预测该点所在目标框的角度,网络输出为128*128*1。
3.根据标注的光学遥感图像数据集,计算每个像素点的真实值Yxyc、目标框的宽高(w,h)、图像下采样到1/4之后中心点的偏移量
Figure BDA0002338589240000064
目标框的旋转角度θ。
本发明训练采用512*512的输入尺寸,所以特征图的大小为128*128,将每个像素点的真实值Yxyc使用一个高斯核计算出来,而每一邻域像素点权值是随该点与中心点的距离单调增减的,距离每一个目标框的中心越远,则该点的数值越小,公式如下:
Figure BDA0002338589240000061
将关键点的取值的布置到特征图上,其中x,y表示图像任意坐标,p表示原图中某个目标中心点的坐标。而
Figure BDA0002338589240000062
表示下采样后的坐标,并且
Figure BDA0002338589240000063
Yxyc表示任意(x,y)坐标属于c类中心点的概率。σp是一个与目标大小(也就是目标框宽高w和h)相关的标准差。通过上述公式可以计算出所有像素点的真实值,范围是0到1,越接近某个目标中心值越接近1。
目标框大小由目标框的宽高w,h由数据标注文件直接读出。
目标框中心的偏移量表示了下采样后的坐标与原始坐标之间的精度损失。假设输入图片中的一个目标框的中心点是(87.87568,5.25233),那它在特征图上对应的点是(88,5),等同于这个点上有物体存在。而实际上的中心点是(87.87568,5.25233),直接映射回512*512的形式会产生精度损失,为了解决这个问题就引入了中心点偏置
Figure BDA0002338589240000073
包含横向的偏移和纵向的偏移。
旋转角度为点所在目标框的角度,而角度的计算方式如附图4所示。定义目标框的四个顶点分别是a,b,c,d,顺时针方向标记。首先找到纵坐标最大的一个点作为基准点,定为a点。之后,选择a点相邻的右边的顶点d,计算出这两个点之间边与纵轴构成的夹角θ。附图4(a)是夹角θ小于45度的情况,当夹角θ小于45度时,认为目标框顺时针旋转了θ度;而如果这两边夹角θ1大于45度,如附图4(b),则认定d点为目标框的右下角,b点为目标框框的左上角,重新计算出角度变为
Figure BDA0002338589240000071
也就是认为图像逆时针旋转了θ2度。最终保证目标框的旋转角度θ取值为-45度到45度之间,然后进行归一化,使得角度取值在0-1之间。
4.对于步骤2中特征提取部分(Resnet101)使用在ImageNet数据集上预训练过的残差网络参数初始化,而特征融合部分以及预测部分的参数使用随机初始化的方式;
5.每次在光学遥感图像训练集中随机选取图片作为网络输入,使用网络的输出结果与步骤3得到的真实值计算损失函数。其中损失函数由四部分组成,分别是类别损失、目标大小损失、中心点偏移量损失和旋转角度的损失。最终使用的网络结构都有四个输出层(head layer),也就是在特征图的每个像素点产生C+5个数据,分别是该像素点的类别以及、长宽、偏置以及矩形框旋转的角度。
算法的关键在于中心点的预测,也就是类别损失,在特征图上每一个像素点是否属于某一个目标的中心还是其他点。分类损失函数如下:
Figure BDA0002338589240000072
Figure BDA0002338589240000081
表示坐标(x,y)这一像素点是C类的某个物体的中心点的预测的概率得分,Yxyc是这一点从标注中计算出真实的概率。计算损失时分为Yxyc=1和Yxyc≠1两种分情况,也就是分别计算中心点损失和非中心点损失,其中α和β是超参数,N是输入图像I的中心点的数量,除以N将所有的正样本损失标准化为1。而超参数α和β在本发明中分别取2和4。
目标框长宽的损失函数设置为
Figure BDA0002338589240000082
Figure BDA0002338589240000083
Figure BDA0002338589240000084
分别代表预测框的长和宽,k代表预测的第k个目标的中心,而N代表中心点数量。直接预测特征图上的长宽,这样可以减少回归的难度,使用L1损失函数。
因为模型是在1/4的尺度上进行的预测,当特征图重新映射到原来的图像上的时候会有一定的精度误差。所以对于每一个目标的中心点,预测了一个local offset来微调中心点的位置。所有类别的中心点共享同一个预测,这个偏置值(offset)使用L1 loss来训练。损失函数具体如下:
Figure BDA0002338589240000085
其中p表示原始坐标,
Figure BDA0002338589240000086
表示下采样后成都坐标。
Figure BDA0002338589240000087
表示预测的偏移量,共2维,表示横向和纵向的偏移量。
本发明将目标框的大小的回归和矩形旋转角度的回归分别当成两个任务。角度的范围是-45度到45度,损失的计算方式如下:
Figure BDA0002338589240000088
公式中
Figure BDA0002338589240000089
是模型预测的角度。θ是真实的角度。
整体的损失函数为物体损失、大小损失与偏置损失的和,每个损失都有相应的权重。
Ldet=LcsizeLsizeoffLoffangleLangle
在本发明中λsize=0.1,此外λoff=1,λangle=15。通过Adam优化算法来更新整个模型的参数。
6.重复步骤5,使用Adam优化算法不断的对网络参数进行更新,直到损失函数收敛;
7.把测试集的图片作为网络的输入,利用网络得到的每个像素点是否是中心的概率,目标框大小和旋转角度对目标框进行预测,具体而言,如果某点是某个类别中心点的概率大于设定的阈值(本发明取0.3),则根据该点预测的目标大小、中心偏移以及旋转角度得到目标框。

Claims (2)

1.一种基于像素分类的光学遥感图像多目标检测方法,其特征在于步骤如下:
步骤1:对输入的光学遥感图像进行归一化操作,使得数据分布符合标准正态分布,然后将图像随机剪裁、缩放到同一尺寸;
步骤2:构建网络模型,所述的网络模型包括特征提取层、特征融合层、预测层,特征提取层使用残差网络结构,并且加入了空洞卷积;特征融合层使用了ASPP网络,获得了不同感受野的特征,再结合通道注意力机制对不同通道的特征分配权重,之后对特征图进行上采样并将不同层的特征合并;预测层通过四组1*1的卷积核同时得到不同作用的特征图,分别为类别预测、目标框长宽预测、中心点偏移量预测以及旋转角度预测;
步骤3:根据标注的光学遥感图像数据集,计算每个像素点的真实值Yxyc、目标框的宽高(w,h)、图像下采样到1/4之后中心点的偏移量
Figure FDA0003506002320000011
目标框的旋转角度θ;
所述的Yxyc的计算式:
Figure FDA0003506002320000012
其中,x,y表示图像任意坐标,p表示原图中某个目标中心点的坐标;
Figure FDA0003506002320000013
表示下采样后的坐标
Figure FDA0003506002320000014
σp是一个与目标大小相关的标准差;
所述的目标框的宽高(w,h)由数据标注文件直接读出;
所述的图像下采样到1/4之后中心点的偏移量
Figure FDA0003506002320000015
包括横向的偏移和纵向的偏移;
所述的目标框的旋转角度θ的计算过程:定义目标框的四个顶点分别是a,b,c,d,顺时针方向标记;首先找到纵坐标最大的一个点作为基准点,定为a点;之后,选择a点相邻的右边的顶点d,计算出这两个点之间边与纵轴构成的夹角θ;
步骤4:对于步骤2中特征提取部分使用在ImageNet数据集上预训练过的残差网络参数初始化,而特征融合部分以及预测部分的参数使用随机初始化的方式;
步骤5:每次在光学遥感图像训练集中随机选取图片作为网络输入,将网络得到的输出结果以及通过人工标注的目标框计算得到的真值计算类别损失、目标大小损失、中心点偏移量损失和旋转角度的损失,通过Adam优化算法来对整个网络的参数进行更新;
所述的类别损失函数:
Figure FDA0003506002320000021
其中,
Figure FDA0003506002320000022
表示坐标(x,y)这一像素点是C类的某个物体的中心点的预测的概率得分,Yxyc是这一点从标注中计算出真实的概率;
所述的目标大小损失函数:
Figure FDA0003506002320000023
其中,
Figure FDA0003506002320000024
Figure FDA0003506002320000025
分别代表预测框的长和宽,hk和wk分别代表真实的长和宽,k代表预测的第k个目标的中心,N代表中心点数量;其中α和β是超参数;
所述的中心点偏移量损失函数:
Figure FDA0003506002320000026
其中,p表示原始坐标,
Figure FDA0003506002320000027
表示下采样后的坐标;
Figure FDA0003506002320000028
表示预测的偏移量,共2维,表示横向和纵向的偏移量;
所述的旋转角度的损失函数:
Figure FDA0003506002320000029
其中,
Figure FDA00035060023200000210
是模型预测的角度,θ是真实的角度;
整体损失函数为类别损失函数、目标大小损失函数、中心点偏移量损失函数与旋转角度损失函数的和;
Ldet=LcsizeLsizeoffLoffangleLangle
其中,λsize、λoff、λangle分别为目标大小损失函数、中心点偏移量损失函数与旋转角度损失函数的权重;
步骤6:重复步骤5,使用Adam优化算法不断的对网络参数进行更新,直到步骤5中整体损失函数收敛;
步骤7:把测试集的图片作为网络的输入,利用网络得到的每个像素点是否是中心的概率,目标框大小和旋转角度对目标框进行预测,具体而言,如果某点是某个类别中心点的概率大于设定的阈值,则根据该点预测的目标大小、中心偏移以及旋转角度得到目标框。
2.根据权利要求1所述的一种基于像素分类的光学遥感图像多目标检测方法,其特征在于所述的步骤7的设定的阈值取0.3。
CN201911366599.XA 2019-12-26 2019-12-26 基于像素分类的光学遥感图像多目标检测方法 Active CN111191566B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911366599.XA CN111191566B (zh) 2019-12-26 2019-12-26 基于像素分类的光学遥感图像多目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911366599.XA CN111191566B (zh) 2019-12-26 2019-12-26 基于像素分类的光学遥感图像多目标检测方法

Publications (2)

Publication Number Publication Date
CN111191566A CN111191566A (zh) 2020-05-22
CN111191566B true CN111191566B (zh) 2022-05-17

Family

ID=70709524

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911366599.XA Active CN111191566B (zh) 2019-12-26 2019-12-26 基于像素分类的光学遥感图像多目标检测方法

Country Status (1)

Country Link
CN (1) CN111191566B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111611947B (zh) * 2020-05-25 2024-04-09 济南博观智能科技有限公司 一种车牌检测方法、装置、设备及介质
CN111680667B (zh) * 2020-07-13 2022-06-24 北京理工大学重庆创新中心 一种基于深度神经网络的遥感图像地物分类方法
CN112183414A (zh) * 2020-09-29 2021-01-05 南京信息工程大学 一种基于混合空洞卷积的弱监督遥感目标检测方法
CN112464704B (zh) * 2020-10-12 2023-10-31 浙江理工大学 一种基于特征融合与旋转目标检测器的遥感图像识别方法
CN112418278A (zh) * 2020-11-05 2021-02-26 中保车服科技服务股份有限公司 一种多类物体检测方法、终端设备及存储介质
CN112818903B (zh) * 2020-12-10 2022-06-07 北京航空航天大学 一种基于元学习和协同注意力的小样本遥感图像目标检测方法
CN112488083B (zh) * 2020-12-24 2024-04-05 杭州电子科技大学 基于heatmap提取关键点的交通信号灯的识别方法、装置、介质
CN112613450B (zh) * 2020-12-29 2023-08-04 清华大学 一种增强在困难样本上表现的3d目标检测方法
CN112818840A (zh) * 2021-01-29 2021-05-18 中国科学院微小卫星创新研究院 无人机在线检测系统和方法
CN113420641A (zh) * 2021-06-21 2021-09-21 梅卡曼德(北京)机器人科技有限公司 图像数据处理方法、装置、电子设备和存储介质
CN113591575A (zh) * 2021-06-29 2021-11-02 北京航天自动控制研究所 一种基于改进YOLO v3网络的目标检测方法
CN113657225B (zh) * 2021-08-05 2023-09-26 武汉工程大学 一种目标检测方法
CN113902044B (zh) * 2021-12-09 2022-03-01 江苏游隼微电子有限公司 一种基于轻量级yolov3的图像目标提取方法
CN115019174B (zh) * 2022-06-10 2023-06-16 西安电子科技大学 基于像素重组和注意力的上采样遥感图像目标识别方法
CN115311553A (zh) * 2022-07-12 2022-11-08 青岛云天励飞科技有限公司 目标检测方法、装置、电子设备及存储介质
CN117115563A (zh) * 2023-10-19 2023-11-24 武汉大学 基于区域语义感知的遥感土地覆盖分类方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102214298A (zh) * 2011-06-20 2011-10-12 复旦大学 基于选择性视觉注意机制的遥感图像机场目标检测与识别方法
CN107203783A (zh) * 2017-05-24 2017-09-26 西北工业大学 基于自适应卷积核卷积神经网络的遥感图像像素级分类方法
CN108319949A (zh) * 2018-01-26 2018-07-24 中国电子科技集团公司第十五研究所 一种高分辨率遥感图像中多朝向舰船目标检测与识别方法
CN108460341A (zh) * 2018-02-05 2018-08-28 西安电子科技大学 基于集成深度卷积网络的光学遥感图像目标检测方法
CN108960135A (zh) * 2018-07-03 2018-12-07 西北工业大学 基于高分辨遥感图像的密集舰船目标精确检测方法
CN109766938A (zh) * 2018-12-28 2019-05-17 武汉大学 基于场景标签约束深度网络的遥感影像多类目标检测方法
CN110110599A (zh) * 2019-04-03 2019-08-09 天津大学 一种基于多尺度特征融合的遥感图像目标检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925382B2 (en) * 2000-10-16 2005-08-02 Richard H. Lahn Remote image management system (RIMS)
JP2014238278A (ja) * 2013-06-06 2014-12-18 オプテックス株式会社 物体検出システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102214298A (zh) * 2011-06-20 2011-10-12 复旦大学 基于选择性视觉注意机制的遥感图像机场目标检测与识别方法
CN107203783A (zh) * 2017-05-24 2017-09-26 西北工业大学 基于自适应卷积核卷积神经网络的遥感图像像素级分类方法
CN108319949A (zh) * 2018-01-26 2018-07-24 中国电子科技集团公司第十五研究所 一种高分辨率遥感图像中多朝向舰船目标检测与识别方法
CN108460341A (zh) * 2018-02-05 2018-08-28 西安电子科技大学 基于集成深度卷积网络的光学遥感图像目标检测方法
CN108960135A (zh) * 2018-07-03 2018-12-07 西北工业大学 基于高分辨遥感图像的密集舰船目标精确检测方法
CN109766938A (zh) * 2018-12-28 2019-05-17 武汉大学 基于场景标签约束深度网络的遥感影像多类目标检测方法
CN110110599A (zh) * 2019-04-03 2019-08-09 天津大学 一种基于多尺度特征融合的遥感图像目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Change Detection in Heterogenous Remote Sensing Images via Homogeneous Pixel Transformation;Zhunga Liu et al;《AGCDetNet:An Attention-Guided Network for Building Change Detection in High-Resolution Remote Sensing Images》;20171218;全文 *
FMSSD: Feature-Merged Single-Shot Detection for Multiscale Objects in Large-Scale Remote Sensing Imagery;Peijin Wang et al;《IEEE Transactions on Geoscience and Remote Sensing》;20191211;全文 *
基于ResNet的遥感图像飞机目标检测新方法;赵丹新等;《电子设计工程》;20181130;全文 *

Also Published As

Publication number Publication date
CN111191566A (zh) 2020-05-22

Similar Documents

Publication Publication Date Title
CN111191566B (zh) 基于像素分类的光学遥感图像多目标检测方法
CN109241913B (zh) 结合显著性检测和深度学习的船只检测方法及系统
CN111798475B (zh) 一种基于点云深度学习的室内环境3d语义地图构建方法
CN110298298B (zh) 目标检测及目标检测网络的训练方法、装置及设备
CN110276269B (zh) 一种基于注意力机制的遥感图像目标检测方法
CN109829398B (zh) 一种基于三维卷积网络的视频中的目标检测方法
CN109886066B (zh) 基于多尺度和多层特征融合的快速目标检测方法
CN109840556B (zh) 一种基于孪生网络的图像分类识别方法
CN111627065B (zh) 一种视觉定位方法及装置、存储介质
CN110287826B (zh) 一种基于注意力机制的视频目标检测方法
CN111368769B (zh) 基于改进锚点框生成模型的船舶多目标检测方法
CN108257154B (zh) 基于区域信息和cnn的极化sar图像变化检测方法
CN110599537A (zh) 基于Mask R-CNN的无人机图像建筑物面积计算方法及系统
CN112101278A (zh) 基于k近邻特征提取和深度学习的宅基地点云分类方法
Wang et al. Modeling indoor spaces using decomposition and reconstruction of structural elements
CN111523553B (zh) 一种基于相似度矩阵的中心点网络多目标检测方法
CN110688905B (zh) 一种基于关键帧的三维物体检测与跟踪方法
CN110163207B (zh) 一种基于Mask-RCNN船舶目标定位方法及存储设备
CN111242026B (zh) 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法
CN113850129A (zh) 一种旋转等变的空间局部注意力遥感图像目标检测方法
CN111144234A (zh) 一种基于深度学习的视频sar目标检测方法
CN111414931A (zh) 一种基于图像深度的多分支多尺度小目标检测方法
CN112906816A (zh) 基于光微分与双通道神经网络的目标检测方法和装置
CN114332921A (zh) 基于改进聚类算法的Faster R-CNN网络的行人检测方法
Fan Detection of multidamage to reinforced concrete using support vector machine‐based clustering from digital images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant