CN111191566B - 基于像素分类的光学遥感图像多目标检测方法 - Google Patents
基于像素分类的光学遥感图像多目标检测方法 Download PDFInfo
- Publication number
- CN111191566B CN111191566B CN201911366599.XA CN201911366599A CN111191566B CN 111191566 B CN111191566 B CN 111191566B CN 201911366599 A CN201911366599 A CN 201911366599A CN 111191566 B CN111191566 B CN 111191566B
- Authority
- CN
- China
- Prior art keywords
- target
- point
- loss function
- target frame
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 25
- 238000001514 detection method Methods 0.000 title claims abstract description 17
- 230000004927 fusion Effects 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 9
- 238000005070 sampling Methods 0.000 claims abstract description 5
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 claims abstract 2
- 230000006870 function Effects 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 9
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 abstract description 7
- 230000001629 suppression Effects 0.000 abstract description 5
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于像素分类的光学遥感图像多目标检测方法,首先通过卷积神经网络对光学遥感图像进行特征提取,得到图像的特征图。之后是特征融合部分,使用了ASPP网络获得了不同感受野的特征,再结合通道注意力机制对不同通道的特征分配权重,之后对特征图进行上采样并将不同层的特征合并。在上采样后的特征图上的每一个像素点上进行目标的检测。本发明只预测了每个目标的一个中心点及其对应的目标框,没有多余的目标框生成,所以最后不需要通过非极大值抑制来合并多余的目标框,在速度上有很大优势。
Description
技术领域
本发明属于计算机视觉领域,涉及一种对遥感图像中多目标检测的方法,是一种能够从具有复杂背景的光学遥感图像中精确地检测到多种目标的方法。
背景技术
目标检测是计算机视觉领域中一个重要的分支,近些年来,基于深度学习的目标检测算法发展迅速,但大部分经典的目标检测算法都是针对普通自然图像数据集的,如Faster R-CNN,Yolo,SSD,Retinanet等算法。而遥感图像的目标实例数量级更大。因为传感器的空间分辨率,拍摄的高度比较高,目标更丰富。在通用的目标检测数据集上,目标的位置通常由于重力以及拍摄位置而呈现出一种整体向下的状态,而遥感的数据集图像常常处于很极端的位置上,这是因为遥感拍摄的平台和视角不同。遥感图像中的目标可能在任意的位置出现,有一些目标常常有着比较夸张的长宽比,如舰船和桥梁。并且遥感数据集中许多小物体实例在遥感图像中是紧密排列在一起的,例如停车场中的车辆和港口的船舶。
常用目标检测算法产生的都是正矩形框,而用矩形框去检测排列紧密且具有旋转角度的目标,目标与框之间会产生很大的空隙。并且排列紧密的目标之间的目标框会互相覆盖、互相影响。并且传统目标检测算法会预测出大量的目标框,为了生成最终结果,阈值化后的目标框由非极大值抑制算法进行归并。而标准的非极大值抑制算法运行时间复杂度为O(n^2),其中n是候选几何形状的数量,在合并目标框的过程中,会耗费大量的时间。
发明内容
要解决的技术问题
为了在光学遥感数据集上得到更加精确的结果,能够更加快速精确的框住数据集中的目标。本发明提供了一种基于逐像素分类的目标检测算法,用于检测光学遥感图像中密集排列的目标。
技术方案
一种基于像素分类的光学遥感图像多目标检测方法,其特征在于步骤如下:
步骤1:对输入的光学遥感图像进行归一化操作,使得数据分布符合标准正态分布,然后将图像随机剪裁、缩放到同一尺寸;
步骤2:构建网络模型,所述的网络模型包括特征提取层、特征融合层、预测层,特征提取层使用残差网络结构,并且加入了空洞卷积;特征融合层使用了ASPP网络,获得了不同感受野的特征,再结合通道注意力机制对不同通道的特征分配权重,之后对特征图进行上采样并将不同层的特征合并;预测层通过四组1*1的卷积核同时得到不同作用的特征图,分别为类别预测、目标框长宽预测、中心点偏移量预测以及旋转角度预测;
所述的Yxyc的计算式:
所述的目标框的宽高(w,h)由数据标注文件直接读出;
所述的目标框的旋转角度θ的计算过程:定义目标框的四个顶点分别是a,b,c,d,顺时针方向标记;首先找到纵坐标最大的一个点作为基准点,定为a点;之后,选择a点相邻的右边的顶点d,计算出这两个点之间边与纵轴构成的夹角θ;
步骤4:对于步骤2中特征提取部分使用在ImageNet数据集上预训练过的残差网络参数初始化,而特征融合部分以及预测部分的参数使用随机初始化的方式;
步骤5:每次在光学遥感图像训练集中随机选取图片作为网络输入,将网络得到的输出结果以及通过人工标注的目标框计算得到的真值计算类别损失、目标大小损失、中心点偏移量损失和旋转角度的损失,通过Adam优化算法来对整个网络的参数进行更新;
所述的类别损失函数:
所述的目标大小损失函数:
所述的中心点偏移量损失函数:
所述的旋转角度的损失函数:
步骤6:重复步骤5,使用Adam优化算法不断的对网络参数进行更新,直到损失函数收敛;
步骤7:把测试集的图片作为网络的输入,利用网络得到的每个像素点是否是中心的概率,目标框大小和旋转角度对目标框进行预测,具体而言,如果某点是某个类别中心点的概率大于设定的阈值,则根据该点预测的目标大小、中心偏移以及旋转角度得到目标框。
所述的步骤7的设定的阈值取0.3。
有益效果
本发明提出的一种基于像素分类的光学遥感图像多目标检测方法,不同于经典的目标检测框架无法精确地对光学遥感数据集排列密集且有旋转的目标进行检测。通过预测每个像素点属于某个目标框中心点的概率、该中心点位置的偏移量以及在该目标框的长宽和该点所在目标框旋转的角度实现了对于光学遥感图像中目标的检测。并且本发明只预测了每个目标的一个中心点及其对应的目标框,没有多余的目标框生成,所以最后不需要通过非极大值抑制来合并多余的目标框,在速度上有很大优势。
附图说明
图1是本发明基于光学遥感图像的多目标检测框架图
图2是本发明ASPP的结构图
图3是本发明ASPP与channel attention结合的结构图
图4是本发明角度计算的原理图
具体实施方式
本发明首先通过卷积神经网络对光学遥感图像进行特征提取,得到图像的特征图。之后是特征融合部分,使用了ASPP(AtrousSpatial Pyramid Pooling)网络获得了不同感受野的特征,再结合通道注意力机制(channel attention)对不同通道的特征分配权重,之后对特征图进行上采样并将不同层的特征合并。在上采样后的特征图上的每一个像素点上进行目标的检测。详细的操作是在输出的特征图上的每个像素点上预测该点属于某个目标框中心点的概率、该中心点位置的偏移量以及在该目标框的长宽和该点所在目标框旋转的角度。如果某个像素点属于目标的中心大于设定的阈值,可以通过该中心点的偏移量、预测到的目标长宽和该点预测的目标框的旋转角度来得到预测出的目标框。并且本发明只预测了每个目标的一个中心点及其对应的目标框,没有多余的目标框生成,所以最后不需要通过非极大值抑制来合并多余的目标框,在速度上有很大优势。
现结合实施例、附图对本发明作进一步描述:
1.对光学遥感图像进行归一化操作,使得光学遥感数据集分布符合标准正态分布,即使得光学遥感数据集服从于均值为0,标准差为1的分布,然后将图像随机剪裁、缩放到512*512的大小;
2.网络模型的构建,如附图1所示,特征提取层使用了残差网络结构(Resnet101),并且加入了空洞卷积,在最后一个残差模块将原本的标注卷积改为空洞卷积,空洞率设置为2。
之后是特征融合部分,使用了ASPP(Atrous Spatial Pyramid Pooling)网络获得了不同感受野的特征,其中ASPP模块如附图2所示,包含一组1*1的卷积核,3组空洞率分别为2、4、6的3*3的卷积,以及一组image Pooling层。得到五组256维的特征图之后将它们合并起来得到1280维的特征。输入到后续的通道注意力机制(channel attention)模块中,对不同通道的特征分配权重,如附图3所示。之后对特征图进行上采样并将不同层的特征合并。上采样的使用了双线性插值,融合的过程使用了1*1的卷积降维并通过相同维数的3*3的卷积,特征图由1280逐步降维到192维。
最后通过四组1*1的卷积核同时得到不同作用的特征图,分别为类别预测、目标框长宽预测、中心点偏移量预测以及旋转角度预测。其中类别预测负责输出特征图上每个点属于某类目标中心的概率,网络输出为128*128*15(数据集有15类);目标框长宽预测了该中心点所在目标框的大小,网络输出为128*128*2;中心点偏移量对该中心点位置进行了微调,是目标位置更精确,网络输出为128*128*2。旋转角度预测该点所在目标框的角度,网络输出为128*128*1。
本发明训练采用512*512的输入尺寸,所以特征图的大小为128*128,将每个像素点的真实值Yxyc使用一个高斯核计算出来,而每一邻域像素点权值是随该点与中心点的距离单调增减的,距离每一个目标框的中心越远,则该点的数值越小,公式如下:
Yxyc表示任意(x,y)坐标属于c类中心点的概率。σp是一个与目标大小(也就是目标框宽高w和h)相关的标准差。通过上述公式可以计算出所有像素点的真实值,范围是0到1,越接近某个目标中心值越接近1。
目标框大小由目标框的宽高w,h由数据标注文件直接读出。
目标框中心的偏移量表示了下采样后的坐标与原始坐标之间的精度损失。假设输入图片中的一个目标框的中心点是(87.87568,5.25233),那它在特征图上对应的点是(88,5),等同于这个点上有物体存在。而实际上的中心点是(87.87568,5.25233),直接映射回512*512的形式会产生精度损失,为了解决这个问题就引入了中心点偏置包含横向的偏移和纵向的偏移。
旋转角度为点所在目标框的角度,而角度的计算方式如附图4所示。定义目标框的四个顶点分别是a,b,c,d,顺时针方向标记。首先找到纵坐标最大的一个点作为基准点,定为a点。之后,选择a点相邻的右边的顶点d,计算出这两个点之间边与纵轴构成的夹角θ。附图4(a)是夹角θ小于45度的情况,当夹角θ小于45度时,认为目标框顺时针旋转了θ度;而如果这两边夹角θ1大于45度,如附图4(b),则认定d点为目标框的右下角,b点为目标框框的左上角,重新计算出角度变为
也就是认为图像逆时针旋转了θ2度。最终保证目标框的旋转角度θ取值为-45度到45度之间,然后进行归一化,使得角度取值在0-1之间。
4.对于步骤2中特征提取部分(Resnet101)使用在ImageNet数据集上预训练过的残差网络参数初始化,而特征融合部分以及预测部分的参数使用随机初始化的方式;
5.每次在光学遥感图像训练集中随机选取图片作为网络输入,使用网络的输出结果与步骤3得到的真实值计算损失函数。其中损失函数由四部分组成,分别是类别损失、目标大小损失、中心点偏移量损失和旋转角度的损失。最终使用的网络结构都有四个输出层(head layer),也就是在特征图的每个像素点产生C+5个数据,分别是该像素点的类别以及、长宽、偏置以及矩形框旋转的角度。
算法的关键在于中心点的预测,也就是类别损失,在特征图上每一个像素点是否属于某一个目标的中心还是其他点。分类损失函数如下:
表示坐标(x,y)这一像素点是C类的某个物体的中心点的预测的概率得分,Yxyc是这一点从标注中计算出真实的概率。计算损失时分为Yxyc=1和Yxyc≠1两种分情况,也就是分别计算中心点损失和非中心点损失,其中α和β是超参数,N是输入图像I的中心点的数量,除以N将所有的正样本损失标准化为1。而超参数α和β在本发明中分别取2和4。
目标框长宽的损失函数设置为
因为模型是在1/4的尺度上进行的预测,当特征图重新映射到原来的图像上的时候会有一定的精度误差。所以对于每一个目标的中心点,预测了一个local offset来微调中心点的位置。所有类别的中心点共享同一个预测,这个偏置值(offset)使用L1 loss来训练。损失函数具体如下:
本发明将目标框的大小的回归和矩形旋转角度的回归分别当成两个任务。角度的范围是-45度到45度,损失的计算方式如下:
整体的损失函数为物体损失、大小损失与偏置损失的和,每个损失都有相应的权重。
Ldet=Lc+λsizeLsize+λoffLoff+λangleLangle
在本发明中λsize=0.1,此外λoff=1,λangle=15。通过Adam优化算法来更新整个模型的参数。
6.重复步骤5,使用Adam优化算法不断的对网络参数进行更新,直到损失函数收敛;
7.把测试集的图片作为网络的输入,利用网络得到的每个像素点是否是中心的概率,目标框大小和旋转角度对目标框进行预测,具体而言,如果某点是某个类别中心点的概率大于设定的阈值(本发明取0.3),则根据该点预测的目标大小、中心偏移以及旋转角度得到目标框。
Claims (2)
1.一种基于像素分类的光学遥感图像多目标检测方法,其特征在于步骤如下:
步骤1:对输入的光学遥感图像进行归一化操作,使得数据分布符合标准正态分布,然后将图像随机剪裁、缩放到同一尺寸;
步骤2:构建网络模型,所述的网络模型包括特征提取层、特征融合层、预测层,特征提取层使用残差网络结构,并且加入了空洞卷积;特征融合层使用了ASPP网络,获得了不同感受野的特征,再结合通道注意力机制对不同通道的特征分配权重,之后对特征图进行上采样并将不同层的特征合并;预测层通过四组1*1的卷积核同时得到不同作用的特征图,分别为类别预测、目标框长宽预测、中心点偏移量预测以及旋转角度预测;
所述的Yxyc的计算式:
所述的目标框的宽高(w,h)由数据标注文件直接读出;
所述的目标框的旋转角度θ的计算过程:定义目标框的四个顶点分别是a,b,c,d,顺时针方向标记;首先找到纵坐标最大的一个点作为基准点,定为a点;之后,选择a点相邻的右边的顶点d,计算出这两个点之间边与纵轴构成的夹角θ;
步骤4:对于步骤2中特征提取部分使用在ImageNet数据集上预训练过的残差网络参数初始化,而特征融合部分以及预测部分的参数使用随机初始化的方式;
步骤5:每次在光学遥感图像训练集中随机选取图片作为网络输入,将网络得到的输出结果以及通过人工标注的目标框计算得到的真值计算类别损失、目标大小损失、中心点偏移量损失和旋转角度的损失,通过Adam优化算法来对整个网络的参数进行更新;
所述的类别损失函数:
所述的目标大小损失函数:
所述的中心点偏移量损失函数:
所述的旋转角度的损失函数:
整体损失函数为类别损失函数、目标大小损失函数、中心点偏移量损失函数与旋转角度损失函数的和;
Ldet=Lc+λsizeLsize+λoffLoff+λangleLangle
其中,λsize、λoff、λangle分别为目标大小损失函数、中心点偏移量损失函数与旋转角度损失函数的权重;
步骤6:重复步骤5,使用Adam优化算法不断的对网络参数进行更新,直到步骤5中整体损失函数收敛;
步骤7:把测试集的图片作为网络的输入,利用网络得到的每个像素点是否是中心的概率,目标框大小和旋转角度对目标框进行预测,具体而言,如果某点是某个类别中心点的概率大于设定的阈值,则根据该点预测的目标大小、中心偏移以及旋转角度得到目标框。
2.根据权利要求1所述的一种基于像素分类的光学遥感图像多目标检测方法,其特征在于所述的步骤7的设定的阈值取0.3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911366599.XA CN111191566B (zh) | 2019-12-26 | 2019-12-26 | 基于像素分类的光学遥感图像多目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911366599.XA CN111191566B (zh) | 2019-12-26 | 2019-12-26 | 基于像素分类的光学遥感图像多目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111191566A CN111191566A (zh) | 2020-05-22 |
CN111191566B true CN111191566B (zh) | 2022-05-17 |
Family
ID=70709524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911366599.XA Active CN111191566B (zh) | 2019-12-26 | 2019-12-26 | 基于像素分类的光学遥感图像多目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111191566B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111611947B (zh) * | 2020-05-25 | 2024-04-09 | 济南博观智能科技有限公司 | 一种车牌检测方法、装置、设备及介质 |
CN111680667B (zh) * | 2020-07-13 | 2022-06-24 | 北京理工大学重庆创新中心 | 一种基于深度神经网络的遥感图像地物分类方法 |
CN112183414A (zh) * | 2020-09-29 | 2021-01-05 | 南京信息工程大学 | 一种基于混合空洞卷积的弱监督遥感目标检测方法 |
CN112464704B (zh) * | 2020-10-12 | 2023-10-31 | 浙江理工大学 | 一种基于特征融合与旋转目标检测器的遥感图像识别方法 |
CN112418278A (zh) * | 2020-11-05 | 2021-02-26 | 中保车服科技服务股份有限公司 | 一种多类物体检测方法、终端设备及存储介质 |
CN112818903B (zh) * | 2020-12-10 | 2022-06-07 | 北京航空航天大学 | 一种基于元学习和协同注意力的小样本遥感图像目标检测方法 |
CN112488083B (zh) * | 2020-12-24 | 2024-04-05 | 杭州电子科技大学 | 基于heatmap提取关键点的交通信号灯的识别方法、装置、介质 |
CN112613450B (zh) * | 2020-12-29 | 2023-08-04 | 清华大学 | 一种增强在困难样本上表现的3d目标检测方法 |
CN112818840B (zh) * | 2021-01-29 | 2024-08-02 | 中国科学院微小卫星创新研究院 | 无人机在线检测系统和方法 |
CN113420641B (zh) * | 2021-06-21 | 2024-06-14 | 梅卡曼德(北京)机器人科技有限公司 | 图像数据处理方法、装置、电子设备和存储介质 |
CN113591575A (zh) * | 2021-06-29 | 2021-11-02 | 北京航天自动控制研究所 | 一种基于改进YOLO v3网络的目标检测方法 |
CN113657225B (zh) * | 2021-08-05 | 2023-09-26 | 武汉工程大学 | 一种目标检测方法 |
CN114022797A (zh) * | 2021-10-29 | 2022-02-08 | 深圳供电局有限公司 | 保护压板状态检测方法、装置 |
CN113902044B (zh) * | 2021-12-09 | 2022-03-01 | 江苏游隼微电子有限公司 | 一种基于轻量级yolov3的图像目标提取方法 |
CN115019174B (zh) * | 2022-06-10 | 2023-06-16 | 西安电子科技大学 | 基于像素重组和注意力的上采样遥感图像目标识别方法 |
CN115311553A (zh) * | 2022-07-12 | 2022-11-08 | 青岛云天励飞科技有限公司 | 目标检测方法、装置、电子设备及存储介质 |
CN117115563A (zh) * | 2023-10-19 | 2023-11-24 | 武汉大学 | 基于区域语义感知的遥感土地覆盖分类方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102214298A (zh) * | 2011-06-20 | 2011-10-12 | 复旦大学 | 基于选择性视觉注意机制的遥感图像机场目标检测与识别方法 |
CN107203783A (zh) * | 2017-05-24 | 2017-09-26 | 西北工业大学 | 基于自适应卷积核卷积神经网络的遥感图像像素级分类方法 |
CN108319949A (zh) * | 2018-01-26 | 2018-07-24 | 中国电子科技集团公司第十五研究所 | 一种高分辨率遥感图像中多朝向舰船目标检测与识别方法 |
CN108460341A (zh) * | 2018-02-05 | 2018-08-28 | 西安电子科技大学 | 基于集成深度卷积网络的光学遥感图像目标检测方法 |
CN108960135A (zh) * | 2018-07-03 | 2018-12-07 | 西北工业大学 | 基于高分辨遥感图像的密集舰船目标精确检测方法 |
CN109766938A (zh) * | 2018-12-28 | 2019-05-17 | 武汉大学 | 基于场景标签约束深度网络的遥感影像多类目标检测方法 |
CN110110599A (zh) * | 2019-04-03 | 2019-08-09 | 天津大学 | 一种基于多尺度特征融合的遥感图像目标检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6925382B2 (en) * | 2000-10-16 | 2005-08-02 | Richard H. Lahn | Remote image management system (RIMS) |
JP2014238278A (ja) * | 2013-06-06 | 2014-12-18 | オプテックス株式会社 | 物体検出システム |
-
2019
- 2019-12-26 CN CN201911366599.XA patent/CN111191566B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102214298A (zh) * | 2011-06-20 | 2011-10-12 | 复旦大学 | 基于选择性视觉注意机制的遥感图像机场目标检测与识别方法 |
CN107203783A (zh) * | 2017-05-24 | 2017-09-26 | 西北工业大学 | 基于自适应卷积核卷积神经网络的遥感图像像素级分类方法 |
CN108319949A (zh) * | 2018-01-26 | 2018-07-24 | 中国电子科技集团公司第十五研究所 | 一种高分辨率遥感图像中多朝向舰船目标检测与识别方法 |
CN108460341A (zh) * | 2018-02-05 | 2018-08-28 | 西安电子科技大学 | 基于集成深度卷积网络的光学遥感图像目标检测方法 |
CN108960135A (zh) * | 2018-07-03 | 2018-12-07 | 西北工业大学 | 基于高分辨遥感图像的密集舰船目标精确检测方法 |
CN109766938A (zh) * | 2018-12-28 | 2019-05-17 | 武汉大学 | 基于场景标签约束深度网络的遥感影像多类目标检测方法 |
CN110110599A (zh) * | 2019-04-03 | 2019-08-09 | 天津大学 | 一种基于多尺度特征融合的遥感图像目标检测方法 |
Non-Patent Citations (3)
Title |
---|
Change Detection in Heterogenous Remote Sensing Images via Homogeneous Pixel Transformation;Zhunga Liu et al;《AGCDetNet:An Attention-Guided Network for Building Change Detection in High-Resolution Remote Sensing Images》;20171218;全文 * |
FMSSD: Feature-Merged Single-Shot Detection for Multiscale Objects in Large-Scale Remote Sensing Imagery;Peijin Wang et al;《IEEE Transactions on Geoscience and Remote Sensing》;20191211;全文 * |
基于ResNet的遥感图像飞机目标检测新方法;赵丹新等;《电子设计工程》;20181130;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111191566A (zh) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111191566B (zh) | 基于像素分类的光学遥感图像多目标检测方法 | |
CN109241913B (zh) | 结合显著性检测和深度学习的船只检测方法及系统 | |
CN111798475B (zh) | 一种基于点云深度学习的室内环境3d语义地图构建方法 | |
CN110276269B (zh) | 一种基于注意力机制的遥感图像目标检测方法 | |
CN109829398B (zh) | 一种基于三维卷积网络的视频中的目标检测方法 | |
CN111368769B (zh) | 基于改进锚点框生成模型的船舶多目标检测方法 | |
CN109840556B (zh) | 一种基于孪生网络的图像分类识别方法 | |
CN111523553B (zh) | 一种基于相似度矩阵的中心点网络多目标检测方法 | |
CN110287826B (zh) | 一种基于注意力机制的视频目标检测方法 | |
CN112101278A (zh) | 基于k近邻特征提取和深度学习的宅基地点云分类方法 | |
CN108257154B (zh) | 基于区域信息和cnn的极化sar图像变化检测方法 | |
CN110688905B (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
CN110163207B (zh) | 一种基于Mask-RCNN船舶目标定位方法及存储设备 | |
CN111242026B (zh) | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 | |
CN113850129A (zh) | 一种旋转等变的空间局部注意力遥感图像目标检测方法 | |
CN103714148B (zh) | 基于稀疏编码分类的sar图像检索方法 | |
CN106845341A (zh) | 一种基于虚拟号牌的无牌车辆识别方法 | |
CN110942471A (zh) | 一种基于时空约束的长时目标跟踪方法 | |
CN111144234A (zh) | 一种基于深度学习的视频sar目标检测方法 | |
US20230019499A1 (en) | Image processing system and method | |
US20230020713A1 (en) | Image processing system and method | |
CN111414931A (zh) | 一种基于图像深度的多分支多尺度小目标检测方法 | |
CN113496480A (zh) | 一种焊缝图像缺陷的检测方法 | |
CN112906816A (zh) | 基于光微分与双通道神经网络的目标检测方法和装置 | |
CN114332921A (zh) | 基于改进聚类算法的Faster R-CNN网络的行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |