CN110807372A - 一种基于深度特征重组的快速光学遥感目标识别方法 - Google Patents
一种基于深度特征重组的快速光学遥感目标识别方法 Download PDFInfo
- Publication number
- CN110807372A CN110807372A CN201910976624.XA CN201910976624A CN110807372A CN 110807372 A CN110807372 A CN 110807372A CN 201910976624 A CN201910976624 A CN 201910976624A CN 110807372 A CN110807372 A CN 110807372A
- Authority
- CN
- China
- Prior art keywords
- feature
- characteristic
- remote sensing
- network
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000005215 recombination Methods 0.000 title claims abstract description 23
- 230000006798 recombination Effects 0.000 title claims abstract description 23
- 230000003287 optical effect Effects 0.000 title claims abstract description 19
- 238000004364 calculation method Methods 0.000 claims abstract description 22
- 230000000694 effects Effects 0.000 claims abstract description 6
- 230000004913 activation Effects 0.000 claims abstract description 4
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 239000010410 layer Substances 0.000 claims description 19
- 238000010586 diagram Methods 0.000 claims description 6
- 239000002356 single layer Substances 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 230000008521 reorganization Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 abstract description 17
- 238000012360 testing method Methods 0.000 abstract description 6
- 230000008901 benefit Effects 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明属于深度学习遥感目标识别技术领域,具体涉及提高对目标的计算速度的一种基于深度特征重组的快速光学遥感目标识别方法。本方法包括如下步骤:分别建立自下而上50层ResNets以及101层ResNets网络架构作为构建特征金字塔网络的基础,对遥感图像进行初步特征提取,提取出4个不同的尺度的特征C2,C3,C4,C5;将得到的4个特征分别通过自上而下路径的卷积网络进行相互叠加得到新特征M2,M3,M4,M5用来消除不同层之间的混叠效果。将得到的M5特征图加倍得到新特征P5,特征P6是通过对P5进行3x3,然后对特征P6进行ReLU激活函数,再通过3x3,并且步长为2的卷积,就可以得到特征p7。本发明既具有单阶段测试模型的速度优势,又具有双阶段测试模型的计算准确度。
Description
技术领域
本发明属于深度学习遥感目标识别技术领域,具体涉及提高对目标的计算速度的一种基于深度特征重组的快速光学遥感目标识别方法。
背景技术
光学遥感图像是指可见光和部分红外波段传感器获取的影像数据,虽然易受光照和云雾等因素影响,但是直观易理解,空间分辨率通常比较高,在有光照和晴朗天气条件下,图像内容丰富,目标结构特征明显,便于目标分类识别。
光学遥感目标识别的目的是判断遥感图像中是否存在目标,并对其进行检测、分割、特征提取与分类识别。目前目标识别的算法主要分为两类:单阶段检测模型和两阶段检测模型。
两阶段检测模型需要候选区域的检测,虽然可以达到很高的准确率,但是计算速度较慢。而单阶段检测模型则具有计算速度快的特点,并在引入的Focal Loss这个新的损失函数的前提下,准确率得到了大幅度的提升。因此,单阶段检测模型具有重要的研究意义。
目前针对遥感领域的目标识别方法都是基于常规目标识别方法的迁移,但是并没有针对遥感数据中目标小和目标集中的问题进行很好的优化。同时由于为了取得更高的准确率,目前的方法都采用了两阶段检测的策略,即先通过一个网络获得感兴趣区域再通过一个网络对感兴趣区域进行过滤和识别,这样的缺点是参数量变多,同时使得模型的前向传播速度慢。
因此,一种基于深度特征重组的快速光学遥感小目标识别方法通过使用深度特征重组,根据重组特征进行目标回归和识别。从而能够更好的利用深度卷积层的特征点,提高对目标识别的计算速度。
发明内容
本发明的目的在于提供一种基于深度特征重组的快速光学遥感目标识别方法。
本发明的目的是这样实现的:
一种基于深度特征重组的快速光学遥感目标识别方法,包括如下步骤:
步骤1:分别建立自下而上50层ResNets以及101层ResNets网络架构作为构建特征金字塔网络的基础,对遥感图像进行初步特征提取,提取出4个不同的尺度的特征C2,C3,C4,C5;
步骤2:将步骤1中得到的4个特征分别通过自上而下路径的卷积网络进行相互叠加得到新特征M2,M3,M4,M5用来消除不同层之间的混叠效果;
步骤3:将步骤2中得到的M5特征图加倍得到新特征P5,特征P4是由特征M5加倍之后得到M5’,同时特征C4经过1x1x256的卷积得到C4’,将特征M5’与C4相加得到新特征P4,以此类推,得到特征P3,特征P6是通过对P5进行3x3,并且步长为2的卷积得到,然后对特征P6进行ReLU激活函数,再通过3x3,并且步长为2的卷积,就可以得到特征p7。
建立特征金字塔网络作为本方法的骨干网络,将步骤3得到的特征P5,P4,P3定义为I1,I2,I3,并通过上采样和单层卷积生成新的特征,完成特征的重组,重建的特征图的生成方式如下:
R1=Conv(I1)
R2=Conv(Upsample(I1)+I2)
R3=Conv(Upsample(I2)+I3)
R4=Conv(Upsample(I3)+Upsample(R3))
R5=Conv(Upsample(R4))
其中Conv代表单层卷积,Upsample代表上采样。
将步骤2中重组的5个新特征连接至本方法设计的适用于基于五个特征图的目标框输出,将目标框的输出分为两个子网络,一个分类子网作为回归目标的类别输出,另一个回归子网则作为回归的边界框的输出;
其中,分类子网具体描述为:将步骤2中重组的5个新特征用于Focal Loss的计算,Focal Loss函数定义如下:
FL(Pt)=-αt(1-Pt)γlog(Pt)
其中Pt是图像识别正确的概率,1-Pt则代表图像识别错误的概率,αt是权重系数,取值在0-0.5之间,γ表示聚焦系数;
在计算Focal Loss的同时,将步骤2中重组的5个新特征用于计算平衡交叉熵,平衡交叉熵函数定义如下:
CE(Pt)=-αtlog(Pt)
其中Pt是图像识别正确的概率,αt是权重系数;
将分类子网中步骤2得到的输出,直接回归相应的边界框的四个点,为了减少计算量,将通过点集置信度函数来代替常规的交集并集比(IOU)计算,点集置信度函数定义如下:
其中DT(x)为相应的x的点集与真实标签的点集之间的像素距离,dth为预设的最小距离值;
回归子网具体描述为:在计算分类子网的同时,将步骤2中重组的5个新特征用于计算均方误差损失,均方误差损失函数定义如下:
其中yi是图像标签的值,yi'是图像识别的值。
计算分类子网与回归子网的输出后,与最后使用分类子网和回归子网的输出进行梯度下降训练,梯度下降函数定义如下:
VdW=βvdW+(1-β)dW
Vdb=βvdb+(1-β)dW
W=W-avdW
b=b-avdW
超参数α和β,其中β控制着指数加权平均数,最终建立深度特征重组的快速光学遥感小目标识别模型。
本发明的有益效果在于:本发明既具有单阶段测试模型的速度优势,又具有双阶段测试模型的计算准确度。
附图说明
图1是本发明的方法流程图;
图2是本方法的示意图;
图3是特征金字塔结构图。
具体实施方式
下面结合附图对本发明作进一步描述。
本发明涉及了深度学习遥感目标识别领域,通过使用深度特征重组进行目标回归和识别,从而更好的利用深度卷积层的特征点,提高对目标的计算速度。本发明描述的是一种基于深度特征重组的快速光学遥感目标识别方法。
本发明的目的在于将传统的单阶段检测模型方法与深度特征重组相结合,能够较好的提高对目标识别的计算速度。
本发明涉及一种基于深度卷积神经网络的遥感小尺寸目标识别技术。本发明首先读取遥感图像文件,通过金字塔网络提取不同尺度的特征图,并对特征图进行重构。其次,利用全卷积网络对特征图进行学习,建立目标识别模型。主要包括以下步骤:建立自下而上路径的ResNet网络架构作为特征金字塔网络的骨干,对图像进行特征提取;得到的特征在经过自上而下路径进行再提取,以消除不同层之间的混叠效果。再次将得到的特征图进行加倍与卷积网络处理,以求得更为精确的解;然后对所得到的新特征图进行上采样和卷积处理,完成特征的重组。最后通过两个并行的子网络对特征图进行学习,其中一个子网络使用Focal Loss函数实现对目标的识别;另一个子网络使用均方误差损失函数对目标进行回归处理。最终本文发明的遥感小尺寸目标识别方法既具有单阶段测试模型的速度优势,又具有双阶段测试模型的计算准确度。
本发明基于深度特征重组的快速光学遥感目标识别方法,首先读取遥感图像文件,建立特征金字塔网络作为本方法的骨干网络,其次对特征进行重组,最后对重组特征进行分类与回归,具体描述如下:
1、读取遥感图像文件,建立特征金字塔网络作为本方法的骨干网络。
目前针对遥感领域的目标识别方法都是基于常规目标识别方法的迁移,但是并没有针对遥感数据中目标小和目标集中的问题进行很好的优化。同时由于为了取得更高的准确率,目前的方法都采用了两阶段检测的策略,即先通过一个网络获得感兴趣区域再通过一个网络对感兴趣区域进行过滤和识别,这样的缺点是参数量变多,同时使得模型的前向传播速度慢。因此,提出该发明来有效的解决上述问题。具体描述方法如下所示。
(1)分别建立自下而上50层ResNets以及101层ResNets网络架构作为构建特征金字塔网络的基础,对遥感图像进行初步特征提取,自下向上的路径是骨干网络的前馈计算,它计算由多个比例的特征图组成的特征层级,步长为2的N次方,N为层数,选择每个阶段的最后一层的输出作为我们的特征映射参考集,对于卷积层2,卷积层3,卷积层4和卷积层5输出,提取出4个不同的尺度的特征C2,C3,C4,C5,由于卷积层1庞大的内存占用,我们不会将卷积层1纳入金字塔。
(2)将步骤(1)中得到的4个特征分别通过自上而下路径的先用了一个1x1x256的卷积将特征C5:7x7x512变成了M5:7x7x256,每一个特征M之后都接了一个3x3x256卷积,卷积网络进行相互叠加得到新特征M2,M3,M4,M5用来消除不同层之间的混叠效果。
(3)将步骤(2)中得到的M5特征图加倍得到新特征P5,特征P4是由特征M5加倍之后得到M5’,同时特征C4经过1x1x256的卷积得到C4’,将特征M5’与C4相加得到新特征P4,以此类推,得到特征P3,特征P6是通过对P5进行3x3,并且步长为2的卷积得到,然后对特征P6进行ReLU激活函数,再通过3x3,并且步长为2的卷积,就可以得到特征P7。23
2、将步骤1中(3)得到的特征P5,P4,P3定义为I1,I2,I3,并通过双线性插值法进行上采样和单层3x3的卷积,步长为1,生成新的特征,完成特征的重组。重建的特征图的生成方式如下:
R1=Conv(I1)
R2=Conv(Upsample(I1)+I2)
R3=Conv(Upsample(I2)+I3)
R4=Conv(Upsample(I3)+Upsample(R3))
R5=Conv(Upsample(R4))
其中Conv代表单层卷积,Upsample代表上采样。
3、将步骤2中重组的5个新特征连接至本方法设计的适用于基于五个特征图的目标框输出,将目标框输出分为两个子网络,一个分类子网作为回归目标的类别输出,另一个回归子网则作为回归的边界框的输出。
其中,分类子网具体描述为:
(1)将步骤2中重组的5个新特征用于Focal Loss的计算,传统的单阶段检测模型必须处理很多在图像上的定期抽样的更大的候选对象位置集,但由于训练过程由容易分类的背景示例控制,因此导致计算效率低下,Focal Loss的引入能够有效的解决这个问题,这个损失函数是在标准交叉熵损失基础上修改得到的。通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本。Focal Loss函数定义如下:
FL(Pt)=-αt(1-Pt)γlog(Pt)
其中Pt是图像识别正确的概率,1-Pt则代表图像识别错误的概率,αt是权重系数,取值在0-0.5之间,γ表示聚焦系数,设置α为0.25,γ为2,在实验中的效果最好。
(2)在计算Focal Loss的同时,将步骤2中重组的5个新特征用于计算平衡交叉熵,平衡交叉熵函数定义如下:
CE(Pt)=-αtlog(Pt)
其中Pt是图像识别正确的概率,αt是权重系数。
(2)将分类子网中步骤(2)得到的输出,直接回归相应的边界框的四个点,为了减少计算量,将通过点集置信度函数来代替常规的交集并集比(IOU)计算。点集置信度函数定义如下:
其中DT(x)为相应的x的点集与真实标签的点集之间的像素距离,dth为预设的最小距离值。
回归子网具体描述为:
在计算分类子网的同时,将步骤2中重组的5个新特征用于计算均方误差损失,均方误差损失函数定义如下:
其中yi是图像标签的值,yi'是图像识别的值。
4、最后使用分类子网和回归子网的输出进行梯度下降训练,初始学习率为0.01,在16个图像的小批量训练集上,梯度下降函数定义如下:
VdW=βvdW+(1-β)dW
Vdb=βvdb+(1-β)dW
W=W-avdW
b=b-avdW
超参数α和β,其中β控制着指数加权平均数。
最终建立深度特征重组的快速光学遥感小目标识别模型。
一种基于深度特征重组的快速光学遥感小目标识别方法通过使用深度特征重组,根据重组特征进行目标回归和识别。从而能够更好的利用深度卷积层的特征点,提高对目标识别的计算速度。
Claims (4)
1.一种基于深度特征重组的快速光学遥感目标识别方法,其特征在于,包括如下步骤:
步骤1:分别建立自下而上50层ResNets以及101层ResNets网络架构作为构建特征金字塔网络的基础,对遥感图像进行初步特征提取,提取出4个不同的尺度的特征C2,C3,C4,C5;
步骤2:将步骤1中得到的4个特征分别通过自上而下路径的卷积网络进行相互叠加得到新特征M2,M3,M4,M5用来消除不同层之间的混叠效果;
步骤3:将步骤2中得到的M5特征图加倍得到新特征P5,特征P4是由特征M5加倍之后得到M5’,同时特征C4经过1x1x256的卷积得到C4’,将特征M5’与C4相加得到新特征P4,以此类推,得到特征P3,特征P6是通过对P5进行3x3,并且步长为2的卷积得到,然后对特征P6进行ReLU激活函数,再通过3x3,并且步长为2的卷积,就可以得到特征p7。
2.根据权利要求1所述的一种基于深度特征重组的快速光学遥感目标识别方法,其特征在于,建立特征金字塔网络作为本方法的骨干网络,将步骤3得到的特征P5,P4,P3定义为I1,I2,I3,并通过上采样和单层卷积生成新的特征,完成特征的重组,重建的特征图的生成方式如下:
R1=Conv(I1)
R2=Conv(Upsample(I1)+I2)
R3=Conv(Upsample(I2)+I3)
R4=Conv(Upsample(I3)+Upsample(R3))
R5=Conv(Upsample(R4))
其中Conv代表单层卷积,Upsample代表上采样。
3.根据权利要求1所述的一种基于深度特征重组的快速光学遥感目标识别方法,其特征在于,将步骤2中重组的5个新特征连接至本方法设计的适用于基于五个特征图的目标框输出,将目标框的输出分为两个子网络,一个分类子网作为回归目标的类别输出,另一个回归子网则作为回归的边界框的输出;
其中,分类子网具体描述为:将步骤2中重组的5个新特征用于FocalLoss的计算,FocalLoss函数定义如下:
FL(Pt)=-αt(1-Pt)γlog(Pt)
其中Pt是图像识别正确的概率,1-Pt则代表图像识别错误的概率,αt是权重系数,取值在0-0.5之间,γ表示聚焦系数;
在计算FocalLoss的同时,将步骤2中重组的5个新特征用于计算平衡交叉熵,平衡交叉熵函数定义如下:
CE(Pt)=-αtlog(Pt)
其中Pt是图像识别正确的概率,αt是权重系数;
将分类子网中步骤2得到的输出,直接回归相应的边界框的四个点,为了减少计算量,将通过点集置信度函数来代替常规的交集并集比(IOU)计算,点集置信度函数定义如下:
其中DT(x)为相应的x的点集与真实标签的点集之间的像素距离,dth为预设的最小距离值;
回归子网具体描述为:在计算分类子网的同时,将步骤2中重组的5个新特征用于计算均方误差损失,均方误差损失函数定义如下:
其中yi是图像标签的值,yi'是图像识别的值。
4.根据权利要求1所述的一种基于深度特征重组的快速光学遥感目标识别方法,其特征在于,计算分类子网与回归子网的输出后,与最后使用分类子网和回归子网的输出进行梯度下降训练,梯度下降函数定义如下:
VdW=βvdW+(1-β)dW
Vdb=βvdb+(1-β)dW
W=W-avdW
b=b-avdW
超参数α和β,其中β控制着指数加权平均数,最终建立深度特征重组的快速光学遥感小目标识别模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910976624.XA CN110807372A (zh) | 2019-10-15 | 2019-10-15 | 一种基于深度特征重组的快速光学遥感目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910976624.XA CN110807372A (zh) | 2019-10-15 | 2019-10-15 | 一种基于深度特征重组的快速光学遥感目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110807372A true CN110807372A (zh) | 2020-02-18 |
Family
ID=69488455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910976624.XA Pending CN110807372A (zh) | 2019-10-15 | 2019-10-15 | 一种基于深度特征重组的快速光学遥感目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110807372A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553289A (zh) * | 2020-04-29 | 2020-08-18 | 中国科学院空天信息创新研究院 | 一种遥感图像云检测方法及系统 |
CN112529095A (zh) * | 2020-12-22 | 2021-03-19 | 合肥市正茂科技有限公司 | 一种基于卷积区域重配准的单阶段目标检测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171130A (zh) * | 2017-12-15 | 2018-06-15 | 安徽四创电子股份有限公司 | 一种高光谱地物分类识别方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN109859190A (zh) * | 2019-01-31 | 2019-06-07 | 北京工业大学 | 一种基于深度学习的目标区域检测方法 |
CN109919108A (zh) * | 2019-03-11 | 2019-06-21 | 西安电子科技大学 | 基于深度哈希辅助网络的遥感图像快速目标检测方法 |
CN110084210A (zh) * | 2019-04-30 | 2019-08-02 | 电子科技大学 | 基于注意力金字塔网络的sar图像多尺度舰船检测方法 |
CN110097129A (zh) * | 2019-05-05 | 2019-08-06 | 西安电子科技大学 | 基于轮廓波分组特征金字塔卷积的遥感目标检测方法 |
CN110210463A (zh) * | 2019-07-03 | 2019-09-06 | 中国人民解放军海军航空大学 | 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法 |
-
2019
- 2019-10-15 CN CN201910976624.XA patent/CN110807372A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171130A (zh) * | 2017-12-15 | 2018-06-15 | 安徽四创电子股份有限公司 | 一种高光谱地物分类识别方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN109859190A (zh) * | 2019-01-31 | 2019-06-07 | 北京工业大学 | 一种基于深度学习的目标区域检测方法 |
CN109919108A (zh) * | 2019-03-11 | 2019-06-21 | 西安电子科技大学 | 基于深度哈希辅助网络的遥感图像快速目标检测方法 |
CN110084210A (zh) * | 2019-04-30 | 2019-08-02 | 电子科技大学 | 基于注意力金字塔网络的sar图像多尺度舰船检测方法 |
CN110097129A (zh) * | 2019-05-05 | 2019-08-06 | 西安电子科技大学 | 基于轮廓波分组特征金字塔卷积的遥感目标检测方法 |
CN110210463A (zh) * | 2019-07-03 | 2019-09-06 | 中国人民解放军海军航空大学 | 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法 |
Non-Patent Citations (1)
Title |
---|
唐玮等: "基于轻量化网络的光学遥感图像飞机目标检测", 《信号处理》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553289A (zh) * | 2020-04-29 | 2020-08-18 | 中国科学院空天信息创新研究院 | 一种遥感图像云检测方法及系统 |
CN112529095A (zh) * | 2020-12-22 | 2021-03-19 | 合肥市正茂科技有限公司 | 一种基于卷积区域重配准的单阶段目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110909666B (zh) | 一种基于改进型YOLOv3卷积神经网络的夜间车辆检测方法 | |
CN111222396B (zh) | 一种全天候多光谱行人检测方法 | |
CN113076871B (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN108229550B (zh) | 一种基于多粒度级联森林网络的云图分类方法 | |
CN114092832B (zh) | 一种基于并联混合卷积网络的高分辨率遥感影像分类方法 | |
CN112801270B (zh) | 融合深度卷积与注意力机制的u形网络槽自动识别方法 | |
CN110909690A (zh) | 一种基于区域生成的遮挡人脸图像检测方法 | |
CN110263706A (zh) | 一种雾霾天气车载视频动态目标检测和识别的方法 | |
CN112434723B (zh) | 一种基于注意力网络的日/夜间图像分类及物体检测方法 | |
CN111414954B (zh) | 一种岩石图像检索方法及其系统 | |
CN114419413A (zh) | 感受野自适应的变电站绝缘子缺陷检测神经网络构建方法 | |
CN112561876A (zh) | 基于图像的池塘和水库的水质检测方法及系统 | |
CN113297915A (zh) | 一种基于无人机巡检的绝缘子识别目标检测方法 | |
CN110555841A (zh) | 基于自注意图像融合和dec的sar图像变化检测方法 | |
CN114140665A (zh) | 一种基于改进YOLOv5的密集小目标检测方法 | |
CN110807372A (zh) | 一种基于深度特征重组的快速光学遥感目标识别方法 | |
CN114283137A (zh) | 基于多尺度特征图推理网络的光伏组件热斑缺陷检测方法 | |
CN110659601A (zh) | 基于中心点的深度全卷积网络遥感图像密集车辆检测方法 | |
CN115240069A (zh) | 一种全雾天场景下的实时性障碍物检测方法 | |
CN115410081A (zh) | 一种多尺度聚合的云和云阴影辨识方法、系统、设备及存储介质 | |
CN115861756A (zh) | 基于级联组合网络的大地背景小目标识别方法 | |
CN115661655A (zh) | 高光谱和高分影像深度特征融合的西南山区耕地提取方法 | |
CN113469097B (zh) | 一种基于ssd网络的水面漂浮物多相机实时检测方法 | |
CN113076806A (zh) | 一种结构增强的半监督在线地图生成方法 | |
CN113111740A (zh) | 一种遥感图像目标检测的特征编织方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200218 |
|
RJ01 | Rejection of invention patent application after publication |