CN110807372A - 一种基于深度特征重组的快速光学遥感目标识别方法 - Google Patents

一种基于深度特征重组的快速光学遥感目标识别方法 Download PDF

Info

Publication number
CN110807372A
CN110807372A CN201910976624.XA CN201910976624A CN110807372A CN 110807372 A CN110807372 A CN 110807372A CN 201910976624 A CN201910976624 A CN 201910976624A CN 110807372 A CN110807372 A CN 110807372A
Authority
CN
China
Prior art keywords
feature
characteristic
remote sensing
network
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910976624.XA
Other languages
English (en)
Inventor
关键
冯鹏铭
孙建国
林尤添
石慧峰
贺广均
姜妍
田野
袁野
刘加贝
董喆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201910976624.XA priority Critical patent/CN110807372A/zh
Publication of CN110807372A publication Critical patent/CN110807372A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明属于深度学习遥感目标识别技术领域,具体涉及提高对目标的计算速度的一种基于深度特征重组的快速光学遥感目标识别方法。本方法包括如下步骤:分别建立自下而上50层ResNets以及101层ResNets网络架构作为构建特征金字塔网络的基础,对遥感图像进行初步特征提取,提取出4个不同的尺度的特征C2,C3,C4,C5;将得到的4个特征分别通过自上而下路径的卷积网络进行相互叠加得到新特征M2,M3,M4,M5用来消除不同层之间的混叠效果。将得到的M5特征图加倍得到新特征P5,特征P6是通过对P5进行3x3,然后对特征P6进行ReLU激活函数,再通过3x3,并且步长为2的卷积,就可以得到特征p7。本发明既具有单阶段测试模型的速度优势,又具有双阶段测试模型的计算准确度。

Description

一种基于深度特征重组的快速光学遥感目标识别方法
技术领域
本发明属于深度学习遥感目标识别技术领域,具体涉及提高对目标的计算速度的一种基于深度特征重组的快速光学遥感目标识别方法。
背景技术
光学遥感图像是指可见光和部分红外波段传感器获取的影像数据,虽然易受光照和云雾等因素影响,但是直观易理解,空间分辨率通常比较高,在有光照和晴朗天气条件下,图像内容丰富,目标结构特征明显,便于目标分类识别。
光学遥感目标识别的目的是判断遥感图像中是否存在目标,并对其进行检测、分割、特征提取与分类识别。目前目标识别的算法主要分为两类:单阶段检测模型和两阶段检测模型。
两阶段检测模型需要候选区域的检测,虽然可以达到很高的准确率,但是计算速度较慢。而单阶段检测模型则具有计算速度快的特点,并在引入的Focal Loss这个新的损失函数的前提下,准确率得到了大幅度的提升。因此,单阶段检测模型具有重要的研究意义。
目前针对遥感领域的目标识别方法都是基于常规目标识别方法的迁移,但是并没有针对遥感数据中目标小和目标集中的问题进行很好的优化。同时由于为了取得更高的准确率,目前的方法都采用了两阶段检测的策略,即先通过一个网络获得感兴趣区域再通过一个网络对感兴趣区域进行过滤和识别,这样的缺点是参数量变多,同时使得模型的前向传播速度慢。
因此,一种基于深度特征重组的快速光学遥感小目标识别方法通过使用深度特征重组,根据重组特征进行目标回归和识别。从而能够更好的利用深度卷积层的特征点,提高对目标识别的计算速度。
发明内容
本发明的目的在于提供一种基于深度特征重组的快速光学遥感目标识别方法。
本发明的目的是这样实现的:
一种基于深度特征重组的快速光学遥感目标识别方法,包括如下步骤:
步骤1:分别建立自下而上50层ResNets以及101层ResNets网络架构作为构建特征金字塔网络的基础,对遥感图像进行初步特征提取,提取出4个不同的尺度的特征C2,C3,C4,C5
步骤2:将步骤1中得到的4个特征分别通过自上而下路径的卷积网络进行相互叠加得到新特征M2,M3,M4,M5用来消除不同层之间的混叠效果;
步骤3:将步骤2中得到的M5特征图加倍得到新特征P5,特征P4是由特征M5加倍之后得到M5’,同时特征C4经过1x1x256的卷积得到C4’,将特征M5’与C4相加得到新特征P4,以此类推,得到特征P3,特征P6是通过对P5进行3x3,并且步长为2的卷积得到,然后对特征P6进行ReLU激活函数,再通过3x3,并且步长为2的卷积,就可以得到特征p7
建立特征金字塔网络作为本方法的骨干网络,将步骤3得到的特征P5,P4,P3定义为I1,I2,I3,并通过上采样和单层卷积生成新的特征,完成特征的重组,重建的特征图的生成方式如下:
R1=Conv(I1)
R2=Conv(Upsample(I1)+I2)
R3=Conv(Upsample(I2)+I3)
R4=Conv(Upsample(I3)+Upsample(R3))
R5=Conv(Upsample(R4))
其中Conv代表单层卷积,Upsample代表上采样。
将步骤2中重组的5个新特征连接至本方法设计的适用于基于五个特征图的目标框输出,将目标框的输出分为两个子网络,一个分类子网作为回归目标的类别输出,另一个回归子网则作为回归的边界框的输出;
其中,分类子网具体描述为:将步骤2中重组的5个新特征用于Focal Loss的计算,Focal Loss函数定义如下:
FL(Pt)=-αt(1-Pt)γlog(Pt)
其中Pt是图像识别正确的概率,1-Pt则代表图像识别错误的概率,αt是权重系数,取值在0-0.5之间,γ表示聚焦系数;
在计算Focal Loss的同时,将步骤2中重组的5个新特征用于计算平衡交叉熵,平衡交叉熵函数定义如下:
CE(Pt)=-αtlog(Pt)
其中Pt是图像识别正确的概率,αt是权重系数;
将分类子网中步骤2得到的输出,直接回归相应的边界框的四个点,为了减少计算量,将通过点集置信度函数来代替常规的交集并集比(IOU)计算,点集置信度函数定义如下:
Figure BDA0002233850260000021
其中DT(x)为相应的x的点集与真实标签的点集之间的像素距离,dth为预设的最小距离值;
回归子网具体描述为:在计算分类子网的同时,将步骤2中重组的5个新特征用于计算均方误差损失,均方误差损失函数定义如下:
Figure BDA0002233850260000031
其中yi是图像标签的值,yi'是图像识别的值。
计算分类子网与回归子网的输出后,与最后使用分类子网和回归子网的输出进行梯度下降训练,梯度下降函数定义如下:
VdW=βvdW+(1-β)dW
Vdb=βvdb+(1-β)dW
W=W-avdW
b=b-avdW
超参数α和β,其中β控制着指数加权平均数,最终建立深度特征重组的快速光学遥感小目标识别模型。
本发明的有益效果在于:本发明既具有单阶段测试模型的速度优势,又具有双阶段测试模型的计算准确度。
附图说明
图1是本发明的方法流程图;
图2是本方法的示意图;
图3是特征金字塔结构图。
具体实施方式
下面结合附图对本发明作进一步描述。
本发明涉及了深度学习遥感目标识别领域,通过使用深度特征重组进行目标回归和识别,从而更好的利用深度卷积层的特征点,提高对目标的计算速度。本发明描述的是一种基于深度特征重组的快速光学遥感目标识别方法。
本发明的目的在于将传统的单阶段检测模型方法与深度特征重组相结合,能够较好的提高对目标识别的计算速度。
本发明涉及一种基于深度卷积神经网络的遥感小尺寸目标识别技术。本发明首先读取遥感图像文件,通过金字塔网络提取不同尺度的特征图,并对特征图进行重构。其次,利用全卷积网络对特征图进行学习,建立目标识别模型。主要包括以下步骤:建立自下而上路径的ResNet网络架构作为特征金字塔网络的骨干,对图像进行特征提取;得到的特征在经过自上而下路径进行再提取,以消除不同层之间的混叠效果。再次将得到的特征图进行加倍与卷积网络处理,以求得更为精确的解;然后对所得到的新特征图进行上采样和卷积处理,完成特征的重组。最后通过两个并行的子网络对特征图进行学习,其中一个子网络使用Focal Loss函数实现对目标的识别;另一个子网络使用均方误差损失函数对目标进行回归处理。最终本文发明的遥感小尺寸目标识别方法既具有单阶段测试模型的速度优势,又具有双阶段测试模型的计算准确度。
本发明基于深度特征重组的快速光学遥感目标识别方法,首先读取遥感图像文件,建立特征金字塔网络作为本方法的骨干网络,其次对特征进行重组,最后对重组特征进行分类与回归,具体描述如下:
1、读取遥感图像文件,建立特征金字塔网络作为本方法的骨干网络。
目前针对遥感领域的目标识别方法都是基于常规目标识别方法的迁移,但是并没有针对遥感数据中目标小和目标集中的问题进行很好的优化。同时由于为了取得更高的准确率,目前的方法都采用了两阶段检测的策略,即先通过一个网络获得感兴趣区域再通过一个网络对感兴趣区域进行过滤和识别,这样的缺点是参数量变多,同时使得模型的前向传播速度慢。因此,提出该发明来有效的解决上述问题。具体描述方法如下所示。
(1)分别建立自下而上50层ResNets以及101层ResNets网络架构作为构建特征金字塔网络的基础,对遥感图像进行初步特征提取,自下向上的路径是骨干网络的前馈计算,它计算由多个比例的特征图组成的特征层级,步长为2的N次方,N为层数,选择每个阶段的最后一层的输出作为我们的特征映射参考集,对于卷积层2,卷积层3,卷积层4和卷积层5输出,提取出4个不同的尺度的特征C2,C3,C4,C5,由于卷积层1庞大的内存占用,我们不会将卷积层1纳入金字塔。
(2)将步骤(1)中得到的4个特征分别通过自上而下路径的先用了一个1x1x256的卷积将特征C5:7x7x512变成了M5:7x7x256,每一个特征M之后都接了一个3x3x256卷积,卷积网络进行相互叠加得到新特征M2,M3,M4,M5用来消除不同层之间的混叠效果。
(3)将步骤(2)中得到的M5特征图加倍得到新特征P5,特征P4是由特征M5加倍之后得到M5’,同时特征C4经过1x1x256的卷积得到C4’,将特征M5’与C4相加得到新特征P4,以此类推,得到特征P3,特征P6是通过对P5进行3x3,并且步长为2的卷积得到,然后对特征P6进行ReLU激活函数,再通过3x3,并且步长为2的卷积,就可以得到特征P7。23
2、将步骤1中(3)得到的特征P5,P4,P3定义为I1,I2,I3,并通过双线性插值法进行上采样和单层3x3的卷积,步长为1,生成新的特征,完成特征的重组。重建的特征图的生成方式如下:
R1=Conv(I1)
R2=Conv(Upsample(I1)+I2)
R3=Conv(Upsample(I2)+I3)
R4=Conv(Upsample(I3)+Upsample(R3))
R5=Conv(Upsample(R4))
其中Conv代表单层卷积,Upsample代表上采样。
3、将步骤2中重组的5个新特征连接至本方法设计的适用于基于五个特征图的目标框输出,将目标框输出分为两个子网络,一个分类子网作为回归目标的类别输出,另一个回归子网则作为回归的边界框的输出。
其中,分类子网具体描述为:
(1)将步骤2中重组的5个新特征用于Focal Loss的计算,传统的单阶段检测模型必须处理很多在图像上的定期抽样的更大的候选对象位置集,但由于训练过程由容易分类的背景示例控制,因此导致计算效率低下,Focal Loss的引入能够有效的解决这个问题,这个损失函数是在标准交叉熵损失基础上修改得到的。通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本。Focal Loss函数定义如下:
FL(Pt)=-αt(1-Pt)γlog(Pt)
其中Pt是图像识别正确的概率,1-Pt则代表图像识别错误的概率,αt是权重系数,取值在0-0.5之间,γ表示聚焦系数,设置α为0.25,γ为2,在实验中的效果最好。
(2)在计算Focal Loss的同时,将步骤2中重组的5个新特征用于计算平衡交叉熵,平衡交叉熵函数定义如下:
CE(Pt)=-αtlog(Pt)
其中Pt是图像识别正确的概率,αt是权重系数。
(2)将分类子网中步骤(2)得到的输出,直接回归相应的边界框的四个点,为了减少计算量,将通过点集置信度函数来代替常规的交集并集比(IOU)计算。点集置信度函数定义如下:
其中DT(x)为相应的x的点集与真实标签的点集之间的像素距离,dth为预设的最小距离值。
回归子网具体描述为:
在计算分类子网的同时,将步骤2中重组的5个新特征用于计算均方误差损失,均方误差损失函数定义如下:
其中yi是图像标签的值,yi'是图像识别的值。
4、最后使用分类子网和回归子网的输出进行梯度下降训练,初始学习率为0.01,在16个图像的小批量训练集上,梯度下降函数定义如下:
VdW=βvdW+(1-β)dW
Vdb=βvdb+(1-β)dW
W=W-avdW
b=b-avdW
超参数α和β,其中β控制着指数加权平均数。
最终建立深度特征重组的快速光学遥感小目标识别模型。
一种基于深度特征重组的快速光学遥感小目标识别方法通过使用深度特征重组,根据重组特征进行目标回归和识别。从而能够更好的利用深度卷积层的特征点,提高对目标识别的计算速度。

Claims (4)

1.一种基于深度特征重组的快速光学遥感目标识别方法,其特征在于,包括如下步骤:
步骤1:分别建立自下而上50层ResNets以及101层ResNets网络架构作为构建特征金字塔网络的基础,对遥感图像进行初步特征提取,提取出4个不同的尺度的特征C2,C3,C4,C5
步骤2:将步骤1中得到的4个特征分别通过自上而下路径的卷积网络进行相互叠加得到新特征M2,M3,M4,M5用来消除不同层之间的混叠效果;
步骤3:将步骤2中得到的M5特征图加倍得到新特征P5,特征P4是由特征M5加倍之后得到M5’,同时特征C4经过1x1x256的卷积得到C4’,将特征M5’与C4相加得到新特征P4,以此类推,得到特征P3,特征P6是通过对P5进行3x3,并且步长为2的卷积得到,然后对特征P6进行ReLU激活函数,再通过3x3,并且步长为2的卷积,就可以得到特征p7
2.根据权利要求1所述的一种基于深度特征重组的快速光学遥感目标识别方法,其特征在于,建立特征金字塔网络作为本方法的骨干网络,将步骤3得到的特征P5,P4,P3定义为I1,I2,I3,并通过上采样和单层卷积生成新的特征,完成特征的重组,重建的特征图的生成方式如下:
R1=Conv(I1)
R2=Conv(Upsample(I1)+I2)
R3=Conv(Upsample(I2)+I3)
R4=Conv(Upsample(I3)+Upsample(R3))
R5=Conv(Upsample(R4))
其中Conv代表单层卷积,Upsample代表上采样。
3.根据权利要求1所述的一种基于深度特征重组的快速光学遥感目标识别方法,其特征在于,将步骤2中重组的5个新特征连接至本方法设计的适用于基于五个特征图的目标框输出,将目标框的输出分为两个子网络,一个分类子网作为回归目标的类别输出,另一个回归子网则作为回归的边界框的输出;
其中,分类子网具体描述为:将步骤2中重组的5个新特征用于FocalLoss的计算,FocalLoss函数定义如下:
FL(Pt)=-αt(1-Pt)γlog(Pt)
其中Pt是图像识别正确的概率,1-Pt则代表图像识别错误的概率,αt是权重系数,取值在0-0.5之间,γ表示聚焦系数;
在计算FocalLoss的同时,将步骤2中重组的5个新特征用于计算平衡交叉熵,平衡交叉熵函数定义如下:
CE(Pt)=-αtlog(Pt)
其中Pt是图像识别正确的概率,αt是权重系数;
将分类子网中步骤2得到的输出,直接回归相应的边界框的四个点,为了减少计算量,将通过点集置信度函数来代替常规的交集并集比(IOU)计算,点集置信度函数定义如下:
Figure FDA0002233850250000021
其中DT(x)为相应的x的点集与真实标签的点集之间的像素距离,dth为预设的最小距离值;
回归子网具体描述为:在计算分类子网的同时,将步骤2中重组的5个新特征用于计算均方误差损失,均方误差损失函数定义如下:
Figure FDA0002233850250000022
其中yi是图像标签的值,yi'是图像识别的值。
4.根据权利要求1所述的一种基于深度特征重组的快速光学遥感目标识别方法,其特征在于,计算分类子网与回归子网的输出后,与最后使用分类子网和回归子网的输出进行梯度下降训练,梯度下降函数定义如下:
VdW=βvdW+(1-β)dW
Vdb=βvdb+(1-β)dW
W=W-avdW
b=b-avdW
超参数α和β,其中β控制着指数加权平均数,最终建立深度特征重组的快速光学遥感小目标识别模型。
CN201910976624.XA 2019-10-15 2019-10-15 一种基于深度特征重组的快速光学遥感目标识别方法 Pending CN110807372A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910976624.XA CN110807372A (zh) 2019-10-15 2019-10-15 一种基于深度特征重组的快速光学遥感目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910976624.XA CN110807372A (zh) 2019-10-15 2019-10-15 一种基于深度特征重组的快速光学遥感目标识别方法

Publications (1)

Publication Number Publication Date
CN110807372A true CN110807372A (zh) 2020-02-18

Family

ID=69488455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910976624.XA Pending CN110807372A (zh) 2019-10-15 2019-10-15 一种基于深度特征重组的快速光学遥感目标识别方法

Country Status (1)

Country Link
CN (1) CN110807372A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553289A (zh) * 2020-04-29 2020-08-18 中国科学院空天信息创新研究院 一种遥感图像云检测方法及系统
CN112529095A (zh) * 2020-12-22 2021-03-19 合肥市正茂科技有限公司 一种基于卷积区域重配准的单阶段目标检测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171130A (zh) * 2017-12-15 2018-06-15 安徽四创电子股份有限公司 一种高光谱地物分类识别方法
CN109344821A (zh) * 2018-08-30 2019-02-15 西安电子科技大学 基于特征融合和深度学习的小目标检测方法
CN109859190A (zh) * 2019-01-31 2019-06-07 北京工业大学 一种基于深度学习的目标区域检测方法
CN109919108A (zh) * 2019-03-11 2019-06-21 西安电子科技大学 基于深度哈希辅助网络的遥感图像快速目标检测方法
CN110084210A (zh) * 2019-04-30 2019-08-02 电子科技大学 基于注意力金字塔网络的sar图像多尺度舰船检测方法
CN110097129A (zh) * 2019-05-05 2019-08-06 西安电子科技大学 基于轮廓波分组特征金字塔卷积的遥感目标检测方法
CN110210463A (zh) * 2019-07-03 2019-09-06 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171130A (zh) * 2017-12-15 2018-06-15 安徽四创电子股份有限公司 一种高光谱地物分类识别方法
CN109344821A (zh) * 2018-08-30 2019-02-15 西安电子科技大学 基于特征融合和深度学习的小目标检测方法
CN109859190A (zh) * 2019-01-31 2019-06-07 北京工业大学 一种基于深度学习的目标区域检测方法
CN109919108A (zh) * 2019-03-11 2019-06-21 西安电子科技大学 基于深度哈希辅助网络的遥感图像快速目标检测方法
CN110084210A (zh) * 2019-04-30 2019-08-02 电子科技大学 基于注意力金字塔网络的sar图像多尺度舰船检测方法
CN110097129A (zh) * 2019-05-05 2019-08-06 西安电子科技大学 基于轮廓波分组特征金字塔卷积的遥感目标检测方法
CN110210463A (zh) * 2019-07-03 2019-09-06 中国人民解放军海军航空大学 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
唐玮等: "基于轻量化网络的光学遥感图像飞机目标检测", 《信号处理》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553289A (zh) * 2020-04-29 2020-08-18 中国科学院空天信息创新研究院 一种遥感图像云检测方法及系统
CN112529095A (zh) * 2020-12-22 2021-03-19 合肥市正茂科技有限公司 一种基于卷积区域重配准的单阶段目标检测方法

Similar Documents

Publication Publication Date Title
CN110909666B (zh) 一种基于改进型YOLOv3卷积神经网络的夜间车辆检测方法
CN111222396B (zh) 一种全天候多光谱行人检测方法
CN113076871B (zh) 一种基于目标遮挡补偿的鱼群自动检测方法
CN108229550B (zh) 一种基于多粒度级联森林网络的云图分类方法
CN114092832B (zh) 一种基于并联混合卷积网络的高分辨率遥感影像分类方法
CN112801270B (zh) 融合深度卷积与注意力机制的u形网络槽自动识别方法
CN110909690A (zh) 一种基于区域生成的遮挡人脸图像检测方法
CN110263706A (zh) 一种雾霾天气车载视频动态目标检测和识别的方法
CN112434723B (zh) 一种基于注意力网络的日/夜间图像分类及物体检测方法
CN111414954B (zh) 一种岩石图像检索方法及其系统
CN114419413A (zh) 感受野自适应的变电站绝缘子缺陷检测神经网络构建方法
CN112561876A (zh) 基于图像的池塘和水库的水质检测方法及系统
CN113297915A (zh) 一种基于无人机巡检的绝缘子识别目标检测方法
CN110555841A (zh) 基于自注意图像融合和dec的sar图像变化检测方法
CN114140665A (zh) 一种基于改进YOLOv5的密集小目标检测方法
CN110807372A (zh) 一种基于深度特征重组的快速光学遥感目标识别方法
CN114283137A (zh) 基于多尺度特征图推理网络的光伏组件热斑缺陷检测方法
CN110659601A (zh) 基于中心点的深度全卷积网络遥感图像密集车辆检测方法
CN115240069A (zh) 一种全雾天场景下的实时性障碍物检测方法
CN115410081A (zh) 一种多尺度聚合的云和云阴影辨识方法、系统、设备及存储介质
CN115861756A (zh) 基于级联组合网络的大地背景小目标识别方法
CN115661655A (zh) 高光谱和高分影像深度特征融合的西南山区耕地提取方法
CN113469097B (zh) 一种基于ssd网络的水面漂浮物多相机实时检测方法
CN113076806A (zh) 一种结构增强的半监督在线地图生成方法
CN113111740A (zh) 一种遥感图像目标检测的特征编织方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200218

RJ01 Rejection of invention patent application after publication