CN111291651B - 用于遥感场景分类的多任务神经网络框架及分类方法 - Google Patents

用于遥感场景分类的多任务神经网络框架及分类方法 Download PDF

Info

Publication number
CN111291651B
CN111291651B CN202010070358.7A CN202010070358A CN111291651B CN 111291651 B CN111291651 B CN 111291651B CN 202010070358 A CN202010070358 A CN 202010070358A CN 111291651 B CN111291651 B CN 111291651B
Authority
CN
China
Prior art keywords
task
layer
classification
auxiliary
full
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010070358.7A
Other languages
English (en)
Other versions
CN111291651A (zh
Inventor
卢孝强
张园林
郑向涛
黄举
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XiAn Institute of Optics and Precision Mechanics of CAS
Original Assignee
XiAn Institute of Optics and Precision Mechanics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XiAn Institute of Optics and Precision Mechanics of CAS filed Critical XiAn Institute of Optics and Precision Mechanics of CAS
Priority to CN202010070358.7A priority Critical patent/CN111291651B/zh
Publication of CN111291651A publication Critical patent/CN111291651A/zh
Application granted granted Critical
Publication of CN111291651B publication Critical patent/CN111291651B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Abstract

本发明涉及一种用于遥感场景分类的神经网络框架及分类方法,特别涉及一种用于遥感场景分类的多任务神经网络框架及分类方法,解决了现有网络框架及分类方法,信息量存在局限性,场景识别不准确,分类精度低的问题。该网络框架包括卷积特征提取层、分类任务全连接特征提取层、分类任务判别层、分类任务损失层;其特殊在于:还包括辅助任务全连接特征提取层、辅助任务判别层、辅助任务损失层、分类任务特征映射层、辅助任务特征映射层及关系学习损失层;两个特征映射层分别将适应于两种任务的全连接特征向量降维,关系学习损失层将降维后的向量作差并将差向量的范数作为关系学习损失,关系学习损失与两种任务的判别损失一起加入优化训练。

Description

用于遥感场景分类的多任务神经网络框架及分类方法
技术领域
本发明涉及一种用于遥感场景分类的神经网络框架及分类方法,特别涉及一种用于遥感场景分类的多任务神经网络框架及分类方法。
背景技术
高分遥感场景分类任务的目标是:根据输入图像的信息,将感兴趣的前景和背景以及其它前景区分开来。
场景分类方法可以划分为基于手工特征和基于深度学习这两类方法。基于手工特征的方法采用人为设计的特征,在过去的一段时间里,该方法取得了不错的效果;但是随着深度学习的兴起,基于手工特征的方法依赖人为因素的弊端显示了出来,而深度学习能够自主学习有利的特征,使得场景分类的平均准确率AP得到了大幅提升。
基于深度学习的场景分类框架,一般包括两个阶段:即训练阶段和测试阶段。其中,训练阶段包括卷积特征提取、全连接特征提取、损失计算以及迭代优化;测试阶段包括卷积特征提取、全连接特征提取以及类别判别。在高分遥感场景中,存在大量相似度较高的场景类别,难以直接判别。为了应对这个问题,一些现有工作从不同方面展开研究,如下所述:
第一个是由Hu,Fan和Zhang,Liangpei在“F.Hu,G.-S.Xia,J.Hu,and L.Zhang,Transferring deep convolutional neural networks for the scene classificationof high-resolution remote sensing imagery,Remote Sensing,vol.7,no.11,pp.14680-14707,2015.”上提出的工作。该工作集成了全连接特征和多尺度密集卷积特征,以增强表达能力,从而提高分类精度。
第二个是由Li,Erzhu和Du,Peijun在“E.Li,J.Xia,P.Du,C.Lin,and A.Samat,Integrating multilayer features of convolutional neural networks for remotesensing scene classification,IEEE Transactions on Geoscience and RemoteSensing,vol.55,no.10,pp.5653-5665,2017.”上提出的工作。该工作集成了卷积神经网络的多层特征,该方法与现有技术的其它方法相比,具有竞争优势。
第三个是由Alshehhi,Rasha和Dalla Mura,Mauro在“R.Alshehhi,P.R.Marpu,W.L.Woon,and M.Dalla Mura,Simultaneous extraction of roads and buildings inremote sensing imagery with convolutional neural networks,ISPRS Journal ofPhotogrammetry and Remote Sensing,vol.130,pp.139-149,2017.”上提出的工作。该工作结合道路和建筑物的特征,提出了一种新的卷积神经网络框架。
第四个是由Anwer,Rao Muhammad和Khan,Fahad Shahbaz在“R.M.Anwer,F.S.Khan,J.van de Weijer,M.Molinier,and J.Laaksonen,Binary patterns encodedconvolutional neural networks for texture recognition and remote sensingscene classification,ISPRS Journal of Photogrammetry and Remote Sensing,vol.138,pp.74-85,2018.”上提出的工作。该工作通过结合局部二进制模式(LBP)和深度神经网络提出了一种新的卷积神经网络。
上述几种方法通过特征提取和特征融合来处理复杂的图像内容,这几种方法能够在一定程度上缓解场景类别相似度较高的问题,但是由于所有的信息都来源于图像和分类标签(训练阶段使用了分类标签),信息量上存在局限性,场景识别不准确,分类精度较低。
发明内容
本发明的目的是提供一种用于遥感场景分类的多任务神经网络框架及分类方法,以解决现有用于遥感场景分类的神经网络框架及分类方法,由于信息量上存在局限性,场景识别不准确,分类精度较低的技术问题。
本发明所采用的技术方案是,一种用于遥感场景分类的多任务神经网络框架,包括卷积特征提取层、分类任务全连接特征提取层、分类任务判别层以及分类任务损失层;其特殊之处在于:
还包括辅助任务全连接特征提取层、辅助任务判别层、辅助任务损失层、分类任务特征映射层、辅助任务特征映射层以及关系学习损失层;
所述卷积特征提取层提取输入图像特征,输出卷积特征图;
所述分类任务全连接特征提取层和辅助任务全连接特征提取层分别从卷积特征图提取特征,对应输出适应于分类任务的全连接特征向量和适应于辅助任务的全连接特征向量;
所述分类任务判别层和分类任务损失层在训练阶段依次根据输入的适应于分类任务的全连接特征向量,输出分类任务损失;
所述辅助任务判别层和辅助任务损失层在训练阶段依次根据输入的适应于辅助任务的全连接特征向量,输出辅助任务损失;
所述分类任务特征映射层在训练阶段将输入的适应于分类任务的全连接特征向量降维后得到分类任务特征映射向量;所述辅助任务特征映射层在训练阶段将输入的适应于辅助任务的全连接特征向量降维后得到辅助任务特征映射向量;所述关系学习损失层在训练阶段将输入的分类任务特征映射向量与辅助任务特征映射向量作差,并将差向量的范数输出作为关系学习损失;
所述分类任务损失、辅助任务损失以及关系学习损失一起加入优化训练;
所述分类任务判别层在测试阶段根据输入的适应于分类任务的全连接特征向量,输出分类任务判别结果;
所述辅助任务判别层在测试阶段根据输入的适应于辅助任务的全连接特征向量,输出辅助任务判别结果。
进一步地,所述适应于辅助任务的全连接特征向量中的辅助任务为属性判别任务或分割任务或显著性目标检测任务。
进一步地,所述分类任务判别层包括分类任务判别全连接层和分类任务判别激活层;所述分类任务判别全连接层以分类任务全连接特征提取层为输入;所述分类任务判别激活层以分类任务判别全连接层为输入;在训练阶段,所述分类任务判别激活层输出到分类任务损失层,在测试阶段,所述分类任务判别激活层直接输出分类任务判别结果;
所述辅助任务判别层包括辅助任务判别全连接层和辅助任务判别激活层;所述辅助任务判别全连接层以辅助任务全连接特征提取层为输入;所述辅助任务判别激活层以辅助任务判别全连接层为输入;在训练阶段,所述辅助任务判别激活层输出到辅助任务损失层,在测试阶段,所述辅助任务判别激活层直接输出辅助任务判别结果。
进一步地,所述卷积特征提取层为AlexNet、GoogLeNet、VGGNet或ResNet。
本发明还提供了一种基于上述用于遥感场景分类的多任务神经网络框架的分类方法,其特殊之处在于,包括以下阶段:
训练阶段:
步骤1.1:输入待处理图像;
步骤1.2:卷积特征提取层提取输入的待处理图像的卷积特征图;
步骤1.3:采用分类任务全连接特征提取层从卷积特征图中提取适应于分类任务的全连接特征向量;采用辅助任务全连接特征提取层从卷积特征图中提取适应于辅助任务的全连接特征向量;
步骤1.4:所述适应于分类任务的全连接特征向量依次经过分类任务判别层和分类任务损失层,输出分类任务损失;
所述适应于辅助任务的全连接特征向量依次经过辅助任务判别层和辅助任务损失层,输出辅助任务损失;
所述适应于分类任务的全连接特征向量经过分类任务特征映射层降维后得到分类任务特征映射向量;所述适应于辅助任务的全连接特征向量经过辅助任务特征映射层降维后得到辅助任务特征映射向量;所述关系学习损失层将分类任务特征映射向量与辅助任务特征映射向量作差,并将差向量的范数输出作为关系学习损失;
步骤1.5:采用优化策略,对分类任务损失、辅助任务损失以及关系学习损失进行神经网络权重参数优化;
测试阶段:
步骤2.1:输入待处理图像;按步骤1.2-步骤1.3进行处理;
步骤2.2:所述适应于分类任务的全连接特征向量经过分类任务判别层,直接输出分类任务判别结果;所述适应于辅助任务的全连接特征向量经过辅助任务判别层,直接输出辅助任务判别结果。
进一步地,步骤1.3中,所述适应于辅助任务的全连接特征向量中的辅助任务为属性判别任务或分割任务或显著性目标检测任务。
进一步地,步骤1.5中,所述优化策略为随机梯度下降法。
进一步地,步骤1.4中,所述分类任务判别层包括分类任务判别全连接层和分类任务判别激活层;所述分类任务判别全连接层以分类任务全连接特征提取层为输入;所述分类任务判别激活层以分类任务判别全连接层为输入;在训练阶段,所述分类任务判别激活层输出到分类任务损失层,在测试阶段,所述分类任务判别激活层直接输出分类任务判别结果;
步骤1.4中,所述辅助任务判别层包括辅助任务判别全连接层和辅助任务判别激活层;所述辅助任务判别全连接层以辅助任务全连接特征提取层为输入;所述辅助任务判别激活层以辅助任务判别全连接层为输入;在训练阶段,所述辅助任务判别激活层输出到辅助任务损失层,在测试阶段,所述辅助任务判别激活层直接输出辅助任务判别结果。
进一步地,步骤1.2中,所述卷积特征提取层为AlexNet、GoogLeNet、VGGNet或ResNet。
本发明的有益效果是:
(1)本发明的用于遥感场景分类的多任务神经网络框架,引入了辅助任务的信息(包括属性判别任务、分割任务以及显著性目标检测任务等)作为新信息,并通过设计合理的神经网络框架将这些新信息引入了分类分支,从而提高了场景分类网络的判别能力,更好地区分相似度较高的类别;因此,本发明解决了现有用于遥感场景分类的神经网络框架及分类方法,由于信息量上存在局限性,场景识别不准确,分类精度较低的技术问题。
(2)本发明提出了任务间的关系学习,用于将新信息(辅助任务)和分类任务的深层特征共享。具体地,将分类任务和辅助任务的深层特征分别降维后,得到降维的分类任务特征和降维的辅助任务特征,在训练过程中最小化降维后两种特征的差值,效果上等价于学习到了两种任务的关系;这种关系在训练过程中,影响了分类任务的权重分布,从而将辅助任务的信息共享给了分类任务,可以更容易地判别一些难以区分的样本。
(3)本发明设计了一个特征共享机制,用于进一步增强信息共享。本发明的特征共享机制包括两部分:对于浅层网络(卷积层),分类任务的卷积层和辅助任务的卷积层使用相同的权重(等同于分类任务卷积层和辅助任务卷积层使用同一组卷积层);对于深层网络(全连接层),则采用关系学习共享信息。
附图说明
图1是本发明用于遥感场景分类的多任务神经网络框架的流程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
参见图1,本发明一种用于遥感场景分类的多任务神经网络框架,包括卷积特征提取层、分类任务全连接特征提取层、分类任务判别层、分类任务损失层、辅助任务全连接特征提取层、辅助任务判别层、辅助任务损失层、分类任务特征映射层、辅助任务特征映射层以及关系学习损失层。
卷积特征提取层提取输入图像特征,输出卷积特征图;在本实施例中,卷积特征提取层为AlexNet(Alex网络,其中Alex是人名。),卷积特征提取层除了为AlexNet外,也可以选用其它的,比如GoogLeNet(谷歌网络)、VGGNet(视觉几何组网络,其中VGG为visualgeometry group的缩写。)、ResNet(残差网络)等。分类任务全连接特征提取层和辅助任务全连接特征提取层分别从卷积特征图提取特征,对应输出适应于分类任务的全连接特征向量和适应于辅助任务的全连接特征向量;上述适应于辅助任务的全连接特征向量中的辅助任务在本实施例中具体为属性判别任务,除了为属性判别任务外,也可以为分割任务、显著性目标检测任务等其它辅助任务。分类任务判别层和分类任务损失层在训练阶段依次根据输入的适应于分类任务的全连接特征向量,输出分类任务损失;辅助任务判别层和辅助任务损失层在训练阶段依次根据输入的适应于辅助任务的全连接特征向量,输出辅助任务损失;分类任务特征映射层在训练阶段将输入的适应于分类任务的全连接特征向量降维后得到分类任务特征映射向量;辅助任务特征映射层在训练阶段将输入的适应于辅助任务的全连接特征向量降维后得到辅助任务特征映射向量;关系学习损失层在训练阶段将输入的分类任务特征映射向量与辅助任务特征映射向量作差,并将差向量的范数输出作为关系学习损失;上述分类任务损失、辅助任务损失以及关系学习损失一起加入优化训练。分类任务判别层在测试阶段根据输入的适应于分类任务的全连接特征向量,输出分类任务判别结果;辅助任务判别层在测试阶段根据输入的适应于辅助任务的全连接特征向量,输出辅助任务判别结果。在本实施例中,优选地上述分类任务判别层包括分类任务判别全连接层和分类任务判别激活层;分类任务判别全连接层以分类任务全连接特征提取层为输入;分类任务判别激活层以分类任务判别全连接层为输入;在训练阶段,分类任务判别激活层输出到分类任务损失层,在测试阶段,分类任务判别激活层直接输出分类任务判别结果。同时,在本实施例中,优选地上述辅助任务判别层包括辅助任务判别全连接层和辅助任务判别激活层;辅助任务判别全连接层以辅助任务全连接特征提取层为输入;辅助任务判别激活层以辅助任务判别全连接层为输入;在训练阶段,辅助任务判别激活层输出到辅助任务损失层,在测试阶段,辅助任务判别激活层直接输出辅助任务判别结果。
采用上述用于遥感场景分类的多任务神经网络框架的分类方法,包括以下阶段:
训练阶段:
步骤1.1:输入待处理图像;
步骤1.2:卷积特征提取层提取输入的待处理图像的卷积特征图;
步骤1.3:采用分类任务全连接特征提取层从卷积特征图中提取适应于分类任务的全连接特征向量;采用辅助任务全连接特征提取层从卷积特征图中提取适应于辅助任务的全连接特征向量;
步骤1.4:上述适应于分类任务的全连接特征向量依次经过分类任务判别层和分类任务损失层,输出分类任务损失;
上述适应于辅助任务的全连接特征向量依次经过辅助任务判别层和辅助任务损失层,输出辅助任务损失;
上述适应于分类任务的全连接特征向量经过分类任务特征映射层降维后得到分类任务特征映射向量;上述适应于辅助任务的全连接特征向量经过辅助任务特征映射层降维后得到辅助任务特征映射向量;上述关系学习损失层将分类任务特征映射向量与辅助任务特征映射向量作差,并将差向量的范数输出作为关系学习损失;
步骤1.5:采用优化策略,对分类任务损失、辅助任务损失以及关系学习损失进行神经网络权重参数优化;在本实施例中,采用的优化策略为随机梯度下降法;关于随机梯度下降法在“Lecun,L.Bottou,Y.Bengio,and P.Haffner,Gradient-based leraningapplied to document recognition.Proceedings of the IEEE,vol.86,no.11,pp.2278-2324,1998.”中有详细介绍;
测试阶段:
步骤2.1:输入待处理图像;按步骤1.2-步骤1.3进行处理;
步骤2.2:上述适应于分类任务的全连接特征向量经过分类任务判别层,直接输出分类任务判别结果;上述适应于辅助任务的全连接特征向量经过辅助任务判别层,直接输出辅助任务判别结果。
本发明的效果可以通过以下仿真实验做进一步的说明。
1.仿真数据集
实验中采用了三个数据集,分别为AID(Aerial Image data set,航空图像数据库)、UCM(加州大学美熹德分校数据库)和Sydney(悉尼数据库)。
2.仿真内容
按照如下步骤用本发明方法进行高分遥感场景分类:
首先,选取属性判别任务作为辅助任务。属性标签为一个不定长的向量,每个元素为一个单词,代表了图像中存在的某种特点,可为名词、形容词等具有实际意义的词。
其次,在UCM上进行消融实验,错误率的结果如下表1所示:
表1在UCM数据库上的消融实验
辅助任务 关系学习 Err/%
1 7.14
2 5.00
3 4.05
最后,在AID、UCM和Sydney三个数据库上将本发明方法和其他算法进行对比,错误率的结果如下表2所示:
表2不同方法在三个数据库上的分类错误率
Figure BDA0002377141010000081
Figure BDA0002377141010000091
从表2可以看出,在AID数据库上,错误率除了比采用DCA-Fusion方法稍高一点,比其它五种方法均有所降低;在UCM和Sydney数据库上,相对于其它六种方法,错误率最低,因此,采用本发明的用于遥感场景分类的多任务神经网络框架及分类方法,提高了场景分类网络的判别能力,能更好地区分相似度较高的类别。

Claims (5)

1.一种用于遥感场景分类的多任务神经网络框架的分类方法,其特征在于:
所述用于遥感场景分类的多任务神经网络框架,包括卷积特征提取层、分类任务全连接特征提取层、分类任务判别层以及分类任务损失层;
还包括辅助任务全连接特征提取层、辅助任务判别层、辅助任务损失层、分类任务特征映射层、辅助任务特征映射层以及关系学习损失层;
所述卷积特征提取层提取输入图像特征,输出卷积特征图;
所述分类任务全连接特征提取层和辅助任务全连接特征提取层分别从卷积特征图提取特征,对应输出适应于分类任务的全连接特征向量和适应于辅助任务的全连接特征向量;
所述分类任务判别层和分类任务损失层在训练阶段依次根据输入的适应于分类任务的全连接特征向量,输出分类任务损失;
所述辅助任务判别层和辅助任务损失层在训练阶段依次根据输入的适应于辅助任务的全连接特征向量,输出辅助任务损失;
所述分类任务特征映射层在训练阶段将输入的适应于分类任务的全连接特征向量降维后得到分类任务特征映射向量;所述辅助任务特征映射层在训练阶段将输入的适应于辅助任务的全连接特征向量降维后得到辅助任务特征映射向量;所述关系学习损失层在训练阶段将输入的分类任务特征映射向量与辅助任务特征映射向量作差,并将差向量的范数输出作为关系学习损失;
所述分类任务损失、辅助任务损失以及关系学习损失一起加入优化训练;
所述分类任务判别层在测试阶段根据输入的适应于分类任务的全连接特征向量,输出分类任务判别结果;
所述辅助任务判别层在测试阶段根据输入的适应于辅助任务的全连接特征向量,输出辅助任务判别结果;
所述用于遥感场景分类的多任务神经网络框架的分类方法,包括以下阶段:
训练阶段:
步骤1.1:输入待处理图像;
步骤1.2:卷积特征提取层提取输入的待处理图像的卷积特征图;
步骤1.3:采用分类任务全连接特征提取层从卷积特征图中提取适应于分类任务的全连接特征向量;采用辅助任务全连接特征提取层从卷积特征图中提取适应于辅助任务的全连接特征向量;
步骤1.4:所述适应于分类任务的全连接特征向量依次经过分类任务判别层和分类任务损失层,输出分类任务损失;
所述适应于辅助任务的全连接特征向量依次经过辅助任务判别层和辅助任务损失层,输出辅助任务损失;
所述适应于分类任务的全连接特征向量经过分类任务特征映射层降维后得到分类任务特征映射向量;所述适应于辅助任务的全连接特征向量经过辅助任务特征映射层降维后得到辅助任务特征映射向量;所述关系学习损失层将分类任务特征映射向量与辅助任务特征映射向量作差,并将差向量的范数输出作为关系学习损失;
步骤1.5:采用优化策略,对分类任务损失、辅助任务损失以及关系学习损失进行神经网络权重参数优化;
测试阶段:
步骤2.1:输入待处理图像;按步骤1.2-步骤1.3进行处理;
步骤2.2:所述适应于分类任务的全连接特征向量经过分类任务判别层,直接输出分类任务判别结果;所述适应于辅助任务的全连接特征向量经过辅助任务判别层,直接输出辅助任务判别结果。
2.根据权利要求1所述的用于遥感场景分类的分类方法,其特征在于:步骤1.3中,所述适应于辅助任务的全连接特征向量中的辅助任务为属性判别任务或分割任务或显著性目标检测任务。
3.根据权利要求1或2所述的用于遥感场景分类的分类方法,其特征在于:步骤1.5中,所述优化策略为随机梯度下降法。
4.根据权利要求3所述的用于遥感场景分类的分类方法,其特征在于:
步骤1.4中,所述分类任务判别层包括分类任务判别全连接层和分类任务判别激活层;所述分类任务判别全连接层以分类任务全连接特征提取层为输入;所述分类任务判别激活层以分类任务判别全连接层为输入;在训练阶段,所述分类任务判别激活层输出到分类任务损失层,在测试阶段,所述分类任务判别激活层直接输出分类任务判别结果;
步骤1.4中,所述辅助任务判别层包括辅助任务判别全连接层和辅助任务判别激活层;所述辅助任务判别全连接层以辅助任务全连接特征提取层为输入;所述辅助任务判别激活层以辅助任务判别全连接层为输入;在训练阶段,所述辅助任务判别激活层输出到辅助任务损失层,在测试阶段,所述辅助任务判别激活层直接输出辅助任务判别结果。
5.根据权利要求4所述的用于遥感场景分类的分类方法,其特征在于:步骤1.2中,所述卷积特征提取层为AlexNet、GoogLeNet、VGGNet或ResNet。
CN202010070358.7A 2020-01-21 2020-01-21 用于遥感场景分类的多任务神经网络框架及分类方法 Active CN111291651B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010070358.7A CN111291651B (zh) 2020-01-21 2020-01-21 用于遥感场景分类的多任务神经网络框架及分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010070358.7A CN111291651B (zh) 2020-01-21 2020-01-21 用于遥感场景分类的多任务神经网络框架及分类方法

Publications (2)

Publication Number Publication Date
CN111291651A CN111291651A (zh) 2020-06-16
CN111291651B true CN111291651B (zh) 2023-05-05

Family

ID=71030008

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010070358.7A Active CN111291651B (zh) 2020-01-21 2020-01-21 用于遥感场景分类的多任务神经网络框架及分类方法

Country Status (1)

Country Link
CN (1) CN111291651B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112270346B (zh) * 2020-10-20 2023-09-01 清华大学 基于半监督学习的物联网设备识别方法及装置
CN112232297B (zh) * 2020-11-09 2023-08-22 北京理工大学 基于深度联合卷积激活的遥感图像场景分类方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038448A (zh) * 2017-03-01 2017-08-11 中国科学院自动化研究所 目标检测模型构建方法
CN108764316A (zh) * 2018-05-18 2018-11-06 河海大学 基于深度卷积神经网络和多核学习的遥感图像场景分类方法
WO2019136946A1 (zh) * 2018-01-15 2019-07-18 中山大学 基于深度学习的弱监督显著性物体检测的方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038448A (zh) * 2017-03-01 2017-08-11 中国科学院自动化研究所 目标检测模型构建方法
WO2019136946A1 (zh) * 2018-01-15 2019-07-18 中山大学 基于深度学习的弱监督显著性物体检测的方法及系统
CN108764316A (zh) * 2018-05-18 2018-11-06 河海大学 基于深度卷积神经网络和多核学习的遥感图像场景分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于OctConv的DCNN在遥感图像场景分类中的应用;高原等;《电子测量与仪器学报》;20200115(第01期);全文 *

Also Published As

Publication number Publication date
CN111291651A (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
CN110135366B (zh) 基于多尺度生成对抗网络的遮挡行人重识别方法
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN109685115B (zh) 一种双线性特征融合的细粒度概念模型及学习方法
CN108615010B (zh) 基于平行卷积神经网络特征图融合的人脸表情识别方法
Chen et al. Vehicle detection in high-resolution aerial images based on fast sparse representation classification and multiorder feature
CN114202672A (zh) 一种基于注意力机制的小目标检测方法
CN109784197B (zh) 基于孔洞卷积与注意力学习机制的行人再识别方法
CN107239759B (zh) 一种基于深度特征的高空间分辨率遥感图像迁移学习方法
CN111612008A (zh) 基于卷积网络的图像分割方法
CN105528575B (zh) 基于上下文推理的天空检测方法
CN108537121B (zh) 气象环境参数与图像信息融合的自适应遥感场景分类方法
CN111860683B (zh) 一种基于特征融合的目标检测方法
CN110188763B (zh) 一种基于改进图模型的图像显著性检测方法
CN111612017A (zh) 一种基于信息增强的目标检测方法
CN112580480B (zh) 一种高光谱遥感影像分类方法及装置
CN111652273B (zh) 一种基于深度学习的rgb-d图像分类方法
CN111291651B (zh) 用于遥感场景分类的多任务神经网络框架及分类方法
CN112364721A (zh) 一种道面异物检测方法
CN110598746A (zh) 一种基于ode求解器自适应的场景分类方法
CN113255892B (zh) 一种解耦合的网络结构搜索方法、设备及可读存储介质
CN110852327A (zh) 图像处理方法、装置、电子设备及存储介质
Chen et al. Object-based multi-modal convolution neural networks for building extraction using panchromatic and multispectral imagery
Feng et al. NPALoss: Neighboring pixel affinity loss for semantic segmentation in high-resolution aerial imagery
Liu et al. CAFFNet: channel attention and feature fusion network for multi-target traffic sign detection
Ahmad et al. Hybrid dense network with attention mechanism for hyperspectral image classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant