CN108280396B - 基于深度多特征主动迁移网络的高光谱图像分类方法 - Google Patents

基于深度多特征主动迁移网络的高光谱图像分类方法 Download PDF

Info

Publication number
CN108280396B
CN108280396B CN201711415781.0A CN201711415781A CN108280396B CN 108280396 B CN108280396 B CN 108280396B CN 201711415781 A CN201711415781 A CN 201711415781A CN 108280396 B CN108280396 B CN 108280396B
Authority
CN
China
Prior art keywords
source domain
sample set
depth
network
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711415781.0A
Other languages
English (en)
Other versions
CN108280396A (zh
Inventor
邓成
薛雨萌
李超
曹欢欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201711415781.0A priority Critical patent/CN108280396B/zh
Publication of CN108280396A publication Critical patent/CN108280396A/zh
Application granted granted Critical
Publication of CN108280396B publication Critical patent/CN108280396B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

本发明提出了一种基于深度多特征主动迁移网络的高光谱图像分类方法,用于解决现有技术中存在的分类精度低的技术问题。实现步骤为:获取待分类源域和目标域高光谱图像;对待分类源域高光谱图像进行预处理;获取源域标记样本集、训练样本集、候选样本集和测试样本集;构造源域深度光谱特征提取网络,并提取源域标记样本集的深度光谱特征;构造源域深度空间特征提取网络,并提取源域标记样本集的深度空间特征;构造源域深度光谱‑空间联合特征提取与分类网络;使用源域深度多特征主动迁移网络对待分类目标域高光谱图像进行分类。本发明能够利用少量训练样本实现对一幅高光谱图像的不同区域或两幅同一地点不同时刻获取的高光谱图像的高精度分类。

Description

基于深度多特征主动迁移网络的高光谱图像分类方法
技术领域
本发明属于计算机视觉和模式识别领域,涉及一种高光谱图像分类方法,具体涉及一种基于深度多特征主动迁移网络的高光谱图像分类方法,可用于农业,城市遥感和环境监测等领域。
背景技术
高光谱图像是一种三维图像,其数据可以被表示成由二维空间数据与一维光谱数据组成的三维数据结构。这类图像包含丰富的光谱信息,其范围包含了从可见光到近红外的几百个连续光谱,并且,高光谱图像还提供了丰富的空间信息,具有“图谱合一”的特点。高光谱图像有效地将遥感图像的光谱和空间信息融为一体,能够分辨出传统宽波段遥感图像不可分辨的地物类别,有助于实现对地物目标的精确识别,因此被广泛应用于地质勘测、精细农业和城市遥感等重要领域的分类工作中。在具体的分类过程中,一般会出现如下的不良因素:1)“维度灾难”,即当波段超过一定数目之后,样本之间距离的计算会变得困难,从而无法判断样本间的相似度,高维的光谱信息严重影响有效的光谱特征提取;2)有限的类标样本,高光谱图像中像素点的类标标定需要通过人为实地考察得到,原始图像携带的类标样本数量非常有限,人工标记费时费力;3)“空间变异性”,高光谱图像虽然有较高的光谱分辨率,但是空间的分辨率通常较低。急需设计出一种高效实用的高光谱图像分类方法,来消除以上不良因素的影响。
目前高光谱图像经典的分类方法分为基于支持向量机(SVM)的分类方法和基于深度神经网络(DNN)的分类方法两类,其中,基于支持向量机的传统的高光谱图像分类算法通常利用核函数对高光谱图像数据进行特征提取,再利用提取的特征训练支持向量机并对数据进行分类。但是,该方法的不足之处是,确定合适的核函数与求解核函数存在较大的复杂度,分类精度较低。
基于深度神经网络的高光谱图像分类方法,其原理是将高光谱图像的光谱信息和空间信息作为网络的输入,对网络进行训练,并利用逻辑回归分类器对训练获取的高阶光谱特征和空间特征进行分类。但是,这种分类方法对网络训练时需要大量的带类标样本,且训练后获取的特征没有充分表示出高光谱图像包含的信息,导致分类精度较低。为了提高分类精度,现有技术提出了一种基于主动学习的深度神经网络的高光谱图像分类方法,该方法使用主动学习方法选取包含丰富信息量的样本,对深度神经网络进行训练,并使用训练后的网络完成高光谱图像分类。例如,Jiming Li在“Active learning forhyperspectral image classification with a stacked autoencoders based neuralnetwork”(Proc.IEEE Int.Conf.Image Processing,Phoenix,AZ,pp.1062–1065,2016)中,公开了一种基于主动学习的堆叠式自动编码器的高光谱图像分类方法,该方法向堆叠式自动编码器中输入图像的3D Gabor特征完成堆叠式自动编码器的训练,并使用主动学习的方法选取少量包含丰富信息量的样本,对堆叠式自动编码器进行迭代训练,再对网络进行微调,最后完成高光谱图像分类。该方法充分利用包含丰富信息量的样本点,分类精度得到了一定程度的提升,但存在的缺陷是,该方法仅能实现对单一高光谱图像的分类,且分类过程中只考虑了高光谱图像的整体特性,而没有考虑到高光谱图像的空间上下文信息和样本分布情况,影响了分类精确度的提升效果。
发明内容
本发明的目的在于克服上述现有技术的不足,提出一种基于深度多特征主动迁移网络的高光谱图像分类方法,旨在实现对一幅高光谱图像的不同区域或两幅同一地点不同时刻获取的高光谱图像的高精度分类。
为实现上述目的,本发明采取的技术方案包括如下步骤:
(1)获取待分类源域和目标域高光谱图像:
从输入的一幅高光谱图像中随机选取包含相同类别的两个区域上的图像,作为待分类源域高光谱图像X和待分类目标域高光谱图像Y,或者将输入的同一地点在不同时刻获取的两幅高光谱图像,作为待分类源域高光谱图像X和待分类目标域高光谱图像Y;
(2)对待分类源域高光谱图像进行预处理:
(2a)将待分类源域高光谱图像X转化为二维高光谱数据X*,X*∈Rp×i,并对X*上所有样本点的光谱信息进行归一化,得到待分类源域高光谱图像X的光谱特征Hspe,其中,p表示X包含的光谱谱带个数,i表示X在空间上包含的带类标样本点的个数;
(2b)利用扩展多属性剖面方法提取待分类源域高光谱图像X的二维空间多结构特性的形态学纹理特征X**,X**∈Rq×i,并对X**进行归一化,得到待分类源域高光谱图像X的空间特征Hspa,其中,q表示X包含的形态学纹理特征个数,i表示X在空间上包含的带类标样本点的个数;
(3)获取源域标记样本集、训练样本集、候选样本集和测试样本集:
(3a)将待分类源域高光谱图像X转化为二维高光谱数据X*,X*∈Rp×i,并将X*中每个样本与其真实地物类标相对应,再将每个样本对应的类别标号按照从小到大的顺序排列,得到源域标记样本集Xa
(3b)对Xa进行划分,并将划分得到的三个样本子集作为训练样本集Xtra、候选样本集Xcandi和测试样本集Xtes
(4)构造源域深度光谱特征提取网络,并提取标记样本集的深度光谱特征:
(4a)构造源域深度光谱特征提取网络:
构造包含1个输入层、k-1个隐藏层的源域深度光谱特征提取网络,输入层的节点数目等于待分类源域高光谱图像X包含的光谱谱带个数p,隐藏层的节点数目逐层递减,最后一个隐藏层的节点数目为a,a<p,其中,k是网络的总层数,且k≥3;
(4b)将源域标记样本集Xa中每个样本点与该样本点所在空间位置上的光谱特征相对应,得到源域标记样本集Xa的光谱特征Hspe-a、训练样本集Xtra的光谱特征Hspe-tra、候选样本集Xcandi的光谱特征Hspe-candi和测试样本集Xtes的光谱特征Hspe-tes
(4c)对源域深度光谱特征提取网络进行预训练:
将训练样本集Xtra的光谱特征Hspe-tra作为源域深度光谱特征提取网络的输入,对源域深度光谱特征提取网络进行迭代训练,得到预训练后的源域深度光谱特征提取网络,并将Hspe-tra输入到该网络,得到Xtra的深度光谱特征Hdspe-tra
(4d)对逻辑回归分类器进行预训练:
将Hdspe-tra作为逻辑回归分类器的输入,对Xtra中的样本点进行类标预测,并根据预测获得的预测类标值对逻辑回归分类器进行迭代训练,得到预训练后的逻辑回归分类器;
(4e)采用主动学习方法,对预训练后的源域深度光谱特征提取网络进行微调,得到微调后的源域深度光谱特征提取网络;
(4f)将源域标记样本集Xa的光谱特征Hspe-a输入到微调后的源域深度光谱特征提取网络,得到Xa的包含a个特征的深度光谱特征Hdspe-a
(5)构造源域深度空间特征提取网络,并提取标记样本集的深度空间特征:
(5a)构造源域深度空间特征提取网络:
构造包含1个输入层、g-1个隐藏层的源域深度空间特征提取网络,输入层的节点数目等于待分类源域高光谱图像X包含的空间纹理特征个数q,隐藏层的节点数目逐层递减,最后一个隐藏层的节点数目为c,且c<q,其中,g是网络的总层数,且g≥3;
(5b)将源域标记样本集Xa中每个样本点与和该样本点所在空间位置上的空间特征对应,获得源域标记样本集Xa的空间特征Hspa-a、训练样本集Xtra的空间特征Hspa-tra、候选样本集Xcandi的空间特征Hspa-candi和测试样本集Xtes的空间特征Hspa-tes
(5c)对源域深度空间特征提取网络进行预训练:
将训练样本集Xtra的空间特征Hspa-tra作为源域深度空间特征提取网络的输入,对源域深度空间特征提取网络进行迭代训练,得到预训练后的源域深度空间特征提取网络,并将Hspa-tra输入到该网络,得到Xtra的深度空间特征Hdspa-tra
(5d)对逻辑回归分类器进行预训练:
将Hdspa-tra作为逻辑回归分类器的输入,对Xtra中的样本点进行类标预测,并根据预测获得的预测类标值对逻辑回归分类器进行迭代训练,得到预训练后的逻辑回归分类器;
(5e)采用主动学习方法,对预训练后的源域深度空间特征提取网络进行微调,得到微调后的源域深度空间特征提取网络;
(5f)将源域标记样本集Xa的空间特征Hspa-a输入到微调后的源域深度空间特征提取网络,得到Xa的包含c个特征的深度空间特征Hdspa-a
(6)构造源域深度光谱-空间联合特征提取与分类网络:
(6a)将深度光谱特征Hdspe-a与深度空间特征Hdspa-a堆叠在一起,得到包含d个特征的整合特征Hspe-spa,d=a+c;
(6b)构造包含1个输入层、h-2个隐藏层和1个输出层的源域深度光谱-空间联合特征提取与分类网络,输入层的节点数目等于整合特征Hspe-spa包含的特征个数e,隐藏层的节点数目逐层递减,最后一个隐藏层的节点数目为e,且e<d,输出层节点个数等于待分类源域高光谱图像包含的地物目标类别个数C,其中,h是网络的总层数,且h≥4;
(6c)将源域标记样本集Xa中每个样本点与和该样本点所在空间位置上的整合特征对应,获得源域标记样本集Xa的整合特征Hspe-spa-a、训练样本集Xtra的整合特征Hspe-spa-tra、候选样本集Xcandi的整合特征Hspe-spa-candi和测试样本集Xtes的整合特征Hspe-spa-tes
(6d)对源域深度光谱-空间联合特征提取与分类网络进行预训练:
将训练样本集Xtra的整合特征Hspe-spa-tra作为源域深度光谱-空间联合特征提取与分类网络的输入,对源域深度光谱-空间联合特征提取与分类网络进行迭代训练,得到预训练后的源域深度光谱-空间联合特征提取与分类网络,并将Hspe-spa-tra输入到该网络,得到Xtra的深度光谱-空间联合特征Hdspe-dspa-tra
(6e)对逻辑回归分类器进行预训练:
将Hdspe-dspa-tra作为逻辑回归分类器的输入,对Xtra中的样本点进行类标预测,并根据预测获得的预测类标值对逻辑回归分类器进行迭代训练,得到预训练后的逻辑回归分类器;
(6f)采用主动学习方法,对预训练后的源域深度光谱-空间联合特征提取与分类网络与预训练后的逻辑回归分类器进行微调,得到微调后的源域深度光谱-空间联合特征提取与分类网络与微调后的逻辑回归分类器;
(6g)将测试样本集Xtes的整合特征Hspe-spa-tes输入到源域深度光谱-空间联合特征提取与分类网络,并将得到的深度光谱-空间联合特征Hdspe-dspa-tes输入到微调后的逻辑回归分类器,得到Xtes的预测类标值;
(7)使用源域深度多特征主动迁移网络对待分类目标域高光谱图像进行分类:
(7a)获取源域训练样本集Xs-tra、目标域标记样本集Xt、候选样本集Xt-candi和测试样本集Xt-tes
(7b)使用样本迁移的方法将源域微调后的深度光谱特征提取网络、微调后的深度空间特征提取网络和微调后的深度光谱-空间联合特征提取与分类网络迁移到待分类目标域高光谱图像Y上,得到目标域深度多特征主动迁移网络;
(7c)将目标域图像的测试样本集Xt-tes作为目标域深度多特征主动迁移网络的输入,对Xt-tes进行分类,得到待分类目标域高光谱图像Y的分类结果,即高光谱图像分类方法。
本发明与现有技术相比,具有以下优点:
第一,本发明由于对高光谱图像进行分类,是通过使用深度光谱-空间联合特征实现的,充分考虑了高光谱图像包含的信息及样本分布情况,与现有技术相比,有效提升了分类精确度。
第二,本发明使用深度多特征主动迁移网络,能够实现对一幅高光谱图像中随机选取包含相同类别的两个区域上的图像或同一地点在不同时刻获取的两幅高光谱图像的分类,且源域和目标域图像中包含丰富信息量的样本能够进一步提升分类精确度。
第三,本发明使用主动学习方法选取少量包含丰富信息量的样本训练深度多特征主动迁移网络,并使用该网络实现对高光谱图像的分类,与现有技术相比,在保证分类精确度的同时,显著减少了高光谱图像分类所需的训练样本的个数,有效降低了人工样本标记对分类带来的困难。
附图说明
图1是本发明的实现流程图;
图2是本发明中使用源域深度多特征主动迁移网络对待分类目标域高光谱图像进行分类的实现流程图。
具体实施方式
以下结合附图和具体实施例,对本发明作进一步详细描述。
参照图1,基于深度多特征主动迁移网络的高光谱图像分类方法,包括如下步骤:
步骤1)获取待分类源域和目标域高光谱图像:
从输入的一幅高光谱图像中随机选取包含相同类别的两个区域上的图像,作为待分类源域高光谱图像X和待分类目标域高光谱图像Y,或者将输入的同一地点在不同时刻获取的两幅高光谱图像,作为待分类源域高光谱图像X和待分类目标域高光谱图像Y;本实施例中使用在同一地点不同时刻获取的两张高光谱图像Pavia University和Pavia Center作为输入图片,并将高光谱图像Pavia University源域高光谱图像X,高光谱图像PaviaCenter作为目标域高光谱图像Y,其中,Pavia University包含103个谱带,Pavia Center包含102个谱带,两幅图像均包含9类地物目标,类别标号为1-9;
步骤2)对待分类源域高光谱图像进行预处理:
(2a)将源域高光谱图像Pavia University转化为二维高光谱数据X*,X*∈Rp×i,并对X*上所有样本点的光谱信息进行归一化,得到Pavia University的光谱特征Hspe,其中,p表示Pavia University包含的光谱谱带个数,i表示Pavia University在空间上包含的带类标样本点的个数;本实施例中p=103,i=10366;
(2b)利用扩展多属性剖面方法提取Pavia University上的二维空间多结构特性的形态学纹理特征X**,X**∈Rq×i,并对X**进行归一化,得到Pavia University的空间特征Hspa,其中,q表示Pavia University包含的形态学纹理特征个数,i表示Pavia University在空间上包含的带类标样本点的个数;本实施例中q=81,i=10366,提取空间多结构特性的形态学纹理特征实现步骤为:
(2b1)使用主成分分析提取待分类源域高光谱图像X中包含90%以上光谱信息的前3个主成分分量;
(2b2)使用标准差属性滤波器来提取谱带的前3个主成分分量上在空间上的标准差属性;
(2b3)使用对角线属性滤波器来提取谱带的前3个主成分分量上在空间上的对角线属性;
(2b4)将对角线属性与标准差属性堆叠在一起,得到空间多结构特性的形态学纹理特征X**,X**∈R81×10366
步骤3)获取源域标记样本集、训练样本集、候选样本集和测试样本集:
(3a)将Pavia University转化为二维高光谱数据X*,X*∈Rp×i,并将X*中每个样本与其真实地物类标相对应,再将每个样本对应的类别标号按照从小到大的顺序排列,得到源域标记样本集Xa
(3b)对Xa进行划分,并将划分得到的三个样本子集作为训练样本集Xtra、候选样本集Xcandi和测试样本集Xtes;本发明中选取Xa每类样本中前50个样本作为Xtra,再随机选取剩余样本中30%的样本作为Xcandi,剩余样本中70%的样本作为Xtes
步骤4)构造源域深度光谱特征提取网络,并提取标记样本集的深度光谱特征:
(4a)构造源域深度光谱特征提取网络:
构造包含1个输入层、k-1个隐藏层的源域深度光谱特征提取网络,输入层的节点数目等于p,隐藏层的节点数目逐层递减,最后一个隐藏层的节点数目为a,a<p,其中,k是网络的总层数,且k≥3;本实施例中k=3,a=80;
(4b)将源域标记样本集Xa中每个样本点与该样本点所在空间位置上的光谱特征相对应,得到源域标记样本集Xa的光谱特征Hspe-a、训练样本集Xtra的光谱特征Hspe-tra、候选样本集Xcandi的光谱特征Hspe-candi和测试样本集Xtes的光谱特征Hspe-tes
(4c)对源域深度光谱特征提取网络进行预训练:
将训练样本集Xtra的光谱特征Hspe-tra作为源域深度光谱特征提取网络的输入,对源域深度光谱特征提取网络进行迭代训练,得到预训练后的源域深度光谱特征提取网络,并将Hspe-tra输入到该网络,得到Xtra的深度光谱特征Hdspe-tra
(4d)对逻辑回归分类器进行预训练:
将Hdspe-tra作为逻辑回归分类器的输入,对Xtra中的样本点进行类标预测,并根据预测获得的预测类标值对逻辑回归分类器进行迭代训练,得到预训练后的逻辑回归分类器;
(4e)采用主动学习方法,对预训练后的源域深度光谱特征提取网络进行微调,得到微调后的源域深度光谱特征提取网络,实现步骤为:
(4e1)将候选样本集Xcandi输入到预训练的逻辑回归分类器,计算每个候选样本对应每个类别的预测概率值,输出一个Xcandi的类标预测置信度矩阵,预测概率值计算表达式为:
Figure BDA0001521900840000091
其中,y表示真实地物类别,i表示类标号,x表示样本点,W和b分别表示分类器的权重与偏置;
(4e2)找出每个候选样本对应所有类别中的最大与次大预测概率值,并计算两者的差值;
(4e3)将每个候选样本对应的差值按照升序排列,选取序列中前50个差值对应的样本,对这些样本进行人工类标标定,加入到训练样本集Xtra中,并同时将这些样本从候选样本集Xcandi中移除,得到更新后的训练样本集
Figure BDA0001521900840000092
选取准则的表达式为:
s+=argmin{p(i)(x|ωmax1)-p(i)(x|ωmax2)}
其中,
Figure BDA0001521900840000093
分别表示最大与次最大的预测概率值所对应的地物类别,s+表示被挑选的样本;
(4e4)利用更新后的训练样本集
Figure BDA0001521900840000094
及其真实类标
Figure BDA0001521900840000095
对预训练后的源域深度光谱特征提取网络进行微调;
(4e5)重复步骤(4e1)-(4e4)25次,得到微调后的源域深度光谱特征提取网络;
(4f)将源域标记样本集Xa的光谱特征Hspe-a输入到微调后的源域深度光谱特征提取网络,得到Xa的包含80个特征的深度光谱特征Hdspe-a
步骤5)构造源域深度空间特征提取网络,并提取标记样本集的深度空间特征:
(5a)构造源域深度空间特征提取网络:
构造包含1个输入层、g-1个隐藏层的源域深度空间特征提取网络,输入层的节点数目等于q,隐藏层的节点数目逐层递减,最后一个隐藏层的节点数目为c,且c<q,其中,g是网络的总层数,且g≥3;本实施例中g=3,c=63;
(5b)将源域标记样本集Xa中每个样本点与和该样本点所在空间位置上的空间特征对应,获得源域标记样本集Xa的空间特征Hspa-a、训练样本集Xtra的空间特征Hspa-tra、候选样本集Xcandi的空间特征Hspa-candi和测试样本集Xtes的空间特征Hspa-tes
(5c)对源域深度空间特征提取网络进行预训练:
将训练样本集Xtra的空间特征Hspa-tra作为源域深度空间特征提取网络的输入,对源域深度空间特征提取网络进行迭代训练,得到预训练后的源域深度空间特征提取网络,并将Hspa-tra输入到该网络,得到Xtra的深度空间特征Hdspa-tra
(5d)对逻辑回归分类器进行预训练:
将Hdspa-tra作为逻辑回归分类器的输入,对Xtra中的样本点进行类标预测,并根据预测获得的预测类标值对逻辑回归分类器进行迭代训练,得到预训练后的逻辑回归分类器;
(5e)采用主动学习方法,对预训练后的源域深度空间特征提取网络进行微调,得到微调后的源域深度空间特征提取网络;
(5f)将源域标记样本集Xa的空间特征Hspa-a输入到微调后的源域深度空间特征提取网络,得到Xa的包含63个特征的深度空间特征Hdspa-a
步骤6)构造源域深度光谱-空间联合特征提取与分类网络:
(6a)将深度光谱特征Hdspe-a与深度空间特征Hdspa-a堆叠在一起,得到包含d个特征的整合特征Hspe-spa,d=143;
(6b)构造包含1个输入层、h-2个隐藏层和1个输出层的源域深度光谱-空间联合特征提取与分类网络,输入层的节点数目等于整合特征Hspe-spa包含的特征个数e,隐藏层的节点数目逐层递减,最后一个隐藏层的节点数目为e,且e<d,输出层节点个数等于待分类源域高光谱图像包含的地物目标类别个数C,其中,h是网络的总层数,且h≥4;本实施例中h=4,e=100,C=9;
(6c)将源域标记样本集Xa中每个样本点与和该样本点所在空间位置上的整合特征对应,获得源域标记样本集Xa的整合特征Hspe-spa-a、训练样本集Xtra的整合特征Hspe-spa-tra、候选样本集Xcandi的整合特征Hspe-spa-candi和测试样本集Xtes的整合特征Hspe-spa-tes
(6d)对源域深度光谱-空间联合特征提取与分类网络进行预训练:
将训练样本集Xtra的整合特征Hspe-spa-tra作为源域深度光谱-空间联合特征提取与分类网络的输入,对源域深度光谱-空间联合特征提取与分类网络进行迭代训练,得到预训练后的源域深度光谱-空间联合特征提取与分类网络,并将Hspe-spa-tra输入到该网络,得到Xtra的深度光谱-空间联合特征Hdspe-dspa-tra
(6e)对逻辑回归分类器进行预训练:
将Hdspe-dspa-tra作为逻辑回归分类器的输入,对Xtra中的样本点进行类标预测,并根据预测获得的预测类标值对逻辑回归分类器进行迭代训练,得到预训练后的逻辑回归分类器;
(6f)采用主动学习方法,对预训练后的源域深度光谱-空间联合特征提取与分类网络与预训练后的逻辑回归分类器进行微调,得到微调后的源域深度光谱-空间联合特征提取与分类网络与微调后的逻辑回归分类器;
(6g)将测试样本集Xtes的整合特征Hspe-spa-tes输入到源域深度光谱-空间联合特征提取与分类网络,并将得到的深度光谱-空间联合特征Hdspe-dspa-tes输入到微调后的逻辑回归分类器,得到Xtes的预测类标值;
步骤7)使用源域深度多特征主动迁移网络对待分类目标域高光谱图像进行分类,实现流程参照图2:
(7a)获取源域训练样本集Xs-tra、目标域标记样本集Xt、候选样本集Xt-candi和测试样本集Xt-tes,实现步骤为:
(7a1)将步骤4)中的源域更新后的训练样本集
Figure BDA0001521900840000111
作为源域训练样本集Xs-tra
(7a2)将Pavia Center转化为二维高光谱数据Y*,Y*∈Rw×j,将Y*中每个样本与其真实地物类标相对应,将每个样本对应的类别标号按照从小到大的顺序排列,得到目标域标记样本集Xt;对目标域标记样本集Xt进行划分,并将划分得到的两个样本子集作为候选样本集Xt-candi和测试样本集Xt-tes;其中,w表示Pavia Center包含的谱带个数,j表示PaviaCenter在空间上包含的带类标样本点的个数;本实例中w=102,j=54129,本发明从Xt中随机选取30%的样本作为Xt-candi,剩余70%的样本作为Xt-tes
(7b)使用样本迁移的方法将源域微调后的深度光谱特征提取网络、微调后的深度空间特征提取网络和微调后的深度光谱-空间联合特征提取与分类网络迁移到PaviaCenter上,得到目标域深度多特征主动迁移网络,实现步骤为:
(7b1)采用主动学习的方法,从目标域候选样本集Xt-candi中选取80个样本,加入到源域训练样本集Xs-tra中;
(7b2)从Xs-tra中移除50个不符合更新后训练样本集特征分布的样本点,其选取准则的表达式为:
Figure BDA0001521900840000121
其中,s+表示源域需要删除的样本,x表示样本点,T(0)表示源域未更新过的训练样本集,p(0)(x|ωt)表示未更新Xs-tra时x的类标预测概率值,p(i)(x|ωt)表示迭代更新Xs-tra i次后x的类标预测概率值,ωt表示预测概率值下降最快的类别;
(7b3)重复步骤(7b1)-(7b2)10次,得到更新后的
Figure BDA0001521900840000122
(7b4)利用更新后的
Figure BDA0001521900840000123
及其真实类标
Figure BDA0001521900840000124
对源域微调后的深度光谱特征提取网络、微调后的深度空间特征提取网络和微调后的深度光谱-空间联合特征提取与分类网络进行微调,将网络迁移到Pavia Center上;
(7c)将Pavia Center的测试样本集Xt-tes作为目标域深度多特征主动迁移网络的输入,对Xt-tes进行分类,得到Pavia Center的分类结果,即高光谱图像分类方法。
以下结合仿真实验,对本发明的技术效果作进一步说明。
1.仿真条件:
本发明的仿真实验是在中央处理器为Intel(R)Core i5-4460 3.2GHZ、内存8G、WINDOWS 7操作系统上,运用MATLAB 2015b软件进行的。
2.仿真内容及结果分析:
本发明在Pavia Center、Pavia University两个公用高光谱图像数据库上进行实验,他们是在同一地点不同时刻获取的两幅高光谱图像,其中,Pavia Center包含102个谱带,Pavia University包含103个谱带,且均包含9类地物类别。
本发明的评价指标:使用总体分类精度(Overall Accuracy),平均分类精度(Average Accuracy)和Kappa系数为指标对性能进行评测,总体分类精度(OA)等于被正确分类的像元总和除以总像元数。被正确分类的像元数目沿着混淆矩阵的对角线分布,总像元数等于所有真实参考源的像元总数。平均分类精度(AA)是每类分类准确率相加除以类别总数。Kappa系数用于分析分类结果与参考数据之间的吻合程度,可通过以下公式计算:
Figure BDA0001521900840000131
其中,N为所有真实参考的像元总数,i表示某一地物类别,r为类别总数,xii为混淆矩阵对角线上的像元个数,xi+为某一类中真实像元总数,x+i为该类中被分类像元总数。Kappa系数充分考虑了混淆矩阵的所有因子,是一种更加客观的评价指标。
仿真实验1:将本发明与背景技术中所描述的由Jiming Li提出的基于主动学习的堆叠式自动编码器的高光谱图像分类方法(AL-SAE)进行对比,分别在Pavia University与Pavia Center两幅图像上进行仿真,仿真实验分别从标记样本的每类样本中选取25,50,75个样本作为3组训练样本集,并使用主动学习方法每次挑选50个样本更新训练样本集,迭代更新25次。实验使用本发明与现有技术对3组训练样本集分别进行5次分类实验,取总体分类精度平均值,作为最终分类精确度,仿真结果如下:
表1.1 Pavia University上两种方法在不同训练样本集上的总体分类精度(OA)比较表
Figure BDA0001521900840000132
表1.2 Pavia Center上两种方法在不同训练样本集上的总体分类精度(OA)比较表
Figure BDA0001521900840000133
从表1.1和表1.2中可以看出本发明在两个高光谱图像上,使用不同数量的训练样本训练网络得到的分类精确度均高于现有技术,同时,本发明在与现有技术取得相同分类精确度时,使用了更少的训练样本,本发明降低了人工标定的负担,具有良好的分类性能。
仿真实验2:仿真中,本发明使用仿真实验1中在源域高光谱图像PaviaUniversity上获得的深度多特征主动迁移网络对目标域高光谱图像Pavia Center进行分类。仿真实验中将仿真实验1中在Pavia University上获得的4组更新后的训练样本集作为源域训练样本集,进行样本迁移时,每次从目标域候选样本集中选取80个样本,并从源域训练样本集中移除50个样本,使用这些样本更新训练样本集,迭代更新10次。本发明对4组训练样本集分别进行5次分类实验,取总体分类精度平均值、平均分类精度平均值和Kappa系数平均值,作为最终分类结果,仿真结果如下:
表2 Pavia University上利用不同训练样本集训练的深度多特征主动迁移网络在Pavia Center上的分类结果比较表
Figure BDA0001521900840000141
由表2可以看出,本发明利用深度多特征主动迁移网络实现了利用少量训练样本对两幅同一地点不同时刻获取的高光谱图像的高精度分类。
仿真实验3:仿真中,本发明选取Pavia University上两块都包含第1,2,3,4,8类地物目标的图像,作为源域图像source和目标域图像target。仿真实验中在源域图像source中随机选取200个样本组成源域训练样本集,进行样本迁移时,每次从目标域候选样本集中选取30个样本,并从源域训练样本集中移除15个样本,使用这些样本更新训练样本集,迭代更新10次。本发明对4组训练样本集分别进行5次分类实验,取总体分类精度平均值、平均分类精度平均值和Kappa系数平均值,作为最终分类结果,仿真结果如下:
表3深度多特征主动迁移网络对Pavia University的两个不同区域上图像的分类结果
待分类图像 总体分类精度 平均分类精度 Kappa系数
source 99.78% 99.42% 0.9925
target 99.47% 99.20% 0.9918
由表1、表2和表3可以看出,本发明利用深度多特征主动迁移网络对高光谱图像进行分类,充分表示出了高光谱图像中包含的信息及样本分布情况,实现了利用少量训练样本对一幅高光谱图像的不同区域或两幅同一地点不同时刻获取的高光谱图像的高精度分类,有效地避免了大量人工样本标记所带来的困难,进一步验证了本发明的先进性。

Claims (5)

1.一种基于深度多特征主动迁移网络的高光谱图像分类方法,其特征在于,包括如下步骤:
(1)获取待分类源域和目标域高光谱图像:
从输入的一幅高光谱图像中随机选取包含相同类别的两个区域上的图像,作为待分类源域高光谱图像X和待分类目标域高光谱图像Y,或者将输入的同一地点在不同时刻获取的两幅高光谱图像,作为待分类源域高光谱图像X和待分类目标域高光谱图像Y;
(2)对待分类源域高光谱图像进行预处理:
(2a)将待分类源域高光谱图像X转化为二维高光谱数据X*,X*∈Rp×i,并对X*上所有样本点的光谱信息进行归一化,得到待分类源域高光谱图像X的光谱特征Hspe,其中,p表示X包含的光谱谱带个数,i表示X在空间上包含的带类标样本点的个数;
(2b)利用扩展多属性剖面方法提取待分类源域高光谱图像X的二维空间多结构特性的形态学纹理特征X**,X**∈Rq×i,并对X**进行归一化,得到待分类源域高光谱图像X的空间特征Hspa,其中,q表示X包含的形态学纹理特征个数,i表示X在空间上包含的带类标样本点的个数;
(3)获取源域标记样本集、训练样本集、候选样本集和测试样本集:
(3a)将待分类源域高光谱图像X转化为二维高光谱数据X*,X*∈Rp×i,并将X*中每个样本与其真实地物类标相对应,再将每个样本对应的类别标号按照从小到大的顺序排列,得到源域标记样本集Xa
(3b)对Xa进行划分,并将划分得到的三个样本子集作为训练样本集Xtra、候选样本集Xcandi和测试样本集Xtes
(4)构造源域深度光谱特征提取网络,并提取标记样本集的深度光谱特征:
(4a)构造源域深度光谱特征提取网络:
构造包含1个输入层、k-1个隐藏层的源域深度光谱特征提取网络,输入层的节点数目等于待分类源域高光谱图像X包含的光谱谱带个数p,隐藏层的节点数目逐层递减,最后一个隐藏层的节点数目为a,a<p,其中,k是网络的总层数,且k≥3;
(4b)将源域标记样本集Xa中每个样本点与该样本点所在空间位置上的光谱特征相对应,得到源域标记样本集Xa的光谱特征Hspe-a、训练样本集Xtra的光谱特征Hspe-tra、候选样本集Xcandi的光谱特征Hspe-candi和测试样本集Xtes的光谱特征Hspe-tes
(4c)对源域深度光谱特征提取网络进行预训练:
将训练样本集Xtra的光谱特征Hspe-tra作为源域深度光谱特征提取网络的输入,对源域深度光谱特征提取网络进行迭代训练,得到预训练后的源域深度光谱特征提取网络,并将Hspe-tra输入到该网络,得到Xtra的深度光谱特征Hdspe-tra
(4d)对逻辑回归分类器进行预训练:
将Hdspe-tra作为逻辑回归分类器的输入,对Xtra中的样本点进行类标预测,并根据预测获得的预测类标值对逻辑回归分类器进行迭代训练,得到预训练后的逻辑回归分类器;
(4e)采用主动学习方法,对预训练后的源域深度光谱特征提取网络进行微调,得到微调后的源域深度光谱特征提取网络;
(4f)将源域标记样本集Xa的光谱特征Hspe-a输入到微调后的源域深度光谱特征提取网络,得到Xa的包含a个特征的深度光谱特征Hdspe-a
(5)构造源域深度空间特征提取网络,并提取标记样本集的深度空间特征:
(5a)构造源域深度空间特征提取网络:
构造包含1个输入层、g-1个隐藏层的源域深度空间特征提取网络,输入层的节点数目等于待分类源域高光谱图像X包含的形态学纹理特征个数q,隐藏层的节点数目逐层递减,最后一个隐藏层的节点数目为c,且c<q,其中,g是网络的总层数,且g≥3;
(5b)将源域标记样本集Xa中每个样本点与和该样本点所在空间位置上的空间特征对应,获得源域标记样本集Xa的空间特征Hspa-a、训练样本集Xtra的空间特征Hspa-tra、候选样本集Xcandi的空间特征Hspa-candi和测试样本集Xtes的空间特征Hspa-tes
(5c)对源域深度空间特征提取网络进行预训练:
将训练样本集Xtra的空间特征Hspa-tra作为源域深度空间特征提取网络的输入,对源域深度空间特征提取网络进行迭代训练,得到预训练后的源域深度空间特征提取网络,并将Hspa-tra输入到该网络,得到Xtra的深度空间特征Hdspa-tra
(5d)对逻辑回归分类器进行预训练:
将Hdspa-tra作为逻辑回归分类器的输入,对Xtra中的样本点进行类标预测,并根据预测获得的预测类标值对逻辑回归分类器进行迭代训练,得到预训练后的逻辑回归分类器;
(5e)采用主动学习方法,对预训练后的源域深度空间特征提取网络进行微调,得到微调后的源域深度空间特征提取网络;
(5f)将源域标记样本集Xa的空间特征Hspa-a输入到微调后的源域深度空间特征提取网络,得到Xa的包含c个特征的深度空间特征Hdspa-a
(6)构造源域深度光谱-空间联合特征提取与分类网络:
(6a)将深度光谱特征Hdspe-a与深度空间特征Hdspa-a堆叠在一起,得到包含d个特征的整合特征Hspe-spa,d=a+c;
(6b)构造包含1个输入层、h-2个隐藏层和1个输出层的源域深度光谱-空间联合特征提取与分类网络,输入层的节点数目等于整合特征Hspe-spa包含的特征个数d,隐藏层的节点数目逐层递减,最后一个隐藏层的节点数目为e,且e<d,输出层节点个数等于待分类源域高光谱图像包含的地物目标类别个数C,其中,h是网络的总层数,且h≥4;
(6c)将源域标记样本集Xa中每个样本点与和该样本点所在空间位置上的整合特征对应,获得源域标记样本集Xa的整合特征Hspe-spa-a、训练样本集Xtra的整合特征Hspe-spa-tra、候选样本集Xcandi的整合特征Hspe-spa-candi和测试样本集Xtes的整合特征Hspe-spa-tes
(6d)对源域深度光谱-空间联合特征提取与分类网络进行预训练:
将训练样本集Xtra的整合特征Hspe-spa-tra作为源域深度光谱-空间联合特征提取与分类网络的输入,对源域深度光谱-空间联合特征提取与分类网络进行迭代训练,得到预训练后的源域深度光谱-空间联合特征提取与分类网络,并将Hspe-spa-tra输入到该网络,得到Xtra的深度光谱-空间联合特征Hdspe-dspa-tra
(6e)对逻辑回归分类器进行预训练:
将Hdspe-dspa-tra作为逻辑回归分类器的输入,对Xtra中的样本点进行类标预测,并根据预测获得的预测类标值对逻辑回归分类器进行迭代训练,得到预训练后的逻辑回归分类器;
(6f)采用主动学习方法,对预训练后的源域深度光谱-空间联合特征提取与分类网络与预训练后的逻辑回归分类器进行微调,得到微调后的源域深度光谱-空间联合特征提取与分类网络与微调后的逻辑回归分类器;
(6g)将测试样本集Xtes的整合特征Hspe-spa-tes输入到源域深度光谱-空间联合特征提取与分类网络,并将得到的深度光谱-空间联合特征Hdspe-dspa-tes输入到微调后的逻辑回归分类器,得到Xtes的预测类标值;
(7)使用源域深度多特征主动迁移网络对待分类目标域高光谱图像进行分类:
(7a)获取源域训练样本集Xs-tra、目标域标记样本集Xt、候选样本集Xt-candi和测试样本集Xt-tes
(7b)使用样本迁移的方法将源域微调后的深度光谱特征提取网络、微调后的深度空间特征提取网络和微调后的深度光谱-空间联合特征提取与分类网络迁移到待分类目标域高光谱图像Y上,得到目标域深度多特征主动迁移网络;
(7c)将目标域图像的测试样本集Xt-tes作为目标域深度多特征主动迁移网络的输入,对Xt-tes进行分类,得到待分类目标域高光谱图像Y的分类结果,即高光谱图像分类方法。
2.根据权利要求1所述的基于深度多特征主动迁移网络的高光谱图像分类方法,其特征在于,步骤(2b)中所述的利用扩展多属性剖面方法提取待分类源域高光谱图像X的二维空间多结构特性的形态学纹理特征X**,实现步骤为:
(2b1)使用主成分分析提取待分类源域高光谱图像X中包含90%以上光谱信息的前n个主成分分量;
(2b2)使用标准差属性滤波器来提取谱带的前n个主成分分量上在空间上的标准差属性;
(2b3)使用对角线属性滤波器来提取谱带的前n个主成分分量上在空间上的对角线属性;
(2b4)将对角线属性与标准差属性堆叠在一起,得到空间多结构特性的形态学纹理特征X**,X**∈Rq×i,其中,q表示X**包含的形态学纹理特征个数,i表示X在空间上包含的带类标样本点的个数。
3.根据权利要求1所述的基于深度多特征主动迁移网络的高光谱图像分类方法,其特征在于,步骤(4e)所述的采用主动学习方法,对预训练后的源域深度光谱特征提取网络进行微调的实现步骤为:
(4e1)将候选样本集Xcandi输入到预训练的逻辑回归分类器,计算每个候选样本对应每个类别的预测概率值,输出一个Xcandi的类标预测置信度矩阵,预测概率值计算表达式为:
Figure FDA0002368709610000051
其中,y表示真实地物类别,v表示类标号,x表示样本点,W和b分别表示分类器的权重与偏置,Wv和bv分别表示W和b的第v个元素;
(4e2)找出每个候选样本对应所有类别中的最大与次大预测概率值,并计算两者的差值;
(4e3)将每个候选样本对应的差值按照升序排列,选取序列中前z个差值对应的样本,对这些样本进行人工类标标定,加入到训练样本集Xtra中,并同时将这些样本从候选样本集Xcandi中移除,得到更新后的训练样本集
Figure FDA0002368709610000052
选取准则的表达式为:
s+=argmin{p(i)(x|ωmax1)-p(i)(x|ωmax2)}
其中,
Figure FDA0002368709610000053
分别表示最大与次最大的预测概率值所对应的地物类别,s+表示被挑选的样本,ωn和ωm代表不同的地物类别,p(i)(x|ω*)表示迭代更新Xtra i次后x的类标预测概率值,*∈{max1,max2,m,n};
(4e4)利用更新后的训练样本集
Figure FDA0002368709610000054
及其真实类标
Figure FDA0002368709610000055
对预训练后的源域深度光谱特征提取网络进行微调;
(4e5)重复步骤(4e1)-(4e4)m次,得到微调后的源域深度光谱特征提取网络。
4.根据权利要求3所述的基于深度多特征主动迁移网络的高光谱图像分类方法,其特征在于,步骤(7a)所述的获取源域训练样本集Xs-tra、待分类目标域高光谱图像Y的标记样本集Xt、候选样本集Xt-candi和测试样本集Xt-tes的实现步骤为:
(7a1)将更新后的训练样本集
Figure FDA0002368709610000061
作为源域训练样本集Xs-tra
(7a2)将待分类目标域高光谱图像Y转化为二维高光谱数据Y*,Y*∈Rw×j,将Y*中每个样本与其真实地物类标相对应,将每个样本对应的类别标号按照从小到大的顺序排列,得到目标域标记样本集Xt;对目标域标记样本集Xt进行划分,并将划分得到的两个样本子集作为候选样本集Xt-candi和测试样本集Xt-tes;其中,w表示Y包含的谱带个数,j表示Y在空间上包含的带类标样本点的个数。
5.根据权利要求1所述的基于深度多特征主动迁移网络的高光谱图像分类方法,其特征在于,步骤(7b)所述的使用样本迁移的方法将源域微调后的深度光谱特征提取网络、微调后的深度空间特征提取网络和微调后的深度光谱-空间联合特征提取与分类网络迁移到待分类目标域高光谱图像Y上的实现步骤为:
(7b1)采用主动学习的方法,从目标域候选样本集Xt-candi中选取r个样本,加入到源域训练样本集Xs-tra中;
(7b2)从Xs-tra中移除t个不符合更新后训练样本集特征分布的样本点,其选取准则的表达式为:
Figure FDA0002368709610000062
其中,s-表示源域需要删除的样本,x表示样本点,T(0)表示源域未更新过的训练样本集,p(0)(x|ωt)表示未更新Xs-tra时x的类标预测概率值,p(i)(x|ωt)表示迭代更新Xs-tra i次后x的类标预测概率值,ωt表示预测概率值下降最快的类别;
(7b3)重复步骤(7b1)-(7b2)u次,得到更新后的
Figure FDA0002368709610000071
(7b4)利用更新后的
Figure FDA0002368709610000072
及其真实类标
Figure FDA0002368709610000073
对源域微调后的深度光谱特征提取网络、微调后的深度空间特征提取网络和微调后的深度光谱-空间联合特征提取与分类网络进行微调,将网络迁移到待分类目标域高光谱图像Y上。
CN201711415781.0A 2017-12-25 2017-12-25 基于深度多特征主动迁移网络的高光谱图像分类方法 Active CN108280396B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711415781.0A CN108280396B (zh) 2017-12-25 2017-12-25 基于深度多特征主动迁移网络的高光谱图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711415781.0A CN108280396B (zh) 2017-12-25 2017-12-25 基于深度多特征主动迁移网络的高光谱图像分类方法

Publications (2)

Publication Number Publication Date
CN108280396A CN108280396A (zh) 2018-07-13
CN108280396B true CN108280396B (zh) 2020-04-14

Family

ID=62802040

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711415781.0A Active CN108280396B (zh) 2017-12-25 2017-12-25 基于深度多特征主动迁移网络的高光谱图像分类方法

Country Status (1)

Country Link
CN (1) CN108280396B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190680A (zh) * 2018-08-11 2019-01-11 复旦大学 基于深度学习的医疗药品图像的检测与分类方法
CN109299668B (zh) * 2018-08-30 2021-10-19 中国科学院遥感与数字地球研究所 一种基于主动学习和聚类分析的高光谱图像分类方法
CN109344891A (zh) * 2018-09-21 2019-02-15 北京航空航天大学 一种基于深度神经网络的高光谱遥感数据分类方法
CN109359623B (zh) * 2018-11-13 2021-05-11 西北工业大学 基于深度联合分布适配网络的高光谱图像迁移分类方法
CN109685078B (zh) * 2018-12-17 2022-04-05 浙江大学 基于自动标注的红外图像识别方法
CN110110596B (zh) * 2019-03-29 2022-12-02 西北大学 高光谱图像特征提取、分类模型构建及分类方法
CN110688934B (zh) * 2019-09-23 2023-11-21 云南电网有限责任公司电力科学研究院 一种空间采样主动学习分类方法、电子设备及存储介质
CN111476287A (zh) * 2020-04-02 2020-07-31 中国人民解放军战略支援部队信息工程大学 一种高光谱影像小样本分类方法及装置
CN111814871B (zh) * 2020-06-13 2024-02-09 浙江大学 一种基于可靠权重最优传输的图像分类方法
CN111860236B (zh) * 2020-07-06 2021-12-03 中国科学院空天信息创新研究院 一种基于迁移学习的小样本遥感目标检测方法及系统
CN112149722B (zh) * 2020-09-11 2024-01-16 南京大学 一种基于无监督域适应的图像自动标注方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW503375B (en) * 1999-05-05 2002-09-21 Ching-Fang Lin Method for hyperspectral imagery exploitation and pixel spectral unmixing
CN104102929A (zh) * 2014-07-25 2014-10-15 哈尔滨工业大学 基于深度学习的高光谱遥感数据分类方法
RU2579046C2 (ru) * 2014-05-15 2016-03-27 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Рязанский государственный радиотехнический университет" (ФГБОУ ВПО "РГРТУ", РГРТУ) Способ повышения детальности материалов гиперспектральной съемки земли на основе привлечения многозональных изображений высокого пространственного разрешения
CN106778490A (zh) * 2016-11-16 2017-05-31 哈尔滨工业大学 基于多流形的多时相高光谱图像分类方法
CN106897737A (zh) * 2017-01-24 2017-06-27 北京理工大学 一种基于超限学习机的高光谱遥感图像地物分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWM503375U (zh) * 2015-01-13 2015-06-21 Xing-Yi Gao 可調式船舶岸上活動架

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW503375B (en) * 1999-05-05 2002-09-21 Ching-Fang Lin Method for hyperspectral imagery exploitation and pixel spectral unmixing
RU2579046C2 (ru) * 2014-05-15 2016-03-27 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Рязанский государственный радиотехнический университет" (ФГБОУ ВПО "РГРТУ", РГРТУ) Способ повышения детальности материалов гиперспектральной съемки земли на основе привлечения многозональных изображений высокого пространственного разрешения
CN104102929A (zh) * 2014-07-25 2014-10-15 哈尔滨工业大学 基于深度学习的高光谱遥感数据分类方法
CN106778490A (zh) * 2016-11-16 2017-05-31 哈尔滨工业大学 基于多流形的多时相高光谱图像分类方法
CN106897737A (zh) * 2017-01-24 2017-06-27 北京理工大学 一种基于超限学习机的高光谱遥感图像地物分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《Ensemble of Transfer Component Analysis for Domain Adaptation in Hyperspectral Remote Sensing Image Classification》;Xia JS et al;《2017 IEEE International Geoscience and Remote Sensing Symposium (IGARSS)》;20171204;全文 *
《基于深度学习的高光谱遥感图像分类》;邢晨;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170215(第2017年第02期);全文 *

Also Published As

Publication number Publication date
CN108280396A (zh) 2018-07-13

Similar Documents

Publication Publication Date Title
CN108280396B (zh) 基于深度多特征主动迁移网络的高光谱图像分类方法
US11521380B2 (en) Shadow and cloud masking for remote sensing images in agriculture applications using a multilayer perceptron
CN106339674B (zh) 基于边缘保持与图割模型的高光谱影像分类方法
Soh et al. ARKTOS: An intelligent system for SAR sea ice image classification
Tan et al. Automatic extraction of built-up areas from panchromatic and multispectral remote sensing images using double-stream deep convolutional neural networks
CN109325431B (zh) 草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置
CN107832797B (zh) 基于深度融合残差网的多光谱图像分类方法
CN112308152B (zh) 基于光谱分割与同质区域检测的高光谱图像地物分类方法
CN102930275B (zh) 基于Cramer’s V指数的遥感影像特征选择方法
Shahi et al. Road condition assessment by OBIA and feature selection techniques using very high-resolution WorldView-2 imagery
Ok et al. 2-D delineation of individual citrus trees from UAV-based dense photogrammetric surface models
CN109063660B (zh) 一种基于多光谱卫星影像的作物识别方法
CN113936214B (zh) 一种基于融合空天遥感影像的岩溶湿地植被群落分类方法
CN103208011A (zh) 基于均值漂移和组稀疏编码的高光谱图像空谱域分类方法
CN106228136A (zh) 基于聚合通道特征的全景街景隐私保护方法
Zafari et al. A multiscale random forest kernel for land cover classification
Dmitriev et al. Spectral texture classification of high-resolution satellite images for the state forest inventory in Russia
Moliner et al. Weakly supervised semantic segmentation for remote sensing hyperspectral imaging
Alzhanov et al. Crop classification using UAV multispectral images with gray-level co-occurrence matrix features
CN117611908A (zh) 天空地一体化大场景高光谱遥感图像的农作物精准分类
CN112418262A (zh) 车辆再识别的方法、客户端及系统
CN109344837B (zh) 一种基于深度卷积网络和弱监督学习的sar图像语义分割方法
Ouchra et al. Comparison of Machine Learning Methods for Satellite Image Classification: A Case Study of Casablanca Using Landsat Imagery and Google Earth Engine
Dahiya et al. Comparative analysis and implication of Hyperion hyperspectral and landsat-8 multispectral dataset in land classification
Shedlovska et al. Satellite imagery features for the image similarity estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant