CN113505856A - 一种高光谱影像无监督自适应分类方法 - Google Patents
一种高光谱影像无监督自适应分类方法 Download PDFInfo
- Publication number
- CN113505856A CN113505856A CN202110898291.0A CN202110898291A CN113505856A CN 113505856 A CN113505856 A CN 113505856A CN 202110898291 A CN202110898291 A CN 202110898291A CN 113505856 A CN113505856 A CN 113505856A
- Authority
- CN
- China
- Prior art keywords
- domain
- classifier
- sample
- feature
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 45
- 238000009826 distribution Methods 0.000 claims abstract description 11
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 7
- 238000013528 artificial neural network Methods 0.000 claims abstract description 6
- 230000008569 process Effects 0.000 claims abstract description 6
- 238000013135 deep learning Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 35
- 238000010586 diagram Methods 0.000 claims description 15
- 239000000126 substance Substances 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 9
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 5
- 238000002679 ablation Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- ZZUFCTLCJUWOSV-UHFFFAOYSA-N furosemide Chemical compound C1=C(Cl)C(S(=O)(=O)N)=CC(C(O)=O)=C1NCC1=CC=CO1 ZZUFCTLCJUWOSV-UHFFFAOYSA-N 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种高光谱影像无监督自适应分类方法,包括:S1、选择两个地物类别相同但分布不同的高光谱场景图像;S2、根据高光谱影像的特点构建以卷积神经网络为基础的深度学习网络模型作为特征提取器、分类器、域判别器;S3、交替训练分类器和特征提取器,直到域判别器不能正确区分两个域,判别过程通过采用深层特征和风格特征两部分的内容将源域和目标域进行对齐;S4、用训练好的特征提取器和分类器对目标域分类,得到分类结果图。本发明采用深度神经网络搭建特征提取器用于提取特征,并且同时构建分类器和域判别器;利用深层特征对齐和风格特征对齐两方面的内容减小两个域的差异,一定程度上缓解了跨域分类中的特征对齐难题。
Description
技术领域
本发明属于高光谱影像分类技术领域,具体涉及一种高光谱影像无监督自适应分类方法。
背景技术
高光谱影像由于具有光谱分辨率高、波段众多等显著特点,较于常规遥感影像,有更广泛的应用,如在实际应用中,常常被用来对目标范围内各地物进行分类识别。现有高光谱分类方法多采用监督方式通过对目标范围图像的空间和光谱信息进行分析和处理,往往可以得到较高的分类精度。然而,大规模无标注样本数据的现状对于无监督高光谱分类提出了广泛去修。根据高光谱图像的特点,一幅图像中常常包含多种地貌特征,其中如植被、建筑等地貌在其他图像中也常常出现,这一特征使得高光谱图像数据可以进行重复利用。在无标注数据的情况下,利用深度迁移学习算法在多个高光谱图像中进行跨域分类可以避免使用大量的标记样本,节省标记样本的成本。
针对迁移学习的影像分类问题,研究者已经做了大量的工作,但是面对复杂的高光谱影像,仍然面临着巨大的挑战。利用域自适应的技术对高光谱图像进行分类有重要的理论意义,首先域自适应可以对有地物标记的图像反复利用,而采用深度的方式可以更有效地从领域样本空间提取深层特征,与传统的提取特征方式相比,实现了更好的分类精度。同时,从一定程度上可以解决高光谱图像缺少带标记的训练样本而导致分类精度不高的问题,在高光谱图像地表精细分类等方面具有重要的应用价值。
发明内容
本发明提供一种高光谱影像分类方法,以克服以上问题。
本发明包括:
S1、选择两组地物类别相同但分布不同的高光谱场景图像,一个作为源数据集,即源域,另一个作为目标数据集,即目标域;
S2、构建以卷积神经网络为基础的深度学习网络模型作为特征提取器,用于提取地物的分类特征;
分别构建两个网络模型作为分类器、判别器;分类器用于对样本进行具体类别的划分;判别器用于区分样本的来源以及样本的内容是否对齐;
S3、交替训练特征提取器、分类器和判别器,直至训练特征提取器、分类器和判别器的损失函数都达到最小值;
S4、用训练好的特征提取器和分类器对目标域分类,得到分类结果图。
进一步地,分类器参数的训练包括:
S311、建立源域的样本(XS,YS)的分类损失函数:
其中,为源域的样本(XS,YS)的分类损失,源域的样本为{(XS,YS)}={(x1,y1),(x2,y2),......,(xi,yi)},k为类别,K代表类别总数,H(*)为交叉熵损失函数,M为特征提取器;
S312、建立目标域的样本XT的分类损失函数:
S313、建立分类器的损失函数:
其中,Lcls表示分类器的训练结果。
进一步地,判别器的训练过程中采用了域对齐和类别对齐两个模块;判别器的训练包括:
S321、建立域对齐模块的损失函数:
S322、建立类别对齐模块的损失函数:
pi(k)=C(M(xi)) (6)
S323、建立判别器的训练函数:
其中,LD表示判别器的训练结果。
进一步地,特征提取器的训练函数包括:
S331、对中间两层卷积神经网络的输出特征进行格拉姆矩阵运算:
其中,Gr表示格拉姆矩阵运算结果,A表示神经网络中的输出特征图,AT表示矩阵的转置,ai表示网络中得到的转换之后在通道方向上的特征,n表示通道数;
S332、建立风格损失函数:
其中,Si表示源域的训练样本在特征网络中第i层的特征图,Ti表示目标域的训练样本在特征网络中第i层的特征图,n表示取n层的网络特征,LS表示风格损失;
S333、建立对抗损失函数:
其中,将目标域的标记表示为1,Ladv表示对抗损失;
S334、建立特征提取器的训练函数:
LM=Ladv+LS (11)
其中,LM表示特征提取器的训练结果。
进一步地,S2中分类器、判别器的网络模型以连接层为基础,由卷积层、池化层、线性层和激活层组成。
本发明采用深度神经网络搭建特征提取器用于提取特征,并且同时构建分类器和域判别器利用深层特征对齐和风格特征对齐两方面的内容减小两个域的差异,解决了传统的跨域分类问题中两个域的对齐困难。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程图;
图2为本发明特征提取器的网络结构模型;
图3为实施例中采用的Pavia University数据集的真实地物分布图;
图4为实施例中采用ADDA模型在Pavia University数据集上的分类结果图;
图5为实施例中采用本发明方法在Pavia University数据集上的分类结果图;
图6为实施例中采用的Pavia Center数据集的真实地物分布图;
图7为实施例中采用ADDA模型在Pavia Center数据集上的分类结果图;
图8为实施例中采用本发明方法在Pavia Center数据集上的分类结果图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1、图2所示,本发明包括:
S1、选择两组地物类别相同但分布不同的高光谱场景图像,一个作为源数据集,也叫源域,另一个作为目标数据集,也叫目标域;
S2、构建以卷积神经网络为基础的深度学习网络模型作为特征提取器,用于提取地物的分类特征;
分别构建两个以连接层为基础,由卷积层、池化层、线性层和激活层组成的网络模型作为分类器、判别器;分类器用于对样本进行具体类别的划分;判别器用于区分样本的来源以及内容是否对齐;
S3、交替训练分类器、特征提取器和判别器;
S4、用训练好的特征提取器和分类器对目标域分类,得到分类结果图。具体而言,训练分类器的目的是使特征提取器提取的样本特征在分类器中达到类别概率的最大化;训练特征提取器的目的一方面在于目标域样本的域标签是否正确,另一方面在于使两个域的风格差异性最小;训练判别器时使用对抗网络的思想用于判别两个域的内容是否一致。
优选地,分类器参数的训练包括:
S311、建立源域的样本(XS,YS)的分类损失函数:
其中,为源域的样本(XS,YS)的分类损失,源域的样本为{(XS,YS)}={(x1,y1),(x2,y2),......,(xi,yi)},k为类别,K代表类别总数,H(*)为交叉熵损失函数,M为特征提取器。
S312、建立目标域的样本XT的分类损失函数:
S313、建立分类器的损失函数:
其中,Lcls表示分类器的损失。
优选地,判别器的训练过程中采用了域对齐和类别对齐两个模块;判别器的训练过程为:
S321、建立域对齐模块的损失函数:
S322、建立类别对齐模块的损失函数:
pi(k)=C(M(xi)) (6)
S323、建立判别器的训练函数:
其中,LD表示判别器的训练结果。
优选地,特征提取器的训练函数包括:
S331、对中间两层卷积神经网络的输出特征进行格拉姆矩阵运算:
其中,Gr表示格拉姆矩阵运算结果,A表示神经网络中的输出特征图,AT表示矩阵的转置,ai表示网络中得到的转换之后在通道方向上的特征,n表示通道数;
S332、建立风格损失函数:
其中,Si表示源域的训练样本在特征网络中第i层的特征图,Ti表示目标域的训练样本在特征网络中第i层的特征图,n表示取n层的网络特征,LS表示风格损失;
S333、建立对抗损失函数:
其中,将目标域的标记表示为1,Ladv表示对抗损失;
S334、建立特征提取器的训练函数:
LM=Ladv+LS(11)
其中,LM表示特征提取器的训练结果。
实施例2
样本数据来源:高光谱数据来源于ROSIS传感器获取的Pavia University和PaviaCenter数据,经过处理后Pavia University有103个波段,Pavia Center有102个波段,为了实现跨域分类的目的,将Pavia University数据的最后一个波段去除。两幅影像都有9个类别的地物,由于类别并不完全一致,选择其中相同的7类进行实验。
图3和图6所示为Pavia University和Pavia Center的真实地物分布,表1显示了Pavia University和Pavia Center数据集每类目标地物的样本数目:
表1
对于源域和目标域的样本,每类选择100个样本作为训练集进行训练。
搭建网络结构,对于特征提取器M,在实例中选择稠密网络(Dense Net)来提取网络,表2显示了具体的网络结构,网络结构模型图,如图2所示。
Dense Net增加了特征的重复利用率,实验中采用的Dense Net结构由两个Block组成,其中Block 1由4层卷积块组成,Block 2由6层卷积块组成,每一个卷积块由两层卷积层,卷积核的大小分别是3*3和1*1。由于在Dense Net中每一个卷积层的输入都是前面所有层的特征叠加,这无疑会给网络带来较大的负担,因此在两个Block中增加了1*1的卷积和一个池化层来起到降维的作用,减小开销。
对于分类器C和域判别器D均采用两层线性层(Linear)和激活进行分类,C输出的类别数为7,表示7种地物类别,D的输出类别数为2,表示源域和目标域。
表2
进行了两个实验,第一个实验把Pavia University当作源域,Pavia Center当作目标域,并选择提出的Adversarial Discriminative Domain Adaptation(ADDA)的模型用作参考,实验的结果如表3所示,得到的结果图像如图7和图8所示:
表3
第二个实验中,把Pavia Center当作源域,Pavia University当作目标域,同样地,使用ADDA的模型用作对比,表4中是该实验的结果,得到的结果图像如图4和图5所示:
表4
ADDA | Ours | |
类别1 | 97.73±2.91 | 82.85±6.42 |
类别2 | 57.64±5.17 | 79.91±7.36 |
类别3 | 83.98±7.21 | 77.56±14.78 |
类别4 | 59.90±13.70 | 50.23±4.51 |
类别5 | 7.75±5.96 | 90.16±12.03 |
类别6 | 6.76±6.44 | 86.91±11.38 |
类别7 | 75.21±7.25 | 97.69±1.20 |
OA | 60.78±1.56 | 78.04±1.54 |
AA | 55.71±1.49 | 80.76±4.13 |
Kappa | 48.83±1.18 | 69.84±1.76 |
其中的OA(Overall Accuracy)、AA(Average accuracy)、Kappa分别表示总体的分类精度、平均分类精度和Kappa系数。
通过表3、表4中的实验结果表明,提出的基于内容对齐的高光谱影像无监督域自适应分类方法分类效果比ADDA的效果更好,在基于内容的对齐中包含两个域样本的深层特征对齐和风格特征对齐,证明了基于内容对齐策略在减小两个域的差异性方面展现出了优越的性能。通过图5中实验得到的Pavia University图像分布图和真实的分布图3相比,以及图8中实验得到的Pavia Center图像分布图和真实的分布图6相比,可以明显看出提出的基于内容对齐的高光谱影像无监督域自适应分类方法得到的分布图更加接近于真实图像,分类效果更好,而通过ADDA得到的图4和图7与真实分布图3和图6相比,差异性较大。这也表明了本方法中采用的基于内容的对齐方式能更大程度上减小两个域的差异性,使得对目标域得分类效果更好。
为了更加客观评价模型中每一个模块的作用,增加了消融实验来进行说明,实验结果如表5所示:
表5
其中PU表示Pavia University数据集,PC表示Pavia Center数据集。
通过表5中的消融实验数据显示表明,只用Domain-level模块的分类结果明显优于只用Class-wise模块的结果,证明了Domain-level模块在进行深层特征对齐中表现出优越的性能,使基于内容对齐策略更具有表现力。只用Class-wise模块的分类结果较差于只用Domain-level模块的结果,同时采用两个模块的分类结果明显优于只采用其中一个,证明了Class-wise模块在进行深层特征对齐中发挥了重要作用,更加有利于提高内容对齐网络模型的分类效果。SPA模块对实验结果产生很大影响,可以看出采用Domain-level的结果较好于采用Class-wise的结果,但是在两个模块上分别添加SPA模块之后,PaviaUniversity数据集使用Domain-level和SPA模块的分类结果较好于使用Class-wise和SPA模块,但是Pavia Center数据集上Class-wise和SPA模块的分类结果略高于Domain-level和SPA模块。并且通过采用Domain-level和Class-wise模块的实验结果与采用三个模块的实验相比,可以更加明显的看出增加了SPA模块进行风格特征对齐之后,分类效果更好,证明了风格特征的对齐对于缩小两个域的差异具有重要作用。
有益效果:
本发明采用深度神经网络搭建特征提取器用于提取特征,并且同时构建分类器和域判别器利用深层特征对齐和风格特征对齐两方面的内容减小两个域的差异,解决了传统的跨域分类问题中两个域的对齐困难。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (5)
1.一种高光谱影像无监督自适应分类方法,其特征在于,包括:
S1、选择两组地物类别相同但分布不同的高光谱场景图像,一个作为源数据集,即源域;另一个作为目标数据集,即目标域;
S2、构建以卷积神经网络为基础的深度学习网络模型作为特征提取器,特征提取器用于提取地物的分类特征;
分别构建两个网络模型作为分类器、判别器;分类器用于对样本进行具体类别的划分;判别器用于区分样本的来源以及样本的内容是否对齐;
S3、交替训练特征提取器、分类器和判别器,直至训练特征提取器、分类器和判别器的损失函数都达到最小值;
S4、用训练好的特征提取器和分类器对目标域分类,得到分类结果图。
2.根据权利要求1中所述的一种高光谱影像无监督自适应分类方法,其特征还在于,S3中所述分类器的训练包括:
S311、建立源域的样本(XS,YS)的分类损失函数:
其中,为源域的样本(XS,YS)的分类损失,源域的样本为{(XS,YS)}={(x1,y1),(x2,y2),......,(xi,yi)},k为类别,K代表类别总数,H(*)为交叉熵损失函数,M为特征提取器;
S312、建立目标域的样本XT的分类损失函数:
S313、建立分类器的损失函数:
其中,Lcls表示分类器的训练结果。
4.根据权利要求1中所述的一种高光谱影像无监督自适应分类方法,其特征还在于,S3中所述特征提取器的训练函数包括:
S331、对中间两层卷积神经网络的输出特征进行格拉姆矩阵运算:
其中,Gr表示格拉姆矩阵运算结果,A表示神经网络中的输出特征图,AT表示矩阵的转置,ai表示网络中得到的转换之后在通道方向上的特征,n表示通道数;
S332、建立风格损失函数:
其中,Si表示源域的训练样本在特征网络中第i层的特征图,Ti表示目标域的训练样本在特征网络中第i层的特征图,n表示取n层的网络特征,LS表示风格损失;
S333、建立对抗损失函数:
其中,将目标域的标记表示为1,Ladv表示对抗损失;
S334、建立特征提取器的训练函数:
LM=Ladv+LS (11)
其中,LM表示特征提取器的训练结果。
5.根据权利要求1中所述的一种高光谱影像无监督自适应分类方法,其特征还在于,S2中所述分类器、判别器的网络模型以连接层为基础,由卷积层、池化层、线性层和激活层组成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110898291.0A CN113505856B (zh) | 2021-08-05 | 2021-08-05 | 一种高光谱影像无监督自适应分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110898291.0A CN113505856B (zh) | 2021-08-05 | 2021-08-05 | 一种高光谱影像无监督自适应分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113505856A true CN113505856A (zh) | 2021-10-15 |
CN113505856B CN113505856B (zh) | 2024-04-09 |
Family
ID=78015274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110898291.0A Active CN113505856B (zh) | 2021-08-05 | 2021-08-05 | 一种高光谱影像无监督自适应分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113505856B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114723994A (zh) * | 2022-04-18 | 2022-07-08 | 中国矿业大学 | 一种基于双分类器对抗增强网络的高光谱图像分类方法 |
CN116403058A (zh) * | 2023-06-09 | 2023-07-07 | 昆明理工大学 | 一种遥感跨场景多光谱激光雷达点云分类方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016091017A1 (zh) * | 2014-12-09 | 2016-06-16 | 山东大学 | 一种高光谱图像分类中光谱向量互相关特征的抽取方法 |
US20180025515A1 (en) * | 2015-03-09 | 2018-01-25 | Koninklijke Philips N.V | Multi-energy (spectral) image data processing |
CN109359623A (zh) * | 2018-11-13 | 2019-02-19 | 西北工业大学 | 基于深度联合分布适配网络的高光谱图像迁移分类方法 |
CN111191736A (zh) * | 2020-01-05 | 2020-05-22 | 西安电子科技大学 | 基于深度特征交叉融合的高光谱图像分类方法 |
US10839269B1 (en) * | 2020-03-20 | 2020-11-17 | King Abdulaziz University | System for fast and accurate visual domain adaptation |
AU2020103613A4 (en) * | 2020-11-23 | 2021-02-04 | Agricultural Information and Rural Economic Research Institute of Sichuan Academy of Agricultural Sciences | Cnn and transfer learning based disease intelligent identification method and system |
-
2021
- 2021-08-05 CN CN202110898291.0A patent/CN113505856B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016091017A1 (zh) * | 2014-12-09 | 2016-06-16 | 山东大学 | 一种高光谱图像分类中光谱向量互相关特征的抽取方法 |
US20180025515A1 (en) * | 2015-03-09 | 2018-01-25 | Koninklijke Philips N.V | Multi-energy (spectral) image data processing |
CN109359623A (zh) * | 2018-11-13 | 2019-02-19 | 西北工业大学 | 基于深度联合分布适配网络的高光谱图像迁移分类方法 |
CN111191736A (zh) * | 2020-01-05 | 2020-05-22 | 西安电子科技大学 | 基于深度特征交叉融合的高光谱图像分类方法 |
US10839269B1 (en) * | 2020-03-20 | 2020-11-17 | King Abdulaziz University | System for fast and accurate visual domain adaptation |
AU2020103613A4 (en) * | 2020-11-23 | 2021-02-04 | Agricultural Information and Rural Economic Research Institute of Sichuan Academy of Agricultural Sciences | Cnn and transfer learning based disease intelligent identification method and system |
Non-Patent Citations (2)
Title |
---|
刘启超;肖亮;刘芳;徐金环;: "SSCDenseNet:一种空-谱卷积稠密网络的高光谱图像分类算法", 电子学报, no. 04 * |
夏明革, 何友, 欧阳文: "像素级图像融合方法与融合效果评价", 遥感技术与应用, no. 04 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114723994A (zh) * | 2022-04-18 | 2022-07-08 | 中国矿业大学 | 一种基于双分类器对抗增强网络的高光谱图像分类方法 |
CN116403058A (zh) * | 2023-06-09 | 2023-07-07 | 昆明理工大学 | 一种遥感跨场景多光谱激光雷达点云分类方法 |
CN116403058B (zh) * | 2023-06-09 | 2023-09-12 | 昆明理工大学 | 一种遥感跨场景多光谱激光雷达点云分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113505856B (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111814661B (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN112308158A (zh) | 一种基于部分特征对齐的多源领域自适应模型及方法 | |
CN111860612A (zh) | 无监督高光谱图像隐低秩投影学习特征提取方法 | |
CN107451565B (zh) | 一种半监督小样本深度学习图像模式分类识别方法 | |
Cai et al. | A novel hyperspectral image classification model using bole convolution with three-direction attention mechanism: small sample and unbalanced learning | |
CN113239954B (zh) | 基于注意力机制的图像语义分割特征融合方法 | |
CN111598001B (zh) | 一种基于图像处理的苹果树病虫害的识别方法 | |
CN113505856A (zh) | 一种高光谱影像无监督自适应分类方法 | |
CN111339924B (zh) | 一种基于超像素和全卷积网络的极化sar图像分类方法 | |
CN113705641B (zh) | 基于富上下文网络的高光谱图像分类方法 | |
CN101968852A (zh) | 基于熵排序的半监督谱聚类确定聚类数的方法 | |
CN113221694A (zh) | 一种动作识别方法 | |
CN116012653A (zh) | 一种注意力残差单元神经网络高光谱图像分类方法及系统 | |
CN114842264A (zh) | 一种基于多尺度空谱特征联合学习的高光谱图像分类方法 | |
CN110598746A (zh) | 一种基于ode求解器自适应的场景分类方法 | |
CN113505719B (zh) | 基于局部-整体联合知识蒸馏算法的步态识别模型压缩系统及方法 | |
CN116645579A (zh) | 一种基于异质图注意力机制的特征融合方法 | |
CN111310820A (zh) | 基于交叉验证深度cnn特征集成的地基气象云图分类方法 | |
CN111242028A (zh) | 基于U-Net的遥感图像地物分割方法 | |
CN114511012A (zh) | 基于特征匹配和位置匹配的sar图像与光学图像匹配方法 | |
CN111127407B (zh) | 一种基于傅里叶变换的风格迁移伪造图像检测装置及方法 | |
CN109214269B (zh) | 一种基于流形对齐和多图嵌入的人脸姿态对齐方法 | |
CN116704241A (zh) | 一种全通道3d卷积神经网络高光谱遥感图像分类方法 | |
CN115512226A (zh) | 融入注意力机制多尺度CNN的LiDAR点云滤波方法 | |
CN112836593A (zh) | 一种融合先验与自动脑电特征的情绪识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |