CN114202694A - 基于流形混合插值和对比学习的小样本遥感场景图像分类方法 - Google Patents

基于流形混合插值和对比学习的小样本遥感场景图像分类方法 Download PDF

Info

Publication number
CN114202694A
CN114202694A CN202111516394.2A CN202111516394A CN114202694A CN 114202694 A CN114202694 A CN 114202694A CN 202111516394 A CN202111516394 A CN 202111516394A CN 114202694 A CN114202694 A CN 114202694A
Authority
CN
China
Prior art keywords
sample
samples
remote sensing
contrast
manifold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111516394.2A
Other languages
English (en)
Inventor
盛云瑞
肖亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202111516394.2A priority Critical patent/CN114202694A/zh
Publication of CN114202694A publication Critical patent/CN114202694A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于流形混合插值和对比学习的小样本遥感场景图像分类方法,该方法包括:1)数据准备,从遥感场景图像数据集中划分出基础数据集和测试数据集,每次采样包含一组支持集和查询集;2)通过特征提取器,获取图像的高层特征表示;3)通过流形混合插值模块,生成插值集样本,并微调深度残差网络;4)通过自监督学习模块对样本进行不同类型的增强,产生对比损失;5)计算支持集中每一个类别样本的码本向量,对新样本进行分类,并产生分类损失。本发明通过流形混合插值模块和自监督对比学习模块,能够在少量的样本中学习到更鲁棒的表示,克服了小样本情境下样本缺乏的问题,在不同的遥感场景分类问题中具有优良的泛化性能。

Description

基于流形混合插值和对比学习的小样本遥感场景图像分类 方法
技术领域
本发明涉及遥感场景图像分类技术,尤其是一种基于流形混合插值和对比学习的小样本遥感场景图像分类方法。
背景技术
遥感场景图片在国民经济建设领域有着广泛的应用,如灾害检测、植被制图、环境监测、城市规划、土地利用等。在实现这些应用的过程中,场景分类是十分重要的一个环节。遥感场景分类属于图像分类的一个方向。与自然图像不同,场景图像通常是鸟瞰图,这意味着图像中的物体总是任意定向的,而且场景分类更注重图像的全局宏观信息,而自然图片可能只关注图片的局部信息。
传统的场景分类方法基于人工设计特征,主要特征包括颜色、外部轮廓、图像纹理等,具有代表性的特征包括尺度不变特征变换(SIFT)、颜色直方图(Color Histograms)、纹理特征(Texture Features)等。这些算法依赖人工经验和专业知识,且算法的泛化能力和鲁棒性较弱。
近年来随着深度学习的发展,图像识别近来也获得了很大的进步。深度学习方法不需要人工设计特征,通常采用卷积神经网络(Convolutional Neural Network)自动提取特征。深度学习方法的问题需要大量标注数据,而遥感场景的图像相对很稀缺和宝贵,现有方法很容易导致过拟合而无法学习到真实的数据分布。因此在小样本场景下对遥感场景图像进行分类是亟需解决的问题。
Finn等人提出了一种模型无关的元学习算法MAML(Finn,C.;Abbeel,P.;Levine,S.Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks.In ICML,pages 1126–1135,2017),该方法假设有两个学习器,一个是基础学习器,一个任务学习器,通过在训练集上跨任务学习到一个很好的基础学习器,其在遇到新任务时可以快速的微调为任务学习器,该方法取得了较好的效果。然而MAML在实践中存在难以收敛、二阶求导运算慢的问题。Snell等人提出基于度量学习的方法ProtoNet(J.Snell,K.Swersky,andR.Zemel,Prototypical networks for few-shot learning.In NIPS,pages 4077–4087,2017),通过神经网络将原始图像映射到嵌入式空间,并通过聚类的思想在嵌入式空间中生成每个类别的原型,选择与查询样本最相似的原型作为预测的类别,该方法采用欧式距离度量样本之间的相似度。然而该方法模型对新任务缺乏针对性的适应性,以及没有充分利用样本的自监督信息。
发明内容
本发明的目的在于提供一种基于流形混合插值和对比学习的小样本遥感场景图像分类方法,能够有效解决样本数量不足时的场景图像分类问题,且性能优异。
实现本发明目的的技术解决方案为:一种基于流形混合插值和对比学习的小样本遥感场景图像分类方法,包括:
步骤1,数据准备,从遥感场景图像数据集中划分出基础数据集和测试数据集;训练和测试过程中,每次采样包含一组支持集和查询集样本;
步骤2,通过特征提取器,获取支持集图像的高层特征向量,其中特征提取器为深度残差网络;
步骤3,通过流形混合插值模块,生成插值集样本,并迭代深度残差网络;流形混合插值算法在神经网络的高层对支持集中样本的特征和标签对(zi,yi),(zj,yj)进行线性插值,产生插值样本(z*,y*),并通过码本分类器预测z*的类别产生分类损失,迭代特征提取器;
步骤4,自监督学习模块通过对样本进行两种不同类型的增强,对支持集S中样本x进行两种不同的数据增强方法得到
Figure BDA0003402644070000021
经特征提取器后得到两个特征zi和zj;通过对zi和zj的相似度对比,产生对比损失;
步骤5,对支持集中的每一类样本在特征空间做均值,得到每一类的码本向量ck,作为码本分类器;预测查询集中样本qi的类别时,选择qi特征与所有码本向量中距离最近的ck的类别作为预测类别,并产生分类损失。
一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的基于流形混合插值和对比学习的小样本遥感场景图像分类方法。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的基于流形混合插值和对比学习的小样本遥感场景图像分类方法。
本发明与现有技术相比,其显著特点在于:(1)通过流形混合插值模块,让当前任务的支持集对模型进行微调,可提取任务相关的场景特征;(2)自监督对比学习模块,把对同一样本进行不同类型增强的样本对认为是正样本对,不同的样本对认为是负样本对,通过让模型识别正负样本对,提高模型对场景图片的表征能力,同时不同类型的增强也能让模型学到遥感场景的旋转和尺度不变性;(3)码本分类器模块,选取每类支持集在特征空间的码本向量作为类别原型,选择距离查询样本最近的码本向量作为预测类别;(4)通过构建端到端的分类模型,能有效处理小样本场景下的遥感场景图像分类问题。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为本发明基于流形混合插值和对比学习的小样本遥感场景图像分类方法流程图。
图2为深度残差网络特征提取器的结构图。
图3为对比学习模块示意图。
图4为实验训练过程图。
具体实施方式
本发明公开了一种基于流形混合插值和对比学习的小样本遥感场景图像分类方法,该方法包括:1)数据准备,从遥感场景图像数据集中划分出基础数据集和测试数据集,每次采样包含一组支持集S和查询集Q;2)通过特征提取器,获取图像的高层特征表示;3)流形混合插值模块,生成插值集样本,并微调深度残差网络;4)自监督学习模块,通过对样本进行不同类型的增强,产生对比损失;5)码本分类器,通过计算支持集中每一个类别样本的码本向量,对新样本进行分类,并产生分类损失。本发明通过流形混合插值模块和自监督对比学习模块,能够在少量的样本中学习到更鲁棒的表示,克服了小样本情境下样本缺乏的问题,在不同的遥感场景分类问题中具有优良的泛化性能。
结合图1,下面详细说明本发明的实施过程,步骤如下:
第一步,数据准备,根据权利要求1所述的基于流形混合插值和对比学习的小样本遥感场景图像分类方法,其特征在于,步骤1首先要将数据集划分为基础数据集和测试数据集,其中基础数据集中每类包含多个样本,测试集中每类只有1个或5个样本;其次,训练时每次图片采样过程模拟测试场景,从基础集中选取支持集S,其包含N个类别,每个类别K个样本,称之为为N-way K-shot;查询集Q也是从这N个类别中选取,用来计算分类准确性和产生分类损失。
第二步,通过深度残差网络特征提取器fθ,学习到图片的高层特征表示,如图2所示。记
Figure BDA0003402644070000041
表示网络的输入图片,其中H、W、C表示图片的高、宽和通道数。通过特征提取器
Figure BDA0003402644070000042
计算得到特征z=fθ(x),其中
Figure BDA0003402644070000043
M表示学习到的高层特征向量维度。
第二步,通过流形混合插值模块,在深度残差网络深层的特征层插值。对于支持集的两个输入样本(xi,yi),(xj,yj),其高层的特征表示分别表示为zi=fθ(xi)和zj=fθ(xj),通过流形混合生成插值样本(z*,y*),计算公式如下:
(z*,y*)=(Mixλ(zi,zj),Mixλ(yi,yj))
其中Mixλ是线性混合函数,
Figure BDA0003402644070000044
是混合系数,从Beta(α,α)分布中采样获得。当α=1时,等效为λ从U(0,1)中采样。a、b为Mixλ函数参数,α为Beta分布的参数。
通过计算支持集的码本向量对(z*,y*)分类,得到的分类损失记为混合损失Lmm,计算公式如下:
Lmm=L(Mixλ(fθ(xi),fθ(xj)),Mixλ(yi,yj))
其中L是交叉熵损失函数。通过混合损失Lmm反向传播微调特征提取器fθ,得到f′θ
第四步,对比增强模块,如图3所示。通过对支持集中的样本x选择2种不同的数据增强方法,包括裁剪、旋转、模糊,经特征提取后得到两个特征zi和zj,通过对zi和zj的相似度对比,产生对比损失。算法将原样本相同的(i,j)作为正样本对,不同的作为负样本对,要求正样本对的相似度尽可能小,负样本对的相似度尽可能大。
对于正样本对(i,j),其损失l(i,j)计算公式如下:
Figure BDA0003402644070000051
其中τ是温度系数,sim是相似度函数,其实现采用的是余弦距离,函数计算公式如下:
xim(u,v)=uTv/||u||||v||
一个批次中总对比损失为所有正样本对损失之和,其计算公式如下:
Figure BDA0003402644070000052
其中N是一个批次的样本个数,样本对(2k-1,2k)是同一个样本经两种不同的数据增强方法后得到的两个样本。
第五步,计算每一个类别的码本向量ck得到码本分类器,根据查询样本距离每一类码本向量ck的距离进行分类。对于类别k,其码本向量为该类别支持集Sk在特征空间的平均值,计算公式如下:
Figure BDA0003402644070000053
其中Sk是类别k的支持集样本集合,fθ是特征提取器,xi是Sk中的某一个样本。
对于每个查询样本x∈Q,根据x与每一个码本向量ck的距离计算,其概率分布是基于fθ(x)与原码本向量ck的负距离的Softmax函数,即fθ(x)与码本向量ck的距离越近,其属于类别k的概率越大。其属于类别k的计算公式如下:
Figure BDA0003402644070000054
其中,距离函数d采用的是欧氏距离。损失函数选择交叉熵,则一个批次中所有样本的分类损失计算公式如下:
Figure BDA0003402644070000055
其中NQ是查询集样本数量。
最后将对比损失和分类损失加权求和,作为神经网络的最终损失:
Lall=Lcls+ηLcs
其中η∈[0,1]是对比损失的加权参数,调整加权参数大小,使得各损失对网络的约束能力相当。
在网络的训练阶段,使用正态分布初始化方法来初始化神经网络权重;选择合适的优化器作为网络的优化策略;动态调整学习率使网络的最终损失趋于收敛;训练结束之后,就可以得到在小样本情境下用于遥感场景分类的网络。
本发明通过流形混合插值对任务样本进行了扩充和微调,一定程度上解决了样本不足的问题;其次本发明通过自监督对比学习对样本进行不同方法的增强,能让模型更好的学习到对于拍摄角度、光照等干扰不变的特征,让模型具有更好的鲁棒性。
本发明的效果可通过以下仿真实验进一步说明:
仿真条件
仿真实验采用两组遥感场景图像数据集:NWPU-RESISC45数据集和AID数据集。NWPU-RESISC45数据集由西北工业大学于2017年提出,训练集、验证集和测试集分别包含2300、1100、1100张图像,总计有31500张图像。其包含45类场景,每类场景包含700个图像,每个图像像素尺寸为256×256。这些图像由谷歌地球的专家收集,空间分辨率从30m到0.2m不等,覆盖了全球100多个国家和地区。AID(Aerial Image Dataset)数据集是由华中科技大学和武汉大学联合于2017年提出的数据集。该数据集是一个大型的航空影像数据集,图像尺寸为600×600,训练集、验证集和测试集分别包含5020、2520、2460张图像,总计有10000张图片,其包含30类场景,每类场景的图片数量范围从220到420不等。
实验中,将原图像尺寸统一缩放为84×84,以分类准确率作为评价指标。此外,对比方法包括:ProtoNet、MAML(Model-Agnostic Meta-Learning)。
实验中优化器采用Adam,初始学习率为0.001,达到200epoch时学习率衰减为初始学习率的十分之一,总迭代次数为300个epoch。设定对比损失加权参数,温度系数。在网络的训练阶段,使用正态分布初始化方法来初始化神经网络权重;仿真实验在Linux操作系统下采用Python3.6+pytorch1.1+cuda10.0完成。
仿真实验结果分析
表1和表2分别为本发明方法在NWPU-RESISC4数据集和AID数据集上进行仿真实验的检测结果,实验的训练过程见图4。
表1不同方法在NWPU-RESISC4数据集的分类准确率
分类方法 1-shot 5-shot
MAML 55.16%±0.90% 67.06%±0.72%
ProtoNet 64.30%±1.23% 82.82%±0.87%
本发明方法 76.54%±0.98% 90.24%±0.56%
表2不同方法在AID数据集的分类准确率
分类方法 1-shot 5-shot
MAML 55.80%±0.93% 71.53%±0.81%
ProtoNet 62.95%±1.06% 83.29%±0.74%
本发明方法 73.89%±1.08% 89.62%±0.55%
从实验结果过来看,本发明方法相较于现有方法可以明显提升分类识别的准确率。在NWPU-RESISC4数据集上,本发明的分类准确率为90.24%;在AID数据集上,本发明方法的分类准确率为89.62%,相较于之前的方法显著的提高了准确率。这主要得益于流形混合插值模块起到的样本增扩作用,以及自监督对比学习模块学习到对于角度、光照等干扰条件不变的特征。上述结果充分表明了本发明方法能够在少样本情境下有效的学习到遥感场景图像的特征信息,并具有较好的性能。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (9)

1.一种基于流形混合插值和对比学习的小样本遥感场景图像分类方法,其特征在于,包括以下步骤:
步骤1,数据准备,从遥感场景图像数据集中划分出基础数据集和测试数据集;训练和测试过程中,每次采样包含一组支持集和查询集样本;
步骤2,通过特征提取器,获取支持集图像的高层特征向量,其中特征提取器为深度残差网络;
步骤3,通过流形混合插值模块,生成插值集样本,并迭代深度残差网络;流形混合插值算法在神经网络的高层对支持集中样本的特征和标签对(zi,yi),(zj,yj)进行线性插值,产生插值样本(z*,y*),并通过码本分类器预测z*的类别产生分类损失,迭代特征提取器;
步骤4,自监督学习模块通过对样本进行两种不同类型的增强,对支持集S中样本x进行两种不同的数据增强方法得到
Figure FDA0003402644060000011
经特征提取器后得到两个特征zi和zj;通过对zi和zj的相似度对比,产生对比损失;
步骤5,对支持集中的每一类样本在特征空间做均值,得到每一类的码本向量ck,作为码本分类器;预测查询集中样本qi的类别时,选择qi特征与所有码本向量中距离最近的ck的类别作为预测类别,并产生分类损失。
2.根据权利要求1所述的基于流形混合插值和对比学习的小样本遥感场景图像分类方法,其特征在于,步骤1首先将数据集划分为基础数据集和测试数据集,其中基础数据集中每类包含多个样本,测试集中每类只有1个或5个样本;其次,训练时每次图片采样过程模拟测试场景,从基础集中选取支持集S,其包含N个类别,每个类别K个样本,称之为N-way K-shot;查询集Q也是从这N个类别中选取,用来计算分类准确性和产生分类损失。
3.根据权利要求1所述的基于流形混合插值和对比学习的小样本遥感场景图像分类方法,其特征在于,步骤2通过深度残差网络特征提取器fθ,学习到图片的高层特征表示;记
Figure FDA0003402644060000012
表示网络的输入图片,其中H、W、C表示图片的高、宽和通道数;通过特征提取器
Figure FDA0003402644060000013
计算得到特征z=fθ(x),其中
Figure FDA0003402644060000014
M表示学习到的高层特征向量维度。
4.根据权利要求1所述的基于流形混合插值和对比学习的小样本遥感场景图像分类方法,其特征在于,步骤3通过流形混合插值模块,在深度残差网络深层的高层插值;对于支持集的两个输入样本(xi,yi),(xj,yj),其高层的特征表示分别表示为zi=fθ(xi)和zj=fθ(xj),通过流形混合生成插值样本(z*,y*),计算公式如下:
(z*,y*)=(Mixλ(zi,zj),Mixλ(yi,yj))
其中Mixλ是线性混合函数,Mixλ(a,b)=λ·a+(1-λ)·b;λ是混合系数,从Beta(α,α)分布中采样获得;当α=1时,等效为λ从U(0,1)中采样;
通过计算支持集的码本向量对(z*,y*)分类,得到的分类损失记为混合损失Lmm,计算公式如下:
Lmm=L(Mixλ(fθ(xi),fθ(xj)),Mixλ(yi,yj))
其中L是交叉熵损失函数;通过混合损失Lmm反向传播迭代特征提取器fθ,得到f′θ
5.根据权利要求1所述的基于流形混合插值和对比学习的小样本遥感场景图像分类方法,其特征在于,步骤4通过对支持集中的样本x选择两种不同的数据增强方法,经特征提取后得到两个特征zi和zj,通过对zi和zj的相似度对比,产生对比损失;算法将原样本相同的(i,j)作为正样本对,不同的作为负样本对,要求正样本对的相似度尽可能小,负样本对的相似度尽可能大;
对于正样本对(i,j),其损失l(i,j)计算公式如下:
Figure FDA0003402644060000021
其中τ是温度系数,sim是相似度函数,其实现采用的是余弦距离,函数计算公式如下:
sim(u,v)=uTv/||u||||v||
一个批次中总对比损失为所有正样本对损失之和,其计算公式如下:
Figure FDA0003402644060000031
其中N是一个批次的样本个数,样本对(2k-1,2k)是同一个样本经两种不同的数据增强方法后得到的两个样本。
6.根据权利要求5所述的基于流形混合插值和对比学习的小样本遥感场景图像分类方法,其特征在于,所述的数据增强方法包括裁剪、旋转、模糊。
7.根据权利要求1所述的基于流形混合插值和对比学习的小样本遥感场景图像分类方法,其特征在于,步骤5通过计算每一个类别的码本向量ck得到码本分类器,根据查询样本距离每一类码本向量ck的距离进行分类;对于类别k,其码本向量为该类别支持集Sk在特征空间的平均值,计算公式如下:
Figure FDA0003402644060000032
其中Sk是类别k的支持集,fθ是特征提取器,xi是Sk中的某一个样本;
对于每个查询样本x∈Q,根据x与每一个码本向量ck的距离计算,其概率分布是基于fθ(x)与原码本向量ck的负距离的Softmax函数,即fθ(x)与码本向量ck的距离越近,其属于类别k的概率越大;其属于类别k的计算公式如下:
Figure FDA0003402644060000033
其中,距离函数d采用的是欧氏距离;损失函数选择交叉熵,则一个批次中所有样本的分类损失计算公式如下:
Figure FDA0003402644060000034
其中NQ是查询集样本数量;
最后将对比损失和分类损失加权求和,作为神经网络的最终损失:
Lall=Lcls+ηLcs
其中η∈[0,1]是对比损失的加权参数。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7中任一所述的基于流形混合插值和对比学习的小样本遥感场景图像分类方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的基于流形混合插值和对比学习的小样本遥感场景图像分类方法。
CN202111516394.2A 2021-12-09 2021-12-09 基于流形混合插值和对比学习的小样本遥感场景图像分类方法 Pending CN114202694A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111516394.2A CN114202694A (zh) 2021-12-09 2021-12-09 基于流形混合插值和对比学习的小样本遥感场景图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111516394.2A CN114202694A (zh) 2021-12-09 2021-12-09 基于流形混合插值和对比学习的小样本遥感场景图像分类方法

Publications (1)

Publication Number Publication Date
CN114202694A true CN114202694A (zh) 2022-03-18

Family

ID=80652989

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111516394.2A Pending CN114202694A (zh) 2021-12-09 2021-12-09 基于流形混合插值和对比学习的小样本遥感场景图像分类方法

Country Status (1)

Country Link
CN (1) CN114202694A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114913379A (zh) * 2022-06-08 2022-08-16 西安电子科技大学 基于多任务动态对比学习的遥感图像小样本场景分类方法
CN115410059A (zh) * 2022-11-01 2022-11-29 山东锋士信息技术有限公司 基于对比损失的遥感图像部分监督变化检测方法及设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114913379A (zh) * 2022-06-08 2022-08-16 西安电子科技大学 基于多任务动态对比学习的遥感图像小样本场景分类方法
CN115410059A (zh) * 2022-11-01 2022-11-29 山东锋士信息技术有限公司 基于对比损失的遥感图像部分监督变化检测方法及设备
CN115410059B (zh) * 2022-11-01 2023-03-24 山东锋士信息技术有限公司 基于对比损失的遥感图像部分监督变化检测方法及设备

Similar Documents

Publication Publication Date Title
CN111768432B (zh) 基于孪生深度神经网络的动目标分割方法及系统
CN111340738B (zh) 一种基于多尺度渐进融合的图像去雨方法
CN112150493B (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
CN108876796A (zh) 一种基于全卷积神经网络和条件随机场的道路分割系统及方法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN112347970B (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN110633708A (zh) 一种基于全局模型和局部优化的深度网络显著性检测方法
CN112115967B (zh) 一种基于数据保护的图像增量学习方法
CN106157330B (zh) 一种基于目标联合外观模型的视觉跟踪方法
CN113111716B (zh) 一种基于深度学习的遥感影像半自动标注方法和装置
CN114202694A (zh) 基于流形混合插值和对比学习的小样本遥感场景图像分类方法
CN114913379B (zh) 基于多任务动态对比学习的遥感图像小样本场景分类方法
CN110852327A (zh) 图像处理方法、装置、电子设备及存储介质
CN115147632A (zh) 基于密度峰值聚类算法的图像类别自动标注方法及装置
CN111091129A (zh) 一种基于多重颜色特征流形排序的图像显著区域提取方法
Alsanad et al. Real-time fuel truck detection algorithm based on deep convolutional neural network
CN113378620B (zh) 监控视频噪声环境下跨摄像头行人重识别方法
CN116630828B (zh) 基于地形环境适配的无人机遥感信息采集系统及方法
CN116129280B (zh) 一种遥感影像雪检测的方法
CN108765384B (zh) 一种联合流形排序和改进凸包的显著性检测方法
CN116704378A (zh) 一种基于自生长卷积神经网络的国土测绘数据分类方法
CN116109656A (zh) 一种基于无监督学习的交互式图像分割方法
CN116630610A (zh) 基于语义分割模型和条件随机场的roi区域提取方法
CN116129417A (zh) 一种基于低质量图像的数字仪表读数检测方法
Dalara et al. Entity Recognition in Indian Sculpture using CLAHE and machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination