CN112347930A - 基于自学习半监督深度神经网络高分影像场景分类方法 - Google Patents

基于自学习半监督深度神经网络高分影像场景分类方法 Download PDF

Info

Publication number
CN112347930A
CN112347930A CN202011232614.4A CN202011232614A CN112347930A CN 112347930 A CN112347930 A CN 112347930A CN 202011232614 A CN202011232614 A CN 202011232614A CN 112347930 A CN112347930 A CN 112347930A
Authority
CN
China
Prior art keywords
samples
network
remote sensing
scene classification
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011232614.4A
Other languages
English (en)
Other versions
CN112347930B (zh
Inventor
刘艳飞
王珍
丁乐乐
邢炜光
朱大勇
魏麟
潘宇明
王震
孟凡效
张涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Survey And Design Institute Group Co Ltd
Original Assignee
Tianjin Survey And Design Institute Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Survey And Design Institute Group Co Ltd filed Critical Tianjin Survey And Design Institute Group Co Ltd
Priority to CN202011232614.4A priority Critical patent/CN112347930B/zh
Publication of CN112347930A publication Critical patent/CN112347930A/zh
Application granted granted Critical
Publication of CN112347930B publication Critical patent/CN112347930B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Abstract

本发明提供了一种基于自学习半监督深度神经网络高分影像场景分类方法,该方法主要包括:S1数据准备;S2高分辨率遥感影像场景分类深度网络预训练;S3深度卷积神经网络半监督再训练;S4利用步骤S3得到的网络进行高分辨率遥感影像场景推断。该基于深度卷积神经网络高分影像场景分类方法,针对高分辨率遥感影像场景分类中面临的标注数据获取困难导致的模型训练困难问题,本发明提出了一种自学习半监督深度网络模型训练方法,有效地提升了有限标注样本下高分辨率遥感影像场景分类精度。

Description

基于自学习半监督深度神经网络高分影像场景分类方法
技术领域
本发明光学遥感图像处理技术领域,尤其涉及一种基于自学习半监督深度神经网络高分影像场景分类方法。
背景技术
随着IKONOS、Worldview系列、高分系列、高景一号等高分辨率遥感卫星的成功发射,高分辨率遥感数据已经成为对地精细观测的重要数据来源。遥感场景是由语义目标以某种空间分布构成的具有高层语义的复杂影像区域。因此即使获得如建筑、道路等精细地物目标识别结果,在获取如工业区、居民区等高层语义方面仍无能为力。为获取高层场景语义信息,如何跨越底层特征与高层场景语义之间存在的“语义鸿沟”,实现高分影像到高层场景语义之间的映射,是当前高分影像分类的一个热点问题。
为克服“语义鸿沟”问题,国内外研究学者相继展开了面向高分辨率遥感影像场景分类的方法的研究,目前已经发展出了基于语义目标的场景分类方法,基于中层特征的场景分类方法和基于深度特征的场景分类方法。基于语义目标的场景分类方法构建了一种“自底向上”的场景分类框架,其首先对遥感影像进行语义目标提取,然后对语义目标的空间关系进行建模获得最终的场景表达特征,如论文“Scene Semantic UnderstandingBased on the Spatial Context Relations of Multiple Objects.Remote Sensing,2017,9(10):1030”利用弹力直方图统计目标之间的位置关系作为场景表达特征用于分类。然而这种方法依赖于语义目标的提取精度和空间关系构建。不同于基于语义目标的场景分类方法,基于中层特征的方法不需要场景中目标的先验信息,直接对场景表达特征进行建模,典型的方法包括词袋模型,主题模型等。
然而以上两类方法都需要手工设计特征,依赖专家先验。深度学习作为一种数据驱动的学习框架,可以自动地从数据中学习本质特征,已经被成功应用于目标检测,人脸识别等领域。由于其强大的特征学习能力,已经被应用于高分影像场景分类。其中按照网络类型主要可以分为自编码模型和深度卷积神经网络模型。在基于自编码模型的场景分类方法中,其采用编码—解码的三层结构逐层对深度网络每一层进行预训练以获得良好的参数初始化。然而这类方法由于编码—解码结构的存在,训练深度网络时往往需要大量时间。相较于基于自编码的场景分类方法,基于卷积神经网络的方法不需要编码—解码结构,直接对整个网络模型进行训练,获得广泛研究。如论文“When Deep Learning Meets MetricLearning:Remote Sensing Image Scene Classification via LearningDiscriminative CNNs.IEEE Transactions on Geoscience and Remote Sensing,2018,56(5):2811-2821”为了提高深度卷积网络特征的辨别性,通过构建正负样本对并引入度量学习使得正样本对在特征空间彼此接近,负样本对彼此远离。论文“Large patchconvolutional neural networks for the scene classification of high spatialresolution imagery.Journal of Applied Remote Sensing,2016,10(2):025006”提出LPCNN从数据中进行切片来增加训练数据的个数和多样性,提高场景分类精度。
然而基于深度卷积神经网络的方法往往需要大量的标注数据用于网络模型的训练,当标注样本有限时,其学习到的特征表达泛化能力有限。针对标注数据有限条件下下的遥感场景分类任务,目前已经发展出了基于无监督深度学习方法、基于领域自适应的方法、基于半监督深度学习方法。在这三大类方法中,无监督深度学习方法和领域自适应方法往往不需要标记数据,然而这两类方法学习得到特征表达能力有限,场景分类精度较低。相较于基于无监督深度学习方法和领域自适应方法,基于半监督深度学习方法可以同时利用有限标注样本和大量未标记样本训练模型,有效提高模型泛化能力,具有较高分类精度。目前国内外学者已经对基于半监督深度学习场景分类开展了系列研究。如论文“Semi-Supervised Center Loss for Remote Sensing Image Scene Classification.IEEEJournal of Selected Topics in Applied Earth Observations and Remote Sensing,2020.13:1362-1373”基于度量学习框架将未标记样本纳入到深度网络的训练过程中,根据标记样本在深度特征空间计算类别中心,并利用类别中心有效距离范围内的未标记样本参与类别中心的校正,使得同类样本向其对应类别中心靠拢。“Semi-SupervisedRepresentation Learning for Remote Sensing Image Classification Based onGenerative Adversarial Networks.IEEE Access,2020.8:54135-54144”为提高模型的辨别性,利用标注数据和未标注数据训练对抗网络,并用对抗网络中的辨别网络用于最终的场景分类任务。论文“A semi-supervised generative framework with deep learningfeatures for high-resolution remote sensing image scene classification.ISPRSJournal of Photogrammetry and Remote Sensing,2018.145:23-43”将协同训练引入到半监督卷积神经网络场景分类中,利用标记训练样本分别训练两个不同的网络,同时利用验证集训练一个辨别网络,随后使用三个网络同时对未标记数据做预测,当三个网络对同一样本的预测一致时将其加入到训练集中,用于模型的训练。然而以上方法训练过程较为复杂,涉及多个网络的训练,训练难度较大。因此,如何利用有限样本训练深度卷积神经网络用于高分辨率遥感影像场景分类仍然需要进一步研究。
发明内容
有鉴于此,本发明旨在克服上述现有技术中存在的缺陷,提供一种基于自学习半监督深度神经网络高分影像场景分类方法,以解决高分辨率遥感影像场景分类问题。
为达到上述目的,本发明包括如下步骤:
S1:数据准备,本步骤进一步包括:
1.1确定感兴趣的遥感场景类别;
1.2收集高分辨率遥感影像并对每一类场景标注少量训练样本,最终获得大量未标注遥感场景图像样本和少量带有标注的遥感影像图像样本,标注量一般选取总量的10%-15%。
S2:高分辨率遥感影像场景分类深度网络预训练,本步骤进一步包括:
2.1定义网络结构,并构建深度卷积神经网络用于场景分类;
2.2训练数据预处理,本步骤进一步包括:
1)归一化处理,将遥感影像像素值除以255,使得像素位于[0,1]区间;
2)训练数据随机增强,对归一化后的图像随机进行平移、旋转、颜色变换等操作增加数据的多样性。
2.3利用少量已标注样本训练深度卷积网络,本步骤进一步包括:
1)深度特征提取,特征提取公式为:
f=CNN(x) (1)
其中x表示经过步骤2.2处理得到的影像,CNN(·)为深度卷积神经网络特征提取函数,f表示得到的深度特征。
2)利用分类器SoftMax进行深度特征分类,得到类别概率分布,具体公式为:
Figure BDA0002765707540000031
其中p(t|x)表示图像x属于某一类的后验概率,wc为SoftMax中第c类对应的参数向量,n表示总的类别个数。
3)计算场景分类损失函数Jsup,公式如下:
Figure BDA0002765707540000041
其中m为参与训练的样本个数,yi为参与训练的样本xi的类别标签,1(·)是指示函数定义如下:
Figure BDA0002765707540000042
4)采用随机梯度下降算法计算参数偏导数并更新网络参数,计算公式如下:
Figure BDA0002765707540000043
Figure BDA0002765707540000044
其中w为深度网络参数,
Figure BDA0002765707540000045
表示网络参数偏导数,lr表示学习率。
S3:深度卷积神经网络半监督再训练,本步骤进一步包括:
3.1从标注数据集中随机抽取指定数量的样本,计算标注样本的损失函数Jsup
3.2从未标注数据集中随机抽取指定数量的样本,计算未标注样本的损失函数Jusup,此步骤进一步包括:
1)计算抽取的未标注样本的类别概率分布p;
2)对任意未标注样本,当其类别概率分布p最大值大于预先设置的置信度阈值P_thrd,则将其加入集合Used;
3)利用集合Used中的未标注样本计算无监督损失函数Jusup
Figure BDA0002765707540000046
其中|Used|表示集合Used中的样本个数,yi为集合Used中第i个未标记样本的预测标签ID。
3.3计算总的半监督损失函数Jtotal
Jtotal=Jsup+βJusup (8)
其中β为无监督损失函数的权重。
3.4计算深度网络参数偏导并更新网络参数;
3.5重复步骤3.1-3.4至最大迭代次数。
S4:利用步骤S3得到的网络进行高分辨率遥感影像场景推断。
相对于现有技术,本发明的有益效果是:
(1)该基于自学习半监督深度神经网络高分影像场景分类方法,提供了一种基于深度卷积神经网络高分影像场景分类方法。
(2)该基于自学习半监督深度神经网络高分影像场景分类方法,针对高分辨率遥感影像场景分类中面临的标注数据获取困难导致的模型训练困难问题,本发明提出了一种自学习半监督深度网络模型训练方法。
(3)该基于自学习半监督深度神经网络高分影像场景分类方法,是一种端到端高分辨率遥感影像场景分类框架,无需人工干预。
附图说明
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
在附图中:
图1为本发明所述的一种基于自学习半监督深度神经网络高分影像场景分类方法的流程简图;
图2为本发明所述的一种基于自学习半监督深度神经网络高分影像场景分类方法的流程图。
具体实施方式
除有定义外,以下实施例中所用的技术术语具有与本发明所属领域技术人员普遍理解的相同含义。
为了更好地理解本发明技术方案,下面将结合附图和实施例对本发明做进一步详细说明。
步骤1,数据准备,本步骤进一步包括:
1.1确定感兴趣的遥感场景类别;
1.2收集高分辨率遥感影像并对每一类场景标注少量训练样本,最终获得大量未标注遥感场景图像样本和少量带有标注的遥感影像图像样本。
步骤2,高分辨率遥感影像场景分类深度网络预训练,本步骤进一步包括:
2.1定义构建深度卷积神经网络用于场景分类;
2.2训练数据预处理,本步骤进一步包括:
1)归一化处理,将遥感影像像素值除以255,使得像素位于[0,1]区间;
2)训练数据随机增强,对归一化后的图像随机进行平移、旋转、颜色变换等操作增加数据的多样性。
2.3利用少量已标注样本训练深度卷积网络,本步骤进一步包括:
1)深度特征提取,特征提取公式为:
f=CNN(x) (9)
其中x表示经过步骤2.2处理得到的影像,CNN(·)为深度卷积神经网络特征提取函数,f表示得到的深度特征。
2)利用分类器SoftMax进行深度特征分类,得到类别概率分布,具体公式为:
Figure BDA0002765707540000061
其中p(t|x)表示图像x属于某一类的后验概率,wc为SoftMax中第c类对应的参数向量,n表示总的类别个数。
3)计算场景分类损失函数Jsup,公式如下:
Figure BDA0002765707540000062
其中m为参与训练的样本个数,yi为参与训练的样本xi的类别标签,1(·)是指示函数定义如下:
Figure BDA0002765707540000071
4)采用随机梯度下降算法计算参数偏导数并更新网络参数,计算公式如下:
Figure BDA0002765707540000072
Figure BDA0002765707540000073
其中w为深度网络参数,
Figure BDA0002765707540000074
表示网络参数偏导数,lr表示学习率。
步骤3,深度卷积神经网络半监督再训练,本步骤进一步包括:
3.1从标注数据集中随机抽取指定数量的样本,计算标注样本的损失函数Jsup
3.2从未标注数据集中随机抽取指定数量的样本,计算未标注样本的损失函数Jusup,此步骤进一步包括:
1)计算抽取的未标注样本的类别概率分布p;
2)对任意未标注样本,当其类别概率分布p最大值大于预先设置的置信度阈值P_thrd,则将其加入集合Used;
3)利用集合Used中的未标注样本计算无监督损失函数Jusup
Figure BDA0002765707540000075
其中|Used|表示集合Used中的样本个数,yi为集合Used中第i个未标记样本的预测标签ID。
3.3计算总的半监督损失函数Jtotal
Jtotal=Jsup+βJusup (16)
其中β为无监督损失函数的权重。
3.4计算深度网络参数偏导并更新网络参数;
3.5重复步骤3.1-3.4至最大迭代次数。
步骤4,利用步骤3得到的网络进行高分辨率遥感影像场景推断。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种基于自学习半监督深度神经网络高分影像场景分类方法,其特征在于,包括以下步骤:
步骤1,数据准备,本步骤进一步包括:
步骤1.1,确定感兴趣的遥感场景类别;
步骤1.2,收集高分辨率遥感影像并对每一类场景标注若干训练样本,最终获得若干未标注遥感场景图像样本和若干带有标注的遥感影像图像样本;
步骤2,高分辨率遥感影像场景分类深度网络预训练,本步骤进一步包括:
步骤2.1,定义并构建深度卷积神经网络用于场景分类;
步骤2.2,训练数据预处理;
步骤2.3,利用已标注样本训练深度卷积网络;
步骤3,深度卷积神经网络半监督再训练,本步骤进一步包括:
步骤3.1,从标注数据集中随机抽取指定数量的样本,计算标注样本的损失函数Jsup
步骤3.2,从未标注数据集中随机抽取指定数量的样本,计算未标注样本的损失函数Jusup
步骤3.3,计算总的半监督损失函数Jtotal
步骤3.4,计算深度网络参数偏导并更新网络参数;
步骤3.5,重复步骤3.1-3.4至最大迭代次数。
步骤4,利用步骤3得到的网络进行高分辨率遥感影像场景推断。
2.对于权利要求1所述的基于自学习半监督深度神经网络高分影像场景分类方法,其特征在于,步骤2.3包含以下步骤:
步骤2.3.1,深度特征提取,特征提取公式为:
f=CNN(x) (1)
其中x表示经过步骤2.2处理得到的影像,CNN(·)为深度卷积神经网络特征提取函数,f表示得到的深度特征。
步骤2.3.2,利用分类器SoftMax进行深度特征分类,得到类别概率分布,具体公式为:
Figure FDA0002765707530000021
其中p(t|x)表示图像x属于某一类的后验概率,wc为SoftMax中第c类对应的参数向量,n表示总的类别个数。
步骤2.3.3,计算场景分类损失函数Jsup,公式如下:
Figure FDA0002765707530000022
其中m为参与训练的样本个数,yi为参与训练的样本xi的类别标签,1(·)是指示函数定义如下:
Figure FDA0002765707530000023
步骤2.3.4,采用随机梯度下降算法计算参数偏导数并更新网络参数,计算公式如下:
Figure FDA0002765707530000024
Figure FDA0002765707530000025
其中w为深度网络参数,
Figure FDA0002765707530000026
表示网络参数偏导数,lr表示学习率。
3.对于权利要求1所述的基于自学习半监督深度神经网络高分影像场景分类方法,其特征在于,步骤3包含以下步骤:
步骤3.1,从标注数据集中随机抽取指定数量的样本,计算标注样本的损失函数Jsup
步骤3.2,从未标注数据集中随机抽取指定数量的样本,计算未标注样本的损失函数Jusup,此步骤进一步包括:
步骤3.2.1,计算抽取的未标注样本的类别概率分布p;
步骤3.2.2,对任意未标注样本,当其类别概率分布p最大值大于置信度阈值P_thrd,则将其加入集合Used;
步骤3.2.3,利用集合Used中的未标注样本计算无监督损失函数Jusup
Figure FDA0002765707530000031
其中|Used|表示集合Used中的样本个数,yi为集合Used中第i个未标记样本的预测标签ID。
步骤3.3,计算总的半监督损失函数Jtotal
Jtotal=Jsup+βJusup (8)
其中β为无监督损失函数的权重。
步骤3.4,计算深度网络参数偏导并更新网络参数;
步骤3.5,重复步骤3.1-3.4至最大迭代次数。
CN202011232614.4A 2020-11-06 2020-11-06 基于自学习半监督深度神经网络高分影像场景分类方法 Active CN112347930B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011232614.4A CN112347930B (zh) 2020-11-06 2020-11-06 基于自学习半监督深度神经网络高分影像场景分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011232614.4A CN112347930B (zh) 2020-11-06 2020-11-06 基于自学习半监督深度神经网络高分影像场景分类方法

Publications (2)

Publication Number Publication Date
CN112347930A true CN112347930A (zh) 2021-02-09
CN112347930B CN112347930B (zh) 2022-11-29

Family

ID=74428563

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011232614.4A Active CN112347930B (zh) 2020-11-06 2020-11-06 基于自学习半监督深度神经网络高分影像场景分类方法

Country Status (1)

Country Link
CN (1) CN112347930B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378736A (zh) * 2021-06-18 2021-09-10 武汉大学 一种基于变换一致性正则化的遥感影像深度网络半监督语义分割方法
CN114549473A (zh) * 2022-02-23 2022-05-27 中国民用航空总局第二研究所 具备自主学习快速适应能力的道面检测方法及系统
CN116052018A (zh) * 2023-03-31 2023-05-02 北京数慧时空信息技术有限公司 基于终身学习的遥感影像解译方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853400A (zh) * 2010-05-20 2010-10-06 武汉大学 基于主动学习和半监督学习的多类图像分类方法
CN102096825A (zh) * 2011-03-23 2011-06-15 西安电子科技大学 基于图的半监督高光谱遥感图像分类方法
CN108133173A (zh) * 2017-11-24 2018-06-08 西安电子科技大学 基于半监督梯形网络的极化sar图像分类方法
CN110110745A (zh) * 2019-03-29 2019-08-09 上海海事大学 基于生成对抗网络的半监督x光图像自动标注
CN110909803A (zh) * 2019-11-26 2020-03-24 腾讯科技(深圳)有限公司 图像识别模型训练方法、装置和计算机可读存储介质
CN111046900A (zh) * 2019-10-25 2020-04-21 重庆邮电大学 基于局部流形正则化的半监督生成对抗网络图像分类方法
CN111476256A (zh) * 2019-01-24 2020-07-31 北京京东尚科信息技术有限公司 基于半监督学习的模型训练方法、装置及电子设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853400A (zh) * 2010-05-20 2010-10-06 武汉大学 基于主动学习和半监督学习的多类图像分类方法
CN102096825A (zh) * 2011-03-23 2011-06-15 西安电子科技大学 基于图的半监督高光谱遥感图像分类方法
CN108133173A (zh) * 2017-11-24 2018-06-08 西安电子科技大学 基于半监督梯形网络的极化sar图像分类方法
CN111476256A (zh) * 2019-01-24 2020-07-31 北京京东尚科信息技术有限公司 基于半监督学习的模型训练方法、装置及电子设备
CN110110745A (zh) * 2019-03-29 2019-08-09 上海海事大学 基于生成对抗网络的半监督x光图像自动标注
CN111046900A (zh) * 2019-10-25 2020-04-21 重庆邮电大学 基于局部流形正则化的半监督生成对抗网络图像分类方法
CN110909803A (zh) * 2019-11-26 2020-03-24 腾讯科技(深圳)有限公司 图像识别模型训练方法、装置和计算机可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
R. YASARLA ET AL.: "Syn2Real Transfer Learning for Image Deraining Using Gaussian Processes", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
刘艳飞: "面向高分辨率遥感影像场景分类的深度卷积神经网络方法", 《中国博士学位论文全文数据库 (基础学科辑)》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378736A (zh) * 2021-06-18 2021-09-10 武汉大学 一种基于变换一致性正则化的遥感影像深度网络半监督语义分割方法
CN114549473A (zh) * 2022-02-23 2022-05-27 中国民用航空总局第二研究所 具备自主学习快速适应能力的道面检测方法及系统
CN114549473B (zh) * 2022-02-23 2024-04-19 中国民用航空总局第二研究所 具备自主学习快速适应能力的道面检测方法及系统
CN116052018A (zh) * 2023-03-31 2023-05-02 北京数慧时空信息技术有限公司 基于终身学习的遥感影像解译方法
CN116052018B (zh) * 2023-03-31 2023-10-27 北京数慧时空信息技术有限公司 基于终身学习的遥感影像解译方法

Also Published As

Publication number Publication date
CN112347930B (zh) 2022-11-29

Similar Documents

Publication Publication Date Title
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN106897670B (zh) 一种基于计算机视觉的快递暴力分拣识别方法
CN109977918B (zh) 一种基于无监督域适应的目标检测定位优化方法
CN113378632B (zh) 一种基于伪标签优化的无监督域适应行人重识别方法
CN112347930B (zh) 基于自学习半监督深度神经网络高分影像场景分类方法
CN108062574B (zh) 一种基于特定类别空间约束的弱监督目标检测方法
CN114299380A (zh) 对比一致性学习的遥感图像语义分割模型训练方法及装置
Tao et al. Scene context-driven vehicle detection in high-resolution aerial images
CN107766890A (zh) 一种细粒度识别中判别性图块学习的改进方法
CN109033944B (zh) 一种全天空极光图像分类与关键局部结构定位方法及系统
CN110728694B (zh) 一种基于持续学习的长时视觉目标跟踪方法
CN108427919B (zh) 一种基于形状引导显著性模型的无监督油罐目标检测方法
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN106874862B (zh) 基于子模技术和半监督学习的人群计数方法
CN108038515A (zh) 无监督多目标检测跟踪方法及其存储装置与摄像装置
CN113034545A (zh) 一种基于CenterNet多目标跟踪算法的车辆跟踪方法
Gleason et al. A fusion approach for tree crown delineation from lidar data.
WO2022218396A1 (zh) 图像处理方法、装置和计算机可读存储介质
CN113408584A (zh) Rgb-d多模态特征融合3d目标检测方法
CN111259733A (zh) 一种基于点云图像的船舶识别方法及装置
Li et al. Transmission line detection in aerial images: An instance segmentation approach based on multitask neural networks
CN115439715A (zh) 基于反标签学习的半监督少样本图像分类学习方法及系统
CN117152503A (zh) 一种基于伪标签不确定性感知的遥感图像跨域小样本分类方法
CN110400335B (zh) 基于深度学习的纹理图像质量估计方法
CN115908924A (zh) 一种基于多分类器的小样本高光谱图像语义分割方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20210209

Assignee: STARGIS (TIANJIN) TECHNOLOGY DEVELOPMENT Co.,Ltd.

Assignor: Tianjin survey and Design Institute Group Co.,Ltd.

Contract record no.: X2023980054279

Denomination of invention: A High Resolution Image Scene Classification Method Based on Self Learning Semi Supervised Deep Neural Network

Granted publication date: 20221129

License type: Common License

Record date: 20231227