CN116109945A - 基于有序持续学习的遥感影像解译方法 - Google Patents

基于有序持续学习的遥感影像解译方法 Download PDF

Info

Publication number
CN116109945A
CN116109945A CN202310384943.8A CN202310384943A CN116109945A CN 116109945 A CN116109945 A CN 116109945A CN 202310384943 A CN202310384943 A CN 202310384943A CN 116109945 A CN116109945 A CN 116109945A
Authority
CN
China
Prior art keywords
remote sensing
sensing image
network
image interpretation
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310384943.8A
Other languages
English (en)
Other versions
CN116109945B (zh
Inventor
鲁锦涛
陈婷
吴皓
陈宇
彭哲
李洁
邹圣兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Shuhui Spatiotemporal Information Technology Co ltd
Original Assignee
Beijing Shuhui Spatiotemporal Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Shuhui Spatiotemporal Information Technology Co ltd filed Critical Beijing Shuhui Spatiotemporal Information Technology Co ltd
Priority to CN202310384943.8A priority Critical patent/CN116109945B/zh
Publication of CN116109945A publication Critical patent/CN116109945A/zh
Application granted granted Critical
Publication of CN116109945B publication Critical patent/CN116109945B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于有序持续学习的遥感影像解译方法,涉及遥感影像处理领域,包括:S1获取N个遥感影像解译任务、已标注地物样本数据、未标注待解译数据;S2构建第一网络和第二网络,使用N个遥感影像解译任务和样本数据对第一网络进行训练;S3根据每个样本数据的预测结果计算得到其第一评价值,根据每个解译任务的预测结果计算得到其第二评价值;S4结合第一评价值和弹性权重固化方法,使用N个解译任务按照训练顺序对第二网络进行训练;S5使用训练后的第二网络对未标注待解译数据进行解译,得到解译结果。本发明能够实现面向多个遥感解译任务的按由易到难顺序进行的全自动持续学习,能够有效避免灾难性遗忘。

Description

基于有序持续学习的遥感影像解译方法
技术领域
本发明涉及遥感影像处理领域,具体涉及一种基于有序持续学习的遥感影像解译方法。
背景技术
目前的遥感影像解译方法主要有两种。第一种为传统的模式识别方法,该方法利用影像的光谱、几何、纹理特征,或者专家知识和经验指数,构建特征知识库实现“经验化”的解译过程,主要包括特征抽取、特征融合及选择,以及特征分类三个步骤。然而传统模式识别方法由于图像分割、特征选择等环节缺乏普适的原则或理论,在大范围复杂影像中难以达到实际应用所需的精度和鲁棒性。
第二种为人工智能的方法,目前人工智能用于遥感解译的方法主要为深度学习方法,构建卷积神经网络,使用已标注的遥感样本作为训练数据,训练卷积神经网络,使用训练好的神经网络进行解译工作。目前使用的人工智能技术问题在于,每针对一个新任务和一组不同的训练数据,就需要构建一个新的模型并进行重新训练。持续学习方向的研究目标为持续使用新任务训练同一个模型并得到较好的效果。但是目前该方向的研究会遇到以下常见问题:1. 灾难性遗忘,模型在学习了新的解译任务后,在旧任务上的解译效果会明显下降; 2. 对同一模型,解译任务和训练数据的顺序也会导致模型对各解译任务的解译精度和整体的解译精度不同。
发明内容
本发明提出一种基于有序持续学习的遥感影像解译方法,能够解决上述现有技术的问题,
为实现上述技术目的,本发明的技术方案如下:
一种基于有序持续学习的遥感影像解译方法,该方法包括以下步骤:
S1获取N个遥感影像解译任务,每个遥感影像解译任务对应一组目标影像数据,目标影像数据包括已标注地物样本数据和未标注待解译数据,已标注地物样本数据包括真实标签,N为大于1的整数;
S2构建第一网络和第二网络,使用N个遥感影像解译任务及其对应的已标注地物样本数据对第一网络进行训练,得到所有的已标注地物样本数据的预测结果,其中,同一组已标注地物样本数据的预测结果作为对应的遥感影像解译任务的预测结果;
S3根据每个已标注地物样本数据的预测结果计算得到其第一评价值,根据每个遥感影像解译任务的预测结果计算得到其第二评价值;
S4结合第一评价值和弹性权重固化方法,使用N个遥感影像解译任务按照训练顺序对第二网络进行训练,得到训练后的第二网络,其中训练顺序由第二评价值确定;
S5使用训练后的第二网络对N个遥感影像解译任务对应的未标注待解译数据进行解译,得到解译结果。
进一步地,步骤S2包括:
S21随机初始化第一网络;
S22选取N个遥感影像解译任务中的一个作为当前任务;
S23将当前任务对应的目标影像数据中的已标注地物样本数据划分为k份,使用k-fold交叉验证方法对第一网络进行k次解译训练,将第k次训练过程中所有已标注地物样本数据的预测结果作为当前任务的预测结果;
S24重复步骤S22-S23,直到N个遥感影像解译任务均得到预测结果,将N个遥感影像解译任务与相对应的预测结果进行关联并存储。
进一步地,步骤S3中,第一评价值为:
其中,V1为第一评价值,xi为已标注地物样本数据,为第一网络对xi的预测结果,r为第一评价值的可调参数,m为真实标签的种类,是第一网络的参数;
第二评价值为:
其中,V2a为第a个遥感影像解译任务的第二评价值,precisiona为第a个遥感影像解译任务的预测结果的精确率,recalla为第a个遥感影像解译任务的预测结果的召回率。
进一步地,步骤S4包括:
S41使用第一评价值和弹性权重固化方法构建第一损失函数和第二损失函数;
S42根据第二评价值从大到小的顺序对N个遥感影像解译任务进行排序,将该顺序作为训练顺序;
S43根据训练顺序依次选取遥感影像解译任务训练第二网络,在训练时,第一个选取的遥感影像解译任务使用第一损失函数对网络进行约束,其余的遥感影像解译任务使用第二损失函数对网络进行约束。
进一步地,第一损失函数和第二损失函数为:
其中Loss1为第一损失函数,Loss2为第二损失函数,n为已标注地物样本数据的数量,i为当前已标注地物样本数据的序号,C为当前遥感影像解译任务对应的已标注地物样本数据的真实标签的种类数,xi为已标注地物样本数据,为第一网络对xi的预测结果,为xi的第一评价值,r为第一评价值的可调参数,m为真实标签的第m类,是第一网络的参数,是第二网络的参数,L为预设函数,为第二网络对xi的预测结果,Tm表示xi的真实标签为第m类,λ和u为可调参数,Fj为费希尔信息矩阵的第j个对角线元素,为训练新任务时第二网络的第j个参数,为训练旧任务时第二网络的第j个参数。
进一步地,预设函数为交叉熵损失函数或Hinge损失函数或指数损失函数或平方损失函数或log对数损失函数或绝对值损失函数或0-1损失函数。
进一步地,已标注地物样本数据包括地物样本块和地物标签数据;
未标注待解译数据由待解译影像根据切片规格进行分块处理得到。
进一步地,步骤S1中遥感影像解译任务包括面向遥感地物的分类任务和语义分割任务。
进一步地,步骤S2中的第一网络和第二网络是基于相同结构的深度卷积神经网络进行构建的。
进一步地,遥感影像解译任务的预测结果的精确率和遥感影像解译任务的预测结果的召回率均根据遥感影像解译任务的预测结果和对应的已标注地物样本数据的真实标签进行计算得到。
本发明提出了一种基于有序持续学习的遥感影像解译方法,构建了第一网络和第二网络,通过使用多个解译任务训练第一网络,得到第一网络的预测结果,根据预测结果与样本数据的真实标签,得到用于指导第二网络的训练顺序的第一评价值和第二评价值,结合第一评价值、第二评价值和弹性权重固化方法实现避免灾难性遗忘的有序持续学习。本发明的有益效果为:
(1)解决了单一模型在持续学习多个任务时遇到的灾难性遗忘问题。
(2)通过结合课程学习和弹性权重固化方法,实现了自动化的有序持续学习,能够自动确定训练样本和解译任务的最优顺序,并按顺序进行解译训练。
(3)模拟了人类在学习过程从简单到困难的过程,这种难度递进的学习顺序能够让智能体学习到问题的本质,并提升训练的效率。
(4)训练好的解译模型能够高精度地完成各个已学习任务。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于有序持续学习的遥感影像解译方法一实施例的流程示意图;
图2为本发明基于有序持续学习的遥感影像解译方法一实施例中DenseNet的结构示意图;
图3为本发明基于有序持续学习的遥感影像解译方法一实施例中第一评价值与已标注地物样本数据和遥感影像解译任务的关系示意图;
图4为本发明基于有序持续学习的遥感影像解译方法一实施例中第二评价值与已标注地物样本数据和遥感影像解译任务的关系示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
请参照图1,图1是本发明所述的基于有序持续学习的遥感影像解译方法流程示意图,相比于通用的深度学习方法,该方法实现了单个模型的有序持续学习,克服了灾难性遗忘问题,并通过先训练简单样本和解译任务,后训练困难的,提升了持续学习的精度,该方法包括以下步骤:
S1获取N个遥感影像解译任务,每个遥感影像解译任务对应一组目标影像数据,目标影像数据包括已标注地物样本数据和未标注待解译数据,已标注地物样本数据包括真实标签,N为大于1的整数。
具体地,感影像解译任务包括面向遥感地物的分类任务和语义分割任务。
本实施例中获取10个遥感影像解译任务,解译任务为在目标影像范围内进行目标地物分类。10个遥感影像解译任务的目标影像数据来自多个卫星星源和传感器,包括GF1、GF2和GF6卫星,影像分辨率包括1m、2m、4m和8m。不同的解译任务包括不同种类的目标地物,地物种类包括小麦、玉米、水稻、建构筑物、沟渠。
具体地,目标影像数据包括已标注地物样本数据和未标注待解译数据,已标注地物样本数据包括地物样本块和地物标签数据,未标注待解译数据由待解译影像根据切片规格进行分块处理得到。其中,地物标签数据为真实标签,地物样本由人工勾画得到,要求边缘清晰、形状完整,保证后续训练和解译的精确度。
S2构建第一网络和第二网络,使用N个遥感影像解译任务及其对应的已标注地物样本数据对第一网络进行训练,得到所有的已标注地物样本数据的预测结果,其中,同一组已标注地物样本数据的预测结果作为对应的遥感影像解译任务的预测结果。
具体地,将第一网络预测的结果,作为已标注地物样本数据和遥感影像解译任务难易程度的判断依据,来指导第二网络的训练。
本实施例中构建的第一网络和第二网络是基于相同结构的深度卷积神经网络进行构建的。使用相同结构的神经网络能够在一定程度上保证第一网络与第二网络学习过程的相关性,提高对第二网络的指导意义。
在本发明一具体实施例中,使用的深度卷积神经网络为DenseNet。DenseNet是一种具有密集连接的卷积神经网络。在该网络中,任何两层之间都有直接的连接,网络每一层的输入都是前面所有层输出的并集,而该层所学习的特征图也会被直接传给其后面所有层作为输入。得益于dense block的设计,DenseNet有着网络窄、参数少的优点。DenseNet的这种连接方式使得特征和梯度的传递更加有效,网络也就更加容易训练。由于在持续学习和终身学习中,同一个模型会持续不断地接收新数据和新任务进行训练,总体的训练量非常庞大并且会不断增长。因而使用DenseNet来减少训练的时间,提高训练的效率。DenseNet模型结构如图2所示。DenseNet由3个Dense Block和2个Transition Block组成,模型输入256×256遥感图像块,后续依次经过卷积层、Dense Block、Transition Block、Dense Block、Transition Block、Dense Block、Classification Block、softmax,输出预测结果。网络模型训练参数为:growth_rate=16,dense_layer=3,num_epochs=300,learning_rate=0.01。
具体地,步骤S2包括:
S21随机初始化第一网络;
S22选取N个遥感影像解译任务中的一个作为当前任务;
S23将当前任务对应的目标影像数据中的已标注地物样本数据划分为k份,使用k-fold交叉验证方法对第一网络进行k次解译训练,将第k次训练过程中所有已标注地物样本数据的预测结果作为当前任务的预测结果;
S24重复步骤S22-S23,直到N个遥感影像解译任务均得到预测结果,将N个遥感影像解译任务与相对应的预测结果进行关联并存储。
其中,已标注地物样本数据的预测结果指的是该已标注地物样本数据属于各类别的概率集合,类别为已标注地物样本数据的标签类别。
需要说明的是,本实施例中,每个遥感影像解译任务对应的已标注地物样本数据的数量较为有限,如果直接一次性把所有的数据都用于训练模型容易导致模型过拟合。通过k-fold交叉验证对数据每次都随机进行划分和对评估结果的整合,能够有效的降低模型选择中的方差。本实施例中选择10作为k值。
S3根据每个已标注地物样本数据的预测结果计算得到其第一评价值,根据每个遥感影像解译任务的预测结果计算得到其第二评价值。
本实施例中,第一评价值为:
其中,V1为第一评价值,xi为已标注地物样本数据,为第一网络对xi的预测结果,r为第一评价值的可调参数,m为真实标签的种类,是第一网络的参数;
第二评价值为:
其中,V2a为第a个遥感影像解译任务的第二评价值,precisiona为第a个遥感影像解译任务的预测结果的精确率,recalla为第a个遥感影像解译任务的预测结果的召回率。
具体地,遥感影像解译任务的预测结果的精确率和遥感影像解译任务的预测结果的召回率均根据遥感影像解译任务的预测结果和对应的已标注地物样本数据的真实标签进行计算得到。
在本实施例中,每个已标注地物样本数据对应一个第一评价值,每个遥感影像解译任务对应一个第二评价值。第一评价值与已标注地物样本数据和遥感影像解译任务的关系如图3所示,第二评价值与已标注地物样本数据和遥感影像解译任务的关系如图4所示。
S4结合第一评价值和弹性权重固化方法,使用N个遥感影像解译任务按照训练顺序对第二网络进行训练,得到训练后的第二网络,其中训练顺序由第二评价值确定。
需要说明的是,弹性权重固化(EWC)方法中使用费希尔信息值确定神经网络参数对于上个任务的重要性,将重要性参数作为后续训练过程中的约束值,保护重要参数,避免灾难性遗忘问题。
具体地,步骤S4包括:
S41使用第一评价值和弹性权重固化方法构建第一损失函数和第二损失函数;
S42根据第二评价值从大到小的顺序对N个遥感影像解译任务进行排序,将该顺序作为训练顺序;
S43根据训练顺序依次选取遥感影像解译任务训练第二网络,在训练时,第一个选取的遥感影像解译任务使用第一损失函数对网络进行约束,其余的遥感影像解译任务使用第二损失函数对网络进行约束。
本实施例中,第一损失函数和第二损失函数为:
其中Loss1为第一损失函数,Loss2为第二损失函数,n为已标注地物样本数据的数量,i为当前已标注地物样本数据的序号,C为当前遥感影像解译任务对应的已标注地物样本数据的真实标签的种类数,xi为已标注地物样本数据,为第一网络对xi的预测结果,为xi的第一评价值,r为第一评价值的可调参数,m为真实标签的第m类,是第一网络的参数,是第二网络的参数,L为预设函数,为第二网络对xi的预测结果,Tm表示xi的真实标签为第m类,λ和u为可调参数,Fj为费希尔信息矩阵的第j个对角线元素,为训练新任务时第二网络的第j个参数,为训练旧任务时第二网络的第j个参数。
在本发明一具体实施例中,预设函数为交叉熵损失函数或Hinge损失函数或指数损失函数或平方损失函数或log对数损失函数或绝对值损失函数或0-1损失函数。
需要说明的是,本发明在进行具体实施例的详细描述时,假设的是单个遥感影像解译任务对应的已标注地物样本数据的数量为n个,n既可以是定量,即每个遥感影像解译任务均选取相同数量的已标注地物样本数据,但考虑到实际应用时,不同的解译任务未必能恰好选取相同数量的样本数据,因此,n也可以是变量,即每个遥感影像解译任务对应的已标注地物样本数据的数量不尽相同,具体n的取值根据每个遥感影像解译任务的实际情况来确定,但为了保证任务训练的准确性,不同解译任务的样本数据的数量不应相差过大,最好差值在3以内。
该方法能够在EWC方法的基础上进一步避免灾难性遗忘问题,提升了网络训练的效率和训练的效果。
S5使用训练后的第二网络对N个遥感影像解译任务对应的未标注待解译数据进行解译,得到解译结果。
本实施例中对解译网络进行完整训练后再对所有任务进行解译。由于解译网络能够通过各个任务进行训练且不产生遗忘,因而在解译的过程中也不需要限定解译任务的顺序。未标注的待解译数据由待解译影像根据切片规格进行分块处理得到。由于不同解译任务的待解译影像分辨率可以不同,针对不同分辨率的影像,切片规格也进行适应性调整,总体保证影像划分得到的影像块数量相同,均为1212。
本发明提出了一种基于有序持续学习的遥感影像解译方法,构建了第一网络和第二网络,通过使用多个解译任务训练第一网络,得到第一网络的预测结果,根据预测结果与样本数据的真实标签,得到用于指导第二网络的训练顺序的第一评价值和第二评价值,结合第一评价值、第二评价值和弹性权重固化方法实现避免灾难性遗忘的有序持续学习。本发明的有益效果为:
(1)解决了单一模型在持续学习多个任务时遇到的灾难性遗忘问题。
(2)通过结合课程学习和弹性权重固化方法,实现了自动化的有序持续学习,能够自动确定训练样本和解译任务的最优顺序,并按顺序进行解译训练。
(3)模拟了人类在学习过程从简单到困难的过程,这种难度递进的学习顺序能够让智能体学习到问题的本质,并提升训练的效率。
(4)训练好的解译模型能够高精度地完成各个已学习任务。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.基于有序持续学习的遥感影像解译方法,其特征在于,包括如下步骤:
S1获取N个遥感影像解译任务,每个遥感影像解译任务对应一组目标影像数据,目标影像数据包括已标注地物样本数据和未标注待解译数据,已标注地物样本数据包括真实标签,N为大于1的整数;
S2构建第一网络和第二网络,使用N个遥感影像解译任务及其对应的已标注地物样本数据对第一网络进行训练,得到所有的已标注地物样本数据的预测结果,其中,同一组已标注地物样本数据的预测结果作为对应的遥感影像解译任务的预测结果;
S3根据每个已标注地物样本数据的预测结果计算得到其第一评价值,根据每个遥感影像解译任务的预测结果计算得到其第二评价值;
S4结合第一评价值和弹性权重固化方法,使用N个遥感影像解译任务按照训练顺序对第二网络进行训练,得到训练后的第二网络,其中训练顺序由第二评价值确定;
S5使用训练后的第二网络对N个遥感影像解译任务对应的未标注待解译数据进行解译,得到解译结果。
2.根据权利要求1所述的基于有序持续学习的遥感影像解译方法,其特征在于,步骤S2包括:
S21随机初始化第一网络;
S22选取N个遥感影像解译任务中的一个作为当前任务;
S23将当前任务对应的目标影像数据中的已标注地物样本数据划分为k份,使用k-fold交叉验证方法对第一网络进行k次解译训练,将第k次训练过程中所有已标注地物样本数据的预测结果作为当前任务的预测结果;
S24重复步骤S22-S23,直到N个遥感影像解译任务均得到预测结果,将N个遥感影像解译任务与相对应的预测结果进行关联并存储。
3.根据权利要求2所述的基于有序持续学习的遥感影像解译方法,其特征在于,步骤S3中,第一评价值为:
其中,V1为第一评价值,xi为已标注地物样本数据,为第一网络对xi的预测结果,r为第一评价值的可调参数,m为真实标签的种类,是第一网络的参数;
第二评价值为:
其中,V2a为第a个遥感影像解译任务的第二评价值,precisiona为第a个遥感影像解译任务的预测结果的精确率,recalla为第a个遥感影像解译任务的预测结果的召回率。
4.根据权利要求1所述的基于有序持续学习的遥感影像解译方法,其特征在于,步骤S4包括:
S41使用第一评价值和弹性权重固化方法构建第一损失函数和第二损失函数;
S42根据第二评价值从大到小的顺序对N个遥感影像解译任务进行排序,将该顺序作为训练顺序;
S43根据训练顺序依次选取遥感影像解译任务训练第二网络,在训练时,第一个选取的遥感影像解译任务使用第一损失函数对网络进行约束,其余的遥感影像解译任务使用第二损失函数对网络进行约束。
5.根据权利要求4所述的基于有序持续学习的遥感影像解译方法,其特征在于,第一损失函数和第二损失函数为:
其中Loss1为第一损失函数,Loss2为第二损失函数,n为已标注地物样本数据的数量,i为当前已标注地物样本数据的序号,C为当前遥感影像解译任务对应的已标注地物样本数据的真实标签的种类数,xi为已标注地物样本数据,为第一网络对xi的预测结果,为xi的第一评价值,r为第一评价值的可调参数,m为真实标签的第m类,是第一网络的参数,是第二网络的参数,L为预设函数,为第二网络对xi的预测结果,Tm表示xi的真实标签为第m类,λ和u为可调参数,Fj为费希尔信息矩阵的第j个对角线元素,为训练新任务时第二网络的第j个参数,为训练旧任务时第二网络的第j个参数。
6.根据权利要求5所述的基于有序持续学习的遥感影像解译方法,其特征在于,预设函数为交叉熵损失函数或Hinge损失函数或指数损失函数或平方损失函数或log对数损失函数或绝对值损失函数或0-1损失函数。
7.根据权利要求1所述的基于有序持续学习的遥感影像解译方法,其特征在于:
已标注地物样本数据包括地物样本块和地物标签数据;
未标注待解译数据由待解译影像根据切片规格进行分块处理得到。
8.根据权利要求1所述的基于有序持续学习的遥感影像解译方法,其特征在于,步骤S1中遥感影像解译任务包括面向遥感地物的分类任务和语义分割任务。
9.根据权利要求1所述的基于有序持续学习的遥感影像解译方法,其特征在于,步骤S2中的第一网络和第二网络是基于相同结构的深度卷积神经网络进行构建的。
10.根据权利要求3所述的基于有序持续学习的遥感影像解译方法,其特征在于,遥感影像解译任务的预测结果的精确率和遥感影像解译任务的预测结果的召回率均根据遥感影像解译任务的预测结果和对应的已标注地物样本数据的真实标签进行计算得到。
CN202310384943.8A 2023-04-12 2023-04-12 基于有序持续学习的遥感影像解译方法 Active CN116109945B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310384943.8A CN116109945B (zh) 2023-04-12 2023-04-12 基于有序持续学习的遥感影像解译方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310384943.8A CN116109945B (zh) 2023-04-12 2023-04-12 基于有序持续学习的遥感影像解译方法

Publications (2)

Publication Number Publication Date
CN116109945A true CN116109945A (zh) 2023-05-12
CN116109945B CN116109945B (zh) 2023-06-20

Family

ID=86267594

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310384943.8A Active CN116109945B (zh) 2023-04-12 2023-04-12 基于有序持续学习的遥感影像解译方法

Country Status (1)

Country Link
CN (1) CN116109945B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385888A (zh) * 2023-06-06 2023-07-04 山东省国土空间数据和遥感技术研究院(山东省海域动态监视监测中心) 解译标志确定方法和装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109117944A (zh) * 2018-08-03 2019-01-01 北京悦图遥感科技发展有限公司 一种轮船目标遥感影像的超分辨率重建方法及系统
CN111582043A (zh) * 2020-04-15 2020-08-25 电子科技大学 基于多任务学习的高分辨率遥感影像地物变化检测方法
CN111989696A (zh) * 2018-04-18 2020-11-24 渊慧科技有限公司 具有顺序学习任务的域中的可扩展持续学习的神经网络
US20220129751A1 (en) * 2020-10-23 2022-04-28 California Institute Of Technology Scalable and distributed machine learning framework with unified encoder (sulu)
CN114581777A (zh) * 2022-03-08 2022-06-03 中南大学 一种次序感知的遥感图像实例增量检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111989696A (zh) * 2018-04-18 2020-11-24 渊慧科技有限公司 具有顺序学习任务的域中的可扩展持续学习的神经网络
CN109117944A (zh) * 2018-08-03 2019-01-01 北京悦图遥感科技发展有限公司 一种轮船目标遥感影像的超分辨率重建方法及系统
CN111582043A (zh) * 2020-04-15 2020-08-25 电子科技大学 基于多任务学习的高分辨率遥感影像地物变化检测方法
US20220129751A1 (en) * 2020-10-23 2022-04-28 California Institute Of Technology Scalable and distributed machine learning framework with unified encoder (sulu)
CN114581777A (zh) * 2022-03-08 2022-06-03 中南大学 一种次序感知的遥感图像实例增量检测方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385888A (zh) * 2023-06-06 2023-07-04 山东省国土空间数据和遥感技术研究院(山东省海域动态监视监测中心) 解译标志确定方法和装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN116109945B (zh) 2023-06-20

Similar Documents

Publication Publication Date Title
CN109241972B (zh) 基于深度学习的图像语义分割方法
CN111260030B (zh) 基于a-tcn电力负荷预测方法、装置、计算机设备及存储介质
CN109523013B (zh) 基于浅层卷积神经网络的空气颗粒物污染程度估计方法
CN110298387A (zh) 融入像素级attention机制的深度神经网络目标检测方法
CN111476285B (zh) 一种图像分类模型的训练方法及图像分类方法、存储介质
CN110134774A (zh) 一种基于注意力决策的图像视觉问答模型、方法和系统
CN111881958B (zh) 车牌分类识别方法、装置、设备及存储介质
CN110210513A (zh) 数据分类方法、装置及终端设备
CN114445634A (zh) 一种基于深度学习模型的海浪波高预测方法及系统
CN109033107A (zh) 图像检索方法和装置、计算机设备和存储介质
CN116109945B (zh) 基于有序持续学习的遥感影像解译方法
CN113627093B (zh) 一种基于改进Unet网络的水下机构跨尺度流场特征预测方法
EP3502978A1 (en) Meta-learning system
CN115982534B (zh) 一种江河水文监测数据的处理方法
CN112766603A (zh) 一种交通流量预测方法、系统、计算机设备及存储介质
CN116563683A (zh) 一种基于卷积神经网络和多层感知机的遥感影像场景分类方法
CN117828407B (zh) 双向跳跃存储的双阶段门控注意力时序分类方法及系统
CN118312792A (zh) 一种海洋浮标数据质量人工智能检测方法及系统
CN117636183A (zh) 一种基于自监督预训练的小样本遥感图像分类方法
CN116052018B (zh) 基于终身学习的遥感影像解译方法
CN117671278A (zh) 电力图像数据处理方法、装置、设备、介质和程序产品
CN117409316A (zh) 一种基于TransUNet的地震数据喀斯特特征智能识别定位方法
CN115797795B (zh) 基于强化学习的遥感影像问答式检索系统及方法
CN116796186A (zh) 融合双注意力机制的多维时序数据预测方法、系统
CN116310477A (zh) 基于S_ReLU脉冲神经网络的图像分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant