CN116486076A - 一种遥感图像语义分割方法、系统、设备及存储介质 - Google Patents

一种遥感图像语义分割方法、系统、设备及存储介质 Download PDF

Info

Publication number
CN116486076A
CN116486076A CN202310339758.7A CN202310339758A CN116486076A CN 116486076 A CN116486076 A CN 116486076A CN 202310339758 A CN202310339758 A CN 202310339758A CN 116486076 A CN116486076 A CN 116486076A
Authority
CN
China
Prior art keywords
model
teacher
pseudo
student
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202310339758.7A
Other languages
English (en)
Inventor
贾勇
吴宏林
付勇泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha University of Science and Technology
Original Assignee
Changsha University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha University of Science and Technology filed Critical Changsha University of Science and Technology
Priority to CN202310339758.7A priority Critical patent/CN116486076A/zh
Publication of CN116486076A publication Critical patent/CN116486076A/zh
Priority to CN202410262346.2A priority patent/CN118196410A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种遥感图像语义分割方法、系统、设备及存储介质,包括将无标签图像与有标签图像均分别输入至两个教师模型中,得到两个教师模型分别输出的各自对应的伪标签;将无标签图像和有标签图像均分别输入至两个学生模型中,以使任意一个学生模型基于有监督损失和伪监督损失完成模型训练,通过双教师模型与互相监督的方法提高了模型的泛化能力,采用指数移动平均值根据训练完成的学生模型的训练参数更新教师模型的训练参数,以使教师模型完成训练,并选取训练完成的教师模型中损失函数更小的作为最终分割模型;将无标签图像输入最终分割模型,得到无标签图像的语义分割结果,提升了遥感图像语义分割准确度。

Description

一种遥感图像语义分割方法、系统、设备及存储介质
技术领域
本发明涉及遥感图像语义分割相关技术领域,尤其是涉及一种遥感图像语义分割方法、系统、设备及存储介质。
背景技术
在遥感图像的研究中,遥感图像的语义分割针对遥感影像中每一个像素点进行分类,一直是遥感图像中一个重要的研究方向。传统的遥感图像语义分割的方法经常使用机器学习算法,但分类的准确度还需要进一步提高。近些年以来,随着深度学习的发展,卷积神经网络(CNN)具有出色特征提取能力的已经被广泛应用于图像处理的各个领域,如场景分类等。Long提出了全卷积网络(FCN),把CNN网络中的全连接层换成全卷积层。与以往的图像分类方法不同,FCN可以实现任意大小的图像分割。SegNet提出了反卷积结构,通过跳过连接来利用中间层的特征。Gangfu等提出了一种多尺度的网络结构,取代了传统的卷积,膨胀的卷积增加感受野而不降低空间分辨率。空洞空间金字塔结构(ASPP)主要是提出了多个空洞卷积分支,它们有不同空洞率,来提取多尺度特征,对图像中目标的分割精度提升明显。Deeplabv3网络经过多次改进,目前已经成为深度学习语义分割领域最为成功的网络模型。其最新的版本Deeplabv3+在多个公开数据集上取得了最高精度。多尺度整合可以有效解决目标分割问题。单个神经网络模型具有多个不同大小的感受野来适应多个尺寸的目标分割。鉴于全卷积网络具有相比于传统机器学习的优秀性能,许多学者将CNN应用于遥感图像语义分割,深度卷积网络在遥感图像的很多领域都起着越来越重要的作用。还有的提出两个独立的全卷积网络分支,采用光学遥感的分割图像和高度信息作为两个分支的输入。经过一系列的卷积运算后,两个分支的预测分割结果加以融合。以上这些方法在标注数据充足时能够取得较为理想的效果。
目前,自训练方法首先会在有标注图像上完全训练得到一个初始的教师模型,然后使用该教师模型对所有的无标注图像进行预测得到one-hot伪标签,最后混合有标签图像和无标签图像及其伪标签,在其上重新训练一个学生模型,从而学习到更强的特征表示和更好的分割精度。因此针对无标签数据的伪标签的质量直接决定了模型的训练效果。由于标注数据不足和遥感图像的高复杂性会使得产生很多低质量的伪标签,将引入大量噪声数据,使得再训练阶段非常不稳定并且过度拟合到错误的数据,将带来确认偏差问题。
发明内容
本发明旨在至少解决现有技术中存在的技术问题。为此,本发明提出一种遥感图像语义分割方法、系统、设备及存储介质,能够提高模型的泛化能力,提升遥感图像语义分割准确度。
本发明的第一方面,提供了一种遥感图像语义分割方法,包括如下步骤:
获取无标签图像和有标签图像,构建网络结构相同但初始训练参数不同的两个教师模型和网络结构相同但初始训练参数不同的两个学生模型;
将所述无标签图像与所述有标签图像均分别输入至两个所述教师模型中,得到两个所述教师模型分别输出的各自对应的伪标签;
将所述无标签图像和所述有标签图像均分别输入至两个所述学生模型中,以使任意一个所述学生模型基于有监督损失和伪监督损失完成模型训练,其中,所述有监督损失包括该所述学生模型产生与所述有标签图像相关的损失,所述伪监督损失包括该所述学生模型根据所述伪标签作为伪标签监督信号产生与所述无标签图像相关的损失以及另一个所述学生模型根据所述伪标签作为伪标签监督信号产生与所述无标签图像相关的交叉伪监督损失;
采用指数移动平均值根据训练完成的所述学生模型的训练参数更新所述教师模型的训练参数,以使所述教师模型完成训练,并选取训练完成的所述教师模型中损失函数更小的作为最终分割模型;
将所述无标签图像输入最终分割模型,得到所述无标签图像的语义分割结果。
根据本发明实施例的控制方法,至少具有如下有益效果:
本方法通过获取无标签图像和有标签图像,构建网络结构相同但初始训练参数不同的两个教师模型和网络结构相同但初始训练参数不同的两个学生模型;将无标签图像与有标签图像均分别输入至两个教师模型中,得到两个教师模型分别输出的各自对应的伪标签;将无标签图像和有标签图像均分别输入至两个学生模型中,以使任意一个学生模型基于有监督损失和伪监督损失完成模型训练,其中,有监督损失包括该学生模型产生与有标签图像相关的损失,伪监督损失包括该学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的损失以及另一个学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的交叉伪监督损失;通过双教师模型与互相监督的方法提高了模型的泛化能力,采用指数移动平均值根据训练完成的学生模型的训练参数更新教师模型的训练参数,以使教师模型完成训练,并选取训练完成的教师模型中损失函数更小的作为最终分割模型;将无标签图像输入最终分割模型,得到无标签图像的语义分割结果,提升了遥感图像语义分割准确度。
根据本发明的一些实施例,所述将所述无标签图像与所述有标签图像均分别输入至两个所述教师模型中,得到两个所述教师模型分别输出的各自对应的伪标签,包括:
将所述有标签图像分别输入至两个所述教师模型中,得到两个所述教师模型分别输出的各自对应的第一有监督损失和第一次迭代的两个所述教师模型,其中,所述将所述有标签图像分别输入至两个所述教师模型中,得到两个所述教师模型分别输出的各自对应的第一有监督损失的计算公式为:
其中,为第一有监督损失,θtk为第k个教师模型的预设的训练参数,/>为交叉熵损失,W为有标签图像的宽度,H为有标签图像的高度,y(w,h,c)为像素级标注在有标签图像的(w,h)位置上的像素属于c类的概率,f(w,h,c)为分割网络在有标签图像的(w,h)位置上的像素属于c类的概率,/>为有标注数据集,C为类的总数目,/>为第i张空间维度为H×W的有标注数据及其对应的像素级标注/>
判断迭代次数是否达到预先设置的最大迭代次数,若所述迭代次数达到预先设置的最大迭代次数,则所述第一次迭代的两个所述教师模型为训练完成的教师模型,并将所述无标签图像输入至两个所述训练完成的教师模型中,得到两个所述教师模型分别输出的各自对应的伪标签;
若所述迭代次数小于预先设置的最大迭代次数,则根据所述两个所述教师模型分别输出的各自对应的第一有监督损失更新所述第一次迭代的两个所述教师模型的训练参数,得到所述第一次迭代的两个所述教师模型的更新训练参数,根据所述更新训练参数与所述有标签图像训练所述第一次迭代的两个所述教师模型,得到第二次迭代的两个所述教师模型的第二有监督损失与第二次迭代的两个所述教师模型,依次类推,直至所述迭代次数达到预先设置的最大迭代次数,得到两个训练完成的教师模型,并将所述无标签图像输入至两个所述训练完成的教师模型中,得到两个所述教师模型分别输出的各自对应的伪标签。
根据本发明的一些实施例,所述将所述无标签图像和所述有标签图像均分别输入至两个所述学生模型中,以使任意一个所述学生模型基于有监督损失和伪监督损失完成模型训练,包括:
将所述无标签图像和所述有标签图像均分别输入至两个所述学生模型中,得到两个所述学生模型分别输出的各自对应的伪标签;
根据所述两个所述教师模型分别输出的各自对应的伪标签进行均值计算,得到双教师模型伪标签均值,并根据所述双教师模型伪标签均值计算所述无标签图像的可靠性分数;
根据所述可靠性分数计算每个像素点的损失权重值,其中,所述根据所述可靠性分数计算每个像素点的损失权重值的计算公式为:
其中,w(x,y)为伪标签的空间位置为(x,y)的像素点的损失权重值,λ为预先设置的可靠性阈值;
根据所述损失权重值、所述双教师模型伪标签均值和第一个学生模型伪标签进行损失计算,得到所述第一个学生模型的伪标签监督损失;
根据第一个学生模型伪标签和第二个学生模型伪标签进行监督损失计算,得到第一个学生模型的有监督损失和第二个学生模型的有监督损失,其中,所述根据所述第一个学生模型伪标签和所述第二个学生模型伪标签进行监督损失计算,得到第一个学生模型的有监督损失和第二个学生模型的有监督损失的计算公式为:
其中,为第一个学生模型的有监督损失,/>为第二个学生模型的有监督损失,/>为第一个学生模型的输出结果,/>为第二个学生模型的输出结果,/>为第i张有标注数据的真值标签,θs1为第一个学生模型的训练参数,θs2为第二个学生模型的训练参数;
根据所述第一个学生模型伪标签和所述第二个学生模型伪标签进行交叉伪监督损失计算,得到第一个学生模型的交叉伪监督损失和第二个学生模型的交叉伪监督损失,其中,所述根据所述第一个学生模型伪标签和所述第二个学生模型伪标签进行交叉伪监督损失计算,得到第一个学生模型的交叉伪监督损失和第二个学生模型的交叉伪监督损失的计算公式为:
其中,为第一个学生模型的交叉伪监督损失,/>为第二个学生模型伪标签,为第二个学生模型的交叉伪监督损失,/>为第一个学生模型伪标签;
根据所述第一个学生模型的伪标签监督损失,所述第一个学生模型的交叉伪监督损失和所述第一个学生模型的有监督损失计算所述第一个学生模型总损失;
判断迭代次数是否达到预先设置的最大迭代次数,若所述迭代次数达到预先设置的最大迭代次数,则两个所述学生模型为两个训练完成的所述学生模型;若所述迭代次数小于预先设置的最大迭代次数,则根据每个学生模型对应的总损失更新所述每个学生模型对应的训练参数,得到第一次迭代的两个所述学生模型,根据每个学生模型对应的更新后的训练参数、所述有标签图像与所述无标签图像训练所述第一次迭代的两个所述学生模型,得到每个学生模型对应的第二次迭代总损失与第二次迭代的两个所述学生模型,依次类推,直至所述迭代次数达到预先设置的最大迭代次数,得到两个训练完成的所述学生模型。
根据本发明的一些实施例,所述根据所述两个所述教师模型分别输出的各自对应的伪标签进行均值计算,得到双教师模型伪标签均值,并根据所述双教师模型伪标签均值计算所述无标签图像的可靠性分数的计算公式为:
其中,为第i张无标签图像,/>为第i张无标签图像的教师模型伪标签,为第一个教师模型伪标签,/>为第二个教师模型伪标签,argmax(·)为在C类概率分布上的最大值索引函数,p(x,y,c)为双教师模型伪标签均值中伪标签的空间位置为(x,y)的像素点预测为第c类的概率,φ(·)为(0,1)归一化到范围函数。
根据本发明的一些实施例,所述根据所述损失权重值、所述双教师模型伪标签均值和第一个学生模型伪标签进行损失计算,得到所述第一个学生模型的伪标签监督损失的计算公式为:
其中,为第k个学生模型的伪标签监督损失,/>为第k个学生模型输出的第i张无标签图像的伪标签,/>为双教师模型伪标签均值,/>为无标签图像。
根据本发明的一些实施例,所述根据所述第一个学生模型的伪标签监督损失,所述第一个学生模型的交叉伪监督损失和所述第一个学生模型的有监督损失计算所述第一个学生模型总损失的计算公式为:
其中,为第k个学生模型的无监督损失,/>为第k个学生模型总损失,γ(q)为第q轮迭代时的无监督学习损失的权值,γm为预先设置的加权函数的最大值,q为当前迭代次数,qm为预先设置的最大迭代次数。
根据本发明的一些实施例,所述采用指数移动平均值根据训练完成的所述学生模型的训练参数更新所述教师模型的训练参数,以使所述教师模型完成训练,包括:
根据所述采用指数移动平均值根据训练完成的所述学生模型的训练参数更新所述教师模型的训练参数,得到第一次大迭代的教师训练参数与第一次大迭代的教师模型,其中,所述根据所述采用指数移动平均值根据训练完成的所述学生模型的训练参数更新所述教师模型的训练参数,得到第一次大迭代的教师训练参数的计算公式为:
其中,为教师模型k的第q轮迭代时的教师训练参数,α为预先设置的控制参数更新率的衰减参数,/>为第一个学生模型的第q轮迭代时的训练参数,/>为第二个学生模型的第q轮迭代时的训练参数;
判断迭代次数是否达到预先设置的最大迭代次数,若所述迭代次数达到预先设置的最大迭代次数,则所述第一次大迭代的教师模型为训练完成的教师模型;
若所述迭代次数小于预先设置的最大迭代次数,则根据所述第一次大迭代的教师训练参数更新对应的第一次大迭代的教师模型,得到第二次大迭代的教师模型;并将所述无标签图像输入所述第二次大迭代的教师模型进行预测与计算,依次类推,直至所述迭代次数达到预先设置的最大迭代次数,得到所述训练完成的教师模型。
本发明的第二方面,提供一种遥感图像语义分割系统,所述遥感图像语义分割系统包括:
数据获取模块,用于获取无标签图像和有标签图像,构建网络结构相同但初始训练参数不同的两个教师模型和网络结构相同但初始训练参数不同的两个学生模型;
教师模型预测模块,用于将所述无标签图像与所述有标签图像均分别输入至两个所述教师模型中,得到两个所述教师模型分别输出的各自对应的伪标签;
学生模型训练模块,用于将所述无标签图像和所述有标签图像均分别输入至两个所述学生模型中,以使任意一个所述学生模型基于有监督损失和伪监督损失完成模型训练,其中,所述有监督损失包括该所述学生模型产生与所述有标签图像相关的损失,所述伪监督损失包括该所述学生模型根据所述伪标签作为伪标签监督信号产生与所述无标签图像相关的损失以及另一个所述学生模型根据所述伪标签作为伪标签监督信号产生与所述无标签图像相关的交叉伪监督损失;
教师模型训练模块,用于采用指数移动平均值根据训练完成的所述学生模型的训练参数更新所述教师模型的训练参数,以使所述教师模型完成训练,并选取训练完成的所述教师模型中损失函数更小的作为最终分割模型;
结果输出模块,用于将所述无标签图像输入最终分割模型,得到所述无标签图像的语义分割结果。
本系统通过获取无标签图像和有标签图像,构建网络结构相同但初始训练参数不同的两个教师模型和网络结构相同但初始训练参数不同的两个学生模型;将无标签图像与有标签图像均分别输入至两个教师模型中,得到两个教师模型分别输出的各自对应的伪标签;将无标签图像和有标签图像均分别输入至两个学生模型中,以使任意一个学生模型基于有监督损失和伪监督损失完成模型训练,其中,有监督损失包括该学生模型产生与有标签图像相关的损失,伪监督损失包括该学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的损失以及另一个学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的交叉伪监督损失;通过双教师模型与互相监督的方法提高了模型的泛化能力,采用指数移动平均值根据训练完成的学生模型的训练参数更新教师模型的训练参数,以使教师模型完成训练,并选取训练完成的教师模型中损失函数更小的作为最终分割模型;将无标签图像输入最终分割模型,得到无标签图像的语义分割结果,提升了遥感图像语义分割准确度。
本发明的第三方面,提供了一种遥感图像语义分割电子设备,包括至少一个控制处理器和用于与所述至少一个控制处理器通信连接的存储器;所述存储器存储有可被所述至少一个控制处理器执行的指令,所述指令被所述至少一个控制处理器执行,以使所述至少一个控制处理器能够执行上述的遥感图像语义分割方法。
本发明的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行上述的遥感图像语义分割方法。
需要注意的是,本发明的第二方面至第四方面与现有技术之间的有益效果与上述的一种遥感图像语义分割系统与现有技术之间的有益效果相同,此处不再细述。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明一实施例的一种遥感图像语义分割方法的流程图;
图2是本发明一实施例的一种遥感图像语义分割系统的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,如果有描述到第一、第二等只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
在本发明的描述中,需要理解的是,涉及到方位描述,例如上、下等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
本发明的描述中,需要说明的是,除非另有明确的限定,设置、安装、连接等词语应做广义理解,所属技术领域技术人员可以结合技术方案的具体内容合理确定上述词语在本发明中的具体含义。
在遥感图像的研究中,遥感图像的语义分割针对遥感影像中每一个像素点进行分类,一直是遥感图像中一个重要的研究方向。传统的遥感图像语义分割的方法经常使用机器学习算法,但分类的准确度还需要进一步提高。
目前,自训练方法首先会在有标注图像上完全训练得到一个初始的教师模型,然后使用该教师模型对所有的无标注图像进行预测得到one-hot伪标签,最后混合有标签图像和无标签图像及其伪标签,在其上重新训练一个学生模型,从而学习到更强的特征表示和更好的分割精度。因此针对无标签数据的伪标签的质量直接决定了模型的训练效果。由于标注数据不足和遥感图像的高复杂性会使得产生很多低质量的伪标签,将引入大量噪声数据,使得再训练阶段非常不稳定并且过度拟合到错误的数据,将带来确认偏差问题。
为了解决上述技术缺陷,参照图1,本发明还提供了一种遥感图像语义分割方法,包括:
步骤S101、获取无标签图像和有标签图像,构建网络结构相同但初始训练参数不同的两个教师模型和网络结构相同但初始训练参数不同的两个学生模型;
步骤S102、将无标签图像与有标签图像均分别输入至两个教师模型中,得到两个教师模型分别输出的各自对应的伪标签;
步骤S103、将无标签图像和有标签图像均分别输入至两个学生模型中,以使任意一个学生模型基于有监督损失和伪监督损失完成模型训练,其中,有监督损失包括该学生模型产生与有标签图像相关的损失,伪监督损失包括该学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的损失以及另一个学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的交叉伪监督损失;
步骤S104、采用指数移动平均值根据训练完成的学生模型的训练参数更新教师模型的训练参数,以使教师模型完成训练,并选取训练完成的教师模型中损失函数更小的作为最终分割模型;
步骤S105、将无标签图像输入最终分割模型,得到无标签图像的语义分割结果。
本方法通过获取无标签图像和有标签图像,构建网络结构相同但初始训练参数不同的两个教师模型和网络结构相同但初始训练参数不同的两个学生模型;将无标签图像与有标签图像均分别输入至两个教师模型中,得到两个教师模型分别输出的各自对应的伪标签;将无标签图像和有标签图像均分别输入至两个学生模型中,以使任意一个学生模型基于有监督损失和伪监督损失完成模型训练,其中,有监督损失包括该学生模型产生与有标签图像相关的损失,伪监督损失包括该学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的损失以及另一个学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的交叉伪监督损失;通过双教师模型与互相监督的方法提高了模型的泛化能力,采用指数移动平均值根据训练完成的学生模型的训练参数更新教师模型的训练参数,以使教师模型完成训练,并选取训练完成的教师模型中损失函数更小的作为最终分割模型;将无标签图像输入最终分割模型,得到无标签图像的语义分割结果,提升了遥感图像语义分割准确度。
在一些实施例中,将无标签图像与有标签图像均分别输入至两个教师模型中,得到两个教师模型分别输出的各自对应的伪标签,包括:
将有标签图像分别输入至两个教师模型中,得到两个教师模型分别输出的各自对应的第一有监督损失和第一次迭代的两个教师模型,其中,将有标签图像分别输入至两个教师模型中,得到两个教师模型分别输出的各自对应的第一有监督损失的计算公式为:
其中,为第一有监督损失,θtk为第k个教师模型的预设的训练参数,/>为交叉熵损失,W为有标签图像的宽度,H为有标签图像的高度,y(w,h,c)为像素级标注在有标签图像的(w,h)位置上的像素属于c类的概率,f(w,h,c)为分割网络在有标签图像的(w,h)位置上的像素属于c类的概率,/>为有标注数据集,C为类的总数目,/>为第i张空间维度为H×W的有标注数据及其对应的像素级标注/>
判断迭代次数是否达到预先设置的最大迭代次数,若迭代次数达到预先设置的最大迭代次数,则第一次迭代的两个教师模型为训练完成的教师模型,并将无标签图像输入至两个训练完成的教师模型中,得到两个教师模型分别输出的各自对应的伪标签;
若迭代次数小于预先设置的最大迭代次数,则根据两个教师模型分别输出的各自对应的第一有监督损失更新第一次迭代的两个教师模型的训练参数,得到第一次迭代的两个教师模型的更新训练参数,根据更新训练参数与有标签图像训练第一次迭代的两个教师模型,得到第二次迭代的两个教师模型的第二有监督损失与第二次迭代的两个教师模型,依次类推,直至迭代次数达到预先设置的最大迭代次数,得到两个训练完成的教师模型,并将无标签图像输入至两个训练完成的教师模型中,得到两个教师模型分别输出的各自对应的伪标签。
在一些实施例中,将无标签图像和有标签图像均分别输入至两个学生模型中,以使任意一个学生模型基于有监督损失和伪监督损失完成模型训练,包括:
将无标签图像和有标签图像均分别输入至两个学生模型中,得到两个学生模型分别输出的各自对应的伪标签;
根据两个教师模型分别输出的各自对应的伪标签进行均值计算,得到双教师模型伪标签均值,并根据双教师模型伪标签均值计算无标签图像的可靠性分数;
根据可靠性分数计算每个像素点的损失权重值,其中,根据可靠性分数计算每个像素点的损失权重值的计算公式为:
其中,w(x,y)为伪标签的空间位置为(x,y)的像素点的损失权重值,λ为预先设置的可靠性阈值;
根据损失权重值、双教师模型伪标签均值和第一个学生模型伪标签进行损失计算,得到第一个学生模型的伪标签监督损失;
根据第一个学生模型伪标签和第二个学生模型伪标签进行监督损失计算,得到第一个学生模型的有监督损失和第二个学生模型的有监督损失,其中,根据第一个学生模型伪标签和第二个学生模型伪标签进行监督损失计算,得到第一个学生模型的有监督损失和第二个学生模型的有监督损失的计算公式为:
其中,为第一个学生模型的有监督损失,/>为第二个学生模型的有监督损失,/>为第一个学生模型的输出结果,/>为第二个学生模型的输出结果,/>为第i张有标注数据的真值标签,θs1为第一个学生模型的训练参数,θs2为第二个学生模型的训练参数;
根据第一个学生模型伪标签和第二个学生模型伪标签进行交叉伪监督损失计算,得到第一个学生模型的交叉伪监督损失和第二个学生模型的交叉伪监督损失,其中,根据第一个学生模型伪标签和第二个学生模型伪标签进行交叉伪监督损失计算,得到第一个学生模型的交叉伪监督损失和第二个学生模型的交叉伪监督损失的计算公式为:
其中,为第一个学生模型的交叉伪监督损失,/>为第二个学生模型伪标签,为第二个学生模型的交叉伪监督损失,/>为第一个学生模型伪标签;
根据第一个学生模型的伪标签监督损失,第一个学生模型的交叉伪监督损失和第一个学生模型的有监督损失计算第一个学生模型总损失;
判断迭代次数是否达到预先设置的最大迭代次数,若迭代次数达到预先设置的最大迭代次数,则两个学生模型为两个训练完成的学生模型;若迭代次数小于预先设置的最大迭代次数,则根据每个学生模型对应的总损失更新每个学生模型对应的训练参数,得到第一次迭代的两个学生模型,根据每个学生模型对应的更新后的训练参数、有标签图像与无标签图像训练第一次迭代的两个学生模型,得到每个学生模型对应的第二次迭代总损失与第二次迭代的两个学生模型,依次类推,直至迭代次数达到预先设置的最大迭代次数,得到两个训练完成的学生模型。
在一些实施例中,根据两个教师模型分别输出的各自对应的伪标签进行均值计算,得到双教师模型伪标签均值,并根据双教师模型伪标签均值计算无标签图像的可靠性分数的计算公式为:
其中,为第i张无标签图像,/>为第i张无标签图像的教师模型伪标签,/>为第一个教师模型伪标签,/>为第二个教师模型伪标签,argmax(·)为在C类概率分布上的最大值索引函数,p(x,y,c)为双教师模型伪标签均值中伪标签的空间位置为(x,y)的像素点预测为第c类的概率,φ(·)为(0,1)归一化到范围函数。/>
在一些实施例中,根据损失权重值、双教师模型伪标签均值和第一个学生模型伪标签进行损失计算,得到第一个学生模型的伪标签监督损失的计算公式为:
其中,为第k个学生模型的伪标签监督损失,/>为第k个学生模型输出的第i张无标签图像的伪标签,/>为双教师模型伪标签均值,/>为无标签图像。
在一些实施例中,根据第一个学生模型的伪标签监督损失,第一个学生模型的交叉伪监督损失和第一个学生模型的有监督损失计算第一个学生模型总损失的计算公式为:
其中,为第k个学生模型的无监督损失,/>为第k个学生模型总损失,γ(q)为第q轮迭代时的无监督学习损失的权值,γm为预先设置的加权函数的最大值,q为当前迭代次数,qm为预先设置的最大迭代次数。
在一些实施例中,采用指数移动平均值根据训练完成的学生模型的训练参数更新教师模型的训练参数,以使教师模型完成训练,包括:
根据采用指数移动平均值根据训练完成的学生模型的训练参数更新教师模型的训练参数,得到第一次大迭代的教师训练参数与第一次大迭代的教师模型,其中,根据采用指数移动平均值根据训练完成的学生模型的训练参数更新教师模型的训练参数,得到第一次大迭代的教师训练参数的计算公式为:
其中,为教师模型k的第q轮迭代时的教师训练参数,α为预先设置的控制参数更新率的衰减参数,/>为第一个学生模型的第q轮迭代时的训练参数,/>为第二个学生模型的第q轮迭代时的训练参数;
判断迭代次数是否达到预先设置的最大迭代次数,若迭代次数达到预先设置的最大迭代次数,则第一次大迭代的教师模型为训练完成的教师模型;
若迭代次数小于预先设置的最大迭代次数,则根据第一次大迭代的教师训练参数更新对应的第一次大迭代的教师模型,得到第二次大迭代的教师模型;并将无标签图像输入第二次大迭代的教师模型进行预测与计算,依次类推,直至迭代次数达到预先设置的最大迭代次数,得到训练完成的教师模型。
本发明结合了自训练和一致性正则化,针对自训练中教师模型存在的过拟合有标注数据问题,本发明使用了模型集成策略,使用了双教师模型来代替传统的单个教师模型。以前的工作通常还会手动设置一个阈值来忽略教师模型输出的低置信度伪标签。然而其中的阈值不仅很难确定,而且会完全丢弃一部分的数据从而限制了模型的泛化能力,对此,本发明提出一种基于可靠性衡量的RF模块对教师模型的预测做进一步处理,可以同时利用高置信度和低置信度伪标签,充分的利用了无标注数据,进一步提高模型的泛化能力。对于学生模型来说,本发明使用教师模型产生的伪标签作为其自训练的伪标签监督信号,同时本发明对学生模型引入了交叉伪监督,使得学生模型学习到更多的抽象不变形,每次迭代结束后,教师模型的权重将由学生模型的指数移动平均值更新(EMA),当模型收敛或达到最大迭代次数后算法结束,教师模型将作为最终的模型用来测试。
另外,参照图2,本发明的一个实施例,提供一种遥感图像语义分割系统,包括数据获取模块1100、教师模型预测模块1200、学生模型训练模块1300、教师模型训练模块1400以及结果输出模块1500,其中:
数据获取模块1100用于获取无标签图像和有标签图像,构建网络结构相同但初始训练参数不同的两个教师模型和网络结构相同但初始训练参数不同的两个学生模型;
教师模型预测模块1200用于将无标签图像与有标签图像均分别输入至两个教师模型中,得到两个教师模型分别输出的各自对应的伪标签;
学生模型训练模块1300用于将无标签图像和有标签图像均分别输入至两个学生模型中,以使任意一个学生模型基于有监督损失和伪监督损失完成模型训练,其中,有监督损失包括该学生模型产生与有标签图像相关的损失,伪监督损失包括该学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的损失以及另一个学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的交叉伪监督损失;
教师模型训练模块1400用于采用指数移动平均值根据训练完成的学生模型的训练参数更新教师模型的训练参数,以使教师模型完成训练,并选取训练完成的教师模型中损失函数更小的作为最终分割模型;
结果输出模块1500用于将无标签图像输入最终分割模型,得到无标签图像的语义分割结果。
本系统通过获取无标签图像和有标签图像,构建网络结构相同但初始训练参数不同的两个教师模型和网络结构相同但初始训练参数不同的两个学生模型;将无标签图像与有标签图像均分别输入至两个教师模型中,得到两个教师模型分别输出的各自对应的伪标签;将无标签图像和有标签图像均分别输入至两个学生模型中,以使任意一个学生模型基于有监督损失和伪监督损失完成模型训练,其中,有监督损失包括该学生模型产生与有标签图像相关的损失,伪监督损失包括该学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的损失以及另一个学生模型根据伪标签作为伪标签监督信号产生与无标签图像相关的交叉伪监督损失;通过双教师模型与互相监督的方法提高了模型的泛化能力,采用指数移动平均值根据训练完成的学生模型的训练参数更新教师模型的训练参数,以使教师模型完成训练,并选取训练完成的教师模型中损失函数更小的作为最终分割模型;将无标签图像输入最终分割模型,得到无标签图像的语义分割结果,提升了遥感图像语义分割准确度。
需要注意的是,本系统实施例与上述的系统实施例是基于相同的发明构思,因此上述方法实施例的相关内容同样适用于本系统实施例,这里不再赘述。
本申请还提供一种遥感图像语义分割电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现:如上述的遥感图像语义分割方法。
处理器和存储器可以通过总线或者其他方式连接。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实现上述实施例的遥感图像语义分割方法所需的非暂态软件程序以及指令存储在存储器中,当被处理器执行时,执行上述实施例中的遥感图像语义分割方法,例如,执行以上描述的图1中的方法步骤S101至步骤S105。
本申请还提供一种计算机可读存储介质,存储有计算机可执行指令,计算机可执行指令用于执行:如上述的遥感图像语义分割方法。
该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个处理器或控制器执行,例如,被上述电子设备实施例中的一个处理器执行,可使得上述处理器执行上述实施例中的遥感图像语义分割方法,例如,执行以上描述的图1中的方法步骤S101至步骤S105。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序单元或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序单元或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
上面结合附图对本发明实施例作了详细说明,但本发明不限于上述实施例,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。

Claims (10)

1.一种遥感图像语义分割方法,其特征在于,所述遥感图像语义分割方法包括:
获取无标签图像和有标签图像,构建网络结构相同但初始训练参数不同的两个教师模型和网络结构相同但初始训练参数不同的两个学生模型;
将所述无标签图像与所述有标签图像均分别输入至两个所述教师模型中,得到两个所述教师模型分别输出的各自对应的伪标签;
将所述无标签图像和所述有标签图像均分别输入至两个所述学生模型中,以使任意一个所述学生模型基于有监督损失和伪监督损失完成模型训练,其中,所述有监督损失包括该所述学生模型产生与所述有标签图像相关的损失,所述伪监督损失包括该所述学生模型根据所述伪标签作为伪标签监督信号产生与所述无标签图像相关的损失以及另一个所述学生模型根据所述伪标签作为伪标签监督信号产生与所述无标签图像相关的交叉伪监督损失;
采用指数移动平均值根据训练完成的所述学生模型的训练参数更新所述教师模型的训练参数,以使所述教师模型完成训练,并选取训练完成的所述教师模型中损失函数更小的作为最终分割模型;
将所述无标签图像输入最终分割模型,得到所述无标签图像的语义分割结果。
2.根据权利要求1所述的一种遥感图像语义分割方法,其特征在于,所述将所述无标签图像与所述有标签图像均分别输入至两个所述教师模型中,得到两个所述教师模型分别输出的各自对应的伪标签,包括:
将所述有标签图像分别输入至两个所述教师模型中,得到两个所述教师模型分别输出的各自对应的第一有监督损失和第一次迭代的两个所述教师模型,其中,所述将所述有标签图像分别输入至两个所述教师模型中,得到两个所述教师模型分别输出的各自对应的第一有监督损失的计算公式为:
其中,为第一有监督损失,θtk为第k个教师模型的预设的训练参数,/>为交叉熵损失,W为有标签图像的宽度,H为有标签图像的高度,y(w,h,c)为像素级标注在有标签图像的(w,h)位置上的像素属于c类的概率,f(w,h,c)为分割网络在有标签图像的(w,h)位置上的像素属于c类的概率,/>为有标注数据集,C为类的总数目,/>为第i张空间维度为H×W的有标注数据及其对应的像素级标注/>
判断迭代次数是否达到预先设置的最大迭代次数,若所述迭代次数达到预先设置的最大迭代次数,则所述第一次迭代的两个所述教师模型为训练完成的教师模型,并将所述无标签图像输入至两个所述训练完成的教师模型中,得到两个所述教师模型分别输出的各自对应的伪标签;
若所述迭代次数小于预先设置的最大迭代次数,则根据所述两个所述教师模型分别输出的各自对应的第一有监督损失更新所述第一次迭代的两个所述教师模型的训练参数,得到所述第一次迭代的两个所述教师模型的更新训练参数,根据所述更新训练参数与所述有标签图像训练所述第一次迭代的两个所述教师模型,得到第二次迭代的两个所述教师模型的第二有监督损失与第二次迭代的两个所述教师模型,依次类推,直至所述迭代次数达到预先设置的最大迭代次数,得到两个训练完成的教师模型,并将所述无标签图像输入至两个所述训练完成的教师模型中,得到两个所述教师模型分别输出的各自对应的伪标签。
3.根据权利要求2所述的一种遥感图像语义分割方法,其特征在于,所述将所述无标签图像和所述有标签图像均分别输入至两个所述学生模型中,以使任意一个所述学生模型基于有监督损失和伪监督损失完成模型训练,包括:
将所述无标签图像和所述有标签图像均分别输入至两个所述学生模型中,得到两个所述学生模型分别输出的各自对应的伪标签;
根据所述两个所述教师模型分别输出的各自对应的伪标签进行均值计算,得到双教师模型伪标签均值,并根据所述双教师模型伪标签均值计算所述无标签图像的可靠性分数;
根据所述可靠性分数计算每个像素点的损失权重值,其中,所述根据所述可靠性分数计算每个像素点的损失权重值的计算公式为:
其中,w(x,y)为伪标签的空间位置为(x,y)的像素点的损失权重值,λ为预先设置的可靠性阈值;
根据所述损失权重值、所述双教师模型伪标签均值和第一个学生模型伪标签进行损失计算,得到所述第一个学生模型的伪标签监督损失;
根据第一个学生模型伪标签和第二个学生模型伪标签进行监督损失计算,得到第一个学生模型的有监督损失和第二个学生模型的有监督损失,其中,所述根据所述第一个学生模型伪标签和所述第二个学生模型伪标签进行监督损失计算,得到第一个学生模型的有监督损失和第二个学生模型的有监督损失的计算公式为:
其中,为第一个学生模型的有监督损失,/>为第二个学生模型的有监督损失,为第一个学生模型的输出结果,/>为第二个学生模型的输出结果,/>为第i张有标注数据的真值标签,θs1为第一个学生模型的训练参数,θs2为第二个学生模型的训练参数;
根据所述第一个学生模型伪标签和所述第二个学生模型伪标签进行交叉伪监督损失计算,得到第一个学生模型的交叉伪监督损失和第二个学生模型的交叉伪监督损失,其中,所述根据所述第一个学生模型伪标签和所述第二个学生模型伪标签进行交叉伪监督损失计算,得到第一个学生模型的交叉伪监督损失和第二个学生模型的交叉伪监督损失的计算公式为:
其中,为第一个学生模型的交叉伪监督损失,/>为第二个学生模型伪标签,/>为第二个学生模型的交叉伪监督损失,/>为第一个学生模型伪标签;
根据所述第一个学生模型的伪标签监督损失,所述第一个学生模型的交叉伪监督损失和所述第一个学生模型的有监督损失计算所述第一个学生模型总损失;
判断迭代次数是否达到预先设置的最大迭代次数,若所述迭代次数达到预先设置的最大迭代次数,则两个所述学生模型为两个训练完成的所述学生模型;若所述迭代次数小于预先设置的最大迭代次数,则根据每个学生模型对应的总损失更新所述每个学生模型对应的训练参数,得到第一次迭代的两个所述学生模型,根据每个学生模型对应的更新后的训练参数、所述有标签图像与所述无标签图像训练所述第一次迭代的两个所述学生模型,得到每个学生模型对应的第二次迭代总损失与第二次迭代的两个所述学生模型,依次类推,直至所述迭代次数达到预先设置的最大迭代次数,得到两个训练完成的所述学生模型。
4.根据权利要求3所述的一种遥感图像语义分割方法,其特征在于,所述根据所述两个所述教师模型分别输出的各自对应的伪标签进行均值计算,得到双教师模型伪标签均值,并根据所述双教师模型伪标签均值计算所述无标签图像的可靠性分数的计算公式为:
其中,为第i张无标签图像,/>为第i张无标签图像的教师模型伪标签,/>为第一个教师模型伪标签,/>为第二个教师模型伪标签,argmax(·)为在C类概率分布上的最大值索引函数,p(x,y,c)为双教师模型伪标签均值中伪标签的空间位置为(x,y)的像素点预测为第c类的概率,φ(·)为(0,1)归一化到范围函数。
5.根据权利要求4所述的一种遥感图像语义分割方法,其特征在于,所述根据所述损失权重值、所述双教师模型伪标签均值和第一个学生模型伪标签进行损失计算,得到所述第一个学生模型的伪标签监督损失的计算公式为:
其中,为第k个学生模型的伪标签监督损失,/>为第k个学生模型输出的第i张无标签图像的伪标签,/>为双教师模型伪标签均值,/>为无标签图像。
6.根据权利要求5所述的一种遥感图像语义分割方法,其特征在于,所述根据所述第一个学生模型的伪标签监督损失,所述第一个学生模型的交叉伪监督损失和所述第一个学生模型的有监督损失计算所述第一个学生模型总损失的计算公式为:
其中,为第k个学生模型的无监督损失,/>为第k个学生模型总损失,γ(q)为第q轮迭代时的无监督学习损失的权值,γm为预先设置的加权函数的最大值,q为当前迭代次数,qm为预先设置的最大迭代次数。
7.根据权利要求6所述的一种遥感图像语义分割方法,其特征在于,所述采用指数移动平均值根据训练完成的所述学生模型的训练参数更新所述教师模型的训练参数,以使所述教师模型完成训练,包括:
根据所述采用指数移动平均值根据训练完成的所述学生模型的训练参数更新所述教师模型的训练参数,得到第一次大迭代的教师训练参数与第一次大迭代的教师模型,其中,所述根据所述采用指数移动平均值根据训练完成的所述学生模型的训练参数更新所述教师模型的训练参数,得到第一次大迭代的教师训练参数的计算公式为:
其中,为教师模型k的第q轮迭代时的教师训练参数,α为预先设置的控制参数更新率的衰减参数,/>为第一个学生模型的第q轮迭代时的训练参数,/>为第二个学生模型的第q轮迭代时的训练参数;
判断迭代次数是否达到预先设置的最大迭代次数,若所述迭代次数达到预先设置的最大迭代次数,则所述第一次大迭代的教师模型为训练完成的教师模型;
若所述迭代次数小于预先设置的最大迭代次数,则根据所述第一次大迭代的教师训练参数更新对应的第一次大迭代的教师模型,得到第二次大迭代的教师模型;并将所述无标签图像输入所述第二次大迭代的教师模型进行预测与计算,依次类推,直至所述迭代次数达到预先设置的最大迭代次数,得到所述训练完成的教师模型。
8.一种遥感图像语义分割系统,其特征在于,所述遥感图像语义分割方法系统:
数据获取模块,用于获取无标签图像和有标签图像,构建网络结构相同但初始训练参数不同的两个教师模型和网络结构相同但初始训练参数不同的两个学生模型;
教师模型预测模块,用于将所述无标签图像与所述有标签图像均分别输入至两个所述教师模型中,得到两个所述教师模型分别输出的各自对应的伪标签;
学生模型训练模块,用于将所述无标签图像和所述有标签图像均分别输入至两个所述学生模型中,以使任意一个所述学生模型基于有监督损失和伪监督损失完成模型训练,其中,所述有监督损失包括该所述学生模型产生与所述有标签图像相关的损失,所述伪监督损失包括该所述学生模型根据所述伪标签作为伪标签监督信号产生与所述无标签图像相关的损失以及另一个所述学生模型根据所述伪标签作为伪标签监督信号产生与所述无标签图像相关的交叉伪监督损失;
教师模型训练模块,用于采用指数移动平均值根据训练完成的所述学生模型的训练参数更新所述教师模型的训练参数,以使所述教师模型完成训练,并选取训练完成的所述教师模型中损失函数更小的作为最终分割模型;
结果输出模块,用于将所述无标签图像输入最终分割模型,得到所述无标签图像的语义分割结果。
9.一种遥感图像语义分割设备,其特征在于,包括至少一个控制处理器和用于与所述至少一个控制处理器通信连接的存储器;所述存储器存储有可被所述至少一个控制处理器执行的指令,所述指令被所述至少一个控制处理器执行,以使所述至少一个控制处理器能够执行如权利要求1至7任一项所述的一种遥感图像语义分割方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行如权利要求1至7任一项所述的一种遥感图像语义分割方法。
CN202310339758.7A 2023-03-31 2023-03-31 一种遥感图像语义分割方法、系统、设备及存储介质 Withdrawn CN116486076A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202310339758.7A CN116486076A (zh) 2023-03-31 2023-03-31 一种遥感图像语义分割方法、系统、设备及存储介质
CN202410262346.2A CN118196410A (zh) 2023-03-31 2024-03-07 一种遥感图像语义分割方法、系统、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310339758.7A CN116486076A (zh) 2023-03-31 2023-03-31 一种遥感图像语义分割方法、系统、设备及存储介质

Publications (1)

Publication Number Publication Date
CN116486076A true CN116486076A (zh) 2023-07-25

Family

ID=87211153

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202310339758.7A Withdrawn CN116486076A (zh) 2023-03-31 2023-03-31 一种遥感图像语义分割方法、系统、设备及存储介质
CN202410262346.2A Pending CN118196410A (zh) 2023-03-31 2024-03-07 一种遥感图像语义分割方法、系统、设备及存储介质

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202410262346.2A Pending CN118196410A (zh) 2023-03-31 2024-03-07 一种遥感图像语义分割方法、系统、设备及存储介质

Country Status (1)

Country Link
CN (2) CN116486076A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117253286A (zh) * 2023-09-21 2023-12-19 书行科技(北京)有限公司 人体动作预测方法及相关产品
CN117475155A (zh) * 2023-12-26 2024-01-30 厦门瑞为信息技术有限公司 基于半监督学习的轻量级遥感图像分割方法
CN117649528A (zh) * 2024-01-29 2024-03-05 山东建筑大学 一种半监督图像分割方法、系统、电子设备及存储介质
CN117853921A (zh) * 2024-01-12 2024-04-09 中国科学院空天信息创新研究院 遥感单模态到多模态基础模型轻量化组合迁移方法、装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117253286A (zh) * 2023-09-21 2023-12-19 书行科技(北京)有限公司 人体动作预测方法及相关产品
CN117253286B (zh) * 2023-09-21 2024-04-26 书行科技(北京)有限公司 人体动作预测方法及相关产品
CN117475155A (zh) * 2023-12-26 2024-01-30 厦门瑞为信息技术有限公司 基于半监督学习的轻量级遥感图像分割方法
CN117475155B (zh) * 2023-12-26 2024-04-02 厦门瑞为信息技术有限公司 基于半监督学习的轻量级遥感图像分割方法
CN117853921A (zh) * 2024-01-12 2024-04-09 中国科学院空天信息创新研究院 遥感单模态到多模态基础模型轻量化组合迁移方法、装置
CN117649528A (zh) * 2024-01-29 2024-03-05 山东建筑大学 一种半监督图像分割方法、系统、电子设备及存储介质
CN117649528B (zh) * 2024-01-29 2024-05-31 山东建筑大学 一种半监督图像分割方法、系统、电子设备及存储介质

Also Published As

Publication number Publication date
CN118196410A (zh) 2024-06-14

Similar Documents

Publication Publication Date Title
CN116486076A (zh) 一种遥感图像语义分割方法、系统、设备及存储介质
CN111476302B (zh) 基于深度强化学习的Faster-RCNN目标物体检测方法
CN110781262B (zh) 基于视觉slam的语义地图的构建方法
CN113313763B (zh) 一种基于神经网络的单目相机位姿优化方法及装置
EP3977364A1 (en) Method and processing device for training a neural network
CN110245683B (zh) 一种少样本目标识别的残差关系网络构建方法及应用
CN112016512A (zh) 基于反馈式多尺度训练的遥感图像小目标检测方法
CN116597136A (zh) 一种半监督遥感图像语义分割方法与系统
CN112712052A (zh) 一种机场全景视频中微弱目标的检测识别方法
CN113313166A (zh) 基于特征一致性学习的船舶目标自动标注方法
WO2023207389A1 (zh) 数据处理方法、装置、程序产品、计算机设备和介质
JP2022548187A (ja) 対象再識別方法および装置、端末並びに記憶媒体
CN114842343A (zh) 一种基于ViT的航空图像识别方法
CN114445461A (zh) 基于非配对数据的可见光红外目标跟踪训练方法及装置
CN112949590B (zh) 一种跨域行人重识别模型构建方法及构建系统
CN113688757B (zh) 一种sar图像识别方法、装置及存储介质
US20240185590A1 (en) Method for training object detection model, object detection method and apparatus
CN114137967A (zh) 基于多网络联合学习的驾驶行为决策方法
CN116385466B (zh) 一种基于边界框弱标注的图像中目标分割方法及系统
CN117437423A (zh) 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置
CN113239883A (zh) 分类模型的训练方法、装置、电子设备以及存储介质
WO2023207535A1 (zh) 一种伪标签框生成方法、装置及电子设备
CN115082955B (zh) 一种深度学习全局优化方法、识别方法、装置及介质
CN117094963A (zh) 一种眼底图像病灶分割方法、系统、设备及存储介质
CN116543162A (zh) 基于特征差值与上下文感知一致性的图像分割方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20230725