CN116977633A - 地物要素分割模型训练方法、地物要素分割方法及装置 - Google Patents
地物要素分割模型训练方法、地物要素分割方法及装置 Download PDFInfo
- Publication number
- CN116977633A CN116977633A CN202310842758.9A CN202310842758A CN116977633A CN 116977633 A CN116977633 A CN 116977633A CN 202310842758 A CN202310842758 A CN 202310842758A CN 116977633 A CN116977633 A CN 116977633A
- Authority
- CN
- China
- Prior art keywords
- network model
- remote sensing
- loss value
- sensing image
- classification probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 116
- 238000012549 training Methods 0.000 title claims abstract description 105
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000002372 labelling Methods 0.000 claims abstract description 23
- 238000005070 sampling Methods 0.000 claims description 19
- 238000012935 Averaging Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000012216 screening Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000002708 enhancing effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种地物要素分割模型训练方法、地物要素分割方法及装置,属于计算机技术领域,所述模型训练方法包括:获取有标注遥感图像样本、有标注遥感图像样本的地物要素分类标注和无标注遥感图像样本;基于有标注遥感图像样本、地物要素分类标注和无标注遥感图像样本,对学生网络模型进行半监督训练,直至综合损失值小于损失阈值或达到预设训练轮数,学生网络模型用于对地物要素进行分割;确定已训练的学生网络模型作为目标地物要素分割模型。通过结合有监督的第一损失值、一致性正则化方式计算损失所获取的第二损失值和对比学习方式计算损失所获取的第三损失值,计算综合损失值,进而更新模型参数,能够减少数据标注数据量,提高分割精度。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种地物要素分割模型训练方法、地物要素分割方法及装置。
背景技术
语义分割也称为语义标注,是遥感图像理解中最基本、最具挑战性的任务之一。目标是为给定图像指定像素级语义类标签。特别是,超高分辨率(VHR)航空图像中的语义分割在其广泛应用中发挥着越来越重要的作用,例如道路提取、城市规划和土地覆盖分类等。
在语义分割领域,标注往往是比较困难的。因为掩膜标注要求和目标边缘紧密贴合,否则会带来边界上的额外损失。相反的,未标注的数据量一般要远远多于标注的数据量。
高分辨率遥感图像场景复杂,具有复杂的地表特征和丰富的背景干扰,像素级标注的工作量更大,通用框架也不是为遥感图像设计的。因此,在少量精细标注的数据的情况下,对复杂遥感图像场景中多时相地物要素进行准确地分类是一个巨大的挑战。
发明内容
针对现有技术存在的问题,本发明实施例提供一种地物要素分割模型训练方法、地物要素分割方法及装置。
第一方面,本发明提供一种地物要素分割模型训练方法,包括:
获取有标注遥感图像样本、所述有标注遥感图像样本的地物要素分类标注和无标注遥感图像样本;
基于所述有标注遥感图像样本、所述地物要素分类标注和所述无标注遥感图像样本,对学生网络模型进行半监督训练,直至综合损失值小于损失阈值或达到预设训练轮数,所述学生网络模型用于对地物要素进行分割;
确定已训练的所述学生网络模型作为目标地物要素分割模型;
所述对学生网络模型进行半监督训练,包括:
输入所述有标注遥感图像样本至所述学生网络模型,以及基于所述地物要素分类标注和所述学生网络模型输出的第一分类概率预测图,计算多分类交叉熵损失,获取第一损失值,分类概率预测图用于表示遥感图像中各个像素点的预测分类概率;
输入经过两种强数据增强方式处理的无标注遥感图像样本至两个教师网络模型,以及对各个教师网络模型输出的分类概率预测图取平均,获取第二分类概率预测图,所述教师网络模型的结构与所述学生网络模型的结构相同;
输入经过弱数据增强方式处理的无标注遥感图像样本至所述学生网络模型,获取所述学生网络模型输出的第三分类概率预测图;
基于所述第二分类概率预测图中的各个第一像素点和所述第三分类概率预测图,通过一致性正则化方式计算损失,获取第二损失值,所述第一像素点的熵值小于熵阈值;
基于所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,所述第二像素点的熵值大于或等于熵阈值;
基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述综合损失值;
通过最小化所述综合损失值来更新所述学生网络模型的参数;
基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数。
可选地,根据本发明提供的一种地物要素分割模型训练方法,所述基于所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,包括:
基于分类概率阈值,对所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图中的各个第三像素点进行筛选,确定多个第四像素点和各个分类的查询样本,所述第三像素点的熵值大于或等于所述熵阈值,所述第四像素点的预测分类概率小于分类概率阈值,所述查询样本的预测分类概率大于或等于分类概率阈值;
针对各个分类的查询样本,进行均匀采样,获取各个分类的正样本;
针对多个分类中的每一个目标分类,在多个第四像素点中筛选出多个待排序的像素点,以及基于待排序的像素点与目标分类的正样本之间的相似度,按照相似度从高到低的顺序,对所述多个待排序的像素点进行排序,获取像素点序列,以及基于预设采样配置,对所述像素点序列进行特征采样,获取所述目标分类的负样本,所述待排序的像素点的预测分类不为所述目标分类;
基于各个分类的查询样本、正样本和负样本,进行对比学习,获取所述第三损失值;
所述预设采样配置用于指示像素点序列中靠前的像素点的采样比例高于像素点序列中靠后的像素点的采样比例。
可选地,根据本发明提供的一种地物要素分割模型训练方法,所述基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述综合损失值,包括:
通过以下损失值计算公式,确定所述综合损失值:
L=Lsup+λuLunsup+Lcon;
其中,L表示所述综合损失值,Lsup表示所述第一损失值,Lunsup表示所述第二损失值,Lcon表示所述第三损失值,λu表示无监督损失权重。
可选地,根据本发明提供的一种地物要素分割模型训练方法,所述基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数,包括:
通过以下滑动平均计算公式,更新各个教师网络模型的参数:
θt=αθt+(1-α)θs;
其中,θs为学生网络模型中的参数,θt为教师网络模型中与θs相对应的参数,α为预设滑动平均参数。
可选地,根据本发明提供的一种地物要素分割模型训练方法,在所述基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数之后,还包括:
通过以下自适应阈值计算公式,确定所述熵阈值:
其中,αi表示第i轮训练所采用的熵阈值,a0表示初始熵阈值,total epoch表示所述预设训练轮数。
第二方面,本发明还提供一种地物要素分割方法,包括:
获取遥感图像;
输入所述遥感图像至目标地物要素分割模型,获取所述目标地物要素分割模型输出的地物要素分割预测结果;
所述目标地物要素分割模型是按照如上述任一项所述地物要素分割模型训练方法进行半监督训练获取的。
第三方面,本发明还提供一种地物要素分割模型训练装置,包括:
样本获取模块,用于获取有标注遥感图像样本、所述有标注遥感图像样本的地物要素分类标注和无标注遥感图像样本;
训练模块,用于基于所述有标注遥感图像样本、所述地物要素分类标注和所述无标注遥感图像样本,对学生网络模型进行半监督训练,直至综合损失值小于损失阈值或达到预设训练轮数,所述学生网络模型用于对地物要素进行分割;
模型确定模块,用于确定已训练的所述学生网络模型作为目标地物要素分割模型;
所述对学生网络模型进行半监督训练,包括:
输入所述有标注遥感图像样本至所述学生网络模型,以及基于所述地物要素分类标注和所述学生网络模型输出的第一分类概率预测图,计算多分类交叉熵损失,获取第一损失值,分类概率预测图用于表示遥感图像中各个像素点的预测分类概率;
输入经过两种强数据增强方式处理的无标注遥感图像样本至两个教师网络模型,以及对各个教师网络模型输出的分类概率预测图取平均,获取第二分类概率预测图,所述教师网络模型的结构与所述学生网络模型的结构相同;
输入经过弱数据增强方式处理的无标注遥感图像样本至所述学生网络模型,获取所述学生网络模型输出的第三分类概率预测图;
基于所述第二分类概率预测图中的各个第一像素点和所述第三分类概率预测图,通过一致性正则化方式计算损失,获取第二损失值,所述第一像素点的熵值小于熵阈值;
基于所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,所述第二像素点的熵值大于或等于熵阈值;
基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述综合损失值;
通过最小化所述综合损失值来更新所述学生网络模型的参数;
基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数。
第四方面,本发明还提供一种地物要素分割装置,包括:
图像获取模块,用于获取遥感图像;
预测模块,用于输入所述遥感图像至目标地物要素分割模型,获取所述目标地物要素分割模型输出的地物要素分割预测结果;
所述目标地物要素分割模型是通过如上述任一种所述地物要素分割模型训练装置进行半监督训练获取的。
第五方面,本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述地物要素分割模型训练方法,或,所述处理器执行所述程序时实现如上述任一种所述地物要素分割方法。
第六方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述地物要素分割模型训练方法,或实现如上述任一种所述地物要素分割方法。
本发明提供的地物要素分割模型训练方法、地物要素分割方法及装置,通过将有标注遥感图像样本输入至学生网络模型进行训练,获得学生网络模型的第一分类概率预测图以及第一损失值;将无标注遥感图像样本采用强数据增强,并分别输入至两个教师网络模型进行预测,获得两个预测图并进行平均,获取第二分类概率预测图,对第二分类概率预测图的像素点进行像素级别的分类,分为可置信的第一像素点和不可置信的第二像素点,将无标注遥感图像样本采用弱数据增强,并输入至学生网络模型进行预测,可以获取第三分类概率预测图,进而基于第二分类概率预测图中的各个第一像素点和第三分类概率预测图,通过一致性正则化方式计算损失,获取第二损失值,以及基于第二分类概率预测图中的各个第二像素点和第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,进而基于第一损失值、第二损失值和第三损失值,确定综合损失值,进而可以利用综合损失值更新学生网络模型的参数,以及利用滑动平均方式更新各个教师网络模型的参数,通过多轮迭代训练可以获取目标地物要素分割模型,能够减少数据标注数据量,在少量精细标注的数据的情况下,通过半监督训练方式得到的目标地物要素分割模型,能够用于对复杂遥感图像场景中多时相地物要素进行准确地分类。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的地物要素分割模型训练方法的流程示意图之一;
图2是本发明提供的地物要素分割模型训练方法的流程示意图之二;
图3是本发明提供的地物要素分割方法的流程示意图;
图4是本发明提供的地物要素分割模型训练装置的结构示意图;
图5是本发明提供的地物要素分割装置的结构示意图;
图6是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是本发明提供的地物要素分割模型训练方法的流程示意图之一,如图1所示,所述方法的执行主体可以是电子设备,例如服务器等。该方法包括:
步骤101,获取有标注遥感图像样本、所述有标注遥感图像样本的地物要素分类标注和无标注遥感图像样本。
具体地,有标注遥感图像样本是指在遥感图像中已经标注了地物要素分类信息的样本,包括建筑物、道路、水体等。这些样本可以用于训练机器学习模型。
与有标注遥感图像样本相对应的是无标注遥感图像样本,它是指在遥感图像中未标注地物要素分类信息的样本。这些样本可以通过无监督学习方法进行处理,从而实现对遥感图像中地物要素的自动分割和识别。
步骤102,基于所述有标注遥感图像样本、所述地物要素分类标注和所述无标注遥感图像样本,对学生网络模型进行半监督训练,直至综合损失值小于损失阈值或达到预设训练轮数,所述学生网络模型用于对地物要素进行分割。
具体地,所述对学生网络模型进行半监督训练,包括:
输入有标注遥感图像样本至学生网络模型,以及基于地物要素分类标注和学生网络模型输出的第一分类概率预测图,计算多分类交叉熵损失,获取第一损失值,分类概率预测图用于表示遥感图像中各个像素点的预测分类概率;
输入经过两种强数据增强方式处理的无标注遥感图像样本至两个教师网络模型,以及对各个教师网络模型输出的分类概率预测图取平均,获取第二分类概率预测图,教师网络模型的结构与学生网络模型的结构相同;
输入经过弱数据增强方式处理的无标注遥感图像样本至学生网络模型,获取学生网络模型输出的第三分类概率预测图;
基于第二分类概率预测图中的各个第一像素点和第三分类概率预测图,通过一致性正则化方式计算损失,获取第二损失值,第一像素点的熵值小于熵阈值;
基于第二分类概率预测图中的各个第二像素点和第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,第二像素点的熵值大于或等于熵阈值;
基于第一损失值、第二损失值和第三损失值,确定综合损失值;
通过最小化综合损失值来更新学生网络模型的参数;
基于学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数。
需要说明的是,图像增强(Image Enhancement)是图像处理的一个重要环节,它的主要目的是通过提高图像的视觉效果或者使图像的某些细节更容易识别来改善图像的质量。图像增强并不增加图像的新信息,而是通过对现有图像的处理,使得图像中的信息变得更加明显、清晰。
上述弱数据增强方式是指进行弱图像增强,弱图像增强可以是翻转、裁剪、复制或旋转等图像变化操作。而强数据增强方式是指进行强图像增强,强图像增强可以是对图像的类别或者特征进行改变,如classmix是将两张图像中的类别混合、cutmix是将一张图像的一部分复制的另一张图像上面。
一致性正则化是一种半监督学习技术,其基本思想是鼓励模型对微小的输入变化保持不变。通过强度不同的图像增强,可以生成各种难度的样本,引导模型更好地学习和适应复杂和多变的真实环境。通过使用强图像增强,可以使得教师网络在训练时保持一致性的难度变大,进而通过训练能够提高模型的一致性,提高数据的泛化性能。
可以理解的是,上述半监督学习的过程涉及三个模型:学生(Student)网络模型和两个教师(Teacher)网络模型。其中,有标注的遥感图像样本被输入到学生网络模型中进行训练,同时计算多分类交叉熵损失以获取第一损失值Lsup。无标注的遥感图像样本被输入到两个教师网络模型中,输出的分类概率预测图取平均以获取第二分类概率预测图。此外,使用弱数据增强方式处理无标注遥感图像样本,获取学生网络模型输出的第三分类概率预测图。通过第二分类概率预测图和第三分类概率预测图计算损失,获取第二损失值Lunsup和第三损失值Lcon。综合第一、第二和第三损失值,确定综合损失值,并通过最小化综合损失值来更新学生网络模型的参数。最后,使用滑动平均方式更新各个教师网络模型的参数。
可选地,有标注遥感图像样本的地物要素分类标注可以是通过以下方式获取的:将地物要素分为9类,分别为草地、林地、耕地、裸地、水体、道路、不透水地面、居民区和工业区,用PhotoShop软件进行像素级标注。
可选地,学生(Student)网络模型可以是具有编码-解码结构的DeepLab v3+模型,使用resnet101网络作为骨干网络。
可选地,有标注遥感图像样本可以是维度H×W×3(H表示图像的高度,W表示图像的宽度)的原始RGB图像,将有标注遥感图像样本输入至学生网络模型,可以获取学生网络模型输出的大小为H×W×C的类概率图,即第一分类概率预测图,其中C表示地物要素类别数目。
可选地,图2是本发明提供的地物要素分割模型训练方法的流程示意图之二,如图2所示,将学生网络模型输出的第一分类概率预测图与地物要素分类标注(例如GroundTruth)计算监督多分类交叉熵损失,可以获取第一损失值Lsup。
可以理解是,两个教师网络模型(例如Teacher网络1和Teacher网络2)与Student网络的架构相同,Teacher网络的参数为Student网络参数的滑动平均,两个Teacher网络参数相同,输入两个Teacher网络的无标注遥感图像样本所采用图像增强方式不同。
可选地,可以采用ClassMix图像增强方式对无标注遥感图像样本进行强数据增强,进而将数据增强后的无标注遥感图像样本输入至Teacher网络1;可以采用CutMix图像增强方式对无标注遥感图像样本进行强数据增强,进而将数据增强后的无标注遥感图像样本输入至Teacher网络2。
可选地,如图2所示,将进行不同强图像增强的未标注的图像输入Teacher1和Teacher网络2,分别输出大小为H×W×C的预测图,并将两个分割图进行求和平均得到第二分类概率预测图。
可选地,将进行弱图像增强的未标注的图像输入Student网络,可以输出大小为H×W×C的第三分类概率预测图。
可选地,在获得教师网络模型的最后输出平均logits后,可以采用SoftMax函数将其转换为概率分布,得到概率分布后根据如下公式求每个像素的熵值:
H(pij)表示第i张图像的第j个像素的熵值,pij(c)表示SoftMax函数输出的概率,C表示地物要素类别数目。
可以理解的是,如图2所示,设定熵的阈值,低于熵阈值的为标签像素点为置信类像素点,也即第一像素点,高于熵阈值的标签像素点为不可置信类像素点,也即第二像素点。
步骤103,确定已训练的所述学生网络模型作为目标地物要素分割模型。
具体地,在进行地物要素分割时,需要一个能够准确识别目标地物要素分割模型,而已经经过上述半监督训练的学生网络模型则是一个比较理想的选择。通过使用这个模型,可以将地图上的各种地物要素进行有效的分割,提高地物要素分割的速度和精度。
本发明提供的地物要素分割模型训练方法,通过将有标注遥感图像样本输入至学生网络模型进行训练,获得学生网络模型的第一分类概率预测图以及第一损失值;将无标注遥感图像样本采用强数据增强,并分别输入至两个教师网络模型进行预测,获得两个预测图并进行平均,获取第二分类概率预测图,对第二分类概率预测图的像素点进行像素级别的分类,分为可置信的第一像素点和不可置信的第二像素点,将无标注遥感图像样本采用弱数据增强,并输入至学生网络模型进行预测,可以获取第三分类概率预测图,进而基于第二分类概率预测图中的各个第一像素点和第三分类概率预测图,通过一致性正则化方式计算损失,获取第二损失值,以及基于第二分类概率预测图中的各个第二像素点和第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,进而基于第一损失值、第二损失值和第三损失值,确定综合损失值,进而可以利用综合损失值更新学生网络模型的参数,以及利用滑动平均方式更新各个教师网络模型的参数,通过多轮迭代训练可以获取目标地物要素分割模型,能够减少数据标注数据量,在少量精细标注的数据的情况下,通过半监督训练方式得到的目标地物要素分割模型,能够用于对复杂遥感图像场景中多时相地物要素进行准确地分类。
可选地,根据本发明提供的一种地物要素分割模型训练方法,所述基于所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,包括:
基于分类概率阈值,对所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图中的各个第三像素点进行筛选,确定多个第四像素点和各个分类的查询样本,所述第三像素点的熵值大于或等于所述熵阈值,所述第四像素点的预测分类概率小于分类概率阈值,所述查询样本的预测分类概率大于或等于分类概率阈值;
针对各个分类的查询样本,进行均匀采样,获取各个分类的正样本;
针对多个分类中的每一个目标分类,在多个第四像素点中筛选出多个待排序的像素点,以及基于待排序的像素点与目标分类的正样本之间的相似度,按照相似度从高到低的顺序,对所述多个待排序的像素点进行排序,获取像素点序列,以及基于预设采样配置,对所述像素点序列进行特征采样,获取所述目标分类的负样本,所述待排序的像素点的预测分类不为所述目标分类;
基于各个分类的查询样本、正样本和负样本,进行对比学习,获取所述第三损失值;
所述预设采样配置用于指示像素点序列中靠前的像素点的采样比例高于像素点序列中靠后的像素点的采样比例。
具体地,根据分类概率阈值,筛选第二和第三分类概率预测图中的像素点,确定第四像素点和查询样本(Query)。对查询样本进行均匀采样,获取正样本。针对目标分类,在第四像素点中筛选待排序的像素点,按照相似度从高到低排序,获取像素点序列并进行特征采样,获取负样本。基于查询样本、正样本和负样本,进行对比学习,获取第三损失值。采样配置用于指示像素点序列中靠前的像素点的采样比例高于靠后的像素点。
可选地,可以将多个第四像素点,放入一个称为Memory bank的数据结构中,进而基于Memory bank,按照两个原则对多个第四像素点进行筛选、排序和采样,以获取负样本。其中,第一个原则是,像素点特征与正样本和Query不能属于同一类,这是为了保证选出的负样本能够充分代表其他类别,第一个原则与上述在多个第四像素点中筛选出多个待排序的像素点的过程相对应。第二个原则是,特征与正样本和Query的相似度必须足够高,这样选出的负样本在特征空间中距离正样本较近,这样的负样本能够提供更强烈的对比,从而使得学习更加有效,第二个原则与上述对多个待排序的像素点进行排序的过程相对应。
按照这两个原则,对Memory bank中的特征按照相似度从高到低进行排序。对于排在前面(即相似度高)的类别,会采样更多的特征,而对于排在后面(即相似度低)的类别,则采样较少的特征。在这个过程结束后,将采样出来的所有特征作为负样本,用于后续的对比学习。
Memory bank是一种用于存储大量数据的数据结构,通常用于深度学习和机器学习中的特定任务,如大规模无监督学习、自监督学习和半监督学习等。在这些任务中,可能需要处理数以百万计的样本,并且需要在整个训练过程中保持这些样本的状态。Memorybank会将数据存储在内存中的一个数组或列表中。Memory bank在这里充当一个缓冲区,存储着所有待排序的像素特征。
可以理解的是,由于遥感图像存在类内相异性和类间相似性,反映到特征空间上就是特征分类的困难性,通过使用对比学习,给予难分类的样本对更多的学习权重,加大对比学习的难度,使特征空间的分类更加有效,相比于现有技术能够提高遥感地物分割的精确度,具有重要意义。
可选地,对比学习所采用的损失函数可以是InfoNCE损失函数。
可选地,根据本发明提供的一种地物要素分割模型训练方法,所述基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述综合损失值,包括:
通过以下损失值计算公式,确定所述综合损失值:
L=Lsup+λuLunsup+Lcon;
其中,L表示所述综合损失值,Lsup表示所述第一损失值,Lunsup表示所述第二损失值,Lcon表示所述第三损失值,λu表示无监督损失权重。
具体地,如图2所示,结合有监督损失Lsup,一致性正则化方式得出的无监督损失Lunsup和对比学习得出的对比损失Lcon,可以确定综合损失值L,可以通过最小化综合损失值来更新学生网络模型的参数。
可选地,无监督损失权重λu可以是动态的权重,随着不可置信像素点数量在总像素点数量中的占比降低而减少,以改善训练效果。
可选地,根据本发明提供的一种地物要素分割模型训练方法,所述基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数,包括:
通过以下滑动平均计算公式,更新各个教师网络模型的参数:
θt=αθt+(1-α)θs;
其中,θs为学生网络模型中的参数,θt为教师网络模型中与θs相对应的参数,α为预设滑动平均参数。
具体地,由于教师网络模型的结构与所述学生网络模型的结构相同,因而可以在教师网络模型中找到与θs相对应的θt,在通过最小化综合损失值来更新学生网络模型的参数之后,可以通过上述滑动平均计算公式更新各个教师网络模型的参数。
可选地,根据本发明提供的一种地物要素分割模型训练方法,在所述基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数之后,还包括:
通过以下自适应阈值计算公式,确定所述熵阈值:
其中,αi表示第i轮训练所采用的熵阈值,a0表示初始熵阈值,total epoch表示所述预设训练轮数。
具体地,由于训练的轮次越多,图像的置信度越高,不可置信的像素越少,所以阈值应自适应减小以继续过滤不可置信像素,提升模型训练效果。
图3是本发明提供的地物要素分割方法的流程示意图,如图3所示,所述方法的执行主体可以是电子设备,例如服务器等。该方法包括:
步骤301,获取遥感图像;
步骤302,输入所述遥感图像至目标地物要素分割模型,获取所述目标地物要素分割模型输出的地物要素分割预测结果;
所述目标地物要素分割模型是按照如上述任一项物要素分割模型训练方法进行半监督训练获取的。
具体地,在进行地物要素分割前,需要获取遥感图像作为输入。这些遥感图像可以通过无人机、卫星或其他遥感设备获得。接下来,可以将这些图像输入到目标地物要素分割模型中,该模型可以通过深度学习算法进行训练和优化,以识别和分割出图像中的不同地物要素,例如建筑物、道路、水体等等。最终,可以获得地物要素分割预测结果,这些结果可以用于地图制作、城市规划或环境监测等领域。
下面对本发明提供的地物要素分割模型训练装置进行描述,下文描述的地物要素分割模型训练装置与上文描述的地物要素分割模型训练方法可相互对应参照。
图4是本发明提供的地物要素分割模型训练装置的结构示意图,如图4所示,所述装置包括,样本获取模块401、训练模块402和模型确定模块403,其中:
样本获取模块401,用于获取有标注遥感图像样本、所述有标注遥感图像样本的地物要素分类标注和无标注遥感图像样本;
训练模块402,用于基于所述有标注遥感图像样本、所述地物要素分类标注和所述无标注遥感图像样本,对学生网络模型进行半监督训练,直至综合损失值小于损失阈值或达到预设训练轮数,所述学生网络模型用于对地物要素进行分割;
模型确定模块403,用于确定已训练的所述学生网络模型作为目标地物要素分割模型;
所述对学生网络模型进行半监督训练,包括:
输入所述有标注遥感图像样本至所述学生网络模型,以及基于所述地物要素分类标注和所述学生网络模型输出的第一分类概率预测图,计算多分类交叉熵损失,获取第一损失值,分类概率预测图用于表示遥感图像中各个像素点的预测分类概率;
输入经过两种强数据增强方式处理的无标注遥感图像样本至两个教师网络模型,以及对各个教师网络模型输出的分类概率预测图取平均,获取第二分类概率预测图,所述教师网络模型的结构与所述学生网络模型的结构相同;
输入经过弱数据增强方式处理的无标注遥感图像样本至所述学生网络模型,获取所述学生网络模型输出的第三分类概率预测图;
基于所述第二分类概率预测图中的各个第一像素点和所述第三分类概率预测图,通过一致性正则化方式计算损失,获取第二损失值,所述第一像素点的熵值小于熵阈值;
基于所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,所述第二像素点的熵值大于或等于熵阈值;
基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述综合损失值;
通过最小化所述综合损失值来更新所述学生网络模型的参数;
基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数。
下面对本发明提供的地物要素分割装置进行描述,下文描述的地物要素分割装置与上文描述的地物要素分割方法可相互对应参照。
图5是本发明提供的地物要素分割装置的结构示意图,如图5所示,所述装置包括:图像获取模块501和预测模块502,其中:
图像获取模块501,用于获取遥感图像;
预测模块502,用于输入所述遥感图像至目标地物要素分割模型,获取所述目标地物要素分割模型输出的地物要素分割预测结果;
所述目标地物要素分割模型是通过如上述任一种地物要素分割模型训练装置进行半监督训练获取的。
图6是本发明提供的电子设备的结构示意图,如图6所示,该电子设备可以包括:处理器(processor)610、通信接口(Communications Interface)620、存储器(memory)630和通信总线640,其中,处理器610,通信接口620,存储器630通过通信总线640完成相互间的通信。处理器610可以调用存储器630中的逻辑指令,以执行地物要素分割模型训练方法,该方法包括:
获取有标注遥感图像样本、所述有标注遥感图像样本的地物要素分类标注和无标注遥感图像样本;
基于所述有标注遥感图像样本、所述地物要素分类标注和所述无标注遥感图像样本,对学生网络模型进行半监督训练,直至综合损失值小于损失阈值或达到预设训练轮数,所述学生网络模型用于对地物要素进行分割;
确定已训练的所述学生网络模型作为目标地物要素分割模型;
所述对学生网络模型进行半监督训练,包括:
输入所述有标注遥感图像样本至所述学生网络模型,以及基于所述地物要素分类标注和所述学生网络模型输出的第一分类概率预测图,计算多分类交叉熵损失,获取第一损失值,分类概率预测图用于表示遥感图像中各个像素点的预测分类概率;
输入经过两种强数据增强方式处理的无标注遥感图像样本至两个教师网络模型,以及对各个教师网络模型输出的分类概率预测图取平均,获取第二分类概率预测图,所述教师网络模型的结构与所述学生网络模型的结构相同;
输入经过弱数据增强方式处理的无标注遥感图像样本至所述学生网络模型,获取所述学生网络模型输出的第三分类概率预测图;
基于所述第二分类概率预测图中的各个第一像素点和所述第三分类概率预测图,通过一致性正则化方式计算损失,获取第二损失值,所述第一像素点的熵值小于熵阈值;
基于所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,所述第二像素点的熵值大于或等于熵阈值;
基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述综合损失值;
通过最小化所述综合损失值来更新所述学生网络模型的参数;
基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数;
或,执行地物要素分割方法,该方法包括:
获取遥感图像;
输入所述遥感图像至目标地物要素分割模型,获取所述目标地物要素分割模型输出的地物要素分割预测结果;
所述目标地物要素分割模型是按照如上述任一项所述地物要素分割模型训练方法进行半监督训练获取的。
此外,上述的存储器630中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的地物要素分割模型训练方法,该方法包括:
获取有标注遥感图像样本、所述有标注遥感图像样本的地物要素分类标注和无标注遥感图像样本;
基于所述有标注遥感图像样本、所述地物要素分类标注和所述无标注遥感图像样本,对学生网络模型进行半监督训练,直至综合损失值小于损失阈值或达到预设训练轮数,所述学生网络模型用于对地物要素进行分割;
确定已训练的所述学生网络模型作为目标地物要素分割模型;
所述对学生网络模型进行半监督训练,包括:
输入所述有标注遥感图像样本至所述学生网络模型,以及基于所述地物要素分类标注和所述学生网络模型输出的第一分类概率预测图,计算多分类交叉熵损失,获取第一损失值,分类概率预测图用于表示遥感图像中各个像素点的预测分类概率;
输入经过两种强数据增强方式处理的无标注遥感图像样本至两个教师网络模型,以及对各个教师网络模型输出的分类概率预测图取平均,获取第二分类概率预测图,所述教师网络模型的结构与所述学生网络模型的结构相同;
输入经过弱数据增强方式处理的无标注遥感图像样本至所述学生网络模型,获取所述学生网络模型输出的第三分类概率预测图;
基于所述第二分类概率预测图中的各个第一像素点和所述第三分类概率预测图,通过一致性正则化方式计算损失,获取第二损失值,所述第一像素点的熵值小于熵阈值;
基于所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,所述第二像素点的熵值大于或等于熵阈值;
基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述综合损失值;
通过最小化所述综合损失值来更新所述学生网络模型的参数;
基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数;
或,执行上述各方法提供的地物要素分割方法,该方法包括:
获取遥感图像;
输入所述遥感图像至目标地物要素分割模型,获取所述目标地物要素分割模型输出的地物要素分割预测结果;
所述目标地物要素分割模型是按照如上述任一项所述地物要素分割模型训练方法进行半监督训练获取的。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种地物要素分割模型训练方法,其特征在于,包括:
获取有标注遥感图像样本、所述有标注遥感图像样本的地物要素分类标注和无标注遥感图像样本;
基于所述有标注遥感图像样本、所述地物要素分类标注和所述无标注遥感图像样本,对学生网络模型进行半监督训练,直至综合损失值小于损失阈值或达到预设训练轮数,所述学生网络模型用于对地物要素进行分割;
确定已训练的所述学生网络模型作为目标地物要素分割模型;
所述对学生网络模型进行半监督训练,包括:
输入所述有标注遥感图像样本至所述学生网络模型,以及基于所述地物要素分类标注和所述学生网络模型输出的第一分类概率预测图,计算多分类交叉熵损失,获取第一损失值,分类概率预测图用于表示遥感图像中各个像素点的预测分类概率;
输入经过两种强数据增强方式处理的无标注遥感图像样本至两个教师网络模型,以及对各个教师网络模型输出的分类概率预测图取平均,获取第二分类概率预测图,所述教师网络模型的结构与所述学生网络模型的结构相同;
输入经过弱数据增强方式处理的无标注遥感图像样本至所述学生网络模型,获取所述学生网络模型输出的第三分类概率预测图;
基于所述第二分类概率预测图中的各个第一像素点和所述第三分类概率预测图,通过一致性正则化方式计算损失,获取第二损失值,所述第一像素点的熵值小于熵阈值;
基于所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,所述第二像素点的熵值大于或等于熵阈值;
基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述综合损失值;
通过最小化所述综合损失值来更新所述学生网络模型的参数;
基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数。
2.根据权利要求1所述地物要素分割模型训练方法,其特征在于,所述基于所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,包括:
基于分类概率阈值,对所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图中的各个第三像素点进行筛选,确定多个第四像素点和各个分类的查询样本,所述第三像素点的熵值大于或等于所述熵阈值,所述第四像素点的预测分类概率小于分类概率阈值,所述查询样本的预测分类概率大于或等于分类概率阈值;
针对各个分类的查询样本,进行均匀采样,获取各个分类的正样本;
针对多个分类中的每一个目标分类,在多个第四像素点中筛选出多个待排序的像素点,以及基于待排序的像素点与目标分类的正样本之间的相似度,按照相似度从高到低的顺序,对所述多个待排序的像素点进行排序,获取像素点序列,以及基于预设采样配置,对所述像素点序列进行特征采样,获取所述目标分类的负样本,所述待排序的像素点的预测分类不为所述目标分类;
基于各个分类的查询样本、正样本和负样本,进行对比学习,获取所述第三损失值;
所述预设采样配置用于指示像素点序列中靠前的像素点的采样比例高于像素点序列中靠后的像素点的采样比例。
3.根据权利要求1所述地物要素分割模型训练方法,其特征在于,所述基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述综合损失值,包括:
通过以下损失值计算公式,确定所述综合损失值:
L=Lsup+λuLunsup+Lcon;
其中,L表示所述综合损失值,Lsup表示所述第一损失值,Lunsup表示所述第二损失值,Lcon表示所述第三损失值,λu表示无监督损失权重。
4.根据权利要求1所述地物要素分割模型训练方法,其特征在于,所述基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数,包括:
通过以下滑动平均计算公式,更新各个教师网络模型的参数:
θt=αθt+(1-α)θs;
其中,θs为学生网络模型中的参数,θt为教师网络模型中与θs相对应的参数,α为预设滑动平均参数。
5.根据权利要求1-4任一项所述地物要素分割模型训练方法,其特征在于,在所述基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数之后,还包括:
通过以下自适应阈值计算公式,确定所述熵阈值:
其中,αi表示第i轮训练所采用的熵阈值,a0表示初始熵阈值,total epoch表示所述预设训练轮数。
6.一种地物要素分割方法,其特征在于,包括:
获取遥感图像;
输入所述遥感图像至目标地物要素分割模型,获取所述目标地物要素分割模型输出的地物要素分割预测结果;
所述目标地物要素分割模型是按照如权利要求1-5任一项所述地物要素分割模型训练方法进行半监督训练获取的。
7.一种地物要素分割模型训练装置,其特征在于,包括:
样本获取模块,用于获取有标注遥感图像样本、所述有标注遥感图像样本的地物要素分类标注和无标注遥感图像样本;
训练模块,用于基于所述有标注遥感图像样本、所述地物要素分类标注和所述无标注遥感图像样本,对学生网络模型进行半监督训练,直至综合损失值小于损失阈值或达到预设训练轮数,所述学生网络模型用于对地物要素进行分割;
模型确定模块,用于确定已训练的所述学生网络模型作为目标地物要素分割模型;
所述对学生网络模型进行半监督训练,包括:
输入所述有标注遥感图像样本至所述学生网络模型,以及基于所述地物要素分类标注和所述学生网络模型输出的第一分类概率预测图,计算多分类交叉熵损失,获取第一损失值,分类概率预测图用于表示遥感图像中各个像素点的预测分类概率;
输入经过两种强数据增强方式处理的无标注遥感图像样本至两个教师网络模型,以及对各个教师网络模型输出的分类概率预测图取平均,获取第二分类概率预测图,所述教师网络模型的结构与所述学生网络模型的结构相同;
输入经过弱数据增强方式处理的无标注遥感图像样本至所述学生网络模型,获取所述学生网络模型输出的第三分类概率预测图;
基于所述第二分类概率预测图中的各个第一像素点和所述第三分类概率预测图,通过一致性正则化方式计算损失,获取第二损失值,所述第一像素点的熵值小于熵阈值;
基于所述第二分类概率预测图中的各个第二像素点和所述第三分类概率预测图,通过对比学习方式计算损失,获取第三损失值,所述第二像素点的熵值大于或等于熵阈值;
基于所述第一损失值、所述第二损失值和所述第三损失值,确定所述综合损失值;
通过最小化所述综合损失值来更新所述学生网络模型的参数;
基于所述学生网络模型的参数,通过滑动平均方式更新各个教师网络模型的参数。
8.一种地物要素分割装置,其特征在于,包括:
图像获取模块,用于获取遥感图像;
预测模块,用于输入所述遥感图像至目标地物要素分割模型,获取所述目标地物要素分割模型输出的地物要素分割预测结果;
所述目标地物要素分割模型是通过如权利要求7所述地物要素分割模型训练装置进行半监督训练获取的。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至5任一项所述地物要素分割模型训练方法,或所述处理器执行所述程序时实现如权利要求6所述地物要素分割方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述地物要素分割模型训练方法,或所述计算机程序被处理器执行时实现如权利要求6所述地物要素分割方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310842758.9A CN116977633A (zh) | 2023-07-10 | 2023-07-10 | 地物要素分割模型训练方法、地物要素分割方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310842758.9A CN116977633A (zh) | 2023-07-10 | 2023-07-10 | 地物要素分割模型训练方法、地物要素分割方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116977633A true CN116977633A (zh) | 2023-10-31 |
Family
ID=88476055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310842758.9A Pending CN116977633A (zh) | 2023-07-10 | 2023-07-10 | 地物要素分割模型训练方法、地物要素分割方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116977633A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117333781A (zh) * | 2023-11-15 | 2024-01-02 | 自然资源部国土卫星遥感应用中心 | 黑土区侵蚀沟卫星遥感智能提取方法、装置、设备及介质 |
CN117475155A (zh) * | 2023-12-26 | 2024-01-30 | 厦门瑞为信息技术有限公司 | 基于半监督学习的轻量级遥感图像分割方法 |
CN118279590A (zh) * | 2024-04-15 | 2024-07-02 | 中国科学院自动化研究所 | 一种半监督的红外图像分割方法 |
-
2023
- 2023-07-10 CN CN202310842758.9A patent/CN116977633A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117333781A (zh) * | 2023-11-15 | 2024-01-02 | 自然资源部国土卫星遥感应用中心 | 黑土区侵蚀沟卫星遥感智能提取方法、装置、设备及介质 |
CN117333781B (zh) * | 2023-11-15 | 2024-05-10 | 自然资源部国土卫星遥感应用中心 | 黑土区侵蚀沟卫星遥感智能提取方法、装置、设备及介质 |
CN117475155A (zh) * | 2023-12-26 | 2024-01-30 | 厦门瑞为信息技术有限公司 | 基于半监督学习的轻量级遥感图像分割方法 |
CN117475155B (zh) * | 2023-12-26 | 2024-04-02 | 厦门瑞为信息技术有限公司 | 基于半监督学习的轻量级遥感图像分割方法 |
CN118279590A (zh) * | 2024-04-15 | 2024-07-02 | 中国科学院自动化研究所 | 一种半监督的红外图像分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109754015B (zh) | 用于画作多标签识别的神经网络及相关方法、介质和设备 | |
Mathur et al. | Crosspooled FishNet: transfer learning based fish species classification model | |
CN110633708A (zh) | 一种基于全局模型和局部优化的深度网络显著性检测方法 | |
CN116977633A (zh) | 地物要素分割模型训练方法、地物要素分割方法及装置 | |
CN112966691A (zh) | 基于语义分割的多尺度文本检测方法、装置及电子设备 | |
CN109711448A (zh) | 基于判别关键域和深度学习的植物图像细粒度分类方法 | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
CN113011357A (zh) | 基于时空融合的深度伪造人脸视频定位方法 | |
CN114998603B (zh) | 一种基于深度多尺度特征因子融合的水下目标检测方法 | |
CN109766823A (zh) | 一种基于深层卷积神经网络的高分辨率遥感船舶检测方法 | |
Li et al. | Robust deep neural networks for road extraction from remote sensing images | |
CN106815323A (zh) | 一种基于显著性检测的跨域视觉检索方法 | |
CN110853070A (zh) | 基于显著性与Grabcut的水下海参图像分割方法 | |
CN114548256A (zh) | 一种基于对比学习的小样本珍稀鸟类识别方法 | |
Li et al. | An improved categorical cross entropy for remote sensing image classification based on noisy labels | |
CN117152503A (zh) | 一种基于伪标签不确定性感知的遥感图像跨域小样本分类方法 | |
Kim et al. | A shape preserving approach for salient object detection using convolutional neural networks | |
CN115311657A (zh) | 多源藻类图像目标检测方法、系统、电子设备及存储介质 | |
CN115439715A (zh) | 基于反标签学习的半监督少样本图像分类学习方法及系统 | |
CN111860465A (zh) | 基于超像素的遥感图像提取方法、装置、设备及存储介质 | |
Alsaadi et al. | An automated mammals detection based on SSD-mobile net | |
CN113505712A (zh) | 基于新型损失函数的卷积神经网络的海面溢油检测方法 | |
CN105844299B (zh) | 一种基于词袋模型的图像分类方法 | |
Cai et al. | Automated marine oil spill detection algorithm based on single-image generative adversarial network and YOLO-v8 under small samples | |
Yang et al. | Adaptive image processing embedding to make the ecological tasks of deep learning more robust on camera traps images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |