CN114943965A - 基于课程学习的无监督域自适应遥感图像语义分割方法 - Google Patents
基于课程学习的无监督域自适应遥感图像语义分割方法 Download PDFInfo
- Publication number
- CN114943965A CN114943965A CN202210608548.9A CN202210608548A CN114943965A CN 114943965 A CN114943965 A CN 114943965A CN 202210608548 A CN202210608548 A CN 202210608548A CN 114943965 A CN114943965 A CN 114943965A
- Authority
- CN
- China
- Prior art keywords
- target domain
- domain data
- confidence
- image
- semantic segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000011218 segmentation Effects 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 35
- 230000006870 function Effects 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 10
- 150000001875 compounds Chemical class 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 2
- 230000003044 adaptive effect Effects 0.000 claims 2
- 230000008569 process Effects 0.000 abstract description 9
- 238000012986 modification Methods 0.000 abstract description 4
- 230000004048 modification Effects 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 abstract description 2
- 230000009466 transformation Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于课程学习的无监督域自适应遥感图像语义分割方法,利用课程学习思想,通过线性增长的占比ki的目标域像素数目和类别平衡的伪标签筛选策略,使得教师模型MT以不同置信阈值生成伪标签,结合源域数据Ds预训练的教师模型MT直接应用于置信度阈值的计算和伪标签的生成,使得训练过程更稳定;同时,训练过程中伪标签的数量呈线性增加,从而动态修改实现对目标域数据生成由易得到难的伪标签,实现稳定有效的训练。
Description
技术领域
本发明涉及图像分割技术领域,具体而言,涉及一种基于课程学习的无监督域自适应遥感图像语义分割方法。
背景技术
语义分割即对图像中每一个像素点进行分类,确定每个点的类别,从而进行区域划分;语义分割的目的是预测像素级的语义标签。随着遥感领域的发展,遥感卫星可以获取到大量的遥感图像数据,对遥感图像进行有效的语义分割可以对地物类别进行像素级分类,在路网提取、土地覆盖等方面都有广泛的应用,在更新基础地理数据、自主农业、智能交通、城市规划和可持续发展等方面有重要的意义,具有广泛的实用价值;但是遥感图像语义分割存在两个问题:分辨率高尺度大,标注需要花费巨大的人力和时间;而且不同地区地形地貌和建筑风格等方面存在较大的差异,将训练好的模型应用到不同地理空间区域时其分割效果往往不尽人意;例如:在城市和农村地区,土地覆盖的表现形式在类别分布、物体尺度和像元光谱上差异很大。
无监督域自适应方法可以较好的解决上述问题,尽可能利用有标注的源域数据,在不针对目标数据集进行重新标注的情况下,在不可见的目标数据集上取得较好的语义分割结果。无监督域自适应是假定所有的测试数据都没有标注,无监督域自适应的目标是即使在训练图像和测试图像之间存在较大的领域差异时也能生成高质量的分割,现有技术中,为了提高卷积神经网络(CNN)的泛化能力,常用方法之包括利用伽马校正、随机对比度变化等多种数据增强技术来丰富训练数据;此外,基于对抗的特征对齐方法采用生成对抗网络(GAN)来尽可能缩小源域和目标域特征表示之间的距离,其中鉴别器可以在多个层次上使用。另外,基于图像风格迁移的方法则是在保留图像内容的条件下,将源域图像的风格变换到目标域,从而利用源域图像的标签进行训练,这类方法也大多采用生成对抗网络实现。
现有技术中也有采用自步训练的方式训练目标域数据生成伪标签,但是,由于自步训练过程中会不断更新训练模型,而目标域的验证集不可见,从而无法对更新的训练模型进行筛选,导致训练过程不稳定,进而导致生成的伪标签噪声大。
发明内容
本发明解决的问题是如何减少伪标签在训练过程中的噪声影响,使得训练过程稳定,实现高精度的语义分割。
为解决上述问题,本发明提供基于课程学习的无监督域自适应遥感图像语义分割方法,其特征在于,包括:
步骤1、采集具有标签的源域数据Ds={Xs,Ys}和无标签的目标域数据 Dt={Xt};其中,Xs为源域图像,Ys为对应源域图像Xs的标签;Xt是目标域图像;源域数据Ds和目标域数据Dt共享标签空间;
步骤2、构建交叉熵损失函数,根据交叉熵损失函数在源域数据Ds上预训练教师模型MT,并保留预训练的权重参数;
步骤3、构建与教师模型MT相同的学生模型MS,并基于教师模型MT和预训练的权重参数初始化学生模型MS;
步骤4、使用教师模型MT对目标域数据Dt进行预测,预测得到每个目标域像素属于某类别的概率的置信度图,并根据置信图统计每个类别的像素数目及占比;
步骤6、将源域数据和将占比ki的目标域数据及其伪标签采用交叉熵损失训练学生模型,计算并输出交叉熵损失曲线,根据交叉熵损失曲线判断交叉熵损失训练是否趋于稳定,若是,则进入步骤7,否则,继续通过源域数据和将占比ki的目标域数据训练学生模型;
步骤7、ki=ki+M,M为使得ki呈线性递增的常数;判断ki是否小于等于K;若是,则返回步骤5;若否,则进入步骤8;
步骤8、将目标域数据Dt输入保存的学生模型MS进行测试,提取图像的特征,采用平均交并比mIoU作为评价指标评价训练后的学生模型MS,计算 mIoU并将像素类别进行可视化,得到语义分割的结果。
本发明的有益效果是:利用课程学习思想,通过线性增长的占比ki的目标域像素数目和类别平衡的伪标签筛选策略,使得教师模型MT以不同置信阈值生成伪标签,结合源域数据Ds预训练的教师模型MT直接应用于置信度阈值的计算和伪标签的生成,使得训练过程更稳定;同时,训练过程中伪标签的数量呈线性增加,从而动态修改实现对目标域数据生成由易得到难的伪标签,实现稳定有效的训练。
作为优选,所述步骤2中的交叉熵损失函数为:
作为优选,所述步骤4中将占比ki的目标域像素数目输入教师模型MT中,生成置信度图,并根据置信图统计每个类别的像素数目及占比σc:
σc=Nc/Nt
Nc为目标域数据中第c个类别的像素数,Nt是目标域数据的总像素数作为优选,所述步骤5中具体包括:
步骤501、对每个类别内按照置信度从高到低排序,并选择c类中置信度最高的前Nc个像素作为伪标签的样本;第Nc个像素的置信度即为置信阈值τc;
作为优选,所述步骤6中的交叉熵损失训练函数为:
L=Ls+λ*Lt
式中,λ为常数,用于控制目标域的损失占比。
作为优选,所述步骤8中平均交并比mIoU为:
附图说明
图1为本发明的语义分割框架示意图;
图2为本发明流程伪代码。
具体实施方式
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
如图1-2所示的基于课程学习的无监督域自适应遥感图像语义分割方法,包括:
步骤1、采集具有标签的源域数据Ds={Xs,Ys}和无标签的目标域数据 Dt={Xt};其中,Xs为源域图像,Ys为对应源域图像Xs的标签;Xt是目标域图像;源域数据Ds和目标域数据Dt共享标签空间;
本具体实施例中的源域数据Ds和目标域数据Dt内的数据集包含城市和乡村两个域,其中,城市域数据集由1156幅训练图像、677幅验证图像和 820幅测试图像组成,乡村域数据集由1366幅训练图像、992幅验证图像和976幅测试图像组成;为了扩充数据集数据量,本具体实施例还对数据集进行了翻转变换、随机旋转变换、上下左右平移变换、随机裁切变换等增广操作;并且,本具体实施中的目标域数据Dt包括用于训练的训练集数据和用于测试评价语义分割精度的学生模型的测试集数据;本具体实施例每次从数据集中随机抽取8个源域图像和8个目标域图像;
步骤2、构建交叉熵损失函数,根据交叉熵损失函数在源域数据Ds上预训练教师模型MT,并保留预训练的权重参数;交叉熵损失函数为:
关于如何使用交叉熵损失函数在源域数据Ds上预训练教师模型MT为现有技术,此处不做过多赘述;
步骤3、构建与教师模型MT相同的学生模型MS,并基于教师模型MT和预训练的权重参数初始化学生模型MS;本具体实施例使用ResNet-50作为骨干,在ImageNet上进行预训练;
步骤4、使用教师模型MT对目标域数据Dt进行预测,预测得到每个目标域像素属于某类别的概率的置信度图,并根据置信图统计每个类别的像素数目及占比σc:
σc=Nc/Nt
Nc为目标域数据中第c个类别的像素数,Nt是目标域数据的总像素数;
步骤501、对每个类别内按照置信度从高到低排序,并选择c类中置信度最高的前Nc个像素作为伪标签的样本;第Nc个像素的置信度即为置信阈值τc;
步骤6、将源域数据和将占比ki的目标域数据及其伪标签采用交叉熵损失训练学生模型,计算并输出交叉熵损失曲线,根据交叉熵损失曲线判断交叉熵损失训练是否趋于稳定,若是,则进入步骤7,否则,继续通过源域数据和将占比ki的目标域数据训练学生模型;本具体实施例中计算交叉熵损失曲线为现有技术,不做过多赘述;根据交叉熵损失曲线判断交叉熵损失训练是否趋于稳定的判断方法,本具体实施例采用将计算的交叉上损失曲线进行傅里叶分析,得到频率-振幅曲线,然后将得到的频率-振幅曲线与标准参考曲线进行比例,以判断交叉熵损失训练是否稳定,具体操作方式为现有技术,此处不做过多赘述;而关于交叉熵损失训练函数为:
L=Ls+λ*Lt
式中,λ为常数,用于控制目标域的损失占比;
步骤7、ki=ki+M,M为使得ki呈线性递增的常数;判断ki是否小于等于K;若是,则返回步骤5;若否,则进入步骤8;
步骤8、将目标域数据Dt中的测试集数据输入保存的学生模型MS进行测试,提取图像的特征,采用平均交并比mIoU作为评价指标评价训练后的学生模型MS,计算mIoU并将像素类别进行可视化,得到语义分割的结果;平均交并比mIoU的公式为:
个类别的交并比,i=1,2,…,n。
虽然本公开披露如上,但本公开的保护范围并非仅限于此。本领域技术人员,在不脱离本公开的精神和范围的前提下,可进行各种变更与修改,这些变更与修改均将落入本发明的保护范围。
Claims (6)
1.基于课程学习的无监督域自适应遥感图像语义分割方法,其特征在于,包括:
步骤1、采集具有标签的源域数据Ds={Xs,Ys}和无标签的目标域数据Dt={Xt};其中,Xs为源域图像,Ys为对应源域图像Xs的标签;Xt是目标域图像;源域数据Ds和目标域数据Dt共享标签空间;
步骤2、构建交叉熵损失函数,根据交叉熵损失函数在源域数据Ds上预训练教师模型MT,并保留预训练的权重参数;
步骤3、构建与教师模型MT相同的学生模型MS,并基于教师模型MT和预训练的权重参数初始化学生模型MS;
步骤4、使用教师模型MT对目标域数据Dt进行预测,预测得到每个目标域像素属于某类别的概率的置信度图,并根据置信图统计每个类别的像素数目及占比;
步骤6、将源域数据和将占比ki的目标域数据及其伪标签采用交叉熵损失训练学生模型,计算并输出交叉熵损失曲线,根据交叉熵损失曲线判断交叉熵损失训练是否趋于稳定,若是,则进入步骤7,否则,继续通过源域数据和将占比ki的目标域数据训练学生模型;
步骤7、ki=ki+M,M为使得ki呈线性递增的常数;判断ki是否小于等于K;若是,则返回步骤5;若否,则进入步骤8;
步骤8、将目标域数据Dt输入保存的学生模型MS进行测试,提取图像的特征,采用平均交并比mIoU作为评价指标评价训练后的学生模型MS,计算mIoU并将像素类别进行可视化,得到语义分割的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210608548.9A CN114943965B (zh) | 2022-05-31 | 2022-05-31 | 基于课程学习的无监督域自适应遥感图像语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210608548.9A CN114943965B (zh) | 2022-05-31 | 2022-05-31 | 基于课程学习的无监督域自适应遥感图像语义分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114943965A true CN114943965A (zh) | 2022-08-26 |
CN114943965B CN114943965B (zh) | 2024-05-10 |
Family
ID=82908352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210608548.9A Active CN114943965B (zh) | 2022-05-31 | 2022-05-31 | 基于课程学习的无监督域自适应遥感图像语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114943965B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115222945A (zh) * | 2022-09-15 | 2022-10-21 | 深圳市软盟技术服务有限公司 | 基于多尺度自适应课程学习的深度语义分割网络训练方法 |
CN115393725A (zh) * | 2022-10-26 | 2022-11-25 | 西南科技大学 | 一种特征增强和语义分割的桥梁裂缝识别方法 |
CN117611957A (zh) * | 2024-01-19 | 2024-02-27 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 基于统一正负伪标签的无监督视觉表征学习方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109087303A (zh) * | 2018-08-15 | 2018-12-25 | 中山大学 | 基于迁移学习提升语义分割模型效果的框架 |
GB202202033D0 (en) * | 2021-02-16 | 2022-03-30 | Nvidia Corp | Using neural networks to perform object detection, instance segmentation, and semantic correspondence from bounding box supervision |
CN114283329A (zh) * | 2021-11-16 | 2022-04-05 | 华能盐城大丰新能源发电有限责任公司 | 一种基于强变换下的半监督遥感图像语义分割方法及设备 |
-
2022
- 2022-05-31 CN CN202210608548.9A patent/CN114943965B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109087303A (zh) * | 2018-08-15 | 2018-12-25 | 中山大学 | 基于迁移学习提升语义分割模型效果的框架 |
GB202202033D0 (en) * | 2021-02-16 | 2022-03-30 | Nvidia Corp | Using neural networks to perform object detection, instance segmentation, and semantic correspondence from bounding box supervision |
CN114283329A (zh) * | 2021-11-16 | 2022-04-05 | 华能盐城大丰新能源发电有限责任公司 | 一种基于强变换下的半监督遥感图像语义分割方法及设备 |
Non-Patent Citations (2)
Title |
---|
O. TASAR等: "Colormapgan: Unsupervised domain adaptation for semantic segmentation using color mapping generative adversarial networks", IEEE TRANSACTIONS ON GEO-SCIENCE AND REMOTE SENSING, 25 March 2020 (2020-03-25) * |
贾颖霞;郎丛妍;冯松鹤;: "基于类别相关的领域自适应交通图像语义分割方法", 计算机研究与发展, no. 04, 14 April 2020 (2020-04-14) * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115222945A (zh) * | 2022-09-15 | 2022-10-21 | 深圳市软盟技术服务有限公司 | 基于多尺度自适应课程学习的深度语义分割网络训练方法 |
CN115393725A (zh) * | 2022-10-26 | 2022-11-25 | 西南科技大学 | 一种特征增强和语义分割的桥梁裂缝识别方法 |
CN115393725B (zh) * | 2022-10-26 | 2023-03-07 | 西南科技大学 | 一种特征增强和语义分割的桥梁裂缝识别方法 |
CN117611957A (zh) * | 2024-01-19 | 2024-02-27 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 基于统一正负伪标签的无监督视觉表征学习方法及系统 |
CN117611957B (zh) * | 2024-01-19 | 2024-03-29 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 基于统一正负伪标签的无监督视觉表征学习方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114943965B (zh) | 2024-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136154B (zh) | 基于全卷积网络与形态学处理的遥感图像语义分割方法 | |
CN111461258B (zh) | 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法 | |
CN110276269B (zh) | 一种基于注意力机制的遥感图像目标检测方法 | |
CN114943965A (zh) | 基于课程学习的无监督域自适应遥感图像语义分割方法 | |
CN110287927B (zh) | 基于深度多尺度和上下文学习的遥感影像目标检测方法 | |
CN109993082B (zh) | 卷积神经网络道路场景分类与道路分割方法 | |
CN108491970B (zh) | 一种基于rbf神经网络的大气污染物浓度预测方法 | |
CN111368886B (zh) | 一种基于样本筛选的无标注车辆图片分类方法 | |
CN109583501B (zh) | 图片分类、分类识别模型的生成方法、装置、设备及介质 | |
CN106228125B (zh) | 基于集成学习级联分类器的车道线检测方法 | |
CN110889449A (zh) | 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法 | |
CN110929577A (zh) | 一种基于YOLOv3的轻量级框架改进的目标识别方法 | |
CN113487066B (zh) | 基于多属性增强图卷积-Informer模型的长时序货运量预测方法 | |
CN111738113B (zh) | 基于双注意力机制与语义约束的高分辨遥感图像的道路提取方法 | |
CN112232371B (zh) | 一种基于YOLOv3与文本识别的美式车牌识别方法 | |
CN112560966B (zh) | 基于散射图卷积网络的极化sar图像分类方法、介质及设备 | |
CN111723660A (zh) | 一种用于长形地面目标检测网络的检测方法 | |
CN112733693B (zh) | 一种全局感知高分辨率遥感影像多尺度残差道路提取方法 | |
CN115471739A (zh) | 基于自监督对比学习的跨域遥感场景分类与检索方法 | |
Yang et al. | Toward country scale building detection with convolutional neural network using aerial images | |
Moschos et al. | Classification of eddy sea surface temperature signatures under cloud coverage | |
CN113807278A (zh) | 一种基于深度学习的土地利用分类及变化预测方法 | |
CN115049841A (zh) | 基于深度无监督多步对抗域自适应的高分辨sar图像地物要素提取方法 | |
CN112199862A (zh) | 纳米粒子运移的预测方法、其影响因子分析方法及系统 | |
CN113591608A (zh) | 一种基于深度学习的高分辨率遥感影像不透水面提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |