CN114943965A - 基于课程学习的无监督域自适应遥感图像语义分割方法 - Google Patents

基于课程学习的无监督域自适应遥感图像语义分割方法 Download PDF

Info

Publication number
CN114943965A
CN114943965A CN202210608548.9A CN202210608548A CN114943965A CN 114943965 A CN114943965 A CN 114943965A CN 202210608548 A CN202210608548 A CN 202210608548A CN 114943965 A CN114943965 A CN 114943965A
Authority
CN
China
Prior art keywords
target domain
domain data
confidence
image
semantic segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210608548.9A
Other languages
English (en)
Other versions
CN114943965B (zh
Inventor
冉令燕
冀程
张世周
张晓强
张艳宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo Research Institute of Northwestern Polytechnical University
Original Assignee
Ningbo Research Institute of Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo Research Institute of Northwestern Polytechnical University filed Critical Ningbo Research Institute of Northwestern Polytechnical University
Priority to CN202210608548.9A priority Critical patent/CN114943965B/zh
Publication of CN114943965A publication Critical patent/CN114943965A/zh
Application granted granted Critical
Publication of CN114943965B publication Critical patent/CN114943965B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于课程学习的无监督域自适应遥感图像语义分割方法,利用课程学习思想,通过线性增长的占比ki的目标域像素数目和类别平衡的伪标签筛选策略,使得教师模型MT以不同置信阈值生成伪标签,结合源域数据Ds预训练的教师模型MT直接应用于置信度阈值的计算和伪标签的生成,使得训练过程更稳定;同时,训练过程中伪标签的数量呈线性增加,从而动态修改实现对目标域数据生成由易得到难的伪标签,实现稳定有效的训练。

Description

基于课程学习的无监督域自适应遥感图像语义分割方法
技术领域
本发明涉及图像分割技术领域,具体而言,涉及一种基于课程学习的无监督域自适应遥感图像语义分割方法。
背景技术
语义分割即对图像中每一个像素点进行分类,确定每个点的类别,从而进行区域划分;语义分割的目的是预测像素级的语义标签。随着遥感领域的发展,遥感卫星可以获取到大量的遥感图像数据,对遥感图像进行有效的语义分割可以对地物类别进行像素级分类,在路网提取、土地覆盖等方面都有广泛的应用,在更新基础地理数据、自主农业、智能交通、城市规划和可持续发展等方面有重要的意义,具有广泛的实用价值;但是遥感图像语义分割存在两个问题:分辨率高尺度大,标注需要花费巨大的人力和时间;而且不同地区地形地貌和建筑风格等方面存在较大的差异,将训练好的模型应用到不同地理空间区域时其分割效果往往不尽人意;例如:在城市和农村地区,土地覆盖的表现形式在类别分布、物体尺度和像元光谱上差异很大。
无监督域自适应方法可以较好的解决上述问题,尽可能利用有标注的源域数据,在不针对目标数据集进行重新标注的情况下,在不可见的目标数据集上取得较好的语义分割结果。无监督域自适应是假定所有的测试数据都没有标注,无监督域自适应的目标是即使在训练图像和测试图像之间存在较大的领域差异时也能生成高质量的分割,现有技术中,为了提高卷积神经网络(CNN)的泛化能力,常用方法之包括利用伽马校正、随机对比度变化等多种数据增强技术来丰富训练数据;此外,基于对抗的特征对齐方法采用生成对抗网络(GAN)来尽可能缩小源域和目标域特征表示之间的距离,其中鉴别器可以在多个层次上使用。另外,基于图像风格迁移的方法则是在保留图像内容的条件下,将源域图像的风格变换到目标域,从而利用源域图像的标签进行训练,这类方法也大多采用生成对抗网络实现。
现有技术中也有采用自步训练的方式训练目标域数据生成伪标签,但是,由于自步训练过程中会不断更新训练模型,而目标域的验证集不可见,从而无法对更新的训练模型进行筛选,导致训练过程不稳定,进而导致生成的伪标签噪声大。
发明内容
本发明解决的问题是如何减少伪标签在训练过程中的噪声影响,使得训练过程稳定,实现高精度的语义分割。
为解决上述问题,本发明提供基于课程学习的无监督域自适应遥感图像语义分割方法,其特征在于,包括:
步骤1、采集具有标签的源域数据Ds={Xs,Ys}和无标签的目标域数据 Dt={Xt};其中,Xs为源域图像,Ys为对应源域图像Xs的标签;Xt是目标域图像;源域数据Ds和目标域数据Dt共享标签空间;
步骤2、构建交叉熵损失函数,根据交叉熵损失函数在源域数据Ds上预训练教师模型MT,并保留预训练的权重参数;
步骤3、构建与教师模型MT相同的学生模型MS,并基于教师模型MT和预训练的权重参数初始化学生模型MS
步骤4、使用教师模型MT对目标域数据Dt进行预测,预测得到每个目标域像素属于某类别的概率的置信度图,并根据置信图统计每个类别的像素数目及占比;
步骤5、采用类别平衡的方式对占比ki的目标域像素数目进行筛选,得到目标域伪标签
Figure BDA0003671210180000021
步骤6、将源域数据和将占比ki的目标域数据及其伪标签
Figure BDA0003671210180000022
采用交叉熵损失训练学生模型,计算并输出交叉熵损失曲线,根据交叉熵损失曲线判断交叉熵损失训练是否趋于稳定,若是,则进入步骤7,否则,继续通过源域数据和将占比ki的目标域数据训练学生模型;
步骤7、ki=ki+M,M为使得ki呈线性递增的常数;判断ki是否小于等于K;若是,则返回步骤5;若否,则进入步骤8;
步骤8、将目标域数据Dt输入保存的学生模型MS进行测试,提取图像的特征,采用平均交并比mIoU作为评价指标评价训练后的学生模型MS,计算 mIoU并将像素类别进行可视化,得到语义分割的结果。
本发明的有益效果是:利用课程学习思想,通过线性增长的占比ki的目标域像素数目和类别平衡的伪标签筛选策略,使得教师模型MT以不同置信阈值生成伪标签,结合源域数据Ds预训练的教师模型MT直接应用于置信度阈值的计算和伪标签的生成,使得训练过程更稳定;同时,训练过程中伪标签的数量呈线性增加,从而动态修改实现对目标域数据生成由易得到难的伪标签,实现稳定有效的训练。
作为优选,所述步骤2中的交叉熵损失函数为:
Figure BDA0003671210180000031
式中,
Figure BDA0003671210180000032
是置信度图,
Figure BDA0003671210180000033
是源域图像的标签;h和w分别是图像的长和宽,c为类别数目。
作为优选,所述步骤4中将占比ki的目标域像素数目输入教师模型MT中,生成置信度图,并根据置信图统计每个类别的像素数目及占比σc
Figure BDA0003671210180000034
σc=Nc/Nt
Nc为目标域数据中第c个类别的像素数,Nt是目标域数据的总像素数作为优选,所述步骤5中具体包括:
步骤501、对每个类别内按照置信度从高到低排序,并选择c类中置信度最高的前Nc个像素作为伪标签的样本;第Nc个像素的置信度即为置信阈值τc
步骤502、选择对应类别c中且置信度高于该类置信阈值τc的像素进行标注,忽略低于该类置信阈值τc像素,得到目标域伪标签
Figure BDA0003671210180000035
Figure BDA0003671210180000041
其中,
Figure BDA0003671210180000042
为目标域数据中i行j列的像素预测置信度,i=1,2,…,h,j= 1,2,…w。
作为优选,所述步骤6中的交叉熵损失训练函数为:
Figure BDA0003671210180000043
L=Ls+λ*Lt
式中,λ为常数,用于控制目标域的损失占比。
作为优选,所述步骤8中平均交并比mIoU为:
Figure BDA0003671210180000044
Figure BDA0003671210180000045
式中,n为目标域标签类别的个数,iIoU表示第i个类别的交并比,i=1,2,…,n。
附图说明
图1为本发明的语义分割框架示意图;
图2为本发明流程伪代码。
具体实施方式
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
如图1-2所示的基于课程学习的无监督域自适应遥感图像语义分割方法,包括:
步骤1、采集具有标签的源域数据Ds={Xs,Ys}和无标签的目标域数据 Dt={Xt};其中,Xs为源域图像,Ys为对应源域图像Xs的标签;Xt是目标域图像;源域数据Ds和目标域数据Dt共享标签空间;
本具体实施例中的源域数据Ds和目标域数据Dt内的数据集包含城市和乡村两个域,其中,城市域数据集由1156幅训练图像、677幅验证图像和 820幅测试图像组成,乡村域数据集由1366幅训练图像、992幅验证图像和976幅测试图像组成;为了扩充数据集数据量,本具体实施例还对数据集进行了翻转变换、随机旋转变换、上下左右平移变换、随机裁切变换等增广操作;并且,本具体实施中的目标域数据Dt包括用于训练的训练集数据和用于测试评价语义分割精度的学生模型的测试集数据;本具体实施例每次从数据集中随机抽取8个源域图像和8个目标域图像;
步骤2、构建交叉熵损失函数,根据交叉熵损失函数在源域数据Ds上预训练教师模型MT,并保留预训练的权重参数;交叉熵损失函数为:
Figure BDA0003671210180000051
式中,
Figure BDA0003671210180000052
是置信度图,
Figure BDA0003671210180000053
是源域图像的标签;h和w分别是图像的长和宽,c为类别数目;
关于如何使用交叉熵损失函数在源域数据Ds上预训练教师模型MT为现有技术,此处不做过多赘述;
步骤3、构建与教师模型MT相同的学生模型MS,并基于教师模型MT和预训练的权重参数初始化学生模型MS;本具体实施例使用ResNet-50作为骨干,在ImageNet上进行预训练;
步骤4、使用教师模型MT对目标域数据Dt进行预测,预测得到每个目标域像素属于某类别的概率的置信度图,并根据置信图统计每个类别的像素数目及占比σc
Figure BDA0003671210180000054
σc=Nc/Nt
Nc为目标域数据中第c个类别的像素数,Nt是目标域数据的总像素数;
步骤5、采用类别平衡的方式对占比ki的目标域像素数目进行筛选,得到目标域伪标签
Figure BDA0003671210180000055
具体包括:
步骤501、对每个类别内按照置信度从高到低排序,并选择c类中置信度最高的前Nc个像素作为伪标签的样本;第Nc个像素的置信度即为置信阈值τc
步骤502、选择对应类别c中且置信度高于该类置信阈值τc的像素进行标注,忽略低于该类置信阈值τc像素,得到目标域伪标签
Figure BDA0003671210180000061
Figure BDA0003671210180000062
其中,
Figure BDA0003671210180000063
为目标域数据中i行j列的像素预测置信度,i=1,2,…,h,j= 1,2,…w;
步骤6、将源域数据和将占比ki的目标域数据及其伪标签
Figure BDA0003671210180000064
采用交叉熵损失训练学生模型,计算并输出交叉熵损失曲线,根据交叉熵损失曲线判断交叉熵损失训练是否趋于稳定,若是,则进入步骤7,否则,继续通过源域数据和将占比ki的目标域数据训练学生模型;本具体实施例中计算交叉熵损失曲线为现有技术,不做过多赘述;根据交叉熵损失曲线判断交叉熵损失训练是否趋于稳定的判断方法,本具体实施例采用将计算的交叉上损失曲线进行傅里叶分析,得到频率-振幅曲线,然后将得到的频率-振幅曲线与标准参考曲线进行比例,以判断交叉熵损失训练是否稳定,具体操作方式为现有技术,此处不做过多赘述;而关于交叉熵损失训练函数为:
Figure BDA0003671210180000065
L=Ls+λ*Lt
式中,λ为常数,用于控制目标域的损失占比;
步骤7、ki=ki+M,M为使得ki呈线性递增的常数;判断ki是否小于等于K;若是,则返回步骤5;若否,则进入步骤8;
步骤8、将目标域数据Dt中的测试集数据输入保存的学生模型MS进行测试,提取图像的特征,采用平均交并比mIoU作为评价指标评价训练后的学生模型MS,计算mIoU并将像素类别进行可视化,得到语义分割的结果;平均交并比mIoU的公式为:
Figure BDA0003671210180000071
Figure BDA0003671210180000072
式中,n为目标域标签类别的个数,iIoU表示第i
个类别的交并比,i=1,2,…,n。
虽然本公开披露如上,但本公开的保护范围并非仅限于此。本领域技术人员,在不脱离本公开的精神和范围的前提下,可进行各种变更与修改,这些变更与修改均将落入本发明的保护范围。

Claims (6)

1.基于课程学习的无监督域自适应遥感图像语义分割方法,其特征在于,包括:
步骤1、采集具有标签的源域数据Ds={Xs,Ys}和无标签的目标域数据Dt={Xt};其中,Xs为源域图像,Ys为对应源域图像Xs的标签;Xt是目标域图像;源域数据Ds和目标域数据Dt共享标签空间;
步骤2、构建交叉熵损失函数,根据交叉熵损失函数在源域数据Ds上预训练教师模型MT,并保留预训练的权重参数;
步骤3、构建与教师模型MT相同的学生模型MS,并基于教师模型MT和预训练的权重参数初始化学生模型MS
步骤4、使用教师模型MT对目标域数据Dt进行预测,预测得到每个目标域像素属于某类别的概率的置信度图,并根据置信图统计每个类别的像素数目及占比;
步骤5、采用类别平衡的方式对占比ki的目标域像素数目进行筛选,得到目标域伪标签
Figure FDA0003671210170000011
步骤6、将源域数据和将占比ki的目标域数据及其伪标签
Figure FDA0003671210170000012
采用交叉熵损失训练学生模型,计算并输出交叉熵损失曲线,根据交叉熵损失曲线判断交叉熵损失训练是否趋于稳定,若是,则进入步骤7,否则,继续通过源域数据和将占比ki的目标域数据训练学生模型;
步骤7、ki=ki+M,M为使得ki呈线性递增的常数;判断ki是否小于等于K;若是,则返回步骤5;若否,则进入步骤8;
步骤8、将目标域数据Dt输入保存的学生模型MS进行测试,提取图像的特征,采用平均交并比mIoU作为评价指标评价训练后的学生模型MS,计算mIoU并将像素类别进行可视化,得到语义分割的结果。
2.根据权利要求1所述的基于课程学习的无监督域自适应遥感图像语义分割方法,其特征在于,所述步骤2中的交叉熵损失函数为:
Figure FDA0003671210170000021
式中,
Figure FDA0003671210170000022
是置信度图,
Figure FDA0003671210170000023
是源域图像的标签;h和w分别是图像的长和宽,c为类别数目。
3.根据权利要求2所述的基于课程学习的无监督域自适应遥感图像语义分割方法,其特征在于,所述步骤4中将占比ki的目标域像素数目输入教师模型MT中,生成置信度图,并根据置信图统计每个类别的像素数目及占比σc
Figure FDA0003671210170000024
σc=Nc/Nt
Nc为目标域数据中第c个类别的像素数,Nt是目标域数据的总像素数。
4.根据权利要求3所述的基于课程学习的无监督域自适应遥感图像语义分割方法,其特征在于,所述步骤5中具体包括:
步骤501、对每个类别内按照置信度从高到低排序,并选择c类中置信度最高的前Nc个像素作为伪标签的样本;第Nc个像素的置信度即为置信阈值τc
步骤502、选择对应类别c中且置信度高于该类置信阈值τc的像素进行标注,忽略低于该类置信阈值τc像素,得到目标域伪标签
Figure FDA0003671210170000025
Figure FDA0003671210170000026
其中,
Figure FDA0003671210170000027
为目标域数据中i行j列的像素预测置信度,i=1,2,...,h,j=1,2,...w。
5.根据权利要求4所述的基于课程学习的无监督域自适应遥感图像语义分割方法,其特征在于,所述步骤6中的交叉熵损失训练函数为:
Figure FDA0003671210170000028
L=Ls+λ*Lt
式中,λ为常数,用于控制目标域的损失占比。
6.根据权利要求5所述的基于课程学习的无监督域自适应遥感图像语义分割方法,其特征在于,所述步骤8中平均交并比mIoU为:
Figure FDA0003671210170000031
Figure FDA0003671210170000032
式中,n为目标域标签类别的个数,iIoU表示第i个类别的交并比,i=1,2,...,n。
CN202210608548.9A 2022-05-31 2022-05-31 基于课程学习的无监督域自适应遥感图像语义分割方法 Active CN114943965B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210608548.9A CN114943965B (zh) 2022-05-31 2022-05-31 基于课程学习的无监督域自适应遥感图像语义分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210608548.9A CN114943965B (zh) 2022-05-31 2022-05-31 基于课程学习的无监督域自适应遥感图像语义分割方法

Publications (2)

Publication Number Publication Date
CN114943965A true CN114943965A (zh) 2022-08-26
CN114943965B CN114943965B (zh) 2024-05-10

Family

ID=82908352

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210608548.9A Active CN114943965B (zh) 2022-05-31 2022-05-31 基于课程学习的无监督域自适应遥感图像语义分割方法

Country Status (1)

Country Link
CN (1) CN114943965B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115222945A (zh) * 2022-09-15 2022-10-21 深圳市软盟技术服务有限公司 基于多尺度自适应课程学习的深度语义分割网络训练方法
CN115393725A (zh) * 2022-10-26 2022-11-25 西南科技大学 一种特征增强和语义分割的桥梁裂缝识别方法
CN117611957A (zh) * 2024-01-19 2024-02-27 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 基于统一正负伪标签的无监督视觉表征学习方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087303A (zh) * 2018-08-15 2018-12-25 中山大学 基于迁移学习提升语义分割模型效果的框架
GB202202033D0 (en) * 2021-02-16 2022-03-30 Nvidia Corp Using neural networks to perform object detection, instance segmentation, and semantic correspondence from bounding box supervision
CN114283329A (zh) * 2021-11-16 2022-04-05 华能盐城大丰新能源发电有限责任公司 一种基于强变换下的半监督遥感图像语义分割方法及设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087303A (zh) * 2018-08-15 2018-12-25 中山大学 基于迁移学习提升语义分割模型效果的框架
GB202202033D0 (en) * 2021-02-16 2022-03-30 Nvidia Corp Using neural networks to perform object detection, instance segmentation, and semantic correspondence from bounding box supervision
CN114283329A (zh) * 2021-11-16 2022-04-05 华能盐城大丰新能源发电有限责任公司 一种基于强变换下的半监督遥感图像语义分割方法及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
O. TASAR等: "Colormapgan: Unsupervised domain adaptation for semantic segmentation using color mapping generative adversarial networks", IEEE TRANSACTIONS ON GEO-SCIENCE AND REMOTE SENSING, 25 March 2020 (2020-03-25) *
贾颖霞;郎丛妍;冯松鹤;: "基于类别相关的领域自适应交通图像语义分割方法", 计算机研究与发展, no. 04, 14 April 2020 (2020-04-14) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115222945A (zh) * 2022-09-15 2022-10-21 深圳市软盟技术服务有限公司 基于多尺度自适应课程学习的深度语义分割网络训练方法
CN115393725A (zh) * 2022-10-26 2022-11-25 西南科技大学 一种特征增强和语义分割的桥梁裂缝识别方法
CN115393725B (zh) * 2022-10-26 2023-03-07 西南科技大学 一种特征增强和语义分割的桥梁裂缝识别方法
CN117611957A (zh) * 2024-01-19 2024-02-27 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 基于统一正负伪标签的无监督视觉表征学习方法及系统
CN117611957B (zh) * 2024-01-19 2024-03-29 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 基于统一正负伪标签的无监督视觉表征学习方法及系统

Also Published As

Publication number Publication date
CN114943965B (zh) 2024-05-10

Similar Documents

Publication Publication Date Title
CN110136154B (zh) 基于全卷积网络与形态学处理的遥感图像语义分割方法
CN111461258B (zh) 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法
CN110276269B (zh) 一种基于注意力机制的遥感图像目标检测方法
CN114943965A (zh) 基于课程学习的无监督域自适应遥感图像语义分割方法
CN110287927B (zh) 基于深度多尺度和上下文学习的遥感影像目标检测方法
CN109993082B (zh) 卷积神经网络道路场景分类与道路分割方法
CN108491970B (zh) 一种基于rbf神经网络的大气污染物浓度预测方法
CN111368886B (zh) 一种基于样本筛选的无标注车辆图片分类方法
CN109583501B (zh) 图片分类、分类识别模型的生成方法、装置、设备及介质
CN106228125B (zh) 基于集成学习级联分类器的车道线检测方法
CN110889449A (zh) 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法
CN110929577A (zh) 一种基于YOLOv3的轻量级框架改进的目标识别方法
CN113487066B (zh) 基于多属性增强图卷积-Informer模型的长时序货运量预测方法
CN111738113B (zh) 基于双注意力机制与语义约束的高分辨遥感图像的道路提取方法
CN112232371B (zh) 一种基于YOLOv3与文本识别的美式车牌识别方法
CN112560966B (zh) 基于散射图卷积网络的极化sar图像分类方法、介质及设备
CN111723660A (zh) 一种用于长形地面目标检测网络的检测方法
CN112733693B (zh) 一种全局感知高分辨率遥感影像多尺度残差道路提取方法
CN115471739A (zh) 基于自监督对比学习的跨域遥感场景分类与检索方法
Yang et al. Toward country scale building detection with convolutional neural network using aerial images
Moschos et al. Classification of eddy sea surface temperature signatures under cloud coverage
CN113807278A (zh) 一种基于深度学习的土地利用分类及变化预测方法
CN115049841A (zh) 基于深度无监督多步对抗域自适应的高分辨sar图像地物要素提取方法
CN112199862A (zh) 纳米粒子运移的预测方法、其影响因子分析方法及系统
CN113591608A (zh) 一种基于深度学习的高分辨率遥感影像不透水面提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant