CN112766089A - 一种基于全局-局部对抗学习框架的跨域道路提取方法 - Google Patents

一种基于全局-局部对抗学习框架的跨域道路提取方法 Download PDF

Info

Publication number
CN112766089A
CN112766089A CN202110004130.2A CN202110004130A CN112766089A CN 112766089 A CN112766089 A CN 112766089A CN 202110004130 A CN202110004130 A CN 202110004130A CN 112766089 A CN112766089 A CN 112766089A
Authority
CN
China
Prior art keywords
global
road
domain
local
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110004130.2A
Other languages
English (en)
Other versions
CN112766089B (zh
Inventor
卢晓燕
钟燕飞
郑卓
王俊珏
张良培
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202110004130.2A priority Critical patent/CN112766089B/zh
Publication of CN112766089A publication Critical patent/CN112766089A/zh
Application granted granted Critical
Publication of CN112766089B publication Critical patent/CN112766089B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于全局‑局部对抗学习框架的跨域道路提取方法,该方法具有以下两个显著特点:一是利用一个全局‑局部对抗学习框架用于高分辨率遥感影像跨域道路提取,该框架首先利用生成器生成特征,来混淆判别器,生成器后面紧接着两个分支,一个分支进行道路分割,另一个分支通过全局‑局部对抗学习引导生成器生成域不变特征。第二,全局‑局部对抗学习过程中,使用两个互斥分类器对道路进行识别,两个分类器识别的差异可以反映每一个像素的识别难易程度,从而自适应地对对抗损失进行加权,自动减慢或加速对抗学习的过程。本方法可以明显改善道路缺失现象,对于一些困难的样本也能较好的识别,显著提升道路识别精度。

Description

一种基于全局-局部对抗学习框架的跨域道路提取方法
技术领域
本发明基于遥感图像技术处理领域,特别涉及一种基于全局-局部对抗学习框架的跨域道路提取方法。
背景技术
近年来,随着IKONOS、QuickBird、Worldview、GJ-1、GF-6等一系列国内外高分辨率遥感卫星的成功发射,高分辨率遥感数据获取能力迅速增强,使得我们能获取的高分辨率遥感影像资源在规模上不断扩大,意味着遥感大数据时代已经来临。高分辨率遥感影像包含丰富的空间细节信息,能够精确描述地物的几何属性特征,高分辨率遥感影像相对于中低分辨率遥感影像来说,地物几何结构更加明显,纹理更加精细,位置布局更加清晰。因此,高分辨率遥感凭借其获取手段技术成熟,影像分辨率高,覆盖范围广等优势,已被广泛应用于军事侦察、灾害防治、城市规划等事关国防建设和经济社会发展的诸多领域,高分辨率遥感的发展已然对推动社会进步起着至关重要的作用。
道路作为基础的地理数据和重要的国情要素,是高分辨率遥感影像中一项重要的地物目标,对于人类生活具有十分重要的影响,道路经过规划设计会形成四通八达的道路网,提取出道路的完整信息构建道路网对于国家经济社会的发展具有十分重要的实用价值,也是各种实际应用开展的关键前提。如为城市规划提供前瞻性指导,为智能交通提供基础数据,为地理信息系统更新提供更高效的技术手段等。因此,如何应用现代高分辨率遥感技术结合一定的计算机技术快速、准确地对道路信息进行识别和更新是当前遥感领域的研究热点。
基于国内外对道路提取的几十年研究历史,相关研究学者针对不同源数据,不同生产需求,已从不同角度提出大量的方法和成果,这些方法在道路提取上存在各自的优势,精度上也在不断提升。但长期以来,受道路自身特征的特殊性、周边环境的复杂性和不同影像之间差异的影响,自动化高精度提取道路网仍然是遥感领域研究的一个难点。当前,在遥感大数据的背景下,使用最多的方法就是基于深度学习的方法,深度学习方法是一种数据驱动的方法,依赖于海量的数据训练模型,来完成各种识别任务。目前的深度学习方法仍以监督学习为主,需要人工大量的标记数据来训练模型,这样的数据标注工作需要消耗大量的人力和财力。而如果直接在域A上训练道路提取模型,在域B上测试时,模型的识别能力会急剧下降,导致道路识别存在很多漏检的情况。
基于此,考虑增强深度学习模型的泛化能力,使其在未标注目标域上也能够很好地提取道路。
发明内容
本发明的目的在于提出一种基于全局-局部对抗学习框架的跨域道路提取方法。
提出的基于全局-局部对抗学习框架的跨域道路提取方法从两个方面来增强深度学习模型的泛化能力,一方面在特征输出层采用对抗学习,通过混淆域判别器使其无法识别特征来自源域还是目标域,来引导生成器生成域不变特征;另一方面在对抗学习中,根据每一个像素的识别难易程度,自适应地调整对抗损失,从而自动减慢或加速对抗学习的过程。本发明能够有效提升深度学习模型的泛化能力,一定程度上解决跨域道路提取时,道路漏检严重的问题。
本发明中我们所提出的一种基于全局-局部对抗学习框架的跨域道路提取方法具有以下两个显著特点。一是发明了一个全局-局部对抗学习框架用于高分辨率遥感影像跨域道路提取,该框架首先利用生成器生成特征,来混淆判别器,生成器后面紧接着两个分支,一个分支进行道路分割,另一个分支通过全局-局部对抗学习引导生成器生成域不变特征。第二,全局-局部对抗学习过程中,使用两个互斥分类器对道路进行识别,两个分类器识别的差异可以反映每一个像素的识别难易程度,从而自适应地对对抗损失进行加权,自动减慢或加速对抗学习的过程。
本发明提供一种基于全局-局部对抗学习框架的跨域道路提取方法,实现步骤如下:
步骤1,获取有标签的SpaceNet道路竞赛数据集2213张作为源域数据,以及无标签的目标域影像3000张,一起组成训练集,用于网络训练,对训练集进行归一化与数据增强;
步骤2,构建全局-局部对抗学习框架,主要包括全局-局部对抗学习网络框架构建和目标函数设计。
所述全局-局部对抗学习网络框架为生成器和判别器结构,首先利用生成器生成特征,来混淆判别器,生成器后面紧接着两个分支,一个分支进行道路分割,获取道路分割概率图,另一个分支通过全局-局部对抗学习引导生成器生成域不变特征;目标函数包含三个部分:分割损失,参数差异损失和自适应加权的对抗损失;
步骤3,基于构建的全局-局部对抗学习框架,在训练集上进行训练,优化模型参数,直至网络收敛;
步骤4,基于收敛后的全局-局部对抗学习框架,对来自目标域的测试集进行预测,利用输出道路分割概率图获得道路提取结果。
进一步的,步骤1的具体实现包括如下子步骤:
步骤1.1,在SpaceNet道路提取竞赛网站上进行注册,下载数据集总计2780个样本对,按照公开划分方式,划分出2213张作为源域训练样本。
步骤1.2,在目标域测试集影像范围的相邻区域下载与之地理位置不重合,但时间和空间分辨率一致的目标域影像3000张,每一张的大小是1024*1024像素,此影像会与目标域测试集影像特征非常相似,作为目标域的无标记影像。
步骤1.3,将有标记的源域样本和无标记的目标域影像一起组成训练集,对训练集进行归一化操作,并利用水平翻转、垂直翻转和随机旋转对训练集进行数据增强。
进一步的,步骤2的具体实现包括如下子步骤:
步骤2.1,构建全局-局部对抗学习网络框架:该框架采用在ImageNet数据集上预训练的修正后的ResNet作为生成器,考虑到计算压力以及为了保证较高的特征分辨率,移除ResNet50的第四个残差块,并将第三个残差块内的最后一层卷积的步长由2变成1,同时将标准卷积替换成空洞率为2的空洞卷积,这样可以保证特征分辨率不降低的同时增大网络感受野。由此,得到修正后的ResNet生成器,这个生成器的输出步长为8,所以对于输入尺寸大小为768×768的源域影像xs和目标域影像xt,经过生成器之后,源域输出es和目标域输出et的尺寸大小为96×96。生成器之后是两个分支,一个分支进行道路分割,首先采用1×1卷积将源域特征es的维度从1024降低到256,然后通过双线性插值将特征图上采样到192×192,再采用跳跃连接,通过和相应的低层特征进行逐像素的相加,来恢复更详细的空间细节信息,之后分别采用3×3卷积和1×1卷积降低特征图维度到64和1,最后通过双线性插值,四倍上采样恢复到原始输入大小768×768,并通过Sigmoid分类器获取道路分割概率图。另一个分支进行全局-局部对抗学习,利用两个互斥分类器(即两个不同的分类器,通过余弦相似性,约束两个分类器的参数不一致,防止两个分类器退化成同一个分类器,得到一样的分类结果,那么计算两个分类器预测结果的差异就没有意义了),分别输出一个二维特征图m1和m2,紧接着1×1卷积得到一维的概率图p1和p2,最终的概率值p是p1和p2之和。对于判别器D,采用的是通道数分别为64,128,256,512和1的五层全卷积网络,每一个卷积层的卷积核大小为4×4,步长为2,且连接一个leaky ReLU,最后采用双线性插值使得输出结果恢复到原始输入大小。对于源域输入es,通过两个分类器得到概率图ps,然后输入到判别器D中计算对抗损失。对于目标域输入et,通过两个分类器得到概率图pt,输入到判别器D中计算对抗损失。同时也得到二维输出
Figure BDA0002882849150000051
Figure BDA0002882849150000052
紧接着softmax激活函数来获得分割输出
Figure BDA0002882849150000053
Figure BDA0002882849150000054
然后根据
Figure BDA0002882849150000055
Figure BDA0002882849150000056
之间的差异计算权重,根据此权重来自动调节对抗损失,权重越小,说明特征已经很好的对齐了,这些像素的对齐力度应该被降低,权重越大,说明这些特征还没有很好对齐,应该增强对齐力度。
步骤2.2,目标函数设计:全局-局部对抗学习框架的目标函数主要包含三个部分:分割损失,参数差异损失和自适应加权的对抗损失,可以用以下式子表达:
LGOAL=Lsegdis·Ldisadv·Ladv
其中λdis和λadv控制三个损失的相对重要性。
对于道路分割分支,生成道路分割概率图,与真实标签对比计算分割损失,分割损失Lseg是binary cross-entropy损失和dice coefficient损失之和,道路分割损失可以用以下式子表达:
Lseg=LBCE(Ps,Ys)+LDCL(Ps,Ys)
其中Ps和Ys分别是源域数据的预测结果和标签。
参数差异损失通过最小化两个互斥分类器C1,C2的参数
Figure BDA0002882849150000061
Figure BDA0002882849150000062
的余弦相似性,使得两个分类器的参数不同,参数差异损失可以用以下式子表达:
Figure BDA0002882849150000063
对于自适应加权对抗损失,权重是目标域两个预测结果
Figure BDA0002882849150000064
Figure BDA0002882849150000065
的余弦距离,两个预测结果越相似,权重就会越小,反之亦然,自适应加权对抗损失可以用以下式子表达:
Figure BDA0002882849150000066
Ladv=-E[logD(ps)]-E[(λw·WT+ε)·log(1-D(pt))]
其中λw调节权重大小,ε控制原始对抗损失的占比,E[·]代表统计期望。
进一步的,步骤3的具体实现包括如下子步骤:
步骤3.1,初始化全局-局部对抗学习框架的网络参数,固定训练集的裁剪大小,每批次的输入张数,以及分割初始学习率和对抗学习初始学习率。
步骤3.2,生成器采用SGD优化器进行训练,判别器采用Adam优化器进行训练,分割训练和对抗训练分步交替进行,通过前向传播和后向反馈不断更新全局-局部对抗学习框架的网络参数,直至网络收敛。
进一步的,步骤4的具体实现包括如下子步骤:
步骤4.1,输入目标域测试集影像,对其进行归一化操作。
步骤4.2,将归一化后的影像输入到已经训练好的全局-局部对抗学习框架中,得到测试集的道路分割概率图,然后通过0.5的阈值判断属于道路的区域,获得最终的道路分割图。
与现有技术相比,本发明的优点和有益效果为:
深度学习模型泛化能力有限,跨域道路提取时,模型识别能力急剧下降。而所提出的全局-局部对抗学习框架,可以有效地实现源域和目标域之间的域适应,提升模型泛化能力,使得模型在目标域上的道路提取性能也能保持的较好,在跨域道路提取时,所提方法可以明显改善道路缺失现象,同时由于采用全局和局部对抗相结合的方式,对于一些困难的样本也能较好的识别,显著提升道路识别精度。
附图说明
图1是本发明实施例1的步骤1.1中SpaceNet道路提取竞赛数据集和步骤1.2中目标域影像的部分可视化图。
图2是本发明实施例1的步骤2.1中设计的全局-局部对抗学习框架。
图3是本发明实施例1的步骤4.2中得到道路预测图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例1:
一种基于全局-局部对抗学习框架的跨域道路提取方法,包括以下步骤:
步骤1,下载SpaceNet道路竞赛数据集,包含有标签的2780张1300×1300大小的影像,按照公开划分方式将其拆分为2213张作为训练,下载目标域与测试集不重合的3000张影像,影像大小为1024×1024,与源域样本一起构成训练集,如图1所示。对训练集进行归一化与数据增强。此步骤进一步包括:
步骤1.1,在SpaceNet道路提取竞赛网站上进行注册,下载数据集,划分出训练集,作为源域训练样本。
步骤1.2,在目标域测试集周边下载与之地理位置不重合,但时间和分辨率一致的目标域影像。
步骤1.3,将有标记的源域数据和无标记的目标域影像一起组成训练集,对训练集进行归一化操作,并利用水平翻转、垂直翻转和随机旋转对训练集进行数据增强。
步骤2,构建全局-局部对抗学习框架,主要包括全局-局部对抗学习网络框架构建和目标函数设计。此步骤进一步包括:
步骤2.1,构建全局-局部对抗学习网络框架,如图2所示:该框架采用在ImageNet数据集上预训练的修正后的ResNet作为生成器,考虑到计算压力以及为了保证较高的特征分辨率,移除ResNet50的第四个残差块,并将第三个残差块内的最后一层卷积的步长由2变成1,同时将标准卷积替换成空洞率为2的空洞卷积,这样可以保证特征分辨率不降低的同时增大网络感受野。由此,得到修正后的ResNet生成器,这个生成器的输出步长为8,所以对于输入尺寸大小为768×768的源域影像xs和目标域影像xt,经过生成器之后,源域输出es和目标域输出et的尺寸大小为96×96。生成器之后是两个分支,一个分支进行道路分割,首先采用1×1卷积将源域特征es的维度从1024降低到256,然后通过双线性插值将特征图上采样到192×192,再采用跳跃连接,通过和相应的低层特征进行逐像素的相加,来恢复更详细的空间细节信息,之后分别采用3×3卷积和1×1卷积降低特征图维度到64和1,最后通过双线性插值,四倍上采样恢复到原始输入大小768×768,并通过Sigmoid分类器获取道路分割图。另一个分支进行全局-局部对抗学习,利用两个互斥分类器,分别输出一个二维特征图m1和m2,紧接着1×1卷积得到一维的概率图p1和p2,最终的概率值p是p1和p2之和。
对于判别器D,采用的是通道数分别为64,128,256,512和1的五层全卷积网络,每一个卷积层的卷积核大小为4×4,步长为2,且连接一个leaky ReLU,最后采用双线性插值使得输出结果恢复到原始输入大小。对于源域输入es,通过两个分类器得到概率图ps,然后输入到判别器D中计算对抗损失。对于目标域输入et,通过两个分类器得到概率图pt,输入到判别器D中计算对抗损失。同时也得到二维输出
Figure BDA0002882849150000091
Figure BDA0002882849150000092
紧接着softmax激活函数来获得分割输出
Figure BDA0002882849150000093
Figure BDA0002882849150000094
然后根据
Figure BDA0002882849150000095
Figure BDA0002882849150000096
之间的差异计算权重,根据此权重来自动调节对抗损失,权重越小,说明特征已经很好的对齐了,这些像素的对齐力度应该被降低,权重越大,说明这些特征还没有很好对齐,应该增强对齐力度。
步骤2.2,目标函数设计:全局-局部对抗学习框架的目标函数主要包含三个部分:分割损失,参数差异损失和自适应加权的对抗损失,可以用以下式子表达:
LGOAL=Lsegdis·Ldisadv·Ladv
其中λdis和λadv控制三个损失的相对重要性。
对于道路分割分支,生成道路分割概率图,与真实标签对比计算分割损失,分割损失Lseg是binary cross-entropy损失和dice coefficient损失之和,道路分割损失可以用以下式子表达:
Lseg=LBCE(Ps,Ys)+LDCL(Ps,Ys)
其中Ps和Ys分别是源域数据的预测结果和标签。
参数差异损失通过最小化两个分类器C1,C2的参数
Figure BDA0002882849150000101
Figure BDA0002882849150000102
的余弦相似性,使得两个分类器的参数不同,参数差异损失可以用以下式子表达:
Figure BDA0002882849150000103
对于自适应加权对抗损失,权重是目标域两个预测结果
Figure BDA0002882849150000104
Figure BDA0002882849150000105
的余弦距离,两个预测结果越相似,权重就会越小,反之亦然,自适应加权对抗损失可以用以下式子表达:
Figure BDA0002882849150000106
Ladv=-E[logD(ps)]-E[(λw·WT+ε)·log(1-D(pt))]
其中λw调节权重大小,ε控制原始对抗损失的占比。
步骤3,基于构建的全局-局部对抗学习框架,在训练集上进行训练,优化模型参数,直至网络收敛;此步骤进一步包括:
步骤3.1,初始化全局-局部对抗学习框架的网络参数,固定训练集的裁剪大小,每批次的输入张数,以及分割初始学习率和对抗学习初始学习率。
步骤3.2,生成器采用SGD优化器进行训练,判别器采用Adam优化器进行训练,分割训练和对抗训练分步交替进行,通过前向传播和后向反馈不断更新全局-局部对抗学习框架的网络参数,直至网络收敛。
步骤4,基于收敛后的全局-局部对抗学习框架,对来自目标域的测试集进行预测,利用输出道路分割概率图获得道路提取结果。此步骤进一步包括:
步骤4.1,输入目标域测试集影像,对其进行归一化操作。
步骤4.2,将归一化后的影像输入到已经训练好的全局-局部对抗学习框架中,得到测试集的道路分割概率图,然后通过0.5的阈值判断属于道路的区域,获得最终的道路分割图,如图3所示。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (6)

1.一种基于全局-局部对抗学习框架的跨域道路提取方法,其特征在于,包括以下步骤:
步骤1,获取有标签的源域数据,以及无标签的目标域影像,一起组成训练集用于网络训练,对训练集进行归一化与数据增强;
步骤2,构建全局-局部对抗学习框架,包括全局-局部对抗学习网络框架构建和目标函数设计;
所述全局-局部对抗学习网络框架为生成器和判别器结构,首先利用生成器生成特征,来混淆判别器,生成器后面紧接着两个分支,一个分支进行道路分割,获取道路分割概率图,另一个分支通过全局-局部对抗学习引导生成器生成域不变特征;目标函数包含三个部分:分割损失,参数差异损失和自适应加权的对抗损失;
步骤3,基于构建的全局-局部对抗学习框架,在训练集上进行训练,优化模型参数,直至收敛;
步骤4,基于收敛后的全局-局部对抗学习框架,对来自目标域的测试集进行预测,利用输出的道路分割概率图获得道路提取结果。
2.如权利要求1所述的一种基于全局-局部对抗学习框架的跨域道路提取方法,其特征在于:所述步骤1的实现方式如下,
步骤1.1,在SpaceNet道路提取竞赛网站上进行注册,下载数据集,划分出源域训练样本;
步骤1.2,在目标域测试集影像范围的相邻区域下载与之地理位置不重合,但时间和分辨率一致的目标域影像,作为目标域的无标记影像;
步骤1.3,将有标记的源域数据和无标记的目标域影像一起组成训练集,对训练集进行归一化操作,并利用水平翻转、垂直翻转和随机旋转对训练集进行数据增强。
3.如权利要求1所述的一种基于全局-局部对抗学习框架的跨域道路提取方法,其特征在于:所述步骤2中全局-局部对抗学习网络框架的具体结构如下;
该框架采用在ImageNet数据集上预训练的修正后的ResNet作为生成器,移除ResNet50的第四个残差块,并将第三个残差块内的最后一层卷积的步长由2变成1,同时将标准卷积替换成空洞率为2的空洞卷积,以保证特征分辨率不降低的同时增大网络感受野,由此,得到修正后的ResNet生成器,对于输入的源域影像xs和目标域影像xt,经过生成器之后,得到源域输出es和目标域输出et;生成器之后是两个分支,一个分支进行道路分割,首先采用1×1卷积将源域特征es的维度降低,然后通过双线性插值将特征图进行上采样,再采用跳跃连接,通过和相应的低层特征进行逐像素的相加,来恢复更详细的空间细节信息,之后分别采用3×3卷积和1×1卷积降低特征图维度,最后通过双线性插值,四倍上采样恢复到原始输入大小,并通过Sigmoid分类器获取道路分割概率图;另一个分支进行全局-局部对抗学习,利用两个互斥分类器,分别输出一个二维特征图m1和m2,紧接着1×1卷积得到一维的概率图p1和p2,最终的概率值p是p1和p2之和;
对于判别器D,采用的是不同通道数的五层全卷积网络,每一个卷积层后面连接一个leaky ReLU,最后采用双线性插值使得输出结果恢复到原始输入大小;对于源域输入es,通过两个分类器得到概率图ps,然后输入到判别器D中计算对抗损失;对于目标域输入et,通过两个分类器得到概率图pt,输入到判别器D中计算对抗损失;同时也得到二维输出
Figure FDA0002882849140000031
Figure FDA0002882849140000032
紧接着softmax激活函数来获得分割输出
Figure FDA0002882849140000033
Figure FDA0002882849140000034
然后根据
Figure FDA0002882849140000035
Figure FDA0002882849140000036
之间的差异计算权重,根据此权重来自动调节对抗损失,权重越小,说明特征已经很好的对齐了,这些像素的对齐力度应该被降低,权重越大,说明这些特征还没有很好对齐,应该增强对齐力度。
4.如权利要求3所述的一种基于全局-局部对抗学习框架的跨域道路提取方法,其特征在于:步骤2中目标函数包括分割损失,参数差异损失和自适应加权的对抗损失,用以下式子表达:
LGOAL=Lsegdis·Ldisadv·Ladv
其中λdis和λadv控制三个损失的相对重要性;
对于道路分割网络分支,生成道路分割概率图,与真实标签对比计算分割损失,分割损失Lseg是binary cross-entropy损失和dice coefficient损失之和,道路分割损失用以下式子表达:
Lseg=LBCE(Ps,Ys)+LDCL(Ps,Ys)
其中Ps和Ys分别是源域数据的预测结果和标签;
参数差异损失通过最小化两个互斥分类器C1,C2的参数
Figure FDA0002882849140000037
Figure FDA0002882849140000038
的余弦相似性,使得两个分类器的参数不同,参数差异损失用以下式子表达:
Figure FDA0002882849140000039
对于自适应加权对抗损失,权重是目标域两个预测结果
Figure FDA00028828491400000310
Figure FDA00028828491400000311
的余弦距离,两个预测结果越相似,权重就会越小,反之亦然,自适应加权对抗损失用以下式子表达:
Figure FDA0002882849140000041
Ladv=-E[logD(ps)]-E[(λw·WT+ε)·log(1-D(pt))]
其中λw调节权重大小,ε控制原始对抗损失的占比,E[·]代表统计期望。
5.如权利要求1所述的一种基于全局-局部对抗学习框架的跨域道路提取方法,其特征在于:所述步骤3的实现方式如下,
步骤3.1,初始化全局-局部对抗学习框架的网络参数,固定训练集的裁剪大小,每批次的输入张数,以及分割初始学习率和对抗学习初始学习率;
步骤3.2,生成器采用SGD优化器进行训练,判别器采用Adam优化器进行训练,分割训练和对抗训练分步交替进行,通过前向传播和后向反馈不断更新全局-局部对抗学习框架的网络参数,直至收敛。
6.如权利要求1所述的一种基于全局-局部对抗学习框架的跨域道路提取方法,其特征在于:所述步骤4的实现方式如下,
步骤4.1,输入目标域测试集影像,对其进行归一化操作;
步骤4.2,将归一化后的影像输入到训练好的全局-局部对抗学习框架中,得到测试集的道路分割概率图,然后通过0.5的阈值判断属于道路的区域,获得最终的道路分割图。
CN202110004130.2A 2021-01-04 2021-01-04 一种基于全局-局部对抗学习框架的跨域道路提取方法 Active CN112766089B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110004130.2A CN112766089B (zh) 2021-01-04 2021-01-04 一种基于全局-局部对抗学习框架的跨域道路提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110004130.2A CN112766089B (zh) 2021-01-04 2021-01-04 一种基于全局-局部对抗学习框架的跨域道路提取方法

Publications (2)

Publication Number Publication Date
CN112766089A true CN112766089A (zh) 2021-05-07
CN112766089B CN112766089B (zh) 2022-05-13

Family

ID=75699101

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110004130.2A Active CN112766089B (zh) 2021-01-04 2021-01-04 一种基于全局-局部对抗学习框架的跨域道路提取方法

Country Status (1)

Country Link
CN (1) CN112766089B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113554013A (zh) * 2021-09-22 2021-10-26 华南理工大学 跨场景识别模型训练方法、跨场景道路识别方法以及装置
CN114529878A (zh) * 2022-01-21 2022-05-24 四川大学 一种基于语义感知的跨域道路场景语义分割方法
WO2023277793A3 (en) * 2021-06-30 2023-02-09 Grabtaxi Holdings Pte. Ltd Segmenting method for extracting a road network for use in vehicle routing, method of training the map segmenter, and method of controlling a vehicle
CN116524420A (zh) * 2023-07-03 2023-08-01 武汉大学 一种交通场景下的关键目标检测方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018028255A1 (zh) * 2016-08-11 2018-02-15 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
CN108062753A (zh) * 2017-12-29 2018-05-22 重庆理工大学 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法
CN109829391A (zh) * 2019-01-10 2019-05-31 哈尔滨工业大学 基于级联卷积网络和对抗学习的显著性目标检测方法
CN111080645A (zh) * 2019-11-12 2020-04-28 中国矿业大学 基于生成式对抗网络的遥感图像半监督语义分割方法
WO2020101448A1 (en) * 2018-08-28 2020-05-22 Samsung Electronics Co., Ltd. Method and apparatus for image segmentation
CN111275713A (zh) * 2020-02-03 2020-06-12 武汉大学 一种基于对抗自集成网络的跨域语义分割方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018028255A1 (zh) * 2016-08-11 2018-02-15 深圳市未来媒体技术研究院 基于对抗网络的图像显著性检测方法
CN108062753A (zh) * 2017-12-29 2018-05-22 重庆理工大学 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法
WO2020101448A1 (en) * 2018-08-28 2020-05-22 Samsung Electronics Co., Ltd. Method and apparatus for image segmentation
CN109829391A (zh) * 2019-01-10 2019-05-31 哈尔滨工业大学 基于级联卷积网络和对抗学习的显著性目标检测方法
CN111080645A (zh) * 2019-11-12 2020-04-28 中国矿业大学 基于生成式对抗网络的遥感图像半监督语义分割方法
CN111275713A (zh) * 2020-02-03 2020-06-12 武汉大学 一种基于对抗自集成网络的跨域语义分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李天成等: "一种基于生成对抗网络的图像修复算法", 《计算机应用与软件》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023277793A3 (en) * 2021-06-30 2023-02-09 Grabtaxi Holdings Pte. Ltd Segmenting method for extracting a road network for use in vehicle routing, method of training the map segmenter, and method of controlling a vehicle
CN113554013A (zh) * 2021-09-22 2021-10-26 华南理工大学 跨场景识别模型训练方法、跨场景道路识别方法以及装置
CN114529878A (zh) * 2022-01-21 2022-05-24 四川大学 一种基于语义感知的跨域道路场景语义分割方法
CN114529878B (zh) * 2022-01-21 2023-04-25 四川大学 一种基于语义感知的跨域道路场景语义分割方法
CN116524420A (zh) * 2023-07-03 2023-08-01 武汉大学 一种交通场景下的关键目标检测方法及系统
CN116524420B (zh) * 2023-07-03 2023-09-12 武汉大学 一种交通场景下的关键目标检测方法及系统

Also Published As

Publication number Publication date
CN112766089B (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
CN112766089B (zh) 一种基于全局-局部对抗学习框架的跨域道路提取方法
CN109934200B (zh) 一种基于改进M-Net的RGB彩色遥感图像云检测方法及系统
Gong et al. Superpixel-based difference representation learning for change detection in multispectral remote sensing images
CN112183258A (zh) 一种基于上下文信息和注意力机制的遥感图像道路分割方法
Wu et al. Rapid target detection in high resolution remote sensing images using YOLO model
CN111259906B (zh) 含多级通道注意力的条件生成对抗遥感图像目标分割方法
CN108319943B (zh) 一种提高戴眼镜条件下人脸识别模型性能的方法
CN113936217A (zh) 先验语义知识引导的高分辨率遥感影像弱监督建筑物变化检测方法
CN111079847B (zh) 一种基于深度学习的遥感影像自动标注方法
CN109522807B (zh) 基于自生成特征的卫星影像识别系统、方法及电子设备
CN112329771B (zh) 一种基于深度学习的建筑材料样本识别方法
CN114612769A (zh) 一种融入局部结构信息的集成感知红外成像舰船检测方法
Zhang et al. Spatial–temporal gray-level co-occurrence aware CNN for SAR image change detection
CN113807214B (zh) 基于deit附属网络知识蒸馏的小目标人脸识别方法
Cheng et al. Generating high-resolution climate prediction through generative adversarial network
Ren et al. A robust and accurate end-to-end template matching method based on the Siamese network
CN117475145A (zh) 融合多重注意力机制的多尺度遥感影像语义分割方法及系统
CN117197609A (zh) 一种遥感样本数据集的构建方法、系统、介质及设备
CN115482463B (zh) 一种生成对抗网络矿区土地覆盖识别方法及系统
Wang et al. Hausdorff iou and context maximum selection nms: Improving object detection in remote sensing images with a novel metric and postprocessing module
Pang et al. PTRSegNet: A Patch-to-Region Bottom-Up Pyramid Framework for the Semantic Segmentation of Large-Format Remote Sensing Images
Gao et al. FSOD4RSI: Few-Shot Object Detection for Remote Sensing Images Via Features Aggregation and Scale Attention
Xu et al. UCDFormer: Unsupervised change detection using real-time transformers
Yang et al. Deep superpixel-based network for blind image quality assessment
Li et al. Change Detection in Remote Sensing Images Using Pyramid Pooling Dynamic Sparse Attention Network with Difference Enhancement

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant