CN113762187B - 一种多源遥感图像融合语义分割方法及系统 - Google Patents
一种多源遥感图像融合语义分割方法及系统 Download PDFInfo
- Publication number
- CN113762187B CN113762187B CN202111072627.4A CN202111072627A CN113762187B CN 113762187 B CN113762187 B CN 113762187B CN 202111072627 A CN202111072627 A CN 202111072627A CN 113762187 B CN113762187 B CN 113762187B
- Authority
- CN
- China
- Prior art keywords
- feature
- remote sensing
- network
- feature map
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 73
- 230000004927 fusion Effects 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 238000005070 sampling Methods 0.000 claims description 9
- 230000001419 dependent effect Effects 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 239000012633 leachable Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种多源遥感图像融合语义分割方法及系统。该方法包括通过编码网络对目标的多源遥感图像中不同模态的遥感数据分别进行下采样,同时利用通道网络对不同模态的遥感数据对应的分支网络进行通道交换,确定分支网络对应的多分辨率的特征图;对分支网络对应的多分辨率的特征图进行通道拼接,并利用transformer编码器对拼接后的特征图进行长距离依赖项的建模,并输出特征图;利用解码网络对特征图进行解码,确定目标的分割结果;所述分割结果为分割掩膜。本发明能够提供多源遥感图像融合中的全局特征提取的准确性和数据利用率。
Description
技术领域
本发明涉及多源遥感图像处理领域,特别是涉及一种多源遥感图像融合语义分割方法及系统。
背景技术
目前多源遥感图像的语义分割算法有FuseNet、SegNet-RC等。FuseNet使用多支路编码器对多源遥感图像进行联合编码,几个编码器的输出结果在每个卷积块后相加。然后,一个解码器将编码后的联合表示重新采样回标签概率空间。然而,在这种架构中,分支数据被视为二手数据,即这几个分支并不是完全对称的。此外,在上采样过程中,只使用主分支的指标。因此,需要选择哪个数据源是主要数据源,哪个数据源是辅助数据,这在处理这多源的方式上存在一种概念上的不平衡。SegNet-RC使用多个编码器对多源遥感信息分别进行编码,然后分别解码,并在解码之后进行不同支路的融合。该方法改善了语义标注的精度,但要求多源遥感图像属于非异构图像,模型应用存在一定的局限性,尤其源数据为光电与雷达图像时。
由于多源遥感图像往往具有异质性,现有的方法对于不均衡的数据源没有针对性的融合策略,对于通道数不同的遥感图像难以提高对互补数据的利用率;并且多源遥感图像包括光学(如高光谱、多光谱、全色)、红外、DSM和SAR图像等,而现有模型在融合过程中对主要数据源和辅助数据不加区分,导致语义分割结果易受部分图像的遮挡和观测效果影响,模型稳定性不佳;大部分现有的方法基于卷积神经网络,卷积神经网络的固有的局部感知特性可能导致对象和类别的错误分类,并忽略全局上下文信息,对于城市区域的建筑等大型片区目标的分割效果不理想。
为了解决多源遥感图像融合中的全局特征无法提取和数据利用率不高的问题,亟需提供一种新的处理方法或系统。
发明内容
本发明的目的是提供一种多源遥感图像融合语义分割方法及系统,能够提供多源遥感图像融合中的全局特征提取的准确性和数据利用率。
为实现上述目的,本发明提供了如下方案:
一种多源遥感图像融合语义分割方法,包括:
通过编码网络对目标的多源遥感图像中不同模态的遥感数据分别进行下采样,同时利用通道网络对不同模态的遥感数据对应的分支网络进行通道交换,确定分支网络对应的多分辨率的特征图;不同模态的遥感数据包括:全色PAN、多光谱MS和合成孔径雷达SAR三种模态的遥感数据;分支网络包括:PAN分支网络、MS分支网络和SAR分支网络;
对分支网络对应的多分辨率的特征图进行通道拼接,并利用transformer编码器对拼接后的特征图进行长距离依赖项的建模,并输出特征图;
利用解码网络对特征图进行解码,确定目标的分割结果;所述分割结果为分割掩膜。
可选地,所述对分支网络对应的多分辨率的特征图进行通道拼接,并利用transformer编码器对拼接后的特征图进行长距离依赖项的建模,并输出特征图,具体包括:
对拼接后的特征图的空间维度折叠为一维序列;
利用公式z0=f+PE生成特征嵌入;
根据特征嵌入依次输入多个transformer层中,确定特征图,并将特征图的尺寸恢复成与多分辨率的特征图的相同的尺寸;所述transformer层包括:多头注意力MHA块和前馈网络FFN;
其中,代表位置嵌入,/>为特征嵌入,f为一维序列。
可选地,第l个transformer层具体包括:
z′l=MHA(LN(zl-1))+zl-1;
zl=FFN(LN(z′l))+z′l;
其中,LN(*)表示标准化层,zl为第l个transformer层的输出,zl-1为第l-1个transformer层的输出,z′l为多头注意力MHA块输出。
可选地,所述利用解码网络对特征图进行解码,确定目标的分割结果,具体包括:
解码网络在上采样的过程中与PAN分支网络的各级输出的多分辨率的特征图进行像素级拼接,通过跳跃连接将编码网络中的多分辨率的特征图与transformer编码器输出的特征图进行融合,确定目标的分割结果。
一种多源遥感图像融合语义分割系统,包括:
多分辨率的特征图提取模块,用于通过编码网络对目标的多源遥感图像中不同模态的遥感数据分别进行下采样,同时利用通道网络对不同模态的遥感数据对应的分支网络进行通道交换,确定分支网络对应的多分辨率的特征图;不同模态的遥感数据包括:全色PAN、多光谱MS和合成孔径雷达SAR三种模态的遥感数据;分支网络包括:PAN分支网络、MS分支网络和SAR分支网络;
特征图输出模块,用于对分支网络对应的多分辨率的特征图进行通道拼接,并利用transformer编码器对拼接后的特征图进行长距离依赖项的建模,并输出特征图;
分割结果确定模块,用于利用解码网络对特征图进行解码,确定目标的分割结果;所述分割结果为分割掩膜。
可选地,所述特征图输出模块具体包括:
空间维度折叠单元,用于对拼接后的特征图的空间维度折叠为一维序列;
特征嵌入生成单元,用于利用公式z0=f+PE生成特征嵌入;
特征图确定单元,用于根据特征嵌入依次输入多个transformer层中,确定特征图,并将特征图的尺寸恢复成与多分辨率的特征图的相同的尺寸;所述transformer层包括:多头注意力(Multi-Head Attention,MHA)块和前馈网络FFN;
其中,代表位置嵌入,/>为特征嵌入,f为一维序列。
可选地,第l个transformer层具体包括:
z′l=MHA(LN(zl-1))+zl-1;
zl=FFN(LN(z′l))+z′l;
其中,LN(*)表示标准化层,zl为第l个transformer层的输出,zl-1为第l-1个transformer层的输出,z′l为多头注意力MHA块输出。
可选地,所述分割结果确定模块具体包括:
分割结果确定单元,用于解码网络在上采样的过程中与PAN分支网络的各级输出的多分辨率的特征图进行像素级拼接,通过跳跃连接将编码网络中的多分辨率的特征图与transformer编码器输出的特征图进行融合,确定目标的分割结果。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明所提供的一种多源遥感图像融合语义分割方法及系统,使用通道交换网络对各融合支路中的特征图进行随机通道交换,使得不同遥感信息深度融合,模型分割结果不过分依赖于某一数据源,克服不同数据源不均衡时融合分割结果不理想的问题;利用transformer编码器对全局信息的建模能力,对不同源的遥感图像进行长距离依赖项进行建模,解决现有的方法对于遥感图像的全局上下文信息提取能力不足的问题。本发明通过下采样和transformer编码,实现了多源遥感图像融合特征图的长距离依赖项建模,提高了模型特征提取能力,改善了分割效果;为了平衡模态间融合和模态内处理,采用了无参数、自适应、有效的通道交换网络,将尺度因子的稀疏性约束应用于不同模态的不相交区域,实现了多源遥感图像的深度融合。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明所提供的一种多源遥感图像融合语义分割方法流程示意图;
图2为多源遥感图像融合语义分割原理示意图;
图3为本发明所提供的一种多源遥感图像融合语义分割方法整体流程示意图;
图4为本发明所提供的一种多源遥感图像融合语义分割系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种多源遥感图像融合语义分割方法及系统,能够提供多源遥感图像融合中的全局特征提取的准确性和数据利用率。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明所提供的一种多源遥感图像融合语义分割方法流程示意图,图2为多源遥感图像融合语义分割原理示意图,图3为本发明所提供的一种多源遥感图像融合语义分割方法整体流程示意图,如图1-图3所示,本发明所提供的一种多源遥感图像融合语义分割方法,包括:
S101,通过编码网络对目标的多源遥感图像中不同模态的遥感数据分别进行下采样,同时利用通道网络对不同模态的遥感数据对应的分支网络进行通道交换,确定分支网络对应的多分辨率的特征图;不同模态的遥感数据包括:全色PAN、多光谱MS和合成孔径雷达SAR三种模态的遥感数据;其中,全色PAN、多光谱MS和合成孔径雷达SAR三种模态的遥感数据分别为 和/>其中H×W代表空间分辨率,C*代表通道数;分支网络包括:PAN分支网络、MS分支网络和SAR分支网络;
为了缩减开支,先通过编码网络对输入图片进行下采样,逐步将输入图像编码为低分辨率特征表示。经过的3次下采样,丰富的局部上下文特征就可以有效地嵌入到Fi。之后Fi被输入到transformer编码器中,以进一步学习具有全局感受域的大范围相关性。在下采样过程中,3个分支网络通过通道交换网络进行通道交换。
S102,对分支网络对应的多分辨率的特征图进行通道拼接,并利用transformer编码器对拼接后的特征图进行长距离依赖项的建模,并输出特征图;利用transformer编码器对拼接后的特征图进行长距离依赖项的建模使得连续建筑群更容易被分割出来;之后解码网络将上采样层和卷积层进行逐级像素级相加,逐步得到高分辨率的分割结果。
进行通道拼接为一维序列特征图f为d×N(N=HW/(8×8));
具体包括:
对拼接后的特征图的空间维度折叠为一维序列;
为了对建筑物分割任务中至关重要的位置信息进行编码,引入可学习的位置嵌入,并通过直接相加的方式将其与特征图f融合,即利用公式z0=f+PE生成特征嵌入;
根据特征嵌入依次输入多个transformer层中,确定特征图,并将特征图的尺寸恢复成与多分辨率的特征图的相同的尺寸;所述transformer层包括:多头注意力MHA块和前馈网络FFN;
为了将序列还原成特征图,这里通过特征映射实现。对于transformer输出的特征图将其重整形为/>这样特征图的大小恢复为/>得到与编码部分特征图F相同的尺寸大小。
其中,代表位置嵌入,/>为特征嵌入,f为一维序列。
第l个transformer层具体包括:
z′l=MHA(LN(zl-1))+zl-1;
zl=FFN(LN(z′l))+z′l;
其中,LN(*)表示标准化层,zl为第l个transformer层的输出,zl-1为第l-1个transformer层的输出,z′l为多头注意力MHA块输出。
S103,利用解码网络对特征图进行解码,确定目标的分割结果;所述分割结果为分割掩膜。
S103具体包括:
PAN图像是因为在PAN、MS和SAR图像中,PAN图像具有最高的地面空间分辨率,纹理细节更加清晰,从而使得结果更加稳定,以SAR图像为辅助数据,保证了多种天气条件下的持续观测,可以获得更好地语义分割效果;因此解码网络在上采样的过程中与PAN分支网络的各级输出的多分辨率的特征图进行像素级拼接,通过跳跃连接将编码网络中的多分辨率的特征图与transformer编码器输出的特征图进行融合,确定目标的分割结果
图4为本发明所提供的一种多源遥感图像融合语义分割系统结构示意图,如图4所示,本发明所提供的一种多源遥感图像融合语义分割系统,包括:
多分辨率的特征图提取模块401,用于通过编码网络对目标的多源遥感图像中不同模态的遥感数据分别进行下采样,同时利用通道网络对不同模态的遥感数据对应的分支网络进行通道交换,确定分支网络对应的多分辨率的特征图;不同模态的遥感数据包括:全色PAN、多光谱MS和合成孔径雷达SAR三种模态的遥感数据;分支网络包括:PAN分支网络、MS分支网络和SAR分支网络;
特征图输出模块402,用于对分支网络对应的多分辨率的特征图进行通道拼接,并利用transformer编码器对拼接后的特征图进行长距离依赖项的建模,并输出特征图;
分割结果确定模块403,用于利用解码网络对特征图进行解码,确定目标的分割结果;所述分割结果为分割掩膜。
所述特征图输出模块402具体包括:
空间维度折叠单元,用于对拼接后的特征图的空间维度折叠为一维序列;
特征嵌入生成单元,用于利用公式z0=f+PE生成特征嵌入;
特征图确定单元,用于根据特征嵌入依次输入多个transformer层中,确定特征图,并将特征图的尺寸恢复成与多分辨率的特征图的相同的尺寸;所述transformer层包括:多头注意力MHA块和前馈网络FFN;
其中,代表位置嵌入,/>为特征嵌入,f为一维序列。
第l个transformer层具体包括:
z′l=MHA(LN(zl-1))+zl-1;
zl=FFN(LN(z′l))+z′l;
其中,LN(*)表示标准化层,zl为第l个transformer层的输出,zl-1为第l-1个transformer层的输出,z′l为多头注意力MHA块输出。
所述分割结果确定模块403具体包括:
分割结果确定单元,用于解码网络在上采样的过程中与PAN分支网络的各级输出的多分辨率的特征图进行像素级拼接,通过跳跃连接将编码网络中的多分辨率的特征图与transformer编码器输出的特征图进行融合,确定目标的分割结果。
本发明针对多源遥感图像语义分割问题,提出了一种基于注意力机制的多源遥感图像融合语义分割方法,通过通道交换网络进行多支路的通道融合编码,使得不同源的遥感数据之间深度融合,可提高模型的鲁棒性,防止对某一数据源的过度依赖;通过多源transformer机制,以捕获多源遥感数据的全局语义信息(像素点之间的某种上下文联系)。同时为了减小模型的计算量,通过下采样降低特征图的分辨率,使得模型的计算量大幅减少,保证了对全局语义信息的提取能力;本发明通过将注意力机制和通道交换网络对多源遥感图像进行深度融合,可实现对大型建筑等目标的有效提取。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (4)
1.一种多源遥感图像融合语义分割方法,其特征在于,包括:
通过编码网络对目标的多源遥感图像中不同模态的遥感数据分别进行下采样,同时利用通道网络对不同模态的遥感数据对应的分支网络进行通道交换,确定分支网络对应的多分辨率的特征图;不同模态的遥感数据包括:全色PAN、多光谱MS和合成孔径雷达SAR三种模态的遥感数据;分支网络包括:PAN分支网络、MS分支网络和SAR分支网络;
对分支网络对应的多分辨率的特征图进行通道拼接,并利用transformer编码器对拼接后的特征图进行长距离依赖项的建模,并输出特征图;
利用解码网络对特征图进行解码,确定目标的分割结果;所述分割结果为分割掩膜;
所述对分支网络对应的多分辨率的特征图进行通道拼接,并利用transformer编码器对拼接后的特征图进行长距离依赖项的建模,并输出特征图,具体包括:
对拼接后的特征图的空间维度折叠为一维序列;
利用公式z0=f+PE生成特征嵌入;
根据特征嵌入依次输入多个transformer层中,确定特征图,并将特征图的尺寸恢复成与多分辨率的特征图的相同的尺寸;所述transformer层包括:多头注意力MHA块和前馈网络FFN;
其中,代表位置嵌入,/>为特征嵌入,f为一维序列;
所述利用解码网络对特征图进行解码,确定目标的分割结果,具体包括:
解码网络在上采样的过程中与PAN分支网络的各级输出的多分辨率的特征图进行像素级拼接,通过跳跃连接将编码网络中的多分辨率的特征图与transformer编码器输出的特征图进行融合,确定目标的分割结果。
2.根据权利要求1所述的一种多源遥感图像融合语义分割方法,其特征在于,第l个transformer层具体包括:
z′l=MHA(LN(zl-1))+zl-1;
zl=FFN(LN(z′l))+z′l;
其中,LN(*)表示标准化层,zl为第l个transformer层的输出,zl-1为第l-1个transformer层的输出,z′l为多头注意力MHA块输出。
3.一种多源遥感图像融合语义分割系统,其特征在于,包括:
多分辨率的特征图提取模块,用于通过编码网络对目标的多源遥感图像中不同模态的遥感数据分别进行下采样,同时利用通道网络对不同模态的遥感数据对应的分支网络进行通道交换,确定分支网络对应的多分辨率的特征图;不同模态的遥感数据包括:全色PAN、多光谱MS和合成孔径雷达SAR三种模态的遥感数据;分支网络包括:PAN分支网络、MS分支网络和SAR分支网络;
特征图输出模块,用于对分支网络对应的多分辨率的特征图进行通道拼接,并利用transformer编码器对拼接后的特征图进行长距离依赖项的建模,并输出特征图;
分割结果确定模块,用于利用解码网络对特征图进行解码,确定目标的分割结果;所述分割结果为分割掩膜;
所述特征图输出模块具体包括:
空间维度折叠单元,用于对拼接后的特征图的空间维度折叠为一维序列;
特征嵌入生成单元,用于利用公式z0=f+PE生成特征嵌入;
特征图确定单元,用于根据特征嵌入依次输入多个transformer层中,确定特征图,并将特征图的尺寸恢复成与多分辨率的特征图的相同的尺寸;所述transformer层包括:多头注意力MHA块和前馈网络FFN;
其中,代表位置嵌入,/>为特征嵌入,f为一维序列;
所述分割结果确定模块具体包括:
分割结果确定单元,用于解码网络在上采样的过程中与PAN分支网络的各级输出的多分辨率的特征图进行像素级拼接,通过跳跃连接将编码网络中的多分辨率的特征图与transformer编码器输出的特征图进行融合,确定目标的分割结果。
4.根据权利要求3所述的一种多源遥感图像融合语义分割系统,其特征在于,第l个transformer层具体包括:
z′l=MHA(LN(zl-1))+zl-1;
zl=FFN(LN(z′l))+z′l;
其中,LN(*)表示标准化层,zl为第l个transformer层的输出,zl-1为第l-1个transformer层的输出,z′l为多头注意力MHA块输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111072627.4A CN113762187B (zh) | 2021-09-14 | 2021-09-14 | 一种多源遥感图像融合语义分割方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111072627.4A CN113762187B (zh) | 2021-09-14 | 2021-09-14 | 一种多源遥感图像融合语义分割方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113762187A CN113762187A (zh) | 2021-12-07 |
CN113762187B true CN113762187B (zh) | 2023-12-12 |
Family
ID=78795401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111072627.4A Active CN113762187B (zh) | 2021-09-14 | 2021-09-14 | 一种多源遥感图像融合语义分割方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113762187B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115205179A (zh) * | 2022-07-15 | 2022-10-18 | 小米汽车科技有限公司 | 图像融合的方法、装置、车辆及存储介质 |
CN117372720B (zh) * | 2023-10-12 | 2024-04-26 | 南京航空航天大学 | 一种基于多特征交叉掩码修复的无监督异常检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108681706A (zh) * | 2018-05-15 | 2018-10-19 | 哈尔滨工业大学 | 一种双源遥感数据语义分割方法 |
CN112819837A (zh) * | 2021-02-26 | 2021-05-18 | 南京大学 | 一种基于多源异构遥感影像的语义分割方法 |
WO2021097774A1 (en) * | 2019-11-21 | 2021-05-27 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for multi-source domain adaptation for semantic segmentation |
CN113255676A (zh) * | 2021-05-21 | 2021-08-13 | 福州大学 | 基于多源数据融合的高分遥感影像语义分割模型及方法 |
-
2021
- 2021-09-14 CN CN202111072627.4A patent/CN113762187B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108681706A (zh) * | 2018-05-15 | 2018-10-19 | 哈尔滨工业大学 | 一种双源遥感数据语义分割方法 |
WO2021097774A1 (en) * | 2019-11-21 | 2021-05-27 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for multi-source domain adaptation for semantic segmentation |
CN112819837A (zh) * | 2021-02-26 | 2021-05-18 | 南京大学 | 一种基于多源异构遥感影像的语义分割方法 |
CN113255676A (zh) * | 2021-05-21 | 2021-08-13 | 福州大学 | 基于多源数据融合的高分遥感影像语义分割模型及方法 |
Non-Patent Citations (1)
Title |
---|
基于深度学习的高分辨率遥感图像海陆分割方法;崔昊;;软件导刊(03);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113762187A (zh) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115601549B (zh) | 基于可变形卷积和自注意力模型的河湖遥感图像分割方法 | |
CN113762187B (zh) | 一种多源遥感图像融合语义分割方法及系统 | |
CN114943963B (zh) | 一种基于双分支融合网络的遥感图像云和云影分割方法 | |
CN111563909A (zh) | 一种复杂街景图像语义分割方法 | |
CN114445442B (zh) | 基于非对称交叉融合的多光谱图像语义分割方法 | |
CN111652075B (zh) | 结合迁移学习的高分辨率卫星影像道路快速提取方法、系统 | |
CN112598590B (zh) | 基于深度学习的光学遥感时间序列影像重建方法及系统 | |
CN115345866B (zh) | 一种遥感影像中建筑物提取方法、电子设备及存储介质 | |
CN115424059A (zh) | 一种基于像素级对比学习的遥感土地利用分类方法 | |
CN115527096A (zh) | 一种基于改进YOLOv5的小目标检测方法 | |
CN112507849A (zh) | 一种基于条件生成对抗网络的动态到静态场景转换方法 | |
CN116485867A (zh) | 一种面向自动驾驶的结构化场景深度估计方法 | |
CN115293968A (zh) | 一种超轻量高效的单图像超分辨率方法 | |
CN115240066A (zh) | 基于深度学习的遥感影像矿区复绿监测方法及系统 | |
CN116883825B (zh) | 结合多模态数据融合和Multiplemix的水下目标检测方法 | |
CN117011527A (zh) | 一种基于空间移位和卷积的轻量化图像语义分割方法 | |
CN117237623A (zh) | 一种无人机遥感图像语义分割方法及系统 | |
CN113920317B (zh) | 基于可见光图像和低分辨率深度图像的语义分割方法 | |
CN115661455A (zh) | 一种基于形状与语义增强的多模态图像语义分割方法 | |
CN115512325A (zh) | 一种端到端的基于实例分割的车道检测方法 | |
CN115457379A (zh) | 一种联合语义分割与角度预测的遥感影像道路提取方法及系统 | |
CN114881849A (zh) | 一种联合单目深度估计的深度图像超分辨率重建方法 | |
CN113191944A (zh) | 一种多通道图像内容特征融合风格迁移方法及系统 | |
CN112949732B (zh) | 基于自适应多模态遥感图像融合语义标注方法及系统 | |
CN114677380B (zh) | 一种基于多样化交互的视频对象分割方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |