CN115880553A - 一种基于空时建模的多尺度变化目标检索方法 - Google Patents

一种基于空时建模的多尺度变化目标检索方法 Download PDF

Info

Publication number
CN115880553A
CN115880553A CN202211240705.1A CN202211240705A CN115880553A CN 115880553 A CN115880553 A CN 115880553A CN 202211240705 A CN202211240705 A CN 202211240705A CN 115880553 A CN115880553 A CN 115880553A
Authority
CN
China
Prior art keywords
joint
space
size
feature
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211240705.1A
Other languages
English (en)
Inventor
郑建炜
冯宇超
吴彭江
蒋嘉伟
徐宏辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaoxing Energy Testing Institute
Zhejiang University of Technology ZJUT
Original Assignee
Shaoxing Energy Testing Institute
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaoxing Energy Testing Institute, Zhejiang University of Technology ZJUT filed Critical Shaoxing Energy Testing Institute
Priority to CN202211240705.1A priority Critical patent/CN115880553A/zh
Publication of CN115880553A publication Critical patent/CN115880553A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Image Analysis (AREA)

Abstract

一种基于空时建模的多尺度变化目标检索方法,包括:获取具有空间‑时序多维度的数据并分割为若干子图;采用预训练好的CNN或Transformer模型对各子图进行特征提取获得抽象特征图;将图像对中对应子图获得的抽象特征图执行跨时态的联合全局注意力机制获取对应的交互特征图;对交互特征图执行联合逐像素减法和参数化学习的双分支获取对应的差异特征图;将图像对中对应子图获得的差异特征图进行多尺度融合,获取融合特征图;将图像中对应子图获得的融合特征图依次进行上采样和卷积变换,获取变化检测图。本发明有助于提高多尺度变化目标检索的精度和泛化性能。

Description

一种基于空时建模的多尺度变化目标检索方法
技术领域
本发明属于图像处理技术领域,具体涉及一种基于空时建模的多尺度变化目标检索方法。
背景技术
多尺度变化目标检索是指从不同时序中辨别同一空间位置上是否发生变化的过程。作为监测区域状况的关键技术,变化目标检索在城市建设制图、自然灾害评估、环境变化监测等众多任务发挥着显著作用。由于不同时间拍摄,时序数据之间可能存在大量任务无关的干扰,例如季节变换、曝光程度不同、建筑翻新等,这种情况下,需要快速、稳定、鲁棒的方法来处理不同时间获取的空间-时序多维度的数据。
基于手工提取特征的传统变化目标检索方法,表征效果并不理想。而深度学习网络可以通过非线性操作捕获抽象特征,从而更具表征性。例如,卷积神经网络CNN能够从数据中以滑动窗口的机制提取局部特征,而Transformer可以依赖于自注意力机制动态计算全局上下文。然而,CNN仅关注局部而忽略了全局依赖,Transformer在各层均捕获相似的全局特征而造成冗余。因此,在本方明中,我们提出在卷积特征图上执行改进的自注意力机制,来捕获具有不同表示。
发明内容
本发明的目的在于针对上述问题,提出一种基于空时建模的多尺度变化目标检索方法,针对具有空间-时序多维度数据中检索多尺度变化目标,通过跨时态的联合全局注意力机制抑制无关差异,并构建联合逐像素减法和参数化学习的双分支学习差异,最后通过轻量的全局空间注意力机制完成多水平特征融合,有助于提高多尺度变化目标检索的精度和泛化性能。
为实现上述目的,本发明所采取的技术方案为:
本发明提出的一种基于空时建模的多尺度变化目标检索方法,包括如下步骤:
S1、将遥感图像对X1和X2分割为若干相同空间大小的图像块;
S2、利用预训练网络ResNet18模型对各子图提取抽象特征图F1和F2,ResNet18模型各阶段输出尺寸包括4W×4H×d、2W×2H×d和W×H×d,其中,W、H和d分别为宽度、高度和通道深度;
S3、通过跨时态的联合全局注意力机制对F1和F2一起建模,所述跨时态的联合全局注意力机制操作具体如下:
S31、将相同尺寸的特征图F1和F2线性展开获得(查询Q向量,键K向量,值V向量)形式的向量组(Q1,K1,V1)和(Q2,K2,V2),以W×H×d为例,Q、K和V的尺寸均为N×d,N=W×H;
S32、将Q1和Q2通过线性函数将其压缩为(N/2)×d,然后再将其拼接成为一个新的查询向量Qjoint,尺寸为N×d;
S33、基于交换后的查询向量Qjoint与S31步骤中的键-值对向量组(K1,V1)和(K2,V2)分别计算全局注意力输出Fjoint-1和Fjoint-2,尺寸均为W×H×d;
S4、对相同尺寸的特征图Fjoint-1和Fjoint-2执行联合逐像素减法和参数化学习的双分支差异捕获操作获取差异特征图Fsub和Fcat
所述双分支差异捕获操作具体如下:
S41、在逐像素减法分支中,计算相同尺寸的特征图Fjoint-1和Fjoint-2之间逐像素的差值,获得差异特征图Fsub
S42、在参数化学习的分支中,先通过沿着通道方向堆叠相同尺寸的特征图Fjoint-1和Fjoint-2,然后再使用多个保持尺寸不变的卷积层进行非线性特征捕获,获得差异特征图Fcat
S5、针对多尺寸的差异特征图Fsub和Fcat,使用轻量的全局空间注意力进行多尺寸的特征图融合,以尺寸包括W×H×d、2W×2H×d和4W×4H×d的多尺寸的差异特征图Fsub为例,特征图融合操作具体如下:
S51、将尺寸为W×H×d的特征图Fsub-1插值上采样,并与尺寸为2W×2H×d的特征图Fsub-2沿着通道方向进行堆叠,然后通过轻量的全局空间注意力完成初步融合;
S52、将S51步骤中中初步融合的特征图插值上采样,并与尺寸为4W×4H×d的特征图Fsub-3沿着通道方向进行堆叠,然后通过轻量的全局空间注意力完成进一步融合;
S6、最后将特征融合后的特征图进行插值上采样到S1步骤中图像块的尺寸,并通过卷积变换和Sigmoid函数将变化目标像素变为1,非变化区域像素为0,完成变化目标检测。
优选地,步骤S1中,所述图像块的尺寸为256×256。
优选地,步骤S2中,ResNet18模型各阶段输出尺寸为64×64×64、32×32×128和16×16×256。
优选地,步骤32中,所述将Q1和Q2通过线性函数将其压缩为(N/2)×d,然后再将其拼接成为一个新的查询向量Qjoint,计算公式如下:
Qjoint=Concat(Linear(Q1),Linear(Q2)) (1)
其中,Linear(·)为线性函数,Concat(·)为沿着通道方向进行拼接操作。
优选地,步骤33中,所述基于交换后的查询向量Qjoint与S31步骤中的键-值对向量组(K1,V1)和(K2,V2)分别计算全局注意力输出Fjoint-1和Fjoint-2,计算公式如下:
Figure BDA0003884146330000031
Figure BDA0003884146330000032
其中,Softmax(·)为非线性映射函数,T为转置操作。
优选地,步骤42中,所述在参数化学习的分支中,先通过沿着通道方向堆叠相同尺寸的特征图Fjoint-1和Fjoint-2,然后再使用多个保持尺寸不变的卷积层进行非线性特征捕获,获得差异特征图Fcat,计算公式如下:
Fcat=Conv(Concat(Fjoint-1,Fjoint-2)) (4)
其中,Conv(·)为卷积操作。
优选地,步骤51中,所述将尺寸为W×H×d的特征图Fsub-1插值上采样,并与尺寸为2W×2H×d的特征图Fsub-2沿着通道方向进行堆叠,然后通过轻量的全局空间注意力完成初步融合,计算公式如下:
Ffuse=LSA(Concat(Fsub-1,Fsub-2)) (5)
LSA(X)=Softmax(Linear(Q)·Pooling(KT))·Pooling(V) (6)
其中Pooling(·)为空间池化操作。
与现有技术相比,本发明的有益效果为:
该方法针对具有空间-时序多维度的数据中检索多尺度变化目标,利用跨时态的联合全局注意力机制抑制数据之间与任务无关的差异;并且通过联合逐像素减法和参数化学习的双分支进行差异学习,促使模型以稳定可靠的前提下提升潜能;最后以轻量的全局空间注意力机制完成多水平特征融合,提高定位的同时精确边界,实现变化目标精确检索。
附图说明
图1为本发明空时建模的多尺度变化目标检索的流程图;
图2为本发明跨时态的联合全局注意力机制的流程图;
图3为本发明轻量的全局空间注意力机制的流程图。
图4为本发明实施例的检测结果图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是在于限制本申请。
本申请针对多尺度变化目标检索中数据的空间-时序多维度特性,通过构建跨时态的联合全局注意力机制、联合逐像素减法和参数化学习的双分支和轻量的全局空间注意力机制,实现精确的多尺度变化目标检索。
如图1-4所示,基于空时建模的多尺度变化目标检索方法,包括如下步骤:
S1、将遥感图像对X1和X2分割为若干相同空间大小的图像块;
在一实施例中,步骤S1中,子图的尺寸为256×256。或还可根据实际需求调整。
S2、利用预训练网络ResNet18模型对各子图提取抽象特征图F1和F2,ResNet18模型各阶段输出尺寸包括4W×4H×d、2W×2H×d和W×H×d,其中,W、H和d分别为宽度、高度和通道深度;
在一实施例中,步骤S2中,ResNet18模型各阶段输出尺寸为64×64×64、32×32×128和16×16×256。
S3、通过跨时态的联合全局注意力机制对F1和F2一起建模,所述跨时态的联合全局注意力机制操作具体如下:
S31、将相同尺寸的特征图F1和F2线性展开获得(查询Q向量,键K向量,值V向量)形式的向量组(Q1,K1,V1)和(Q2,K2,V2),以W×H×d为例,Q、K和V的尺寸均为N×d,N=W×H;
S32、将Q1和Q2通过线性函数将其压缩为(N/2)×d,然后再将其拼接成为一个新的查询向量Qjoint,尺寸为N×d;
在一实施例中,步骤32中,所述将Q1和Q2通过线性函数将其压缩为(N/2)×d,然后再将其拼接成为一个新的查询向量Qjoint,计算公式如下:
Qjoint=Concat(Linear(Q1),Linear(Q2)) (1)
其中,Linear(·)为线性函数,Concat(·)为沿着通道方向进行拼接操作。
S33、基于交换后的查询向量Qjoint与S31步骤中的键-值对向量组(K1,V1)和(K2,V2)分别计算全局注意力输出Fjoint-1和Fjoint-2,尺寸均为W×H×d;
在一实施例中,步骤33中,所述基于交换后的查询向量Qjoint与S31步骤中的键-值对向量组(K1,V1)和(K2,V2)分别计算全局注意力输出Fjoint-1和Fjoint-2,计算公式如下:
Figure BDA0003884146330000061
Figure BDA0003884146330000062
其中,Softmax(·)为非线性映射函数,T为转置操作。
S4、对相同尺寸的特征图Fjoint-1和Fjoint-2执行联合逐像素减法和参数化学习的双分支差异捕获操作获取差异特征图Fsub和Fcat
所述双分支差异捕获操作具体如下:
S41、在逐像素减法分支中,计算相同尺寸的特征图Fjoint-1和Fjoint-2之间逐像素的差值,获得差异特征图Fsub
S42、在参数化学习的分支中,先通过沿着通道方向堆叠相同尺寸的特征图Fjoint-1和Fjoint-2,然后再使用多个保持尺寸不变的卷积层进行非线性特征捕获,获得差异特征图Fcat
在一实施例中,步骤42中,所述在参数化学习的分支中,先通过沿着通道方向堆叠相同尺寸的特征图Fjoint-1和Fjoint-2,然后再使用多个保持尺寸不变的卷积层进行非线性特征捕获,获得差异特征图Fcat,计算公式如下:
Fcat=Conv(Concat(Fjoint-1,Fjoint-2)) (4)
其中,Conv(·)为卷积操作。
S5、针对多尺寸的差异特征图Fsub和Fcat,使用轻量的全局空间注意力进行多尺寸的特征图融合,以尺寸包括W×H×d、2W×2H×d和4W×4H×d的多尺寸的差异特征图Fsub为例,特征图融合操作具体如下:
S51、将尺寸为W×H×d的特征图Fsub-1插值上采样,并与尺寸为2W×2H×d的特征图Fsub-2沿着通道方向进行堆叠,然后通过轻量的全局空间注意力完成初步融合;
在一实施例中,步骤51中,所述将尺寸为W×H×d的特征图Fsub-1插值上采样,并与尺寸为2W×2H×d的特征图Fsub-2沿着通道方向进行堆叠,然后通过轻量的全局空间注意力完成初步融合,计算公式如下:
Ffuse=LSA(Concat(Fsub-1,Fsub-2)) (5)
LSA(X)=Softmax(Linear(Q)·Pooling(KT))·Pooling(V) (6)
其中Pooling(·)为空间池化操作。
S52、将S51步骤中中初步融合的特征图插值上采样,并与尺寸为4W×4H×d的特征图Fsub-3沿着通道方向进行堆叠,然后通过轻量的轻量化的全局空间注意力完成进一步融合;
S6、最后将特征融合后的特征图进行插值上采样到S1步骤中图像块的尺寸,并通过卷积变换和Sigmoid函数将变化目标像素变为1,非变化区域像素为0,完成变化目标检测。
作为一个较佳的实施例,以广州一城郊地区从2006年到2019年不同时间采集的影像为例,采用本申请提供的一种基于空时建模的多尺度变化目标检索方法进行实验。检测数据集的影像包含R、G、B三个波段,分辨率为0.55m,具体步骤如下:
步骤1:载入广州一城郊地区从2006年到2019年不同时间采集的影像,如图4所示,X1为变化前的图像,X2为变化后的图像,(a)-(f)为六组图像,选取显示的3个波段(默认R、G、B),对图像对及其对应的检测标签图进行256×256的切割,并将数据划分成训练、验证、测试三部分。
步骤2:在ImageNet分类数据集上预训练CNN模型(具体采用Resnet-18网络)。CNN模型还可替换为Transformer模型。
步骤3:载入步骤1切割后的训练集和验证集数据,送入预训练好的CNN模型捕获尺寸为64×64×64、32×32×128和16×16×256的特征图F1和F2,F1和F2为图像对中对应子图的多尺度抽象特征图。
步骤4:对特征图F1和F2执行跨时态的联合全局注意力机制,获取尺寸为64×64×64、32×32×128和16×16×256的交互后的特征图Fjoint-1和Fjoint-2
步骤5:对相同尺寸的特征图Fjoint-1和Fjoint-2执行联合逐像素减法和参数化学习的双分支差异捕获操作获取差异特征图Fsub和Fcat
步骤6:针对多尺寸的差异特征图Fsub和Fcat,使用轻量的全局空间注意力进行多尺寸的特征图融合,获取尺度尺寸为64×64×64的特征图。
步骤7:将融合后的特征图经过4倍上采样、卷积操作和Sigmoid函数后,获取尺寸为256×256×1的变化检测图。可通过交叉熵损失函数、随机梯度下降算法,最小化检测预测图与标签图之间的损失,完成模型训练,为本领域技术人员熟知技术,在此不再赘述。
步骤8:载入本方法训练好的参数,在测试集上获取预测输出,并与测试集标签进行变化检测结果比较,计算查准率、查全率、F1分数、交并比和总体准确率,如图4所示,包括(a)-(f)共六组图像对,对应有所提方法(本申请方法)和参考方法(双时变换器)的变化检测图的结果比较。检测评价结果如表1所示。
表1
Figure BDA0003884146330000081
其中,双时变换器为现有技术提出的方法,参考:H.Chen,Z.Qi and Z.Shi,"Remote Sensing Image Change Detection With Transformers,"in IEEE Transactionson Geoscience and Remote Sensing,vol.60,pp.1-14,2022,Art no.5607514,doi:10.1109/TGRS.2021.3095166.。表1中所提方法的检测结果在数值上全方面超过现有技术中的双时变换器方法的结果,同时图4上具有更少的漏检(浅灰色像素点)和误检(深灰色像素点),以及更高的准确率(白色像素点),进一步验证了本方明在变化目标检索上的有效性。
该方法针对具有空间-时序多维度的数据中检索多尺度变化目标,利用跨时态的联合全局注意力机制抑制数据之间与任务无关的差异;并且通过联合逐像素减法和参数化学习的双分支进行差异学习,促使模型以稳定可靠的前提下提升潜能;最后以轻量的全局空间注意力机制完成多水平特征融合,提高定位的同时精确边界,实现变化目标精确检索。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请描述较为具体和详细的实施例,但并不能因此而理解为对申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (7)

1.一种基于空时建模的多尺度变化目标检索方法,其特征在于:所述基于空时建模的多尺度变化目标检索方法包括如下步骤:
S1、将遥感图像对X1和X2分割为若干相同空间大小的图像块;
S2、利用预训练网络ResNet18模型对各子图提取抽象特征图F1和F2,ResNet18模型各阶段输出尺寸包括4W×4H×d、2W×2H×d和W×H×d,其中,W、H和d分别为宽度、高度和通道深度;
S3、通过跨时态的联合全局注意力机制对F1和F2一起建模,所述跨时态的联合全局注意力机制操作具体如下:
S31、将相同尺寸的特征图F1和F2线性展开获得(查询Q向量,键K向量,值V向量)形式的向量组(Q1,K1,V1)和(Q2,K2,V2),以W×H×d为例,Q、K和V的尺寸均为N×d,N=W×H;
S32、将Q1和Q2通过线性函数将其压缩为(N/2)×d,然后再将其拼接成为一个新的查询向量Qjoint,尺寸为N×d;
S33、基于交换后的查询向量Qjoint与S31步骤中的键-值对向量组(K1,V1)和(K2,V2)分别计算全局注意力输出Fjoint-1和Fjoint-2,尺寸均为W×H×d;
S4、对相同尺寸的特征图Fjoint-1和Fjoint-2执行联合逐像素减法和参数化学习的双分支差异捕获操作获取差异特征图Fsub和Fcat
所述双分支差异捕获操作具体如下:
S41、在逐像素减法分支中,计算相同尺寸的特征图Fjoint-1和Fjoint-2之间逐像素的差值,获得差异特征图Fsub
S42、在参数化学习的分支中,先通过沿着通道方向堆叠相同尺寸的特征图Fjoint-1和Fjoint-2,然后再使用多个保持尺寸不变的卷积层进行非线性特征捕获,获得差异特征图Fcat
S5、针对多尺寸的差异特征图Fsub和Fcat,使用轻量的全局空间注意力进行多尺寸的特征图融合,以尺寸包括W×H×d、2W×2H×d和4W×4H×d的多尺寸的差异特征图Fsub为例,特征图融合操作具体如下:
S51、将尺寸为W×H×d的特征图Fsub-1插值上采样,并与尺寸为2W×2H×d的特征图Fsub-2沿着通道方向进行堆叠,然后通过轻量的全局空间注意力完成初步融合;
S52、将S51步骤中中初步融合的特征图插值上采样,并与尺寸为4W×4H×d的特征图Fsub-3沿着通道方向进行堆叠,然后通过轻量的全局空间注意力完成进一步融合;
S6、最后将特征融合后的特征图进行插值上采样到S1步骤中图像块的尺寸,并通过卷积变换和Sigmoid函数将变化目标像素变为1,非变化区域像素为0,完成变化目标检测。
2.如权利要求1所述的基于空时建模的多尺度变化目标检索方法,其特征在于:步骤S1中,所述图像块的尺寸为256×256。
3.如权利要求1所述的基于空时建模的多尺度变化目标检索方法,其特征在于:步骤S2中,ResNet18模型各阶段输出尺寸为64×64×64、32×32×128和16×16×256。
4.如权利要求1所述的基于空时建模的多尺度变化目标检索方法,其特征在于:步骤32中,所述将Q1和Q2通过线性函数将其压缩为(N/2)×d,然后再将其拼接成为一个新的查询向量Qjoint,计算公式如下:
Qjoint=Concat(Linear(Q1),Linear(Q2)) (1)
其中,Linear(·)为线性函数,Concat(·)为沿着通道方向进行拼接操作。
5.如权利要求4所述的基于空时建模的多尺度变化目标检索方法,其特征在于:步骤33中,所述基于交换后的查询向量Qjoint与S31步骤中的键-值对向量组(K1,V1)和(K2,V2)分别计算全局注意力输出Fjoint-1和Fjoint-2,计算公式如下:
Figure FDA0003884146320000021
Figure FDA0003884146320000022
其中,Softmax(·)为非线性映射函数,T为转置操作。
6.如权利要求5所述的基于空时建模的多尺度变化目标检索方法,其特征在于:步骤42中,所述在参数化学习的分支中,先通过沿着通道方向堆叠相同尺寸的特征图Fjoint-1和Fjoint-2,然后再使用多个保持尺寸不变的卷积层进行非线性特征捕获,获得差异特征图Fcat,计算公式如下:
Fcat=Conv(Concat(Fjoint-1,Fjoint-2)) (4)
其中,Conv(·)为卷积操作。
7.如权利要求6所述的基于空时建模的多尺度变化目标检索方法,其特征在于:步骤51中,所述将尺寸为W×H×d的特征图Fsub-1插值上采样,并与尺寸为2W×2H×d的特征图Fsub-2沿着通道方向进行堆叠,然后通过轻量的全局空间注意力完成初步融合,计算公式如下:
Ffuse=LSA(Concat(Fsub-1,Fsub-2)) (5)
LSA(X)=Softmax(Linear(Q)·Pooling(KT))·Pooling(V) (6)
其中Pooling(·)为空间池化操作。
CN202211240705.1A 2022-10-11 2022-10-11 一种基于空时建模的多尺度变化目标检索方法 Pending CN115880553A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211240705.1A CN115880553A (zh) 2022-10-11 2022-10-11 一种基于空时建模的多尺度变化目标检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211240705.1A CN115880553A (zh) 2022-10-11 2022-10-11 一种基于空时建模的多尺度变化目标检索方法

Publications (1)

Publication Number Publication Date
CN115880553A true CN115880553A (zh) 2023-03-31

Family

ID=85770344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211240705.1A Pending CN115880553A (zh) 2022-10-11 2022-10-11 一种基于空时建模的多尺度变化目标检索方法

Country Status (1)

Country Link
CN (1) CN115880553A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117671437A (zh) * 2023-10-19 2024-03-08 中国矿业大学(北京) 基于多任务卷积神经网络的露天采场识别与变化检测方法
CN117853738A (zh) * 2024-03-06 2024-04-09 贵州健易测科技有限公司 一种用于对茶叶分级的图像处理方法及设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117671437A (zh) * 2023-10-19 2024-03-08 中国矿业大学(北京) 基于多任务卷积神经网络的露天采场识别与变化检测方法
CN117853738A (zh) * 2024-03-06 2024-04-09 贵州健易测科技有限公司 一种用于对茶叶分级的图像处理方法及设备
CN117853738B (zh) * 2024-03-06 2024-05-10 贵州健易测科技有限公司 一种用于对茶叶分级的图像处理方法及设备

Similar Documents

Publication Publication Date Title
CN111489358B (zh) 一种基于深度学习的三维点云语义分割方法
CN115880553A (zh) 一种基于空时建模的多尺度变化目标检索方法
CN109523470B (zh) 一种深度图像超分辨率重建方法及系统
Lei et al. Scale insensitive and focus driven mobile screen defect detection in industry
CN110929736A (zh) 多特征级联rgb-d显著性目标检测方法
Lu et al. Cascaded multi-task road extraction network for road surface, centerline, and edge extraction
CN111696136B (zh) 一种基于编解码结构的目标跟踪方法
CN113610905B (zh) 基于子图像匹配的深度学习遥感图像配准方法及应用
CN113674400A (zh) 基于重定位技术的光谱三维重建方法、系统及存储介质
CN116740527A (zh) U型网络与自注意力机制结合的遥感图像变化检测方法
CN117496347A (zh) 遥感影像建筑物提取方法、装置及介质
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
CN115240079A (zh) 一种多源遥感影像深度特征融合匹配方法
Wang et al. Towards accurate and efficient road extraction by leveraging the characteristics of road shapes
CN114550014A (zh) 道路分割方法及计算机装置
Fan et al. VLSG-SANet: A feature matching algorithm for remote sensing image registration
CN112686830B (zh) 基于图像分解的单一深度图的超分辨率方法
CN116778346B (zh) 一种基于改进自注意力机制的管线识别方法及系统
CN111696167A (zh) 自范例学习引导的单张影像超分辨率重构方法
CN114998630B (zh) 一种从粗到精的地对空图像配准方法
CN117011655A (zh) 基于自适应区域选择特征融合方法、目标跟踪方法及系统
CN116758092A (zh) 图像分割方法、装置、电子设备及存储介质
CN115641449A (zh) 一种用于机器人视觉的目标跟踪方法
CN115830707A (zh) 一种基于超图学习的多视角人体行为识别方法
CN113222016B (zh) 一种基于高层和低层特征交叉增强的变化检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination