CN117496362A - 基于自适应卷积核和级联检测头的土地覆盖变化检测方法 - Google Patents

基于自适应卷积核和级联检测头的土地覆盖变化检测方法 Download PDF

Info

Publication number
CN117496362A
CN117496362A CN202410002081.2A CN202410002081A CN117496362A CN 117496362 A CN117496362 A CN 117496362A CN 202410002081 A CN202410002081 A CN 202410002081A CN 117496362 A CN117496362 A CN 117496362A
Authority
CN
China
Prior art keywords
cascade
convolution kernel
change
adaptive
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410002081.2A
Other languages
English (en)
Other versions
CN117496362B (zh
Inventor
赵凌园
郑莉萍
周旷
杨博
张焰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huantian Smart Technology Co ltd
Original Assignee
Huantian Smart Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huantian Smart Technology Co ltd filed Critical Huantian Smart Technology Co ltd
Priority to CN202410002081.2A priority Critical patent/CN117496362B/zh
Publication of CN117496362A publication Critical patent/CN117496362A/zh
Application granted granted Critical
Publication of CN117496362B publication Critical patent/CN117496362B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

本发明公开了基于自适应卷积核和级联检测头的土地覆盖变化检测方法,包括以下步骤:S1:数据集准备;同一区域不同时期的土地覆盖变化检测数据集准备,使用旋转、缩放、裁剪和对比度等方式进行数据集增强;S2:将数据集输入编码器模型进行特征提取;S3:将步骤S2提取的特征输入优化的级联解码器模型进行操作;S4:输出图像变化区域,通过在现有的基于语义分割的变化检测级联解码器模型中加入基于自适应变化卷积核的级联检测头,就可以达到保证检测精度的同时有效处理变化区域的边界信息效果,而且新生成的优化的级联解码器模型体积变化不大,解决了目前的土地覆盖变化检测方法无法实现对变化区域边界处进行较好的处理的问题。

Description

基于自适应卷积核和级联检测头的土地覆盖变化检测方法
技术领域
本发明涉及计算视觉技术领域,特别是涉及基于自适应卷积核和级联检测头的土地覆盖变化检测方法。
背景技术
基于遥感影像下的土地覆盖变化检测任务在农业和土地资源管理方面扮演着至关重要的角色。它为农业规划、土地资源管理和粮食安全等领域提供了有价值的信息。通过土地覆盖变化检测,可以更好地管理土地资源,以及未经批准的土地利用变更现象,促进农业可持续发展,实现农村经济的繁荣。近年来,深度学习在遥感领域受到广泛关注。其可以有效地提取图像的深层特征,并且深层特征的泛化能力有利于检测变化区域。现有的土地覆盖变化检测方法集中在对图像特征提取进行深度研究,主要是基于像素级统计方法,使用独立像素作为检测单元可以逐像素分析像素光谱变化信息。
目前的土地覆盖变化检测方法通常采用两种模型对变化区域边界进行处理,第一种是基于语义分割的变化检测模型,通常基于语义分割的模型是直接学习一系列的预定好类别的卷积核,然后使用这些卷积核进行像素分类,并设定了每个卷积核负责查找图像中相似类别的所有像素;第二种是基于实例分割的变化检测模型,与基于语义分割的变化检测模型不同,在基于实例分割的变化检测模型中图像的每类像素集对应的是一个对象,实例分割通常采用两阶段模型,先对图像中感兴趣的区域进行目标检测得到预测框,再对预测框中的变化区域进行识别定位。在基于语义分割的变化检测模型中,因为它只需要将图像中的每个像素分为不同的语义类别,所以模型的计算复杂度较低。但正是因为语义分割忽略了物体实例之间的个体信息,导致语义分割无法准确定位物体边界,只能给出每个像素属于哪个类别,进而无法定位降低了变化检测模型的识别精确度;在基于实例分割的变化检测模型中,虽然可以区分多个相同类别的物体实例进而相对语义分割的变化检测来说可以更好的标记出每个物体的边界,但是其计算复杂度更高同时需要多个模型组合完成也增大了模型参数体积,不利于后期的边缘部署实现。因此,不论是使用基于语义分割的变化检测模型,还是使用基于先目标检测再识别的实例分割变化检测模型,都无法实现对变化区域边界处进行较好的处理。
在专利公开号CN116363526A中提到了构建基于孪生网络架构的MROCNet模型,该模型的每个主干网由四个长短型分支构成,并基于构建的数据集训练模型,通过语义计算对比实现地物类型变化检测;在专利公开号CN116091492A中构建了基于图像语义分割网络的图像变化检测模型,通过预训练的图像语义分割网络获取特征提取子网络,得到具有目标导向的特征图,能够显著消除非目标的影响;通过小波变换及其逆变换的引入使网络的上下采样信息损失减小;多种注意力机制的引入能够有效提升特征图融合性能;在专利公开号CN115731477A中提到了通过特征提取模型提取无人机图像的特征图像;再通过特征检测模型生成特征图像内的目标建筑物检测框;其次通过所述掩码生成模型按照目标建筑物检测框在所述特征图像上生成目标建筑物的掩码;最后基于实例分割网络输出的掩码获取无人机图像中的建筑物信息;在专利公开号CN112489096A中提到为了解决多个不同建筑物分割后区域相连的问题,采用基于实例分割方法的斑块提取,从而区分不同的斑块,得到不同时相的多个建筑物对应的区域;接下来根据斑块对应的位置信息和其他特征,进行基于图匹配模型的斑块匹配;最后根据匹配的信息,提取对应的变化信息,但是其仍然存在无法实现对变化区域边界处进行较好的处理的问题。
发明内容
基于此,针对上述问题,本发明提出了基于自适应卷积核和级联检测头的土地覆盖变化检测方法,解决了目前的土地覆盖变化检测方法无法实现对变化区域边界处进行较好的处理的问题。
本发明的技术方案是:
基于自适应卷积核和级联检测头的土地覆盖变化检测方法,包括以下步骤:
S1:数据集准备;
同一区域不同时期的土地覆盖变化检测数据集准备,并进行数据集增强;
S2:将数据集输入编码器模型进行特征提取;
在编码器模型编码过程中,通过预先训练好的语义分割模型基于ResNet50算法提取待预测影像的特征图
得到的特征图:
S3:将步骤S2提取的特征输入优化的级联解码器模型进行操作;
输入步骤S2得到的一个特征图:其中,/>表示/>的维度,/>表示特征图/>的高度,/>表示/>的宽度,/>表示/>的通道数,/>代表实数集;
在级联解码器模型解码过程中,对编码器模型编码过程得到的特征图进行采样和卷积操作,以使特征图还原到待预测影像的分辨率,并利用多个级联检测头预测所述待预测影像中每个像元所属的语义类别;
设定一个卷积矩阵,/>中包含/>个卷积核,/>其中,/>表示/>的维度;
并利用卷积矩阵对输入的特征图/>进行卷积分割,输出为对应的/>个类别;
最终级联解码器模型得到输入的特征图相对应的分割输出结果:其中,/>表示/>的维度;
S4:输出图像变化区域。
优选的是,在步骤S3时中,建立优化的级联解码器模型的步骤为:基于现有的级联解码器模型中的单个解码器,加入自适应变化卷积核和级联检测头,即将现有的级联解码器模型中原本用于输入图像变化区域的检测头扩展成多个级联解码器,并对其过程中的卷积核进行自适应变化,即可建立优化的级联解码器模型。
优选的是,在步骤S3中,分割输出结果的实现公式为:
优选的是,在步骤S3中输入的特征图中每类像素均对应着一个卷积核/>,其中具体的卷积核/>更新并输出/>的步骤有三个:
A:特征信息融合;
B:实现卷积核自适应变化;
C:信息交互并输出每一类别的分割结果,/>是/>的子集,其维度可表示为,其中/>表示类别编号,取值范围是/>
优选的是,步骤A具体为:使用上一个检测头预测出来的结果与输入的特征图进行逐点相乘得到融合后的特征图/>,公式为:
其中,表示输入的特征图/>的高度,/>表示输入的特征图/>的宽度,/>表示卷积核的个数,/>是通道数的数量,/>表示数值,范围为/>,/>表示数值,范围为/>和/>用于实现/>与输入的特征图/>进行逐点相乘。
优选的是,步骤B具体为:将融合后的特征图作用于卷积核/>上,输出当前自适应修改后的卷积核/>
优选的是,输出当前自适应修改后的卷积核具体步骤为:
a:进行元素组相乘,公式为:
其中,和/>表示线性变化,/>表示元素组乘积后的特征图;
b:学习两个权重值,/>,用于调整/>和/>的贡献,来更新卷积核/>,公式为:
其中,,/>,/>和/>分别代表不同的全连接层。
优选的是,步骤C具体为:
C1:使用多头注意力机制实现卷积核之间的交互,即实现卷积核之间的有效特征信息共享,输入为当前更新的卷积核,输出为有效特征信息共享后的完整卷积核/>,公式为:
其中,表示多头注意力机制的实现过程;
C2:使用完整卷积核来生成新的掩膜/>,公式为:
其中,是/>的复合函数,/>表示全连接操作,/>表示层归一化操作,/>表示激活函数。
与现有技术相比,本发明的有益效果是:
在使用时,本发明基于现有的级联解码器模型进行优化,加入自适应变化卷积核和级联检测头,即将现有的级联解码器模型中原本用于输入图像变化区域的检测头扩展成多个级联检测头,并对其过程中的卷积核进行自适应变化,产生优化的级联解码器模型,通过将数据集输入优化的级联解码器模型,最终输入一张精度更高,边缘处理更好的变化区域结果图,解决了目前的土地覆盖变化检测方法无法实现对变化区域边界处进行较好的处理的问题。
附图说明
图1是本发明实施例中所述的基于自适应卷积核和级联检测头的土地覆盖变化检测方法的流程图;
图2是本发明实施例中所述的基于自适应卷积核和级联检测头的土地覆盖变化检测方法的整体框架图。
具体实施方式
下面结合附图对本发明的实施例进行详细说明。
土地覆盖变化检测是一项具有较高实际落地应用的技术,因此在需要保证有较高的检测精度的同时进行边缘部署时需要考虑模型体积的大小,现有的技术中基于语义分割的变化检测模型对边界信息处理较差,基于实例分割的变化检测模型都会在目标检测基础上添加额外的神经网络模型,增大模型体积;而本发明只需要在基于语义分割的变化检测级联解码器模型中加入基于自适应变化卷积核的级联检测头,就可以保证检测精度的同时有效处理变化区域的边界信息,而且新生成的优化的级联解码器模型体积变化不大。
实施例:
如图1至图2所示,本实施例公开了基于自适应卷积核和级联检测头的土地覆盖变化检测方法,包括以下步骤:
S1:数据集准备;
同一区域不同时期的土地覆盖变化检测数据集准备,并进行数据集增强;
S2:将数据集输入编码器模型(即模型Encoder)进行特征提取;
在编码器模型编码过程中,通过预先训练好的语义分割模型基于ResNet50算法提取待预测影像的特征图
得到的特征图:
S3:将步骤S2提取的特征输入优化的级联解码器模型(即模型Decoder)进行操作;
输入步骤S2得到的一个特征图:其中,/>表示/>的维度,/>表示特征图/>的高度,/>表示/>的宽度,/>表示/>的通道数,/>代表实数集;
在级联解码器模型解码过程中,对编码器模型编码过程得到的特征图进行采样和卷积操作,以使特征图还原到待预测影像的分辨率,并利用多个级联检测头预测所述待预测影像中每个像元所属的语义类别;
设定一个卷积矩阵,/>中包含/>个卷积核,/>其中,/>表示/>的维度;
并利用卷积矩阵对输入的特征图/>进行卷积分割,输出为对应的/>个类别;
最终级联解码器模型得到输入的特征图相对应的分割输出结果:其中,/>表示/>的维度;
S4:输出图像变化区域。
在使用时,本发明基于现有的级联解码器模型进行优化,加入自适应变化卷积核和级联检测头,即将现有的级联解码器模型中原本用于输入图像变化区域的检测头扩展成多个级联检测头,并对其过程中的卷积核进行自适应变化,产生优化的级联解码器模型,通过将数据集输入优化的级联解码器模型,最终输入一张精度更高,边缘处理更好的变化区域结果图,解决了目前的土地覆盖变化检测方法无法实现对变化区域边界处进行较好的处理的问题。
优选的是,在步骤S3时中,建立优化的级联解码器模型的步骤为:基于现有的级联解码器模型中的单个解码器,加入自适应变化卷积核和级联检测头,即将现有的级联解码器模型中原本用于输入图像变化区域的检测头扩展成多个级联解码器,并对其过程中的卷积核进行自适应变化,即可建立优化的级联解码器模型。
为了方便实现相对应的分割输出/>,本实施例在上述实施例的基础上进行改进,与上述实施例的不同之处在于,在步骤S3中,分割输出结果/>的实现公式为:
优选的是,在步骤S3中输入的特征图中每类像素均对应着一个卷积核/>,其中具体的卷积核/>更新并输出/>的步骤有三个:
A:特征信息融合;
B:实现卷积核自适应变化;
C:信息交互并输出每一类别的分割结果,/>是/>的子集,其维度可表示为,其中/>表示类别编号,取值范围是/>
优选的是,步骤A具体为:使用上一个检测头预测出来的结果与输入的特征图/>进行逐点相乘得到融合后的特征图/>,公式为:
其中,表示输入的特征图/>的高度,/>表示输入的特征图/>的宽度,/>表示卷积核的个数,/>是通道数的数量,/>表示数值,范围为/>,/>表示数值,范围为/>和/>用于实现/>输入的特征图/>进行逐点相乘。
优选的是,步骤B具体为:将融合后的特征图作用于卷积核/>上,输出当前自适应修改后的卷积核/>
优选的是,输出当前自适应修改后的卷积核具体步骤为:
a:进行元素组相乘,公式为:
其中,和/>表示线性变化,/>表示元素组乘积后的特征图;
b:学习两个权重值,/>,用于调整/>和/>的贡献,来更新卷积核/>,公式为:
其中,,/>,/>和/>分别代表不同的全连接层。
优选的是,步骤C具体为:
C1:使用多头注意力机制实现卷积核之间的交互,即实现卷积核之间的有效特征信息共享,输入为当前更新的卷积核,输出为有效特征信息共享后的完整卷积核/>,公式为:
其中,表示多头注意力机制的实现过程;
C2:使用完整卷积核来生成新的掩膜/>,公式为:
其中,是/>的复合函数,/>表示全连接操作,/>表示层归一化操作,/>表示激活函数。
为了保证模型体积变化不大,本实施例在上述实施例的基础上进行改进,与上述实施例的不同之处在于,优化的级联解码器模型(即Decoder模型)中级联检测头包括解码器检测头1、Decoder检测头2和Decoder检测头3,每个检测头处均进行分类和分割操作。
如图2所示,为了使生成的图像边缘处理更加精确,本实施例在上述实施例的基础上进行改进,与上述实施例的不同之处在于,在进行S3时,还需要进行图像损失计算步骤,公式为:
其中,表示总损失,/>为Decoder检测头1处分类/>处的损失,为Decoder检测头1处分割/>处的损失,/>为Decoder检测头2处分类/>处的损失,/>为Decoder检测头2处分割/>处的损失,/>为Decoder检测头3处分类/>处的损失,/>为Decoder检测头3处分割/>处的损失。
本发明的关键点和保护点是:本发明方法中,基于现有的语义分割的变化检测级联解码器模型,对其进行优化,加入基于自适应变化卷积核的级联检测头,产生优化的级联解码器模型,在优化的级联解码器模型内进行一系列计算、分析和处理,不需要依赖额外附加的模型,就可以高效实现土地覆盖变化检测和有效处理边界信息。
本发明原理:
在使用时,本发明基于现有的级联解码器模型进行优化,加入自适应变化卷积核和级联检测头,即将现有的级联解码器模型中原本用于输入图像变化区域的检测头扩展成多个级联检测头,并对其过程中的卷积核进行自适应变化,产生优化的级联解码器模型,通过将数据集输入优化的级联解码器模型,最终输入一张精度更高,边缘处理更好的变化区域结果图。
以上所述实施例仅表达了本发明的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (8)

1.基于自适应卷积核和级联检测头的土地覆盖变化检测方法,其特征在于,包括以下步骤:
S1:数据集准备;
同一区域不同时期的土地覆盖变化检测数据集准备,并进行数据集增强;
S2:将数据集输入编码器模型进行特征提取;
在编码器模型编码过程中,通过预先训练好的语义分割模型基于ResNet50算法提取待预测影像的特征图
得到的特征图:
S3:将步骤S2提取的特征输入优化的级联解码器模型进行操作;
输入步骤S2得到的一个特征图:其中,/>表示/>的维度,/>表示特征图/>的高度,/>表示/>的宽度,/>表示/>的通道数,/>代表实数集;
在级联解码器模型解码过程中,对编码器模型编码过程得到的特征图进行采样和卷积操作,以使特征图还原到待预测影像的分辨率,并利用多个级联检测头预测所述待预测影像中每个像元所属的语义类别;
设定一个卷积矩阵,/>中包含/>个卷积核,/>其中,/>表示/>的维度;
并利用卷积矩阵对输入的特征图/>进行卷积分割,输出为对应的/>个类别;
最终级联解码器模型得到输入的特征图相对应的分割输出结果:/>其中,/>表示/>的维度;
S4:输出图像变化区域。
2.根据权利要求1所述的基于自适应卷积核和级联检测头的土地覆盖变化检测方法,其特征在于,在步骤S3时中,建立优化的级联解码器模型的步骤为:基于现有的级联解码器模型中的单个解码器,加入自适应变化卷积核和级联检测头,即将现有的级联解码器模型中原本用于输入图像变化区域的检测头扩展成多个级联解码器,并对其过程中的卷积核进行自适应变化,即可建立优化的级联解码器模型。
3.根据权利要求1或2所述的基于自适应卷积核和级联检测头的土地覆盖变化检测方法,其特征在于,在步骤S3中,分割输出结果的实现公式为:
4.根据权利要求3所述的基于自适应卷积核和级联检测头的土地覆盖变化检测方法,其特征在于,在步骤S3中输入的特征图中每类像素均对应着一个卷积核/>,其中具体的卷积核/>更新并输出/>的步骤有三个:
A:特征信息融合;
B:实现卷积核自适应变化;
C:信息交互并输出每一类别的分割结果,/>是/>的子集,其维度可表示为,其中/>表示类别编号,取值范围是/>
5.根据权利要求4所述的基于自适应卷积核和级联检测头的土地覆盖变化检测方法,其特征在于,步骤A具体为:使用上一个检测头预测出来的结果与输入的特征图/>进行逐点相乘得到融合后的特征图/>,公式为:
其中,表示输入的特征图/>的高度,/>表示输入的特征图/>的宽度,/>表示卷积核的个数,/>是通道数的数量,/>表示数值,范围为/>,/>表示数值,范围为/>,/>用于实现/>与输入的特征图/>进行逐点相乘。
6.根据权利要求4所述的基于自适应卷积核和级联检测头的土地覆盖变化检测方法,其特征在于,步骤B具体为:将融合后的特征图作用于卷积核/>上,输出当前自适应修改后的卷积核/>
7.根据权利要求6所述的基于自适应卷积核和级联检测头的土地覆盖变化检测方法,其特征在于,输出当前自适应修改后的卷积核具体步骤为:
a:进行元素组相乘,公式为:
其中,和/>表示线性变化,/>表示元素组乘积后的特征图;
b:学习两个权重值,/>,用于调整/>和/>的贡献,来更新卷积核/>,公式为:
其中,,/>,/>和/>分别代表不同的全连接层。
8.根据权利要求4所述的基于自适应卷积核和级联检测头的土地覆盖变化检测方法,其特征在于,步骤C具体为:
C1:使用多头注意力机制实现卷积核之间的交互,即实现卷积核之间的有效特征信息共享,输入为当前更新的卷积核,输出为有效特征信息共享后的完整卷积核/>,公式为:
其中,表示多头注意力机制的实现过程;
C2:使用完整卷积核来生成新的掩膜/>,公式为:
其中,是/>的复合函数,/>表示全连接操作,/>表示层归一化操作,/>表示激活函数。
CN202410002081.2A 2024-01-02 2024-01-02 基于自适应卷积核和级联检测头的土地覆盖变化检测方法 Active CN117496362B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410002081.2A CN117496362B (zh) 2024-01-02 2024-01-02 基于自适应卷积核和级联检测头的土地覆盖变化检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410002081.2A CN117496362B (zh) 2024-01-02 2024-01-02 基于自适应卷积核和级联检测头的土地覆盖变化检测方法

Publications (2)

Publication Number Publication Date
CN117496362A true CN117496362A (zh) 2024-02-02
CN117496362B CN117496362B (zh) 2024-03-29

Family

ID=89674715

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410002081.2A Active CN117496362B (zh) 2024-01-02 2024-01-02 基于自适应卷积核和级联检测头的土地覆盖变化检测方法

Country Status (1)

Country Link
CN (1) CN117496362B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4912770A (en) * 1986-11-07 1990-03-27 Hitachi, Ltd. Method of detecting change using image
US20220156987A1 (en) * 2020-11-16 2022-05-19 Disney Enterprises, Inc. Adaptive convolutions in neural networks
US20220156493A1 (en) * 2020-11-17 2022-05-19 Insurance Services Office, Inc. Computer Vision Systems and Methods for Detecting and Aligning Land Property Boundaries on Aerial Imagery
CN114841319A (zh) * 2022-04-29 2022-08-02 哈尔滨工程大学 一种基于多尺度自适应卷积核的多光谱图像变化检测方法
CN115205530A (zh) * 2022-07-26 2022-10-18 西安石油大学 一种面向低空无人机的实时图像语义分割方法
US11480683B1 (en) * 2018-05-03 2022-10-25 Assurant, Inc. Apparatus and method for remote determination of architectural feature elevation and orientation
CN115968488A (zh) * 2022-07-26 2023-04-14 江苏树实科技有限公司 模型生成方法、物体检测方法、控制器以及电子设备
CN116030361A (zh) * 2023-02-10 2023-04-28 上海交通大学宁波人工智能研究院 一种基于cim-t架构的高分辨率影像变化检测方法
US20230206603A1 (en) * 2022-09-19 2023-06-29 Nanjing University Of Posts And Telecommunications High-precision point cloud completion method based on deep learning and device thereof
CN116363521A (zh) * 2023-06-02 2023-06-30 山东科技大学 一种遥感影像语义预测方法
CN116486255A (zh) * 2023-03-16 2023-07-25 福州大学 自注意力特征融合的高分辨率遥感影像语义变化检测方法
CN116543297A (zh) * 2023-03-15 2023-08-04 浙江工业大学 一种基于时期耦合的遥感变化检测方法
CN116912796A (zh) * 2023-07-21 2023-10-20 淮阴工学院 一种基于新型动态级联YOLOv8的自动驾驶目标识别方法及装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4912770A (en) * 1986-11-07 1990-03-27 Hitachi, Ltd. Method of detecting change using image
US11480683B1 (en) * 2018-05-03 2022-10-25 Assurant, Inc. Apparatus and method for remote determination of architectural feature elevation and orientation
US20220156987A1 (en) * 2020-11-16 2022-05-19 Disney Enterprises, Inc. Adaptive convolutions in neural networks
US20220156493A1 (en) * 2020-11-17 2022-05-19 Insurance Services Office, Inc. Computer Vision Systems and Methods for Detecting and Aligning Land Property Boundaries on Aerial Imagery
CN114841319A (zh) * 2022-04-29 2022-08-02 哈尔滨工程大学 一种基于多尺度自适应卷积核的多光谱图像变化检测方法
CN115968488A (zh) * 2022-07-26 2023-04-14 江苏树实科技有限公司 模型生成方法、物体检测方法、控制器以及电子设备
CN115205530A (zh) * 2022-07-26 2022-10-18 西安石油大学 一种面向低空无人机的实时图像语义分割方法
US20230206603A1 (en) * 2022-09-19 2023-06-29 Nanjing University Of Posts And Telecommunications High-precision point cloud completion method based on deep learning and device thereof
CN116030361A (zh) * 2023-02-10 2023-04-28 上海交通大学宁波人工智能研究院 一种基于cim-t架构的高分辨率影像变化检测方法
CN116543297A (zh) * 2023-03-15 2023-08-04 浙江工业大学 一种基于时期耦合的遥感变化检测方法
CN116486255A (zh) * 2023-03-16 2023-07-25 福州大学 自注意力特征融合的高分辨率遥感影像语义变化检测方法
CN116363521A (zh) * 2023-06-02 2023-06-30 山东科技大学 一种遥感影像语义预测方法
CN116912796A (zh) * 2023-07-21 2023-10-20 淮阴工学院 一种基于新型动态级联YOLOv8的自动驾驶目标识别方法及装置

Also Published As

Publication number Publication date
CN117496362B (zh) 2024-03-29

Similar Documents

Publication Publication Date Title
Liu et al. Deep depthwise separable convolutional network for change detection in optical aerial images
CN111860612B (zh) 无监督高光谱图像隐低秩投影学习特征提取方法
CN107564025B (zh) 一种基于深度神经网络的电力设备红外图像语义分割方法
Yu et al. Class signature-constrained background-suppressed approach to band selection for classification of hyperspectral images
CN112307995B (zh) 一种基于特征解耦学习的半监督行人重识别方法
CN107239759B (zh) 一种基于深度特征的高空间分辨率遥感图像迁移学习方法
CN111898432B (zh) 一种基于改进YOLOv3算法的行人检测系统及方法
Jia et al. Flexible Gabor-based superpixel-level unsupervised LDA for hyperspectral image classification
WO2023030182A1 (zh) 图像生成方法及装置
CN105893941B (zh) 一种基于区域图像的人脸表情识别方法
Wang et al. A depthwise separable fully convolutional ResNet with ConvCRF for semisupervised hyperspectral image classification
CN113378675A (zh) 一种同时检测和特征提取的人脸识别方法
Alsanad et al. Real-time fuel truck detection algorithm based on deep convolutional neural network
CN111242028A (zh) 基于U-Net的遥感图像地物分割方法
Zhang et al. Integrating coordinate features in CNN-based remote sensing imagery classification
CN116109678A (zh) 基于上下文自注意力学习深度网络的目标跟踪方法与系统
CN105956604B (zh) 一种基于两层时空邻域特征的动作识别方法
Hu et al. Vehicle color recognition based on smooth modulation neural network with multi-scale feature fusion
Karunakaran Deep learning based object detection using mask RCNN
CN117496362B (zh) 基于自适应卷积核和级联检测头的土地覆盖变化检测方法
Zhang et al. Pseudo supervised solar panel mapping based on deep convolutional networks with label correction strategy in aerial images
Fu et al. Classification of hyperspectral image based on hybrid neural networks
Falco et al. Supervised classification methods in hyperspectral imaging—recent advances
CN115223181A (zh) 基于文本检测的报告材料印章文字识别方法和装置
CN115272865A (zh) 一种基于自适应激活函数和注意力机制的目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant