CN115331087A - 融合区域语义与像素特征的遥感影像变化检测方法及系统 - Google Patents

融合区域语义与像素特征的遥感影像变化检测方法及系统 Download PDF

Info

Publication number
CN115331087A
CN115331087A CN202211237501.2A CN202211237501A CN115331087A CN 115331087 A CN115331087 A CN 115331087A CN 202211237501 A CN202211237501 A CN 202211237501A CN 115331087 A CN115331087 A CN 115331087A
Authority
CN
China
Prior art keywords
remote sensing
sensing image
change detection
pixel
semantics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211237501.2A
Other languages
English (en)
Other versions
CN115331087B (zh
Inventor
许怡
施睿
王高旭
张丽丽
吴巍
张轩
李岱远
雷四华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Hydraulic Research Institute of National Energy Administration Ministry of Transport Ministry of Water Resources
Original Assignee
Nanjing Hydraulic Research Institute of National Energy Administration Ministry of Transport Ministry of Water Resources
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Hydraulic Research Institute of National Energy Administration Ministry of Transport Ministry of Water Resources filed Critical Nanjing Hydraulic Research Institute of National Energy Administration Ministry of Transport Ministry of Water Resources
Priority to CN202211237501.2A priority Critical patent/CN115331087B/zh
Publication of CN115331087A publication Critical patent/CN115331087A/zh
Application granted granted Critical
Publication of CN115331087B publication Critical patent/CN115331087B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提出了一种融合区域语义与像素特征的遥感影像变化检测方法及系统,属于遥感影像变化检测的技术领域。首先,构建基于孪生网络架构的多尺度特征融合变化检测网络模型,利用端到端深度学习完成双时相遥感影像的直接变化检测;其次,利用语义分割模型赋予检测对象的区域语义,借助对象语义的区域连续属性,结合集合运算对直接变化检测结果的边缘进行逐像素分类优化,减少变化检测结果中的粘连等误检,提升双时相遥感影像变化检测精度。本发明通过将区域语义和像素特征结合,既能基于深度学习直接完成变化检测区域的识别,又解决了直接变化检测中的多类误检问题,高精度地实现了双时相影像的端到端变化检测。

Description

融合区域语义与像素特征的遥感影像变化检测方法及系统
技术领域
本发明涉及遥感影像变化检测的技术领域,特别是涉及一种融合区域语义与像素特征的遥感影像变化检测方法及系统。
背景技术
遥感影像变化检测是从同一场景不同时刻的两幅或多幅图像之间,通过一系列相应方法提取出自然或人工变化区域的过程。遥感影像变化检测技术应用广泛,当自然灾害发生时,利用变化检测技术可以快速有效识别地震、台风、洪水、泥石流等自然灾害破坏的范围和程度,并对自然灾害的影响进行评估,帮助制定灾后救灾、重建工作。将变化检测技术应用在人类社会科学发展上,能够及时监控建筑的建设与拆除,合理规划城市乡镇发展,减少违法建筑安全隐患及杜绝非法占用土地资源的情况。遥感影像的变化检测也可用于对地表植被进行监控,保护林业资源、打击乱采乱伐,还能帮助合理调节农作物的种植计划,增加作物产量、保障粮食安全。
遥感影像的变化检测技术是一种涉及到遥感技术、图像处理、机器学习、深度学习等多知识领域交叉的技术。目前已有的变化检测方法根据不同的分类规则有多种不同的分类。可以按照是否使用了深度学习技术将其分为传统变化检测方法与基于深度学习的变化检测方法,传统变化检测方法的代表有图像差值/比值法、均值或图像对数比值法、变化向量分析法(Change Vector Analysis)、主成分分析法(Principal Component Analysis)、多元变化检测法(Multivariate Alteration Detection)等,基于深度学习的变化检测方法则大多数采用卷积神经网络作为特征提取主体来对图像的变化特征进行提取,还可以根据对图像分类与对比的顺序将算法分为直接比较法(先对比后分类)与分类后比较法(先分类后比较)。随着我国遥感技术的不断发展,遥感技术的相关应用也朝着复杂化、精确化的方向发展,目前已有的传统变化检测方法已经无法满足当前的检测任务,在当前的实际工程应用中存在很大的局限性,因此基于深度学习的变化检测方法成为目前遥感影像变化检测任务的主流解决方案。
目前基于深度学习的变化检测方法中,如何利用深度学习提高检测的精度是当前的研究热点,在已有的深度学习方法中,主要还是使用卷积神经网络作为特征提取主干,与普通可见光图像相比,遥感影像内部特征复杂,细节丰富,因此常规的卷积神经网络已无法满足对遥感影像变化信息的提取任务。此外基于分类后比较法十分依赖分类算法的精度,从机器学习的最小距离分类法(Minimum Distance Classification)、极大似然分类法(Maximum Likelihood Classification)、支持向量机(Support Vector Machine)、决策树(Decision Tree)、人工神经网络(Artificial Neural Network)到深度学习的FCN网络、SegNet网络、U-Net系列网络、DeepLab系列网络等,虽然在分类精度上有所提升,但是由于变化检测要对双时相影像进行处理,因此该类算法受到环境变化、季节变化、光照变化、非目标变化影像而产生的误检测现象严重,影像了变化检测的精准度。
发明内容
发明目的:提出一种融合区域语义与像素特征的遥感影像变化检测方法及系统,以解决现有技术存在的上述问题,通过区域语义和像素特征的融合,以及逐像素分类优化,高精度地实现双时相影像的端到端变化检测。
技术方案:第一方面,提出了一种融合区域语义与像素特征的遥感影像变化检测方法,该方法具体包括以下步骤:
步骤1、构建遥感影像数据集;
步骤2、构建基于孪生网络架构的多尺度特征融合变化检测网络模型,并接收遥感数据集进行数据分析;
步骤3、基于对象语义的区域连续属性和基于并集、交集运算,对数据分析结果进行优化;
步骤4、根据优化结果获取最终检测到的变化内容,并输出。
在第一方面的一些可实现方式中,构建遥感影像数据集的过程中,由于尺度、亮度等信息对遥感影像变化检测区域的识别影响较大,对双时相遥感影像采用SIFT尺度不变特征变换算法进行配准;将配准的影像分别按
Figure 100002_DEST_PATH_IMAGE002
Figure 100002_DEST_PATH_IMAGE004
的比例进行放缩以获得不同尺度的配准影像,并统一裁切为标准尺寸
Figure 100002_DEST_PATH_IMAGE006
;通过对比配准影像中的差异性,完成变化区域的像素级标注及对象语义标注;为了获得模型训练需要的样本数量,降低数据集制作成本,使用可体现遥感影像变化区域形状多样性的平移、旋转和镜像等几何形变及可增加图像质量多样性的噪声添加等操作完成数据增强,最终构建了1728张遥感影像的变化检测数据集和890张语义分割数据集。
在第一方面的一些可实现方式中,为了提升遥感影像特征图的表达能力、双时相遥感影像差异性对比和像素级变化检测识别,构建基于孪生网络架构的多尺度特征融合变化检测网络模型,该模型具体包括:基于孪生网络架构的多尺度残差网络模块、基于嵌套型多尺度自注意力机制的上下文信息融合模块、特征度量模块。
基于孪生网络架构的多尺度残差网络模块,基于权值共享模式利用孪生结构,并行提取双时相遥感影像的不同尺度的特征,并分别将每个时相遥感影像提取的多个尺度的特征图进行融合,最后再将双时相遥感影像融合后的特征进行通道拼接,作为下一个模块的输入。该模块包括:输入模块、特征提取模块和融合模块。
其中,输入模块用于在孪生结构中同时输入匹配后,且尺寸统一的双时相遥感影像。
特征提取模块包括:输入层、卷积层、残差层和池化层,用于提取双时相遥感影像的数据特征,并按照需求形成不同大小的特征图后输出至融合模块中。7个独立的卷积层中包括1个用于第1个卷积层的7*7卷积核,4个分别用于第2、3、4、5个卷积层的1*1卷积核和2个分别用于第6、7个卷积层的3*3卷积核;残差层中的两个卷积层的卷积核大小为3*3;池化层采用最大池化策略,并按等步长策略选择多尺度特征图,分别选择第2、4、6、8个残差层输出得到的56*56、28*28、14*14和7*7大小的特征图。
融合模块用于将单时相遥感影像不同尺度上的特征进行通道融合,并输入到不同的卷积层中降低融合后特征图的通道数。
基于嵌套型多尺度自注意力机制的上下文信息融合模块,用于接收基于孪生网络架构的多尺度残差网络模块输出的数据,并提取不同层次空间上下文信息和尺度上下文信息。为了增强从整体到细节不同层次空间上下文信息和尺度上下文信息的提取能力,设计三层嵌套两次融合的整体结构。最内层使用自注意力机制通过计算特征张量的全局权值对全局特征进行加权求和,捕捉图像全方位的空间上下文信息;中间层使用多尺度自注意力机制获取并融合不同尺度的尺度上下文信息;最外层则设计了记录图像位置信息的特征图拼接结构,通过将对应的特征图进行拼接并融合以扩大网络的感受野。
其中,最内层使用自注意力机制通过计算特征张量的全局权值对全局特征进行加权求和,捕捉图像全方位的空间上下文信息。
中间层包括四个并行的数据处理分支,使用多尺度自注意力机制对孪生结构中提取的特征图进行尺度上下文信息的提取与融合。将双时相遥感影像的多尺度特征通道拼接图
Figure 100002_DEST_PATH_IMAGE008
直接输入到四个并行分支中。每个分支可以将输入特征张量平均分割为
Figure 100002_DEST_PATH_IMAGE010
个相同大小的子区域,其中
Figure 100002_DEST_PATH_IMAGE012
Figure 100002_DEST_PATH_IMAGE014
,这样便得到了四个不同尺度划分的特征图。对四个分支分别使用四个自注意力机制,彼此之间互不关联。在每个分支中分别对所有子区域应用自注意力机制,生成更新后的自注意力特征张量,并仍按照原子区域所在位置进行拼接,生成该分支在
Figure 307141DEST_PATH_IMAGE010
尺度下的自注意力特征张量。之后将四个分支的特征张量通过通道融合串联后送入一层卷积层进行降维,并生成多尺度自注意力机制的特征图
Figure DEST_PATH_IMAGE016
。最后将生成的多尺度自注意力机制特征图
Figure 348915DEST_PATH_IMAGE016
与原始特征图
Figure 128652DEST_PATH_IMAGE008
相加,得到融合后的输出特征图
Figure DEST_PATH_IMAGE018
最外层包含记录图像位置信息的特征图拼接结构,记录每张裁切图像在原图像中的位置以及与之相邻的图像,对每张图像经过孪生网络与多尺度自注意力机制进行特征提取,并根据这一位置信息对获取的特征张量在空间维度进行重新拼接。在完成拼接后对拼接特征图通过一次自注意力机制进行特征融合,使每个图像对应的特征张量融合相邻图像的上下文信息,以此扩大网络的感受野,最终获取拼接后图像的上下文信息,同时使用残差连接将拼接后的输入特征与经过上下文信息融合后的输出特征进行连接,获得融合后的输出特征图
Figure DEST_PATH_IMAGE020
特征度量模块,用于利用对比损失函数进行双时相影像差异度量,以及在模型训练阶段用于反向传播优化网络参数。将经过上下文信息融合网络得到的特征图分解为双时相遥感影像的特征图,并使用双线性差值将其尺寸调整到输入影像的大小,根据这两个特征图逐像素计算出两个时相影像的距离映射,依距离映射逐像素识别出变化区域与未变化区域,实现像素级的遥感影像变化检测识别。
其中,对比损失函数的表达式为:
Figure DEST_PATH_IMAGE022
式中,
Figure DEST_PATH_IMAGE024
表示双时相影像对应的样本特征之间的欧氏距离;
Figure DEST_PATH_IMAGE026
表示两个样本与标签匹配情况的返回值,若两个样本在标签中匹配,则
Figure DEST_PATH_IMAGE028
;若两个样本在标签中不匹配,则
Figure DEST_PATH_IMAGE030
Figure DEST_PATH_IMAGE032
表示预先设置的阈值;
Figure DEST_PATH_IMAGE034
表示样本的数量。
将提取的特征张量
Figure 228588DEST_PATH_IMAGE020
在通道维度上进行分解,恢复为与双时相遥感影像对应的特征张量
Figure DEST_PATH_IMAGE036
Figure DEST_PATH_IMAGE038
,通过双线性差值将特征张量
Figure 902015DEST_PATH_IMAGE036
Figure 724478DEST_PATH_IMAGE038
的尺寸还原到输入影像的大小,然后计算两者的欧氏距离,代入对比损失函数,在训练过程中保留损失函数最小值对应的模型参数,并依此模型预测图像变化概率,识别变化区域与未变化区域,得到像素级的初步变化检测结果
Figure DEST_PATH_IMAGE040
在第一方面的一些可实现方式中,为了提高数据分析结果的准确性,采用基于语义分割和集合运算的方法,对双时相遥感影像像素级变化初步检测结果进行优化。具体的优化过程包括:利用语义分割数据集完成语义分割模型的训练,并获取双时相遥感影像中的对象语义;随后基于对象语义的区域连续属性和集合运算,对双时相遥感影像像素级变化检测结果中的边缘部分进行逐像素分类优化,减少变化检测结果中的粘连等误检现象,提升端到端的双时相遥感影像的变化检测精度。
基于并集和交集运算优化过程包括:并集运算优化和交集运算优化;首先获得基于分割模型得到的双时相影像的对象级语义分割图为
Figure DEST_PATH_IMAGE042
Figure DEST_PATH_IMAGE044
;随后,利用并集剔除变化检测结果
Figure 116145DEST_PATH_IMAGE040
中不在并集内的变化区域,剔除因环境变化、非目标变化等因素而产生的误检;最后,再对前后时相的建筑语义分割结果做交集运算,当变化检测结果与该交集作差可剔除因未变化目标的表征发生变化而造成的误检,达到优化目标。
其中,并集运算优化的表达式为:
Figure DEST_PATH_IMAGE046
式中,
Figure 454327DEST_PATH_IMAGE040
表示像素级的初步变化检测结果;
Figure DEST_PATH_IMAGE048
表示基于并集优化后的结果。
交集运算优化的表达式为:
Figure DEST_PATH_IMAGE050
式中,
Figure 513419DEST_PATH_IMAGE048
表示基于并集优化后的结果;
Figure DEST_PATH_IMAGE052
表示基于区域语义和集合运算优化后的最终变化检测结果。
第二方面,提出一种融合区域语义与像素特征的遥感影像变化检测系统,用于实现双时相遥感影像变化检测方法,该系统具体以下模块:
数据集构建模块,用于根据需求构建所需的遥感影像数据集;
模型构建模块,用于构建分析遥感影像数据集的网络模型;
数据优化模块,用于优化网络模型分析出的数据结果;
数据输出模块,用于输出数据优化模块优化后的结果。
第三方面,提出一种融合区域语义与像素特征的双时相遥感影像变化检测设备,该设备包括:处理器以及存储有计算机程序指令的存储器。
其中,处理器读取并执行计算机程序指令,以实现遥感影像变化检测方法。
第四方面,提出一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序指令。计算机程序指令被处理器执行时,以实现遥感影像变化检测方法。
有益效果:本发明提出了一种融合区域语义与像素特征的双时相遥感影像变化检测方法及系统,针对现有技术中的不足,通过将区域语义和像素特征结合的方式,既能基于深度学习直接完成变化检测区域的识别,又解决了直接变化检测中的多类误检问题,高精度地实现了双时相影像的端到端变化检测。
附图说明
图1为本发明实施例中的融合区域语义与像素特征的双时相遥感影像变化检测方法流程图。
图2为基于孪生网络架构的多尺度特征融合变化检测网络模型结构图。
图3为基于嵌套型多尺度自注意力机制的上下文信息融合网络模型结构图。
图4为基于多尺度注意力机制的特征图的特征提取网络模型。
图5为变化检测实验效果图。
具体实施方式
在下文的描述中,给出了大量具体的细节以便提供对本发明更为彻底的理解。然而,对于本领域技术人员而言显而易见的是,本发明可以无需一个或多个这些细节而得以实施。在其他的例子中,为了避免与本发明发生混淆,对于本领域公知的一些技术特征未进行描述。
实施例一
在一个实施例中,提出一种融合区域语义与像素特征的遥感影像变化检测方法,如图1所示,该方法具体包括以下步骤:
步骤1、构建遥感影像数据集;
步骤2、构建基于孪生网络架构的多尺度特征融合变化检测网络模型MFSNet,并接收遥感数据集进行数据分析;
步骤3、基于对象语义的区域连续属性和基于并集、交集运算,对数据分析结果进行优化;
步骤4、根据优化结果获取最终检测到的变化内容,并输出。
本实施例通过基于孪生网络架构的多尺度特征融合变化检测网络模型,对双时相遥感影像进行变化检测,同时结合对象的区域语义对检测结果进行优化,有效解决了误检现象的产生,提高双时相遥感影像变化检测的精度。
实施例二
在实施例一基础上的进一步实施例中,由于尺度、亮度等信息对遥感影像变化检测区域的识别影响较大,因此在构建遥感影像数据集的过程中,进一步对获取到的原始数据进行处理。
具体包括以下步骤:首先,读取遥感影像数据集中的影像数据,并进行影像数据预处理操作;其次,对经过预处理后的影响数据进行配准;再次,按照预设划分比例对配准后的影像数据进行缩放,获得不同尺度下的配准影像;从次,对不同尺度下的配准影像进行尺寸裁剪,获得同一尺寸的配准影像数据;最后,比对配准影像数据中的差异性,获得变化区域,并对变化区域进行像素级标注和对象语义标注。
优选实施例中,遥感影像数据集由同一区域不同时相的遥感影像构成,为了提高数据处理效率,针对初始读取的遥感影像数据,首先采用辐射定标、大气校正、正射校正和图像融合等预处理操作。为了克服环境因素导致的变化区域识别影响,对预处理后的双时相遥感影像采用SIFT尺度不变特征变换算法进行配准。随后,将配准的影像按照
Figure 303520DEST_PATH_IMAGE002
Figure 120167DEST_PATH_IMAGE004
的比例进行缩放,获得不同尺度的配准影像,并通过裁切的方式将不同尺度的配准影像统一为
Figure 857178DEST_PATH_IMAGE006
的尺寸。最后,通过对比配准影像中的差异性,使用Labelme软件完成变化区域的像素级标注及对象语义标注。
实施例三
在实施例一基础上的进一步实施例中,网络模型MFSNet包含基于孪生网络架构的多尺度残差网络模块、基于嵌套型多尺度自注意力机制的上下文信息融合模块和特征度量模块。
具体的,如图2所示,基于孪生网络架构的多尺度残差网络模块包括:输入模块、特征提取模块和融合模块。其中,输入模块用于同时输入统一尺寸下相互匹配的双时相遥感影像。特征提取模块包括1个输入层、7个独立的卷积层、8个残差层和1个池化层;7个独立的卷积层中包括1个用于第1个卷积层的7*7卷积核,4个分别用于第2、3、4、5个卷积层的1*1卷积核和2个分别用于第6、7个卷积层的3*3卷积核;残差层中的两个卷积层的卷积核大小为3*3;池化层采用最大池化策略,并按等步长策略选择多尺度特征图,分别选择第2、4、6、8个残差层输出得到的56*56、28*28、14*14和7*7大小的特征图。融合模块将第2、4、6、8个残差层输出得到的56*56、28*28、14*14和7*7大小的4个尺度的特征进行通道融合,并输入到两个不同的卷积层中降低融合后特征图的通道维数,最终形成56*56*64大小的特征图。如图2所示,将获得的特征图设为多尺度特征图
Figure DEST_PATH_IMAGE054
,其中C表示特征图的通道维数,H表示特征图的高度,W表示特征图的宽度;将
Figure DEST_PATH_IMAGE056
Figure DEST_PATH_IMAGE058
进行通道拼接,形成一个特征图
Figure DEST_PATH_IMAGE060
;并将其作为下一个模块的输入。
基于嵌套型多尺度自注意力机制的上下文信息融合模块用于接收基于孪生网络架构的多尺度残差网络模块输出的数据,并提取不同层次空间上下文的信息。为了增强从整体到细节不同层次空间上下文信息和尺度上下文信息的提取能力,当前模块设计三层嵌套两次融合的整体结构。如图3所示,最内层使用自注意力机制通过计算特征张量的全局权值对全局特征进行加权求和,捕捉图像全方位的空间上下文信息;中间层使用多尺度自注意力机制获取并融合不同尺度的尺度上下文信息;最外层则设计了记录图像位置信息的特征图拼接结构,通过将对应的特征图进行拼接并融合以扩大网络的感受野。
其中,如图4所示,中间层设计的多尺度自注意力机制包含四个并行分支,用于对孪生结构中提取的特征图进行尺度上下文信息的提取与融合。将双时相遥感影像的多尺度特征通道拼接图
Figure 836023DEST_PATH_IMAGE008
直接输入到四个并行分支中。每个分支可以将输入特征张量平均分割为
Figure 62605DEST_PATH_IMAGE010
个相同大小的子区域,其中
Figure 366548DEST_PATH_IMAGE012
Figure 641671DEST_PATH_IMAGE014
,这样便得到了四个不同尺度划分的特征图。在同一个分支中,将每个子区域定义为
Figure DEST_PATH_IMAGE062
Figure DEST_PATH_IMAGE064
,其中
Figure DEST_PATH_IMAGE066
是子区域在原特征张量中的位置。对四个分支分别使用四个自注意力机制,彼此之间互不关联,在每个分支中分别对所有子区域
Figure DEST_PATH_IMAGE068
应用自注意力机制生成更新后的自注意力特征张量,并仍按照原子区域所在位置
Figure 799989DEST_PATH_IMAGE066
进行拼接,生成该分支在
Figure 931893DEST_PATH_IMAGE010
尺度下的自注意力特征张量
Figure DEST_PATH_IMAGE070
。之后将四个分支的特征张量
Figure DEST_PATH_IMAGE072
通过通道融合串联后送入一层卷积层
Figure DEST_PATH_IMAGE074
进行降维,并生成多尺度自注意力机制的特征图
Figure DEST_PATH_IMAGE076
。最后将特征图
Figure 850695DEST_PATH_IMAGE016
与原始特征图
Figure 929509DEST_PATH_IMAGE008
相加,得到融合后的输出特征图
Figure DEST_PATH_IMAGE078
在进一步的实施例中,由于遥感影像尺寸大,在实际训练中为了缩短模型训练时间及符合GPU显存限制,一般将其裁切为尺寸较小的影像作为网络的输入。但图像裁切会损失部分上下文信息,从而使基于多尺度自注意力机制无法获取裁切图像之外的信息,限制了感受野大小,丢失整体的信息特征。针对该问题本实施例提出一种记录图像位置信息的特征图拼接结构,将裁切后图像块的位置信息进行记录,并在嵌套型多尺度自注意力网络中根据该位置信息在空间维度进行拼接,扩大原有多尺度自注意力机制的感受野,获取大于原输入图像尺寸的上下文信息。优选实施例中,最外层采用特征图拼接结构,用于将裁切后图像块的位置信息进行记录,并在嵌套型多尺度自注意力网络中根据该位置信息在空间维度进行拼接,扩大原有多尺度自注意力机制的感受野,获取大于原输入图像尺寸的上下文信息。记录每张裁切图像在原图像中的位置以及与之相邻的图像,对每张图像经过孪生网络与多尺度自注意力机制进行特征提取,并根据这一位置信息对获取的特征张量在空间维度进行重新拼接。在完成拼接后对拼接特征图通过一次自注意力机制进行特征融合,使每个图像对应的特征张量融合相邻图像的上下文信息,以此扩大网络的感受野,最终获取拼接后图像的上下文信息,同时使用残差连接将拼接后的输入特征与经过上下文信息融合后的输出特征进行连接,获得融合后的输出特征图
Figure DEST_PATH_IMAGE080
特征度量模块用于利用对比损失函数进行双时相影像差异度量,在模型训练阶段用于反向传播优化网络参数。将经过上下文信息融合网络得到的特征图分解为双时相遥感影像的特征图,并使用双线性差值将其尺寸调整到输入影像的大小,根据这两个特征图逐像素计算出两个时相影像的距离映射,依距离映射逐像素识别出变化区域与未变化区域,实现像素级的遥感影像变化检测识别。
优选实施例中,对比损失函数的表达式为:
Figure DEST_PATH_IMAGE022A
式中,
Figure 676754DEST_PATH_IMAGE024
表示双时相影像对应的样本特征之间的欧氏距离;
Figure 448401DEST_PATH_IMAGE026
表示两个样本与标签匹配情况的返回值,若两个样本在标签中匹配,则
Figure 461357DEST_PATH_IMAGE028
;若两个样本在标签中不匹配,则
Figure 343862DEST_PATH_IMAGE030
Figure 27172DEST_PATH_IMAGE032
表示预先设置的阈值;
Figure 969720DEST_PATH_IMAGE034
表示样本的数量。将提取的特征张量
Figure 204392DEST_PATH_IMAGE020
在通道维度上进行分解,恢复为与双时相遥感影像对应的特征张量
Figure 687326DEST_PATH_IMAGE036
Figure 159896DEST_PATH_IMAGE038
,通过双线性差值将特征张量
Figure 601241DEST_PATH_IMAGE036
Figure 526472DEST_PATH_IMAGE038
的尺寸还原到输入影像的大小,然后计算两者的欧氏距离,代入对比损失函数,在训练过程中保留损失函数最小值对应的模型参数,并依此模型预测图像变化概率,识别变化区域与未变化区域,得到像素级的初步变化检测结果
Figure 547518DEST_PATH_IMAGE040
本实施例提出的变化检测网络模型相比与现有技术,在遥感影像特征图的表达能力、双时相遥感影像差异性对比和像素级变化检测识别方面,具备更高的性能效果。
实施例四
在实施例一基础上的进一步实施例中,为了提高获取对象语义过程中采用的语义分割模型性能,进一步采用语义分割数据集对语义分割模型进行性能训练。
具体的,为了获得模型训练需要的样本数量,降低数据集制作成本,使用可体现遥感影像变化区域形状多样性的平移、旋转和镜像等几何形变及可增加图像质量多样性的噪声添加等操作完成数据增强。优选实施例中,构建了1728张遥感影像的变化检测数据集和890张语义分割数据集。
实施例五
在实施例一基础上的进一步实施例中,基于对象语义的区域连续属性和基于并集、交集运算,对数据分析结果进行优化的过程包括以下步骤:首先利用分割数据集完成语义分割模型的训练,并获取双时相遥感影像中的对象语义;随后,基于对象语义的区域连续属性和基于并集运算对像素级的初步变化检测结果
Figure 609015DEST_PATH_IMAGE040
进行优化;最后,基于对象语义的区域连续属性和基于交集运算的优化,实现变化区域逐像素分类优化,剔除直接变化检测中出现的粘连等多类误检。完成结果优化后,将优化结果作为最终的检测结果,并输出。
具体的,基于分割模型得到的双时相影像的对象级语义分割图为
Figure 955682DEST_PATH_IMAGE042
Figure 430526DEST_PATH_IMAGE044
,首先采用并集运算进行优化,利用并集剔除变化检测结果
Figure 458525DEST_PATH_IMAGE040
中不在并集内的变化区域,剔除因环境变化、非目标变化等因素而产生的误检;随后,再对前后时相的建筑语义分割结果做交集运算,当变化检测结果与该交集作差可剔除因未变化目标的表征发生变化而造成的误检,达到优化目标。
并集运算优化的过程中,将前后时相的对象级语义分割图做并集处理,即
Figure DEST_PATH_IMAGE082
,由于并集的物理含义为语义分割对象至少存在于某时相的遥感影像中,那么并集之外的部分则不可能发生对象级的变化。因此,利用并集剔除变化检测结果P中不在并集内的变化区域,剔除因环境变化、非目标变化等因素而产生的误检,其集合运算表达式为:
Figure DEST_PATH_IMAGE046A
式中,
Figure 818269DEST_PATH_IMAGE040
表示像素级的初步变化检测结果;
Figure 7942DEST_PATH_IMAGE048
表示基于并集优化后的结果。
交集运算优化的过程中,将前后时相的对象语义分割结果做交集处理,即
Figure DEST_PATH_IMAGE084
,由于交集部分的物理含义为语义分割对象在两个影像的成像时间同时存在,即分割对象未发生变化,当变化检测结果与该交集作差可剔除因未变化目标的表征发生变化而造成的误检。因此,并将检测结果
Figure 970082DEST_PATH_IMAGE048
与该交集作差,剔除因未变化目标的表征发生变化而造成的误检的集合运算表达式为:
Figure DEST_PATH_IMAGE050A
式中,
Figure 660826DEST_PATH_IMAGE048
表示基于并集优化后的结果;
Figure 24811DEST_PATH_IMAGE052
表示基于区域语义和集合运算优化后的最终变化检测结果。
实施例六
在一个实施例中,提出一种融合区域语义与像素特征的遥感影像变化检测系统,用于实现双时相遥感影像变化检测方法,该系统具体包括以下模块:
数据集构建模块,用于根据需求构建所需的遥感影像数据集;
模型构建模块,用于构建分析遥感影像数据集的网络模型;
数据优化模块,用于优化网络模型分析出的数据结果;
数据输出模块,用于输出数据优化模块优化后的结果。
在进一步的实施例中,数据集构建模块通过读取遥感影像的历史数据,获得遥感影像历史数据集,为了提高后续数据分析的结果,针对构建好的遥感影像历史数据集进行数据预处理。在预处理操作完成后,将数据集划分为变化检测数据集和语义分割数据集,用于后续的网络模型训练。
在进一步的实施例中,模型构建模块构建用于分析遥感影像数据集的网络模型,并接收数据集构建模块构建出的遥感影像数据集进行数据分析。该网络模型是基于孪生网络架构的多尺度特征融合变化检测模型,相比于现有技术,可提升遥感影像特征图的表达能力、双时相遥感影像差异性对比和像素级变化检测识别,具体包括:基于孪生网络架构的多尺度残差网络模块、基于嵌套型多尺度自注意力机制的上下文信息融合网络模块和特征度量模块。
其中,基于孪生网络架构的多尺度残差网络模块,基于权值共享模式利用孪生结构并行提取双时相遥感影像的不同尺度的特征,并分别将每个时相遥感影像提取的多个尺度的特征图进行融合,最后再将双时相遥感影像融合后的特征进行通道拼接,作为下一个模块的输入。
基于嵌套型多尺度自注意力机制的上下文信息融合网络模块,为了增强从整体到细节不同层次空间上下文信息和尺度上下文信息的提取能力,设计三层嵌套两次融合的整体结构。最内层使用自注意力机制通过计算特征张量的全局权值对全局特征进行加权求和,捕捉图像全方位的空间上下文信息;中间层使用多尺度自注意力机制获取并融合不同尺度的尺度上下文信息;最外层则设计了记录图像位置信息的特征图拼接结构,通过将对应的特征图进行拼接并融合以扩大网络的感受野。
特征度量模块,利用对比损失函数进行双时相影像差异度量,在模型训练阶段用于反向传播优化网络参数。将经过上下文信息融合网络得到的特征图分解为双时相遥感影像的特征图,并使用双线性差值将其尺寸调整到输入影像的大小,根据这两个特征图逐像素计算出两个时相影像的距离映射,依距离映射逐像素识别出变化区域与未变化区域,实现像素级的遥感影像变化检测识别。
在进一步的实施例中,数据优化模块利用语义分割数据集完成语义分割模型的训练,并获取双时相遥感影像中的对象语义。基于对象语义的区域连续属性和集合运算对双时相遥感影像像素级变化检测结果中的边缘进行逐像素分类优化,减少变化检测结果中的粘连等误检现象,提升端到端的双时相遥感影像的变化检测精度。
实施例七
在一个实施例中,提出一种融合区域语义与像素特征的双时相遥感影像变化检测设备,该设备包括:处理器以及存储有计算机程序指令的存储器。
其中,处理器读取并执行计算机程序指令,以实现遥感影像变化检测方法。
实施例八
在一个实施例中,提出一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序指令。
其中,计算机程序指令被处理器执行时,以实现遥感影像变化检测方法。
如上所述,尽管参照特定的优选实施例已经表示和表述了本发明,但其不得解释为对本发明自身的限制。在不脱离所附权利要求定义的本发明的精神和范围前提下,可对其在形式上和细节上做出各种变化。

Claims (10)

1.一种融合区域语义与像素特征的遥感影像变化检测方法,其特征在于,包括:
步骤1、构建遥感影像数据集;
步骤2、构建基于孪生网络架构的多尺度特征融合变化检测网络模型,并接收遥感数据集进行数据分析;
步骤3、基于对象语义的区域连续属性和基于并集、交集运算,对数据分析结果进行优化;
步骤4、根据优化结果获取最终检测到的变化内容,并输出。
2.根据权利要求1所述的一种融合区域语义与像素特征的遥感影像变化检测方法,其特征在于,所述遥感数据集被划分为变化检测数据集和语义分割数据集,用于对所述变化检测网络模型进行性能训练;
划分遥感数据集的过程中,具体包括以下步骤:
步骤1.1、读取历史遥感影像数据;
步骤1.2、对所述历史遥感影像数据进行校正预处理;
步骤1.3、对校正预处理后的数据集进行配准;
步骤1.4、按照预设划分比例对配准后的影像数据进行缩放,获得不同尺度下的配准影像;
步骤1.5、对不同尺度下的配准影像进行尺寸裁剪,获得同一尺寸的配准影像数据;
步骤1.6、通过对比配准影像中的差异性,对变化区域进行像素级标注和对象语义标注;
步骤1.7、采用几何形变和添加噪声的方式对遥感影像数据集进行数据增强,并按照预设比例,划分变化检测数据集和语义分割数据集。
3.根据权利要求1所述的一种融合区域语义与像素特征的遥感影像变化检测方法,其特征在于,构建所述基于孪生网络架构的多尺度特征融合变化检测网络模型的过程中进一步包括以下步骤:
步骤2.1、构建基于孪生网络架构的多尺度残差网络模块;
步骤2.2、构建基于嵌套型多尺度自注意力机制的上下文信息融合模块;
步骤2.3、构建特征度量模块;
所述基于孪生网络架构的多尺度残差网络模块用于基于权值共享模式利用孪生结构,并行提取双时相遥感影像的不同尺度的特征,并分别将每个时相遥感影像提取的多个尺度的特征图进行融合,最后再将双时相遥感影像融合后的特征进行通道拼接,作为下一个模块的输入;
所述基于嵌套型多尺度自注意力机制的上下文信息融合模块用于接收基于孪生网络架构的多尺度残差网络模块输出的数据,并提取不同层次空间上下文信息和尺度上下文信息;
所述特征度量模块用于利用对比损失函数进行双时相影像差异度量,以及在模型训练阶段用于反向传播优化网络参数;将经过上下文信息融合网络得到的特征图分解为双时相遥感影像的特征图,并使用双线性差值将其尺寸调整到输入影像的大小,根据这两个特征图逐像素计算出两个时相影像的距离映射,依距离映射逐像素识别出变化区域与未变化区域,实现像素级的遥感影像变化检测识别。
4.根据权利要求3所述的一种融合区域语义与像素特征的遥感影像变化检测方法,其特征在于,所述基于孪生网络架构的多尺度残差网络模块包括:输入模块、特征提取模块和融合模块;
所述输入模块用于在孪生结构中同时输入匹配后的双时相遥感影像;
所述特征提取模块包括:输入层、卷积层、残差层和池化层,用于提取双时相遥感影像的数据特征,并按照需求形成不同大小的特征图后输出至融合模块中;
所述融合模块用于将单时相遥感影像不同尺度上的特征进行通道融合,并输入到不同的卷积层中降低融合后特征图的通道数。
5.根据权利要求3所述的一种融合区域语义与像素特征的遥感影像变化检测方法,其特征在于,为了增强从整体到细节不同层次空间上下文信息和尺度上下文信息的提取能力,所述基于嵌套型多尺度自注意力机制的上下文信息融合模块整体被划分为三层嵌套两次融合的数据处理结构;
最内层使用自注意力机制通过计算特征张量的全局权值对全局特征进行加权求和,捕捉图像全方位的空间上下文信息;
中间层包括四个并行的数据处理分支,使用多尺度自注意力机制对孪生结构中提取的特征图进行尺度上下文信息的提取与融合;
最外层包含记录图像位置信息的特征图拼接结构,通过将对应的特征图进行拼接并融合,以扩大网络的感受野。
6.根据权利要求3所述的一种融合区域语义与像素特征的遥感影像变化检测方法,其特征在于,所述特征度量模块利用对比损失函数进行双时相影像差异度量,且在模型训练阶段用于反向传播优化网络参数;
所述对比损失函数的表达式为:
Figure DEST_PATH_IMAGE002
式中,
Figure DEST_PATH_IMAGE004
表示双时相影像对应的样本特征之间的欧氏距离;
Figure DEST_PATH_IMAGE006
表示两个样本与标签匹配情况的返回值,若两个样本在标签中匹配,则
Figure DEST_PATH_IMAGE008
;若两个样本在标签中不匹配,则
Figure DEST_PATH_IMAGE010
Figure DEST_PATH_IMAGE012
表示预先设置的阈值;
Figure DEST_PATH_IMAGE014
表示样本的数量。
7.根据权利要求2所述的一种融合区域语义与像素特征的遥感影像变化检测方法,其特征在于,对数据分析结果进行优化的过程具体包括以下步骤:
步骤3.1、利用语义分割数据集完成语义分割模型的训练,并获取双时相遥感影像数据集中的对象语义;
步骤3.2、基于对象语义的区域连续属性和基于并集运算,对初步变化检测结果进行初步优化;
步骤3.3、在初步优化的基础上,基于对象语义的区域连续属性和基于交集运算进行再次优化,实现变化区域逐像素分类优化,剔除直接变化检测中出现的粘连误检。
8.一种融合区域语义与像素特征的双时相遥感影像变化检测系统,用于实现如权利要求1-7任意一项所述的遥感影像变化检测方法,其特征在于,包括以下模块:
数据集构建模块,用于根据需求构建所需的遥感影像数据集;
模型构建模块,用于构建分析遥感影像数据集的网络模型;
数据优化模块,用于优化网络模型分析出的数据结果;
数据输出模块,用于输出数据优化模块优化后的结果。
9.一种融合区域语义与像素特征的遥感影像变化检测设备,其特征在于,所述设备包括:
处理器以及存储有计算机程序指令的存储器;
所述处理器读取并执行所述计算机程序指令,以实现如权利要求1-7任意一项所述的遥感影像变化检测方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如权利要求1-7任意一项所述的遥感影像变化检测方法。
CN202211237501.2A 2022-10-11 2022-10-11 融合区域语义与像素特征的遥感影像变化检测方法及系统 Active CN115331087B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211237501.2A CN115331087B (zh) 2022-10-11 2022-10-11 融合区域语义与像素特征的遥感影像变化检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211237501.2A CN115331087B (zh) 2022-10-11 2022-10-11 融合区域语义与像素特征的遥感影像变化检测方法及系统

Publications (2)

Publication Number Publication Date
CN115331087A true CN115331087A (zh) 2022-11-11
CN115331087B CN115331087B (zh) 2023-03-24

Family

ID=83915082

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211237501.2A Active CN115331087B (zh) 2022-10-11 2022-10-11 融合区域语义与像素特征的遥感影像变化检测方法及系统

Country Status (1)

Country Link
CN (1) CN115331087B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115830448A (zh) * 2022-11-30 2023-03-21 广州市地质调查院(广州市地质环境监测中心) 一种基于多视角融合的遥感图像对比分析方法
CN116012364A (zh) * 2023-01-28 2023-04-25 北京建筑大学 Sar图像变化检测方法和装置
CN116052007A (zh) * 2023-03-30 2023-05-02 山东锋士信息技术有限公司 一种融合时间和空间信息的遥感图像变化检测方法
CN116091492A (zh) * 2023-04-06 2023-05-09 中国科学技术大学 一种图像变化像素级检测方法与系统
CN116309431A (zh) * 2023-03-14 2023-06-23 中国人民解放军空军军医大学 一种基于医学影像的视觉解释方法
CN116740569A (zh) * 2023-06-15 2023-09-12 安徽理工大学 一种基于深度学习的降雪区域云检测系统
CN117173579A (zh) * 2023-11-02 2023-12-05 山东科技大学 一种基于固有特征与多级特征融合的图像变化检测方法
CN117612017A (zh) * 2024-01-23 2024-02-27 江西啄木蜂科技有限公司 一种环境自适应的遥感影像变化检测方法
CN117739925A (zh) * 2023-12-19 2024-03-22 广东省水利水电第三工程局有限公司 一种无人机的影像智能分析方法
CN117975484A (zh) * 2024-03-27 2024-05-03 腾讯科技(深圳)有限公司 变化检测模型的训练方法、变化检测方法、装置及设备
CN117975484B (zh) * 2024-03-27 2024-07-05 腾讯科技(深圳)有限公司 变化检测模型的训练方法、变化检测方法、装置及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183432A (zh) * 2020-10-12 2021-01-05 中国科学院空天信息创新研究院 一种基于中分辨率sar图像的建筑区提取方法以及系统
AU2020103901A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field
CN112949549A (zh) * 2021-03-19 2021-06-11 中山大学 一种基于超分辨率的多分辨率遥感影像的变化检测方法
CN113420662A (zh) * 2021-06-23 2021-09-21 西安电子科技大学 基于孪生多尺度差异特征融合的遥感影像变化检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183432A (zh) * 2020-10-12 2021-01-05 中国科学院空天信息创新研究院 一种基于中分辨率sar图像的建筑区提取方法以及系统
AU2020103901A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field
CN112949549A (zh) * 2021-03-19 2021-06-11 中山大学 一种基于超分辨率的多分辨率遥感影像的变化检测方法
CN113420662A (zh) * 2021-06-23 2021-09-21 西安电子科技大学 基于孪生多尺度差异特征融合的遥感影像变化检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
向阳等: "基于改进UNet孪生网络的遥感影像矿区变化检测", 《煤炭学报》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115830448A (zh) * 2022-11-30 2023-03-21 广州市地质调查院(广州市地质环境监测中心) 一种基于多视角融合的遥感图像对比分析方法
CN115830448B (zh) * 2022-11-30 2024-02-09 广州市地质调查院(广州市地质环境监测中心) 一种基于多视角融合的遥感图像对比分析方法
CN116012364A (zh) * 2023-01-28 2023-04-25 北京建筑大学 Sar图像变化检测方法和装置
CN116012364B (zh) * 2023-01-28 2024-01-16 北京建筑大学 Sar图像变化检测方法和装置
CN116309431A (zh) * 2023-03-14 2023-06-23 中国人民解放军空军军医大学 一种基于医学影像的视觉解释方法
CN116309431B (zh) * 2023-03-14 2023-10-27 中国人民解放军空军军医大学 一种基于医学影像的视觉解释方法
CN116052007A (zh) * 2023-03-30 2023-05-02 山东锋士信息技术有限公司 一种融合时间和空间信息的遥感图像变化检测方法
CN116052007B (zh) * 2023-03-30 2023-08-11 山东锋士信息技术有限公司 一种融合时间和空间信息的遥感图像变化检测方法
CN116091492A (zh) * 2023-04-06 2023-05-09 中国科学技术大学 一种图像变化像素级检测方法与系统
CN116091492B (zh) * 2023-04-06 2023-07-14 中国科学技术大学 一种图像变化像素级检测方法与系统
CN116740569B (zh) * 2023-06-15 2024-01-16 安徽理工大学 一种基于深度学习的降雪区域云检测系统
CN116740569A (zh) * 2023-06-15 2023-09-12 安徽理工大学 一种基于深度学习的降雪区域云检测系统
CN117173579A (zh) * 2023-11-02 2023-12-05 山东科技大学 一种基于固有特征与多级特征融合的图像变化检测方法
CN117173579B (zh) * 2023-11-02 2024-01-26 山东科技大学 一种基于固有特征与多级特征融合的图像变化检测方法
CN117739925A (zh) * 2023-12-19 2024-03-22 广东省水利水电第三工程局有限公司 一种无人机的影像智能分析方法
CN117739925B (zh) * 2023-12-19 2024-05-24 广东省水利水电第三工程局有限公司 一种无人机的影像智能分析方法
CN117612017A (zh) * 2024-01-23 2024-02-27 江西啄木蜂科技有限公司 一种环境自适应的遥感影像变化检测方法
CN117612017B (zh) * 2024-01-23 2024-05-24 江西啄木蜂科技有限公司 一种环境自适应的遥感影像变化检测方法
CN117975484A (zh) * 2024-03-27 2024-05-03 腾讯科技(深圳)有限公司 变化检测模型的训练方法、变化检测方法、装置及设备
CN117975484B (zh) * 2024-03-27 2024-07-05 腾讯科技(深圳)有限公司 变化检测模型的训练方法、变化检测方法、装置及设备

Also Published As

Publication number Publication date
CN115331087B (zh) 2023-03-24

Similar Documents

Publication Publication Date Title
CN115331087B (zh) 融合区域语义与像素特征的遥感影像变化检测方法及系统
CN113298818B (zh) 基于注意力机制与多尺度特征的遥感图像建筑物分割方法
CN111612008B (zh) 基于卷积网络的图像分割方法
Wang et al. A unified multiscale learning framework for hyperspectral image classification
CN113076871B (zh) 一种基于目标遮挡补偿的鱼群自动检测方法
CN111353544B (zh) 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
Delibasoglu et al. Improved U-Nets with inception blocks for building detection
CN110866938B (zh) 一种全自动视频运动目标分割方法
Chen et al. ASF-Net: Adaptive screening feature network for building footprint extraction from remote-sensing images
CN113888557A (zh) 一种基于rgb-d特征融合的场景语义分割方法及系统
CN115908772A (zh) 一种基于Transformer和融合注意力机制的目标检测方法及系统
Huang et al. Attention-guided label refinement network for semantic segmentation of very high resolution aerial orthoimages
CN116071676A (zh) 一种基于注意力导向金字塔融合的红外小目标检测方法
CN116645592A (zh) 一种基于图像处理的裂缝检测方法和存储介质
Fan et al. A novel sonar target detection and classification algorithm
Cai et al. IOS-Net: An inside-to-outside supervision network for scale robust text detection in the wild
CN115527098A (zh) 基于全局均值对比度空间注意力的红外小目标检测方法
Yu et al. Progressive refined redistribution pyramid network for defect detection in complex scenarios
CN117351487A (zh) 一种邻近区域与边缘信息融合的医学图像分割方法、系统
Tu et al. Fully convolutional network-based nonlocal-dependent learning for hyperspectral image classification
CN117115632A (zh) 一种水下目标检测方法、装置、设备及介质
CN116363518A (zh) 一种基于分焦平面偏振成像的伪装目标检测方法
CN111582057B (zh) 一种基于局部感受野的人脸验证方法
Hashmi et al. Identification of Objects using AI & ML Approaches: State-of-the-Art
Bendre et al. Natural disaster analytics using high resolution satellite images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant