CN116416530B - 一种新增建设图斑影像核实的方法 - Google Patents

一种新增建设图斑影像核实的方法 Download PDF

Info

Publication number
CN116416530B
CN116416530B CN202310214901.XA CN202310214901A CN116416530B CN 116416530 B CN116416530 B CN 116416530B CN 202310214901 A CN202310214901 A CN 202310214901A CN 116416530 B CN116416530 B CN 116416530B
Authority
CN
China
Prior art keywords
image
resolution
images
similarity
true color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310214901.XA
Other languages
English (en)
Other versions
CN116416530A (zh
Inventor
王忠武
刘爱霞
杜磊
尤淑撑
石迎春
何芸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ministry Of Natural Resources Land Satellite Remote Sensing Application Center
Original Assignee
Ministry Of Natural Resources Land Satellite Remote Sensing Application Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ministry Of Natural Resources Land Satellite Remote Sensing Application Center filed Critical Ministry Of Natural Resources Land Satellite Remote Sensing Application Center
Priority to CN202310214901.XA priority Critical patent/CN116416530B/zh
Publication of CN116416530A publication Critical patent/CN116416530A/zh
Application granted granted Critical
Publication of CN116416530B publication Critical patent/CN116416530B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种新增建设图斑影像核实的方法,包括:采集高分辨率光学卫星全色与多光谱正射影像,对所述高分辨率光学卫星全色与多光谱正射影像进行处理,获取高分辨率真彩色影像底图;对所述前后时相两期高分辨率真彩色影像底图进行裁剪与计算,获取计算结果,对所述计算结果进行相似度比对,确定新增建设图斑核实结果,以实现新增建设图斑影像的高效率、高精度核实。

Description

一种新增建设图斑影像核实的方法
技术领域
本发明涉及遥感技术与信息科学技术领域,特别是涉及一种新增建设图斑影像核实的方法。
背景技术
基于高分辨率遥感影像提取新增建设图斑的客观性和精度,直接决定违法用地监管工作的数量和效率,以及卫片执法工作的公正性,因此对提取的新增建设图斑进行高效、准确的核实显得至关重要。当前主要使用高分辨率影像人机交互目视判读或变化检测技术进行新增建设图斑核实。人机交互目视判读主要对颜色调整为真彩色的高分辨率影像进行人眼目视,逐图斑对比前后时相高分辨率影像是否相近,从而确定新增建设图斑是否变化,该方法对高分辨率影像的真彩色拟合效果、影像光谱辐射质量等需求较高。变化检测技术具体包括:基于像元的检测方法、面向对象的检测方法、监督分类深度学习方法、无(弱)监督深度学习方法,总体来说有效性较差。基于像元的检测方法计算两期影像对应原始波段或特征波段上像元的光谱差异,利用阈值来判断影像变化情况,这类方法极易受到影像辐射质量、建筑物同物异谱、阈值设定等因素影响。面向对象的检测方法对两期影像进行面向对象分割,计算对象图斑内的特征值差异,利用阈值来判断影像变化情况,这类方法也受到分割尺度、分割效果、特征选择、阈值设定等因素的影响。监督分类深度学习方法通过大量变化样本训练深度学习网络,获得能表征影像变化的模型参数,进而对新输入两期影像进行预测获得影像变化,这类方法受到样本数量、全面性、代表性和均匀性的限制。无(弱)监督深度学习方法主要是不需样本或只需不准确的样本,通过高阶深度学习网络模型自适应训练深度学习网络模型,期望获得能表征影像变化的模型参数,进而对新输入两期影像进行预测获得影像变化,但这类方法的效果普遍较差,而且也受到样本数量、全面性、代表性和均匀性的限制,整体来说还处于技术研究初级阶段。
通常来说,新增建设图斑影像核实通常具有三个特点,一是高分辨率影像辐射质量以及前后两期影像光谱相似性,对于人机交互目视判读或变化检测方法都非常关键;二是新增建设图斑通常不仅包括建筑物本身,而且包括建筑周边的临时用地、裸土等,变化判断场景更复杂;三是较高建筑物的屋顶受到遥感影像成像角度变化而变化,容易产生误判。因此,新增建设影像变核实是一个复杂场景的、建筑物影像表现有一定差异的图斑内两期影像相似度问题。以上方法中,目视判读方法存在人为主观因素高、自动化程度差、工作效率低等缺点,基于像元的检测方法、面向对象的检测方法无法处理此类问题,监督分类深度学习方法因为需要大量样本而很难成为实用的方法,无(弱)监督深度学习方法由于本身精度不高也无法实用。
发明内容
本发明的目的是提供了一种新增建设图斑影像核实的方法,以实现基于前后时相两期影像的新增建设图斑的高效率、高精度核实。
为实现上述目的,本发明提供了如下方案:
一种新增建设图斑影像核实的方法,包括:
采集高分辨率光学卫星全色与多光谱正射影像,对所述高分辨率光学卫星全色与多光谱正射影像进行处理,获取高分辨率真彩色影像底图;
基于所述高分辨率真彩色影像底图,获取前后时相的高分辨率真彩色影像底图,对所述前后时相的高分辨率真彩色影像底图进行裁剪与特征计算,对所述特征计算结果进行相似度比对,确定新增建设图斑核实结果。
可选地,对所述高分辨率光学卫星全色与多光谱正射影像进行处理包括:
对所述高分辨率光学卫星全色与多光谱正射影像进行保光谱影像细节增强、真彩色拟合、影像瓦片筛选,获取所述高分辨率真彩色影像底图。
可选地,进行保光谱影像细节增强包括:
基于高分辨率光学卫星全色与多光谱传感器的光谱响应函数,并通过多元一次线性模型,计算低分辨率多光谱影像拟合低分辨率全色影像的加权系数;将所述高分辨率光学卫星全色与多光谱正射影像进行重采样,以影像均值和影像方差为条件,并通过所述加权系数由所述高分辨率光学卫星全色与多光谱正射影像生成低分辨率全色影像的第一差值影像,同时利用高分辨率光学卫星全色图像生成第二差值影像,由所述高分辨率光学卫星全色与多光谱正射影像的不同像元分别叠加第一差值影像和第二差值影像,获得保光谱细节增强影像。
可选地,进行真彩色拟合包括:
对所述保光谱细节增强影像计算归一化植被指数,并对所述植被指数进行截断,获取最终植被指数;对所述保光谱细节增强影像和所述最终植被指数进行计算,获得真彩色影像。
可选地,进行影像瓦片筛选包括:
将所述真彩色影像转换为突出超绿分量的瓦片图像,计算所述瓦片图像的不感兴趣像元比例、图像均值以及图像方差,按照预设筛选规则,对所述瓦片图像进行筛选。
可选地,获取所述高分辨率真彩色影像底图包括:
按照WMTS瓦片服务格式,对筛选后的所述瓦片图像逐层生成立方体影像服务数据,基于立方体影像服务把筛选后的真彩色影像瓦片生成服务数据。
可选地,对所述前后时相的高分辨率真彩色影像底图进行裁剪包括:
基于所述服务数据利用高分辨率真彩色影像底图生成技术,生成新增建设图斑前后时相的所述高分辨率真彩色影像底图,获取每个新增建设图斑的最大外截矩形,以所述最大外截矩形的边界向外进行缓冲区扩展,通过扩展后的所述最大外截矩形,从所述的前后时相高分辨率真彩色影像底图上截取图斑区域多光谱影像,生成新增建设图斑前后时相影像。
可选地,获取所述计算结果包括:
对所述新增建设区域前后时相影像的灰度图缩放至预设像元,进行均值哈希aHash编码、差异哈希dHash编码和感知哈希pHash编码,采用新增建设图斑约束的注意力机制的方式,计算所述aHash编码、所述dHash编码和所述pHash编码之间的汉明距离,获取均值哈希相似度、感知哈希相似度和差异哈希相似度;
通过滑动窗将所述新增建设区域前后时相影像进行划分,并基于高斯加权计算每一窗口的均值、方差以及协方差,计算划分后的所述新增建设区域前后时相影像块的第一结构相似度,取所述第一结构相似度的平均值作为第二结构相似度。
可选地,获取所述计算结果还包括:
将所述新增建设区域前后时相影像分别进行缩放至所述预设像元,并通过最邻近像元法,获取所述新增建设区域前后时相影像块的像元均值,按照预设灰度值等间隔划分为预设等分,根据每个所述像元均值,对位于所述预设等分的预设像元进行灰度赋值,获取特征指纹,基于所述特征指纹计算互信息和余弦距离。
可选地,确定新增建设图斑核实结果包括:
通过决策融合的方式,对所述均值哈希相似度、所述感知哈希相似度、所述差异哈希相似度、所述结构相似度、所述互信息和所述余弦距离进行相似度比对,确定所述新增建设图斑核实结果。
本发明的有益效果为:
相对于现有人机交互目视比较核实新增建设图斑的技术存在效率低下、主观性强等缺点,本发明利用智能技术实现新增建设图斑的自动核实,具有效率高、客观性强等特点。相对于现有人工智能核实新增建设图斑的技术存在前后时相影像辐射差异大导致核实效果不稳定的缺点,本发明通过自动生成前后时相真彩色影像降低前后时相影像辐射差异,提高新增建设图斑核实效果。相对于现有基于哈希算法相似度比对技术存在的比较对象像元针对性差等缺点,本发明基于注意力机制对前后时相真彩色影像中的新增建设像元进行针对性比对,新增建设图斑图斑相似度特征更突出。相对于现有单一相似度特征的变化发现技术存在核实结果精度不高的缺点,本发明基于多特征的决策融合,有效提高新增建设图斑核实的精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的一种新增建设图斑影像核实的方法流程图;
图2为本发明实施例的新增建设图斑最小外截矩形示意图;
图3为本发明实施例的保光谱细节增强影像与GXL软件的pansharpen算法对比图,其中,(a)为原始多光谱影像,(b)为原始全色影像,(c)为保光谱细节增强影像,(d)为GXL软件pansharpen算法影像;
图4为本发明实施例的保光谱细节增强影像与ENVI软件的gram-schmidt算法对比图,其中,(a)为图像一的原始多光谱影像,(b)为图像一的gram-schmidt算法影像,(c)为图像一的本发明保光谱细节增强影像,(d)为图像二的原始多光谱影像,(e)为图像二的gram-schmidt算法影像,(f)为图像二的本发明保光谱细节增强影像,(g)为图像三的原始多光谱影像,(h)为图像三的gram-schmidt算法影像,(i)为图像三的本发明保光谱细节增强影像,(j)为图像四的原始多光谱影像,(k)为图像四的gram-schmidt算法影像,(l)为图像四的本发明保光谱细节增强影像,(m)为图像五的原始多光谱影像,(n)为图像五的gram-schmidt算法影像,(o)位图像五的本发明保光谱细节增强影像,(p)为图像六的原始多光谱影像,(q)为图像六的gram-schmidt算法影像,(r)为图像六的本发明保光谱细节增强影像,(s)为图像七的原始多光谱影像,(t)为图像七的gram-schmidt算法影像,(u)为图像七的本发明保光谱细节增强影像,(v)为图像八的原始多光谱影像,(w)为图像八的gram-schmidt算法影像,(x)为图像八的本发明保光谱细节增强影像;
图5为本发明实施例的生成高分辨率真彩色影像底图,其中,(a)为第一多光谱正射影像,(b)为第一保光谱细节增强影像,(c)为第一最优影像筛选的高分辨率真彩色影像底图,(d)为第二多光谱正射影像,(e)为第二保光谱细节增强影像,(f)为第二最优影像筛选的高分辨率真彩色影像底图,(g)为第三多光谱正射影像,(h)为第三保光谱细节增强影像,(i)为第三最优影像筛选的高分辨率真彩色影像底图;
图6为本发明实施例的试验数据及图斑分布图;
图7为本发明实施例的典型变化图斑,其中,(a)为耕地变为建设用地,(b)为水域变为建设用地,(c)为裸土地变为建设用地,(d)为草地变为建设用地,(e)为推填土变为建设用地;
图8为本发明实施例的典型伪变化图斑,其中,(a)为伪变化建筑物,(b)为伪变化水体,(c)为伪变化网箱,(d)为伪变化裸土,(e)为伪变化城镇;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
一种新增建设图斑影像核实的方法,其特征在于,包括:采集高分辨率光学卫星全色与多光谱正射影像,对高分辨率光学卫星全色与多光谱正射影像进行处理,获取高分辨率真彩色影像底图;基于高分辨率真彩色影像底图,获取前后时相的高分辨率真彩色影像底图,对前后时相的高分辨率真彩色影像底图进行裁剪与特征计算,对特征计算结果进行相似度比对,确定新增建设图斑核实结果。
对高分辨率光学卫星全色与多光谱正射影像进行处理包括:对高分辨率光学卫星全色与多光谱正射影像进行保光谱影像细节增强、真彩色拟合、影像瓦片筛选,获取高分辨率真彩色影像底图。
进行保光谱影像细节增强包括:基于高分辨率光学卫星全色与多光谱传感器的光谱响应函数,并通过多元一次线性模型,计算低分辨率多光谱影像拟合低分辨率全色影像的加权系数;将高分辨率光学卫星全色与多光谱正射影像进行重采样,以影像均值和影像方差为条件,并通过加权系数由高分辨率光学卫星全色与多光谱正射影像生成低分辨率全色影像的第一差值影像,同时利用高分辨率光学卫星全色图像生成第二差值影像,由高分辨率光学卫星全色与多光谱正射影像的不同像元分别叠加第一差值影像和第二差值影像,获得保光谱细节增强影像。
进行真彩色拟合包括:对保光谱细节增强影像计算归一化植被指数,并对植被指数进行截断,获取最终植被指数;对保光谱细节增强影像和最终植被指数进行计算,获得真彩色影像。
进行影像瓦片筛选包括:将真彩色影像转换为突出超绿分量的瓦片图像,计算瓦片图像的不感兴趣像元比例、图像均值以及图像方差,按照预设筛选规则,对瓦片图像进行筛选。
获取高分辨率真彩色影像底图包括:按照WMTS瓦片服务格式,对筛选后的瓦片图像逐层生成立方体影像服务数据,基于立方体影像服务把筛选后的真彩色影像瓦片生成服务数据。
对前后时相的高分辨率真彩色影像底图进行裁剪包括:基于服务数据利用高分辨率真彩色影像底图生成技术,生成新增建设图斑前后时相的高分辨率真彩色影像底图,获取每个新增建设图斑的最大外截矩形,以最大外截矩形的边界向外进行缓冲区扩展,通过扩展后的最大外截矩形,从前后时相的高分辨率真彩色影像底图上截取图斑区域多光谱影像,生成新增建设图斑前后时相影像。
获取计算结果包括:对新增建设区域前后时相影像的灰度图缩放至预设像元,进行aHash编码、dHash编码和pHash编码,采用新增建设图斑约束的注意力机制的方式,计算aHash编码、dHash编码和pHash编码之间的汉明距离,获取均值哈希相似度、感知哈希相似度和差异哈希相似度;通过滑动窗将新增建设区域前后时相影像进行划分,并基于高斯加权计算每一窗口的均值、方差以及协方差,计算划分后的新增建设区域前后时相影像块的第一结构相似度,取第一结构相似度的平均值作为第二结构相似度。
获取计算结果还包括:将新增建设区域前后时相影像分别进行缩放至预设像元,并通过最邻近像元法,获取新增建设区域前后时相影像块的像元均值,按照预设灰度值等间隔划分为预设等分,根据每个像元均值,对位于预设等分的预设像元进行灰度赋值,获取特征指纹,基于特征指纹计算互信息和余弦距离。
确定新增建设图斑核实结果包括:通过决策融合的方式,对均值哈希相似度、感知哈希相似度、差异哈希相似度、结构相似度、互信息和余弦距离进行相似度比对,确定新增建设图斑核实结果。
鉴于此,本发明的目的在于提供一种新增建设图斑影像核实的方法,以实现新增建设图斑影像的高效率、高精度核实。其中,该新增建设图斑核实的方法包括:针对输入的高分辨率光学卫星全色与多光谱正射影像,进行保持光谱与保持细节均衡的影像细节增强、真彩色合成,影像瓦片裁切与最优影像筛选,获取高分辨率真彩色核实影像底图;利用新增建设图斑矢量的最大外截矩形,对前后时相影像分别裁切,获得前后时相影像、新增建设图斑栅格数据;采用注意力机制,在新增建设图斑的约束下,计算两期影像新增建设区域的多种哈希特征相似度;计算结构相似度;缩放两期影像,计算指纹互信息与余弦距离;采用得分决策融合的思想,对均值哈希相似度、感知哈希相似度、差异哈希相似度、结构相似度、互信息、余弦距离等特征进行相似度比对,根据得分高低确定新增建设图斑核实结果。
如图1所示,本发明实例提供新增建设图斑影像核实的方法,包括:
高分辨率真彩色影像底图生成。针对输入的高分辨率光学卫星全色与多光谱正射影像,进行保光谱影像细节增强、真彩色拟合,影像瓦片筛选,获取高分辨率真彩色影像底图。
(1)保光谱影像细节增强。
针对输入的高分辨率光学卫星全色与多光谱正射影像,进行保持光谱与保持细节均衡的影像融合增强,获取不变波段、八位灰度等级的保光谱细节增强影像。
1)利用高分辨率光学卫星全色与多光谱传感器的光谱响应函数,采用多元一次线性模型,计算低分辨率多光谱影像拟合低分辨率全色影像的加权系数。
其中:LRP为低分辨率全色影像,LMSi为低分辨率多光谱影像,SRF为光谱响应函数,Ci为加权系数,由SRF计算得到;P(mi)第i个LMS传感器探测到光子随机事件的概率;P(mi∩p)表示某个光子被LMS传感器探测到的同时,被高分辨率全色影像传感器HRP探测到的概率;λ为波长,K为LMS传感器数量,为第i个LMS传感器获取光子的概率,φ为全色传感器获取光子的概率。
2)对高亮与阴影像元进行整体空间细节调节。将多光谱影像进行重采样LMS,以影像均值mean和方差std为条件,对多光谱影像的不同像元分别叠加不同差值图像,获得保光谱细节增强影像。
sigma1=HRP-∑ci*LMSi
sigma2=highpass(HRP)
其中,HMS为保光谱细节增强影像,sigma1为高分辨率全色影像HRP、利用加权系数由多光谱影像生成低分辨率全色影像LRP的差值影像,sigma2为高分辨率全色影像HRP经高通滤波highpass生成的差值影像,mean为影像均值,std为影像方差。
(2)真彩色拟合。
对保光谱细节增强影像进行真彩色合成,获得三波段、八位灰度等级的真彩色影像;
1)对保光谱细节增强影像计算归一化植被指数NVDI,同时对NDVI进行截断。
其中,NIR为保光谱细节增强影像HMS的近红外波段影像,R为保光谱细节增强影像HMS的红波段影像。
2)利用保光谱细节增强影像HMS、植被指数NDVI,计算合成的真彩色影像。
R'=R
G'=(1-NDVI*a1)*G+(NDVI*a1)*NIR
B'=b1*B+(1-b1)*G
其中,R’,G’,B’分别为真彩色影像的第一、二、三波段图像;R,G,B分别为保光谱细节增强影像HMS的第一、二、三波段图像;a1为真彩色绿度调节参数,默认为0.5;b1为影像时相调节参数,当影像时相时间为一/四季度时,b1默认为0.85;当影像时相时间为二/三季度时,b1默认为0.8。
(3)影像瓦片筛选。
对真彩色影像进行WMTS标准格式的瓦片切片,根据相同编号瓦片的云、雪、阴影等不感兴趣像元进行最优瓦片的筛选。
1)瓦片特征增强。考虑真彩色影像特性,将真彩色瓦片图像转换为突出超绿分量的瓦片图像。
TileG'=TileG*(2*TileG-TileR-TileB)/(2*TileG+TileR+TileB)
Tile=sqrt(TileMean*TileMean+TileG'*TileG')
其中,TileG'为超绿分量图像的瓦片,TileR,TileG,TileB为真彩色图像瓦片的第一、二、三波段图像,TileMean为真彩色图像瓦片的均值图像,Tile为特征增强后图像的瓦片图像。
2)瓦片信息统计与筛选
统计瓦片的云、雪、阴影等不感兴趣像元比例,以及图像均值、方差等信息,并按照如下规则进行进行最优瓦片的筛选。
如果同位置上,没有瓦片,则筛选后最优瓦片为全黑瓦片;
如果同位置上,仅有一个瓦片,则筛选后最优瓦片为该瓦片;
如果同位置上,有多余1个瓦片,则统计所有瓦片的信息,并根据以下规则进行瓦片筛选。
统计瓦片信息包括:不感兴趣像元总量占比,阴影像元总量占比,瓦片均值,瓦片方差。用瓦片信息生成瓦片质量矢量。Q=[不感兴趣像元总量占比,阴影像元总量占比,瓦片均值,瓦片方差]。每个瓦片质量矢量为Qi,i位同位置上瓦片的编号。
设最优瓦片的质量矢量Qr=Q1。依次比较每个瓦片质量矢量与最优瓦片质量矢量。
如果Qr与Q1中不感兴趣像元总量占比的差异绝对值小于等于5%,则继续比较其他矢量,否则最优瓦片质量矢量等于当前瓦片质量矢量。
如果Qr与Q1中阴影像元总量占比的差异绝对值小于等于0.000017,则继续比较其他矢量,否则最优瓦片质量矢量等于当前瓦片质量矢量。
如果Qr与Q1中瓦片均值的差异绝对值小于等于2,则继续比较其他矢量,否则最优瓦片质量矢量等于当前瓦片质量矢量。
如果Qr与Q1中瓦片方差的比值大于等于1%,则最优瓦片质量矢量不变,否则最优瓦片质量矢量等于当前瓦片质量矢量。
将最优瓦片质量矢量对应的瓦片,作为筛选出的该位置的最优瓦片图像。
(4)生成。
按照WMTS瓦片服务格式,对优选后的瓦片从下至上,逐层生成立方体影像服务数据;
新增建设图斑前后时相影像生成。
利用高分辨率真彩色影像底图生成技术,生成新增建设图斑前后时相的高分辨率真彩色影像底图。
如图2所示,针对前后时相的高分辨率真彩色影像底图,获取每个新增建设图斑的最大外截矩形,以该矩形的边界向外进行缓冲区扩展,用扩展后的矩形从前后时相两期真彩色影像底图上截取图斑区域多光谱影像。考虑到后期需要对该矩形区域的前后时相影像进行8*8图像缩放和相似度比对,为了兼顾遥感影像成像状态的影响,根据新增建设图斑最小外截矩形的长宽等比例向外扩展,比例设置为30%.即矩形向外部四个方向分别扩展30%,缓冲后矩形的长和宽均为原长和宽的160%,图像按照8*8缩放后,最外层的图像像元也能包含新增建设外的背景地物信息,以利于兼顾遥感影像成像状态影响的相似度比对。
对新增建设图斑进行栅格化,获得新增建设标签影像,其中新增建设内部赋值1,外部赋值0。
新增建设前后时相影像特征计算。
(1)计算注意力机制的哈希特征。
由于主要关注的新增建设图斑并非矩形结构,因此在比较新增用地图斑是否变化时,需要重点对图斑内部区域的影像进行比较,因此对图斑区域多光谱影像的前后时相灰度图进行aHash、dHash、pHash编码,采用新增建设图斑约束的注意力机制的方式,计算各hash编码之间的汉明距离。改进汉明距离的计算公式为:
D(x,y)=∑a*(x⊕y)/n
其中a=1或2,当像元位于新增建设图斑外时a=1,当位于图斑内时a=2。这里i=0,1,..n-1,x,y都是n位的aHash、dHash、pHash编码,⊕表示异或。
D_ahash(aHash1,aHash2)=∑a*(aHash1⊕aHash2)/n
D_dhash(aHash1,aHash2)=∑a*(dHash1⊕dHash2)/n
D_phash(aHash1,aHash2)=∑a*(pHash1⊕pHash2)/n
计算前后两期影像的结构相似度。
利用滑动窗将图斑区域多光谱图像分块,令分块总数为N,考虑到窗口形状对分块的影响,采用高斯加权计算每一窗口的均值、方差以及协方差,然后计算对应块的结构相似度SSIM,最后将平均值作为两图像的结构相似性度量,即平均结构相似性SSIM。
其中,x和y为两个图像,两张图像的结构相似度为μx是x的平均值,μy是y的平均值,σx是x的标准差,σy是y的标准差,σxy是x和y的协方差。C1=(k1L)2,C2=(k2L)2是用来维持稳定的常数。L是像素值的动态范围。K1=0.01,k2=0.03计算指纹互信息与余弦距离。
对新增建设区域前后时相影像分别进行缩放至8*8像元,采用最邻近像元法求取每块影像的均值。按照0-255灰度值等间隔划分为16等分,根据各像元均值位于等分的位置对8*8像元进行灰度赋值,得到前后影像的特征指纹。对前后影像特征指纹进行互信息、余弦距离的计算。
其中,Px(x)为前时相图像的直方图的概率图,Py(y)为后时相图像的直方图对应的概率图,Pxy(x,y)为联合概率密度,具体指的是前时相图像的灰度级x在图像的相同坐标下在后时相图像中灰度级为x的像素点的个数与总点数的比值。
将两期影像分别表示成一个向量,计算其余弦距离。
其中,向量x=(x1,x2,...,x64),y=(y1,y2,...,y64),xi为前时相图像的缩放图的第i块的灰度值,yi为后时相多光谱图像的缩放像的第i块的灰度值,n为缩放图的总像元数。
特征决策融合
由均值哈希相似度、感知哈希相似度、差异哈希相似度、结构相似度、互信息、余弦距离的定义可知,均值哈希相似度、感知哈希相似度、差异哈希相似度主要评价同一区域图像中低频信息的相似度,对高频信息的变化并不敏感,不同的是均值哈希和差异哈希受均值的影响非常大、感知哈希更敏感;结构相似度同时评价同一区域图像中高频和低频信息,并进行整体平均;互信息主要评价图像整体不同灰度等级的分布情况,余弦距离主要评价同一位置图图像像素光谱向量的变化。
采用决策融合的思路,融合多种特征进行联合判别。具体方法是:
每个新增建设图斑相似度得分P为0;
如果前后时相影像的均值哈希距离差异AHNL小于阈值Tahnl,,则相似度得分P+1;
如果前后时相影像的差异哈希距离差异DHNL小于阈值Tdhnl,,则相似度得分P+1;
如果前后时相影像的感知哈希距离差异PHNL小于阈值Tphnl,,则相似度得分P+1;
如果前后时相影像的结构相似度SSIM大于阈值Tssim,,且余弦距离大于阈值Tcos,则相似度得分P+10;
如果前后时相影像的互信息MIF大于阈值Tmif,,则相似度得分P+20;
如果相似度总得分P大于等于10,则该新增建设图斑核实为未变化图斑,否则为变化图斑。
If AHNL<Tahnl,P=P+1
If DHNL<Tdhnl,P=P+1
If PHNL<Tphnl,P=P+1
If SSIM>Tssim and COS>Tcos,P=P+10
If MIF>Tmif,P=P+20
If P>=10,P=not change else P=change
试验效果
如图3-4所示,与商业软件保光谱细节增强效果对比;
如图3(a)-(d)所示,与加拿大PCI公司GXL软件的pansharpen算法对比;
如图4(a)-(x)所示,与美国RSI公司ENVI软件的gram-schmidt算法对比;
如图5(a)-(i)所示,高分辨率真彩色影像底图生成;
影像特征计算效果。
如图6所示,选择2020年第四季度的新增建设用地遥感监测成果,该监测成果是基于GF1、GF6、GF1B、GF1C、GF1D、ZY301、ZY302等2m级光学卫星保光谱细节增强影像,相对于2019年第四季度同类2m级光学卫星保光谱细节增强影像,利用人机交互的方式提取的新增建设用地图斑。选择山东省黄河三角洲地区的图斑共2606个,具体变化情况包括耕地变为建设用地、草地变为建设用地、水域变为建设用地、推填土变为建设用地、裸土地变为建设用地等五种情况,同时根据需要勾绘20个容易误提的伪图斑,具体包括光谱变化的水域、成片的农村居民点等。具体图斑分布如下图所示:
为充分测试改进哈希算法对代表影像相似度方面的能力,分别对原始三波段影像、转换灰度影像,采用所述均值哈希相似度、差异哈希相似度、感知哈希相似度,统计全部真图斑和伪图斑的哈希值差异的最大值、最小值、大于零、小于零值。总共可分为6种方法,分别为AHL3-AHO3、DHL3-DHO3、PHL3-PHO3、AHL-AHO、DHL-DHO、PHL-PHO。其中AH表示均值哈希、DH表示差异哈希、PH表示感知哈希、L表示改进哈希、O表示传统哈希算法、有3表示三波段影像、无3表示灰度影像,-表示哈希距离差值。
统计结果如下表1所示,可以看出:1)对于真图斑,改进哈希距离与传统哈希距离相比,无论是三波段影像还是灰度影像,基于改进策略的三种哈希算法,大于零数量全部多余小于零数量,说明哈希距离变大的图斑数量全部多余距离变小的图斑数量,哈希距离变大主要是优于变化图斑内部像元的变化而引起,验证了本文改进的效果。2)对于伪图斑,6中方法中,大于零数量多的有3种、小于零数量多的有2种,基本相当。3)六种方法种,哈希距离差值的最大值、最小值整体变化并不大,差值最大为0.134、最小为-0.139,主要存在于均值哈希算法,主要原因是前后时相影像辐射差异引起。4)基于三波段影像与灰度影像的三种改进哈希特征相似度的距离,大于零的数量与小于零的数量差别不太大,实际应用中可以用灰度影像作为输入影像以减少计算量。
表1
/>
(7)新增建设图斑核实效果
分别采用改进均值哈希相似度、改进差值哈希相似度、改进感知哈希相似度、结构相似度、余弦距离、互信息六种特征,对全部试验图斑进行变化发现。结果如下所示。表2可以看出,1)对于真图斑、伪图斑,结构相似度的正确率分别达到89.26%和85%,表现较好且稳定,这种情况主要是由同一地物在不同时期遥感影像上的结构差异相对较小决定的。2)互信息、余弦距离、改进均值哈希、改进差值哈希、改进感知哈希等其他五个特征的正确率非常不稳定,要么大部分标记为变化图斑,要么大部分标记为不变图斑,这种情况与同一地物在不同时期遥感影像上的辐射差异相对较大有很大关系。互信息对图斑变化非常敏感,可作为单一判断特征;余弦距离和三种哈希算法对不变特征较为有效,作为补充特征,与其他特征一起用于判断变化图斑。3)如图7(a)-(e)和图8(a)-(e)所示,总体来说,为了应融合多种特征的优势,通过决策级融合的方式,提高变化图斑发现的正确率。融合多特征的真图斑正确率达到91.83%,伪图斑则正确率伪75%。
表2
以上所述的实施例仅是对本发明优选方式进行的描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。

Claims (8)

1.一种新增建设图斑影像核实的方法,其特征在于,包括:
采集高分辨率光学卫星全色与多光谱正射影像,对所述高分辨率光学卫星全色与多光谱正射影像进行处理,获取高分辨率真彩色影像底图;
对所述高分辨率光学卫星全色与多光谱正射影像进行处理包括:
对所述高分辨率光学卫星全色与多光谱正射影像进行保光谱影像细节增强、真彩色拟合、影像瓦片筛选,获取所述高分辨率真彩色影像底图;
进行保光谱影像细节增强包括:
基于高分辨率光学卫星全色与多光谱传感器的光谱响应函数,并通过多元一次线性模型,计算低分辨率多光谱影像拟合低分辨率全色影像的加权系数;将所述高分辨率光学卫星全色与多光谱正射影像进行重采样,以影像均值和影像方差为条件,并通过所述加权系数由所述高分辨率光学卫星全色与多光谱正射影像生成低分辨率全色影像的第一差值影像,同时利用高分辨率光学卫星全色图像生成第二差值影像,由所述高分辨率光学卫星全色与多光谱正射影像的不同像元分别叠加第一差值影像和第二差值影像,获得保光谱细节增强影像;
基于所述高分辨率真彩色影像底图,获取前后时相的高分辨率真彩色影像底图,对所述前后时相的高分辨率真彩色影像底图进行裁剪与特征计算,对所述特征计算结果进行相似度比对,确定新增建设图斑核实结果。
2.根据权利要求1所述的新增建设图斑影像核实的方法,其特征在于,进行真彩色拟合包括:
对所述保光谱细节增强影像计算归一化植被指数,并对所述植被指数进行截断,获取最终植被指数;对所述保光谱细节增强影像和所述最终植被指数进行计算,获得真彩色影像。
3.根据权利要求2所述的新增建设图斑影像核实的方法,其特征在于,进行影像瓦片筛选包括:
将所述真彩色影像转换为突出超绿分量的瓦片图像,计算所述瓦片图像的不感兴趣像元比例、图像均值以及图像方差,按照预设筛选规则,对所述瓦片图像进行筛选。
4.根据权利要求3所述的新增建设图斑影像核实的方法,其特征在于,获取所述高分辨率真彩色影像底图包括:
按照WMTS瓦片服务格式,对筛选后的所述瓦片图像逐层生成立方体影像服务数据,基于立方体影像服务把筛选后的真彩色影像瓦片生成服务数据。
5.根据权利要求4所述的新增建设图斑影像核实的方法,其特征在于,对所述前后时相的高分辨率真彩色影像底图进行裁剪包括:
基于所述服务数据利用高分辨率真彩色影像底图生成技术,生成新增建设图斑前后时相的所述高分辨率真彩色影像底图,获取每个新增建设图斑的最大外截矩形,以所述最大外截矩形的边界向外进行缓冲区扩展,通过扩展后的所述最大外截矩形,从所述的前后时相高分辨率真彩色影像底图上截取图斑区域多光谱影像,生成新增建设图斑前后时相影像。
6.根据权利要求5所述的新增建设图斑影像核实的方法,其特征在于,获取所述计算结果包括:
对所述新增建设区域前后时相影像的灰度图缩放至预设像元,进行均值哈希aHash编码、差异哈希dHash编码和感知哈希pHash编码,采用新增建设图斑约束的注意力机制的方式,计算所述aHash编码、所述dHash编码和所述pHash编码之间的汉明距离,获取均值哈希相似度、感知哈希相似度和差异哈希相似度;
通过滑动窗将所述新增建设区域前后时相影像进行划分,并基于高斯加权计算每一窗口的均值、方差以及协方差,计算划分后的所述新增建设区域前后时相影像块的第一结构相似度,取所述第一结构相似度的平均值作为第二结构相似度。
7.根据权利要求6所述的新增建设图斑影像核实的方法,其特征在于,获取所述计算结果还包括:
将所述新增建设区域前后时相影像分别进行缩放至所述预设像元,并通过最邻近像元法,获取所述新增建设区域前后时相影像块的像元均值,按照预设灰度值等间隔划分为预设等分,根据每个所述像元均值,对位于所述预设等分的预设像元进行灰度赋值,获取特征指纹,基于所述特征指纹计算互信息和余弦距离。
8.根据权利要求7所述的新增建设图斑影像核实的方法,其特征在于,确定新增建设图斑核实结果包括:
通过决策融合的方式,对所述均值哈希相似度、所述感知哈希相似度、所述差异哈希相似度、所述结构相似度、所述互信息和所述余弦距离进行相似度比对,确定所述新增建设图斑核实结果。
CN202310214901.XA 2023-03-08 2023-03-08 一种新增建设图斑影像核实的方法 Active CN116416530B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310214901.XA CN116416530B (zh) 2023-03-08 2023-03-08 一种新增建设图斑影像核实的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310214901.XA CN116416530B (zh) 2023-03-08 2023-03-08 一种新增建设图斑影像核实的方法

Publications (2)

Publication Number Publication Date
CN116416530A CN116416530A (zh) 2023-07-11
CN116416530B true CN116416530B (zh) 2023-11-03

Family

ID=87055634

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310214901.XA Active CN116416530B (zh) 2023-03-08 2023-03-08 一种新增建设图斑影像核实的方法

Country Status (1)

Country Link
CN (1) CN116416530B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090096142A (ko) * 2008-03-07 2009-09-10 한국항공우주연구원 위성 영상 융합 방법 및 시스템
CN102855487A (zh) * 2012-08-27 2013-01-02 南京大学 高分辨率遥感图像新增建设用地变化图斑自动提取的方法
CN110866494A (zh) * 2019-11-14 2020-03-06 三亚中科遥感研究所 一种基于光学遥感影像的城镇群提取方法及系统
CN112132006A (zh) * 2020-09-21 2020-12-25 西南交通大学 一种面向耕地保护的林地和建筑物智能提取方法
CN112819846A (zh) * 2021-01-27 2021-05-18 成都四象纵横遥感科技有限公司 一种面向多云雨地区的基于多载荷遥感图像的水稻估产方法
CN113436071A (zh) * 2021-06-21 2021-09-24 武汉光谷信息技术股份有限公司 一种多源卫星遥感影像镶嵌方法、系统及存储介质
CN115205675A (zh) * 2022-06-29 2022-10-18 中国科学院地理科学与资源研究所 一种基于多源遥感数据的森林变化驱动力分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070119879A (ko) * 2006-06-16 2007-12-21 삼성전자주식회사 영상의 해상도 변환 방법 및 그 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090096142A (ko) * 2008-03-07 2009-09-10 한국항공우주연구원 위성 영상 융합 방법 및 시스템
CN102855487A (zh) * 2012-08-27 2013-01-02 南京大学 高分辨率遥感图像新增建设用地变化图斑自动提取的方法
CN110866494A (zh) * 2019-11-14 2020-03-06 三亚中科遥感研究所 一种基于光学遥感影像的城镇群提取方法及系统
CN112132006A (zh) * 2020-09-21 2020-12-25 西南交通大学 一种面向耕地保护的林地和建筑物智能提取方法
CN112819846A (zh) * 2021-01-27 2021-05-18 成都四象纵横遥感科技有限公司 一种面向多云雨地区的基于多载荷遥感图像的水稻估产方法
CN113436071A (zh) * 2021-06-21 2021-09-24 武汉光谷信息技术股份有限公司 一种多源卫星遥感影像镶嵌方法、系统及存储介质
CN115205675A (zh) * 2022-06-29 2022-10-18 中国科学院地理科学与资源研究所 一种基于多源遥感数据的森林变化驱动力分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于遥感识别误差校正面积的农作物种植面积抽样高效分层指标研究――以冬小麦为例;杨雯;张锦水;潘耀忠;孙佩军;朱爽;;中国农业科学(04);全文 *

Also Published As

Publication number Publication date
CN116416530A (zh) 2023-07-11

Similar Documents

Publication Publication Date Title
CN104751478B (zh) 一种基于多特征融合的面向对象的建筑物变化检测方法
CN111696123A (zh) 超像素分类识别的遥感图像水域分割提取方法
CN110309781B (zh) 基于多尺度光谱纹理自适应融合的房屋损毁遥感识别方法
CN107330875B (zh) 基于遥感图像正反向异质性的水体周边环境变化检测方法
CN101840581B (zh) 一种从卫星遥感影像中提取建筑物轮廓的方法
Darwish et al. Image segmentation for the purpose of object-based classification
CN109558806B (zh) 高分遥感图像变化的检测方法
JP4477222B2 (ja) 画像中の空を検出する方法
CN108830870B (zh) 基于多尺度结构学习的卫星影像高精度农田边界提取方法
CN111027446B (zh) 一种高分辨率影像的海岸线自动提取方法
CN110569751B (zh) 一种高分遥感影像建筑物提取方法
CN113569724B (zh) 基于注意力机制和扩张卷积的道路提取方法及系统
CN109598202A (zh) 一种基于对象的卫星图像多指标建成区自动提取方法
CN111476723B (zh) 一种Landsat-7扫描线纠正器失效的遥感图像丢失像素恢复方法
CN108734122A (zh) 一种基于自适应样本选择的高光谱城区水体检测方法
CN108492288A (zh) 基于随机森林的多尺度分层采样的高分卫星影像变化检测方法
Duan et al. An index-based shadow extraction approach on high-resolution images
CN112927252B (zh) 一种新增建设用地监测方法及装置
CN107977968B (zh) 基于建筑物阴影信息挖掘的建筑物分层检测方法
CN116416530B (zh) 一种新增建设图斑影像核实的方法
CN112241956A (zh) 基于区域生长法和变差函数的PolSAR图像山脊线提取方法
Shahtahmassebi et al. Monitoring rapid urban expansion using a multi-temporal RGB-impervious surface model
Quartel et al. Object-oriented extraction of beach morphology from video images
CN115457325A (zh) 一种基于面向对象和光谱规则的多光谱遥感图像非监督分类方法
Chiu et al. Evaluation of incorporating texture into wetland mapping from multispectral images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant