CN116244662A - 一种多源高程数据融合方法、装置、计算机设备及介质 - Google Patents

一种多源高程数据融合方法、装置、计算机设备及介质 Download PDF

Info

Publication number
CN116244662A
CN116244662A CN202310173001.5A CN202310173001A CN116244662A CN 116244662 A CN116244662 A CN 116244662A CN 202310173001 A CN202310173001 A CN 202310173001A CN 116244662 A CN116244662 A CN 116244662A
Authority
CN
China
Prior art keywords
elevation
optical
elevation data
radar
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310173001.5A
Other languages
English (en)
Other versions
CN116244662B (zh
Inventor
余翠琳
王青松
黄海风
赖涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202310173001.5A priority Critical patent/CN116244662B/zh
Publication of CN116244662A publication Critical patent/CN116244662A/zh
Application granted granted Critical
Publication of CN116244662B publication Critical patent/CN116244662B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本申请属于数学高程模型技术领域,公开了一种多源高程数据融合方法、装置、计算机设备及介质,该方法包括:将获取的光学高程数据输入训练好的光学高程误差预测模型,输出得到光学高程误差值和光学高程误差权重图,将获取的雷达高程数据输入训练好的雷达高程误差预测模型,输出得到雷达高程误差值和雷达高程误差权重图;根据光学高程误差值对光学高程数据进行校正,得到待融合光学高程数据;根据雷达高程误差值对雷达高程数据进行校正,得到待融合雷达高程数据;根据光学高程误差权重图和雷达高程误差权重图对待融合光学高程数据和待融合雷达高程数据进行加权融合,得到融合高程数据。本申请可以达到有效提高融合高程数据的精度的效果。

Description

一种多源高程数据融合方法、装置、计算机设备及介质
技术领域
本申请涉及数学高程模型技术领域,尤其涉及一种多源高程数据融合方法、装置、计算机设备及介质。
背景技术
丰富的光学、激光、SAR(Synthetic Aperture Radar,合成孔径雷达)卫星数据已经成为以DEM(Digital elevation model,数字高程模型)为代表的地理空间基准产品制作的重要数据支撑,国内外研究学者针对光学、激光及SAR数据处理及地理空间产品生成发展了一系列的方法,已经被广泛用于水文、地质、气象以及军事等领域,但这些产品在采集和生产过程中不可避免地会受到观测技术和地形环境等因素影响,导致出现空洞、噪声以及异常值等质量问题。例如,光学成像波长较短,难以穿透云雾,因此光学高程数据易受到噪声、异常值的影响;SAR成像虽然能够在一定程度上克服天气影响,全天候作业,但其侧视成像的观测模式更易受到地形倾角的影响,在坡度较大的地形起伏区域容易形成数据空洞,并且存在雷达阴影、相位解缠等技术问题;星载激光能够获取更大范围、高精度的测高信息,但存在数据获取成本高、空间覆盖不连续的问题。为此,通过融合多源DEM数据,突破单一来源的限制,改善地理空间基准产品的质量,已成为国内外学者的研究重点。
目前,现有的融合方法多基于传统方法,并且没有充分考虑多源数据之间在获取方式、分辨率、覆盖范围及精度上的差异。因此,现有技术存在因没有考虑高程数据之间的差异导致融合后的多源高程数据精度低的问题。
发明内容
本申请提供了一种多源高程数据融合方法、装置、计算机设备及介质,能够有效提高多源高程数据融合之后的融合高程数据的精度。
第一方面,本申请实施例提供了一种多源高程数据融合方法,该方法应用于高程数据融合设备,该方法包括:
将获取的光学高程数据输入训练好的光学高程误差预测模型,输出得到光学高程误差值和光学高程误差权重图,将获取的雷达高程数据输入训练好的雷达高程误差预测模型,输出得到雷达高程误差值和雷达高程误差权重图;
根据光学高程误差值对光学高程数据进行校正,得到待融合光学高程数据;根据雷达高程误差值对雷达高程数据进行校正,得到待融合雷达高程数据;
根据光学高程误差权重图和雷达高程误差权重图对待融合光学高程数据和待融合雷达高程数据进行加权融合,得到融合高程数据。
进一步的,该方法还包括:
基于深度负相关学习网络分别构建光学预训练模型和雷达预训练模型;
对获取到的原始光学高程数据和原始雷达高程数据进行预处理,分别得到光学高程训练样本和雷达高程训练样本;
将光学高程训练样本输入光学预训练模型进行训练,得到训练好的光学高程误差预测模型;将雷达高程训练样本输入雷达预训练模型进行训练,得到训练好的雷达高程误差预测模型;
进一步的,上述对获取到的原始光学高程数据和原始雷达高程数据进行预处理,分别得到光学高程训练样本和雷达高程训练样本,包括:
统一原始光学高程数据和原始雷达高程数据的坐标系和高程基准,得到标准光学高程数据和标准雷达高程数据;基于以两步平均滤波为特征的平滑过程对标准光学高程数据进行异常值滤除操作,得到光学高程训练样本;基于以两步平均滤波为特征的平滑过程对标准雷达高程数据进行异常值滤除操作,得到雷达高程训练样本。
进一步的,上述统一原始光学高程数据和原始雷达高程数据的坐标系和高程基准,得到标准光学高程数据和标准雷达高程数据,包括:
获取激光测高系统的初始高程坐标系和高精度控制点的高程值,将高精度控制点的高程值作为原始光学高程数据和原始雷达高程数据的高程基准;根据地理坐标系转换规则将原始光学高程数据和原始雷达高程数据的坐标系转换为初始高程坐标系;
将原始光学高程数据中像素的网格间距和原始雷达高程数据中像素的网格间距进行对齐和校正,得到标准光学高程数据和标准雷达高程数据。
进一步的,上述基于以两步平均滤波为特征的平滑过程对标准光学高程数据进行异常值滤除操作,得到光学高程训练样本,包括:
提取标准光学高程数据的多个空间特征值及各空间特征值对应的高程误差值;
检测各空间特征值对应的高程误差值是否大于预设偏差值,若大于,则将大于预设偏差值的高程误差值对应的空间特征值删除,得到多个无异常空间特征值;
对各无异常空间特征值对应的高程误差值采用均值滤波器进行过滤,重复该步骤直至高程误差值的数量为1,得到唯一高程误差值;
将唯一高程误差值和多个无异常空间特征值作为光学高程训练样本。
进一步的,该方法还包括:
采用定量评价指标中的检查点法对融合高程数据进行精度评定,得到多个精度指标。
进一步的,上述多个精度指标包括融合高程数据的均方误差、均方根误差、平均绝对误差和拟合度。
第二方面,本申请实施例提供了一种多源高程数据融合装置,应用于高程数据融合设备,该装置包括:
预测模块,用于将获取的光学高程数据输入训练好的光学高程误差预测模型,输出得到光学高程误差值和光学高程误差权重图,以及将获取的雷达高程数据输入训练好的雷达高程误差预测模型,输出得到雷达高程误差值和雷达高程误差权重图;
校正模块,用于根据光学高程误差值对光学高程数据进行校正,得到待融合光学高程数据;根据雷达高程误差值对雷达高程数据进行校正,得到待融合雷达高程数据;
融合模块,用于根据光学高程误差权重图和雷达高程误差权重图对待融合光学高程数据和待融合雷达高程数据进行加权融合,得到融合高程数据。
第三方面,本申请实施例提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时执行如上述任一实施例的一种多源高程数据融合方法的步骤。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现如上述任一实施例的一种多源高程数据融合方法的步骤。
综上,与现有技术相比,本申请实施例提供的技术方案带来的有益效果至少包括:
本申请提供的一种多源高程数据融合方法,通过两种训练好的高程误差预测模型分别对两种待融合高程数据进行误差预测,根据预测的两种高程误差值分别对两种待融合高程数据进行校正,使其精度更高;再根据在预测误差过程中生成的两种高程误差权重图来对两种待融合高程数据进行加权融合,从而弥补了不同的高程数据之间的差异,提高了融合高程数据的精度。
附图说明
图1为本申请一个示例性实施例提供的一种多源高程数据融合的流程图。
图2为本申请一个示例性实施例提供的宽度学习网络的结构图。
图3为本申请一个示例性实施例提供的高程误差预测模型训练步骤的流程图。
图4为本申请一个示例性实施例提供的预处理步骤的流程图。
图5为本申请一个示例性实施例提供的光学高程训练样本获取步骤的流程图。
图6为本申请一个示例性实施例提供的一种多源高程数据融合装置的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参见图1,本申请实施例提供了一种多源高程数据融合方法,该方法应用于高程数据融合设备,以执行主体是高程数据融合设备为例进行说明,该方法包括:
步骤S1,将获取的光学高程数据输入训练好的光学高程误差预测模型,输出得到光学高程误差值和光学高程误差权重图,将获取的雷达高程数据输入训练好的雷达高程误差预测模型,输出得到雷达高程误差值和雷达高程误差权重图。
其中,光学高程数据为通过光学手段星载热发射和反射辐射仪获取的DEM数据,雷达高程数据为雷达影像DEM数据。
步骤S2,根据光学高程误差值对光学高程数据进行校正,得到待融合光学高程数据;根据雷达高程误差值对雷达高程数据进行校正,得到待融合雷达高程数据。
具体地,将光学高程误差值和光学高程数据进行相加,得到待融合光学高程数据;将雷达高程误差值和雷达高程数据进行相加,得到待融合雷达高程数据。
步骤S3,根据光学高程误差权重图和雷达高程误差权重图对待融合光学高程数据和待融合雷达高程数据进行加权融合,得到融合高程数据。
其中,加权融合可以独立地处理每个网格,两种高程误差权重图用于量化输入的两种待融合高程数据在每个网格或表面位置的影响,是一种简单的低计算成本的DEM融合方法。
具体地,设
Figure BDA0004099839450000041
为光学高程误差权重图,/>
Figure BDA0004099839450000042
为雷达高程误差权重图,权重图的性能取决于待融合的高程数据DEM像素内高程误差值分布的权重。一般来说,非空数据集可以被表示为{x1,x2,...,xn},而权重图为非负值,因此权重图中的权重值可以被表示为{w1,w2,...,wn},从而可以得到加权融合的计算公式:
Figure BDA0004099839450000043
其中,
Figure BDA0004099839450000051
为融合后的数据,xi为待融合的数据,由该公式可知,权重越高的点对加权均值的影响越大,该公式也可以简化为标准权重,权重之和为:
Figure BDA0004099839450000052
上述实施例提供的一种多源高程数据融合方法,通过两种训练好的高程误差预测模型分别对两种待融合高程数据进行误差预测,根据预测的两种高程误差值分别对两种待融合高程数据进行校正,使其精度更高;根据在预测误差过程中生成的两种高程误差权重图来对两种待融合高程数据进行加权融合,从而弥补了不同的高程数据之间的差异,提高了融合高程数据的精度。
请参见图2和图3,在一些实施例中,该方法具体还可以包括:
步骤S11,基于深度负相关学习网络分别构建光学预训练模型和雷达预训练模型。
具体地,光学预训练模型和雷达预训练模型都是由深度负相关学习网络和宽度学习网络相结合所构建的稳健性高。泛化能力强的高程预测模型。
步骤S12,对获取到的原始光学高程数据和原始雷达高程数据进行预处理,分别得到光学高程训练样本和雷达高程训练样本。
步骤S13,将光学高程训练样本输入光学预训练模型进行训练,得到训练好的光学高程误差预测模型;将雷达高程训练样本输入雷达预训练模型进行训练,得到训练好的雷达高程误差预测模型。
具体地,基于深度负相关学习网络构建的预训练模型的具体算法原理如下:
假设有N个训练样本(在本申请中为光学高程训练样本或雷达高程训练样本),X={x1,x2,...,xn},样本是M维,其中
Figure BDA0004099839450000053
该预训练模型的目标是预测高程误差值,预测的高程误差值可以表示为Y={y1,y2,...,yN},其中/>
Figure BDA0004099839450000054
用x表示一个通用的数据样本,并用xξ表示,ξ代表必要时该指数的占位。可知,该算法的目标是学习一个映射函数G:X→Y。
深度负相关学习的问题是使用样本集合X来学习映射函数G,参数由θ表示,以尽可能精确地近似它们的真实高程误差值,学习的整个过程可以表示为:
L(G)=∫(G(X,θ)-Y)2p(X,Y)d(X,Y)
在实际情况中,数据分布p(X,Y)是未知的,因此L(G)公式可以近似为
Figure BDA0004099839450000055
下面的描述中省略了输入向量和参数向量,用G代表映射函数G(X,θ)。
在训练学习的过程中,一个单飞模型往往不是最优的,通过考虑平均个体响应Gk来考虑集合输出
Figure BDA0004099839450000061
集合输出/>
Figure BDA0004099839450000062
可以表示为:
Figure BDA0004099839450000063
将映射函数G视作为
Figure BDA0004099839450000064
中定义的Gk的集合,每个Gk可以被表示为:
Figure BDA0004099839450000065
k=1,2…K,i=1,2…N
其中,k,i和Q分别表示单飞模型的指数、训练样本的指数和深度负相关学习网络的深度。具体地,映射函数G的每个Gk都由特征提取器
Figure BDA0004099839450000066
q=1,2...,Q-1和回归器/>
Figure BDA0004099839450000067
级联组成。
即高程数据的误差预测是通过预训练模型中深度负相关学习网络中的映射函数G求得的,而映射函数G由多个Gk组成,每一个Gk中的特征提取器
Figure BDA0004099839450000068
都由一个宽度学习网络来实现,请参见图2,宽度学习网络架构被设计为:
假设输入到该宽度学习网络的特征向量为
Figure BDA0004099839450000069
对于这n个特征向量,可以生成p个增强节点,第i个特征向量投影产生第i个特征节点。
第i个特征节点Zi可以被表示为:
Figure BDA00040998394500000610
其中,i=1,2,...,n,Wei和βei分别代表随机矩阵和偏置。所有特征节点可以表示为Zn≡[Z1,...,Zn]。
Figure BDA00040998394500000611
是一个可选择的非线性激活函数。
同理,第m个增强节点可以表示为:
Hm≡ξ(ZnWmm)
其中m=1,2,...,p。Wm和βm分别代表随机矩阵和偏置。所有增强节点可以被表示为Hm≡[H1,...,Hm]。ξ(·)是一个可选择的非线性激活函数。
将特征节点和增强节点相连接得到的合并矩阵作为该宽度学习网络的实际输入,并假设输出矩阵为Y∈R,Y为预测训练样本的高程误差值,则该网络的输出可以由下式求出:
Y=[Z1,...,Zn|ξ(ZnW11),...,ξ(ZnWmm)]Wm
=[Z1,...,Zn|H1,...,Hm]Wm
=[Zn|Hm]Wm
因此可以简写为Y=[Zn|Hm]Wm,结合公式Wm=(λI+AAT)-1ATY,并根据伪逆岭回归算法A+=lim(λI+AAT)-1AT,其中A+=[Zn|Hm]+,通过以上推导可得出:
Wm=[Zn|Hm]+Y
Wm为连接权值,高程误差权重图由连接权值构成。
图2中,A为神经网络的实际输入的合并矩阵,Z为特征节点,H为增强节点,输出为Y。在训练阶段,Y表示训练样本的标签,即预测的训练样本的高程误差值。W为连接权值矩阵。
光学高程误差权重图和雷达高程误差权重图可以使用对应的预训练模型在训练时得到高程误差权重图。因此,最后的加权融合计算可以表示为:
Figure BDA0004099839450000071
其中,Xfusion为融合高程数据,X光学为待融合光学高程数据,XSAR为待融合雷达高程数据。
对于计算权重图中的权重值{w1,w2,...,wn},可以采用两种策略。
第一个是计算权重作为平方高程误差e的逆比例i:
Figure BDA0004099839450000072
第二个是从归一化残差中计算权重ein:
wi=1-ein
因为深度负相关学习网络和宽度学习网络均为现有技术中的神经网络,其具体的算法、结构和参数均属于本领域技术人员能够根据现有技术获得的,因此本申请不对此过多赘述。
需要说明的是,光学预训练模型和雷达预训练模型均是按照上述步骤进行训练的,两种预训练模型对于输入的训练样本的处理、计算和训练是相同的。
上述实施例通过训练神经网络来预测高程数据的高程误差值,使得本申请在应用训练好的光学高程误差预测模型或雷达高程误差预测模型时,对光学高程误差值或雷达高程误差值的计算更加精准,根据光学高程误差值校正后的待融合光学高程数据和根据雷达高程误差值校正后的待融合雷达高程数据也更加精准,进一步提高了融合高程数据的精度。
请参见图4,在一些实施例中,上述对获取到的原始光学高程数据和原始雷达高程数据进行预处理,分别得到光学高程训练样本和雷达高程训练样本,具体可以包括以下步骤:
步骤S121,统一原始光学高程数据和原始雷达高程数据的坐标系和高程基准,得到标准光学高程数据和标准雷达高程数据。
步骤S122,基于以两步平均滤波为特征的平滑过程对标准光学高程数据进行异常值滤除操作,得到光学高程训练样本;基于以两步平均滤波为特征的平滑过程对标准雷达高程数据进行异常值滤除操作,得到雷达高程训练样本。
上述实施例通过对原始的高程数据进行预处理,统一坐标系和高程基准消除了高程系统本身带给高程数据的系统偏差;异常值的滤除降低了高程数据中噪声的影响,避免了高频噪声污染对模型训练的影响,使得训练过程中预测的高程误差值更加精确。
在一些实施例中,上述统一原始光学高程数据和原始雷达高程数据的坐标系和高程基准,得到标准光学高程数据和标准雷达高程数据,具体可以包括:
获取激光测高系统的初始高程坐标系和高精度控制点的高程值,将高精度控制点的高程值作为原始光学高程数据和原始雷达高程数据的高程基准;根据地理坐标系转换规则将原始光学高程数据和原始雷达高程数据的坐标系转换为初始高程坐标系。
其中,除了采用地理坐标系转换规则外,还可以通过GIS软件(例如,ArcGIS)进行直接转换,以实现不同高程数据的坐标系统一。
将原始光学高程数据中像素的网格间距和原始雷达高程数据中像素的网格间距进行对齐和校正,得到标准光学高程数据和标准雷达高程数据。
因为现有技术的融合方法较少引入高精度矢量数据,在一定程度上限制了融合数据的质量,因此上述实施例以激光测高系统获取的高精度控制点的高程值作为高程基准,实现了对两种原始高程数据的精化处理,使得采用精化处理后的高程数据进行训练得到的高程误差预测模型预测的高程误差值更加精细准确;将两者的网格间距进行对齐和校正,弥补了高程数据中旋转和平移造成的差异;进一步使得校正后融合的高程数据分辨率更高、精度更高。
请参见图5,在一些实施例中,上述基于以两步平均滤波为特征的平滑过程对标准光学高程数据进行异常值滤除操作,得到光学高程训练样本,具体可以包括:
步骤221,提取标准光学高程数据的多个空间特征值及各空间特征值对应的高程误差值。
步骤222,检测各空间特征值对应的高程误差值是否大于预设偏差值,若大于,则将大于预设偏差值的高程误差值对应的空间特征值删除,得到多个无异常空间特征值。
具体地,空间特征值fi j和对应的高程误差值ei可以表示为:
Figure BDA0004099839450000081
其中,fi j是特征j∈{1,2,...,n},ei对应的高程误差值。当高程误差值eξ,ξ=1,2,...,l超过3×NMAD(预设偏差值)时,被检测为异常值,从标准光学高程数据中剔除其对应的空间特征值
Figure BDA0004099839450000091
除了经典的均方根误差(The Classical Root MeanSquare Error,RMSE),归一化中位数绝对偏差(The normalized median absolutedeviation,NMAD)是一种稳健的精度度量,用于减少DEM高程数据中的异常值的影响。上述空间特征值fi j对应高程误差值ei的对应关系可以改写为特征向量的形式,其中包括DEM高程数据中所有像素点的每种特征类型的值:
Figure BDA0004099839450000092
Figure BDA0004099839450000093
然后是采用均值滤波器按二进制应用以生成更平滑的高程误差值。该均值滤波器过滤后的输出具体是:一个特征向量Fj对应一个新的平滑高程误差图
Figure BDA0004099839450000094
因此,对于每个像素,最后获得n个高程误差值。
接下来是再次平滑前一步过滤的结果,最终创建一个唯一高程误差值。
步骤S223,对各无异常空间特征值对应的高程误差值采用均值滤波器进行过滤,重复该步骤直至高程误差值的数量为1,得到唯一高程误差值。
步骤S224,将唯一高程误差值和多个无异常空间特征值作为光学高程训练样本。
上述实施例虽然是以标准光学高程数据作为滤除异常值的示例,但在滤除标准雷达高程数据中的异常值时,也是同样的操作,仅需更换步骤中的数据对象即可。
上述实施例通过过滤掉标准光学高程数据中的异常值,使得光学预训练模型在训练时不会受到高频噪声的影响,使得最终训练好的光学高程误差预测模型计算的光学高程误差值更加准确,进一步使得融合高程数据精度更高。
在一些实施例中,该方法具体还可以包括:
采用定量评价指标中的检查点法对融合高程数据进行精度评定,得到多个精度指标。
其中,对融合高程数据进行精度评定主要是对训练好的光学高程误差预测模型或训练好雷达高程误差预测模型的精度评定,通过对这两个误差预测模型从训练开始到训练好的过程中的数据进行计算,来判断这两个误差预测模型预测能力的好坏,从而确定融合高程数据的精度。
在一些实施例中,上述多个精度指标具体可以包括融合高程数据的均方误差、均方根误差、平均绝对误差和拟合度。还可以包括中误差。
其中,中误差对异常高程敏感,平均绝对误差能更好地反映预测的高程误差值的实际情况。若预测得到的高程误差值中不包含系统误差,则中误差接近于标准差,标准差反映了研究区测试集与DEM高程差值的离散程度。拟合度,即R2分数则是对融合高程数据进行了归一化,从而更容易看出模型的差距,取值范围在0到1之间。
设n表示训练样本的数量、yi表示第i个样本的唯一高程误差值、
Figure BDA0004099839450000101
表示第i个样本预测的高程误差值。数理统计中均方误差是指参数估计值与参数真值之差平方的期望值,记为MSE。MSE是衡量“平均误差”的一种较方便的方法,MSE可以评价数据的变化程度,MSE的值越小,说明误差预测模型预测的高程误差值具有更好的精确度。公式如下所示。
Figure BDA0004099839450000102
均方根误差(RMSE)是回归模型的典型指标,可用于指示误差预测模型在预测中会产生多大的误差,RMSE越小,说明误差预测模型预测的高程误差值更好。
Figure BDA0004099839450000103
平均绝对误差(MAE)用来衡量预测的高程误差值与真实的唯一高程误差值之间的平均绝对误差,MAE越小表示预训练模型越好,其定义如下:
Figure BDA0004099839450000104
拟合度(Goodness of Fit)是指回归直线对观测值的拟合程度。度量拟合度的统计量是可决系数(亦称确定系数)R2。R2衡量的是回归方程整体的拟合度,是表达因变量与所有自变量之间的总体关系。R2等于回归平方和在总平方和中所占的比率,即回归方程所能解释的因变量变异性的百分比。R2公式可以表示为:
Figure BDA0004099839450000105
其中,
Figure BDA0004099839450000106
表示多个训练样本对应的真实的唯一高程误差值的平均值。
上述实施例中提供的精度评定方法,通过计算两个训练好的误差预测模型在训练阶段的训练数据来评定误差预测模型的预测能力,即预测的高程误差值的精确度;由此可知预测的高程误差值精确度越高,校正后的待融合光学高程数据或待融合雷达高程数据精度就越高,从而确定融合高程数据的精度就更高。
请参见图6,本申请的另一实施例提供的一种多源高程数据融合装置,应用于高程数据融合设备,该装置具体可以包括:
预测模块101,用于将获取的光学高程数据输入训练好的光学高程误差预测模型,输出得到光学高程误差值和光学高程误差权重图,以及将获取的雷达高程数据输入训练好的雷达高程误差预测模型,输出得到雷达高程误差值和雷达高程误差权重图。
校正模块102,用于根据光学高程误差值对光学高程数据进行校正,得到待融合光学高程数据;根据雷达高程误差值对雷达高程数据进行校正,得到待融合雷达高程数据。
融合模块103,用于根据光学高程误差权重图和雷达高程误差权重图对待融合光学高程数据和待融合雷达高程数据进行加权融合,得到融合高程数据。
上述实施例一种多源高程数据融合装置,通过两种训练好的高程误差预测模型分别对两种待融合高程数据进行误差预测,根据预测的两种高程误差值分别对两种待融合高程数据进行校正,使其精度更高;根据在预测误差过程中生成的两种高程误差权重图来对两种待融合高程数据进行加权融合,从而弥补了不同的高程数据之间的差异,提高了融合高程数据的精度。
本实施例中提供的关于一种多源高程数据融合装置的具体限定,可以参见上文中关于一种多源高程数据融合方法的实施例,于此不再赘述。上述一种多源高程数据融合装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本申请实施例提供了一种计算机设备,该计算机设备可以包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。处计算机程序被处理器执行时,使得处理器执行如上述任一实施例的一种多源高程数据融合方法的步骤。
本实施例提供的计算机设备的工作过程、工作细节和技术效果,可以参见上文中关于一种多源高程数据融合方法的实施例,于此不再赘述。
本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现如上述任一实施例的一种多源高程数据融合方法的步骤。其中,所述计算机可读存储介质是指存储数据的载体,可以但不限于包括软盘、光盘、硬盘、闪存、优盘和/或记忆棒(Memory Stick)等,所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。
本实施例提供的计算机可读存储介质的工作过程、工作细节和技术效果,可以参见上文中关于一种多源高程数据融合方法的实施例,于此不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种多源高程数据融合方法,其特征在于,所述方法包括:
将获取的光学高程数据输入训练好的光学高程误差预测模型,输出得到光学高程误差值和光学高程误差权重图,将获取的雷达高程数据输入训练好的雷达高程误差预测模型,输出得到雷达高程误差值和雷达高程误差权重图;
根据所述光学高程误差值对所述光学高程数据进行校正,得到待融合光学高程数据;根据所述雷达高程误差值对所述雷达高程数据进行校正,得到待融合雷达高程数据;
根据所述光学高程误差权重图和所述雷达高程误差权重图对所述待融合光学高程数据和所述待融合雷达高程数据进行加权融合,得到融合高程数据。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于深度负相关学习网络分别构建光学预训练模型和雷达预训练模型;
对获取到的原始光学高程数据和原始雷达高程数据进行预处理,分别得到光学高程训练样本和雷达高程训练样本;
将所述光学高程训练样本输入所述光学预训练模型进行训练,得到所述训练好的光学高程误差预测模型;将所述雷达高程训练样本输入所述雷达预训练模型进行训练,得到所述训练好的雷达高程误差预测模型。
3.根据权利要求2所述的方法,其特征在于,所述对获取到的原始光学高程数据和原始雷达高程数据进行预处理,分别得到光学高程训练样本和雷达高程训练样本,包括:
统一所述原始光学高程数据和所述原始雷达高程数据的坐标系和高程基准,得到标准光学高程数据和标准雷达高程数据;
基于以两步平均滤波为特征的平滑过程对所述标准光学高程数据进行异常值滤除操作,得到所述光学高程训练样本;基于所述以两步平均滤波为特征的平滑过程对所述标准雷达高程数据进行所述异常值滤除操作,得到所述雷达高程训练样本。
4.根据权利要求3所述的方法,其特征在于,所述统一所述原始光学高程数据和所述原始雷达高程数据的坐标系和高程基准,得到标准光学高程数据和标准雷达高程数据,包括:
获取激光测高系统的初始高程坐标系和高精度控制点的高程值,将所述高精度控制点的高程值作为所述原始光学高程数据和所述原始雷达高程数据的所述高程基准;
根据地理坐标系转换规则将所述原始光学高程数据和所述原始雷达高程数据的所述坐标系转换为所述初始高程坐标系;
将所述原始光学高程数据中像素的网格间距和所述原始雷达高程数据中像素的所述网格间距进行对齐和校正,得到所述标准光学高程数据和所述标准雷达高程数据。
5.根据权利要求3所述的方法,其特征在于,所述基于以两步平均滤波为特征的平滑过程对所述标准光学高程数据进行异常值滤除操作,得到所述光学高程训练样本,包括:
提取所述标准光学高程数据的多个空间特征值及各所述空间特征值对应的高程误差值;
检测各空间特征值对应的所述高程误差值是否大于预设偏差值,若大于,则将大于所述预设偏差值的所述高程误差值对应的所述空间特征值删除,得到多个无异常空间特征值;
对各所述无异常空间特征值对应的所述高程误差值采用均值滤波器进行过滤,重复该步骤直至所述高程误差值的数量为1,得到唯一高程误差值;
将所述唯一高程误差值和多个所述无异常空间特征值作为所述光学高程训练样本。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述方法还包括:
采用定量评价指标中的检查点法对所述融合高程数据进行精度评定,得到多个精度指标。
7.根据权利要求6所述的方法,其特征在于,所述多个精度指标包括所述融合高程数据的均方误差、均方根误差、平均绝对误差和拟合度。
8.一种多源高程数据融合装置,其特征在于,应用于高程数据融合设备,所述装置包括:
预测模块,用于将获取的光学高程数据输入训练好的光学高程误差预测模型,输出得到光学高程误差值和光学高程误差权重图,以及将获取的雷达高程数据输入训练好的雷达高程误差预测模型,输出得到雷达高程误差值和雷达高程误差权重图;
校正模块,用于根据所述光学高程误差值对所述光学高程数据进行校正,得到待融合光学高程数据;根据所述雷达高程误差值对所述雷达高程数据进行校正,得到待融合雷达高程数据;
融合模块,用于根据所述光学高程误差权重图和所述雷达高程误差权重图对所述待融合光学高程数据和所述待融合雷达高程数据进行加权融合,得到融合高程数据。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
CN202310173001.5A 2023-02-24 2023-02-24 一种多源高程数据融合方法、装置、计算机设备及介质 Active CN116244662B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310173001.5A CN116244662B (zh) 2023-02-24 2023-02-24 一种多源高程数据融合方法、装置、计算机设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310173001.5A CN116244662B (zh) 2023-02-24 2023-02-24 一种多源高程数据融合方法、装置、计算机设备及介质

Publications (2)

Publication Number Publication Date
CN116244662A true CN116244662A (zh) 2023-06-09
CN116244662B CN116244662B (zh) 2023-11-03

Family

ID=86634601

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310173001.5A Active CN116244662B (zh) 2023-02-24 2023-02-24 一种多源高程数据融合方法、装置、计算机设备及介质

Country Status (1)

Country Link
CN (1) CN116244662B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117368881A (zh) * 2023-12-08 2024-01-09 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种融合多源数据的长序列雷达图像预测方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111142119A (zh) * 2020-01-10 2020-05-12 中国地质大学(北京) 一种基于多源遥感数据的矿山地质灾害动态识别与监测方法
CN111476822A (zh) * 2020-04-08 2020-07-31 浙江大学 一种基于场景流的激光雷达目标检测与运动跟踪方法
CN112099006A (zh) * 2020-09-15 2020-12-18 中山大学 一种合成孔径雷达相对定位误差校正方法、系统及装置
CN112505686A (zh) * 2020-10-30 2021-03-16 中国科学院空天信息创新研究院 高程误差估计方法、装置、电子设备及存储介质
CN113255504A (zh) * 2021-05-19 2021-08-13 燕山大学 一种基于深度学习的路侧视角超视距全域融合感知系统
WO2022140836A1 (en) * 2020-12-30 2022-07-07 First Resource Management Group Inc. Method and system for producing a digital terrain model
CN115205680A (zh) * 2022-07-14 2022-10-18 中国人民解放军国防科技大学 基于显著性迁移的雷达目标sar图像联合检测识别方法
CN115346128A (zh) * 2022-06-29 2022-11-15 长江空间信息技术工程有限公司(武汉) 一种光学立体卫星dem高程改正和融合方法
CN115358311A (zh) * 2022-08-16 2022-11-18 南昌大学 地表变形监测多源数据融合处理方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111142119A (zh) * 2020-01-10 2020-05-12 中国地质大学(北京) 一种基于多源遥感数据的矿山地质灾害动态识别与监测方法
CN111476822A (zh) * 2020-04-08 2020-07-31 浙江大学 一种基于场景流的激光雷达目标检测与运动跟踪方法
CN112099006A (zh) * 2020-09-15 2020-12-18 中山大学 一种合成孔径雷达相对定位误差校正方法、系统及装置
CN112505686A (zh) * 2020-10-30 2021-03-16 中国科学院空天信息创新研究院 高程误差估计方法、装置、电子设备及存储介质
WO2022140836A1 (en) * 2020-12-30 2022-07-07 First Resource Management Group Inc. Method and system for producing a digital terrain model
CN113255504A (zh) * 2021-05-19 2021-08-13 燕山大学 一种基于深度学习的路侧视角超视距全域融合感知系统
CN115346128A (zh) * 2022-06-29 2022-11-15 长江空间信息技术工程有限公司(武汉) 一种光学立体卫星dem高程改正和融合方法
CN115205680A (zh) * 2022-07-14 2022-10-18 中国人民解放军国防科技大学 基于显著性迁移的雷达目标sar图像联合检测识别方法
CN115358311A (zh) * 2022-08-16 2022-11-18 南昌大学 地表变形监测多源数据融合处理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王炎;田雨;: "基于海图和ASTER GDEM数据融合的水陆一体连续地形构建", 中国港湾建设, no. 03 *
韩松涛;向茂生;: "一种基于特征点权重的机载InSAR系统区域网干涉参数定标方法", 电子与信息学报, no. 05 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117368881A (zh) * 2023-12-08 2024-01-09 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种融合多源数据的长序列雷达图像预测方法及系统
CN117368881B (zh) * 2023-12-08 2024-03-26 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种融合多源数据的长序列雷达图像预测方法及系统

Also Published As

Publication number Publication date
CN116244662B (zh) 2023-11-03

Similar Documents

Publication Publication Date Title
CN110738252A (zh) 空间自相关的机器学习卫星降水数据降尺度方法、系统
CN103383249B (zh) 灰度条纹投影光强非线性校正方法及基于该方法的相位校正方法
CN116244662B (zh) 一种多源高程数据融合方法、装置、计算机设备及介质
KR101898629B1 (ko) H-Infinity 필터를 이용한 기상 예측값 보정 방법 및 이를 이용한 기상 예측값 보정 장치
CN113267258B (zh) 红外测温方法、装置、设备、智能巡检机器人及存储介质
JP5977272B2 (ja) 日射強度推定装置、日射強度推定システム及び日射強度推定方法
CN115859805A (zh) 基于混合加点准则的自适应序贯试验设计方法和装置
KR20170134830A (ko) 혼합분포형을 이용한 지구 기후 모델의 극치 강수자료의 오차 보정방법
CN113077384B (zh) 一种数据空间分辨率提高方法、装置、介质及终端设备
CN116299247B (zh) 一种基于稀疏卷积神经网络的InSAR大气校正方法
CN114332215A (zh) 多传感标定方法、装置、计算机设备和存储介质
CN109084899B (zh) 一种红外焦平面探测器非均匀性本体输出校正方法及装置
Liu et al. Wind pressure field reconstruction based on unbiased conditional kernel density estimation
CN111915570A (zh) 基于反向传播神经网络的大气延迟估计方法
CN110852415A (zh) 基于神经网络算法的植被指数预测方法、系统及设备
CN114757096B (zh) 基于narx神经网络的桥梁温度预测方法、装置、设备和介质
CN115438590A (zh) 一种基于bp神经网络的降水预报订正方法及系统
CN113344846B (zh) 基于生成对抗网络和压缩感知的遥感图像融合方法及系统
CN115391745A (zh) 一种基于概率匹配平均法的降水预报订正方法及系统
CN113868967A (zh) 结构监测数据预测方法、装置及存储介质
CN114063024A (zh) 传感器的标定方法、装置、电子设备和存储介质
CN111488701A (zh) 一种基于点扩散函数的计算机辅助装调方法、装置及设备
CN113177702B (zh) 一种气象输入数据匹配方法及系统
CN116049768B (zh) 基于广义线性回归模型的主被动微波土壤水分融合算法
Wang et al. A novel hybrid optimized incremental relevance vector machine and filtering technique for state of charge estimation of lithium-ion batteries

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant