CN117765172B - 一种遥感图像三维重建的方法及装置 - Google Patents

一种遥感图像三维重建的方法及装置 Download PDF

Info

Publication number
CN117765172B
CN117765172B CN202311708261.4A CN202311708261A CN117765172B CN 117765172 B CN117765172 B CN 117765172B CN 202311708261 A CN202311708261 A CN 202311708261A CN 117765172 B CN117765172 B CN 117765172B
Authority
CN
China
Prior art keywords
target point
point
pixel
remote sensing
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311708261.4A
Other languages
English (en)
Other versions
CN117765172A (zh
Inventor
汪婷
谢安桓
叶敏翔
项森伟
孟森森
汪雯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202311708261.4A priority Critical patent/CN117765172B/zh
Publication of CN117765172A publication Critical patent/CN117765172A/zh
Application granted granted Critical
Publication of CN117765172B publication Critical patent/CN117765172B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Image Analysis (AREA)

Abstract

本说明书公开了一种遥感图像三维重建的方法及装置,根据指定观测方向针对各遥感图像包含的各像素确定多个目标点,将各遥感图像分别对应的太阳光方向、图像嵌入向量,以及各目标点的三维坐标作为输入,输入到神经辐射场模型,得到各目标点分别对应的属性信息,根据各目标点分别对应的属性信息,确定各像素点的像素颜色和深度,根据各像素点的像素颜色和深度,生成目标场景对应的数字表面模型以及指定观测方向下的视图合成结果。可见,通过上述方案,充分考虑场景光源以及几何结构的影响,准确描述在不同时间下、不同位置处的目标点的属性信息,从而提升每个像素点的颜色准确性,进而提升数字表面模型以及指定观测方向下视图合成结果的准确性。

Description

一种遥感图像三维重建的方法及装置
技术领域
本说明书涉及计算机技术领域,尤其涉及一种遥感图像三维重建的方法及装置。
背景技术
随着卫星技术的不断进步,许多对地观测卫星有能力以高频的重访周期和亚米级的高分辨率捕获同一地区的真实地表图像,如Worldview3和Pleiades,这为研究地形演变和人类活动提供了大量宝贵的信息,也为我们通过多视角的遥感卫星图像重建地表地形提供了必要的条件。目前,使用多视角卫星图像对地表大型场景进行三维重建在各个领域变得越来越重要,如城市规划、环境监测、自然灾害预防和领土防御等。三维重建的主要目标是通过多视角图像估计地表的起伏地形,从而生成稠密的三维点云图或数字表面模型(Digital Surface Model,DSM)。
目前,可以基于多视角的遥感图像构建图像对,通过双视图立体视觉方法对每一对图像进行三维重建,之后,融合每对的重建结果以生成最终的重建结果。
但是,上述方案很大程度上依赖于对立体图像对的精心选择,不合适的图像配对会大幅降低三维重建的准确性。同时,在使用双视图立体视觉方法进行三维重建时,需要对两张图像中的关键点进行匹配,但是由于不同卫星图像通常具有较大的时间间隔,导致在季节、天气、照明条件和场景物体等方面存在较大差异,这常常会导致匹配错误,进而影响重建的准确性。
发明内容
本说明书提供一种遥感图像三维重建的方法及装置,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种遥感图像三维重建的方法,包括:
获取目标场景对应的各遥感图像,所述各遥感图像分别对应的采集视角和采集时间互不相同;
确定指定观测方向,并根据所述指定观测方向,针对所述各遥感图像包含的各像素,生成各相机射线,并在所述各相机射线上采样多个目标点;
获取所述各遥感图像分别对应的太阳光方向,以及所述各遥感图像分别对应的图像嵌入向量;
将所述各遥感图像分别对应的太阳光方向、所述各遥感图像分别对应的图像嵌入向量,以及各目标点的三维坐标作为输入,输入到预先训练的神经辐射场模型,得到所述各目标点分别对应的属性信息,所述属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度;
根据所述各目标点分别对应的属性信息,确定各像素点的像素颜色和深度;
根据所述各像素点的像素颜色和深度,生成所述目标场景对应的数字表面模型以及所述指定观测方向下的视图合成结果。
可选地,所述将所述各遥感图像分别对应的太阳光方向、所述各遥感图像分别对应的图像嵌入向量,以及各目标点的三维坐标作为输入,输入到预先训练的神经辐射场模型,得到所述各目标点分别对应的属性信息,具体包括:
将各目标点的三维坐标进行位置编码,得到位置编码后的各三维坐标;
将所述位置编码后的各三维坐标输入所述预先训练的神经辐射场模型包含的第一子模型,得到所述第一子模型输出的第一中间结果;
将所述第一中间结果与所述位置编码后的各三维坐标作为输入,输入所述神经辐射场模型包含的第二子模型,得到所述第二子模型输出的第二中间结果;
根据所述第二中间结果确定所述各目标点分别对应的体积密度,以及所述各目标点分别对应的表面法向量;
将所述第二中间结果输入到所述神经辐射场模型包含的第三子模型,得到融合特征;
将所述融合特征输入所述神经辐射场模型包含的第四子模型,得到所述各目标点分别对应的反射率;
将所述融合特征和所述各遥感图像分别对应的图像嵌入向量作为输入,输入到所述神经辐射场模型包含的第五子模型,得到所述各目标点分别对应的不确定度;
将所述各遥感图像分别对应的太阳光方向进行位置编码,得到位置编码后的太阳光方向,并将所述位置编码后的太阳光方向输入所述神经辐射场模型包含的第六子模型,得到所述各目标点的天空光强度;
将所述融合特征和所述位置编码后的太阳光方向输入所述神经辐射场模型包含的第七子模型,得到所述各目标点的太阳光能见度。
可选地,根据所述各目标点分别对应的属性信息,确定各像素点的像素颜色和深度,具体包括:
根据所述各目标点分别对应的属性信息,以及预先构建的入射光模型,确定所述各目标点分别对应的入射光强度;
根据所述各目标点分别对应的入射光强度、所述各目标点分别对应的反射率,以及预先构建的渲染方程,确定各像素点的像素颜色和深度。
可选地,所述预先构建的入射光模型用于表征太阳光发射的光谱强度与在所述各目标点上分别入射的太阳光所对应的入射光强度之间的关系;
所述根据所述各目标点分别对应的属性信息,以及预先构建的入射光模型,确定所述各目标点分别对应的入射光强度,具体包括:
根据所述太阳光方向,确定所述太阳光方向在指定方向上的指定分量;
根据所述太阳光方向在指定方向上的指定分量,确定太阳光发射的光谱强度;
将所述太阳光发射的光谱强度、所述各目标点分别对应的表面法向量、所述各目标点分别对应的太阳光能见度、所述各目标点分别对应的天空光强度,以及所述太阳光方向作为输入,输入到所述入射光模型,得到所述各目标点分别对应的入射光强度。
可选地,所述预先构建的渲染方程用于表征各像素点的像素颜色和深度,分别与所述各目标点分别对应的入射光强度和所述各目标点分别对应的反射率之间的关系;
所述根据所述各目标点分别对应的入射光强度、所述各目标点分别对应的反射率,以及预先构建的渲染方程,确定各像素点的像素颜色和深度,具体包括:
根据所述各目标点之间的距离、所述各目标点分别对应的体积密度,确定所述各目标点被遮挡的概率;
根据所述各目标点分别对应的入射光强度,和所述各目标点分别对应的反射率,确定所述各目标点反射的颜色;
根据所述各目标点反射的颜色、所述各目标点被遮挡的概率,以及所述预先构建的渲染方程,确定各像素点的像素颜色;
根据所述各目标点被遮挡的概率、所述各目标点分别对应的光线的长度,以及所述预先构建的渲染方程,确定所述各像素点的深度。
可选地,预先训练神经辐射场模型,具体包括:
获取目标场景对应的各参考图像;
针对所述各参考图像包含的各像素,生成各参考射线,并在所述各参考射线上采样多个参考点;
获取所述各参考图像分别对应的太阳光方向,以及所述各参考图像分别对应的图像嵌入向量;
将所述各参考图像分别对应的太阳光方向、所述各参考图像分别对应的图像嵌入向量,以及各参考点的三维坐标作为输入,输入到待训练的神经辐射场模型,得到所述各参考点分别对应的属性信息,所述属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度;
根据所述各参考点分别对应的属性信息,确定各参考像素点的预测像素颜色;
根据所述各参考像素点的预测像素颜色和所述各参考图像包含的各像素的参考颜色,训练所述神经辐射场模型。
可选地,所述根据所述各参考像素点的预测像素颜色和所述各参考图像包含的各像素的参考颜色,训练所述神经辐射场模型,具体包括:
根据所述各参考像素点的预测像素颜色和所述各参考图像包含的各像素的参考颜色之间的差异,确定第一损失;
根据所述各参考点分别对应的体积密度,确定体积密度的负梯度,作为法向量的参考值,并根据所述各参考点的表面法向量和所述法向量的参考值之间的差异,确定第二损失;
根据所述各参考点之间的距离、所述各参考点分别对应的体积密度,确定所述各参考点被遮挡的概率;
根据所述各参考点分别对应的太阳光能见度、所述各参考点被遮挡的概率,以及所述各参考图像分别对应的太阳光方向,确定第三损失;
根据所述第一损失、所述第二损失和所述第三损失确定总损失;
以所述总损失的最小化为优化目标,训练所述神经辐射场模型。
本说明书提供了一种遥感图像三维重建的装置,包括:
第一获取模块,用于获取目标场景对应的各遥感图像,所述各遥感图像分别对应的采集视角和采集时间互不相同;
目标点确定模块,用于确定指定观测方向,并根据所述指定观测方向,针对所述各遥感图像包含的各像素,生成各相机射线,并在所述各相机射线上采样多个目标点;
第二获取模块,用于获取所述各遥感图像分别对应的太阳光方向,以及所述各遥感图像分别对应的图像嵌入向量;
属性信息确定模块,用于将所述各遥感图像分别对应的太阳光方向、所述各遥感图像分别对应的图像嵌入向量,以及各目标点的三维坐标作为输入,输入到预先训练的神经辐射场模型,得到所述各目标点分别对应的属性信息,所述属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度;
像素颜色确定模块,用于根据所述各目标点分别对应的属性信息,确定各像素点的像素颜色和深度;
生成模块,用于根据所述各像素点的像素颜色和深度,生成所述目标场景对应的数字表面模型以及所述指定观测方向下的视图合成结果。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述遥感图像三维重建的方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述遥感图像三维重建的方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
本说明书提供的遥感图像三维重建的方法中,根据指定观测方向针对各遥感图像包含的各像素确定多个目标点,将各遥感图像分别对应的太阳光方向、图像嵌入向量,以及各目标点的三维坐标作为输入,输入到神经辐射场模型,得到各目标点分别对应的属性信息,其中,属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度,根据各目标点分别对应的属性信息,确定各像素点的像素颜色和深度,根据各像素点的像素颜色和深度,生成目标场景对应的数字表面模型以及所述指定观测方向下的视图合成结果。可见,通过上述方案,充分考虑场景光源以及几何结构的影响,准确描述在不同时间下、不同位置处的目标点的属性信息,从而提升每个像素点的颜色准确性,进而提升数字表面模型以及所述指定观测方向下的视图合成结果的准确性。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附
图中:
图1为本说明书中一种遥感图像三维重建的方法的流程示意图;
图2为本说明书中一种神经辐射场模型的示意图;
图3为本说明书中一种遥感图像三维重建的方法的流程示意图;
图4为本说明书中一种遥感图像三维重建的示意图;
图5为本说明书中一种遥感图像三维重建的方法的流程示意图;
图6为本说明书中一种遥感图像三维重建的示意图;
图7为本说明书提供的一种遥感图像三维重建的装置的示意图;
图8为本说明书提供的对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
另外,需要说明的是,本说明书中所有获取信号、信息或数据的动作都是在遵照所在地相应的数据保护法规政策的前提下,并获得由相应装置所有者给予授权的情况下进行的。
需要说明的是,在不冲突的情况下,下述的实施例及实施方式中的特征可以相互组合。
随着卫星技术的不断进步,许多对地观测卫星有能力以高频的重访周期和亚米级的高分辨率捕获同一地区的真实地表图像,如Worldview3和Pleiades,这为我们研究地形演变和人类活动提供了大量宝贵的信息,也为我们通过多视角的遥感卫星图像重建地表地形提供了必要的条件。目前,使用多视角卫星图像对地表大型场景进行三维重建在各个领域变得越来越重要,如城市规划、环境监测、自然灾害预防和领土防御等。三维重建的主要目标是通过多视角图像估计地表的起伏地形,从而生成稠密的三维点云图或DSM。
传统方法主要采用多视图立体视觉方法来进行遥感图像的三维重建,该方法一般包括三个关键步骤:
1)将多视角图像按照两两配对的方式进行分组。
2)通过双视图立体视觉方法对每一对图像进行三维重建。
3)融合每对的重建结果以生成最终的重建结果。
尽管上述方案在实践中被证明是有效的,但它们在很大程度上依赖于对立体图像对的精心选择,不合适的图像配对会大幅降低三维重建的准确性。同时,在使用双视图立体视觉方法进行三维重建时,需要对两张图像中的关键点进行匹配,但是由于不同卫星图像通常具有较大的时间间隔,导致在季节、天气、照明条件和场景物体等方面存在较大差异,这常常会导致匹配错误,进而影响重建的准确性。
基于此,本说明书提供一种遥感图像三维重建的方法,充分考虑场景光源以及几何结构的影响,准确描述在不同时间下、不同位置处的目标点的属性信息,从而提升每个目标点的颜色准确性,进而提升数字表面模型的准确性。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书提供的一种遥感图像三维重建的方法的流程示意图。
S100:获取目标场景对应的各遥感图像,所述各遥感图像分别对应的采集视角和采集时间互不相同。
本说明书实施例中提供的一种遥感图像三维重建的方法,该方法的执行过程可由用于基于遥感图像进行三维重建的服务器等电子设备执行。另外,在执行该方法的过程中,所涉及到的训练完成的神经辐射场模型,执行神经辐射场模型的模型训练的电子设备和执行该遥感图像三维重建的方法的电子设备可以相同也可以不同,本说明书对此不做限定。
本说明书中,可以采用遥感图像采集设备(光学遥感卫星、旋翼无人机平台、对地观测卫星等),在不同时间、以不同的视角,采集目标场景的多个遥感图像。其中,目标场景指的是某一地区,具体是何种地区,以及目标场景所涵盖的范围的大小,本说明书对此不做限定。
遥感图像可以提供多种信息,包括地形、植被、土地利用、水资源、大气状况等。可以帮助用户了解和监测地球的自然资源、环境变化和人类活动。
根据获取遥感图像的波段范围,可以将其分为不同类型,如可见光图像、红外图像、雷达图像等,本说明书对遥感图像的类型不做限定。
另外,遥感图像对应的采集视角可分为俯仰角度和方位角度,本说明书对采集视角的具体角度和采集视角的数量均不做限定。
S102:确定指定观测方向,并根据所述指定观测方向,针对所述各遥感图像包含的各像素,生成各相机射线,并在所述各相机射线上采样多个目标点。
在本说明书提供的遥感图像三维重建的方法中,目标场景的数字表面模型的准确度的提升,依赖于准确描述在不同时间下、不同位置处的目标点的属性信息。由此,需要首先基于采样得到在不同时间下、不同位置出的各目标点,目标点为目标场景中的三维点。
由于遥感图像包含的各个像素在成像时是基于目标场景中的物体对相机射线的反射得到的,因此,可基于指定观测方向和遥感图像包含的各像素首先得到各相机射线,之后,在各个相机射线上进行采样,得到目标场景中的多个目标点。
S104:获取所述各遥感图像分别对应的太阳光方向,以及所述各遥感图像分别对应的图像嵌入向量。
本说明书所采用的遥感图像是二维图像,可以采用针对二维自然图像进行特征提取的机器学习模型,得到各遥感图像分别对应的图像嵌入向量,以获得每个遥感图像所包含的图像特征。
实际应用中,目前的基于遥感图像的三维重建方法中,得到的数字表面模型准确度低的问题在于,遥感图像在采集时,由于几何遮挡和表面朝向等因素的影响,每个遥感图像所包含的光照实际上是不同的,需要对目标场景中不同方位的光照进行建模,并且,遥感图像中的阴影会随着太阳光方向的变化而变化,单纯使用神经辐射场模型对阴影进行预测,缺乏对阴影的几何约束,会造成神经辐射场模型在从未见过的太阳光方向上出现不真实的现象。
基于上述问题,在此步骤中,针对每个遥感图像,获取该遥感图像对应的太阳光方向,太阳光方向是指遥感图像中地面物体所受到的太阳光照射方向。获取太阳光方向的方式可以是基于遥感图像的采集时间和采集地点计算得到,也可以是基于人工标记的方法得到,本说明书对太阳光方向的获取方式不做限定。
S106:将所述各遥感图像分别对应的太阳光方向、所述各遥感图像分别对应的图像嵌入向量,以及各目标点的三维坐标作为输入,输入到预先训练的神经辐射场模型,得到所述各目标点分别对应的属性信息,所述属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度。
本说明书中,采用多层感知机(Multilayer Perceptron,MLP)网络构建神经辐射场模型,该神经辐射场模型的输入是前述S102采样得到的各目标点的三维坐标X=(x,y,z)、S104得到的太阳光方向w=(wx,wy,wz),以及各遥感图像对应的图像嵌入向量tj,输出则是每个目标点的属性信息,其中,属性信息包括体积密度σ、反射率a=(ar,ag,ab)、表面法向量n=(nx,ny,nz)、不确定度β、太阳光能见度s以及天空光强度lsky=(lr,lg,lb)。
可以通过下式表示为:
本说明书对采用MLP网络如何构建神经辐射场模型不做限定。
神经辐射场模型的训练过程可以如下:在训练集上训练神经辐射场模型。首先通过RPC相机模型对训练集包含的各参考图像(通过遥感图像采集设备采集得到)的每个像素,生成相机射线,在每次迭代训练中随机采样若干条相机射线,同时,生成每条相机射线对应的太阳光线。在相机射线和太阳光线上分别分层采样若干个三维的参考点。将位置编码后的参考点的三维坐标和用于表征太阳光方向的向量输入待训练的神经辐射场模型,得到神经辐射场模型输出的每个参考点对应的体积密度、反照率、法向量以及天空光强度;最后通过体积渲染方程获取每条射线渲染的颜色值,计算颜色损失,从而进行模型优化。之后,在迭代结束时,选择在验证集上评价指标最好的神经辐射场模型,并保存以应用。
S108:根据所述各目标点分别对应的属性信息,确定各像素点的像素颜色和深度。
基于S106通过神经辐射场模型得到的各目标点分别对应的属性信息,可采用太阳光方向和属性信息中的表面法向量和太阳光能见度,确定各目标点分别对应的入射光强度,该入射光强度表征了不同遥感图像在不同时刻不同角度下采集时,目标场景中不同位置的目标点的入射光的光强。在实际应用中,影响对地观测场景下目标点的入射光强度的因素可以是直射光的强度、几何遮挡和间接光的强度。其中,直射光主要是指来自特定方向的太阳光,可以用太阳光方向和表面法向量来建模,几何遮挡可以采用太阳光能见度确定,而间接光的强度一般对应于天空光强度。因为,可以通过各目标点分别对应的表面法向量、各目标点分别对应的太阳光能见度、各目标点分别对应的天空光强度以及太阳光方向,确定每个目标点对应的入射光强度,进而基于现有的经典体积渲染原理,结合入射光强度、和前述得到的每个目标点对应的反射率,确定场景中每个粒子反射的颜色,进而得到每个像素点对应的像素颜色。而每个像素点对应的深度则可以基于每条相机射线的长度情况确定。
S110:根据所述各像素点的像素颜色和深度,生成所述目标场景对应的数字表面模型以及所述指定观测方向下的视图合成结果。
确定了每个像素点的像素颜色以及深度,即可基于每个像素点的深度,确定目标场景中地表建筑物、桥梁、数目等物体的高度,并且,结合每个像素点的像素颜色,即可建模得到包含有目标场景中各种物体的高度和颜色的数字表面模型,从而,无需LiDAR系统实际测量,即可得到目标场景中的DSM。
另外,基于各像素点的像素颜色和深度还可以合成得到在指定观测方向下的新视图作为视图合成结果,如指定观测方向下的渲染图像。当然,还可以将各个中间变量进行可视化,得到用于表征目标场景中各点的反照率的图像、用于表示目标场景表面朝向的图像、用于描述目标场景总各点的阴影情况的太阳光可见度图像,以及用于描述目标场景的环境光查明的天空光颜色图像。
本说明提供的遥感图像三维重建的方法中,根据指定观测方向针对各遥感图像包含的各像素确定多个目标点,将各遥感图像分别对应的太阳光方向、图像嵌入向量,以及各目标点的三维坐标作为输入,输入到神经辐射场模型,得到各目标点分别对应的属性信息,其中,属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度,根据各目标点分别对应的属性信息,确定各像素点的像素颜色和深度,根据各像素点的像素颜色和深度,生成目标场景对应的数字表面模型以及指定观测方向下的视图合成结果。
可见,通过上述方案,充分考虑场景光源以及几何结构的影响,准确描述在不同时间下、不同位置处的目标点的属性信息,从而提升每个像素点的颜色准确性,从而提升数字表面模型以及指定观测方向下的视图合成结果的准确性。
在本说明书一个或多个实施例中,神经辐射场模型可以由多个MLP构成,由于神经辐射场模型实际上是多任务模型,神经辐射场的模型结构可如图2所示,基于图2所示的神经辐射场模型,S106具体可通过下述方案实现:
第一步:将各目标点的三维坐标进行位置编码,得到位置编码后的各三维坐标。
第二步:将所述位置编码后的各三维坐标输入所述预先训练的神经辐射场模型包含的第一子模型,得到所述第一子模型输出的第一中间结果。
如图2所示,位置编码后的各三维坐标通过第一子模型得到第一中间结果,该第一中间结果包含了各目标点的位置特征。
第三步:将所述第一中间结果与所述位置编码后的各三维坐标作为输入,输入所述神经辐射场模型包含的第二子模型,得到所述第二子模型输出的第二中间结果,并根据所述第二中间结果确定所述各目标点分别对应的体积密度,以及所述各目标点分别对应的表面法向量。
之后,可以将位置编码后的各三维坐标再次输入到神经辐射场模型,所采用的方法为将第一中间结果和位置编码后的各三维坐标进行融合,将融合结果输入到神经辐射场的第二子模型中。将位置编码后的各三维坐标再次输入到神经辐射场模型的目的是,避免经过多层的MLP编码后,丧失各目标点的位置信息中所表征的部分原始的特征。从而提高第二子模型输出的第二中间结果在确定各目标点分别对应的体积密度的准确度。
进一步的,根据第二中间结果可确定各目标点分别对应的体积密度,之后通过对各目标点分别对应的体积密度进行求导,得到各目标点分别对应的表面法向量。
第四步:将所述第二中间结果入到所述神经辐射场模型包含的第三子模型,得到融合特征。
同时,通过第三子模型对第二中间结果进行编码,得到融合特征,该融合特征中包含了编码程度不同的各目标点的位置特征,提高了融合特征的特征维度和特征丰富度。
第六步:将所述融合特征输入所述神经辐射场模型包含的第四子模型,得到所述各目标点分别对应的反射率。
第七步:将所述融合特征和所述各遥感图像分别对应的图像嵌入向量作为输入,输入到所述神经辐射场模型包含的第五子模型,得到所述各目标点分别对应的不确定度。
第八步:将所述各遥感图像分别对应的太阳光方向进行位置编码,得到位置编码后的太阳光方向,并将所述位置编码后的太阳光方向输入所述神经辐射场模型包含的第六子模型,得到所述各目标点的天空光强度。
第九步:将所述融合特征和所述位置编码后的太阳光方向输入所述神经辐射场模型包含的第七子模型,得到所述各目标点的太阳光能见度。
前述步骤中,神经辐射场模型包含的各子模型均是基于MLP构建的,不同的子模型对应包含的MLP的数量和宽度可以相同也可以不相同。其中,第一子模型包含四层宽度为h的MLP,第二子模型包含四层宽度为h的MLP,第三子模型包含一层宽度为h的MLP,第四子模型包含一层宽度为h/2的MLP,第五子模型包含一层宽度为h/2的MLP,第六子模型包含一层宽度为h/2的MLP,第七子模型包含三层宽度为h/2的MLP。
在本说明书一个或多个实施例中,可通过入射光模型和渲染方程确定各像素点的像素颜色和深度,具体方案如下,如图3所示:
S200:根据所述各目标点分别对应的属性信息,以及预先构建的入射光模型,确定所述各目标点分别对应的入射光强度。
具体的,本说明书实施例中所采用的入射光模型,用于建模影响对地观测目标场景时每个目标点的入射光强度,基于前述S108所述,入射光模型需要建模每个目标点的直射光强度、间接光强度以及几何遮挡,才能够得到准确的入射光强度。因此,需要根据各目标点分别对应的属性信息,确定每个目标点分别对应的入射光强度。
入射光模型分为三部分确定每个目标点对应的入射光强度。其一,基于太阳光方向和表面法向量建模直射光强度;其二,基于属性信息中的天空光强度建模间接光强度;其三,基于直射光强度和太阳光能见度建模几何遮挡。基于这三部分即可得到较为准确的目标点对应的入射光强度,从而充分考虑场景光源以及几何结构的影响,准确描述在不同时间下、不同位置处的场景点的入射光强度,进而提升每个场景点发射的颜色准确性。
S202:根据所述各目标点分别对应的入射光强度、所述各目标点分别对应的反射率,以及预先构建的渲染方程,确定各像素点的像素颜色和深度。
假设该场景表面反射率遵循朗伯模型,即每个表面在不同观测方向上的反射率相同。场景中的每个粒子都对其入射光进行反射,故粒子反射的颜色c可以表示为:
c=a*l
其中,l表示每个点的入射光强度,a表示每个点的反射率。在获取了空间中每个粒子反射的颜色后,使用预先构建的渲染方程来渲染穿过目标场景的射线的颜色,即基于射线上采样点的颜色通过离散求和估计连续渲染积分,从而得到各像素点的像素颜色。
另外,各像素点的深度则可以基于每条相机射线的长度和几何遮挡的情况确定。
其中,入射光模型用于表征太阳光发射的光谱强度与在所述各目标点上分别入射的太阳光所对应的入射光强度之间的关系,S200可以通过下述方案实现:
首先,根据所述太阳光方向,确定所述太阳光方向在指定方向上的指定分量。
图4为入射光强度和表面法向量关系的示意图,尽管太阳光发射的光谱强度l’sun是固定的,但是对于目标场景中不同朝向的表面,在某一目标点上入射的太阳光lsun是不同的。为了简化模型,本说明书中,将太阳光发射的光谱强度l’sun表示成等能的红绿蓝三通道白光,每个目标点接收到的太阳光强度与表面朝向有关,采用表面法向量n=(nx,ny,nz)来表示表面朝向。
将与地面平行的表面点的入射太阳光强度归一化为1。为了便于归一化,我们基于东北天(East,North,Up,ENU)坐标系计算,充分利用该坐标系中z轴与场景地平面垂直的优势,因此太阳光发射的光谱强度可以表示为:
l’sun=1/wz
其中,wz表示太阳光方向在z轴方向的分量。在ENU坐标系中,z轴表示场景高度,因此,归一化的太阳光光谱强度只与太阳方向的z轴分量有关。
由此,在此步骤中,指定方向指的是ENU坐标系中z轴正方向,太阳光方向在指定方向上的指定分量也即太阳光方向w在ENU坐标系中z轴正方向的分量wz
其次,根据所述太阳光方向在指定方向上的指定分量,确定太阳光发射的光谱强度。
太阳光发射的光谱强度的表达公式如上所示,可知,太阳光发射的光谱强度为太阳光方向w在ENU坐标系中z轴正方向的分量wz的倒数,因此,基于1/wz确定太阳光发射的光谱强度l’sun
之后,将所述太阳光发射的光谱强度、所述各目标点分别对应的表面法向量和所述太阳光方向作为输入,输入到所述入射光模型,得到所述各目标点分别对应的入射光强度。
进一步的,基于图4所示,可知目标场景中的每个目标点入射的太阳光强度lsun和太阳光发射的光谱强度l’sun之间的关系可以表示为下式:
lsun=l’sun(w·n)
入射光模型建模了直射光、间接光和几何遮挡三部分,得到每个目标点的入射光强度,则每个目标点的入射光强度可以表示为下式:
l=s*lsun+lsky
其中,lsun和lsky分别表示目标场景中每个目标点入射的太阳光强度和天空光强度。s表示太阳光能见度,即太阳光是否被遮挡。实际应用中,太阳光能见度s的取值范围为[0,1],如果太阳光能见度为0表示该点处于阴影中,太阳光被遮挡,光源只来自于天空光。如果能见度为1,则表示光源同时来自于太阳光和天空光。当太阳光能见度的取值为0到1之间的数值时,说明该目标点所在的位置被透光的遮挡物遮挡,该遮挡物可以遮挡部分太阳光,从而降低该目标点入射的太阳光强度,透光的遮挡物如玻璃、塑料等材质,本说明书对此不做限定。
从上式可知,每个目标点的入射光强度,是在天空光强度的基础上,叠加以太阳光能见度为权重加权后的太阳光强度得到的。
其中,渲染方程用于表征各像素点的像素颜色和深度,分别与所述各目标点分别对应的入射光强度和所述各目标点分别对应的反射率之间的关系,S202可以通过下述方案实现:
首先,根据所述各目标点之间的距离、所述各目标点分别对应的体积密度,确定所述各目标点被遮挡的概率。
在此步骤中,针对每个目标点,根据该目标点与该目标点的相邻点之间的距离,以及该目标点的体积密度,确定该目标点被遮挡的概率,也即该目标点处被占据的概率,一般的,该目标点对应的体积密度越高,该目标点被占据、被遮挡的概率越大。目标点被遮挡的概率αi可以通过下式确定:
αi=1-exp(-σiδi)
其中,δi是该目标点与该目标点的相邻点之间的距离,σi是目标点的体积密度。
其次,根据所述各目标点分别对应的入射光强度,和所述各目标点分别对应的反射率,确定所述各目标点反射的颜色。
假设目标场景表面反射率遵循朗伯模型,即每个表面在不同观测方向上的反射率相同。则目标场景中的每个目标点处的粒子都对其入射光进行反射,故目标点反射的颜色ci可以表示为:
ci=ai*li
其中,li表示每个目标点的入射光强度,ai表示每个目标点的反射率。
然后,根据所述各目标点反射的颜色、所述各目标点被遮挡的概率,以及所述预先构建的渲染方程,确定各像素点的像素颜色。
在获取了目标场景中每个目标点反射的颜色后,使用经典体积渲染原理来渲染穿过目标场景边界的任何射线的颜色。
具体的,起点为o方向为d的射线可以表示为r(t)=o+td,t为射线的长度。因此射线与遥感图像平面交点的像素颜色C(r)可通过目标点沿射线的加权颜色值ci的积分计算。在实际计算中,通过离散求和来估计连续渲染积分,故像素颜色C(r)可以表示成:
αi=1-exp(-σiδi)
δi=ti+1-ti
其中ci是沿着射线的离散的目标点xi=o+tid的颜色,ti的范围在场景的近边界tn和远边界tf之间。δi表示两个目标点之间的距离。αi∈[0,1]表示当前目标点i处被占据的概率。同时Ti∈[0,1]表示从原点到当前的目标点的透明度,可以定义为前i-1个点都不被占据的概率的累积。
最后,根据所述各目标点被遮挡的概率、所述各目标点分别对应的光线的长度,以及所述预先构建的渲染方程,确定各像素点的深度。
类似地,在射线r的方向上观察到的深度D(r)可以使用与上式类似的方法进行渲染:
在本说明书一个或多个实施例中,S106所采用的预先训练的神经辐射场模型,可按照下述方案预先迭代训练得到,如图5所示:
S300:获取目标场景对应的各参考图像。
参考图像同样是通过遥感图像采集设备对目标场景进行采集得到的,参考图像和遥感图像的区别仅在于采集时间和采集视角存在差异,可参考S100参数的遥感图像的描述类比于参考图像,此处不赘述。
另外,同样的,不同的参考图像所对应的采集时间和采集视角也各不相同。
S302:针对所述各参考图像包含的各像素,生成各参考射线,并在所述各参考射线上采样多个参考点。
具体的,参考图像在通过遥感图像采集设备采集成像时,当相机射线落到目标场景中各物体的表面上时,才可以在参考图像上呈现出目标场景中各物体的影响。因此,可通过RPC相机模型对参考图像的每个像素,生成穿过目标场景的参考射线。并在每次神经辐射场模型的迭代训练时,随机采用若干条参考射线,在每条参考射线上都采样多个参考点。
S304:获取所述各参考图像分别对应的太阳光方向,以及所述各参考图像分别对应的图像嵌入向量。
此步骤与前述步骤S104类似,此处不再赘述。
S306:将所述各参考图像分别对应的太阳光方向、所述各参考图像分别对应的图像嵌入向量,以及各参考点的三维坐标作为输入,输入到待训练的神经辐射场模型,得到所述各参考点分别对应的属性信息,所述属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度。
本说明书中,待训练的神经辐射场模型基于MLP构建,该待训练的神经辐射场模型实际上是多任务模型,可以基于输入的太阳光方向、图像嵌入向量各参考点的三维坐标,得到包含五个维度信息的各参考点分别对应的属性信息。
虽然神经辐射场模型输出的是各参考点的属性信息,但是,实际应用中,难以直接获取各参考点所对应的标注属性,也即,无法获取各参考点的属性信息的真值。但是,由于参考图像已经获取到了,参考图像中各像素点的参考颜色可以作为真值。因此,需要进一步基于各参考点的属性信息确定各参考像素点的预测像素颜色。
S308:根据所述各参考点分别对应的属性信息,确定所述各参考像素点的预测像素颜色。
此步骤中,可采用太阳光方向和属性信息中的表面法向量和太阳光能见度,确定各参考点分别对应的入射光强度,该入射光强度表征了不同参考图像在不同时刻不同角度下采集时,目标场景中不同位置的目标点的入射光的光强。
而每个参考点对应的深度则可以基于同样的积分渲染方法来确定。
S310:根据所述各参考像素点的预测像素颜色和所述各参考图像包含的各像素的参考颜色,训练所述神经辐射场模型。
具体的,神经辐射场模型的训练过程可以是基于自监督学习的训练,基于各参考像素点的预测像素颜色,以及各参考图像包含的各像素的参考颜色之间的差异,可以确定像素颜色维度的损失。从而,以像素颜色维度的损失的最小化为训练目标,训练神经辐射场模型。
其中,S310可以按照下述方案实现:
第一步:根据所述各参考像素点的预测像素颜色和所述各参考图像包含的各像素的参考颜色之间的差异,确定第一损失。
具体的,神经辐射场模型在训练时,除了要以参考图像包含的各像素的参考颜色和参考图像包含的各像素的采集深度作为监督信号,还可以引入针对属性信息中表面法向量的约束,以及针对属性信息中太阳光可见度的约束,实现针对太阳光的几何校正和表面法向量与场景几何结构的一致性约束。
第二步:根据所述各参考点分别对应的体积密度,确定体积密度的负梯度,作为法向量的参考值,并根据所述各参考点的表面法向量和所述法向量的参考值之间的差异,确定第二损失。
第二损失指示了神经辐射场模型预测的各参考点对应的表面法向量和目标场景的几何结构之间具备的一致性。在神经辐射场景模型训练时,会以第二损失的最小化为目标进行训练,也即,可以使得神经辐射场模型预测的表面法向量与目标场景的几何结构更为一致,避免出现神经辐射场模型直接预测的法向量易受噪声影响且与实际场景几何形状差异较大的问题。
构建第二损失时,通过将归一化的体积密度σ的负梯度作为表面法向量的真值,第二损失实际上就是神经辐射场模型预测的各参考点的表面法向量和表面法向量的真值之间的差异,具体的公式可以如下:
其中,n′表示归一化的体积密度σ的负梯度。
第三步:根据所述各参考点之间的距离、所述各参考点分别对应的体积密度,确定所述各参考点被遮挡的概率。
当拍摄时间不同时,即使遥感图像采集设备在同一视角下观测目标场景,由于太阳所处方位的差异,参考图像中阴影的位置也会发生变化。阴影的位置与目标场景的几何形状以及太阳光的入射方向相关。
如果参考点处于阴影中,则从该点向太阳方向投射的光线则会与目标场景相交,表示该参考点处的太阳光被目标场景遮挡,则太阳光不可见;反之如果从该参考点向太阳方向投射的光线与目标场景不相交,则表明太阳光可见。
在神经辐射场模型中,阴影建模是通过神经网络直接输出太阳光可见度s表示的,但是缺乏对太阳光可见度s的几何约束,这使得网络预测的阴影往往在训练集中表现良好,但是在未见过的太阳光方向上会出现不真实的现象。为此,本说明书实施例中,基于目标场景的几何形状引入太阳校正损失函数来对太阳光进行校正。
如图6所示,对于参考射线r(t)=o+td,其与目标场景在最大和最小高度xst和xed相交,t的范围在tmin=0和tmax=|xed-xst|之间。上下边界点xst和xed是通过RPC定位函数在归一化ECEF坐标下获得的。因此,原点o和方向向量d=(dx,dy,dz)可以表示为:
o=xst
由于元数据中存储的太阳光方向采用ENU坐标系表示,因此在采样参考点前需要将其转换为ECEF坐标系。对于每条参考射线都采样一条太阳光线rs(t)=os+tsw,太阳光线穿过目标场景的边界,并与参考射线终于同一点。因此可求得太阳光线的参数t取值范围为[0,tmax*dz/wz]。
第四步:根据所述各参考点分别对应的太阳光能见度、所述各参考点被遮挡的概率,以及所述各参考图像分别对应的太阳光方向,确定第三损失。
太阳光校正损失Lsc(r)可以表示为:
其中λ1是超参数,可选地,设置λ1=0.0045。第一项指示了太阳能见度的本质含义,它表示每个点沿太阳光线的透射率。第二项表明,每一条太阳射线最终都会与一个参考点(粒子)相交并被吸收,太阳射线的终止点与视图射线的终止点将重合。
第五步:根据所述第一损失、所述第二损失和所述第三损失确定总损失。
总损失是由第一损失、第二损失以及第三损失组成:
其中,λ2和λ3是平衡三种损失的超参数,可选地,设置λ2=0.0001,λ3=0.01/3。
可选地,可以是第一损失(光度损失),其为每条相机射线的渲染颜色和真实颜色的MSE加权和,权重由不确定性β决定,具体如下:
其中,B’(r)=B(r)+Bmin,Bmin为预设的固定值,可选地,设定Bmin=0.05,η=3来防止对数中的负值,对数的作用是防止B收敛到无穷大,射线的不确定性B(r)是由射线上每个参考点的不确定性βi积分得到,而每个参考点的不确定性βi由神经辐射场模型预测得到。
第六步:以所述总损失的最小化为优化目标,训练所述神经辐射场模型。
以上为本说明书的一个或多个实施例提供的遥感图像三维重建的方法,基于同样的思路,本说明书还提供了相应的遥感图像三维重建的装置,如图7所示。
图7为本说明书提供的一种遥感图像三维重建的装置示意图,具体包括:
第一获取模块400,用于获取目标场景对应的各遥感图像,所述各遥感图像分别对应的采集视角和采集时间互不相同;
目标点确定模块402,用于确定指定观测方向,并根据所述指定观测方向,针对所述各遥感图像包含的各像素,生成各相机射线,并在所述各相机射线上采样多个目标点;
第二获取模块404,用于获取所述各遥感图像分别对应的太阳光方向,以及所述各遥感图像分别对应的图像嵌入向量;
属性信息确定模块406,用于将所述各遥感图像分别对应的太阳光方向、所述各遥感图像分别对应的图像嵌入向量,以及各目标点的三维坐标作为输入,输入到预先训练的神经辐射场模型,得到所述各目标点分别对应的属性信息,所述属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度;
像素颜色确定模块408,用于根据所述各目标点分别对应的属性信息,确定各像素点的像素颜色和深度;
生成模块410,用于根据所述各像素点的像素颜色和深度,生成所述目标场景对应的数字表面模型。
可选地,所述属性信息确定模块406具体用于,将各目标点的三维坐标进行位置编码,得到位置编码后的各三维坐标;将所述位置编码后的各三维坐标输入所述预先训练的神经辐射场模型包含的第一子模型,得到所述第一子模型输出的第一中间结果;将所述第一中间结果与所述位置编码后的各三维坐标作为输入,输入所述神经辐射场模型包含的第二子模型,得到所述第二子模型输出的第二中间结果,并根据所述第二中间结果确定所述各目标点分别对应的体积密度,以及所述各目标点分别对应的表面法向量;将所述第二中间结果输入到所述神经辐射场模型包含的第三子模型,得到融合特征;将所述融合特征输入所述神经辐射场模型包含的第四子模型,得到所述各目标点分别对应的反射率;将所述融合特征和所述各遥感图像分别对应的图像嵌入向量作为输入,输入到所述神经辐射场模型包含的第五子模型,得到所述各目标点分别对应的不确定度;将所述各遥感图像分别对应的太阳光方向进行位置编码,得到位置编码后的太阳光方向,并将所述位置编码后的太阳光方向输入所述神经辐射场模型包含的第六子模型,得到所述各目标点的天空光强度;将所述融合特征和所述位置编码后的太阳光方向输入所述神经辐射场模型包含的第七子模型,得到所述各目标点的太阳光能见度。
可选地,所述像素颜色确定模块408具体用于,根据所述各目标点分别对应的属性信息,以及预先构建的入射光模型,确定所述各目标点分别对应的入射光强度;根据所述各目标点分别对应的入射光强度、所述各目标点分别对应的反射率,以及预先构建的渲染方程,确定各像素点的像素颜色和深度。
可选地,所述预先构建的入射光模型用于表征太阳光发射的光谱强度与在所述各目标点上分别入射的太阳光所对应的入射光强度之间的关系;
可选地,所述像素颜色确定模块408具体用于,根据所述太阳光方向,确定所述太阳光方向在指定方向上的指定分量;根据所述太阳光方向在指定方向上的指定分量,确定太阳光发射的光谱强度;将所述太阳光发射的光谱强度、所述各目标点分别对应的表面法向量、所述各目标点分别对应的太阳光能见度、所述各目标点分别对应的天空光强度,以及所述太阳光方向作为输入,输入到所述入射光模型,得到所述各目标点分别对应的入射光强度。
可选地,所述预先构建的渲染方程用于表征各像素点的像素颜色和深度,分别与所述各目标点分别对应的入射光强度和所述各目标点分别对应的反射率之间的关系;
可选地,所述像素颜色确定模块408具体用于,根据所述各目标点之间的距离、所述各目标点分别对应的体积密度,确定所述各目标点被遮挡的概率;根据所述各目标点分别对应的入射光强度,和所述各目标点分别对应的反射率,确定所述各目标点反射的颜色;根据所述各目标点反射的颜色、所述各目标点被遮挡的概率,以及所述预先构建的渲染方程,确定各像素点的像素颜色;根据所述各目标点被遮挡的概率、所述各目标点分别对应的光线的长度,以及所述预先构建的渲染方程,确定所述各像素点的深度。
可选地,所述装置还包括:
训练模块412,具体用于获取目标场景对应的各参考图像;针对所述各参考图像包含的各像素,生成各参考射线,并在所述各参考射线上采样多个参考点;获取所述各参考图像分别对应的太阳光方向,以及所述各参考图像分别对应的图像嵌入向量;将所述各参考图像分别对应的太阳光方向、所述各参考图像分别对应的图像嵌入向量,以及各参考点的三维坐标作为输入,输入到待训练的神经辐射场模型,得到所述各参考点分别对应的属性信息,所述属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度;根据所述各参考点分别对应的属性信息,确定所述各参考像素点的预测像素颜色;根据所述各参考像素点的预测像素颜色和所述各参考图像包含的各像素的参考颜色,训练所述神经辐射场模型。
可选地,所述训练模块412具体用于,根据所述各参考像素点的预测像素颜色和所述各参考图像包含的各像素的参考颜色之间的差异,确定第一损失;根据所述各参考点分别对应的体积密度,确定体积密度的负梯度,作为法向量的参考值,并根据所述各参考点的表面法向量和所述法向量的参考值之间的差异,确定第二损失;根据所述各参考点之间的距离、所述各参考点分别对应的体积密度,确定所述各参考点被遮挡的概率;根据所述各参考点分别对应的太阳光能见度、所述各参考点被遮挡的概率,以及所述各参考图像分别对应的太阳光方向,确定第三损失;根据所述第一损失、所述第二损失和所述第三损失确定总损失;以所述总损失的最小化为优化目标,训练所述神经辐射场模型。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1所示的遥感图像三维重建的方法。
本说明书还提供了图8所示的电子设备的示意结构图。如图8所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所示的遥感图像三维重建的方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种遥感图像三维重建的方法,其特征在于,包括:
获取目标场景对应的各遥感图像,所述各遥感图像分别对应的采集视角和采集时间互不相同;
确定指定观测方向,并根据所述指定观测方向,针对所述各遥感图像包含的各像素,生成各相机射线,并在所述各相机射线上采样多个目标点;
获取所述各遥感图像分别对应的太阳光方向,以及所述各遥感图像分别对应的图像嵌入向量;
将所述各遥感图像分别对应的太阳光方向、所述各遥感图像分别对应的图像嵌入向量,以及各目标点的三维坐标作为输入,输入到预先训练的神经辐射场模型,得到所述各目标点分别对应的属性信息,所述属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度;
根据所述各目标点分别对应的属性信息,确定各像素点的像素颜色和深度;
根据所述各像素点的像素颜色和深度,生成所述目标场景对应的数字表面模型以及所述指定观测方向下的视图合成结果。
2.如权利要求1所述的方法,其特征在于,所述将所述各遥感图像分别对应的太阳光方向、所述各遥感图像分别对应的图像嵌入向量,以及各目标点的三维坐标作为输入,输入到预先训练的神经辐射场模型,得到所述各目标点分别对应的属性信息,具体包括:
将各目标点的三维坐标进行位置编码,得到位置编码后的各三维坐标;
将所述位置编码后的各三维坐标输入所述预先训练的神经辐射场模型包含的第一子模型,得到所述第一子模型输出的第一中间结果;
将所述第一中间结果与所述位置编码后的各三维坐标作为输入,输入所述神经辐射场模型包含的第二子模型,得到所述第二子模型输出的第二中间结果,并根据所述第二中间结果确定所述各目标点分别对应的体积密度,以及所述各目标点分别对应的表面法向量;
将所述第二中间结果输入到所述神经辐射场模型包含的第三子模型,得到融合特征;
将所述融合特征输入所述神经辐射场模型包含的第四子模型,得到所述各目标点分别对应的反射率;
将所述融合特征和所述各遥感图像分别对应的图像嵌入向量作为输入,输入到所述神经辐射场模型包含的第五子模型,得到所述各目标点分别对应的不确定度;
将所述各遥感图像分别对应的太阳光方向进行位置编码,得到位置编码后的太阳光方向,并将所述位置编码后的太阳光方向输入所述神经辐射场模型包含的第六子模型,得到所述各目标点的天空光强度;
将所述融合特征和所述位置编码后的太阳光方向输入所述神经辐射场模型包含的第七子模型,得到所述各目标点的太阳光能见度。
3.如权利要求1所述的方法,其特征在于,根据所述各目标点分别对应的属性信息,确定各像素点的像素颜色和深度,具体包括:
根据所述各目标点分别对应的属性信息,以及预先构建的入射光模型,确定所述各目标点分别对应的入射光强度;
根据所述各目标点分别对应的入射光强度、所述各目标点分别对应的反射率,以及预先构建的渲染方程,确定各像素点的像素颜色和深度。
4.如权利要求3所述的方法,其特征在于,所述预先构建的入射光模型用于表征太阳光发射的光谱强度与在所述各目标点上分别入射的太阳光所对应的入射光强度之间的关系;
所述根据所述各目标点分别对应的属性信息,以及预先构建的入射光模型,确定所述各目标点分别对应的入射光强度,具体包括:
根据所述太阳光方向,确定所述太阳光方向在指定方向上的指定分量;
根据所述太阳光方向在指定方向上的指定分量,确定太阳光发射的光谱强度;
将所述太阳光发射的光谱强度、所述各目标点分别对应的表面法向量、所述各目标点分别对应的太阳光能见度、所述各目标点分别对应的天空光强度,以及所述太阳光方向作为输入,输入到所述入射光模型,得到所述各目标点分别对应的入射光强度。
5.如权利要求3所述的方法,其特征在于,所述预先构建的渲染方程用于表征各像素点的像素颜色和深度,分别与所述各目标点分别对应的入射光强度和所述各目标点分别对应的反射率之间的关系;
所述根据所述各目标点分别对应的入射光强度、所述各目标点分别对应的反射率,以及预先构建的渲染方程,确定各像素点的像素颜色和深度,具体包括:
根据所述各目标点之间的距离、所述各目标点分别对应的体积密度,确定所述各目标点被遮挡的概率;
根据所述各目标点分别对应的入射光强度,和所述各目标点分别对应的反射率,确定所述各目标点反射的颜色;
根据所述各目标点反射的颜色、所述各目标点被遮挡的概率,以及所述预先构建的渲染方程,确定各像素点的像素颜色;
根据所述各目标点被遮挡的概率、所述各目标点分别对应的光线的长度,以及所述预先构建的渲染方程,确定所述各像素点的深度。
6.如权利要求1所述的方法,其特征在于,预先训练神经辐射场模型,具体包括:
获取目标场景对应的各参考图像;
针对所述各参考图像包含的各像素,生成各参考射线,并在所述各参考射线上采样多个参考点;
获取所述各参考图像分别对应的太阳光方向,以及所述各参考图像分别对应的图像嵌入向量;
将所述各参考图像分别对应的太阳光方向、所述各参考图像分别对应的图像嵌入向量,以及各参考点的三维坐标作为输入,输入到待训练的神经辐射场模型,得到所述各参考点分别对应的属性信息,所述属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度;
根据所述各参考点分别对应的属性信息,确定各参考像素点的预测像素颜色;
根据所述各参考像素点的预测像素颜色和所述各参考图像包含的各像素的参考颜色,训练所述神经辐射场模型。
7.如权利要求6所述的方法,其特征在于,所述根据所述各参考像素点的预测像素颜色和所述各参考图像包含的各像素的参考颜色,训练所述神经辐射场模型,具体包括:
根据所述各参考像素点的预测像素颜色和所述各参考图像包含的各像素的参考颜色之间的差异,确定第一损失;
根据所述各参考点分别对应的体积密度,确定体积密度的负梯度,作为法向量的参考值,并根据所述各参考点的表面法向量和所述法向量的参考值之间的差异,确定第二损失;
根据所述各参考点之间的距离、所述各参考点分别对应的体积密度,确定所述各参考点被遮挡的概率;
根据所述各参考点分别对应的太阳光能见度、所述各参考点被遮挡的概率,以及所述各参考图像分别对应的太阳光方向,确定第三损失;
根据所述第一损失、所述第二损失和所述第三损失确定总损失;
以所述总损失的最小化为优化目标,训练所述神经辐射场模型。
8.一种遥感图像三维重建的装置,其特征在于,包括:
第一获取模块,用于获取目标场景对应的各遥感图像,所述各遥感图像分别对应的采集视角和采集时间互不相同;
目标点确定模块,用于确定指定观测方向,并根据所述指定观测方向,针对所述各遥感图像包含的各像素,生成各相机射线,并在所述各相机射线上采样多个目标点;
第二获取模块,用于获取所述各遥感图像分别对应的太阳光方向,以及所述各遥感图像分别对应的图像嵌入向量;
属性信息确定模块,用于将所述各遥感图像分别对应的太阳光方向、所述各遥感图像分别对应的图像嵌入向量,以及各目标点的三维坐标作为输入,输入到预先训练的神经辐射场模型,得到所述各目标点分别对应的属性信息,所述属性信息包括体积密度、反射率、表面法向量、不确定度、太阳光能见度以及天空光强度;
像素颜色确定模块,用于根据所述各目标点分别对应的属性信息,确定各像素点的像素颜色和深度;
生成模块,用于根据所述各像素点的像素颜色和深度,生成所述目标场景对应的数字表面模型以及所述指定观测方向下的视图合成结果。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
CN202311708261.4A 2023-12-12 2023-12-12 一种遥感图像三维重建的方法及装置 Active CN117765172B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311708261.4A CN117765172B (zh) 2023-12-12 2023-12-12 一种遥感图像三维重建的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311708261.4A CN117765172B (zh) 2023-12-12 2023-12-12 一种遥感图像三维重建的方法及装置

Publications (2)

Publication Number Publication Date
CN117765172A CN117765172A (zh) 2024-03-26
CN117765172B true CN117765172B (zh) 2024-05-28

Family

ID=90315557

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311708261.4A Active CN117765172B (zh) 2023-12-12 2023-12-12 一种遥感图像三维重建的方法及装置

Country Status (1)

Country Link
CN (1) CN117765172B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111581884A (zh) * 2020-05-11 2020-08-25 上海无线电设备研究所 一种星载多分辨率目标光学辐射图像仿真方法
CN116258816A (zh) * 2023-02-15 2023-06-13 中国电子科技集团公司第五十四研究所 一种基于神经辐射场的遥感影像仿真方法
CN116402942A (zh) * 2023-03-02 2023-07-07 武汉大学 一种融合多尺度图像特征的大规模建筑物三维重建方法
WO2023138471A1 (zh) * 2022-01-24 2023-07-27 阿里巴巴(中国)有限公司 三维场景渲染方法、设备以及存储介质
CN116977525A (zh) * 2023-07-31 2023-10-31 之江实验室 一种图像渲染方法、装置、存储介质及电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111581884A (zh) * 2020-05-11 2020-08-25 上海无线电设备研究所 一种星载多分辨率目标光学辐射图像仿真方法
WO2023138471A1 (zh) * 2022-01-24 2023-07-27 阿里巴巴(中国)有限公司 三维场景渲染方法、设备以及存储介质
CN116258816A (zh) * 2023-02-15 2023-06-13 中国电子科技集团公司第五十四研究所 一种基于神经辐射场的遥感影像仿真方法
CN116402942A (zh) * 2023-03-02 2023-07-07 武汉大学 一种融合多尺度图像特征的大规模建筑物三维重建方法
CN116977525A (zh) * 2023-07-31 2023-10-31 之江实验室 一种图像渲染方法、装置、存储介质及电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种三维建筑物模型自动纹理映射方法;吴斌;孙显;王宏琦;付琨;;遥感信息;20170415(02);全文 *
基于几何映射的遥感成像光照仿真方法;王晨昊;;系统仿真学报;20150308(03);全文 *

Also Published As

Publication number Publication date
CN117765172A (zh) 2024-03-26

Similar Documents

Publication Publication Date Title
JP7413321B2 (ja) 日常シーン復元エンジン
Derksen et al. Shadow neural radiance fields for multi-view satellite photogrammetry
CN113572962B (zh) 室外自然场景光照估计方法及装置
CN116402942A (zh) 一种融合多尺度图像特征的大规模建筑物三维重建方法
CN116958379A (zh) 图像渲染方法、装置、电子设备、存储介质及程序产品
Li et al. 3D virtual urban scene reconstruction from a single optical remote sensing image
CN117218551B (zh) 一种基于误差分析的估测算法优化方法及装置
CN117765172B (zh) 一种遥感图像三维重建的方法及装置
CN116994012A (zh) 一种基于生态修复的图斑匹配系统及匹配方法
Albeaik et al. Virtual cities: 3d urban modeling from low resolution lidar data
CN116012483A (zh) 一种图像渲染的方法、装置、存储介质及电子设备
CN114187404A (zh) 一种用于近海域高分辨率的三维重建方法和系统
CN117765168B (zh) 一种卫星遥感图像的三维重建方法、装置及设备
Wang et al. State of the art in dense image matching cost computation for high-resolution satellite stereo
CN117765165A (zh) 一种三维重建方法、装置、存储介质及电子设备
Hu et al. Multiview point clouds denoising based on interference elimination
Gorbatsevich et al. Semi-Automatic Cityscape 3d Model Restoration Using Generative Adversarial Network
Salvaggio et al. Automated identification of voids in three-dimensional point clouds
CN117765171A (zh) 一种三维模型重建的方法、装置、存储介质及电子设备
Barba et al. A method to improve the accuracy of sparse UAV point cloud applied to the Amphitheater of Pompeii
Zhang Monocular Multi-image Scene Restoration
Ge et al. Hash Encoding and Brightness Correction in 3D Industrial and Environmental Reconstruction of Tidal Flat Neural Radiation
Billouard et al. SAT-NGP: Unleashing Neural Graphics Primitives for Fast Relightable Transient-Free 3D reconstruction from Satellite Imagery
Al-Younis Measurement and Prediction of Image Displacement Due To Atmospheric Refraction
Curry et al. THREE-DIMENSIONAL REMOTE SENSING AT HOUSE IN THE HORSESHOE STATE HISTORIC SITE (31MR20), MOORE COUNTY, NORTH CAROLINA.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant