CN117274472A - 一种基于隐式三维表达的航空真正射影像生成方法和系统 - Google Patents

一种基于隐式三维表达的航空真正射影像生成方法和系统 Download PDF

Info

Publication number
CN117274472A
CN117274472A CN202311037877.3A CN202311037877A CN117274472A CN 117274472 A CN117274472 A CN 117274472A CN 202311037877 A CN202311037877 A CN 202311037877A CN 117274472 A CN117274472 A CN 117274472A
Authority
CN
China
Prior art keywords
image
dimensional
neural network
orthographic
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311037877.3A
Other languages
English (en)
Other versions
CN117274472B (zh
Inventor
刘欣怡
万一
张永军
岳冬冬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202311037877.3A priority Critical patent/CN117274472B/zh
Priority claimed from CN202311037877.3A external-priority patent/CN117274472B/zh
Publication of CN117274472A publication Critical patent/CN117274472A/zh
Application granted granted Critical
Publication of CN117274472B publication Critical patent/CN117274472B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于隐式三维表达的航空真正射影像生成方法和系统,该方法包括:数据准备,至少包括航空影像,影像位姿与相机参数,正射影像地面分辨率;构建神经网络,利用已知相机内外参数的航空影像数据训练神经网络;渲染正射平行投影影像,即利用构建好的神经网络渲染每条光线对应的颜色,得到正射影像的像素值;根据正射影像的像素值,依据正射影像地面分辨率与坐标范围生成标准分幅的真正射影像。本发明对输入影像数据的重叠率、纹理特征要求低,能完全消除相对遮挡区域、不受显式三维重建精度影响,且能高效地利用高程数据,快速生成无损真正射影像。

Description

一种基于隐式三维表达的航空真正射影像生成方法和系统
技术领域
本发明属于计算机视觉三维重建技术领域,尤其涉及一种基于隐式三维表达的航空真正射影像生成技术,主要用于基础地理底图生产、二三维联合测图等领域。
背景技术
对中心投影影像进行数字纠正,可消除地形起伏及相机倾斜角度等因素造成的投影差,生成正射影像。但人工地物、树木等地面上有一定高度的目标,其中心投影差无法通过数字纠正消除,从而导致正射影像上存在投影差,使其地理参考作用受限。真正射影像制作旨在生成各像素均为正射投影的正射影像,如何从根本上消除投影差成为决定真正射影像质量的关键因素。
现有成熟的技术主要分为两类方法:①通过影像密集匹配生成三维点云,并通过显式三维重建生成带有真实纹理的三角网模型,由三角网模型进行正射投影采样得到真正射影像,其效果依赖三角网模型的几何精度与纹理精度,通常要求多视影像且影像间具备较高重叠度;②联合DSM、LiDAR等高程数据进行遮挡检测,非遮蔽区域直接纠正,而遮蔽区域则选取对该区域可视的影像区域进行纠正,其对地物高程信息数据要求较高且相邻区域纹理难以协调一致,无法处理地物复杂区域。现有方法对初始输入要求高且在绝对遮蔽区域完全失效,难以在数字测图等领域中较好地应用。
发明内容
本发明要解决的技术问题在于规避现有真正射影像生成中对测区三维高程及矢量信息要求高的难点,提供一种基于隐式三维表达的真正射影像生成方法。本发明利用已有视角航空影像数据,通过隐式三维表达训练神经网络,利用平行投影合成新视角影像,从而渲染得到真正射影像。
与现有方法相比,本发明对输入影像数据的重叠率、纹理特征要求低,能完全消除相对遮挡区域、不受显式三维重建精度影响,且能高效地利用高程数据,快速生成无损真正射影像。因此,该方法具有重要的实用价值和广泛的应用前景。
本发明解决其技术问题所采用的技术方案是:一种基于隐式三维表达的航空真正射影像生成方法,该方法包括以下步骤:
步骤1,数据准备,至少包括航空影像,影像位姿与相机参数,正射影像地面分辨率;
步骤2,构建神经网络,利用已知相机内外参数的航空影像数据训练神经网络;
对航空影像上每个像素对应的光线进行采样得到一系列的三维采样点,将这些三维采样点的坐标和视角作为神经网络的输入,三维采样点对应的颜色和体密度作为输出;
步骤3,渲染正射平行投影影像,即利用步骤2构建好的神经网络渲染每条光线对应的颜色,得到正射影像的像素值;
步骤4,根据正射影像的像素值,依据正射影像地面分辨率与坐标范围生成标准分幅的真正射影像。
进一步的,步骤1中还包括激光雷达数据。
进一步的,步骤2的具体实现方法为:
步骤2.1,沿光线r(t)采样三维空间点,t对应光线上的位置;
步骤2.2,构建神经网络F,采样点的坐标位置(x,y,z)和视角方向(θ,φ)作为输入,对应的颜色c和体密度σ作为输出构建一个全连接MLP神经网络F,对应关系为(c,σ)=F(x,y,z,θ,φ);
步骤2.3,渲染点投影航空影像:根据体绘制理论,沿光线r(t)积分得到光线在航空影像上对应的颜色其中δi=ti+1-ti表示采样点间的距离;σi和ci分别表示采样点ti的体密度和颜色;/>表示光线从第一个采样点到ti的累积透射率;
步骤2.4,限制约束条件:对于一组光线R,神经网络训练的损失函数定义为其中C(r(t)为光线r(t)在航空影像上对应的真正颜色。
进一步的,步骤2的具体实现方法为:
步骤2.1,沿光线r(t)采样三维空间点,t对应光线上的位置;
步骤2.2,构建神经网络F,采样点的坐标位置(x,y,z)和视角方向(θ,φ)作为输入,对应的颜色c和体密度σ作为输出构建一个全连接MLP神经网络F,对应关系为(c,σ)=F(x,y,z,θ,φ);
步骤2.3,渲染点投影航空影像:根据体绘制理论,沿光线r(t)积分得到光线在航空影像上对应的颜色其中δi=ti+1-ti表示采样点间的距离;σi和ci分别表示采样点ti的体密度和颜色;/>表示光线从第一个采样点到ti的累积透射率;
步骤2.4,限制约束条件:对于一组光线R,神经网络训练的损失函数分为Lc和Llidar两部分,其中cij表示第j条光线的第i个采样点对应的颜色,clidar表示该采样点在三维空间中对应的激光雷达点云颜色,可通过K近邻算法寻找附近激光雷达点云并根据距离加权计算。
进一步的,步骤2.1中,每个像素对应的光线r(t)=o+td从原点o发射,沿着方向d进行传播,对该光线进行采样,均匀或随机采样光线上的N个三维点,获得对应的坐标位置(x,y,z)和视角方向(θ,φ),其中θ表示俯仰角,φ表示方位角;若激光雷达数据未知。
进一步的,步骤2.1中,每个像素对应的光线r(t)=o+td从原点o发射,沿着方向d进行传播,对该光线进行采样,根据激光雷达数据计算场景中目标物体包围盒V={(x,y,z)|x∈(xmin,xmax),…∈(ymin,ymax),z∈(zmin,zmax)},在光线与包围盒交集的范围内进行采样,其中xmin、xmax、ymin、ymax、zmin、zmax分别代表激光雷达数据在x、y、z三个方向上的最小值和最大值。采样点表示为ti(i=1,2,…,N),其中N是采样点的个数;获得对应的坐标位置(x,y,z)和视角方向(θ,φ),其中θ表示俯仰角,φ表示方位角。
进一步的,步骤3中,正射平行投影影像渲染的具体方法为:
步骤3.1,确定目标正射影像的目标范围在三维世界中x,y方向的坐标范围lx,ly,若激光雷达数据已知,则lx=xmax-xmin,ly=ymax-ymin;否则,根据航空影像相机位置的范围确定,即lx=pose_xmax-pose_xmin,ly=pose_ymax-pose_ymin,其中pose_xmax、pose_xmin、pose_ymax、pose_ymin分别代表所有航空影像相机位置在x、y两个方向上的最大值和最小值;
步骤3.2,确定目标正射影像的尺寸w、h,则需渲染w×h条光线,光线按照等间距平行且方向沿z轴排列,ocenter为正射影像在三维世界的中心,d为光线间距,即正射影像的地面分辨率,
步骤3.3,确定正射影像在三维世界的中心ocenter=(xcenter,ycenter,zcenter),默认设为航空影像相机在三维世界中x,y,z三个方向的均值;
步骤3.4,确定每条光线的发射源位置 其中m代表目标正射影像的第m行,n代表目标正射影像的第n列;由于平行投影的特殊性,/>可设为同一值zcenter
步骤3.5,确定每条光线的发射方向,所有光线发射方向均为沿着z轴负方向;
步骤3.6,渲染每个光线的颜色,利用步骤2构建好的神经网络渲染每条光线对应的颜色,得到大小为w×h×3的颜色矩阵M,M中每个元素对应正射影像的像素值。
进一步的,步骤4中,真正射影像生成的具体方法为:
步骤4.1,依据正射影像地面分辨率与坐标范围确认地形图图幅;
步骤4.2,将步骤3中的各像素值记录至地形图幅范围,得到标准分幅的真正射影像。
进一步的,所述影像位姿与相机参数包括①影像位姿参数,即相机在三维空间中的位置和方向;②相机内部参数,即焦距、像主点位置、畸变参数。
本发明还提供一种基于隐式三维表达的航空真正射影像生成系统,包括如下模块:
数据准备模块,用于数据准备,至少包括航空影像,影像位姿与相机参数,正射影像地面分辨率;
神经网络构建模块,用于构建神经网络,利用已知相机内外参数的航空影像数据训练神经网络;
对航空影像上每个像素对应的光线进行采样得到一系列的三维采样点,将这些三维采样点的坐标和视角作为神经网络的输入,三维采样点对应的颜色和体密度作为输出;
渲染模块,用于渲染正射平行投影影像,即利用构建好的神经网络渲染每条光线对应的颜色,得到正射影像的像素值;
真正射影像生成模块,用于根据正射影像的像素值,依据正射影像地面分辨率与坐标范围生成标准分幅的真正射影像。
本发明产生的有益效果是:
1)本发明对航空影像,利用其影像位姿参数及相机内部参数,构造神经辐射辐射场,通过隐式三维表达训练神经网络,经过平行投影合成新的下视视角影像,从而渲染得到真正射影像;
2)支持LiDAR等地形数据辅助,对输入影像数据的重叠度、纹理特征要求低,可完全消除相对遮挡区域,不受显式三维重建精度影响,生成速度相对传统方法显著提升。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1为本发明实施例的总体流程图;
图2为本发明将已知视角航空影像数据输入神经辐射场原理图;
图3为本发明利用神经辐射场进行正射投影的原理图;
图4为本发明生成的真正射影像示例图。
图5为中心投影的航空影像与本发明生成的真正射影像的目视效果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明实施例的基于隐式三维表达的航空真正射影像生成方法,包括以下步骤:
步骤1,数据准备。本方法需要的输入数据包括:1)航空影像;2)影像对应的相机内外参数;3)正射影像地面分辨率d;4)激光雷达数据(可选);
其中影像位姿与相机参数包括①影像位姿参数,即相机在三维空间中的位置和方向;②相机内部参数,即焦距、像主点位置、畸变参数。
步骤2,神经辐射场即神经网络构建如图2所示,具体方法如下:
从底层理解神经辐射场就是MLP全连神经网络,是一种面向三维隐式空间建模的深度学习模型,采样点的位置和视角作为输入,颜色和体密度作为输出。叫神经辐射场主要是因为这种结构的网络能够表示出一个三维场景中任意一点的颜色和体密度信息,即三维空间被表示为一组可学习且连续的辐射场。在三维领域中这种新技术被称为神经辐射场。
步骤1中的数据用于步骤2作为输入,对影像上每个像素对应的光线进行采样得到一系列的三维采样点,这个在详细的步骤说明,这些三维采样点的坐标和视角作为步骤2网络的输入,三维采样点对应的颜色和体密度作为输出。
步骤2.1,沿光线采样三维空间点。每个像素对应的光线r(t)=o+td从原点o发射,沿着方向d进行传播,t对应光线上的位置。对该光线进行采样,获得对应的坐标位置(x,y,z)和视角方向(θ,φ),其中θ表示俯仰角,φ表示方位角。若激光雷达数据未知,则均匀或随机采样光线上的N个三维点,否则,根据激光雷达数据计算场景中目标物体包围盒V={(x,y,z)|x∈(xmin,xmax),y∈(ymin,ymax),z∈(zmin,zmax)},在光线与包围盒交集的范围内进行采样,其中xmin、xmax、ymin、ymax、zmin、zmax分别代表激光雷达数据在x、y、z三个方向上的最小值和最大值。采样点表示为ti(i=1,2,…,N),其中N是采样点的个数。
步骤2.2,构建神经网络F。采样点的坐标位置(x,y,z)和视角方向(θ,φ)作为输入,对应的颜色c和体密度σ作为输出构建一个全连接MLP神经网络F,对应关系为(c,σ)=F(x,y,z,θ,φ)。
步骤2.3,渲染点投影航空影像。根据体绘制理论,沿光线r(t)积分得到光线在航空影像上对应的颜色其中δi=ti+1-ti表示采样点间的距离;σi和ci分别表示采样点ti的体密度和颜色;/>表示光线从第一个采样点到ti的累积透射率。
步骤2.4,限制约束条件。对于一组光线R,若激光雷达数据未知,网络训练的损失函数定义为其中C(r(t))为光线r(t)在航空影像上对应的真正颜色。若激光雷达数据已知,网络训练的损失函数分为Lc和Llidar两部分,其中cij表示第j条光线的第i个采样点对应的颜色。clidar表示该采样点在三维空间中对应的激光雷达点云颜色,可通过K近邻算法寻找附近激光雷达点云并根据距离加权计算。
步骤3,渲染正射平行投影影像,即利用步骤2构建好的神经网络渲染每条光线对应的颜色,得到正射影像的像素值;步骤3.1,确定目标正射影像的目标范围在三维世界中x,y方向的坐标范围lx,ly。若激光雷达数据已知,则lx=xmax-xmin,ly=ymax-ymin。否则,根据航空影像相机位置的范围确定,即lx=pose_xmax-pose_xmin,ly=pose_ymax-pose_ymin,其中pose_xmax、pose_xmin、pose_ymax、pose_ymin分别代表所有航空影像相机位置在x、y两个方向上的最大值和最小值。
步骤3.2,确定目标正射影像的尺寸w、h,则需渲染w×h条光线。如图3所示,光线按照等间距平行且方向沿z轴排列。ocenter为正射影像在三维世界的中心,d为光线间距,即正射影像的地面分辨率。
步骤3.3,确定正射影像在三维世界的中心ocenter=(xcenter,ycenter,zcenter),默认设为航空影像相机在三维世界中x,y,z三个方向的均值。
步骤3.4,确定每条光线的发射源位置 其中m代表目标正射影像的第m行,n代表目标正射影像的第n列。如图3所示,由于平行投影的特殊性,/> 可设为同一值zcenter,/> 步骤3.5,确定每条光线的发射方向。所有光线发射方向均为沿着z轴负方向。
步骤3.6,渲染每个光线的颜色。利用步骤2构建好的神经辐射场渲染每条光线对应的颜色,得到大小为w×h×3的颜色矩阵M,M中每个元素对应正射影像的像素值。
步骤4,真正射影像生成具体步骤如下:
步骤4.1,依据正射影像地面分辨率与坐标范围确认地形图图幅;
步骤4.2,将步骤3中的各像素值记录至地形图图幅范围,得到标准分幅的真正射影像。如图4所示结果,1988×1326×3的颜色矩阵形成分辨率为1988×1326的正射影像。
根据上述实施例的具体步骤,以某测区57张具有相机内外参数的影像为例,构建地面分辨率为1m的真正射影像。由于雷达数据未知,根据航空影像相机位置的范围确定目标范围在三维世界中x,y方向的坐标范围lx=1988,ly=1326。则目标正射影像的尺寸w=1988、h=1326。通过确定每条光线的发射源位置oij=(xij,yij,zij)以及发射方向均为沿着z轴负方向的已知条件,渲染出大小为1988×1326×3颜色矩阵M,并生成大小为1988×1326的真正射影像。对本发明生成的真正射影像与中心投影的航空影像进行比较,目视效果如图5所示。图5的目视效果证明了本发明生成的真正射影像在建筑物等遮挡区域具有较好的效果。
另一方面,本发明实施例还提供一种基于隐式三维表达的航空真正射影像生成系统,包括如下模块:
数据准备模块,用于数据准备,至少包括航空影像,影像位姿与相机参数,正射影像地面分辨率;
神经网络构建模块,用于构建神经网络,利用已知相机内外参数的航空影像数据训练神经网络;
对航空影像上每个像素对应的光线进行采样得到一系列的三维采样点,将这些三维采样点的坐标和视角作为神经网络的输入,三维采样点对应的颜色和体密度作为输出;
渲染模块,用于渲染正射平行投影影像,即利用构建好的神经网络渲染每条光线对应的颜色,得到正射影像的像素值;
真正射影像生成模块,用于根据正射影像的像素值,依据正射影像地面分辨率与坐标范围生成标准分幅的真正射影像。
在具体操作时,本发明提出的方法可以借助计算机软件技术进行实施,以实现自动化的流程执行。实施该方法的系统装置可以包括存储相关计算机程序的可读存储介质,以及能够运行这些计算机程序的计算机设备。需要强调的是,这些实施方式都属于本发明的保护范围之内,可以被技术领域内的专业人员采用。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (10)

1.一种基于隐式三维表达的航空真正射影像生成方法,其特征在于,包括如下步骤:
步骤1,数据准备,至少包括航空影像,影像位姿与相机参数,正射影像地面分辨率;
步骤2,构建神经网络,利用已知相机内外参数的航空影像数据训练神经网络;
对航空影像上每个像素对应的光线进行采样得到一系列的三维采样点,将这些三维采样点的坐标和视角作为神经网络的输入,三维采样点对应的颜色和体密度作为输出;
步骤3,渲染正射平行投影影像,即利用步骤2构建好的神经网络渲染每条光线对应的颜色,得到正射影像的像素值;
步骤4,根据正射影像的像素值,依据正射影像地面分辨率与坐标范围生成标准分幅的真正射影像。
2.根据权利要求1所述的基于隐式三维表达的航空真正射影像生成方法,其特征在于:步骤1中还包括激光雷达数据。
3.根据权利要求1所述的基于隐式三维表达的航空真正射影像生成方法,其特征在于:步骤2的具体实现方法为:
步骤2.1,沿光线r(t)采样三维空间点,t对应光线上的位置;
步骤2.2,构建神经网络F,采样点的坐标位置(x,y,z)和视角方向(θ,φ)作为输入,对应的颜色c和体密度σ作为输出构建一个全连接MLP神经网络F,对应关系为(c,σ)=F(x,y,z,θ,φ);
步骤2.3,渲染点投影航空影像:根据体绘制理论,沿光线r(t)积分得到光线在航空影像上对应的颜色其中δi=ti+1-ti表示采样点间的距离;σi和ci分别表示采样点ti的体密度和颜色;/>表示光线从第一个采样点到ti的累积透射率,N表示采样点的个数;
步骤2.4,限制约束条件:对于一组光线R,神经网络训练的损失函数定义为其中C(r(t)为光线r(t)在航空影像上对应的真正颜色。
4.根据权利要求2所述的基于隐式三维表达的航空真正射影像生成方法,其特征在于:步骤2的具体实现方法为:
步骤2.1,沿光线r(t)采样三维空间点,t对应光线上的位置;
步骤2.2,构建神经网络F,采样点的坐标位置(x,y,z)和视角方向(θ,φ)作为输入,对应的颜色c和体密度σ作为输出构建一个全连接MLP神经网络F,对应关系为(c,σ)=F(x,y,z,θ,φ);
步骤2.3,渲染点投影航空影像:根据体绘制理论,沿光线r(t)积分得到光线在航空影像上对应的颜色其中δi=ti+1-ti表示采样点间的距离;σi和ci分别表示采样点ti的体密度和颜色;/>表示光线从第一个采样点到ti的累积透射率,N表示采样点的个数;
步骤2.4,限制约束条件:对于一组光线R,神经网络训练的损失函数分为Lc和Llidar两部分,其中cij表示第j条光线的第i个采样点对应的颜色,clidar表示该采样点在三维空间中对应的激光雷达点云颜色,可通过K近邻算法寻找附近激光雷达点云并根据距离加权计算。
5.根据权利要求3所述的基于隐式三维表达的航空真正射影像生成方法,其特征在于:步骤2.1中,每个像素对应的光线r(t)=o+td从原点o发射,沿着方向d进行传播,对该光线进行采样,均匀或随机采样光线上的N个三维点,获得对应的坐标位置(x,y,z)和视角方向(θ,φ),其中θ表示俯仰角,φ表示方位角。
6.根据权利要求4所述的基于隐式三维表达的航空真正射影像生成方法,其特征在于:步骤2.1中,每个像素对应的光线r(t)=o+td从原点o发射,沿着方向d进行传播,对该光线进行采样,根据激光雷达数据计算场景中目标物体包围盒V={(x,y,z)|x∈(xmin,xmax),y∈(ymin,ymax),z∈(zmin,zmax)},在光线与包围盒交集的范围内进行采样,其中xmin、xmax、ymin、ymax、zmin、zmax分别代表激光雷达数据在x、y、z三个方向上的最小值和最大值;采样点表示为ti,i=1,2,...,N,其中N是采样点的个数,获得对应的坐标位置(x,y,z)和视角方向(θ,φ),其中θ表示俯仰角,φ表示方位角。
7.根据权利要求1所述的基于隐式三维表达的航空真正射影像生成方法,其特征在于:步骤3中,正射平行投影影像渲染的具体方法为:
步骤3.1,确定目标正射影像的目标范围在三维世界中x,y方向的坐标范围lx,ly,若激光雷达数据已知,则lx=xmax-xmin,ly=ymax-ymin;否则,根据航空影像相机位置的范围确定,即lx=pose_xmax-pose_xmin,ly=pose_ymax-pose_ymin,其中pose_xmax、pose_xmin、pose_ymax、pose_ymin分别代表所有航空影像相机位置在x、y两个方向上的最大值和最小值;
步骤3.2,确定目标正射影像的尺寸w、h,则需渲染w×h条光线,光线按照等间距平行且方向沿z轴排列,ocenter为正射影像在三维世界的中心,d为光线间距,即正射影像的地面分辨率,
步骤3.3,确定正射影像在三维世界的中心ocenter=(xcenter,ycenter,zcenter),默认设为航空影像相机在三维世界中x,y,z三个方向的均值;
步骤3.4,确定每条光线的发射源位置omn=(xmn,ymn,zmn), 其中m代表目标正射影像的第m行,n代表目标正射影像的第n列;由于平行投影的特殊性,/>可设为同一值zcenter
步骤3.5,确定每条光线的发射方向,所有光线发射方向均为沿着z轴负方向;
步骤3.6,渲染每个光线的颜色,利用步骤2构建好的神经网络渲染每条光线对应的颜色,得到大小为w×h×3的颜色矩阵M,M中每个元素对应正射影像的像素值。
8.根据权利要求1所述的基于隐式三维表达的航空真正射影像生成方法,其特征在于:步骤4中,真正射影像生成的具体方法为:
步骤4.1,依据正射影像地面分辨率与坐标范围确认地形图图幅;
步骤4.2,将步骤3中的各像素值记录至地形图幅范围,得到标准分幅的真正射影像。
9.根据权利要求1所述的基于隐式三维表达的航空真正射影像生成方法,其特征在于:所述影像位姿与相机参数包括①影像位姿参数,即相机在三维空间中的位置和方向;②相机内部参数,即焦距、像主点位置、畸变参数。
10.一种基于隐式三维表达的航空真正射影像生成系统,其特征在于,包括如下模块:
数据准备模块,用于数据准备,至少包括航空影像,影像位姿与相机参数,正射影像地面分辨率;
神经网络构建模块,用于构建神经网络,利用已知相机内外参数的航空影像数据训练神经网络;
对航空影像上每个像素对应的光线进行采样得到一系列的三维采样点,将这些三维采样点的坐标和视角作为神经网络的输入,三维采样点对应的颜色和体密度作为输出;
渲染模块,用于渲染正射平行投影影像,即利用构建好的神经网络渲染每条光线对应的颜色,得到正射影像的像素值;
真正射影像生成模块,用于根据正射影像的像素值,依据正射影像地面分辨率与坐标范围生成标准分幅的真正射影像。
CN202311037877.3A 2023-08-16 一种基于隐式三维表达的航空真正射影像生成方法和系统 Active CN117274472B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311037877.3A CN117274472B (zh) 2023-08-16 一种基于隐式三维表达的航空真正射影像生成方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311037877.3A CN117274472B (zh) 2023-08-16 一种基于隐式三维表达的航空真正射影像生成方法和系统

Publications (2)

Publication Number Publication Date
CN117274472A true CN117274472A (zh) 2023-12-22
CN117274472B CN117274472B (zh) 2024-05-31

Family

ID=

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11099275B1 (en) * 2020-04-29 2021-08-24 Tsinghua University LiDAR point cloud reflection intensity complementation method and system
WO2022198686A1 (en) * 2021-03-26 2022-09-29 Shanghaitech University Accelerated neural radiance fields for view synthesis
CN115359195A (zh) * 2022-07-18 2022-11-18 北京建筑大学 一种正射影像生成方法、装置、存储介质和电子设备
CN115761178A (zh) * 2022-10-10 2023-03-07 哈尔滨工业大学(深圳) 基于隐式神经表示的多视图三维重建方法
CN116258816A (zh) * 2023-02-15 2023-06-13 中国电子科技集团公司第五十四研究所 一种基于神经辐射场的遥感影像仿真方法
CN116452758A (zh) * 2023-06-20 2023-07-18 擎翌(上海)智能科技有限公司 一种神经辐射场模型加速训练方法、装置、设备及介质
CN116543117A (zh) * 2023-03-16 2023-08-04 中国科学院地理科学与资源研究所 一种无人机影像的高精度大场景三维建模方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11099275B1 (en) * 2020-04-29 2021-08-24 Tsinghua University LiDAR point cloud reflection intensity complementation method and system
WO2022198686A1 (en) * 2021-03-26 2022-09-29 Shanghaitech University Accelerated neural radiance fields for view synthesis
CN115359195A (zh) * 2022-07-18 2022-11-18 北京建筑大学 一种正射影像生成方法、装置、存储介质和电子设备
CN115761178A (zh) * 2022-10-10 2023-03-07 哈尔滨工业大学(深圳) 基于隐式神经表示的多视图三维重建方法
CN116258816A (zh) * 2023-02-15 2023-06-13 中国电子科技集团公司第五十四研究所 一种基于神经辐射场的遥感影像仿真方法
CN116543117A (zh) * 2023-03-16 2023-08-04 中国科学院地理科学与资源研究所 一种无人机影像的高精度大场景三维建模方法
CN116452758A (zh) * 2023-06-20 2023-07-18 擎翌(上海)智能科技有限公司 一种神经辐射场模型加速训练方法、装置、设备及介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
QIAOGE LI; ITSUKI UEDA; CHUN XIE; HIDEHIKO SHISHIDO; ITARU KITAHARA: "OmniVoxel: A Fast and Precise Reconstruction Method of Omnidirectional Neural Radiance Field", 2022 IEEE 11TH GLOBAL CONFERENCE ON CONSUMER ELECTRONICS (GCCE), 18 January 2023 (2023-01-18) *
张卡;盛业华;孟微波;徐鹏;: "基于多视影像匹配的三维彩色点云自动生成", 光学精密工程, no. 07, 15 July 2013 (2013-07-15) *
谭攀;王岚;卢建洪;: "基于实景三维数据环境的真正射影像研究", 地理空间信息, no. 04, 28 April 2020 (2020-04-28) *

Similar Documents

Publication Publication Date Title
CN112132972B (zh) 一种激光与图像数据融合的三维重建方法及系统
CN110675418B (zh) 一种基于ds证据理论的目标轨迹优化方法
WO2019127445A1 (zh) 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品
CN104330074B (zh) 一种智能测绘平台及其实现方法
CN110728671B (zh) 基于视觉的无纹理场景的稠密重建方法
CN106570905B (zh) 一种非合作目标点云初始姿态验证方法
CN110488871B (zh) 一种基于二三维一体化的无人机路径动态规划方法
CN102496181A (zh) 面向规模化生产的真正射影像制作方法
CN114419147A (zh) 一种救援机器人智能化远程人机交互控制方法及系统
CN112270698B (zh) 基于最邻近曲面的非刚性几何配准方法
US11922572B2 (en) Method for 3D reconstruction from satellite imagery
CN113298947B (zh) 一种基于多源数据融合的变电站三维建模方法介质及系统
CN115937288A (zh) 一种变电站三维场景模型构建方法
CN115359195B (zh) 一种正射影像生成方法、装置、存储介质和电子设备
CN114463521A (zh) 一种面向空地影像数据融合的建筑目标点云快速生成方法
Favorskaya et al. Realistic 3D-modeling of forest growth with natural effect
CN112258631B (zh) 一种基于深度神经网络的三维目标检测方法及系统
CN117274472B (zh) 一种基于隐式三维表达的航空真正射影像生成方法和系统
Deng et al. Automatic true orthophoto generation based on three-dimensional building model using multiview urban aerial images
CN107784666B (zh) 基于立体影像的地形地物三维变化检测和更新方法
CN116704112A (zh) 一种用于对象重建的3d扫描系统
CN117274472A (zh) 一种基于隐式三维表达的航空真正射影像生成方法和系统
Ma et al. Low-altitude photogrammetry and remote sensing in UAV for improving mapping accuracy
US11747141B2 (en) System and method for providing improved geocoded reference data to a 3D map representation
CN114913297A (zh) 一种基于mvs稠密点云的场景正射影像生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant