CN112002007A - 基于空地影像的模型获取方法及装置、设备、存储介质 - Google Patents
基于空地影像的模型获取方法及装置、设备、存储介质 Download PDFInfo
- Publication number
- CN112002007A CN112002007A CN202010898714.4A CN202010898714A CN112002007A CN 112002007 A CN112002007 A CN 112002007A CN 202010898714 A CN202010898714 A CN 202010898714A CN 112002007 A CN112002007 A CN 112002007A
- Authority
- CN
- China
- Prior art keywords
- ground
- texture
- image
- feature point
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 63
- 230000000007 visual effect Effects 0.000 claims abstract description 15
- 239000013598 vector Substances 0.000 claims description 143
- 239000011159 matrix material Substances 0.000 claims description 45
- 238000012216 screening Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 12
- 238000010586 diagram Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 7
- 238000013507 mapping Methods 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
本申请所述技术方案,依据航空影像和地面影像,获取配准后的航空网格纹理模型数据与地面相机位姿数据,依据配准后的航空网格纹理模型数据与所述地面相机位姿数据,生成纹理图,依据纹理图与地面影像的匹配特征点对,得到第一匹配特征点对,通过获取纹理特征点在航空影像中对应的可视像素点,得到航空特征点,依据匹配特征点对指示的对应关系,以及纹理特征点与航空特征点的对应关系,获取第二匹配特征点对,依据第二匹配特征点对,将航空影像和地面影像重建生成空地网格纹理模型。可见,将纹理图作为桥梁,获取航空特征点和地面特征点的匹配对应关系。并且,无需枚举式的进行影像的物方平面映射,所以运算量有很大降低,从而具有较高的运算性能。
Description
技术领域
本申请涉及遥感领域,尤其涉及一种基于空地影像的模型获取方法及装置、设备、存储介质。
背景技术
城市精细三维模型已经成为智慧城市建设的关键基础信息,在城市规划、管理和监测等方面具有巨大的潜力。航空倾斜影像作为城市大规模三维重建的主要数据来源,能够满足城市三维建模的基本任务。但由于城区建筑物间的遮挡和航空倾斜影像的视角的限制,建筑物底部容易出现几何结构丢失,纹理拉花,模型空洞等现象,无法满足城市精细化建模的需求。
近年来的研究表明,航空和地面影像联合一体建模是改善城区精细三维模型的有效方法。但由于航空与地面影像间视角的差异巨大,传统的特征点匹配的方法失效,所以无法获取足够的特征匹配点用于建模。
当前主要通过将航空与地面影像纠正到同一物方平面后再进行匹配的方法来解决上述问题,然而该方法会导致平方级的时间复杂度,使得建模算法的性能降低。
发明内容
本申请提供了一种基于空地影像的模型获取方法及装置,目的在于解决如何高效地基于空地影像获取模型的问题。
为了实现上述目的,本申请提供了以下技术方案:
一种基于空地影像的模型获取方法,包括:
依据航空影像和地面影像,获取配准后的航空网格纹理模型数据与地面相机位姿数据;
依据配准后的所述航空网格纹理模型数据与所述地面相机位姿数据,生成纹理图;
依据所述纹理图与所述地面影像的匹配特征点对,得到第一匹配特征点对,所述第一匹配特征点对包括:纹理特征点和地面特征点,所述纹理特征点为属于所述纹理图的像素点,所述地面特征点为属于所述地面影像的像素点;
通过获取所述纹理特征点在所述航空影像中对应的可视像素点,得到航空特征点;
依据所述匹配特征点对指示的对应关系,以及所述纹理特征点与所述航空特征点的对应关系,获取第二匹配特征点对,所述第二匹配特征点对包括所述航空特征点和对应的所述地面特征点;
依据所述第二匹配特征点对,将所述航空影像和地面影像重建生成空地网格纹理模型。
可选的,在所述依据所述第二匹配特征点对,获取所述空地联合模型之前,还包括:
提取地面局部影像块,所述地面局部影像块为所述第二匹配特征点对中的所述地面特征点,在所述地面影像中对应的局部影像块;
获取所述地面局部影像块在所述航空影像中对应的局部影像块,得到航空局部影像块;
将所述航空局部影像块进行单应性变换,得到变换后航空局部影像块;
如果所述变换后航空局部影像块与所述地面局部影像块的相似度小于预设的相似度阈值,则删除所述第二匹配特征点对。
可选的,所述通过获取所述纹理图与所述地面影像的匹配特征点对,得到第一匹配特征点对,包括:
将所述纹理图与所述地面影像进行特征匹配,得到所述匹配特征点对;
获取所述匹配特征点对在预设坐标系下对应的向量,其中,任意一个所述匹配特征点对应的向量为:以该匹配特征点对中的所述地面特征点为起点,以该匹配特征点对中的所述纹理特征点为终点的向量;
通过从所述向量中筛选出不满足预设筛选条件的向量,得到目标向量;所述预设筛选条件包括:长度一致性、相交一致性和方向一致性的至少一项;
删除生成所述目标向量的所述匹配特征点对,得到筛选后匹配特征点对;
依据所述筛选后匹配特征点对,获取所述第一匹配特征点对。
可选的,从所述向量中筛选出不满足所述长度一致性的向量的过程,包括:
将长度大于预设长度阈值的向量,作为不满足所述长度一致性的向量,所述预设长度阈值依据所述地面影像的尺寸预先设置。
可选的,从所述向量中筛选出不满足所述相交一致性的向量的过程,包括:
获取生成第一向量的所述地面特征点,在所述地面影像中的邻近点;所述第一向量为任意一个所述向量;
获取所述邻近点与所述纹理图中对应的特征点构成的向量,作为第一对比向量;
如果所述第一向量和所述第一对比向量中存在相交向量,则所述第一向量为不满足所述相交一致性的向量。
可选的,从所述向量中筛选出不满足所述方向一致性的向量的过程,包括:
获取生成第一向量的所述地面特征点,在所述地面影像中的邻近点;所述第一向量为任意一个所述向量;
获取所述邻近点与所述第一向量中的所述纹理特征点构成的向量,作为第二对比向量;
如果所述第一向量与主方向的角度差大于预设角度阈值,则所述第一向量为不满足所述方向一致性的向量,所述主方向为所述第二对比向量的方向的均值。
可选的,所述依据所述筛选后匹配特征点对,获取所述第一匹配特征点对,包括:
将所述筛选后匹配特征点对随机构成点对集合;
获取所述点对集合对应的基础矩阵,任意一个所述点对集合对应的所述基础矩阵,依据从该点对集合中,随机抽取的预设数量的所述筛选后匹配特征点对生成;
获取各个所述基础矩阵对应的局外点对的数量,其中,任意一个所述基础矩阵对应的所述局外点对为:该基础矩阵对应的所述点对集合中,与该基础矩阵的距离大于预设的距离阈值的剩余点对,所述剩余点对为该基础矩阵对应的所述点对集合中,除生成该基础矩阵的点对之外的其它点对;
将对应的所述局外点的数量最少的所述基础矩阵作为目标基础矩阵;
将所述目标基础矩阵对应的所述点对集合,作为目标点对集合;
从所述目标点对集合中,删除所述目标基础矩阵对应的所述局外点对,得到所述第一匹配特征点对。
可选的,所述获取所述纹理特征点在所述航空影像中对应的可视像素点,得到航空特征点,包括:
获取与所述地面相机位姿数据配准后的航空相机位姿数据;
依据所述纹理特征点对应的深度值和所述航空相机位姿数据,计算所述纹理特征点的三维坐标,所述深度值为所述纹理特征点的位置坐标在深度图中对应的像素值;
在所述纹理特征点在所述航空影像中可视的情况下,依据所述三维坐标和所述航空相机位姿数据,获取所述航空特征点。
可选的,确认所述纹理特征点在所述航空影像中可视,包括:
获取所述纹理特征点的法向量值,所述法向量值为所述纹理特征点的位置坐标在法向量图中对应的像素值;
如果所述法向量值与方向向量值的角度差值小于预设的角度差阈值,则所述纹理特征点在所述航空影像中可见,所述方向向量值为所述三维坐标的方向向量值。
可选的,所述深度图的获取方法包括:
依据配准后的所述航空网格纹理模型数据与所述地面相机位姿数据,生成所述深度图;
所述法向量图的获取方法包括:
通过所述地面相机位姿数据,将所述深度图转换为参照图;
将所述参照图像转换为法向量图,其中,所述法向量图中任意一个像素点的法向量值为,在所述参照图中,该像素点的邻域像素点的三维坐标的预设运算的结果。
一种基于空地影像的模型获取装置,包括:
配准模块,用于依据航空影像和地面影像,获取配准后的航空网格纹理模型数据与地面相机位姿数据;
图像生成模块,用于依据配准后的所述航空网格纹理模型数据与所述地面相机位姿数据,生成纹理图;
第一匹配模块,用于依据所述纹理图与所述地面影像的匹配特征点对,得到第一匹配特征点对,所述第一匹配特征点对包括:纹理特征点和地面特征点,所述纹理特征点为属于所述纹理图的像素点,所述地面特征点为属于所述地面影像的像素点;
获取模块,用于通过获取所述纹理特征点在所述航空影像中对应的可视像素点,得到航空特征点;
第二匹配模块,用于依据所述匹配特征点对指示的对应关系,以及所述纹理特征点与所述航空特征点的对应关系,获取第二匹配特征点对,所述第二匹配特征点对包括所述航空特征点和对应的所述地面特征点;
重建模块,用于依据所述第二匹配特征点对,将所述航空影像和地面影像重建生成空地网格纹理模型。
一种基于空地影像的模型获取设备,包括:
存储器和处理器,所述存储器用于存储程序,所述处理器用于运行所述程序,以实现上述的基于空地影像的模型获取方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的基于空地影像的模型获取方法。
本申请所述的方法及装置,依据航空影像和地面影像,获取配准后的航空网格纹理模型数据与地面相机位姿数据,依据配准后的航空网格纹理模型数据与所述地面相机位姿数据,生成纹理图,依据纹理图与地面影像的匹配特征点对,得到第一匹配特征点对,通过获取纹理特征点在航空影像中对应的可视像素点,得到航空特征点,依据匹配特征点对指示的对应关系,以及纹理特征点与航空特征点的对应关系,获取第二匹配特征点对,依据第二匹配特征点对,将航空影像和地面影像重建生成空地网格纹理模型。可见,将纹理图作为桥梁,获取航空特征点和地面特征点的匹配对应关系。并且,无需进行影像的物方平面映射,所以运算量有很大降低,从而具有较高的运算性能。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1(a)为本申请实施例公开的一种基于空地影像的模型获取方法的流程图;
图1(b)为本申请实施例公开的又一种基于空地影像的模型获取方法的流程图;
图2为本申请实施例公开的获取配准后的航空网格纹理模型数据与地面稀疏模型数据的流程图;
图3为本申请实施例公开的依据配准后的模型,生成纹理图、深度图和法向量图的流程图;
图4为本申请实施例公开的获取第一匹配特征点对的流程图;
图5(a)为不满足长度一致性的向量的示例图;
图5(b)为不满足相交一致性的向量的示例图;
图5(c)为不满足方向一致性的向量的示例图;
图6为本申请实施例公开的获取航空特征点的流程图;
图7为本申请实施例公开的一种基于空地影像的模型获取装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1(a)为本申请实施例公开的一种基于空地影像的模型获取方法,包括以下步骤:
S101:依据航空影像和地面影像,获取配准后的航空网格纹理模型数据、航空相机位姿数据与地面稀疏模型数据、地面相机位姿数据。
航空影像通常使用航拍设备采集得到,例如,无人机上部署多个摄像头,多个摄像头分别从不同角度、以预设周期采集图像,得到原始航空影像。通常,航空影像包括多个RGB图像。
地面影像通常使用部署在地面的图像采集设备拍摄。地面影像包括多个RGB图像。
可以理解的是,因为本申请所述技术方案的目的在于,基于航空影像和地面影像构建空地一体的模型,所以,本实施例中获取的航空影像和地面影像中,均至少包括同一对象(例如空间区域、建筑物)的图像。
S101的具体实现过程如图2所示。
S102:依据配准后的航空网格纹理模型数据与地面相机位姿数据,生成纹理图。
S102的具体实现过程如图3所示。
S103:依据纹理图与地面影像的匹配特征点对,得到第一匹配特征点对。
其中,第一匹配特征点对包括:纹理特征点和地面特征点。纹理特征点为属于纹理图的像素点。地面特征点为属于地面影像的像素点。
即:任意一个第一匹配特征点对,包括一个纹理特征点和一个地面特征点。任意一个第一匹配特征点对中的纹理特征点与地面特征点匹配。基于现有的特征匹配原理可知,两点匹配,可以简单理解为,两点被作为同一物理点。
可选的,本实施例中,为了提高第一匹配特征点对的精度,可以使用现有的特征匹配方式得到匹配特征点对,再对匹配特征点对进行筛选,得到第一匹配特征点对。具体实现方式可以参见图4。
或者,将使用现有的特征匹配方式得到匹配特征点对,作为第一匹配特征点对。
S104:获取纹理特征点在航空影像中对应的可视像素点,得到航空特征点。
具体的,首先判断纹理特征点对应至航空影像中的像素点后,对应的像素点是否可见,如果可见,则获取在航空影像中对应的像素点。S104的具体实现方式可以参见图6。
S105:依据匹配特征点对指示的对应关系,以及纹理特征点与航空特征点的对应关系,获取第二匹配特征点对。
第二匹配特征点对包括航空特征点和对应的地面特征点。可见,以纹理特征点为桥梁,获取到地面特征点与航空特征点的对应关系。
S106:依据第二匹配特征点对,将航空影像和地面影像联合重建生成空地网格纹理模型。
至此,通过获取地面影像和航空影像的特征匹配点,使得地面影像和航空影像能够匹配成为空地影像对,再将匹配后的空地影像对,结合各自平台内的影像对,联合重建生成空地一体的网格纹理模型。
可选的,还可以使用配置后的地面稀疏模型数据、以及地面相机位姿数据,对重建地面影像,得到地面网格纹理模型。还可以使用配准后的航空网格纹理模型数据和航空相机位姿数据,得到航空网格纹理模型。
图1(a)所示的流程中,将纹理图作为桥梁,获取地面影像与航空影像的匹配特征点。与现有的空地建模方法相比,具有以下优点:
1、因为以纹理图为中间桥梁,而非直接对地面影像和航空影像进行特征点匹配,所以与现有技术相比,能够获取精度高、数量多的匹配特征点对。
2、无需枚举所有空地影像对并进行物方平面映射,而仅需对地面影像与对应纹理图像进行匹配并传播至航空影像得到空地影像对,所以,仅有与影像的数量的相关的线性时间复杂度。
基于上述优点,本实施例所述的方法,能够显著提升航空和地面影像匹配的准确性,从而提高空地模型的准确性。并且,对不同视角差异的空地影像匹配具有良好的稳健性以及较高的效率。
可选的,为了进一步提高匹配特征点对的精度,还可以对第二匹配特征点对进行筛选,使用筛选后的第二匹配特征点对结合各自平台的匹配对联合重建生成空地一体的网格纹理模型。
图1(b)为本申请实施例公开的又一种基于空地影像的模型获取方法,与图1相比,增加以下步骤:
S107:提取第二匹配特征点对中的地面特征点对应的局部影像块,得到地面局部影像块。
具体的,对于任意一个地面特征点,以地面特征点为中心点,在地面影像中获取区域,区域的尺寸和形状可以预先配置,例如,局部影像块为矩形区域,长和宽均从中心点向外扩展20个像素。
S108:获取地面局部影像块在航空影像上对应的局部影像块,得到航空局部影像块。
具体的,获取地面局部影像块的中的多个像素点在深度图中的深度值,再依据公式(2)计算多个像素点的三维位置坐标。使用多个像素点的三维位置坐标,计算多个像素点在航空影像上的航空位置坐标。依据多个像素点的航空位置坐标,获取地面局部影像块对应的航空局部影像块。
多个像素点优选地面局部影像块的边界点,例如,地面局部影像块为矩形,多个像素点为四个角点。连接四个角点的航空位置坐标,得到航空局部影像块。
S109:将航空局部影像块通过单应性变换,得到变换后航空局部影像块。
由于航空局部影像块通过地面局部影像块计算得到,所以可能为不规则四边形,因此,可以通过单应性变换将航空局部影像块纠正。
S110:如果变换后航空局部影像块与地面局部影像块的相似度小于预设的相似度阈值,则删除第二匹配特征点对。
可见,S107-S110对第二匹配特征点对进行了又一次筛选,所以,筛选后的第二匹配特征点对的准确性更高,因此,能够进一步提高空地联合模型的准确性。
需要说明的是,图1(b)中,与图1(a)中相同的步骤,这里不再赘述。
图2为获取配准后的航空网格纹理模型数据与地面稀疏模型数据的流程,包括以下步骤:
S201:将航空影像转换为航空网格纹理模型。
具体的,可以使用现有技术,例如运动恢复结构算法(SFM)和多视三维重建算法(MVS),将航空影像转换为航空网格纹理模型数据,并通过渲染航空网格纹理模型数据,显示航空网格纹理模型。
其中,航空网格纹理模型数据包括:三维位置坐标与对应的像素值。本实施例中,以(Xmodel、Ymodel、Zmodel),表示航空网格纹理模型数据中的三维位置坐标。为了与其它三维位置坐标相区分,这里将航空网格纹理模型数据中的三维位置坐标称为航空模型三维位置坐标。
S202:获取在航空网格纹理模型中选择的网格点与地面影像上对应的像素点,作为控制点。
具体的,可以由人工从航空网格纹理模型中选择网格点,从地面影像中选取像素点,其中,网格点对应的地面影像中的像素点,为与网格点属于相同地物点的像素点,例如,网格点为人行横道的一个角点,则地面影像中的像素点为该角点在地面影像上成像的像素点。
S203:以控制点作为约束条件,将地面影像转换为地面稀疏模型数据和地面相机位姿数据。
通常,地面相机位姿数据可以包括采集地面影像的相机的参数。具体的,相机的参数可以包括相机拍摄位置信息、姿态旋转矩阵R和视椎体属性参数等。
其中,得到的地面稀疏模型数据只具有相对地理位置属性,因此,将控制点作为约束条件,具体地,将附带控制点信息的地面影像进行SFM运算,可以将地面稀疏模型配准到航空网格纹理模型的地理坐标系。
本实施例中,控制点的数量均可以仅选取3或4个,但不作为限定。
可以理解的是,S203实现了地面稀疏模型、地面相机位姿与航空网格纹理模型的粗略配准。并且,因为航空网格纹理模型由航空相机拍摄的航空影像转换得到,所以,可以依据地面稀疏模型、地面相机位姿与航空网格纹理模型的粗略配准,得到地面稀疏模型、地面相机位姿与航空网格纹理模型、航空相机位姿的粗略配准。
图2所示的流程,从原始影像(即航空影像和地面影像)获取对应的模型,并通过人机交互的方式,获得配准的模型,便于实现且准确性较高。
需要说明的是,图2所示的配准过程仅为示例,还可以使用现有的其它配准方式配准航空网格纹理模型数据、航空相机位姿数据与地面稀疏模型数据、地面相机位姿数据,这里不做限定。
图3为依据配准后的模型,生成纹理图、深度图和法向量图的流程。
S301:依据地面相机位姿数据中的视椎体属性参数、姿态旋转矩阵R、以及航空网格纹理模型数据中的航空模型三维位置坐标,计算纹理图。
具体的,使用公式(1)计算纹理图:
其中,ViewMatrix为视椎体属性参数中的视点变换矩阵V,ProjectionMatrix为视椎体属性参数中的投影变换矩阵P,WindowsMatrix为视椎体属性参数中的视口变换矩阵W。(Xmodel,Ymodel,Zmodel)为三维坐标。
本步骤中,公式(1)中的视椎体属性参数的代入数值为地面相机的位姿数据中的视椎体属性参数的值。(Xmodel,Ymodel,Zmodel)的代入数值为航空网格纹理模型数据中的航空模型三维位置坐标的值。将上述数值代入后,计算得到(Xmodel,Ymodel,Zmodel)在纹理图中的坐标值。纹理图中的各个坐标值对应的d为该坐标值的纹理值。纹理图中的各个坐标值的纹理值由对应的航空网格模型三维位置坐标(通过(Xmodel,Ymodel,Zmodel)对应)对应的纹理值映射得到,而不用通过公式计算得到。
其中,V依据R得到,具体实现方式可以参见现有技术。
S302:依据地面相机位姿数据中的姿态旋转矩阵R和视椎体属性参数、以及航空网格纹理模型数据中的航空模型三维位置坐标,计算深度图。
具体的,与纹理图的计算方式类似,依据公式(1)得到深度图:
与上述求解方式不同的是,x和y为深度图中的像素点的位置坐标,d为像素点(x,y)的深度值,需要求解公式(1)得到,而不能直接从航空网格模型三维位置坐标的像素值映射得到。
S303:依据深度图得到法向量图。
具体的,根据深度图中的像素坐标值以及对应的深度值,通过地面相机位姿数据中的V、P、和W矩阵反算得到每个像素点对应的三维坐标(XW、YW、ZW),即得到参照图像:
将参照图像转换为法向量图,其中,法向量图中任意一个像素点的法向量值为,在参照图中,该像素点的8邻域像素点的三维坐标的预设的运算的结果。运算的示例可以为:向量叉乘。
本实施例中,纹理图、深度图、法向量图的具体生成方式的优势为:
1、获取方式容易:纹理图和深度图通过结合航空网格纹理模型和地面相机位姿数据离屏渲染的方式即可同时获取,法向量图仅需对各像素邻域的像素点进行简单向量计算即可获取。
2、图像信息丰富:纹理图和深度图对应图像位置保留着航空网格模型的RGB信息和三维位置信息,法向量图则能反映图像中像素的三维朝向情况。
图4为获取第一匹配特征点对的流程,包括以下步骤:
S401:将纹理图与地面影像进行特征匹配,得到匹配特征点对。
具体的,可以使用现有特征匹配算法,例如SIFT特征匹配算法,将纹理图与地面影像进行特征匹配,得到匹配特征点对。
S402:获取匹配特征点对在预设坐标系下对应的向量。
因为纹理图的获取依据包括与航空网格纹理模型粗配准后的地面相机位姿数据中的视椎体属性参数,所以纹理图与地面影像具有近似的视角与姿态,因此,匹配特征点可以纳入同一坐标系。具体选择哪一个坐标系,可以预先配置,这里不做限定。
任意一个匹配特征点对可以构成一个向量,即:纹理特征点q(xq,yq)和地面特征点p(xp,yp)组成的匹配特征点对,对应的向量为:该匹配特征点对中的地面特征点p(xp,yp)为起点,以该匹配特征点对中的纹理特征点q(xq,yq)为终点的向量:也就是说,向量的方向为p(xp,yp)指向q(xq,yq)。
S403:通过从向量中筛选出不满足预设筛选条件的向量,得到目标向量。
其中,预设筛选条件包括:长度一致性、相交一致性和方向一致性的至少一项。
具体的,从向量中筛选出不满足长度一致性的向量的方式为:将长度大于预设长度阈值的向量,作为不满足长度一致性的向量。其中,预设长度阈值依据所述地面影像的尺寸预先设置,例如,长度阈值为地面影像的尺寸的2%。以图5(a)为例,假设向量p1 q1、p2 q2和p3 q3为三个向量,p3 q3的长度大于地面影像的尺寸的2%,所以不满足长度一致性。
具体的,从向量中筛选出不满足相交一致性的向量的方式为:
将向量中的任意一个向量称为第一向量。获取生成第一向量的地面特征点,在地面影像中的邻近点。可选的,可以使用现有的KD树的近邻搜索算法,从地面影像中搜索地面特征点的邻近点。以图5(b)为例,假设生成目标向量的地面特征点为p1,p1的邻近点为p2和p3。
获取邻近点与纹理图中对应的特征点构成的向量,作为第一对比向量,还以图5(b)为例,假设p1与q1为匹配特征点对,则p2指向q2的向量,以及p3指向q3的向量,均为第一对比向量。各个邻近点对应的纹理特征点的获取方式,可以参见上述特征点的匹配算法。
如果第一向量和第一对比向量中存在相交向量,则第一向量为不满足相交一致性的向量。
具体的,从向量中筛选出不满足方向一致性的向量的方式为:
获取生成第一向量的地面特征点。获取邻近点与第一向量中的纹理特征点构成的向量,作为第二对比向量,如果第一向量与主方向的角度差大于预设角度阈值,则第一向量为不满足方向一致性的向量,主方向为第二对比向量的方向的均值。均值的示例为90度。例如,图5(c)中,虚线为主方向,p3 q3与主方向的夹角将近180度,所以不满足方向一致性。
可以理解的是,在预设筛选条件包括长度一致性、相交一致性和方向一致性的情况下,可选的,可以依次使用长度一致性、相交一致性和方向一致性筛选向量,即后一筛选条件的筛选对象为前一筛选对象的筛选结果,以节省资源。但筛选条件的先后顺序,不做限定。
S404:删除生成目标向量的匹配特征点对,得到筛选后匹配特征点对。
S405:依据筛选后匹配特征点对,获取第一匹配特征点对。
具体的,可以将筛选后匹配特征点对作为第一匹配特征点对。或者,为了进一步提高第一匹配特征点对的精度,还可以执行S406-S408。
S406:在N个筛选后匹配特征点对中随机选择k个点对集合,每个点对集合由n个筛选后匹配特征对组成。
可以理解的是,每个点对集合中的筛选后匹配特征点对的数量n为预设的,但点对集合中匹配特征点对的选取是随机的,且点对集合数量k的取值依据k次迭代后至少有一次选取的n个点都是局内点的概率z决定。如公式(3)、公式(4),假设w为N个匹配点对中局内点对的比例,则有
P(1-(1-wn)k)>z (3)
S407:获取点对集合对应的基础矩阵。
其中,任意一个点对集合可估计得到对应的一个基础矩阵,依据从该点对集合中,随机抽取的预设数量的筛选后匹配特征点对生成。例如,随机抽取8个筛选后匹配特征点对,构成一个基础矩阵。基础矩阵的定义和构成基础矩阵的具体方式,可以参见现有技术。
S408:获取基础矩阵对应的局外点的数量。
其中,任意一个基础矩阵对应的局外点为,该基础矩阵对应的点对集合中,与该基础矩阵的距离大于预设的距离阈值的剩余点对。
剩余点对为该基础矩阵对应的点对集合中,除生成该基础矩阵的点对之外的其它点对。
S409:将对应的局外点的数量最少的基础矩阵作为目标基础矩阵。
S410:将目标基础矩阵对应的点对集合,作为目标点对集合。
S411:从目标点对集合中,删除目标基础矩阵对应的局外点对,得到第一匹配特征点对。
从图4所示的流程可以看出,从多个角度对纹理图与地面影像的匹配特征点进行筛选,有利于删除误匹配的特征匹配点。
图6为获取航空特征点的流程,包括以下步骤:
S601:基于深度图,获取纹理特征点的深度值。
具体的,使用纹理特征点的位置坐标,在深度图中,查找像素点,查找到的像素点的深度值,即为纹理特征点的深度值。
S602:依据纹理特征点的深度值和航空视椎体属性参数,计算纹理特征点的三维坐标。
具体的,使用公式(2),计算得到可视纹理特征点的三维坐标(XW、YW、ZW)。代入公式(2)的是航空相机位姿数据中的视椎体属性参数。
S603:获取纹理特征点的法向量值。
具体的,使用纹理特征点的位置坐标,在法向量图中查找像素点,查找到的像素点的法向量值即为纹理特征点的法向量值。
S604:依据法向量值、以及可视纹理特征点的三维坐标的方向向量值,判断纹理特征点在航空影像中是否可见,如果是,执行S605。
具体的,本实施例中,使用公式(5),计算角度差值,如果角度差值小于预设的角度差阈值,例如60度,则纹理特征点在航空影像中可见,否则不可见。本实施例中,将在航空影像中可见的纹理特征点称为可视纹理特征点。
S605:依据可视纹理特征点的三维坐标和航空相机位姿数据,得到可见的纹理特征点对应的航空特征点。
具体的,将可视纹理特征点的三维坐标和航空相机位姿数据中的视椎体属性参数代入公式(1)的右边的对应参数,得到航空特征点(x,y),其中,d的数值为可视纹理特征点在深度图中对应的深度值。
图7为本申请实施例公开的一种基于空地影像的模型获取装置,包括:
配准模块,用于依据航空影像和地面影像,获取配准后的航空网格纹理模型数据与地面相机位姿数据;
图像生成模块,用于依据配准后的所述航空网格纹理模型数据与所述地面相机位姿数据,生成纹理图;
第一匹配模块,用于依据所述纹理图与所述地面影像的匹配特征点对,得到第一匹配特征点对,所述第一匹配特征点对包括:纹理特征点和地面特征点,所述纹理特征点为属于所述纹理图的像素点,所述地面特征点为属于所述地面影像的像素点;
获取模块,用于通过获取所述纹理特征点在所述航空影像中对应的可视像素点,得到航空特征点;
第二匹配模块,用于依据所述匹配特征点对指示的对应关系,以及所述纹理特征点与所述航空特征点的对应关系,获取第二匹配特征点对,所述第二匹配特征点对包括所述航空特征点和对应的所述地面特征点;
重建模块,用于依据所述第二匹配特征点对,将所述航空影像和地面影像重建生成空地网格纹理模型。
上述各个模块的功能的具体实现方式,可以参见上述方法实施例,这里不再赘述。
本申请实施例还公开了一种基于空地影像的模型获取设备,包括:
存储器和处理器,所述存储器用于存储程序,所述处理器用于运行所述程序,以实现上述实施例所述的基于空地影像的模型获取方法。
本申请实施例还公开了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例所述的基于空地影像的模型获取方法。
本申请实施例方法所述的功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算设备可读取存储介质中。基于这样的理解,本申请实施例对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一台计算设备(可以是个人计算机,服务器,移动计算设备或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (13)
1.一种基于空地影像的模型获取方法,其特征在于,包括:
依据航空影像和地面影像,获取配准后的航空网格纹理模型数据与地面相机位姿数据;
依据配准后的所述航空网格纹理模型数据与所述地面相机位姿数据,生成纹理图;
依据所述纹理图与所述地面影像的匹配特征点对,得到第一匹配特征点对,所述第一匹配特征点对包括:纹理特征点和地面特征点,所述纹理特征点为属于所述纹理图的像素点,所述地面特征点为属于所述地面影像的像素点;
通过获取所述纹理特征点在所述航空影像中对应的可视像素点,得到航空特征点;
依据所述匹配特征点对指示的对应关系,以及所述纹理特征点与所述航空特征点的对应关系,获取第二匹配特征点对,所述第二匹配特征点对包括所述航空特征点和对应的所述地面特征点;
依据所述第二匹配特征点对,将所述航空影像和地面影像重建生成空地网格纹理模型。
2.根据权利要求1所述的方法,其特征在于,在所述依据所述第二匹配特征点对,获取所述空地联合模型之前,还包括:
提取地面局部影像块,所述地面局部影像块为所述第二匹配特征点对中的所述地面特征点,在所述地面影像中对应的局部影像块;
获取所述地面局部影像块在所述航空影像中对应的局部影像块,得到航空局部影像块;
将所述航空局部影像块进行单应性变换,得到变换后航空局部影像块;
如果所述变换后航空局部影像块与所述地面局部影像块的相似度小于预设的相似度阈值,则删除所述第二匹配特征点对。
3.根据权利要求1所述的方法,其特征在于,所述通过获取所述纹理图与所述地面影像的匹配特征点对,得到第一匹配特征点对,包括:
将所述纹理图与所述地面影像进行特征匹配,得到所述匹配特征点对;
获取所述匹配特征点对在预设坐标系下对应的向量,其中,任意一个所述匹配特征点对应的向量为:以该匹配特征点对中的所述地面特征点为起点,以该匹配特征点对中的所述纹理特征点为终点的向量;
通过从所述向量中筛选出不满足预设筛选条件的向量,得到目标向量;所述预设筛选条件包括:长度一致性、相交一致性和方向一致性的至少一项;
删除生成所述目标向量的所述匹配特征点对,得到筛选后匹配特征点对;
依据所述筛选后匹配特征点对,获取所述第一匹配特征点对。
4.根据权利要求3所述的方法,其特征在于,从所述向量中筛选出不满足所述长度一致性的向量的过程,包括:
将长度大于预设长度阈值的向量,作为不满足所述长度一致性的向量,所述预设长度阈值依据所述地面影像的尺寸预先设置。
5.根据权利要求3所述的方法,其特征在于,从所述向量中筛选出不满足所述相交一致性的向量的过程,包括:
获取生成第一向量的所述地面特征点,在所述地面影像中的邻近点;所述第一向量为任意一个所述向量;
获取所述邻近点与所述纹理图中对应的特征点构成的向量,作为第一对比向量;
如果所述第一向量和所述第一对比向量中存在相交向量,则所述第一向量为不满足所述相交一致性的向量。
6.根据权利要求3所述的方法,其特征在于,从所述向量中筛选出不满足所述方向一致性的向量的过程,包括:
获取生成第一向量的所述地面特征点,在所述地面影像中的邻近点;所述第一向量为任意一个所述向量;
获取所述邻近点与所述第一向量中的所述纹理特征点构成的向量,作为第二对比向量;
如果所述第一向量与主方向的角度差大于预设角度阈值,则所述第一向量为不满足所述方向一致性的向量,所述主方向为所述第二对比向量的方向的均值。
7.根据权利要求3所述的方法,其特征在于,所述依据所述筛选后匹配特征点对,获取所述第一匹配特征点对,包括:
将所述筛选后匹配特征点对随机构成点对集合;
获取所述点对集合对应的基础矩阵,任意一个所述点对集合对应的所述基础矩阵,依据从该点对集合中,随机抽取的预设数量的所述筛选后匹配特征点对生成;
获取各个所述基础矩阵对应的局外点对的数量,其中,任意一个所述基础矩阵对应的所述局外点对为:该基础矩阵对应的所述点对集合中,与该基础矩阵的距离大于预设的距离阈值的剩余点对,所述剩余点对为该基础矩阵对应的所述点对集合中,除生成该基础矩阵的点对之外的其它点对;
将对应的所述局外点的数量最少的所述基础矩阵作为目标基础矩阵;
将所述目标基础矩阵对应的所述点对集合,作为目标点对集合;
从所述目标点对集合中,删除所述目标基础矩阵对应的所述局外点对,得到所述第一匹配特征点对。
8.根据权利要求1所述的方法,其特征在于,所述获取所述纹理特征点在所述航空影像中对应的可视像素点,得到航空特征点,包括:
获取与所述地面相机位姿数据配准后的航空相机位姿数据;
依据所述纹理特征点对应的深度值和所述航空相机位姿数据,计算所述纹理特征点的三维坐标,所述深度值为所述纹理特征点的位置坐标在深度图中对应的像素值;
在所述纹理特征点在所述航空影像中可视的情况下,依据所述三维坐标和所述航空相机位姿数据,获取所述航空特征点。
9.根据权利要求8所述的方法,其特征在于,确认所述纹理特征点在所述航空影像中可视,包括:
获取所述纹理特征点的法向量值,所述法向量值为所述纹理特征点的位置坐标在法向量图中对应的像素值;
如果所述法向量值与方向向量值的角度差值小于预设的角度差阈值,则所述纹理特征点在所述航空影像中可见,所述方向向量值为所述三维坐标的方向向量值。
10.根据权利要求9所述的方法,其特征在于,所述深度图的获取方法包括:
依据配准后的所述航空网格纹理模型数据与所述地面相机位姿数据,生成所述深度图;
所述法向量图的获取方法包括:
通过所述地面相机位姿数据,将所述深度图转换为参照图;
将所述参照图像转换为法向量图,其中,所述法向量图中任意一个像素点的法向量值为,在所述参照图中,该像素点的邻域像素点的三维坐标的预设运算的结果。
11.一种基于空地影像的模型获取装置,其特征在于,包括:
配准模块,用于依据航空影像和地面影像,获取配准后的航空网格纹理模型数据与地面相机位姿数据;
图像生成模块,用于依据配准后的所述航空网格纹理模型数据与所述地面相机位姿数据,生成纹理图;
第一匹配模块,用于依据所述纹理图与所述地面影像的匹配特征点对,得到第一匹配特征点对,所述第一匹配特征点对包括:纹理特征点和地面特征点,所述纹理特征点为属于所述纹理图的像素点,所述地面特征点为属于所述地面影像的像素点;
获取模块,用于通过获取所述纹理特征点在所述航空影像中对应的可视像素点,得到航空特征点;
第二匹配模块,用于依据所述匹配特征点对指示的对应关系,以及所述纹理特征点与所述航空特征点的对应关系,获取第二匹配特征点对,所述第二匹配特征点对包括所述航空特征点和对应的所述地面特征点;
重建模块,用于依据所述第二匹配特征点对,将所述航空影像和地面影像重建生成空地网格纹理模型。
12.一种基于空地影像的模型获取设备,其特征在于,包括:
存储器和处理器,所述存储器用于存储程序,所述处理器用于运行所述程序,以实现权利要求1-10任一项所述的基于空地影像的模型获取方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行权利要求1-10任一项所述的基于空地影像的模型获取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010898714.4A CN112002007B (zh) | 2020-08-31 | 2020-08-31 | 基于空地影像的模型获取方法及装置、设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010898714.4A CN112002007B (zh) | 2020-08-31 | 2020-08-31 | 基于空地影像的模型获取方法及装置、设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112002007A true CN112002007A (zh) | 2020-11-27 |
CN112002007B CN112002007B (zh) | 2024-01-19 |
Family
ID=73464898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010898714.4A Active CN112002007B (zh) | 2020-08-31 | 2020-08-31 | 基于空地影像的模型获取方法及装置、设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112002007B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119995A (zh) * | 2021-11-08 | 2022-03-01 | 山东科技大学 | 一种基于物方面元的空地影像匹配方法 |
CN114579934A (zh) * | 2022-05-07 | 2022-06-03 | 山东石油化工学院 | 单向量航姿信息提取方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0830194A (ja) * | 1994-07-11 | 1996-02-02 | Mitsubishi Precision Co Ltd | ジオスペシフィックテクスチャ生成の方法 |
KR20110070660A (ko) * | 2009-12-18 | 2011-06-24 | 한국전자통신연구원 | 3차원 도시 모델링 장치 및 방법 |
CN103017739A (zh) * | 2012-11-20 | 2013-04-03 | 武汉大学 | 基于激光雷达点云与航空影像的真正射影像的制作方法 |
US8466915B1 (en) * | 2010-06-15 | 2013-06-18 | Google Inc. | Fusion of ground-based facade models with 3D building models |
CN103426165A (zh) * | 2013-06-28 | 2013-12-04 | 吴立新 | 一种地面激光点云与无人机影像重建点云的精配准方法 |
CN109003295A (zh) * | 2018-04-11 | 2018-12-14 | 中冶沈勘工程技术有限公司 | 一种无人机航空影像快速匹配方法 |
CN109727278A (zh) * | 2018-12-31 | 2019-05-07 | 中煤航测遥感集团有限公司 | 一种机载LiDAR点云数据与航空影像的自动配准方法 |
CN109827548A (zh) * | 2019-02-28 | 2019-05-31 | 华南机械制造有限公司 | 无人机航测数据的处理方法 |
-
2020
- 2020-08-31 CN CN202010898714.4A patent/CN112002007B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0830194A (ja) * | 1994-07-11 | 1996-02-02 | Mitsubishi Precision Co Ltd | ジオスペシフィックテクスチャ生成の方法 |
KR20110070660A (ko) * | 2009-12-18 | 2011-06-24 | 한국전자통신연구원 | 3차원 도시 모델링 장치 및 방법 |
US8466915B1 (en) * | 2010-06-15 | 2013-06-18 | Google Inc. | Fusion of ground-based facade models with 3D building models |
CN103017739A (zh) * | 2012-11-20 | 2013-04-03 | 武汉大学 | 基于激光雷达点云与航空影像的真正射影像的制作方法 |
CN103426165A (zh) * | 2013-06-28 | 2013-12-04 | 吴立新 | 一种地面激光点云与无人机影像重建点云的精配准方法 |
CN109003295A (zh) * | 2018-04-11 | 2018-12-14 | 中冶沈勘工程技术有限公司 | 一种无人机航空影像快速匹配方法 |
CN109727278A (zh) * | 2018-12-31 | 2019-05-07 | 中煤航测遥感集团有限公司 | 一种机载LiDAR点云数据与航空影像的自动配准方法 |
CN109827548A (zh) * | 2019-02-28 | 2019-05-31 | 华南机械制造有限公司 | 无人机航测数据的处理方法 |
Non-Patent Citations (6)
Title |
---|
BO WU等: "Integration of aerial oblique imagery and terrestrial imagery for optimized 3D modeling in urban areas", 《ELSEVIER》 * |
刘燕萍;程效军;贾东峰;程小龙;: "一种序列影像和地面激光点云的配准方法", 激光杂志, no. 10 * |
朱庆;李世明;胡翰;钟若飞;吴波;谢林甫;: "面向三维城市建模的多点云数据融合方法综述", 武汉大学学报(信息科学版), no. 12 * |
朱庆;陈崇泰;胡翰;丁雨淋;: "顾及纹理特征的航空影像自适应密集匹配方法", 测绘学报, no. 01 * |
耿中元;王凤;刘飞;王涛;唐婷婷;胡晨希;: "倾斜航空摄影实景三维模型技术研究及应用", 北京测绘, no. 06 * |
马晨;: "基于倾斜航空影像的城市生态三维重建研究", 干旱环境监测, no. 02 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119995A (zh) * | 2021-11-08 | 2022-03-01 | 山东科技大学 | 一种基于物方面元的空地影像匹配方法 |
CN114119995B (zh) * | 2021-11-08 | 2024-03-15 | 山东科技大学 | 一种基于物方面元的空地影像匹配方法 |
CN114579934A (zh) * | 2022-05-07 | 2022-06-03 | 山东石油化工学院 | 单向量航姿信息提取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112002007B (zh) | 2024-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020206903A1 (zh) | 影像匹配方法、装置及计算机可读存储介质 | |
US10269148B2 (en) | Real-time image undistortion for incremental 3D reconstruction | |
US20180315221A1 (en) | Real-time camera position estimation with drift mitigation in incremental structure from motion | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
US20180315232A1 (en) | Real-time incremental 3d reconstruction of sensor data | |
US10846844B1 (en) | Collaborative disparity decomposition | |
CN108537876A (zh) | 基于深度相机的三维重建方法、装置、设备及存储介质 | |
CN109410260B (zh) | 点云数据网格化方法、装置、计算机设备和存储介质 | |
Zhu et al. | Leveraging photogrammetric mesh models for aerial-ground feature point matching toward integrated 3D reconstruction | |
CN111524168B (zh) | 点云数据的配准方法、系统、装置及计算机存储介质 | |
CN112270736B (zh) | 增强现实处理方法及装置、存储介质和电子设备 | |
Kuschk | Large scale urban reconstruction from remote sensing imagery | |
Lhuillier et al. | Manifold surface reconstruction of an environment from sparse structure-from-motion data | |
WO2021035627A1 (zh) | 获取深度图的方法、装置及计算机存储介质 | |
CN112002007B (zh) | 基于空地影像的模型获取方法及装置、设备、存储介质 | |
Stucker et al. | ResDepth: Learned residual stereo reconstruction | |
CN115439607A (zh) | 一种三维重建方法、装置、电子设备及存储介质 | |
CN104751479A (zh) | 基于tin数据的建筑物提取方法和装置 | |
CN114202632A (zh) | 网格线性结构恢复方法、装置、电子设备及存储介质 | |
CN113223078A (zh) | 标志点的匹配方法、装置、计算机设备和存储介质 | |
CN115035235A (zh) | 三维重建方法及装置 | |
CN112561788A (zh) | 一种bim模型的二维展开方法及纹理贴图方法、装置 | |
CN115731355A (zh) | 一种基于SuperPoint-NeRF的三维建筑物重建方法 | |
Saxena et al. | 3-d reconstruction from sparse views using monocular vision | |
JP7432793B1 (ja) | 三次元点群に基づくマッピング方法、装置、チップ及びモジュール機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |