CN117670957B - 一种无人机摄影测量配准方法、系统及计算机设备 - Google Patents
一种无人机摄影测量配准方法、系统及计算机设备 Download PDFInfo
- Publication number
- CN117670957B CN117670957B CN202311672166.3A CN202311672166A CN117670957B CN 117670957 B CN117670957 B CN 117670957B CN 202311672166 A CN202311672166 A CN 202311672166A CN 117670957 B CN117670957 B CN 117670957B
- Authority
- CN
- China
- Prior art keywords
- photo
- characteristic
- common connection
- pose
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000012946 outsourcing Methods 0.000 claims abstract description 11
- 238000005457 optimization Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Manufacturing & Machinery (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种无人机摄影测量配准方法、系统及计算机设备,属于无人机监测领域,包括如下步骤:获取多个无人机拍摄的不同时相的像片数据集;对像片数据集中的像片进行粗配准,得到像片位姿和联合稀疏点云;将联合稀疏点云分割为固定大小的网格;计算每个网格的外包立方体,将外包立方体投影到对应的像片数据集中得到掩膜多边形,以提取掩膜多边形的特征点子集;根据特征点子集构建每个网格中不同时相的特征轨迹;对两个不同时相的特征轨迹进行特征匹配,将距离最近的同名特征作为共特征轨迹;通过三角交会,从共特征轨迹中构建共连接点;计算共连接点的时相重投影误差ERE,并进行迭代,直至迭代收敛,则得到配准后的像片位姿。
Description
技术领域
本发明属于无人机监测领域,具体涉及一种无人机摄影测量配准方法、系统及计算机设备。
背景技术
近年来,无人机摄影测量逐渐发展为新型对地观测技术手段,由于具有独特的定制化时空分辨率观测能力,在地貌过程监测、环境保护、精准农业和巡检安防等领域都发挥着重要作用。
无人机摄影测量技术在监测应用方面,为了获得准确的监测结果,通常需要将获取的多期航测数据配准到同一参考坐标系。针对无人机航测的配准方法主要可分为地理定位法和互配准法。地理定位法通过采集地面控制点或者使用机载定位技术来获取摄像机拍摄时的地理位置;地面控制点法受限于繁重的人工作业,而机载定位法取决于设备和环境,因此,这类方法在复杂环境下特别是山地灾害区域均存在一定限制。互配准法通过在多期数据之间寻找稳定地面特征将数据连结到同一坐标系中,这类方法仅依靠数据内部的信息进行配准,在大多数时候具有较高的精度,然而在复杂环境中,随时间变化的地表和环境条件会使得该类方法难以利用有效稳定地面特征构建足够多的连接点,从而影响多时相无人机摄影测量的精确配准。
发明内容
为了实现多时相无人机摄影测量精确配准,本发明提供了一种无人机摄影测量配准方法、系统及计算机设备,包括如下步骤:
获取多个无人机拍摄的不同时相的像片数据集;
对像片数据集中的像片进行粗配准,得到像片位姿和联合稀疏点云;
将所述联合稀疏点云按固定大小的网格分割;计算每个网格的外包立方体,将所述外包立方体投影到对应的像片数据集中得到掩膜多边形,以提取对应像片中的特征点子集;
根据所述特征点子集构建每个网格中不同时相的特征轨迹,并对不同时相的特征轨迹进行特征匹配,获取共特征轨迹;
根据共特征轨迹中的特征点以及对应的像片位姿确定多视光线,并通过对多视光线进行前方交会,得到共连接点的三维坐标;
根据共连接点的三维坐标计算所述共连接点的时相重投影误差ERE,选择前λ个ERE最小的所述共连接点进行配准平差;将所述像片位姿和联合稀疏点云作为配准平差的初始值,进行迭代优化,直至迭代收敛,则得到配准后的像片位姿。
优选的,对多个不同时相的像片数据集中的像片进行粗配准,得到像片位姿和联合稀疏点云,包括如下步骤:
提取多个不同时相的像片数据集中的SIFT特征点;
根据所述SIFT特征点对每个时相内的立体像对进行特征匹配,得到像对的相对位姿;
基于匹配点的传递性合并同名点的特征为特征轨迹;
基于立体像对和特征轨迹对齐像片并构建三维点;
执行光束法平差以最小化重投影误差,优化位姿参数和联合稀疏点云。
优选的,得到像对的相对位姿之后,还包括使用极线约束剔除误匹配。
优选的,计算所述共连接点的时相重投影误差ERE,并进行迭代,包括如下步骤:
对于每次迭代,在每个网格中筛选出图像观测数多、交会角接近90°的k个共连接点,将所述k个共连接点作为初始连接点进行平差,以初始配准像片;
计算所述k个共连接点的时相重投影误差ERE,在全局先筛选出“k1×网格数”个ERE最小的提名共连接点,再从提名共连接点集中选出k2个ERE达到设定值的点作为启用共连接点;
将启用共连接点与像片位姿、相机模型和联合稀疏点云同时进行联合光束法平差以重新优化配准结果;
重复上述步骤,直到迭代收敛为止;
将最后一次迭代的启用共连接点作为最终的共连接点,且对应的像片位姿为配准后的像片位姿。
优选的,所述迭代收敛为当总体平均ERE的变化量连续3次小于0.001个像素。
优选的,所述对不同时相的特征轨迹进行特征匹配,获取共特征轨迹,包括如下步骤:
对于空间距离小于3米的特征轨迹对,将描述符欧式距离小于50的特征点对作为同名点;
将具有最小特征描述符距离的同名点作为特征轨迹对的相似性度量指标;
基于相似性度量指标,将互为最邻近的特征轨迹对合并作为共特征轨迹。
本发明还提供有一种无人机摄影测量配准系统,包括:
数据集获取模块,用于获取多个不同时相的像片数据集;
粗配准模块,用于对多个不同时相的像片数据集中的像片进行粗配准,得到像片位姿和联合稀疏点云;
特征点子集获取模块,用于将所述联合稀疏点云按固定大小的网格分割;计算每个网格的外包立方体,将所述外包立方体投影到对应的像片数据集中得到掩膜多边形,以提取对应像片中的特征点子集;
共特征轨迹获取模块,用于根据所述特征点子集构建每个网格中不同时相的特征轨迹,并对不同时相的特征轨迹进行特征匹配,获取共特征轨迹;
共连接点构建模块,用于根据共特征轨迹中的特征点以及对应的像片位姿确定多视光线,并通过多视前方交会,得到共连接点的三维坐标;
配准模块,用于计算所述共连接点的时相重投影误差ERE,选择前λ个ERE最小的所述共连接点进行配准平差;将所述像片位姿和联合稀疏点云作为配准平差的初始值,进行迭代优化,直至迭代收敛,则得到配准后的像片位姿。
本发明还提供有一种计算机设备,包括存储器和处理器;所述存储器存储有计算机程序,所述处理器用于运行所述存储器内的计算机程序,以执行无人机摄影测量配准方法。
本发明提供的无人机摄影测量配准方法、系统及计算机设备具有以下有益效果:
本发明通过构建特征轨迹来对数据进行特征聚类,并直接在特征轨迹之间进行跨时相匹配,从而构建密集的跨时相连接点,确保了对跨时相特征匹配的有效利用;通过设计分块策略,将联合稀疏点云分割为固定大小的网格,以控制跨时相连接点的生成区域,从而保证跨时相连接点在空间的均匀分布,从而能够在随时间变化的复杂环境中构建足够多的共连接点;再根据共连接点中的时相重投影误差ERE设计迭代优化策略,以迭代的方式逐步更新启用的跨时相连接点集合以最小化时相重投影误差,能够得到最优跨时相连接点集合,实现了对像片位姿的精确配准。
附图说明
为了更清楚地说明本发明实施例及其设计方案,下面将对本实施例所需的附图作简单地介绍。下面描述中的附图仅仅是本发明的部分实施例,对于本领域普通技术人员来说,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的无人机摄影测量配准方法、系统及计算机设备的流程图;
图2为网格分块策略图;
图3为共特征轨迹匹配示意图;
图4为使用虚拟控制点法、co-alignemnt及本发明的CFTM三种方法对白格滑坡(a-f)和肖莫久滑坡(g-i)数据集构建的差分数字表面模型DoDs;
图5为CFTM与Co-alignment方法的正确匹配比率曲线。
具体实施方式
为了使本领域技术人员更好的理解本发明的技术方案并能予以实施,下面结合附图和具体实施例对本发明进行详细说明。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明的技术方案和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。在本发明的描述中,需要说明的是,除非另有明确的规定或限定,术语“相连”、“连接”应作广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体式连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以是通过中间媒介间接相连。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上,在此不再详述。
实施例
本发明提供了一种无人机摄影测量配准方法、系统及计算机设备,其方法包括如下步骤(如图1所示):步骤1:初始化配准。
获取多个无人机拍摄的不同时相的像片数据集,对多个不同时相的像片数据集中的像片进行粗配准,得到像片位姿和联合稀疏点云,包括如下步骤:
(1)提取多个不同时相的像片数据集中的SIFT特征点;
(2)根据SIFT特征点对每个时相内的立体像对进行特征匹配,得到像对的相对位姿;
(3)基于匹配点的传递性合并同名点的特征为特征轨迹;
(4)基于立体像对和特征轨迹对齐像片并构建三维点;
(5)执行光束法平差以最小化重投影误差,优化位姿参数和联合稀疏点云。
步骤2:共特征轨迹匹配(CFTM),匹配不同时相的特征轨迹以合并为共特征轨迹,从而生成共连接点(CTP),包括如下步骤:
(1)为了保证时相连接点,将联合稀疏点云分割为固定大小的网格,每个网格独立并行地构建共连接点;
(2)对于每个网格,基于其内部的点云计算外包立方体,然后将立方体投影到相关的像片中得到掩膜多边形,以提取掩膜区域的特征点子集作为该像片对应该网格的特征点集(如图2所示);
(3)利用初始化配准中的匹配关系,重新构建每个网格中各时相的特征轨迹;
(4)在不同时相的两个特征轨迹之间进行特征匹配,若成功找到若干同名特征,则记录该同名特征的描述符欧式距离,并以最小距离值作为该特征轨迹对的距离属性(如图3a所示);
(5)对于时相内的每个特征轨迹,在另一个时相中寻找与之最近的特征轨迹,反之亦然,并合并那些互为最近的特征轨迹对为共特征轨迹(如图3b所示);
(6)通过三角交会,从共特征轨迹中构建共连接点。
步骤3:迭代优化。为了剔除误匹配和几何条件较差的共连接点,构建了残差评价指标,并在迭代的过程中选择残差小的共连接点来配准像片,具体包括如下步骤:
(1)在每个网格中筛选出图像观测数多、交会角接近90°的k个共连接点,并将k个共连接点作为初始点集参与联合光束法平差,以初始配准像片;
(2)计算所有候选共连接点的时相重投影误差(ERE),在全局先筛选出“k1×网格数”个ERE最小的提名共连接点,然后在每个网格中从提名共连接点集中选出k2个ERE较小的点作为启用共连接点;
(3)启用共连接点与像片位姿、相机模型和联合稀疏点云一同输入联合光束法平差以重新优化配准结果;
(4)重复步骤(2)(3),直到总体平均ERE的变化量连续3次小于0.001个像素,此时认为迭代收敛,最后一次迭代的启用共连接点将作为最终的共连接点,而对应的像片位姿即为配准后的像片位姿。
实施例2
使用2个滑坡数据集:白格滑坡,肖莫久滑坡,测试CFTM在复杂动态场景下的有效性。
如图4所示,图4(a-f)为白格滑坡、图4(g-i)为肖莫久滑坡的差分数字表面模型(DoDs),图中三角形表示虚拟GCP,圆点表示CTPs,黑线表示滑坡区域,图4中,第一列是使用5个虚拟控制点配准的结果,第二列是目前最新的最具潜力的co-alignemnt配准方法,第三列是本发明的方法。对比其他两种方法可以看到,本发明能够获得数量足够、空间分布更均匀的CTPs。对于光照环境变化的情况图4(b-c),本发明生成了1524个CTPs(图4c),相比于co-alignemnt(图4b)提升了57%。从DoDs的结果来看,本发明没有发现明显的全局偏移导致的系统性差异,因此得到了最准确的配准效果,而在其他两种方法中这种差异较为明显,特别是在图4a、b、d、g和h中,一边呈现上升而另一边呈现下降。
表1是使用均匀分布的检查点评估配准准确性的结果,包括水平和垂直方向上的均方根误差和绝对平均误差。本发明在所有情况下都表现出最佳的一致性和准确性。在Be1e2-Coalign场景中,RMSEz远高于MAEz,表明存在明显的配准误差,而本发明实现了更好的准确性,RMSE3D优于co-alignment约4.5倍。至于Be1e3,co-alignment和本发明都构建了足够的CTPs,在xy方向上观察到类似的精度,但本发明在z方向上有改进。这种改进是由于CTP分布更加均匀,可以在全局施加均匀的约束,从而增强了对噪声的鲁棒性。不过对于Xe2e3,大部分改进都出现在xy方向,这是由于本发明弥补了原本在co-alignment方法中缺失的CTP(参见图4h和图4i)。
图5是CFTM与Co-alignment方法的正确匹配比率曲线。在这两种情况下,本发明都获得了更高的正确匹配率。尽管由于光照动态的影响,Be1e2的值低于Be1e3,但Be1e2-CFTM的值仍然高于Be1e3-Coalign的值,这表明本发明可以有效生成更加精确的CTP。另一方面,这也表明我们的迭代优化可以有效地减少离群点,并筛选出高质量的CTP。
以上实施例仅为本发明较佳的具体实施方式,本发明的保护范围不限于此,任何熟悉本领域的技术人员在本发明披露的技术范围内,可显而易见地得到的技术方案的简单变化或等效替换,均属于本发明的保护范围。
Claims (8)
1.一种无人机摄影测量配准方法,其特征在于,包括如下步骤:
获取多个无人机拍摄的不同时相的像片数据集;
对像片数据集中的像片进行粗配准,得到像片位姿和联合稀疏点云;
将所述联合稀疏点云按固定大小的网格分割;计算每个网格的外包立方体,将所述外包立方体投影到对应的像片数据集中得到掩膜多边形,以提取对应像片中的特征点子集;
根据所述特征点子集构建每个网格中不同时相的特征轨迹,并对不同时相的特征轨迹进行特征匹配,获取共特征轨迹;
根据共特征轨迹中的特征点以及对应的像片位姿确定多视光线,并通过对多视光线进行前方交会,得到共连接点的三维坐标;
根据共连接点的三维坐标计算共连接点的时相重投影误差ERE,选择前λ个ERE最小的所述共连接点进行配准平差;将所述像片位姿和联合稀疏点云作为配准平差的初始值,进行迭代优化,直至迭代收敛,则得到配准后的像片位姿。
2.根据权利要求1所述的无人机摄影测量配准方法,其特征在于,对多个不同时相的像片数据集中的像片进行粗配准,得到像片位姿和联合稀疏点云,包括如下步骤:
提取多个不同时相的像片数据集中的SIFT特征点;
根据所述SIFT特征点对每个时相内的立体像对进行特征匹配,得到像对的相对位姿;
基于匹配点的传递性合并同名点的特征为特征轨迹;
基于立体像对和特征轨迹对齐像片并构建三维点;
执行光束法平差以最小化重投影误差,优化位姿参数和联合稀疏点云。
3.根据权利要求2所述的无人机摄影测量配准方法,其特征在于,得到像对的相对位姿之后,还包括使用极线约束剔除误匹配。
4.根据权利要求1所述的无人机摄影测量配准方法,其特征在于,计算所述共连接点的时相重投影误差ERE,并进行迭代,包括如下步骤:
对于每次迭代,在每个网格中筛选出图像观测数多、交会角接近90°的k个共连接点,将所述k个共连接点作为初始连接点进行平差,以初始配准像片;
计算所述k个共连接点的时相重投影误差ERE,在全局先筛选出“k1×网格数”个ERE最小的提名共连接点,再从提名共连接点集中选出k2个ERE达到设定值的点作为启用共连接点;
将启用共连接点与像片位姿、相机模型和联合稀疏点云同时进行联合光束法平差以重新优化配准结果;
重复步骤上述步骤,直到迭代收敛为止;
将最后一次迭代的启用共连接点作为最终的共连接点,且对应的像片位姿为配准后的像片位姿。
5.根据权利要求4所述的无人机摄影测量配准方法,其特征在于,所述迭代收敛为当总体平均ERE的变化量连续3次小于0.001个像素。
6.根据权利要求1所述的无人机摄影测量配准方法,其特征在于,所述对不同时相的特征轨迹进行特征匹配,获取共特征轨迹,包括如下步骤:
对于空间距离小于3米的特征轨迹对,将描述符欧式距离小于50的特征点对作为同名点;
将具有最小特征描述符距离的同名点作为特征轨迹对的相似性度量指标;
基于相似性度量指标,将互为最邻近的特征轨迹对合并作为共特征轨迹。
7.一种无人机摄影测量配准系统,包括:
数据集获取模块,用于获取多个不同时相的像片数据集;
粗配准模块,用于对多个不同时相的像片数据集中的像片进行粗配准,得到像片位姿和联合稀疏点云;
特征点子集获取模块,用于将所述联合稀疏点云按固定大小的网格分割;计算每个网格的外包立方体,将所述外包立方体投影到对应的像片数据集中得到掩膜多边形,以提取对应像片中的特征点子集;
共特征轨迹获取模块,用于根据所述特征点子集构建每个网格中不同时相的特征轨迹,并对不同时相的特征轨迹进行特征匹配,获取共特征轨迹;
共连接点构建模块,用于根据共特征轨迹中的特征点以及对应的像片位姿确定多视光线,并通过多视前方交会,得到共连接点的三维坐标;
配准模块,用于计算所述共连接点的时相重投影误差ERE,选择前λ个ERE最小的所述共连接点进行配准平差;将所述像片位姿和联合稀疏点云作为配准平差的初始值,进行迭代优化,直至迭代收敛,则得到配准后的像片位姿。
8.一种计算机设备,其特征在于,包括存储器和处理器;所述存储器存储有计算机程序,所述处理器用于运行所述存储器内的计算机程序,以执行权利要求1至6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311672166.3A CN117670957B (zh) | 2023-12-07 | 2023-12-07 | 一种无人机摄影测量配准方法、系统及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311672166.3A CN117670957B (zh) | 2023-12-07 | 2023-12-07 | 一种无人机摄影测量配准方法、系统及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117670957A CN117670957A (zh) | 2024-03-08 |
CN117670957B true CN117670957B (zh) | 2024-05-14 |
Family
ID=90084221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311672166.3A Active CN117670957B (zh) | 2023-12-07 | 2023-12-07 | 一种无人机摄影测量配准方法、系统及计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117670957B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671109A (zh) * | 2018-12-25 | 2019-04-23 | 中国人民解放军61540部队 | 密集点云生成方法及系统 |
CN110006408A (zh) * | 2019-04-17 | 2019-07-12 | 武汉大学 | LiDAR数据“云控制”航空影像摄影测量方法 |
CN111127613A (zh) * | 2019-12-25 | 2020-05-08 | 华南理工大学 | 基于扫描电子显微镜的图像序列三维重构方法及系统 |
CN112085845A (zh) * | 2020-09-11 | 2020-12-15 | 中国人民解放军军事科学院国防科技创新研究院 | 基于无人机影像的室外场景快速三维重建装置 |
CN113052880A (zh) * | 2021-03-19 | 2021-06-29 | 南京天巡遥感技术研究院有限公司 | 一种sfm稀疏重建方法、系统及应用 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10198858B2 (en) * | 2017-03-27 | 2019-02-05 | 3Dflow Srl | Method for 3D modelling based on structure from motion processing of sparse 2D images |
-
2023
- 2023-12-07 CN CN202311672166.3A patent/CN117670957B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671109A (zh) * | 2018-12-25 | 2019-04-23 | 中国人民解放军61540部队 | 密集点云生成方法及系统 |
CN110006408A (zh) * | 2019-04-17 | 2019-07-12 | 武汉大学 | LiDAR数据“云控制”航空影像摄影测量方法 |
CN111127613A (zh) * | 2019-12-25 | 2020-05-08 | 华南理工大学 | 基于扫描电子显微镜的图像序列三维重构方法及系统 |
CN112085845A (zh) * | 2020-09-11 | 2020-12-15 | 中国人民解放军军事科学院国防科技创新研究院 | 基于无人机影像的室外场景快速三维重建装置 |
CN113052880A (zh) * | 2021-03-19 | 2021-06-29 | 南京天巡遥感技术研究院有限公司 | 一种sfm稀疏重建方法、系统及应用 |
Also Published As
Publication number | Publication date |
---|---|
CN117670957A (zh) | 2024-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112102458B (zh) | 基于激光雷达点云数据辅助的单镜头三维图像重构方法 | |
Toldo et al. | Hierarchical structure-and-motion recovery from uncalibrated images | |
US8427505B2 (en) | Geospatial modeling system for images and related methods | |
Majdik et al. | Air‐ground matching: Appearance‐based GPS‐denied urban localization of micro aerial vehicles | |
Maurer et al. | Tapping into the Hexagon spy imagery database: A new automated pipeline for geomorphic change detection | |
CN111179433A (zh) | 目标物体的三维建模方法及装置、电子设备、存储介质 | |
Michel et al. | A new satellite imagery stereo pipeline designed for scalability, robustness and performance | |
CN110889899A (zh) | 一种数字地表模型的生成方法及装置 | |
CN113177974A (zh) | 一种点云配准方法、装置、电子设备及存储介质 | |
Gong et al. | A detailed study about digital surface model generation using high resolution satellite stereo imagery | |
CN116402978A (zh) | 一种基于双目视觉结构特性的稠密三维重建方法 | |
Marí et al. | To bundle adjust or not: A comparison of relative geolocation correction strategies for satellite multi-view stereo | |
Gong et al. | Point cloud and digital surface model generation from high resolution multiple view stereo satellite imagery | |
CN114387488A (zh) | 基于potree点云影像融合的道路提取系统及方法 | |
CN113808269A (zh) | 地图生成方法、定位方法、系统及计算机可读存储介质 | |
Gao et al. | Automatic geo-referencing mobile laser scanning data to UAV images | |
CN117670957B (zh) | 一种无人机摄影测量配准方法、系统及计算机设备 | |
WO2021063989A1 (en) | Method and device for generating a photogrammetric corridor map from a set of images | |
Abdel-Wahab et al. | Efficient reconstruction of large unordered image datasets for high accuracy photogrammetric applications | |
Zhang et al. | Integrating smartphone images and airborne lidar data for complete urban building modelling | |
US20220276046A1 (en) | System and method for providing improved geocoded reference data to a 3d map representation | |
Zeng | Automated Building Information Extraction and Evaluation from High-resolution Remotely Sensed Data | |
CN113240755B (zh) | 基于街景图像与车载激光融合的城市场景构图方法及系统 | |
Previtali et al. | Multi-step and multi-photo matching for accurate 3D reconstruction | |
Ahmed et al. | High-quality building information models (BIMs) using geospatial datasets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |