CN107610219B - 三维场景重构中几何线索感知的像素级点云稠密化方法 - Google Patents

三维场景重构中几何线索感知的像素级点云稠密化方法 Download PDF

Info

Publication number
CN107610219B
CN107610219B CN201710757893.8A CN201710757893A CN107610219B CN 107610219 B CN107610219 B CN 107610219B CN 201710757893 A CN201710757893 A CN 201710757893A CN 107610219 B CN107610219 B CN 107610219B
Authority
CN
China
Prior art keywords
pixel
cluster
point
points
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710757893.8A
Other languages
English (en)
Other versions
CN107610219A (zh
Inventor
肖春霞
严庆安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201710757893.8A priority Critical patent/CN107610219B/zh
Publication of CN107610219A publication Critical patent/CN107610219A/zh
Application granted granted Critical
Publication of CN107610219B publication Critical patent/CN107610219B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明涉及一种三维场景重构中几何线索感知的像素级点云稠密化方法,是为了解决三维重构中过程中点云稀疏,细节缺失的问题,通过定义投影一致性逻辑,来衡量几何关系的正确性并自适应调整像素的归属,指导空间点云的计算;能够将输入图像集的像素点进行有效整合并提取几何空间的投影线索,可以有效的提高三维重构结果的稠密性与精确度。

Description

三维场景重构中几何线索感知的像素级点云稠密化方法
技术领域
本发明属于计算机领域,尤其涉及基于图片信息的计算机视觉三维重构方法。
背景技术
随着手持相机的普及以及海量网络影像数据的可获取,图片集已经成为场景分析与重建的重要媒介。通过在网络上搜索关键字,可以获取大量从不同视角拍摄的图像。运动求结构技术(Structure from Motion)凭借其特有的易用性和可扩展性逐渐被三维重构领域的研究者们所重视。它是一种基于多视角立体几何的视觉三维场景重构方法,使用图片集作为场景重建的唯一依赖输入,所以对于采集设备具有很强的独立性。通过探询不同视角图像之间的立体几何关系,来同时的计算出空间点位置与摄像机拍摄姿态。该技术不依赖图像帧之间的时序信息,而且对于分辨率和光照条件的变化具有较强的鲁棒性,所以它既能处理连续的视频帧图像,也可以处理散乱的网络众源图像。例如,微软于2007年推出的图像拼接软件“PhotoSynth”就是使用运动求结构技术来得到稀疏的三维点云,然后将图片对齐到这些点云上得到一种类似三维浏览的交互方式,又如Autodesk公司在2011年推出的“123D”建模软件也是基于运动求结构方法来快速的恢复点云模型,进行得到最终的三维网格模型。
与传统的基于激光扫描仪或者深度摄像机的重建方法相比,基于图片的视觉重建方法在成本方面更具优势,因为它并不依赖于昂贵的数据采集设备,只用简单的网络上收集的或者手机拍摄的图片即可完成重构工作。另外,在可扩展性及应用领域方面也更具竞争力。它不仅适用于室内场景或者小目标物体的精细重构,更可作为有效手段进行城市化场景的大规模三维建模。为了重构一个场景,使用扫描的方法往往需要亲临现场进行反反复复的扫描操作,而视觉的重构方法则不同,关于重构场景的并不需要到现场进行人工采集,直接使用网络图像或者视频影像即可。
发明内容
本发明针对现有技术的不足,提供一种三维场景重构中几何线索感知的像素级点云稠密化方法。
本发明的技术方案为一种三维场景重构中几何线索感知的像素级点云稠密化方法,包含以下步骤:
一种三维场景重构中几何线索感知的像素级点云稠密化方法,其特征在于,基于以下定义:
定义一组图片集为Ι={I1,...,In},其中图像Ii包含的像素点表示为
Figure GDA0002241103030000021
任一像素点
Figure GDA0002241103030000022
又可以描述为
Figure GDA0002241103030000023
的形式,其中
Figure GDA0002241103030000024
为该像素的RGB三通道颜色空间向量,
Figure GDA0002241103030000025
表示像素在图像平面中的二维坐标位置,包括横轴坐标值、纵轴坐标值、齐次坐标值以及差异值。像素
Figure GDA0002241103030000026
所对应的三维空间点则可以表示为Tl=<Cl,Xl>,其中
Figure GDA0002241103030000027
为该点的RGB颜色值,
Figure GDA0002241103030000028
为三维空间点坐标,包括横轴坐标值、纵轴坐标值、深度坐标值以及齐次坐标值;
包含以下步骤:
步骤1,在给定图像集Ι的环境下,使用运动求结构方法迭代的恢复出每幅图像的拍摄姿态以及摄像机信息,其中,拍摄姿态对应于立体几何中的相机外参矩阵,定义为[R|t]的形,R空间是旋转矩阵而t是空间平移向量,摄像机信息则对应于内参矩阵,可表示为K。将每幅图像的外参矩阵和内参矩阵相乘即可得到后续计算所需要的摄像机矩阵Pi=Ki[Ri|ti],实现方式如下:
对于每幅图像,使用SIFT算法检测出其中具有的局部特征点。局部特征点为三维空间点在二维图像平面上的投影。对这些特征点进行基于特征描述符的相似性匹配(每个sift特征点会有一个128维的向量来描述,使用欧式距离两两的比较就能计算出相似度。)建立图像与图像之间的视觉联系,它反映了不同视角之间的立体对应关系,其中,设置匹配对的接收比值ratio=M,其中M取值范围为[0,1]。然后使用RANSAC对极几何约束来验证匹配点的正确性,去除实际操作中的噪声点干扰。将满足几何性约束的匹配成功的特征点连组织成一系列轨迹点,传递给运动求结构迭代算法以便计算每幅图像对应的摄像机矩阵Pi
步骤2,整合像素点集,将像素点集自适应的适应的分割成k个聚类簇,一个聚类簇对应于一个三维点T*,实现方式如下:
将整个图像集的像素点集合S={S1,...,Sn}放到一个二叉树结构上。该过程从表示数据集中的所有特征的根节点T开始。在每个节点单元中,首先验证是否存有像素点在来自于同一幅图像,即具有相同的图像标识δim。如果该节点单元中的所有像素点都具有不同的图像标识,则将其视为叶子节点。否则,如果两个或者多个像素点具有相同的δim标识,则需要进行二分划分。该划分从含有数据集中的所有像素点的根节点开始并且递归的进行,直到所有叶子节点中的像素点都来自于不同图像为止;其中,二分划分的具体步骤是:计算到该节点中所有像素点在r,g,b三个维度上的最大值和最小值,选择最大值和最小值距离最远的一个维度作为划分维度。在该维度中使用中间值将像素点分割为小于中间值和大于中间值的两个部分。
步骤3,根据步骤1所得每幅图像的摄像机矩阵Pi以及步骤2所得k个初始的聚类簇,计算每个像素点
Figure GDA0002241103030000041
在其所属聚类簇Ql中的投影一致性。投影一致性尺度定义如下:
Figure GDA0002241103030000042
实现方式如下:
对于每个集群Ql中的任一特征点
Figure GDA0002241103030000043
首先计算该特征点
Figure GDA0002241103030000044
与该集群中的其它像素点之间的投影一致性残差,表示为
Figure GDA0002241103030000045
然后,选择其中具有最低残差值的一个像素点作为当前聚类的代表性点。并统计每个聚类簇所包含的投影一致性残差总和,定义为
Figure GDA0002241103030000046
直到所有的聚类簇代表点以及相应的一致性残差总和El都被计算出来。
步骤4,根据步骤3得到的聚类簇代表性像素点,也就是具有最低残差值的一个像素点作为当前聚类的代表性点,即min
Figure GDA0002241103030000047
的那一个计算每个像素点
Figure GDA0002241103030000048
与不同聚类簇之间的投影一致性关系。该一致性由像素点与聚类簇的代表性点
Figure GDA0002241103030000049
定义:
Figure GDA00022411030300000410
并且重新调整每个像素点的归属关系。实现方式如下:
对于数据集中的每一个像素点
Figure GDA00022411030300000411
计算它与每个聚类簇代表性像素点
Figure GDA00022411030300000412
之间的投影一致性残差。如果在这所有的聚类簇中,像素
Figure GDA00022411030300000413
与聚类簇Ql的代表性像素点之间计算得到的投影一致性残差值最小,而且
Figure GDA00022411030300000414
则像素
Figure GDA00022411030300000415
应该分配到聚类簇Ql中去;否则,如果
Figure GDA00022411030300000416
则不做任何修改,继续处理另一个像素点,直到所有的像素点被调整完成。
步骤5,重复步骤3和4直到满足结束阈值。对步骤3和4迭代求得的聚类簇进行验证处理。滤除每个聚类簇中存在的潜在干扰点以及数量不满足要求的聚类簇。利用得到的最终聚类结果以及步骤1恢复出来的每幅图像的摄像机矩阵Pi,根据公式
Figure GDA0002241103030000051
计算每个聚类簇对应的三维空间点坐标值。
本发明利用图像之间的几何特性,通过自适应的迭代优化聚类方法,采取逐像素的对应以及空间几何计算方法,从而提高了运动求结构重建结果的稠密度。
附图说明
图1是本发明实施例的自适应稠密化方法的流程图。
图2是本发明实施例的聚类簇内部数据更新示意图。
图3是本发明实施例的像素点在聚类簇之间的调整示意图。
具体实施方式
本发明主要基于空间立体几何学,考虑图像成像特性和一致性聚类关系,提出的一种三维场景重构中几何线索感知的像素级点云稠密化方法。本方法充分考虑了每个图像不同像素点之间的几何特性,通过自适应迭代聚类的方法来逼近真实的像素级对应,进而对运动求结构方法生成的稀疏点云进行稠密化。通过本发明获得的结果更加科学,更加精确。
本发明提供的方法能够用计算机软件技术实现流程。参见图1,实施例以几何线索GC为例对本发明的流程进行一个具体的阐述,如下:
定义一组图片集为Ι={I1,...,In},其中图像Ii包含的像素点表示为
Figure GDA0002241103030000052
任一像素点
Figure GDA0002241103030000053
又可以描述为
Figure GDA0002241103030000054
的形式,其中
Figure GDA0002241103030000055
为该像素的RGB三通道颜色空间向量,
Figure GDA0002241103030000056
表示像素在图像平面中的二维坐标位置,包括横轴坐标值、纵轴坐标值、齐次坐标值以及差异值。像素
Figure GDA0002241103030000061
所对应的三维空间点则可以表示为Tl=<Cl,Xl>,其中
Figure GDA0002241103030000062
为该点的RGB颜色值,
Figure GDA0002241103030000063
为三维空间点坐标,包括横轴坐标值、纵轴坐标值、深度坐标值以及齐次坐标值。本发明的目标即是通过像素点集S={S1,...,Sn}计算出稠密的三维点云模型T={T1,...,Tz}。
步骤1,在给定图像集Ι的环境下,使用运动求结构方法迭代的恢复出每幅图像的拍摄姿态以及摄像机信息,其中,拍摄姿态对应于立体几何中的相机外参矩阵,定义为[R|t]的形,R空间是旋转矩阵而t是空间平移向量,摄像机信息则对应于内参矩阵,可表示为K。将每幅图像的外参矩阵和内参矩阵相乘即可得到后续计算所需要的摄像机矩阵Pi=Ki[Ri|ti]。
实施例具体的实施过程说明如下:
对于每幅图像,使用SIFT算法检测出其中具有的局部特征点。特征点可以理解为三维空间点在二维图像平面上的投影。对这些特征点进行基于特征描述符的相似性匹配就可以建立起图像与图像之间的视觉联系,它反映了不同视角之间的立体对应关系,其中,设置匹配对的接收比值ratio=0.6。然后使用RANSAC对极几何约束来验证匹配点的正确性,这可以有效的去除实际操作中的噪声点干扰。将满足几何性约束的匹配成功的特征点连组织成一系列轨迹点,传递给运动求结构迭代算法以便计算每幅图像对应的摄像机矩阵Pi
此外,某些图像可能由于视觉不相关性或者其它计算方面的原因使得这些图像的摄像机矩阵没有得以恢复,即是Pi=0。对于这类情况,所以在本步骤还需要将摄像机矩阵Pi=0的图像进行剔除,以减少对后续环节的干扰与计算量。
步骤2,整合像素点集S={S1,...,Sn},将其自适应的分割成k个聚类簇Q={Q1,...,Qk},每个聚类簇由一系列像素点组成。理论上一个聚类簇Q*对应于一个三维点T*,所以越大的k值代表着越多的三维点云。
实施例具体的实施过程说明如下:
本发明首先需要将整个图像集的像素点集合S={S1,...,Sn}放到一个二叉树结构上。对于每个像素点,除了要包含颜色通道值c和二维坐标x,还需额外的存储两个变量用于本阶段自适应的划分,δim和δpl。它们分别用于表示该像素点所属图像的图像标识号以及它在此图像中的像素标识号。另外,在树的每个内部节点中需要存储6个变量,它们分别为:该节点是从哪个维度θd进行的二分划分以及对应的进行划分时所采用的判别值θval,该划分维度的边界最小与最大值θmi和θmx,以及指向左右子节点的指针ρlt和ρrt。而叶子节点需要记录隶属于该节点的所有像素点信息。
该过程从表示数据集中的所有特征的根节点T开始。在每个节点单元中,算法首先验证是否存有像素点在来自于同一幅图像,即具有相同的δim标识。如果该节点单元中的所有像素点都具有不同的图像标识,则可以将其视为叶子节点。否则,如果两个或者多个像素点具有相同的δim标识,则需要进行二分划分。
划分的具体实现需要计算该节点的空间包围盒,即是节点中所包含特征在每个维度上的最小值和最大值集合,并选择其中边长最长的一个维度,相应的设置θd,θval以及θmi和θmx的值。沿着维度θd该节点自动的分割为左右两个子节点,并用指针ρlt和ρrt连接起来。划分的具体阈值θval由等式θval=(θmimx)/2决定。在维度θd上小于θval值的被归类为左子树,大于θval值的归类于右子树。该划分从含有数据集中的所有像素点的根节点开始并且递归的进行,直到所有叶子节点中的像素点都来自于不同图像为止。
步骤3,根据步骤1所得每幅图像的摄像机矩阵Pi以及步骤2所得k个初始的聚类簇Q={Q1,...,Qk},计算每个像素点
Figure GDA0002241103030000081
在其所属聚类簇Ql中的投影一致性。由于三维空间点在二维图像中的成像原理可以表示为
Figure GDA0002241103030000082
由于一个聚类簇理应只对应一个三维空间点,所以该聚类簇中的所有像素点应该对应于相同的空间点Xl,于是本发明提出的投影一致性尺度可以定义成如下形式:
Figure GDA0002241103030000083
它规定同簇像素点之间使用摄像机矩阵计算得到的空间点位置信息应该尽可能的相似,以此来度量像素点属于该聚类簇的正确性,并使用每个聚类簇中投影一致性最好的像素点作为该聚类簇的代理点。
实施例具体的实施过程说明如下:
单独使用像素值进行聚类,会使得结果非常的不精确,不能满足三维重构上的需要。为了得到可靠的聚类关系本发明需要验证每个像素点在其现有聚类簇内部的正确性,它的主要任务是用公式(1)定义的投影一致性关系来计算度量残差。对于每个集群Ql中的任一特征点
Figure GDA0002241103030000084
本发明首先计算它与该集群中的其它像素点之间的投影一致性残差,表示为
Figure GDA0002241103030000085
然后,选择其中具有最低残差值的一个像素点作为当前聚类的代表性点,其作用类似于传统k均值方法的中心点。但是本发明与k均值具有明显的区别,因为本发明使用投影一致性来度量元素之间的关系而不是单纯的计算颜色空间上的欧氏距离。另外本发明采用具有最小投影一致性残差的像素点为中心点,而不是求平均后的中心点,因为采用具有较小残差值e的像素点可以更可靠的反映该群组的几何属性。为了后续处理的需要,在本步骤还需要统计每个聚类簇所包含的投影一致性残差总和,定义为
Figure GDA0002241103030000086
该步骤需要一直进行,直到所有的聚类簇代表点以及相应的一致性残差总和El都被有效的计算出来。
步骤4,根据步骤3得到的聚类簇代表性像素点,计算每个像素点
Figure GDA0002241103030000091
与不同聚类簇之间的投影一致性关系。该一致性由像素点与聚类簇的代表性点
Figure GDA0002241103030000092
定义:
Figure GDA0002241103030000093
重新调整每个像素点的归属关系,将其分配到合适的聚类簇中,使得该像素点与该聚类簇内部像素点之间可能存在的投影一致性残差最小。
实施例具体的实施过程说明如下:
在验证了像素点聚类关系的正确性以后,还需要对其进行调整,使得不正确的像素点对应被修正。所以本步骤的主要任务是将每个像素点
Figure GDA0002241103030000094
分配到适合的聚类簇中去,也就是说使得该像素点与该聚类簇内部像素点之间可能存在的投影一致性残差最小。对于数据集中的每一个像素点
Figure GDA0002241103030000095
本发明计算它与每个聚类簇代表性像素点
Figure GDA0002241103030000096
之间的投影一致性残差
Figure GDA0002241103030000097
如果在这所有的聚类簇中,像素
Figure GDA0002241103030000098
与聚类簇Ql的代表性像素点之间计算得到的投影一致性残差值最小,而且
Figure GDA0002241103030000099
则可以认为像素
Figure GDA00022411030300000910
应该分配到聚类簇Ql中去;否则,如果
Figure GDA00022411030300000911
则不做任何修改,继续处理另一个像素点。该步骤需要一直进行,直到所有的像素点被有效的调整。
步骤5,重复步骤3和4直到满足一定的结束阈值(阈值可以设置为3-6的整数)。对步骤3和4迭代求得的聚类簇进行验证处理。滤除每个聚类簇中存在的潜在干扰点以及数量不满足要求的聚类簇。利用得到的最终聚类结果以及步骤1恢复出来的每幅图像的摄像机矩阵Pi,根据公式
Figure GDA00022411030300000912
计算每个聚类簇对应的三维空间点坐标值。
实施例具体的实施过程说明如下:
在执行完步骤4后,返回步骤3进行新一轮的内容更新,然后再执行步骤4依此循环。该过程需要反复迭代的进行,直至满足结束判断条件或者达到最大迭代次数。本发明的结束判断模块包含两个指标。其一是全聚类簇的一致性残差
Figure GDA0002241103030000101
以及预设的最大迭代次数阈值L。若前后两次迭代之间的全局一致性残差值的变化程度ε=Et+1-Et小于等于阈值ε=2,其中t为迭代次数,或当前迭代次数已经达到阈值L次,则将此时得到的像素点聚类结果输入结束计算模块;若变化程度ε>2或者当前迭代次数没有达到L次,则需要继续的反复依次执行步骤3和步骤4。
结束计算模块,利用得到的最终聚类结果以及步骤1恢复出来的每幅图像的摄像机矩阵Pi,根据公式
Figure GDA0002241103030000102
计算每个聚类簇对应的三维空间点坐标值,进而得到稠密的像素级别的三维重构结果。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (1)

1.一种三维场景重构中几何线索感知的像素级点云稠密化方法,其特征在于,基于以下定义:
定义一组图片集为Ι={I1,...,In},其中图像Ii包含的像素点表示为
Figure FDA0002241103020000011
任一像素点
Figure FDA0002241103020000012
又可以描述为
Figure FDA0002241103020000013
的形式,其中
Figure FDA0002241103020000014
为该像素的RGB三通道颜色空间向量,
Figure FDA0002241103020000015
表示像素在图像平面中的二维坐标位置,包括横轴坐标值、纵轴坐标值、齐次坐标值以及差异值;像素
Figure FDA0002241103020000016
所对应的三维空间点则可以表示为Tl=<Cl,Xl>,其中
Figure FDA0002241103020000017
为该点的RGB颜色值,
Figure FDA0002241103020000018
为三维空间点坐标,包括横轴坐标值、纵轴坐标值、深度坐标值以及齐次坐标值;
包含以下步骤:
步骤1,在给定图像集Ι的环境下,使用运动求结构方法迭代的恢复出每幅图像的拍摄姿态以及摄像机信息,其中,拍摄姿态对应于立体几何中的相机外参矩阵,定义为[R|t]的形,R空间是旋转矩阵而t是空间平移向量,摄像机信息则对应于内参矩阵,可表示为K;将每幅图像的外参矩阵和内参矩阵相乘即可得到后续计算所需要的摄像机矩阵Pi=Ki[Ri|ti],实现方式如下:
对于每幅图像,使用SIFT算法检测出其中具有的局部特征点;局部特征点为三维空间点在二维图像平面上的投影;对这些特征点进行基于特征描述符的相似性匹配建立图像与图像之间的视觉联系,它反映了不同视角之间的立体对应关系,其中,设置匹配对的接收比值ratio=M,其中M取值范围为[0,1];然后使用RANSAC对极几何约束来验证匹配点的正确性,去除实际操作中的噪声点干扰;将满足几何性约束的匹配成功的特征点连组织成一系列轨迹点,传递给运动求结构迭代算法以便计算每幅图像对应的摄像机矩阵Pi
步骤2,整合像素点集,将像素点集自适应的分割成k个聚类簇,一个聚类簇对应于一个三维点T*,实现方式如下:
将整个图像集的像素点集合S={S1,...,Sn}放到一个二叉树结构上;该过程从表示数据集中的所有特征的根节点T开始;在每个节点单元中,首先验证是否存有像素点在来自于同一幅图像,即具有相同的图像标识δim;如果该节点单元中的所有像素点都具有不同的图像标识,则将其视为叶子节点;否则,如果两个或者多个像素点具有相同的δim标识,则需要进行二分划分;该划分从含有数据集中的所有像素点的根节点开始并且递归的进行,直到所有叶子节点中的像素点都来自于不同图像为止;其中,二分划分的具体步骤是:计算到该节点中所有像素点在r,g,b三个维度上的最大值和最小值,选择最大值和最小值距离最远的一个维度作为划分维度;在该维度中使用中间值将像素点分割为小于中间值和大于中间值的两个部分;
步骤3,根据步骤1所得每幅图像的摄像机矩阵Pi以及步骤2所得k个初始的聚类簇,计算每个像素点
Figure FDA0002241103020000021
在其所属聚类簇Ql中的投影一致性;投影一致性尺度定义如下:
Figure FDA0002241103020000022
实现方式如下:
对于每个集群Ql中的任一特征点
Figure FDA0002241103020000023
首先计算该特征点
Figure FDA0002241103020000024
与该集群中的其它像素点之间的投影一致性残差,表示为
Figure FDA0002241103020000025
然后,选择其中具有最低残差值的一个像素点作为当前聚类的代表性点;并统计每个聚类簇所包含的投影一致性残差总和,定义为
Figure FDA0002241103020000026
直到所有的聚类簇代表点以及相应的一致性残差总和El都被计算出来;
步骤4,根据步骤3得到的聚类簇代表性像素点,也就是具有最低残差值的一个像素点作为当前聚类的代表性点,即
Figure FDA0002241103020000031
的那一个计算每个像素点
Figure FDA0002241103020000032
与不同聚类簇之间的投影一致性关系;该一致性由像素点与聚类簇的代表性点
Figure FDA0002241103020000033
定义:
Figure FDA0002241103020000034
并且重新调整每个像素点的归属关系;实现方式如下:
对于数据集中的每一个像素点
Figure FDA0002241103020000035
计算它与每个聚类簇代表性像素点
Figure FDA0002241103020000036
之间的投影一致性残差;如果在这所有的聚类簇中,像素
Figure FDA0002241103020000037
与聚类簇Ql的代表性像素点之间计算得到的投影一致性残差值最小,而且
Figure FDA0002241103020000038
则像素
Figure FDA0002241103020000039
应该分配到聚类簇Ql中去;否则,如果
Figure FDA00022411030200000310
则不做任何修改,继续处理另一个像素点,直到所有的像素点被调整完成;
步骤5,重复步骤3和4直到满足结束阈值;对步骤3和4迭代求得的聚类簇进行验证处理;滤除每个聚类簇中存在的潜在干扰点以及数量不满足要求的聚类簇;利用得到的最终聚类结果以及步骤1恢复出来的每幅图像的摄像机矩阵Pi,根据公式
Figure FDA00022411030200000311
计算每个聚类簇对应的三维空间点坐标值。
CN201710757893.8A 2017-08-29 2017-08-29 三维场景重构中几何线索感知的像素级点云稠密化方法 Expired - Fee Related CN107610219B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710757893.8A CN107610219B (zh) 2017-08-29 2017-08-29 三维场景重构中几何线索感知的像素级点云稠密化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710757893.8A CN107610219B (zh) 2017-08-29 2017-08-29 三维场景重构中几何线索感知的像素级点云稠密化方法

Publications (2)

Publication Number Publication Date
CN107610219A CN107610219A (zh) 2018-01-19
CN107610219B true CN107610219B (zh) 2020-03-10

Family

ID=61056635

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710757893.8A Expired - Fee Related CN107610219B (zh) 2017-08-29 2017-08-29 三维场景重构中几何线索感知的像素级点云稠密化方法

Country Status (1)

Country Link
CN (1) CN107610219B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109033989B (zh) * 2018-07-02 2020-11-24 深圳辰视智能科技有限公司 基于三维点云的目标识别方法、装置及存储介质
CN111221998B (zh) * 2019-12-31 2022-06-17 武汉中海庭数据技术有限公司 一种基于点云轨迹图片联动的多视角作业查看方法和装置
CN111462331B (zh) * 2020-03-31 2023-06-27 四川大学 扩展对极几何并实时计算三维点云的查找表方法
CN113808273B (zh) * 2021-09-14 2023-09-12 大连海事大学 一种船行波数值模拟的无序式增量稀疏点云重构方法
CN114219901B (zh) * 2022-02-22 2022-06-10 松立控股集团股份有限公司 基于投影一致性和孪生Transformer的三维底盘投影方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102496183A (zh) * 2011-11-03 2012-06-13 北京航空航天大学 基于互联网照片集的多视角立体重构方法
CN105261060A (zh) * 2015-07-23 2016-01-20 东华大学 基于点云压缩和惯性导航的移动场景实时三维重构方法
US9269187B2 (en) * 2013-03-20 2016-02-23 Siemens Product Lifecycle Management Software Inc. Image-based 3D panorama
CN105787464A (zh) * 2016-03-18 2016-07-20 南京大学 一种大量图片在三维场景中的视点标定方法
CN105913489A (zh) * 2016-04-19 2016-08-31 东北大学 一种利用平面特征的室内三维场景重构方法
CN106056664A (zh) * 2016-05-23 2016-10-26 武汉盈力科技有限公司 一种基于惯性和深度视觉的实时三维场景重构系统及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102496183A (zh) * 2011-11-03 2012-06-13 北京航空航天大学 基于互联网照片集的多视角立体重构方法
US9269187B2 (en) * 2013-03-20 2016-02-23 Siemens Product Lifecycle Management Software Inc. Image-based 3D panorama
CN105261060A (zh) * 2015-07-23 2016-01-20 东华大学 基于点云压缩和惯性导航的移动场景实时三维重构方法
CN105787464A (zh) * 2016-03-18 2016-07-20 南京大学 一种大量图片在三维场景中的视点标定方法
CN105913489A (zh) * 2016-04-19 2016-08-31 东北大学 一种利用平面特征的室内三维场景重构方法
CN106056664A (zh) * 2016-05-23 2016-10-26 武汉盈力科技有限公司 一种基于惯性和深度视觉的实时三维场景重构系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于候选点稠密匹配的三维场景重构方法;李海滨等;《宇航学报》;20120130;全文 *
显著性特征保持的点云模型缩放;朱建等;《计算机辅助设计与图形学学报》;20141015;第26卷(第10期);全文 *

Also Published As

Publication number Publication date
CN107610219A (zh) 2018-01-19

Similar Documents

Publication Publication Date Title
CN107610219B (zh) 三维场景重构中几何线索感知的像素级点云稠密化方法
CN106910242B (zh) 基于深度相机进行室内完整场景三维重建的方法及系统
Strecha et al. On benchmarking camera calibration and multi-view stereo for high resolution imagery
US11651581B2 (en) System and method for correspondence map determination
Mayer et al. Dense 3D reconstruction from wide baseline image sets
CN110120013B (zh) 一种点云拼接方法及装置
Yin et al. Towards accurate reconstruction of 3d scene shape from a single monocular image
CN110796691A (zh) 一种基于形状上下文和hog特征的异源图像配准方法
Yuan et al. 3D reconstruction of background and objects moving on ground plane viewed from a moving camera
CN110766782A (zh) 基于多无人机视觉协同的大型施工场景实时重构方法
CN111553845A (zh) 一种基于优化的三维重建的快速图像拼接方法
CN114782628A (zh) 基于深度相机的室内实时三维重建方法
CN114494589A (zh) 三维重建方法、装置、电子设备和计算机可读存储介质
Wei et al. Iterative feature matching for self-supervised indoor depth estimation
Liu et al. Match selection and refinement for highly accurate two-view structure from motion
CN116894876A (zh) 基于实时图像的6-dof的定位方法
Xiao et al. Level-S $^ 2$ fM: Structure From Motion on Neural Level Set of Implicit Surfaces
Zhang et al. Integrating smartphone images and airborne lidar data for complete urban building modelling
CN114140581A (zh) 一种自动建模方法、装置、计算机设备及存储介质
Ji et al. Spatio-temporally consistent correspondence for dense dynamic scene modeling
Yu et al. Multi-view 2D–3D alignment with hybrid bundle adjustment for visual metrology
Petrovska et al. Geometric Accuracy Analysis Between Neural Radiance Fields (nerfs) and Terrestrial Laser Scanning (tls)
Kim et al. Multi-modal big-data management for film production
Li et al. Dense Points Aided Performance Evaluation Criterion of Human Obsevation for Image-based 3D Reconstruction
CN117593618B (zh) 基于神经辐射场和深度图的点云生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200310

Termination date: 20200829

CF01 Termination of patent right due to non-payment of annual fee