CN108053432B - 基于局部icp的室内稀疏点云场景的配准方法 - Google Patents
基于局部icp的室内稀疏点云场景的配准方法 Download PDFInfo
- Publication number
- CN108053432B CN108053432B CN201711119036.1A CN201711119036A CN108053432B CN 108053432 B CN108053432 B CN 108053432B CN 201711119036 A CN201711119036 A CN 201711119036A CN 108053432 B CN108053432 B CN 108053432B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- scene
- frames
- registration
- scenes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000009616 inductively coupled plasma Methods 0.000 claims abstract description 36
- 239000011159 matrix material Substances 0.000 claims abstract description 16
- 230000009466 transformation Effects 0.000 claims abstract description 14
- 238000005070 sampling Methods 0.000 claims abstract description 12
- 230000001131 transforming effect Effects 0.000 claims abstract description 9
- 238000010586 diagram Methods 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 12
- 238000009499 grossing Methods 0.000 claims description 5
- 230000003993 interaction Effects 0.000 claims description 5
- 238000010187 selection method Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 2
- 230000002452 interceptive effect Effects 0.000 abstract description 5
- 238000013507 mapping Methods 0.000 description 17
- 238000009825 accumulation Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000007526 fusion splicing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Circuits (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于局部ICP的室内稀疏点云场景的配准方法,包括步骤:1)使用Kincet每隔设定的角度获取一帧点云数据,共获取若干帧;2)对获取的点云进行下采样操作;3)根据用户输入的角度进行粗配准;4)通过获取最近点或者用户交互框选的方式获取两帧间重复的部分;5)对重复的部分使用ICP算法进行配准,并得到变换矩阵;6)使用局部ICP获得的变换矩阵对整个场景进行变换;7)使用贪婪投影法将融合后的点云场景网格化并用拉普拉斯平滑网格。本发明方法挑选出了两帧重合度不高的点云场景中的少量重合部分,并对该少量重合部分进行局部ICP的配准,用以指导整个大场景的配准,具有采集数据量小和配准准确率较高的优点。
Description
技术领域
本发明涉及计算机图形学和三维点云配准领域,尤其是指一种基于局部ICP的室内稀疏点云场景的配准方法。
背景技术
三维场景建模一直是计算机图形学和计算机视觉的一个重要研究领域。近几年来,随着一些成熟的三维深度扫描设备(以下也称RGB-D扫描设备)的上市,如微软发布的Kinect,使得室内场景的建模越来越受关注。得益于低成本的RGB-D扫描设备的发展,过去几年,三维数字模型有着较大发展。然而,目前大多数的研究都集中在把RGB-D扫描设备用在单个模型的重构上。然而,室内场景的三维建模仍然是一个具有挑战性的问题。这主要是由两方面的原因引起的:第一,不同于户外建筑立面和普通的单个模型,室内物体往往有更复杂的3D几何形状,不同部分之间存在着杂乱的环境和大量的变化;第二,无论是专业的三维扫描仪还是普通的RGB-D扫描设备获得的深度信息往往带有很大的噪音,可能会失真,与现实的几何信息存在较大的差距。
目前室内场景配准的方法可以分成两类:稀疏映射和稠密映射。稀疏映射就是指稀疏地选择一些关键帧来用于重建,这样可以迅速提供目标场景的粗略结构;而稠密映射,则使用全部RGB-D数据流,只要有足够的可用数据就可以进行相关细节的重建。由于低成本扫描设备获得的深度图像的质量较差,最稀疏的映射系统主要依靠在RGB图像中检测到的显著特征(例如SIFT、SURF、ORB)来找到互相对应的点。然而作为现实世界的室内场景通常包含着大量纹理不明显的区域,如墙壁,或重复的图案纹理,如瓷砖地板,采用目前已有的算法仍然很容易产生错误的匹配对应点。相反,在稠密的深度信息流的帮助下,帧与帧的ICP配准算法可以为推断相机位姿提供更强的线索。因此,稠密映射R目前更加适合用来处理廉价的RGB-D扫描设备获取的数据,并能提供较为鲁棒的自动化重建的解决方案。然而,这个方案,只能处理像普通模型这样数据量并不大的模型重建,对于室内场景来说,需要采集的数据非常大,使用稠密帧映射的方法,不仅低效,而且容易出现误差累积的情况。
然而经过我们研究发现,通过少量的交互进行引导,并使用局部ICP的配准方法可以有效解决以上问题。首先我们使用的方法属于稀疏映射范畴,因此避免了稠密映射中数据量过于庞大,且容易累积误差的问题。同时我们对于重复率较低的两帧点云进入了少量的交互操作,从而较为精确地找出两帧点云间重复的部分,对小区域的重复部分进行ICP配准操作,并以配准的结果指导整个场景的配准。从而得到较为高效且精准的配准效果。
发明内容
本发明的目的在于克服现有技术的缺点和不足,提供一种行之有效、科学合理的基于局部ICP的室内稀疏点云场景的配准方法。
为实现上述目的,本发明所提供的技术方案为:基于局部ICP的室内稀疏点云场景的配准方法,包括以下步骤:
1)使用Kincet每隔一定的角度获取一帧点云场景,共获取若干帧;
2)对获取的点云场景进行下采样操作;
3)根据用户输入的角度进行粗配准;
4)通过最近点法或者用户交互框选的方法获取连续两帧点云场景重合的部分;
5)对提取出的点云场景重合的部分使用ICP算法进行配准,并得到变换矩阵;
6)使用通过局部ICP算法获得的变换矩阵对整个点云场景进行变换;
7)使用贪婪投影法将融合后的点云场景网格化并用拉普拉斯算法平滑网格;
在步骤1)中,用户使用Kinect每隔一定的角度拍摄一次(每次拍摄旋转的角度尽量相似,但无需完全相同,但需要保证连续拍摄的两帧点云场景有一定的重合度),获取到RGB图像以及深度图像,通过RGB图像和深度图像合成点云场景,经过若干次的拍摄后得到若干帧点云场景。
在步骤2)中,使用voxelgrid算法对点云场景进行下采样,该算法的核心为将整个点云场景分割若干个小的立方体,以该立方体的重心点代替立方体中的所有点,得到下采样后的点云场景,从而达到下采样的目的。
在步骤3)中,由用户输入大致的旋转角度(无需精确,大概即可),将步骤2)中下采样后的点云场景旋转相对应的角度,获取粗配准结果。
在步骤4)中,获取两帧间的重复部分,是指经过步骤3)的粗配准后,两帧的点云场景中存在一些重复的部分,我们可以使用获取最近点法以及用户框选的方法获取这些重复的部分,为后续的精细配准做指导。
其中,获取最近点法适用于两帧点云的重复部分为平面或者近似平面的曲面(如墙壁),其算法步骤如下:
4.1a)输入连续的两帧经过步骤3)粗配准过后的点云场景,并分别对两帧点云场景建立各自的KD树;
4.2a)使用KD树分别对两帧点云场景中的每一个点求在另一个点云场景中的最近点,获得两片新的点云,这两片新的点云是两帧点云场景的子集,同时可以代表两帧点云场景的重合部分;
由于两帧点云场景的重合部分为平面,也就意味着这两片新点云是同一个平面,所以只要能够拟合这两篇新点云,即可获取两帧场景间的变换关系;
而用户框选的方法主要适用于两帧点云之间存在着一些重复的物体(如电风扇、电脑等)。由于两帧点云的重合部分未必都是同一个平面,有可能会出现相对复杂的情况(如重合部分含有家具等),此时我们引入交互的方式精确地定位重合的部分。其方法步骤如下:
4.1b)输入连续的两帧经过步骤3)粗配准过后的点云场景,并对两帧点云场景中的每一个点计算它的K近邻;
4.2b)根据步骤4.1b)中计算出来的K近邻结果,为两帧点云场景分别构建其S-T图;
4.3b)用户手动地在两帧点云场景中框选出重复出现的物体,根据用户框选的结果计算出分割的中心和分割半径;
4.4b)计算S-T图中各边的权值,其中,连接图中的普通节点到普通节点的边的权值为:
式中,c为常数值,本方法一般设为5,e为自然指数,d1为S-T图中两个节点所代表的点云场景中的两个点之间的欧氏距离,s为点云场景的密度;
源节点到普通节点的边的权值为:
W2=0.8
普通节点到汇节点的边的权值为:
W3=d2/R
式中,d2为S-T图中每个节点代表的点云场景中的点到步骤4.3b)中计算得到的分割中心点的欧氏距离,R为步骤4.3b)中计算得到的分割半径;
4.5b)对经过步骤4.4b)中计算过各边的距离的S-T图,用最大流最小割的方式进行图分割,即可将用户框选的物体分割出来,该物体可代表两帧点云场景的重合部分;
而在后续的步骤中,只需要拟合这两个相同的物体,即可获取两帧场景间的变换关系。由于分割的结果排除了桌面地面等干扰,所以能有效地提高后续配准的准确率。
在步骤5)中,对步骤4)中获取到的重合部分的点云使用ICP算法进行配准拟合,获取其变换矩阵。
在步骤6)中,使用步骤5)中获得的变换矩阵对整个场景进行变换,并进行拼接,得到融合后的点云场景。由于连续两帧的重合度不高,所以只要能对重合的小部分进行较好的配准拟合,即可指导整个场景的配准。
在步骤7)中,对步骤6)得到融合后的点云使用贪婪投影法进行网格化,得到一个完整的网格化场景。由于我们针对的是稀疏的点云场景,与稠密映射重构出来的场景相比,点的数量较少,重构为网格之后会出现噪声较大的情况,因此需要进行平滑操作,从而获得一个效果更好的网格化场景。
本发明与现有技术相比,具有如下优点与有益效果:
1、与现有的稀疏映射的方法相比,本发明的配准准确率较好。针对由于现实世界的室内场景通常包含着大量纹理不明显的区域或重复的图案纹理,使得配准过程中很容易产生错误的匹配对应点的问题。我们并不是直接使用对应点进行配准,而是通过最近点法找到同一个面或者通过交互的方式找到同一个物体,对同一个面或者同一个物体进行精确配准,继而引导整个场景的配准,因此配准的准确率得到了比较大的提高。
2、与现有的稠密映射方法相比,本发明的数据采集量更少且效率更高。现阶段稠密映射的方法由于需要相邻两帧的点云场景具有较高的重合率,这也就意味着若要对一个比较大的场景进行重建的话,需要采集的数据量将会非常庞大,而这大量的数据量中存在着大量的冗余,这也就意味着稠密映射的方法会极大地浪费储存空间,同时由于配准次数更多,所以其中产生的误差积累也会更多。而我们的方法仅需要相邻两帧的点云有少量的重合即可,完成一次大场景的配准可能仅需要数十帧点云进行数十次配准即可完成,相比稠密映射动辄成百上千帧的点云数据来说,显得更加的高效。
附图说明
图1为本发明方法的流程图。
图2为本发明利用Kinect扫描获得的点云场景。
图3为本发明进行粗配准后的结果图。
图4中A为本发明使用最近点法找到两帧点云重合部分的示意图。
图4中B为本发明使用框选交互找到两帧点云重合部分的示意图。
图5中A为本发明使用局部ICP对两帧点云c12和c21配准后的结果。
图5中B为本发明使用局部ICP对两帧点云c23和c32配准后的结果。
图6为本发明完成整个场景配准后的点云结果图。
图7为本发明将配准后的点云转化为网格模型后的结果图。
图8为对比实验中要配准的两幅场景的RGB图。
图9为本实验配准后的结果与其他方法的对比图,其中ours为本方法。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1所示,本实施例所提供的基于局部ICP的室内稀疏点云场景的配准方法,包括以下步骤:
1)使用Kincet每隔一定的角度获取一帧点云数据,共获取若干帧;
使用kinect顺时针每隔大约三十度采集一次数据,共采集四帧,根据RGB图像和深度图像获得四帧点云场景,分别为C1、C2、C3和C4。如图2所示,其中图2中的A、B、C和D分别对应点云场景C1、C2、C3和C4。
2)对获取的点云进行下采样操作
对步骤1)采集得到的四帧点云分别进行下采样,将其点数从三十万下采样至十万以内。
3)根据用户输入的角度进行粗配准
对步骤2)得到的四帧点云分别做以下处理:C1保持不变,C2顺时针旋转三十度,C3顺时针旋转六十度,C4顺时针旋转九十度,粗配准的结果如图3所示。
4)通过获取最近点或者用户交互框选的方式获取两帧间重复的部分
观察可知,C1和C2的重合部分是墙壁,即为一个平面,所以采用最近点法获取重合的部分(图4A中圈出的部分),最近点法的步骤如下:
4.1a)输入连续的两帧经过步骤3)粗配准过后的点云场景C1和C2,并分别对两帧点云场景建立各自的KD树;
4.2a)使用KD树分别对两帧点云场景中的每一个点求在另一个点云场景中的最近点,获得两片新的点云c12和c21,其中c12是指C1中与C2重合的部分,是C1的一个子集,c21同理;
而C2和C3具有重复出现的物体(风扇)如图4B中圈出的部分所示,所以我们使用用户框选的方法获取这个重合的部分,用户框选的方法的步骤如下:
4.1b)输入连续的两帧经过步骤3)粗配准过后的点云场景C2和C3,并对两帧点云场景中的每一个点计算它的K近邻;
4.2b)根据步骤4.1b)中计算出来的K近邻结果,为两帧点云场景分别构建其S-T图;
4.3b)用户手动地在两帧点云场景中框选出重复出现的物体,即风扇,根据用户框选的结果计算出分割的中心和分割半径;
4.4b)计算S-T图中各边的权值,其中,连接图中的普通节点到普通节点的边的权值为:
式中,c为常数值,本方法一般设为5,e为自然指数,d1为S-T图中两个节点所代表的点云场景中的两个点之间的欧氏距离,s为点云场景的密度;
源节点到普通节点的边的权值为:
W2=0.8
普通节点到汇节点的边的权值为:
W3=d2/R
式中,d2为S-T图中每个节点代表的点云场景中的点到步骤4.3b)中计算得到的分割中心点的欧氏距离,R为步骤4.3b)中计算得到的分割半径;
4.5b)对经过步骤4.4b)中计算过各边的距离的S-T图,用最大流最小割的方式进行图分割,即可将用户框选的物体分割出来,即c23和c32,其中c23是指C2中与C3重合的部分,是C2的一个子集,c32同理;
同理,我们可用用户框选的方法求出C3和C4的重合部分c34和c43。
5)对重复的部分使用ICP算法进行配准,并得到变换矩阵;
对步骤4)提取出的重合部分使用ICP算法配准,首先配准c12和c21(配准结果如图5A所示),并获取旋转矩阵M1。随后依次配准c23和c32(配准结果如图5B所示)以及c34和c43,分别获得获得旋转矩阵M2和M3。
6)使用局部ICP获得的变换矩阵对整个场景进行变换;
对C1以步骤5)中获得的矩阵M1进行旋转变换,后与C2进行拼接融合,获得融合后的点云C12;对融合后的点云C12以步骤5)中获得的矩阵M2进行变换,并与C3进行融合拼接,获得融合后的点云C123;对C123以步骤5)中获得的旋转矩阵M3进行变换,并与C4进行融合拼接,获得C1234。最终配准结果如图6所示。
7)使用贪婪投影法将融合后的点云场景网格化;
对步骤6)获得的配准融合后的点云C1234使用贪婪投影法进行网格化获得配准后的网格,并对其做拉普拉斯平滑,得到最终的网格G1234。平滑后的网格如图7所示。
本发明经过实验证明其可行性,能广泛应用于各种室内场景的配准。图9展示的是本发明与根据图像特征点进行稀疏配准和稠密配准两种方法的结果比对,实验配准的场景如图8所示(仅展示起始帧和结束帧,中间还有数帧点云数据并未展示)。可见,相比于基于图像特征点配准的稀疏映射方法,我们的算法的配准精确度显然更好。而相对于稠密映射的配准方法,我们的数据量显然更少,我们仅仅使用起始帧和结束帧两帧点云场景数据,而基于稠密映射的方法则使用了包含起始帧和结束帧在内的连续的36帧点云场景数据,最终点云场景的点数是我们方法的数十倍。而且稠密配准的配准结果存在一定的噪声毛刺,这是大量冗余数据的所产生的误差积累,而从图9可以看出,我们的方法产生的结果明显更加的干净整洁。
综上所述,本发明的基于局部ICP的室内稀疏点云场景的配准方法,可以在保证采集数量较少、重复率较低的数据的情况下,依然能提供准确性较好、配准质量较高的配准结果。通过本方法配准得到的网格模型,可以用在室内重建、虚拟看房等一系列应用,具有广泛的应用前景,值得推广。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (5)
1.基于局部ICP的室内稀疏点云场景的配准方法,其特征在于:首先,用户使用Kinect每隔设定的角度扫描获得若干帧点云场景,经下采样后,根据用户提供的旋转角进行粗配准,然后使用用户框选交互的方式获取连续两帧点云场景之间的重合部分,而后使用局部ICP算法进行配准融合,最后使用贪婪投影法将融合后的点云场景网格化并使用拉普拉斯算法平滑网格场景得到最终结果;其包括以下步骤:
1)使用Kincet每隔设定的角度获取一帧点云场景,共获取若干帧;
2)对获取的点云场景进行下采样操作;
3)根据用户输入的旋转角度进行粗配准;
用户输入旋转角度,将步骤2)中下采样后的点云场景旋转相对应的角度,获取粗配准结果;
4)通过用户交互框选的方法获取连续两帧点云场景重合的部分,其包括以下步骤:
4.1b)输入连续的两帧经过步骤3)粗配准过后的点云场景,并对两帧点云场景中的每一个点计算它的K近邻;
4.2b)根据步骤4.1b)中计算出来的K近邻结果,为两帧点云场景分别构建其S-T图;
4.3b)用户手动地在两帧点云场景中框选出重复出现的物体,根据用户框选的结果计算出分割的中心和分割半径;
4.4b)计算S-T图中各边的权值,其中,连接图中的普通节点到普通节点的边的权值为:
式中,c为常数值,e为自然指数,d1为S-T图中两个节点所代表的点云场景中的两个点之间的欧氏距离,s为点云场景的密度;
源节点到普通节点的边的权值为:
W2=0.8
普通节点到汇节点的边的权值为:
W3=d2/R
式中,d2为S-T图中每个节点代表的点云场景中的点到步骤4.3b)中计算得到的分割中心点的欧氏距离,R为步骤4.3b)中计算得到的分割半径;
4.5b)对经过步骤4.4b)中计算过各边的距离的S-T图,用最大流最小割的方式进行图分割,即可将用户框选的物体分割出来,该物体代表两帧点云场景的重合部分;
5)对提取出的点云场景重合的部分使用ICP算法进行配准,并得到变换矩阵;
6)使用通过局部ICP算法获得的变换矩阵对整个点云场景进行变换;
7)使用贪婪投影法将融合后的点云场景网格化并用拉普拉斯算法平滑网格。
2.根据权利要求1所述的基于局部ICP的室内稀疏点云场景的配准方法,其特征在于:在步骤1)中,用户使用Kinect每隔设定的角度拍摄一次,每次拍摄旋转的角度无需完全相同,但需要保证连续拍摄的两帧点云场景的重合度在设定范围内,获取到RGB图像以及深度图像,通过RGB图像和深度图像合成点云场景,经过若干次的拍摄后得到若干帧点云场景。
3.根据权利要求1所述的基于局部ICP的室内稀疏点云场景的配准方法,其特征在于:在步骤2)中,使用voxelgrid算法对点云场景进行下采样,该算法的核心为将整个点云场景分割若干个小的立方体,以该立方体的重心点代替立方体中的所有点,得到下采样后的点云场景。
4.根据权利要求1所述的基于局部ICP的室内稀疏点云场景的配准方法,其特征在于:在步骤6)中,使用步骤5)中获得的变换矩阵对整个点云场景进行变换,并进行拼接,得到融合后的点云场景。
5.根据权利要求4所述的基于局部ICP的室内稀疏点云场景的配准方法,其特征在于:在步骤7)中,对步骤6)得到融合后的点云场景使用贪婪投影法进行网格化,得到一个完整的网格场景,而后进行拉普拉斯平滑化处理,得到最终平滑的网格场景。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711119036.1A CN108053432B (zh) | 2017-11-14 | 2017-11-14 | 基于局部icp的室内稀疏点云场景的配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711119036.1A CN108053432B (zh) | 2017-11-14 | 2017-11-14 | 基于局部icp的室内稀疏点云场景的配准方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108053432A CN108053432A (zh) | 2018-05-18 |
CN108053432B true CN108053432B (zh) | 2020-09-22 |
Family
ID=62118711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711119036.1A Active CN108053432B (zh) | 2017-11-14 | 2017-11-14 | 基于局部icp的室内稀疏点云场景的配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108053432B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109448111B (zh) * | 2018-10-25 | 2023-05-30 | 山东鲁软数字科技有限公司 | 一种图像三维曲面模型优化构建方法及装置 |
CN111311651B (zh) * | 2018-12-11 | 2023-10-20 | 北京大学 | 点云配准方法和装置 |
CN109633665A (zh) * | 2018-12-17 | 2019-04-16 | 北京主线科技有限公司 | 交通场景稀疏激光点云拼接方法 |
CN109741374B (zh) * | 2019-01-30 | 2022-12-06 | 重庆大学 | 点云配准旋转变换方法、点云配准方法、设备及可读存储介质 |
CN111009005A (zh) * | 2019-11-27 | 2020-04-14 | 天津大学 | 几何信息与光度信息相结合的场景分类点云粗配准方法 |
CN111461982B (zh) * | 2020-03-30 | 2023-09-22 | 北京百度网讯科技有限公司 | 用于拼接点云的方法和装置 |
CN111524168B (zh) * | 2020-04-24 | 2023-04-18 | 中国科学院深圳先进技术研究院 | 点云数据的配准方法、系统、装置及计算机存储介质 |
CN111767938B (zh) * | 2020-05-09 | 2023-12-19 | 北京奇艺世纪科技有限公司 | 一种异常数据检测方法、装置及电子设备 |
CN112597796A (zh) * | 2020-11-18 | 2021-04-02 | 中国石油大学(华东) | 一种鲁棒的基于图卷积的点云表征学习方法 |
CN113313707B (zh) * | 2021-06-25 | 2024-07-26 | 西安紫光展锐科技有限公司 | 原始图像处理方法、装置、设备及可读存储介质 |
CN113192114B (zh) * | 2021-07-01 | 2021-09-03 | 四川大学 | 基于重叠特征与局部距离约束的叶片多视场点云配准方法 |
CN115127565A (zh) * | 2022-06-30 | 2022-09-30 | 北京百度网讯科技有限公司 | 高精地图数据生成方法、装置、电子设备及存储介质 |
CN115908519B (zh) * | 2023-02-24 | 2023-05-09 | 南京航空航天大学 | 一种大型复合材料构件三维测量配准误差控制方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927783A (zh) * | 2014-04-17 | 2014-07-16 | 武汉大学 | 一种三维三角网构建填挖空间的图割方法 |
CN104764457A (zh) * | 2015-04-21 | 2015-07-08 | 北京理工大学 | 一种用于无人车的城市环境构图方法 |
CN105654422A (zh) * | 2015-12-23 | 2016-06-08 | 北京观著信息技术有限公司 | 点云配准方法和系统 |
CN105787933A (zh) * | 2016-02-19 | 2016-07-20 | 武汉理工大学 | 基于多视角点云配准的岸线三维重建装置及方法 |
CN106204718A (zh) * | 2016-06-28 | 2016-12-07 | 华南理工大学 | 一种基于单个Kinect的简易高效三维人体重建方法 |
WO2017139194A1 (en) * | 2016-02-11 | 2017-08-17 | 3M Innovative Properties Company | Population-based surface mesh reconstruction |
-
2017
- 2017-11-14 CN CN201711119036.1A patent/CN108053432B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103927783A (zh) * | 2014-04-17 | 2014-07-16 | 武汉大学 | 一种三维三角网构建填挖空间的图割方法 |
CN104764457A (zh) * | 2015-04-21 | 2015-07-08 | 北京理工大学 | 一种用于无人车的城市环境构图方法 |
CN105654422A (zh) * | 2015-12-23 | 2016-06-08 | 北京观著信息技术有限公司 | 点云配准方法和系统 |
WO2017139194A1 (en) * | 2016-02-11 | 2017-08-17 | 3M Innovative Properties Company | Population-based surface mesh reconstruction |
CN105787933A (zh) * | 2016-02-19 | 2016-07-20 | 武汉理工大学 | 基于多视角点云配准的岸线三维重建装置及方法 |
CN106204718A (zh) * | 2016-06-28 | 2016-12-07 | 华南理工大学 | 一种基于单个Kinect的简易高效三维人体重建方法 |
Non-Patent Citations (2)
Title |
---|
Automatic segmentation of point clouds from multi-view reconstruction using graph-cut;Rongjiang Pan et al.;《The Visual Computer》;20150401;第1页,第4页 * |
大规模点云选择及精简;范然 等;《图学学报》;20130531;第34卷(第3期);第12-19页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108053432A (zh) | 2018-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108053432B (zh) | 基于局部icp的室内稀疏点云场景的配准方法 | |
Zhang et al. | Online structure analysis for real-time indoor scene reconstruction | |
Ceylan et al. | Coupled structure-from-motion and 3D symmetry detection for urban facades | |
Xiao et al. | Image-based façade modeling | |
IL266060A (en) | Strong merging of three-dimensional texture grids | |
Chen et al. | Research on 3D reconstruction based on multiple views | |
US20240087231A1 (en) | Method, apparatus, computer device and storage medium for three-dimensional reconstruction of indoor structure | |
Hyeon et al. | Pose correction for highly accurate visual localization in large-scale indoor spaces | |
Wang et al. | Image-based building regularization using structural linear features | |
Guo et al. | Line-based 3d building abstraction and polygonal surface reconstruction from images | |
Guo et al. | Sam-guided graph cut for 3d instance segmentation | |
Wan et al. | Sorting unorganized photo sets for urban reconstruction | |
CN113971718A (zh) | 一种对三维点云模型进行布尔运算的方法 | |
Campagnolo et al. | Fully automated scan-to-bim via point cloud instance segmentation | |
Knott et al. | Towards mesh-based deep learning for semantic segmentation in photogrammetry | |
CN112002007A (zh) | 基于空地影像的模型获取方法及装置、设备、存储介质 | |
CN110147809B (zh) | 图像处理方法及装置、存储介质及图像设备 | |
CN111583098B (zh) | 一种基于序列图像的线段聚类及拟合方法和系统 | |
Wang et al. | Quasi-Dense Matching Algorithm for Close-Range Image Combined With Feature Line Constraint | |
Li et al. | Lightweight 3D modeling of urban buildings from range data | |
Yuan et al. | An Improved Method of 3D Scene Reconstruction Based on SfM | |
Hlubik et al. | Advanced point cloud estimation based on multiple view geometry | |
CN116246038B (zh) | 一种多视影像三维线段重建方法、系统、电子设备及介质 | |
Zhang et al. | Topology-based automatic 3D modeling from multiple images | |
Sugiura et al. | 3d surface extraction using incremental tetrahedra carving |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |