CN110136077A - 一种基于投影的多视角点云融合方法 - Google Patents
一种基于投影的多视角点云融合方法 Download PDFInfo
- Publication number
- CN110136077A CN110136077A CN201910354945.6A CN201910354945A CN110136077A CN 110136077 A CN110136077 A CN 110136077A CN 201910354945 A CN201910354945 A CN 201910354945A CN 110136077 A CN110136077 A CN 110136077A
- Authority
- CN
- China
- Prior art keywords
- point
- overlapping
- distance
- point cloud
- overlapping region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 15
- 238000000034 method Methods 0.000 claims description 18
- 238000010586 diagram Methods 0.000 claims description 11
- 238000013459 approach Methods 0.000 claims description 5
- 238000012552 review Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000003780 insertion Methods 0.000 claims description 3
- 230000037431 insertion Effects 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims description 2
- 230000004927 fusion Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000011505 plaster Substances 0.000 description 3
- 101100126955 Arabidopsis thaliana KCS2 gene Proteins 0.000 description 1
- 241000132023 Bellis perennis Species 0.000 description 1
- 235000005633 Chrysanthemum balsamita Nutrition 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于投影的多视角点云融合方法,其实现步骤为:首先相邻的投影仪分别单独向被测物体投影纯白图案,提取出相邻投影仪的重叠区域在图像中的像素点位置,这些像素点重建到三维空间即为重叠区域的点云。然后,利用Kd‑Tree计算出非重叠区域点云的平均最短距离σ作为基准点间距,接着,对重叠区域中的点云,利用Kd‑Tree计算其在相邻点云中的最近邻点,结合距离和法向量判断,点距小于2σ且法向量方向一致时判断为对应的重叠点,最后,计算对应重叠点之间的距离,若距离小于σ时,采用渐进式加权进行合并,加权系数由三维点反投影回图像上的点到重叠区域边界的距离确定;若距离大于σ,采用自然邻点插值对两点中点进行插值。
Description
技术领域
本发明涉及一种基于投影的多视角点云融合方法,属于计算机视觉中三维重构的领域。
背景技术
基于光栅投影的三维测量系统具有硬件配置简单、测量精度高、点密度高、速度快、成本低等优点,因此一直是一个充满活力的领域。而多摄像机可以有效解决单摄像机不能解决的问题,应用场景更加广泛。经过多个摄像机重建出来的点云之间往往有公共部分,由于计算误差以及测量噪声导致存在配准误差,公共部分来自两片不同点云的点就会重叠起来而不是完全贴合,甚至会出现轻微的分层,给后续的应用带来困难。对大量冗余点进行建模是时间的浪费,而可能出现的分层现象会导致重建的三维模型表面平滑度较差、表面出现褶皱,因此重叠区域的冗余点对于后续应用来说非常不利,去除这些重叠点使得整个点云密度一致是非常必要的步骤。
去除重叠点,也称为点云数据融合,有学者提出利用体素栅格对整个点云进行融合,将整个点云空间分成若干个栅格,每个栅格选取一个代表点保留,其余的点去除,这样可以使得整个点云密度一致,但是栅格大小的确定是一个难题。此外,网格融合的方法首先要对点云网格化再进行重叠区域的检测与融合,代表为拉链法,网格法大多数情况下只能对相邻两个网格进行处理,多个网格的情况下耗费时间增加,且易产生累积误差。还有根据距离判断是否是重叠点,若距离小于一个阈值,则判断为重叠,两个点之中的一个点被删除。结合二维图像信息也有学者研究,结合K邻域约束和DAISY特征描述子来查找并删除重叠点,保证了非重叠区域的完整性且能够有效消除重叠点。一种基于主次缝合线的融合方法被提出用来解决重叠问题,首先将点云数据分割找到主缝合线MSL和次缝合线SSL,对MSL和SSL上的点进行三角化,结合两个视图中保留部分的三角化网格,就可以得到无冗余的三角网格结果。
发明内容
上述方法多是对整个点云进行处理,如何快速定位到重叠区域,并且充分考虑重叠区域内各种情况,有效地融合重叠点云,则是本发明所要解决的技术问题。
针对多视角点云存在部分重叠的问题,本发明提出一种基于投影的多视角点云融合方法。根据点云重建的原理,利用相邻投影仪单独额外投影纯白图案,找到相邻点云的重叠区域,根据距离和法向量对重叠区域内的点云进行融合,两两距离较近的点进行加权融合,距离较远的点进行插值,使得重叠区域的密度与非重叠区域的密度相当,多视角点云之间平滑连接。
本发明为解决上述技术问题采用以下技术方案:
本发明提供一种基于投影的多视角点云融合方法,包括以下步骤:
步骤1,重叠区域检测:相邻的投影仪分别单独向被测物体投影纯白图案,提取出相邻投影仪的重叠区域在图像中的像素点位置,将这些像素点重建到三维空间即为重叠区域的点云;
步骤2,计算基准点间距;
步骤3,基于步骤2中的基准点间距,判断重叠点;
步骤4,对步骤3中的重叠点进行融合,完成点云融合。
作为本发明的进一步技术方案,步骤1中重叠区域检测具体为:
(1)左右投影仪都关闭,摄像机拍摄被测物体作为基准图片;
(2)左投影仪开启,向被测物体投影纯白图案,摄像机拍摄此时被测物体的图片,并将其与基准图片作对比,得出左投影仪可覆盖的区域,记为AL;
(3)左投影仪关闭,右投影仪开启,向被测物体投影纯白图案,摄像机拍摄此时被测物体的图片,并将其与基准图片作对比,得出右投影仪可覆盖的区域,记为AR;
(4)对比AL和AR,提取其公共的区域即为在摄像机图像中的重叠区域。
作为本发明的进一步技术方案,步骤2具体为:
(1)对非重叠区域点云内的所有点,利用Kd-tree搜索其自身点云的最近点,得到最近距离dist;
(2)若某一点对应的dist值大于设定的阈值,则判断该点为离群点并舍弃对应的dist值,其余dist值累加记为sum;
(3)基准点间距σ=sum/count,式中,count为非重叠区域点云内的非离群点数量。
作为本发明的进一步技术方案,步骤3具体为:
(1)对点云的重叠区域内的所有点,利用Kd-tree在相邻点云的重叠区域上搜索其最近点,得到最近距离d;
(2)若某一点对应的d大于阈值2σ,则该点不是重叠点;否则继续判断两点的法向量,若两点法向量方向一致,则判定为对应的重叠点。
作为本发明的进一步技术方案,步骤4具体为:
(1)对点云重叠区域内的所有对应的重叠点,计算对应重叠点之间的距离;
(2)若对应重叠点之间的距离小于σ,则采用渐进式加权算法将两点合并,两个点加权结合成新点的公式如下:
其中,pnew为生成的新点的坐标,pl为左边的重叠点坐标,pr为右边的重叠点坐标,α和β均为加权系数;
(3)若对应重叠点之间的距离大于σ,则采用自然邻点插值方法向两点的中点插值;
(4)若对应重叠点之间的距离等于σ,则不进行处理。
作为本发明的进一步技术方案,其中,dl、dr分别表示pl到重叠区域左边界的距离、pr到重叠区域右边界的距离。
作为本发明的进一步技术方案,dl、dr的计算方法是:将三维空间点根据摄像机的模型方程投影到图像平面上,计算其在图像上与左右重叠边界的距离。
作为本发明的进一步技术方案,采用自然邻点插值方法向两点的中点插值中,待插值点x的X、Y轴坐标分别为(x1+x2)/2、(y1+y2)/2,Z轴坐标为pi为待插值点x的邻点,λi为pi的权重,h(pi)为pi的Z轴的坐标。
作为本发明的进一步技术方案,权重λi通过Voronoi图的面积来反应,Voronoi图将平面划分为多个多边形,每个多边形包含一个数据点,插入点x形成的新的多边形的总面积为S,x所在的多边形与其邻接点所在的原来的多边形相交,将x所在的多边形分成多个部分,每个部分面积记为si,则si/S即为权重λi。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1.利用投影仪多投影一幅图像,即可快速确定点云之间的重叠区域,加快后续过程的处理速度;
2.对重叠区域进行了有效的融合,由于多视角引起公共重叠点云区域密度不均,本发明分析了原因并分别对待处理,避免了缝隙的出现,使整体点云密度趋于一致;
3.融合了重叠区域的点云后,后续网格化的速度会提升,且在重叠部分不会出现凹凸不平的现象,整体网格较为平滑,质量较高。
附图说明
图1为本发明的流程图;
图2为左投影仪投影到的区域示意图;
图3为右投影仪投影到的区域示意图;
图4为左右投影仪共同投影到的区域示意图;
图5为重叠点之间距离较近的例子;
图6为重叠点之间距离较远的例子;
图7为加权系数计算示意图;
图8为自然邻点插值算法示意图;
图9为原始测量点云示意图;
图10为用本发明融合后的点云示意图;
图11为原始点云网格重叠区域放大图;
图12为融合点云网格重叠区域放大图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
在Windows操作系统下选用Visual Studio Community作为编程工具,对采集到的图像和重建的点云进行处理。该实例采用具有复杂形貌的物体作为被测对象,证实本专利提出的测量方法的有效性。应理解这些实例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
本发明一种基于投影的多视角点云融合方法,如图1所示,具体包括以下步骤:
1.重叠区域检测。
根据三维重建原理,投影仪被当成一个逆向的摄像机,与摄像机一起构成一个双目测量系统,因此只有被投影仪投射到的部分才会被重建,若一个区域被多个投影仪同时投射到,这个区域将会被重建多次,故这个区域即为重叠区域。由于被投影仪投射到的区域的像素与没被投影仪投射到的区域的像素之间会产生灰度的差距,利用这个灰度差可以将重叠区域计算出来。
如图2所示对于左摄像机来说,正常的拍摄流程中是使用左投影仪进行投影,若关闭左投影仪开启右投影仪如图3所示,可得到左摄像机视角下右投影仪能够投影的区域,图4中灰色区域表示图2、图3中灰色区域的公共部分,即为能够同时被左右投影仪投影到的部分,此部分即为重叠区域。这一重叠区域是对于左摄像机来说的,对右摄像机也进行同样的流程即可得到右摄像机图像中的重叠区域。
这里以双摄像机测量系统为例,总的步骤总结为:
(1)左右投影仪都关闭,左摄像机拍摄物体作为基准图片;
(2)左投影仪开启,投影纯白图案,左摄像机拍摄图片,与基准图片作对比可得出左投影仪可覆盖的区域,记为AL;
(3)左投影仪关闭,右投影仪开启,投影纯白图案,左摄像机拍摄图片,与基准图片作对比得出右投影仪可覆盖的区域,记为AR;
(4)对比AL和AR,提取其公共的区域即为在左摄像机图像中的重叠区域;
(5)对右摄像机重复步骤(1)~(4),得到右摄像机图像中的重叠区域。
2.计算基准点间距。
(1)对非重叠区域点云内的所有点,利用Kd-tree计算其在自身点云中的最近点,得到最近距离dist;
(2)若dist大于设定的阈值(这里一般是取一个经验值来作为阈值,若大于这个阈值就判断为离群点,这个阈值是和点云密度有关,在我们的系统里是取的1mm),则判断为离群点,不加入计算,否则将dist累加到sum中,count自增1;
(3)所有点计算完毕后,sum/count为平均最短距离,即为所求的基准点间距σ。
3.左投影仪对应的图像中的点与右投影仪对应的图像中的点之间的对应重叠点判断。
(1)对点云的重叠区域内的所有点,利用Kd-tree在相邻点云上搜索其最近点,计算出最近距离d;
(2)若d大于阈值2σ,该点不是重叠点,跳过;
(3)若d不大于阈值2σ,继续判断两点的法向量,若两点法向量方向一致,则判定为对应的重叠点,否则跳过。
4.重叠点融合。
判定出重叠点后,下一步就是对重叠点进行融合。融合的目的是将较密区域的点云稀疏,稀疏区域的点云变密,最终整个点云密度均匀一致,因此首先对重叠点是属于较密还是较稀疏进行判断,然后再用对应的方法进行处理。点云密度不均产生的现象如图5、6所示,图5为重叠点之间距离较近的例子,可见中间部分的点云明显比两侧要厚,因此要对中间部分进行稀疏。图6为重叠点之间距离较远的例子,中间交界处出现明显的缝隙,这是由于中间缝隙处的密度比两侧都小,需要对其补充点使其密度与两侧相当。这是两种截然相反的情况,如果对右边的情况仍然使用左侧的加权融合会导致缝隙越来越大,因此针对这两种不同情况要分别处理。
首先计算出重叠点之间的距离,若两点距离小于基准点间距,则采用渐进式加权平均将两点合并,若两点距离大于基准点间距,则采用插值算法在两点中间进行插值。其步骤如下:
(1)对点云重叠区域内的所有对应的重叠点,计算其距离;
(2)若距离小于σ,采用渐进式加权算法将两点合并,两个点加权结合成新点的公式如下:
其中,pnew为生成的新点的坐标,pl为左边的重叠点坐标,pr为右边的重叠点坐标,α和β为加权系数。
本章采用渐进式加权,即点越靠近左边界,α的值越大,点越靠近右边界,β的值越大。根据距离,以上式子可转化如下:
其中dl、dr分别表示pl到重叠区域左边界的距离,pr到重叠区域右边界的距离。
dl、dr的计算方法是:将三维空间点根据摄像机的模型方程投影到图像平面上,计算其在图像上与左右重叠边界的距离,如图7是dr的计算示意图,首先将三维空间点投影到图像平面上,然后再计算该点与右边界的水平距离,即为dl、dr的计算方式相同。
(3)若距离大于σ,则采用自然邻点插值向两点的中间点插值。自然邻点插值是根据邻点对待插值点的贡献率来确定权重,如下所示:
其中,h(x)为插值点x的值,pi为插值点x的邻点,λi为pi的权重,h(pi)为pi处的值。这里的值可以理解为Z轴的坐标,根据X,Y轴的坐标确定出邻点,权重λi通过Voronoi图的面积来反应,Voronoi图可以将平面划分为多个多边形,每个多边形包含一个数据点,插入点x形成的新的多边形的总面积为S,x所在的多边形与其邻接点所在的原来的多边形相交,将x所在的多边形分成多个部分,每个部分面积记为si,则si/S即为权重λi,如图8所示。
设两个对应重叠点的坐标分别为(x1,y1,z1),(x2,y2,z2),则待插值点的X,Y轴坐标为((x1+x2)/2,(y1+y2)/2),由此确定出邻点,根据上式计算出Z轴的坐标。
(4)若距离等于σ,则不进行处理。
通过上述方法对点云进行融合,实验物为石膏像,图9为石膏像的原始点云,图10为石膏像融合后的点云,可见采用本发明后,与原始点云相比,重叠区域的密度看上去和左右点云的密度相当,而且也没有明显的拼接缝隙。对点云进行三角化,对比原始点云和去重叠点云的差别。将部分重叠区域放大,图11是原始点云的三角化结果,仔细观察可见中间区域有一些褶皱,这是重叠点云造成的,而重叠区域融合之后的三角化结果如图12所示,同样的区域变得更加光滑,三角化结果更好,且由于点云数量减少,三角化所耗时间更少。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (9)
1.一种基于投影的多视角点云融合方法,其特征在于,包括以下步骤:
步骤1,重叠区域检测:相邻的投影仪分别单独向被测物体投影纯白图案,提取出相邻投影仪的重叠区域在图像中的像素点位置,将这些像素点重建到三维空间即为重叠区域的点云;
步骤2,计算基准点间距;
步骤3,基于步骤2中的基准点间距,判断重叠点;
步骤4,对步骤3中的重叠点进行融合,完成点云融合。
2.根据权利要求1所述的一种基于投影的多视角点云融合方法,其特征在于,步骤1中重叠区域检测具体为:
(1)左右投影仪都关闭,摄像机拍摄被测物体作为基准图片;
(2)左投影仪开启,向被测物体投影纯白图案,摄像机拍摄此时被测物体的图片,并将其与基准图片作对比,得出左投影仪可覆盖的区域,记为AL;
(3)左投影仪关闭,右投影仪开启,向被测物体投影纯白图案,摄像机拍摄此时被测物体的图片,并将其与基准图片作对比,得出右投影仪可覆盖的区域,记为AR;
(4)对比AL和AR,提取其公共的区域即为在摄像机图像中的重叠区域。
3.根据权利要求1所述的一种基于投影的多视角点云融合方法,其特征在于,步骤2具体为:
(1)对非重叠区域点云内的所有点,利用Kd-tree搜索其自身点云的最近点,得到最近距离dist;
(2)若某一点对应的dist值大于设定的阈值,则判断该点为离群点并舍弃对应的dist值,其余dist值累加记为sum;
(3)基准点间距σ=sum/count,式中,count为非重叠区域点云内的非离群点数量。
4.根据权利要求1所述的一种基于投影的多视角点云融合方法,其特征在于,步骤3具体为:
(1)对点云的重叠区域内的所有点,利用Kd-tree在相邻点云的重叠区域上搜索其最近点,得到最近距离d;
(2)若某一点对应的d大于阈值2σ,则该点不是重叠点;否则继续判断两点的法向量,若两点法向量方向一致,则判定为对应的重叠点。
5.根据权利要求1所述的一种基于投影的多视角点云融合方法,其特征在于,步骤4具体为:
(1)对点云重叠区域内的所有对应的重叠点,计算对应重叠点之间的距离;
(2)若对应重叠点之间的距离小于σ,则采用渐进式加权算法将两点合并,两个点加权结合成新点的公式如下:
其中,pnew为生成的新点的坐标,pl为左边的重叠点坐标,pr为右边的重叠点坐标,α和β均为加权系数;
(3)若对应重叠点之间的距离大于σ,则采用自然邻点插值方法向两点的中点插值;
(4)若对应重叠点之间的距离等于σ,则不进行处理。
6.根据权利要求5所述的一种基于投影的多视角点云融合方法,其特征在于,其中,dl、dr分别表示pl到重叠区域左边界的距离、pr到重叠区域右边界的距离。
7.根据权利要求6所述的一种基于投影的多视角点云融合方法,其特征在于,dl、dr的计算方法是:将三维空间点根据摄像机的模型方程投影到图像平面上,计算其在图像上与左右重叠边界的距离。
8.根据权利要求5所述的一种基于投影的多视角点云融合方法,其特征在于,采用自然邻点插值方法向两点的中点插值中,待插值点x的X、Y轴坐标分别为(x1+x2)/2、(y1+y2)/2,Z轴坐标为pi为待插值点x的邻点,λi为pi的权重,h(pi)为pi的Z轴的坐标。
9.根据权利要求8所述的一种基于投影的多视角点云融合方法,其特征在于,权重λi通过Voronoi图的面积来反应,Voronoi图将平面划分为多个多边形,每个多边形包含一个数据点,插入点x形成的新的多边形的总面积为S,x所在的多边形与其邻接点所在的原来的多边形相交,将x所在的多边形分成多个部分,每个部分面积记为si,则si/S即为权重λi。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910354945.6A CN110136077B (zh) | 2019-04-29 | 2019-04-29 | 一种基于投影的多视角点云融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910354945.6A CN110136077B (zh) | 2019-04-29 | 2019-04-29 | 一种基于投影的多视角点云融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110136077A true CN110136077A (zh) | 2019-08-16 |
CN110136077B CN110136077B (zh) | 2023-05-12 |
Family
ID=67575575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910354945.6A Active CN110136077B (zh) | 2019-04-29 | 2019-04-29 | 一种基于投影的多视角点云融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110136077B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113066189A (zh) * | 2021-04-06 | 2021-07-02 | 海信视像科技股份有限公司 | 一种增强现实设备及虚实物体遮挡显示方法 |
CN113344992A (zh) * | 2021-05-31 | 2021-09-03 | 山东大学 | 一种全局点云配准方法、系统、存储介质及设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469388A (zh) * | 2015-11-16 | 2016-04-06 | 集美大学 | 基于降维的建筑物点云配准算法 |
CN107301648A (zh) * | 2017-06-09 | 2017-10-27 | 大连理工大学 | 基于重叠区域边界角度的冗余点云去除方法 |
-
2019
- 2019-04-29 CN CN201910354945.6A patent/CN110136077B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469388A (zh) * | 2015-11-16 | 2016-04-06 | 集美大学 | 基于降维的建筑物点云配准算法 |
CN107301648A (zh) * | 2017-06-09 | 2017-10-27 | 大连理工大学 | 基于重叠区域边界角度的冗余点云去除方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113066189A (zh) * | 2021-04-06 | 2021-07-02 | 海信视像科技股份有限公司 | 一种增强现实设备及虚实物体遮挡显示方法 |
CN113066189B (zh) * | 2021-04-06 | 2022-06-14 | 海信视像科技股份有限公司 | 一种增强现实设备及虚实物体遮挡显示方法 |
CN113344992A (zh) * | 2021-05-31 | 2021-09-03 | 山东大学 | 一种全局点云配准方法、系统、存储介质及设备 |
CN113344992B (zh) * | 2021-05-31 | 2022-06-28 | 山东大学 | 一种全局点云配准方法、系统、存储介质及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110136077B (zh) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Furukawa et al. | Dense 3d motion capture from synchronized video streams | |
Wolff et al. | Point cloud noise and outlier removal for image-based 3D reconstruction | |
Dou et al. | Fusion4d: Real-time performance capture of challenging scenes | |
Furukawa et al. | Accurate, dense, and robust multiview stereopsis | |
Cabral et al. | Piecewise planar and compact floorplan reconstruction from images | |
Newcombe et al. | Live dense reconstruction with a single moving camera | |
US7272264B2 (en) | System and method for hole filling in 3D models | |
Tauber et al. | Review and preview: Disocclusion by inpainting for image-based rendering | |
Seitz | Image-based transformation of viewpoint and scene appearance | |
Esteban et al. | Multi-stereo 3d object reconstruction | |
Zhang et al. | Critical regularizations for neural surface reconstruction in the wild | |
CN108053476A (zh) | 一种基于分段三维重建的人体参数测量系统及方法 | |
Schertler et al. | Field-aligned online surface reconstruction | |
Song et al. | Volumetric stereo and silhouette fusion for image-based modeling | |
Lhuillier et al. | Manifold surface reconstruction of an environment from sparse structure-from-motion data | |
Liu et al. | High-quality textured 3D shape reconstruction with cascaded fully convolutional networks | |
CN110136077A (zh) | 一种基于投影的多视角点云融合方法 | |
Tyle_ek et al. | Refinement of surface mesh for accurate multi-view reconstruction | |
Sun et al. | Mesh-based integration of range and color images | |
Ley et al. | Automatic building abstraction from aerial photogrammetry | |
Szeliski | From images to models (and beyond): a personal retrospective | |
Stereopsis | Accurate, dense, and robust multiview stereopsis | |
Ohtake et al. | A composite approach to meshing scattered data | |
Gong et al. | Multi-view stereo point clouds visualization | |
Merrell et al. | Evaluation of large scale scene reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |