CN103942832A - 一种基于在线结构分析的室内场景实时重建方法 - Google Patents
一种基于在线结构分析的室内场景实时重建方法 Download PDFInfo
- Publication number
- CN103942832A CN103942832A CN201410146583.9A CN201410146583A CN103942832A CN 103942832 A CN103942832 A CN 103942832A CN 201410146583 A CN201410146583 A CN 201410146583A CN 103942832 A CN103942832 A CN 103942832A
- Authority
- CN
- China
- Prior art keywords
- plane
- pixel
- voxel
- depth map
- mark
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明公开了一种基于在线结构分析的室内场景实时重建方法,该方法采用深度相机作为输入,对每一帧输入的深度图进行逐像素的标记,将深度图中的各个平面及物体分别标记出来,利用标记将对应的平面和物体进行更新,然后合成新的深度图用于下一帧摄像机的位置的计算;本发明通过结构信息对KinectFusion进行了增强,能够将其中的平面和物体进行分割,通过实时分析,对结构信息进行更新,使得用户能够操纵整个扫描过程,减少了扫描的工作量;通过对平面结构,平面之间的相互关系,重复物体进行分析,能够进一步提高系统的稳定性,并使得结果更加精确。
Description
技术领域
本发明设计室内场景在线分析与实时重建技术,尤其涉及一种基于在线结构分析的室内场景实时重建方法。
背景技术
本发明相关的研究背景简述如下:
1.基于深度相机的3D场景恢复
深度相机的一大优势就是其实时获取深度图像的能力,因此带动了深度相机在3D场景恢复中应用的普及。有代表性的算法是KinectFusion,通过GPU加速将深度图实时累加到均匀体素当中,并通过体素进行摄像机位置计算(Izadi,Shahram,et al."KinectFusion:real-time3D reconstruction and interaction using amoving depth camera."Proceedings of the24th annual ACM symposium on Userinterface software and technology.ACM,2011)。为了使恢复的场景不受体素尺寸的限制,可以采用移动体素的方法将不处于工作区域的体素换出(Roth,Henry,and Marsette Vona."Moving Volume KinectFusion."BMVC.2012.;Whelan,Thomas,et al."Robust tracking for real-time dense RGB-D mapping withKintinuous."(2012).)。还可以通过建立空间层次结构(Chen,Jiawen,DennisBautembach,and Shahram Izadi."Scalable real-time volumetric surfacereconstruction."ACM Transactions on Graphics(TOG)32.4(2013):113.),或者空间哈希表实现大空间的存储(,M.,,M.,Izadi,S.,&Stamminger,M.(2013).Real-time3D reconstruction at scale using voxel hashing.ACM Transactionson Graphics(TOG),32(6),169.)。
尽管这些算法能够实时扫描高精度的3D数据,然而仍然受到深度相机输出噪声很大的影响,其精度远不足以主动形成封闭回路。因此便出现了离线计算的方法,对整个摄像机轨迹进行全局优化(Zhou,Q.Y.,&Koltun,V.(2013).Densescene reconstruction with points of interest.ACM Transactions on Graphics(TOG),32(4),112.)。还有一种在扫描场景中进行回路检测的方法(Du,H.,Henry,P.,Ren,X.,Cheng,M.,Goldman,D.B.,Seitz,S.M.,&Fox,D.(2011,September).Interactive3D modeling of indoor environments with a consumer depth camera.InProceedings of the13th international conference on Ubiquitous computing(pp.75-84).ACM.)。这些方法都没有利用结构信息,因此恢复精度依然会受到限制。
2.结构分析
在典型的室内场景中,结构化信息大量存在,比如人造的平面和立方体,平面之间的垂直或平行关系,以及重复出现的物体。这些结构化信息可以帮助3D重建,并提高重建精度。
曼哈顿平面假设已经被用于基于图像的室内场景深度恢复(Furukawa,Y.,Curless,B.,Seitz,S.M.,&Szeliski,R.(2009,June).Manhattan-world stereo.InComputer Vision and Pattern Recognition,2009.CVPR2009.IEEE Conference on(pp.1422-1429).IEEE.),还被用于室内场景3维布局,比如计算房间和方块形物体的形状和位置(Lee,D.C.,Hebert,M.,&Kanade,T.(2009,June).Geometricreasoning for single image structure recovery.In Computer Vision and PatternRecognition,2009.CVPR2009.IEEE Conference on(pp.2136-2143).IEEE;Lee,D.C.,Gupta,A.,Hebert,M.,&Kanade,T.(2010,November).Estimating SpatialLayout of Rooms using Volumetric Reasoning about Objects and Surfaces.In NIPS(Vol.1,No.2,p.3);Del Pero,L.,Bowdish,J.,Fried,D.,Kermgard,B.,Hartley,E.,&Barnard,K.(2012,June).Bayesian geometric modeling of indoor scenes.InComputer Vision and Pattern Recognition(CVPR),2012IEEE Conference on(pp.2719-2726).IEEE.)。在室外场景恢复中,可以从多视角利用图分割方法恢复出平面(Tomono,M.(2012,May).Image-based planar reconstruction for dense roboticmapping.In Robotics and Automation(ICRA),2012IEEE International Conferenceon(pp.3005-3012).IEEE.)。这样可以很好地分割出室外平面物体,例如道路,人行道以及建筑平面。然而这些方法的输入都是图像,并且都是非实时的应用。
平面检测已经被用于减小摄像机追踪的误差,并用于物体层次的场景分析(Taguchi,Y.,Jian,Y.D.,Ramalingam,S.,&Feng,C.Point-Plane SLAM forHand-Held3D Sensors;Ataer-Cansizoglu,E.,Taguchi,Y.,Ramalingam,S.,&Garaas,T.(2013).Tracking an RGB-D Camera Using Points and Planes;Dou,M.,Guan,L.,Frahm,J.M.,&Fuchs,H.(2013,January).Exploring high-level plane primitives forindoor3d reconstruction with a hand-held RGB-D camera.In ComputerVision-ACCV2012Workshops(pp.94-108).Springer Berlin Heidelberg.)。但是这些都是基于点云的表达,无法直接集成到KinectFusion的框架中去,因此也无法通过体素来对深度图进行滤波。
由于室内场景相互遮挡非常严重,并且输入的深度图存在很大的噪声,直接恢复高精度的3D模型非常困难,因此出现了物体层次的结构分析,将采集的深度与模型库中的数据进行匹配,从而恢复出高精度的模型(Shao,T.,Xu,W.,Zhou,K.,Wang,J.,Li,D.,&Guo,B.(2012).An interactive approach to semanticmodeling of indoor scenes with an RGBD camera.ACM Transactions on Graphics(TOG),31(6),136;Nan,L.,Xie,K.,&Sharf,A.(2012).A search-classify approachfor cluttered indoor scene understanding.ACM Transactions on Graphics(TOG),31(6),137.)。重复物体也能够被检测出来,用于提高大场景的恢复速度(Kim,Y.M.,Mitra,N.J.,Yan,D.M.,&Guibas,L.(2012).Acquiring3D indoor environmentswith variability and repetition.ACM Transactions on Graphics(TOG),31(6),138.)。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于在线结构分析的室内场景实时重建方法。
本发明的目的是通过以下技术方案来实现的:一种基于在线结构分析的室内场景实时重建方法,包括如下步骤:
(1)体数据融合:首先根据上一帧深度图和摄像机位置,用ICP计算当前帧的摄像机位置,将当前帧深度图融合到体数据中去,并从当前帧的摄像机位置重新计算当前视点下体素隐式曲面的深度图,并从体数据中读出每一个体素的ID值,这个ID包含每一个体素的对应的平面或物体;
(2)平面像素标记:对每一个像素,根据从体数据中读出的ID值,标记出已知平面,然后从未标记为平面的像素中识别出新的平面并进行标记;
(3)物体像素标记:对所有还没有被标记为平面的像素,根据从体数据中读出的ID值,标记出已知物体,然后从未标记为平面或物体的像素中识别出新的物体并进行标记;
(4)平面边界点标记:找出所有平面的边界点,记录下这些边界点对应的平面及空间坐标;
(5)场景数据更新:根据从当前帧标记出的平面像素,以及平面的边界点,更新平面方程及平面的边界,或创建新的平面;根据平面的相互关系,对平面进一步修整;根据从当前帧标记出的物体像素,更新物体的包围盒,并搜索重复物体;最后将当前帧所有的标记都写入体素中,并根据标记合成出新的深度图,把合成的深度图用于下一帧摄像机位置计算。
本发明的有益效果是,通过结构信息对KinectFusion进行了增强,能够将其中的平面和物体进行分割,通过实时分析对结构信息进行更新,使得用户能够操纵整个扫描过程,减少了扫描的工作量。通过对平面结构,平面之间的相互关系,重复物体进行分析,可进一步提高系统的稳定性,并使得结果更加精确。
附图说明
图1是本发明的算法流程图;
图2是本发明的系统界面图,图中,(a)为当前视点体素深度图,(b)为当前视点重建的模型,(c)为用户观测视点重建的模型;
图3是本发明对深度图进行标记的过程,图中,(a)为观测到的深度图,(b)为ray casting直接得到的ID图,(c)为平面标记出之后的ID图,(d)为物体标记出之后的ID图;
图4是用KinectFusion扫描房间的结果图;
图5是本发明扫描图4所示的房间的结果图;
图6是本发明扫描一个140m2房间的结果图。
具体实施方式
本发明的核心是通过深度相机,在深度图上标记出平面和物体,进而恢复出3D室内场景。本发明一种基于在线结构分析的室内场景实时重建方法,包括如下步骤:
1.体数据融合:首先根据上一帧深度图和摄像机位置,用ICP计算当前帧的摄像机位置,将当前帧深度图融合到体数据中去,并从当前帧的摄像机位置重新计算当前视点下体素隐式曲面的深度图,并从体数据中读出每一个体素的ID值,这个ID包含每一个体素的对应的平面或物体。
本发明对采用空间哈希结构的KinectFusion进行了扩展。首先将当前采集到的深度图融入体素中,然后从体数据中读出滤波后的深度图,并读出对应体素的ID值。体数据采用空间哈希结构来存储,每个体素包含一个16位半浮点数表示的距离值,一个16位短整数表示的ID,三个字符表示的颜色,一个字符表示的权重,每个体素共8个字节。8*8*8个体素构成一块,每一块用一个哈希值来索引,只有靠近物体表面的块,其对应的空间才会被申请,并将这一块的索引插入哈希表。
每当获取一张新的深度图,首先计算当前这一帧摄像机的坐标。分别从当前深度图和上一帧合成的深度图计算出当前帧的点云和上一帧的点云,通过ICP计算出当前帧相对于上一帧的变换矩阵,将这一变换矩阵乘以上一帧的摄像机变换矩阵,即可得到当前帧的摄像机变换矩阵,即摄像机坐标。上一帧摄像机变换矩阵作为当前帧摄像机变换矩阵的初始估计。将当前帧点云用估计出的变换矩阵投影到屏幕上,投影像素对应点云中的点即为这一点的对应点对。ICP对应点对的权重根据像素的类型而不同,平面像素的权重大于物体像素的权重,而且平面越大,权重越大。第一帧的摄像机变换矩阵设为单位矩阵。
计算出当前帧摄像机坐标之后,根据深度图对体素进行更新。对于每一个落在摄像机视锥中的体素,如果体素中心点投影到屏幕上的深度与当前获取的深度图对应像素的深度值之差小于一个阈值,则将该体素存储的距离值及权重,用在线平均法进行更新。
最后计算当前摄像机坐标下,体素隐式曲面表示的深度图。从摄像机原点向每一个像素的方向发射射线,利用ray casting的方法找出射线与隐式曲面的交点,每一点的深度构成体素中隐式曲面的深度图。根据交点的位置计算出包含该交点体素的编号,并从体素中读出ID,构成一张ID图。
2.平面像素标记:对每一个像素,根据从体数据中读出的ID值,标记出已知平面,然后从未标记为平面的像素中识别出新的平面并进行标记。
2.1已知平面的标记
在这一步中,我们判断ID图上的每个像素是否属于一个已知平面。由于一部分像素已经在ID图中被标记出来,因此方法就是从已经被标记好的像素开始扩散,对尚未标记的像素进行标记。另一方面,上一步中标记的像素受体素精度影响并不能够保证完全正确,因此对于像素距离平面超过一定阈值的像素,需要对其重新标记。
为了利用已知的平面信息,我们将已经检测出的平面的边界进行扩大,并对其光栅化,得到当前摄像机已知平面的深度图及ID图。具体来说,对于一个已知平面,首先将其二维的包围盒沿着主轴方向扩大,然后将平面以细分网格的形式光栅化。对于面积超过一定值的平面,如地面或墙面,包围盒扩大40cm,其他平面扩大4cm。
接下来通过两次扫描,对尚未进行标记的像素进行标记。第一次扫描,比较每个像素ray casting得到的深度与光栅化得到的深度。如果两幅深度图上同一像素深度值只差小于一个阈值,则进一步检测ray casting得到的点到平面的距离以及ray casting得到的这一点法线方向与平面法向的角度差。如果它们都小于一定的阈值,则这一像素的ID被设为光栅化的ID图对应像素的ID。这一次扫描迅速标记出了属于已知平面的大片区域,并且区域之间在图像上可以不连续。第二次扫描通过广度优先搜索扩大第一次扫描中已经标记出的平面范围。每个像素能够被标记的条件与第一次扫描相同,只是法向夹角的阈值更大,以适应深度图的噪声。第二次扫描使得被标记的区域扩大,但区域之间在图像上保持连续。
2.2新平面的标记
当已知平面都被标记出来之后,再从还未被标记的像素中检测新的平面。这一过程包括两步。第一步通过相邻的四个像素,计算每一个像素的平均曲率。如果计算出的曲率大于一个阈值,或者四个相邻像素中有任何一个不是正常深度的像素,则这个像素被标记为“分界”像素。
第二步在尚未标记的像素中随机选择一个种子像素,然后通过四邻接的深度优先搜索填充。如果一个像素的相邻像素尚未被标记,并且这一像素的法向与平面法向角度差小于一个阈值,则这个相邻像素也被加入平面中来。平面的初始法向设为随机选择像素的法向,每有新的像素加入到平面中来,平面法向就被更新为这些像素的平均法向。当没有更多的像素能够被加入到平面中,搜索才结束。如果被标记为这个平面的像素个数超过了一个阈值,则创建一个新的平面,并且将这些像素设为这个新平面的ID。否则这些像素被认为是某个物体的一部分,标记为特殊值。
重复这两步,直到已经没有更多的种子像素能够被选择。一个新的平面可以从已经被标记为物体的像素上被检测出来。如果扫描刚开始只看到了平面的边缘,这时观测到的面积还达不到构成平面的阈值,这是平面就会被当做物体。当从物体上检测出平面的现象发生时,这个物体将会被移除,待平面被标记出来之后,剩余部分再重新标记为物体。
3.物体像素标记:对所有还没有被标记为平面的像素,根据从体数据中读出的ID值,标记出已知物体,然后从未标记为平面或物体的像素中识别出新的物体并进行标记。
当平面被标记出来之后,深度图将被分割为许多彼此独立的区域,物体将从这些区域中被标记出来。与标记已知平面类似,从已经被标记为物体的像素出发进行广度搜索。由于物体可以是任意形状,因此只要相邻像素的深度只差小于一定阈值,搜索就可以扩散出去。
当已知平面、新平面、已知物体都被标记出来之后,最后检测新物体。选择一个尚未标记的像素作为种子像素进行填充。填充方法与已知物体的标记相同。如果标记出的像素个数大于一个阈值,则创建一个新的物体,并将这些像素设为该物体的ID,否则将这些像素标记为特殊值。选种子像素然后填充的过程持续,直到没有更多的种子像素能够被选择。
4.平面边界点标记:找出所有平面的边界点,记录下这些边界点对应的平面及空间坐标。
平面边界点位于平面的边缘,用于确定平面的边界。如果一个像素属于一个平面,而这个像素至少一个相邻像素不属于这个平面,并且该相邻像素的深度大于平面在这一像素的深度,则这个像素是平面的边界。将一个平面所有的边界点都标记出来,平面的边界就用这些点来拟合。
5.场景数据更新:根据从当前帧标记出的平面像素,以及平面的边界点,更新平面方程及平面的边界,或创建新的平面。根据平面的相互关系,对平面进一步修整。根据从当前帧标记出的物体像素,更新物体的包围盒,并搜索重复物体。最后将当前帧所有的标记都写入体素中,并根据标记合成出新的深度图,把合成的深度图用于下一帧摄像机位置计算。
5.1平面更新
如果一个平面在当前图像上被标记了出来,就将标记为这个平面的像素所对应的3D点加入到这个平面的点列表中。为了限制存储空间,将平面划分为均匀网格,每个网格中只存储距离该网格中心最近的一个点。当平面的点列表更新之后,利用主元分析(PCA)重新计算平面方程。标记出的平面边界点加入到平面边界点列表中,每个网格中也只存储一个边界点。如果几个平面几乎平行,距离小于一个阈值,并且平面有重叠部分,则这几个平面应当合并为同一个平面。我们合并这些平面的点列表及边界点列表,并且重新计算平面的边界。这些平面在体素中也将使用相同的ID。
5.2平面边界更新
平面边界用四变形来表示,每一条边有三种类型,包围盒类型、剪切类型以及相交类型。对于包围盒类型的边界,重新计算计算平面点列表的包围盒,用心的包围盒替代原来的包围盒边界。对于剪切类型的边界,用到原边界距离小于一定阈值的平面边界点重新拟合直线作为新的边界。对于相交类型的边界,重新计算两平面的交线作为新的边界。
平面边界更新之后,检测边界类型是否有可能发生转换。如果包围盒类型的边界周围分布了很多平面边界点,则将边界类型转换为剪切类型。如果两个平面相交,并且交线距离平面边界小于一个阈值,则将这条边界转换为相交类型。
5.3平面相互关系
根据平面之间的相互位置,将有相互联系的平面组合起来。
如果两个平面法相方向相反,距离小于一个阈值,并且有重叠部分,则这两个平面构成一块平板。将一个平面的点列表和边界点列表投影到另一个平面上并重新计算边界,新计算出来的边界作为平板的边界。平板的厚度是两个平面之间的距离。这两个平面之后都将作为一块平板来显示。
如果两个平面法向方向相同,距离小于一个阈值,重叠区域很少而边界距离很近,则靠前的平面是靠后的平面上的突起,突起的厚度是两个平面之间的距离。靠前的平面之后都将作为一块延伸到后面平面的平板来显示。
如果两个平面相交,并且形状都很接近矩形,夹角为凸90度,则这两个平面将构成一个立方体。将所有具有满足这些条件的平面对聚集在一起,并用聚集在一起的面拟合出立方体。这些面之后都将用这个立方体来显示。
如果两个平面的夹角接近90度,则认为这两个面是相互垂直的,并将其夹角设为90度。如果一个平面的法向与坐标轴很接近,则将这个面的法向设为与坐标轴重合。
5.4物体更新
物体直接在体素中用ID值来表示,只需要更新物体的包围盒。如果几个物体在深度图上相连,就把它们合并为同一个物体,将它们的ID更换为同一个ID,包围盒重新计算。如果用户通过交互操作要抽取某一个物体的面网格,则从体素中将ID值为这个物体的点云抽出来,然后通过Poisson表面重建的办法生成面网格。
5.5重复物体识别
如果当前扫描的物体与之前已经抽出面网格的某个物体形状相同,我们会将这个网格已经存在的物体直接显示在当前物体处,并让用户决定是否将采用这个网格。如果用户对识别结果满意,这个物体将会记录下匹配物体的编号及到匹配物体的旋转矩阵,将匹配成功的物体旋转之后直接显示在当前物体处。匹配通过当前物体在当前视点下的点云,与已经抽取网格的物体的点云做ICP来实现。如果ICP的误差小于一定阈值,则认为匹配成功。
5.6体素ID更新及结构化深度生成
通过ray casting深度图每一像素的深度,计算出每一像素对应体素的位置,将新的ID图每一像素的ID写入对应体素中。如果一个像素标记为平面,则这一像素的深度将被重新计算。计算方法是从摄像机原点往这一像素发射一条射线,计算这条射线与该像素对应平面的交点。这一交点在摄像机中的深度将作为新的深度。结构化的深度图将被用于下一帧摄像机坐标的计算。
实施实例
发明人在一台配备Intel I5-4430中央处理器,Nvidia GeForce GTX760显卡的台式计算机上实现了本发明的实施实例。实践中在普通电脑上可以达到20fps的帧速率。其中35ms用于KinectFusion,场景的在线分析只需要13ms。
发明人扫描了面积从20m2到140m2的多个房间。结果表明,在我们目前的硬件配置上,本发明可以在较短的时间内将整个房间扫描完成,并且可以有效地解决扫描大场景时遇到的精度较差,累积误差严重等问题。
Claims (3)
1.一种基于在线结构分析的室内场景实时重建方法,其特征在于,包括以下步骤:
(1)体数据融合:首先根据上一帧深度图和摄像机位置,用ICP计算当前帧的摄像机位置,将当前帧深度图融合到体数据中去,并从当前帧的摄像机位置重新计算当前视点下体素隐式曲面的深度图,并从体数据中读出每一个体素的ID值,这个ID包含每一个体素的对应的平面或物体;
(2)平面像素标记:对每一个像素,根据从体数据中读出的ID值,标记出已知平面,然后从未标记为平面的像素中识别出新的平面并进行标记;
(3)物体像素标记:对所有还没有被标记为平面的像素,根据从体数据中读出的ID值,标记出已知物体,然后从未标记为平面或物体的像素中识别出新的物体并进行标记;
(4)平面边界点标记:找出所有平面的边界点,记录下这些边界点对应的平面及空间坐标;
(5)场景数据更新:根据从当前帧标记出的平面像素,以及平面的边界点,更新平面方程及平面的边界,或创建新的平面;根据平面的相互关系,对平面进一步修整;根据从当前帧标记出的物体像素,更新物体的包围盒,并搜索重复物体;最后将当前帧所有的标记都写入体素中,并根据标记合成出新的深度图,把合成的深度图用于下一帧摄像机位置计算。
2.根据权利要求1所述基于在线结构分析的室内场景实时重建方法,其特征在于,所述步骤2包括以下子步骤:
(2.1)已知平面的标记,将已知平面光栅化得到深度图和ID图,对比每一像素ray casting的深度与光栅化的深度,通过两次扫描标记出已知平面;
(2.2)新平面的标记,首先标记出曲率大的像素,然后对其它尚未标记的像素用种子填充法进行扩散填充,标记出新的平面。
3.根据权利要求1所述基于在线结构分析的室内场景实时重建方法,其特征在于,所述步骤5包括以下子步骤:
(5.1)平面更新,将标记为这个平面的像素所对应的3D点加入到这个平面的点列表中,更新平面方程,并检测几个平面是否能够合并为同一个平面;
(5.2)平面边界更新,根据平面边界的类型更新每条边界,并检测边界类型是否有可能发生转换;
(5.3)平面相互关系,根据平面之间的相互位置,将有相互联系的平面组合起来;
(5.4)物体更新,更新物体的包围盒,将深度图上相连的几个物体合并为同一个物体,并根据用户操作抽取物体的面网格;
(5.5)重复物体识别,如果当前扫描的物体与之前已经抽出面网格的某个物体形状相同,则提示用户直接用该网格表示当前物体;
(5.6)体素ID更新及结构化深度生成,将新的ID写入体素,并计算新的深度图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410146583.9A CN103942832B (zh) | 2014-04-11 | 2014-04-11 | 一种基于在线结构分析的室内场景实时重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410146583.9A CN103942832B (zh) | 2014-04-11 | 2014-04-11 | 一种基于在线结构分析的室内场景实时重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103942832A true CN103942832A (zh) | 2014-07-23 |
CN103942832B CN103942832B (zh) | 2016-07-06 |
Family
ID=51190482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410146583.9A Active CN103942832B (zh) | 2014-04-11 | 2014-04-11 | 一种基于在线结构分析的室内场景实时重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103942832B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106067193A (zh) * | 2016-06-06 | 2016-11-02 | 中国人民解放军信息工程大学 | 一种点云数据的体素化方法和体素的遮挡裁剪方法 |
CN107564060A (zh) * | 2017-07-13 | 2018-01-09 | 塔米智能科技(北京)有限公司 | 一种消除slam导航累积误差的方法 |
CN107633523A (zh) * | 2016-07-18 | 2018-01-26 | 巧夺天宫(深圳)科技有限公司 | 基于点云的提取建筑特征线方法和系统 |
CN108369741A (zh) * | 2015-12-08 | 2018-08-03 | 三菱电机株式会社 | 用于配准数据的方法和系统 |
WO2018148924A1 (zh) * | 2017-02-17 | 2018-08-23 | 深圳市大疆创新科技有限公司 | 用于三维点云重建的方法和装置 |
CN109062211A (zh) * | 2018-08-10 | 2018-12-21 | 远形时空科技(北京)有限公司 | 一种基于slam识别临近空间的方法、装置、系统及存储介质 |
CN109544677A (zh) * | 2018-10-30 | 2019-03-29 | 山东大学 | 基于深度图像关键帧的室内场景主结构重建方法及系统 |
CN109669474A (zh) * | 2018-12-21 | 2019-04-23 | 国网安徽省电力有限公司淮南供电公司 | 基于先验知识的多旋翼无人机自适应悬停位置优化算法 |
CN110276260A (zh) * | 2019-05-22 | 2019-09-24 | 杭州电子科技大学 | 一种基于深度摄像头的商品检测方法 |
CN110490908A (zh) * | 2019-08-26 | 2019-11-22 | 北京华捷艾米科技有限公司 | 一种动态场景下小物体的位姿追踪方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101944239A (zh) * | 2009-07-08 | 2011-01-12 | 富士通株式会社 | 三维模型分割方法、装置以及包含该装置的图像处理系统 |
CN102308320A (zh) * | 2009-02-06 | 2012-01-04 | 香港科技大学 | 从图像生成三维模型 |
US20120194516A1 (en) * | 2011-01-31 | 2012-08-02 | Microsoft Corporation | Three-Dimensional Environment Reconstruction |
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
CN103617603A (zh) * | 2013-12-06 | 2014-03-05 | 南京大学 | 一种三维数字几何网格模型结构的自动修复方法 |
-
2014
- 2014-04-11 CN CN201410146583.9A patent/CN103942832B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102308320A (zh) * | 2009-02-06 | 2012-01-04 | 香港科技大学 | 从图像生成三维模型 |
CN101944239A (zh) * | 2009-07-08 | 2011-01-12 | 富士通株式会社 | 三维模型分割方法、装置以及包含该装置的图像处理系统 |
US20120194516A1 (en) * | 2011-01-31 | 2012-08-02 | Microsoft Corporation | Three-Dimensional Environment Reconstruction |
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
CN103617603A (zh) * | 2013-12-06 | 2014-03-05 | 南京大学 | 一种三维数字几何网格模型结构的自动修复方法 |
Non-Patent Citations (6)
Title |
---|
LEI CHEN等: "《Stereo Vision Based Floor Plane Extraction and Camera Pose Estimation》", 《ICIRA 2009》, 31 December 2009 (2009-12-31) * |
MASAHIRO TOMONO: "《Image-based Planar Reconstruction for Dense Robotic Mapping》", 《2012 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION》, 18 May 2012 (2012-05-18) * |
SHAHRAM IZADI等: "《KinectFusion: Realtime 3D Reconstruction and Interaction Using a Moving Depth Camera》", 《UIST"11》, 19 October 2011 (2011-10-19) * |
李冉: "《基于包围盒的快速3D模型切割显示和标注算法》", 《中国科技论文》, vol. 7, no. 1, 31 January 2012 (2012-01-31) * |
胡涛等: "《基于Kinect的深度数据融合方法》", 《计算机应用研究》, vol. 31, no. 1, 31 January 2014 (2014-01-31) * |
苗兰芳: "《一个基于多视图立体视觉的三维重建方法》", 《浙江师范大学学报(自然科学版)》, vol. 36, no. 3, 31 August 2013 (2013-08-31) * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108369741A (zh) * | 2015-12-08 | 2018-08-03 | 三菱电机株式会社 | 用于配准数据的方法和系统 |
CN108369741B (zh) * | 2015-12-08 | 2019-08-30 | 三菱电机株式会社 | 用于配准数据的方法和系统 |
CN106067193B (zh) * | 2016-06-06 | 2019-02-19 | 中国人民解放军信息工程大学 | 一种点云数据的体素化方法和体素的遮挡裁剪方法 |
CN106067193A (zh) * | 2016-06-06 | 2016-11-02 | 中国人民解放军信息工程大学 | 一种点云数据的体素化方法和体素的遮挡裁剪方法 |
CN107633523A (zh) * | 2016-07-18 | 2018-01-26 | 巧夺天宫(深圳)科技有限公司 | 基于点云的提取建筑特征线方法和系统 |
CN107633523B (zh) * | 2016-07-18 | 2021-04-16 | 巧夺天宫(深圳)科技有限公司 | 基于点云的提取建筑特征线方法和系统 |
CN108701374B (zh) * | 2017-02-17 | 2020-03-06 | 深圳市大疆创新科技有限公司 | 用于三维点云重建的方法和装置 |
WO2018148924A1 (zh) * | 2017-02-17 | 2018-08-23 | 深圳市大疆创新科技有限公司 | 用于三维点云重建的方法和装置 |
CN108701374A (zh) * | 2017-02-17 | 2018-10-23 | 深圳市大疆创新科技有限公司 | 用于三维点云重建的方法和装置 |
CN107564060A (zh) * | 2017-07-13 | 2018-01-09 | 塔米智能科技(北京)有限公司 | 一种消除slam导航累积误差的方法 |
CN109062211A (zh) * | 2018-08-10 | 2018-12-21 | 远形时空科技(北京)有限公司 | 一种基于slam识别临近空间的方法、装置、系统及存储介质 |
CN109062211B (zh) * | 2018-08-10 | 2021-12-10 | 远形时空科技(北京)有限公司 | 一种基于slam识别临近空间的方法、装置、系统及存储介质 |
CN109544677A (zh) * | 2018-10-30 | 2019-03-29 | 山东大学 | 基于深度图像关键帧的室内场景主结构重建方法及系统 |
CN109544677B (zh) * | 2018-10-30 | 2020-12-25 | 山东大学 | 基于深度图像关键帧的室内场景主结构重建方法及系统 |
CN109669474A (zh) * | 2018-12-21 | 2019-04-23 | 国网安徽省电力有限公司淮南供电公司 | 基于先验知识的多旋翼无人机自适应悬停位置优化算法 |
CN109669474B (zh) * | 2018-12-21 | 2022-02-15 | 国网安徽省电力有限公司淮南供电公司 | 基于先验知识的多旋翼无人机自适应悬停位置优化算法 |
CN110276260A (zh) * | 2019-05-22 | 2019-09-24 | 杭州电子科技大学 | 一种基于深度摄像头的商品检测方法 |
CN110490908A (zh) * | 2019-08-26 | 2019-11-22 | 北京华捷艾米科技有限公司 | 一种动态场景下小物体的位姿追踪方法及装置 |
CN110490908B (zh) * | 2019-08-26 | 2021-09-21 | 北京华捷艾米科技有限公司 | 一种动态场景下小物体的位姿追踪方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103942832B (zh) | 2016-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103942832A (zh) | 一种基于在线结构分析的室内场景实时重建方法 | |
Newcombe et al. | Kinectfusion: Real-time dense surface mapping and tracking | |
Chauve et al. | Robust piecewise-planar 3D reconstruction and completion from large-scale unstructured point data | |
Zaharescu et al. | Topology-adaptive mesh deformation for surface evolution, morphing, and multiview reconstruction | |
CN104966317B (zh) | 一种基于矿体轮廓线的三维自动建模方法 | |
Lovi | Incremental free-space carving for real-time 3d reconstruction | |
Thomas et al. | A flexible scene representation for 3d reconstruction using an rgb-d camera | |
Fang et al. | Connect-and-slice: an hybrid approach for reconstructing 3d objects | |
Pound et al. | A patch-based approach to 3D plant shoot phenotyping | |
Özbay et al. | A voxelize structured refinement method for registration of point clouds from Kinect sensors | |
Zhou et al. | Three-dimensional (3D) reconstruction of structures and landscapes: A new point-and-line fusion method | |
Guo et al. | Line-based 3d building abstraction and polygonal surface reconstruction from images | |
Xu et al. | Efficient interactions for reconstructing complex buildings via joint photometric and geometric saliency segmentation | |
Leroy et al. | Volume sweeping: Learning photoconsistency for multi-view shape reconstruction | |
Wiemann et al. | Automatic Map Creation For Environment Modelling In Robotic Simulators. | |
Zhang et al. | SurRF: Unsupervised multi-view stereopsis by learning surface radiance field | |
Splietker et al. | Directional TSDF: Modeling surface orientation for coherent meshes | |
Rosinol | Densifying sparse vio: a mesh-based approach using structural regularities | |
Luo et al. | Sparse rgb-d images create a real thing: a flexible voxel based 3d reconstruction pipeline for single object | |
Li et al. | Multi-view stereo via depth map fusion: A coordinate decent optimization method | |
JP2020035216A (ja) | 画像処理装置、方法及びプログラム | |
Xia et al. | A novel approach for computing exact visual hull from silhouettes | |
CN108151712B (zh) | 一种人体三维建模及测量方法和系统 | |
Goebbels et al. | Quality enhancement techniques for building models derived from sparse point clouds | |
Ton et al. | 3D Least Squares Based Surface Reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |