CN106651926A - 一种基于区域配准的深度点云三维重建方法 - Google Patents
一种基于区域配准的深度点云三维重建方法 Download PDFInfo
- Publication number
- CN106651926A CN106651926A CN201611233141.3A CN201611233141A CN106651926A CN 106651926 A CN106651926 A CN 106651926A CN 201611233141 A CN201611233141 A CN 201611233141A CN 106651926 A CN106651926 A CN 106651926A
- Authority
- CN
- China
- Prior art keywords
- region
- point
- cloud
- dimensional
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于区域配准的深度点云三维重建方法,首先输入彩色图像与深度图像,利用彩色图像的颜色相似性,对彩色图像进行区域划分,并利用深度信息对相邻空间相似区域进行合并;利用权值的迭代更新进行相邻时刻的区域预匹配,并对预处理后的区域对所对应的点云进行三维配准,最后将所有时刻的三维点云按照变换矩阵存储在栅格立方体中,使用移动立方体算法进行三维重建。实验结果表明,本发明能够实现立体模型的三维重建,并且重建的模型保留真实世界物体的特征信息,使重建的模型与现实物体之间具有一定的真实度与准确度,其成果可用于虚拟现实、三维打印等相关领域的研究与应用。
Description
技术领域
本发明涉及立体模型的三维重建技术,从彩色图像的颜色相似性出发,对彩色图像进行区域分割,将图像中的物体分割成具有局部相似性的多个区域,并利用深度信息对相邻区域进行相似度计算,将相邻的相似区域进行合并。在得到合并的区域后,利用权重信息的迭代更新进行相邻时刻的区域预匹配,并对预处理后的区域对所对应的点云进行三维配准得到变换矩阵,最后将所有时刻的三维点云按照变换矩阵存储在栅格立方体中,使用移动立方体算法进行三维表面重建。
背景技术
三维立体模型重建是计算机视觉、机器人系统与计算机图形学等领域中重要的研究课题。近些年来,由于Kinect等消费级深度采集设备的出现,该技术在虚拟现实、文物修复、医学成像、三维打印等领域中都有着广泛的应用。由于设备硬件上的限制,采集的深度数据往往会出现丢失现象。此外,设备的快速移动会导致配准技术的失败,产生与真实数据误差较大的三维模型。目前,一些优化技术可以检测到闭环,逐渐纠正设备位姿,并将误差分配到逐帧以减少累计误差带来的影响。但是,这些办法没有真正解决复杂环境下配准偏移的问题,当移动速度较快,或者物体特征信息不丰富时,如何获取较为精确的三维模型仍然是研究中亟待解决的关键问题。
发明内容
本发明的目的是提出一种基于区域配准的深度点云三维重建方法。
本发明的目的是这样实现的:一种基于区域配准的深度点云三维重建方法,其特征在于,对于采集的彩色图像与深度数据,采用以下步骤进行处理,即可以实现深度点云的三维重建。
步骤1:对彩色图像进行区域分割
为对彩色图像进行区域分割,首先将彩色图像所有像素点存储在图G中,然后使用基于图的贪心聚类分割方法将彩色图像过分割成多个区域。具体地,将彩色图像每个像素初始化为图G的顶点,像素之间的颜色差异初始化为顶点之间的边权值。首先计算所有像素之间的颜色差异,计为图G的边权值h,按照公式(1)计算:
其中,hij是像素点pi与pj之间的边权值,(ri,gi,bi)与(rj,gj,bj)分别是两个像素点的红绿蓝三个颜色值。为了进一步进行区域分割,首先将图G中每一个顶点当作一个区域,然后根据公式(2)对每两个区域进行聚类分析,如果两个区域满足公式(2),那么将他们合并为一块新区域;
Dif(Ci,Cj)≤min(Int(Ci)+f/|Ci|,Int(Cj)+f/|Cj|) (2)
其中,Ci和Cj是待分割的两个区域,Dif(Ci,Cj)是连接两个区域Ci和Cj之间的最小的边权值,Int(Ci)和Int(Cj)分别为区域Ci和Cj包含的图所对应的最小生成树中最大的边权值。|Ci|和|Cj|分别是区域Ci和Cj中的像素点个数,f是分割的阈值参数,设为50。对所有像素点进行处理后,彩色图像被过分割成多个区域;
步骤2:对相似的过分割区域进行合并
为了对相似的过分割区域进行合并,首先计算所有区域的协方差矩阵,然后计算相邻区域的相似度,对相似度小于阈值的区域进行合并。具体地,首先根据公式(3)计算每个区域的协方差矩阵A(u(S)):
其中,c(S)是区域S的中心点的三维坐标,u(S)是区域S对应的三维点云。|u(S)|为u(S)的顶点数量。x是点云上u(S)任意一个点的三维坐标。对A(u(S))进行矩阵的特征分解,得到的三个特征值从大到小分别为w1(S)、w2(S)、wn(S),对应的三个特征向量分别为T1(S)、T2(S)、N(S);
然后,对图像中所有相邻的区域进行相似度计算。具体地,对于图像中任意两个相邻区域Si,Sj,按照公式(4)计算它们之间的相似度csmooth。
其中||·||表示数量积计算,N(Si)与N(Sj)是两个区域计算得到的最小的特征向量。如果两个区域的相似度csmooth小于阈值常数cthod,相邻区域Si、Sj将合并成为新区域。其中cthod设为0.02m。对相邻时刻所有区域都进行相似度计算和合并后,得到相邻时刻两组合并后的区域集合;
步骤3:匹配相邻时刻的两组区域,对所有匹配的区域所对应的点云进行三维配准
为了进行区域点云之间的三维配准,首先要进行相邻时刻的两组区域之间的区域配对,然后进一步对配对后的区域点云进行三维配准。具体地,从时刻tk的区域集合中取一块区域Sm,再从下一时刻tk+1的区域集合中取一块区域Sn,组成区域对(Sm,Sn)。然后按照公式(5),计算Sm与Sn之间的空间位置关系rmn;
其中,dmn为两个点云区域之间所有最临近点对的平均欧氏距离,按照公式(6)计算。
其中,(xm,ym,zm)是u(Sm)上的任意点的三维坐标,(xn,yn,zn)是在u(Sn)上距离(xm,ym,zm)欧式距离最小的点的三维坐标;
wmn表示两个点云的重叠率,按照公式(7)进行计算。
其中,Nw是两个点云中欧式距离最小的点对距离小于dthod的点对数,其中dthod设为0.01m;
然后,对相邻两个时刻所有区域的点云进行权值初始化,具体地,区域Sm和Sn的权值e(Sm),e(Sn)分别初始化为Sm和Sn对应点云u(Sm)和u(Sn)的顶点个数占该时刻所有点云的顶点个数合的比例。如果rmn小于阈值rthod,那么将该组点云区域对(Sm,Sn)加入预处理集合M中,并分别按照公式(8)更新权值e(Sm),e(Sn),其中rthod设为0.02;
对所有区域对的点云进行权值计算,迭代更新所有点云的权值,最终得到包含所有区域对的预处理集合M。
进一步对预处理的区域对进行对应点云的几何三维配准。首先从M中取出一对区域,对这两块区域对应的三维点云分别进行几何特征提取。具体地,对点云u(Sm)和u(Sn)中的每个点分别计算FPFH特征。其特征在于,对点云每个点周围距离小于R的点进行特征统计形成点特征直方图,其中特征统计包括对距离、角度的统计,R取值为0.5m。然后利用采样一致性初始配准算法计算物体的四阶变换矩阵,具体地,先在u(Sm)中寻找采样点,然后在另一个点云u(Sn)中查找与采样点FPFH特征相似的所有点,计算每个点对的四阶变换矩阵,选择其中误差最小的刚体变换矩阵Tkp作为最终变换矩阵。k表示第k时刻,p表示在预处理集合M中的第p对匹配区域。其中,采样一致性初始配准算法中的采样点之间的距离不应小于阈值dmin,设为0.1m。
步骤4:融合通过三维配准得到的所有区域的变换矩阵
对于同一个时刻k,将该时刻所有区域的变换矩阵Tkp融合成该时刻的完整变换矩阵Tk,假设时刻k总共有pk组区域对,按照公式(9)计算融合后的变换矩阵Tk;
其中X为权值矩阵,设为(0.70.3),Tkp是时刻k时的第p对区域点云配准得到的变换矩阵,wkp是时刻k时的第p对区域点云的重叠率,按照公式(7)进行计算,dkp是时刻k时的第p对区域点云的平均欧式距离,按照公式(8)进行计算;
步骤5:将不同时刻的深度点云进行点云融合与三维表面重建。
为了将不同时刻的深度点云进行点云融合与三维表面重建,首先使用截断符号距离函数(TSDF)进行点云的融合。具体地,将空间划分成1283个栅格立方体,将点云分布在栅格立方体中,然后计算每帧融合后每个栅格立方体的TSDF值;
为了计算每个栅格立方体中的截断符号距离函数,首先要计算每个栅格立方体中的符号距离函数sdfkg(x),k表示第k时刻,g表示第g个栅格立方体,sdfkg(x)代表着点云上任意一点x的符号距离函数,按照公式(10)进行计算:
sdfkg(x)=dis(vg,tk)-Dk (10)
其中,tk是相机光心在三维坐标系下的坐标,相机光心坐标设为(320,240),vg是栅格g在三维坐标系下的坐标,dis(vg,tk)表示栅格到光心的距离,Dk是图像中x对应的像素点所对应的深度值,由Kinect设备相机采集得到。如果sdfkg(x)大于0,tsdfkg(x)按照公式(11)计算,否则按照公式(12)计算:
tsdfkg(x)=min(1,sdfkg(x)/mtruncation) (11)
tsdfkg(x)=min(-1,sdfkg(x)/mtruncation) (12)
其中mtruncation为常量,取值为10。然后计算权重wtkg(x),初始值为1。Wkg(x)为迭代后的权重,计算公式如(13)所示;
Wkg(x)=Wk-1,g(x)+wtkg(x) (13)
最后记录迭代后的加权TSDF值,标记为TSDFkg(x),按照公式(14)计算。
将Wkg(x)和TSDFkg(x)存储在对应的栅格g中,进行下个栅格g+1的计算。当对所有时刻的栅格都计算了截断符号距离函数后,所有点云已被存储在栅格立方体中。然后使用移动立方体算法抽取等值面,绘制三维表面,得到立体模型。
本发明利用彩色图像与深度图像,能得到具有一定真实度与准确度的三维模型,能够解决困难环境下的配准偏移问题。进一步实例证明了本发明的实验效果,适用于如TUMRGB-D库提供的数据集提供的深度与彩色图像等。
附图说明
图1为本发明实施例经过区域生成后的分割过程结果图;
图2为本发明实施例重建的三维模型结果图。
具体实施方式
下面结合附图及实施例对发明进行详细描述。
实施例
本实施例采用TUM RGB-D库提供的large cabinet,cabinet,teddy数据集进行实验。在Windows 10操作系统的PC机上进行实验,硬件配置是2.6GHzCoreTM i5-3230MCPU、8GB RAM;实验平台是VS2010。
本发明包括以下具体步骤:
步骤1:对彩色图像进行区域分割
为对彩色图像进行区域分割,首先将彩色图像所有像素点存储在图G中,然后使用基于图的贪心聚类分割方法将彩色图像过分割成多个区域。具体地,将彩色图像每个像素初始化为图G的顶点,像素之间的颜色差异初始化为顶点之间的边权值。首先计算所有像素之间的颜色差异,计为图G的边权值h,按照公式(1)计算:
其中,hij是像素点pi与pj之间的边权值,(ri,gi,bi)与(rj,gj,bj)分别是两个像素点的红绿蓝三个颜色值。为了进一步进行区域分割,首先将图G中每一个顶点当作一个区域,然后根据公式(2)对每两个区域进行聚类分析,如果两个区域满足公式(2),那么将他们合并为一块新区域。
Dif(Ci,Cj)≤min(Int(Ci)+f/|Ci|,Int(Cj)+f/|Cj|) (2)
其中,Ci和Cj是待分割的两个区域,Dif(Ci,Cj)是连接两个区域Ci和Cj之间的最小的边权值,Int(Ci)和Int(Cj)分别为区域Ci和Cj包含的图所对应的最小生成树中最大的边权值。|Ci|和|Cj|分别是区域Ci和Cj中的像素点个数,f是分割的阈值参数,设为50。对所有像素点进行处理后,彩色图像被过分割成多个区域。
步骤2:对相似的过分割区域进行合并
为了对相似的过分割区域进行合并,首先计算所有区域的协方差矩阵,然后计算相邻区域的相似度,对相似度小于阈值的区域进行合并。具体地,首先根据公式(3)计算每个区域的协方差矩阵A(u(S)):
其中,c(S)是区域S的中心点的三维坐标,u(S)是区域S对应的三维点云。|u(S)|为u(S)的顶点数量。x是点云上u(S)任意一个点的三维坐标。对A(u(S))进行矩阵的特征分解,得到的三个特征值从大到小分别为w1(S)、w2(S)、wn(S),对应的三个特征向量分别为T1(S)、T2(S)、N(S)。
然后,对图像中所有相邻的区域进行相似度计算。具体地,对于图像中任意两个相邻区域Si,Sj,按照公式(4)计算它们之间的相似度csmooth。
其中||·||表示数量积计算,N(Si)与N(Sj)是两个区域计算得到的最小的特征向量。如果两个区域的相似度csmooth小于阈值常数cthod,相邻区域Si、Sj将合并成为新区域。其中cthod设为0.02m。对相邻时刻所有区域都进行相似度计算和合并后,得到相邻时刻两组合并后的区域集合。
步骤3:匹配相邻时刻的两组区域,对所有匹配的区域所对应的点云进行三维配准
为了进行区域点云之间的三维配准,首先要进行相邻时刻的两组区域之间的区域配对,然后进一步对配对后的区域点云进行三维配准。具体地,从时刻tk的区域集合中取一块区域Sm,再从下一时刻tk+1的区域集合中取一块区域Sn,组成区域对(Sm,Sn)。然后按照公式(5),计算Sm与Sn之间的空间位置关系rmn。
其中,dmn为两个点云区域之间所有最临近点对的平均欧氏距离,按照公式(6)计算。
其中,(xm,ym,zm)是u(Sm)上的任意点的三维坐标,(xn,yn,zn)是在u(Sn)上距离(xm,ym,zm)欧式距离最小的点的三维坐标。
wmn表示两个点云的重叠率,按照公式(7)进行计算。
其中,Nw是两个点云中欧式距离最小的点对距离小于dthod的点对数,其中dthod设为0.01m。
然后,对相邻两个时刻所有区域的点云进行权值初始化,具体地,区域Sm和Sn的权值e(Sm),e(Sn)分别初始化为Sm和Sn对应点云u(Sm)和u(Sn)的顶点个数占该时刻所有点云的顶点个数合的比例。如果rmn小于阈值rthod,那么将该组点云区域对(Sm,Sn)加入预处理集合M中,并分别按照公式(8)更新权值e(Sm),e(Sn),其中rthod设为0.02。
对所有区域对的点云进行权值计算,迭代更新所有点云的权值,最终得到包含所有区域对的预处理集合M。
进一步对预处理的区域对进行对应点云的几何三维配准。首先从M中取出一对区域,对这两块区域对应的三维点云分别进行几何特征提取。具体地,对点云u(Sm)和u(Sn)中的每个点分别计算FPFH特征。其特征在于,对点云每个点周围距离小于R的点进行特征统计形成点特征直方图,其中特征统计包括对距离、角度的统计,R取值为0.5m。然后利用采样一致性初始配准算法计算物体的四阶变换矩阵,具体地,先在u(Sm)中寻找采样点,然后在另一个点云u(Sn)中查找与采样点FPFH特征相似的所有点,计算每个点对的四阶变换矩阵,选择其中误差最小的刚体变换矩阵Tkp作为最终变换矩阵。k表示第k时刻,p表示在预处理集合M中的第p对匹配区域。其中,采样一致性初始配准算法中的采样点之间的距离不应小于阈值dmin,设为0.1m。
步骤4:融合通过三维配准得到的所有区域的变换矩阵
对于同一个时刻k,将该时刻所有区域的变换矩阵Tkp融合成该时刻的完整变换矩阵Tk,假设时刻k总共有pk组区域对,按照公式(9)计算融合后的变换矩阵Tk。
其中X为权值矩阵,设为(0.70.3),Tkp是时刻k时的第p对区域点云配准得到的变换矩阵,wkp是时刻k时的第p对区域点云的重叠率,按照公式(7)进行计算,dkp是时刻k时的第p对区域点云的平均欧式距离,按照公式(8)进行计算。
步骤5:将不同时刻的深度点云进行点云融合与三维表面重建
为了将不同时刻的深度点云进行点云融合与三维表面重建,首先使用截断符号距离函数(TSDF)进行点云的融合。具体地,将空间划分成1283个栅格立方体,将点云分布在栅格立方体中,然后计算每帧融合后每个栅格立方体的TSDF值。
为了计算每个栅格立方体中的截断符号距离函数,首先要计算每个栅格立方体中的符号距离函数sdfkg(x),k表示第k时刻,g表示第g个栅格立方体,sdfkg(x)代表着点云上任意一点x的符号距离函数,按照公式(10)进行计算:
sdfkg(x)=dis(vg,tk)-Dk (10)
其中,tk是相机光心在三维坐标系下的坐标,相机光心坐标设为(320,240),vg是栅格g在三维坐标系下的坐标,dis(vg,tk)表示栅格到光心的距离,Dk是图像中x对应的像素点所对应的深度值,由Kinect设备相机采集得到。如果sdfkg(x)大于0,tsdfkg(x)按照公式(11)计算,否则按照公式(12)计算:
tsdfkg(x)=min(1,sdfkg(x)/mtruncation) (11)
tsdfkg(x)=min(-1,sdfkg(x)/mtruncation) (12)
其中mtruncation为常量,取值为10。然后计算权重wtkg(x),初始值为1。Wkg(x)为迭代后的权重,计算公式如(13)所示。
Wkg(x)=Wk-1,g(x)+wtkg(x) (13)
最后记录迭代后的加权TSDF值,标记为TSDFkg(x),按照公式(14)计算。
将Wkg(x)和TSDFkg(x)存储在对应的栅格g中,进行下个栅格g+1的计算。当对所有时刻的栅格都计算了截断符号距离函数后,所有点云已被存储在栅格立方体中。然后使用移动立方体算法抽取等值面,绘制三维表面,得到立体模型。
本发明利用彩色图像与深度图像,能得到具有一定真实度与准确度的三维模型,能够解决困难环境下的配准偏移问题。实例进一步证明了本发明的实验效果,适用于如TUMRGB-D库提供的数据集提供的深度与彩色图像等。
图1是本发明实施例经过区域分割后的过程结果图。从图中的区域分割结果可以明显看出,利用本发明对彩色图像进行区域分割结果的合理性与有效性。
图2是本发明实施例重建的三维模型结果图,从图中的结果可以看出,利用本发明对物体的三维重建结果的真实度与准确度。
Claims (1)
1.一种基于区域配准的深度点云三维重建方法,其特征在于,该方法包括以下具体步骤:步骤1:对彩色图像进行区域分割
将彩色图像每个像素初始化为图G的顶点,像素之间的颜色差异初始化为顶点之间的边权值;计算所有像素之间的颜色差异,计为图G的边权值h,按照公式(1)计算:
其中,hij是像素点pi与pj之间的边权值,(ri,gi,bi)与(rj,gj,bj)分别是两个像素点的红绿蓝三个颜色值;为了进一步进行区域分割,先将图G中每一个顶点当作一个区域,然后根据公式(2)对每两个区域进行聚类分析,如果两个区域满足公式(2),那么将他们合并为一块新区域;
Dif(Ci,Cj)≤min(Int(Ci)+f/|Ci|,Int(Cj)+f/|Cj|) (2)
其中,Ci和Cj是待分割的两个区域,Dif(Ci,Cj)是连接两个区域Ci和Cj之间的最小的边权值,Int(Ci)和Int(Cj)分别为区域Ci和Cj包含的图所对应的最小生成树中最大的边权值;|Ci|和|Cj|分别是区域Ci和Cj中的像素点个数,f是分割的阈值参数,设为50;对所有像素点进行处理后,彩色图像被过分割成多个区域;
步骤2:对相似的过分割区域进行合并
首先,根据公式(3)计算每个区域的协方差矩阵A(u(S)):
其中,c(S)是区域S的中心点的三维坐标,u(S)是区域S对应的三维点云;|u(S)|为u(S)的顶点数量;x是点云上u(S)任意一个点的三维坐标;对A(u(S))进行矩阵的特征分解,得到的三个特征值从大到小分别为w1(S)、w2(S)、wn(S),对应的三个特征向量分别为T1(S)、T2(S)、N(S);
然后,对于图像中任意两个相邻区域Si,Sj,按照公式(4)计算它们之间的相似度csmooth:
其中||·||表示数量积计算,N(Si)与N(Sj)是两个区域计算得到的最小的特征向量;如果两个区域的相似度csmooth小于阈值常数cthod,相邻区域Si、Sj将合并成为新区域;其中cthod设为0.02m;对相邻时刻所有区域都进行相似度计算和合并后,得到相邻时刻两组合并后的区域集合;
步骤3:匹配相邻时刻的两组区域,对所有匹配的区域所对应的点云进行三维配准
从时刻tk的区域集合中取一块区域Sm,再从下一时刻tk+1的区域集合中取一块区域Sn,组成区域对(Sm,Sn);然后按照公式(5),计算Sm与Sn之间的空间位置关系rmn;
其中,dmn为两个点云区域之间所有最临近点对的平均欧氏距离,按照公式(6)计算;
其中,(xm,ym,zm)是u(Sm)上的任意点的三维坐标,(xn,yn,zn)是在u(Sn)上距离(xm,ym,zm)欧式距离最小的点的三维坐标;
wmn表示两个点云的重叠率,按照公式(7)进行计算;
其中,Nw是两个点云中欧式距离最小的点对距离小于dthod的点对数,其中dthod设为0.01m;
然后,对相邻两个时刻所有区域的点云进行权值初始化,具体地,区域Sm和Sn的权值e(Sm),e(Sn)分别初始化为Sm和Sn对应点云u(Sm)和u(Sn)的顶点个数占该时刻所有点云的顶点个数合的比例;如果rmn小于阈值rthod,那么将该组点云区域对(Sm,Sn)加入预处理集合M中,并分别按照公式(8)更新权值e(Sm),e(Sn),其中rthod设为0.02;
对所有区域对的点云进行权值计算,迭代更新所有点云的权值,最终得到包含所有区域对的预处理集合M;
进一步对预处理的区域对进行对应点云的几何三维配准;首先从M中取出一对区域,对这两块区域对应的三维点云分别进行几何特征提取;具体地,对点云u(Sm)和u(Sn)中的每个点分别计算FPFH特;对点云每个点周围距离小于R的点进行特征统计形成点特征直方图,其中特征统计包括对距离、角度的统计,R取值为0.5m;然后利用采样一致性初始配准算法计算物体的四阶变换矩阵,具体地,先在u(Sm)中寻找采样点,然后在另一个点云u(Sn)中查找与采样点FPFH特征相似的所有点,计算每个点对的四阶变换矩阵,选择其中误差最小的刚体变换矩阵Tkp作为最终变换矩阵;k表示第k时刻,p表示在预处理集合M中的第p对匹配区域;其中,采样一致性初始配准算法中的采样点之间的距离不应小于阈值dmin,设为0.1m;
步骤4:融合通过三维配准得到的所有区域的变换矩阵
对于同一个时刻k,将该时刻所有区域的变换矩阵Tkp融合成该时刻的完整变换矩阵Tk,假设时刻k总共有pk组区域对,按照公式(9)计算融合后的变换矩阵Tk;
其中X为权值矩阵,设为(0.70.3),Tkp是时刻k时的第p对区域点云配准得到的变换矩阵,wkp是时刻k时的第p对区域点云的重叠率,按照公式(7)进行计算,dkp是时刻k时的第p对区域点云的平均欧式距离,按照公式(8)进行计算;
步骤5:将不同时刻的深度点云进行点云融合与三维表面重建
将空间划分成1283个栅格立方体,将点云分布在栅格立方体中,然后计算每帧融合后每个栅格立方体的TSDF值;
为了计算每个栅格立方体中的截断符号距离函数,首先要计算每个栅格立方体中的符号距离函数sdfkg(x),k表示第k时刻,g表示第g个栅格立方体,sdfkg(x)代表着点云上任意一点x的符号距离函数,按照公式(10)进行计算:
sdfkg(x)=dis(vg,tk)-Dk (10)
其中,tk是相机光心在三维坐标系下的坐标,相机光心坐标设为(320,240),vg是栅格g在三维坐标系下的坐标,dis(vg,tk)表示栅格到光心的距离,Dk是图像中x对应的像素点所对应的深度值,由Kinect设备相机采集得到;如果sdfkg(x)大于0,tsdfkg(x)按照公式(11)计算,否则按照公式(12)计算:
tsdfkg(x)=min(1,sdfkg(x)/mtruncation) (11)
tsdfkg(x)=min(-1,sdfkg(x)/mtruncation) (12)
其中mtruncation为常量,取值为10;然后计算权重wtkg(x),初始值为1;Wkg(x)为迭代后的权重,计算公式如(13)所示;
Wkg(x)=Wk-1,g(x)+wtkg(x) (13)
最后记录迭代后的加权TSDF值,标记为TSDFkg(x),按照公式(14)计算;
将Wkg(x)和TSDFkg(x)存储在对应的栅格g中,进行下个栅格g+1的计算;当对所有时刻的栅格都计算了截断符号距离函数后,所有点云已被存储在栅格立方体中;然后使用移动立方体算法抽取等值面,绘制三维表面,得到立体模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611233141.3A CN106651926A (zh) | 2016-12-28 | 2016-12-28 | 一种基于区域配准的深度点云三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611233141.3A CN106651926A (zh) | 2016-12-28 | 2016-12-28 | 一种基于区域配准的深度点云三维重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106651926A true CN106651926A (zh) | 2017-05-10 |
Family
ID=58832583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611233141.3A Pending CN106651926A (zh) | 2016-12-28 | 2016-12-28 | 一种基于区域配准的深度点云三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106651926A (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358645A (zh) * | 2017-06-08 | 2017-11-17 | 上海交通大学 | 产品三维模型重建方法及其系统 |
CN107424166A (zh) * | 2017-07-18 | 2017-12-01 | 深圳市速腾聚创科技有限公司 | 点云分割方法及装置 |
CN108171791A (zh) * | 2017-12-27 | 2018-06-15 | 清华大学 | 基于多深度摄像机的动态场景实时三维重建方法及装置 |
CN108335325A (zh) * | 2018-01-30 | 2018-07-27 | 上海数迹智能科技有限公司 | 一种基于深度相机数据的立方体快速测量方法 |
CN108549873A (zh) * | 2018-04-19 | 2018-09-18 | 北京华捷艾米科技有限公司 | 三维人脸识别方法和三维人脸识别系统 |
CN109033989A (zh) * | 2018-07-02 | 2018-12-18 | 深圳辰视智能科技有限公司 | 基于三维点云的目标识别方法、装置及存储介质 |
CN109146935A (zh) * | 2018-07-13 | 2019-01-04 | 中国科学院深圳先进技术研究院 | 一种点云配准方法、装置、电子设备及可读存储介质 |
CN109345542A (zh) * | 2018-09-18 | 2019-02-15 | 重庆大学 | 一种穿戴式视觉注视目标定位装置及方法 |
CN109431616A (zh) * | 2018-10-27 | 2019-03-08 | 中南大学湘雅医院 | 一种扩增骨质区域进行mr配准的方法及其工具设计方法 |
CN109767464A (zh) * | 2019-01-11 | 2019-05-17 | 西南交通大学 | 一种低重叠率的点云配准方法 |
CN110060282A (zh) * | 2019-03-27 | 2019-07-26 | 东软睿驰汽车技术(沈阳)有限公司 | 一种点云配准的方法及装置 |
WO2019144281A1 (zh) * | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 表面图形确定方法和装置 |
CN110095062A (zh) * | 2019-04-17 | 2019-08-06 | 北京华捷艾米科技有限公司 | 一种物体体积参数测量方法、装置及设备 |
CN110232707A (zh) * | 2018-03-05 | 2019-09-13 | 华为技术有限公司 | 一种测距方法及装置 |
TWI676153B (zh) * | 2018-07-25 | 2019-11-01 | 國立中央大學 | 利用2d影像資訊修補不完整3d深度影像之方法 |
CN111009002A (zh) * | 2019-10-16 | 2020-04-14 | 贝壳技术有限公司 | 点云配准检测方法、装置以及电子设备、存储介质 |
CN111325779A (zh) * | 2020-02-07 | 2020-06-23 | 贝壳技术有限公司 | 点云配准方法和装置、电子设备和存储介质 |
CN111402308A (zh) * | 2020-03-17 | 2020-07-10 | 北京百度网讯科技有限公司 | 障碍物速度的确定方法、装置、设备和介质 |
CN111797268A (zh) * | 2020-07-17 | 2020-10-20 | 中国海洋大学 | Rgb-d图像检索方法 |
CN112150523A (zh) * | 2020-09-24 | 2020-12-29 | 中北大学 | 一种低重叠率的三维点云配准方法 |
CN113412505A (zh) * | 2019-03-22 | 2021-09-17 | 华为技术有限公司 | 用于对通过探测和测距传感器获得的点云进行有序表示和特征提取的系统和方法 |
CN115082529A (zh) * | 2022-06-30 | 2022-09-20 | 华东师范大学 | 一种大体组织多维信息采集和分析系统与方法 |
CN115641365A (zh) * | 2022-08-25 | 2023-01-24 | 北京微视威信息科技有限公司 | 点云配准方法、系统、设备及介质 |
CN116958266A (zh) * | 2023-09-19 | 2023-10-27 | 苏州元脑智能科技有限公司 | 闭环检测方法、装置、通信设备及存储介质 |
CN117452392A (zh) * | 2023-12-26 | 2024-01-26 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种用于车载辅助驾驶系统的雷达数据处理系统和方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2497517B (en) * | 2011-12-06 | 2016-05-25 | Toshiba Res Europe Ltd | A reconstruction system and method |
CN105701820A (zh) * | 2016-01-14 | 2016-06-22 | 上海大学 | 一种基于匹配区域的点云配准方法 |
CN105989604A (zh) * | 2016-02-18 | 2016-10-05 | 合肥工业大学 | 一种基于kinect的目标物体三维彩色点云生成方法 |
CN106097334A (zh) * | 2016-06-08 | 2016-11-09 | 北京航空航天大学 | 基于深度学习的点云配准方法 |
-
2016
- 2016-12-28 CN CN201611233141.3A patent/CN106651926A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2497517B (en) * | 2011-12-06 | 2016-05-25 | Toshiba Res Europe Ltd | A reconstruction system and method |
CN105701820A (zh) * | 2016-01-14 | 2016-06-22 | 上海大学 | 一种基于匹配区域的点云配准方法 |
CN105989604A (zh) * | 2016-02-18 | 2016-10-05 | 合肥工业大学 | 一种基于kinect的目标物体三维彩色点云生成方法 |
CN106097334A (zh) * | 2016-06-08 | 2016-11-09 | 北京航空航天大学 | 基于深度学习的点云配准方法 |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358645A (zh) * | 2017-06-08 | 2017-11-17 | 上海交通大学 | 产品三维模型重建方法及其系统 |
CN107358645B (zh) * | 2017-06-08 | 2020-08-11 | 上海交通大学 | 产品三维模型重建方法及其系统 |
CN107424166A (zh) * | 2017-07-18 | 2017-12-01 | 深圳市速腾聚创科技有限公司 | 点云分割方法及装置 |
CN108171791A (zh) * | 2017-12-27 | 2018-06-15 | 清华大学 | 基于多深度摄像机的动态场景实时三维重建方法及装置 |
CN108171791B (zh) * | 2017-12-27 | 2020-11-17 | 清华大学 | 基于多深度摄像机的动态场景实时三维重建方法及装置 |
WO2019144281A1 (zh) * | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 表面图形确定方法和装置 |
CN108335325A (zh) * | 2018-01-30 | 2018-07-27 | 上海数迹智能科技有限公司 | 一种基于深度相机数据的立方体快速测量方法 |
CN110232707B (zh) * | 2018-03-05 | 2021-08-31 | 华为技术有限公司 | 一种测距方法及装置 |
CN110232707A (zh) * | 2018-03-05 | 2019-09-13 | 华为技术有限公司 | 一种测距方法及装置 |
CN108549873A (zh) * | 2018-04-19 | 2018-09-18 | 北京华捷艾米科技有限公司 | 三维人脸识别方法和三维人脸识别系统 |
CN109033989A (zh) * | 2018-07-02 | 2018-12-18 | 深圳辰视智能科技有限公司 | 基于三维点云的目标识别方法、装置及存储介质 |
CN109146935A (zh) * | 2018-07-13 | 2019-01-04 | 中国科学院深圳先进技术研究院 | 一种点云配准方法、装置、电子设备及可读存储介质 |
TWI676153B (zh) * | 2018-07-25 | 2019-11-01 | 國立中央大學 | 利用2d影像資訊修補不完整3d深度影像之方法 |
CN109345542A (zh) * | 2018-09-18 | 2019-02-15 | 重庆大学 | 一种穿戴式视觉注视目标定位装置及方法 |
CN109431616A (zh) * | 2018-10-27 | 2019-03-08 | 中南大学湘雅医院 | 一种扩增骨质区域进行mr配准的方法及其工具设计方法 |
CN109767464A (zh) * | 2019-01-11 | 2019-05-17 | 西南交通大学 | 一种低重叠率的点云配准方法 |
US11556745B2 (en) | 2019-03-22 | 2023-01-17 | Huawei Technologies Co., Ltd. | System and method for ordered representation and feature extraction for point clouds obtained by detection and ranging sensor |
CN113412505A (zh) * | 2019-03-22 | 2021-09-17 | 华为技术有限公司 | 用于对通过探测和测距传感器获得的点云进行有序表示和特征提取的系统和方法 |
CN113412505B (zh) * | 2019-03-22 | 2022-09-09 | 华为技术有限公司 | 用于对通过探测和测距传感器获得的点云进行有序表示和特征提取的处理单元和方法 |
CN110060282A (zh) * | 2019-03-27 | 2019-07-26 | 东软睿驰汽车技术(沈阳)有限公司 | 一种点云配准的方法及装置 |
CN110095062A (zh) * | 2019-04-17 | 2019-08-06 | 北京华捷艾米科技有限公司 | 一种物体体积参数测量方法、装置及设备 |
CN110095062B (zh) * | 2019-04-17 | 2021-01-05 | 北京华捷艾米科技有限公司 | 一种物体体积参数测量方法、装置及设备 |
CN111009002A (zh) * | 2019-10-16 | 2020-04-14 | 贝壳技术有限公司 | 点云配准检测方法、装置以及电子设备、存储介质 |
CN111325779A (zh) * | 2020-02-07 | 2020-06-23 | 贝壳技术有限公司 | 点云配准方法和装置、电子设备和存储介质 |
CN111402308A (zh) * | 2020-03-17 | 2020-07-10 | 北京百度网讯科技有限公司 | 障碍物速度的确定方法、装置、设备和介质 |
CN111402308B (zh) * | 2020-03-17 | 2023-08-04 | 阿波罗智能技术(北京)有限公司 | 障碍物速度的确定方法、装置、设备和介质 |
CN111797268A (zh) * | 2020-07-17 | 2020-10-20 | 中国海洋大学 | Rgb-d图像检索方法 |
CN111797268B (zh) * | 2020-07-17 | 2023-12-26 | 中国海洋大学 | Rgb-d图像检索方法 |
CN112150523A (zh) * | 2020-09-24 | 2020-12-29 | 中北大学 | 一种低重叠率的三维点云配准方法 |
CN112150523B (zh) * | 2020-09-24 | 2022-04-12 | 中北大学 | 一种低重叠率的三维点云配准方法 |
CN115082529B (zh) * | 2022-06-30 | 2023-04-14 | 华东师范大学 | 一种大体组织多维信息采集和分析系统与方法 |
CN115082529A (zh) * | 2022-06-30 | 2022-09-20 | 华东师范大学 | 一种大体组织多维信息采集和分析系统与方法 |
CN115641365A (zh) * | 2022-08-25 | 2023-01-24 | 北京微视威信息科技有限公司 | 点云配准方法、系统、设备及介质 |
CN115641365B (zh) * | 2022-08-25 | 2023-08-04 | 北京微视威信息科技有限公司 | 点云配准方法、系统、设备及介质 |
CN116958266A (zh) * | 2023-09-19 | 2023-10-27 | 苏州元脑智能科技有限公司 | 闭环检测方法、装置、通信设备及存储介质 |
CN116958266B (zh) * | 2023-09-19 | 2024-02-20 | 苏州元脑智能科技有限公司 | 闭环检测方法、装置、通信设备及存储介质 |
CN117452392A (zh) * | 2023-12-26 | 2024-01-26 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种用于车载辅助驾驶系统的雷达数据处理系统和方法 |
CN117452392B (zh) * | 2023-12-26 | 2024-03-08 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种用于车载辅助驾驶系统的雷达数据处理系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106651926A (zh) | 一种基于区域配准的深度点云三维重建方法 | |
CN104063702B (zh) | 一种基于遮挡修复和局部相似性匹配的三维步态识别方法 | |
Livny et al. | Automatic reconstruction of tree skeletal structures from point clouds | |
CN102999942B (zh) | 三维人脸重建方法 | |
CN103035008B (zh) | 一种多相机系统的加权标定方法 | |
Sirmacek et al. | Performance evaluation for 3-D city model generation of six different DSMs from air-and spaceborne sensors | |
CN108154104B (zh) | 一种基于深度图像超像素联合特征的人体姿态估计方法 | |
CN109410321A (zh) | 基于卷积神经网络的三维重建方法 | |
CN108710830A (zh) | 一种结合密集连接注意力金字塔残差网络和等距限制的人体3d姿势估计方法 | |
CN105069746A (zh) | 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统 | |
CN108038420A (zh) | 一种基于深度视频的人体行为识别方法 | |
CN106599053B (zh) | 一种三维模型检索方法 | |
CN103227888B (zh) | 一种基于经验模式分解和多种评价准则的视频去抖动方法 | |
CN108280858B (zh) | 多视图重建中的一种线性全局相机运动参数估计方法 | |
CN104346824A (zh) | 基于单张人脸图像自动合成三维表情的方法及装置 | |
CN103839277A (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN104915978A (zh) | 基于体感相机Kinect的真实感动画生成方法 | |
CN103902989B (zh) | 基于非负矩阵分解的人体动作视频识别方法 | |
CN110060329A (zh) | 一种基于彩色深度视频流数据的移动端人体模型重建方法 | |
CN108573231A (zh) | 基于运动历史点云生成的深度运动图的人体行为识别方法 | |
CN104318552B (zh) | 基于凸包投影图匹配的模型配准方法 | |
CN105045496A (zh) | 一种基于关节点变换的手势交互方法 | |
CN105488541A (zh) | 增强现实系统中基于机器学习的自然特征点识别方法 | |
CN101794459A (zh) | 一种立体视觉影像与三维虚拟物体的无缝融合方法 | |
CN102663779A (zh) | 基于随机高斯隐变量的人体运动跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170510 |
|
WD01 | Invention patent application deemed withdrawn after publication |