CN108171791A - 基于多深度摄像机的动态场景实时三维重建方法及装置 - Google Patents

基于多深度摄像机的动态场景实时三维重建方法及装置 Download PDF

Info

Publication number
CN108171791A
CN108171791A CN201711443834.XA CN201711443834A CN108171791A CN 108171791 A CN108171791 A CN 108171791A CN 201711443834 A CN201711443834 A CN 201711443834A CN 108171791 A CN108171791 A CN 108171791A
Authority
CN
China
Prior art keywords
depth
image
frame
rigid
visual angles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711443834.XA
Other languages
English (en)
Other versions
CN108171791B (zh
Inventor
刘烨斌
董渊
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201711443834.XA priority Critical patent/CN108171791B/zh
Publication of CN108171791A publication Critical patent/CN108171791A/zh
Application granted granted Critical
Publication of CN108171791B publication Critical patent/CN108171791B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering

Abstract

本发明公开了一种基于多深度摄像机的动态场景实时三维重建方法及装置,其中,方法包括:对彩色图像进行背景分割,提取并匹配图像SIFT特征点,并且对深度图像做双边滤波预处理;通过多视角非刚性对齐逐帧拼接深度图像,以得到矫正后的深度图像;通过非刚性变形将参考帧中的静态模型与矫正后的深度图像观测对齐;在当前帧融合几何模型,以重建拓扑变化以及处理跟踪丢失的情况。该方法可以有效保证实时性,且提高鲁棒性,提高运行速度,简单易实现。

Description

基于多深度摄像机的动态场景实时三维重建方法及装置
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种基于多深度摄像机的动态场景实时三维重建方法及装置。
背景技术
最近几年,由于虚拟和增强现实设备的普及,市场对三维建模以及自由视点渲染的需求日趋增大。无论是沉浸式体验,还是远程教学与指导,都需要系统能够真实的重建动态场景。这些应用对动态重建算法提出了两个需求:首先,重建算法应该足够鲁棒,能够重建日常生活中的运动,并且得到用户能够接受的质量;更重要的是,重建算法能够给用户实时反馈。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于多深度摄像机的动态场景实时三维重建方法,该方法可以有效保证实时性,提高鲁棒性,提高运行速度,简单易实现。
本发明的另一个目的在于提出一种基于多深度摄像机的动态场景实时三维重建装置。
为达到上述目的,本发明一方面实施例提出了一种基于多深度摄像机的动态场景实时三维重建方法,包括以下步骤:对彩色图像进行背景分割,提取并匹配图像SIFT特征点,并且对深度图像做双边滤波预处理;通过多视角非刚性对齐逐帧拼接所述深度图像,以得到矫正后的深度图像;通过非刚性变形将参考帧中的静态模型与所述矫正后的深度图像观测对齐;在当前帧融合几何模型,以重建拓扑变化以及处理跟踪丢失的情况。
本发明实施例的基于多深度摄像机的动态场景实时三维重建方法,可以首先对彩色图像进行背景分割,提取并匹配图像SIFT特征点,从而对深度图像做双边滤波等预处理,并采用多视角非刚性对齐的方法逐帧拼接深度图像,以得到矫正后的深度图像,进而利用非刚性变形的方法将参考帧中的静态模型与矫正后的深度观测对齐,融合当前帧观测到的几何模型,有效保证实时性,提高鲁棒性,提高运行速度,简单易实现。
另外,根据本发明上述实施例的基于多深度摄像机的动态场景实时三维重建方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述对彩色图像进行背景分割,提取并匹配图像SIFT特征点,并且对深度图像做双边滤波预处理,进一步包括:通过绿幕抠图分割前景人物并得到对应的轮廓图;对所述深度图像做双边滤波,并使用Scharr算子计算对应的法向图并反投影得到相机坐标系中的三维点云。
进一步地,在本发明的一个实施例中,所述通过多视角非刚性对齐逐帧拼接所述深度图像,进一步包括:将多视角深度图像离散化成一组均匀网格,并且标记落在前景深度图上的节点;用发生在节点处的刚性变形描述整体深度信息的非刚体变形,并且将一对(Ri,ti)与每个变形节点相关联;建立多视角对齐问题的能量函数,并且对所述能量函数进行求解,以得到多视角对齐的结果。
进一步地,在本发明的一个实施例中,所述能量函数包括第一能量函数和第二能量函数,其中,所述第一能量函数为:
其中,和T分别为每个视角的整体刚性变换和每个变形节点的局部刚性变形,εfit为空间约束,εarap为局部非刚性运动约束,εsift为SIFT图像特征约束;
所述第二能量函数为:
其中,εdata为描述模型与多视角深度信息的匹配程度,εsmooth为嵌入式变形图的局部刚性约束项,εreg为约束仿射变换的单位正交性质,εsil为模型受多视角轮廓图像的约束,εsift为模型受前后两帧的SIFT特征约束。
进一步地,在本发明的一个实施例中,所述通过非刚性变形将参考帧中的静态模型与所述矫正后的深度图像观测对齐,进一步包括:在参考帧中累积模型的截断符号距离函数,并且将所述当前帧与所述深度信息融合,以估计多视角的非刚性运动场。
为达到上述目的,本发明另一方面实施例提出了一种基于多深度摄像机的动态场景实时三维重建装置,包括:预处理模块,用于对彩色图像进行背景分割,提取并匹配图像SIFT特征点,并且对深度图像做双边滤波预处理;拼接模块,用于通过多视角非刚性对齐逐帧拼接所述深度图像,以得到矫正后的深度图像;对齐模块,用于通过非刚性变形将参考帧中的静态模型与所述矫正后的深度图像观测对齐;重建模块,用于在当前帧融合几何模型,以重建拓扑变化以及处理跟踪丢失的情况。
本发明实施例的基于多深度摄像机的动态场景实时三维重建装置,可以首先对彩色图像进行背景分割,提取并匹配图像SIFT特征点,从而对深度图像做双边滤波等预处理,并采用多视角非刚性对齐的方法逐帧拼接深度图像,以得到矫正后的深度图像,进而利用非刚性变形的方法将参考帧中的静态模型与矫正后的深度观测对齐,融合当前帧观测到的几何模型,有效保证实时性,提高鲁棒性,提高运行速度,简单易实现。
另外,根据本发明上述实施例的基于多深度摄像机的动态场景实时三维重建装置还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述预处理模块,进一步包括:第一获取单元,用于通过绿幕抠图分割前景人物并得到对应的轮廓图;第二获取单元,用于对所述深度图像做双边滤波,并使用Scharr算子计算对应的法向图并反投影得到相机坐标系中的三维点云。
进一步地,在本发明的一个实施例中,所述拼接模块,进一步包括:标记单元,用于将多视角深度图像离散化成一组均匀网格,并且标记落在前景深度图上的节点;关联单元,用于用发生在节点处的刚性变形描述整体深度信息的非刚体变形,并且将一对{(R_i,t_i)}与每个变形节点相关联;求解单元,建立多视角对齐问题的能量函数,并且对所述能量函数进行求解,以得到多视角对齐的结果。
进一步地,在本发明的一个实施例中,
所述能量函数包括第一能量函数和第二能量函数,其中,所述第一能量函数为:
其中,和T分别为每个视角的整体刚性变换和每个变形节点的局部刚性变形,εfit为空间约束,εarap为局部非刚性运动约束,εsift为SIFT图像特征约束;
所述第二能量函数为:
其中,εdata为描述模型与多视角深度信息的匹配程度,εsmooth为嵌入式变形图的局部刚性约束项,εreg为约束仿射变换的单位正交性质,εsil为模型受多视角轮廓图像的约束,εsift为模型受前后两帧的SIFT特征约束。
进一步地,在本发明的一个实施例中,所述对齐模块,进一步包括:在参考帧中累积模型的截断符号距离函数,并且将所述当前帧与所述深度信息融合,以估计多视角的非刚性运动场。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于多深度摄像机的动态场景实时三维重建方法的流程图;
图2为根据本发明一个实施例的基于多深度摄像机的动态场景实时三维重建方法的流程图;
图3为根据本发明实施例的基于多深度摄像机的动态场景实时三维重建装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于多深度摄像机的动态场景实时三维重建方法及装置,首先将参照附图描述根据本发明实施例提出的基于多深度摄像机的动态场景实时三维重建方法。
图1是本发明一个实施例的基于多深度摄像机的动态场景实时三维重建方法的流程图。
如图1所示,该基于多深度摄像机的动态场景实时三维重建方法包括以下步骤:
在步骤S101中,对彩色图像进行背景分割,提取并匹配图像SIFT特征点,并且对深度图像做双边滤波预处理。
进一步地,在本发明的一个实施例中,对彩色图像进行背景分割,提取并匹配图像SIFT特征点,并且对深度图像做双边滤波预处理,进一步包括:通过绿幕抠图分割前景人物并得到对应的轮廓图;对深度图像做双边滤波,并使用Scharr算子计算对应的法向图并反投影得到相机坐标系中的三维点云。
可以理解的是,结合图1和图2所示,本发明实施例可以对彩色图像进行背景分割,提取并匹配图像SIFT特征点,并且对深度图像做双边滤波等预处理。
具体地,本发明实施例首先用绿幕抠图技术分割前景人物,并且得到对应的轮廓图。同时,对深度图做双边滤波,并使用Scharr算子计算对应的法向图并且反投影得到相机坐标系中的三维点云;由于本发明实施例的非刚性对齐部分使用了SIFT图像特征点,因此,还需要在预处理部分计算并且匹配SIFT特征。
在步骤S102中,通过多视角非刚性对齐逐帧拼接深度图像,以得到矫正后的深度图像。
进一步地,在本发明的一个实施例中,通过多视角非刚性对齐逐帧拼接深度图像,进一步包括:将多视角深度图像离散化成一组均匀网格,并且标记落在前景深度图上的节点;用发生在节点处的刚性变形描述整体深度信息的非刚体变形,并且将一对{(R_i,t_i)}与每个变形节点相关联;建立多视角对齐问题的能量函数,并且对能量函数进行求解,以得到多视角对齐的结果。
其中,在本发明的一个实施例中,能量函数包括第一能量函数和第二能量函数,其中,第一能量函数为:
其中,和T分别为每个视角的整体刚性变换和每个变形节点的局部刚性变形,εfit为空间约束,εarap为局部非刚性运动约束,εsift为SIFT图像特征约束;
第二能量函数为:
其中,εdata为描述模型与多视角深度信息的匹配程度,εsmooth为嵌入式变形图的局部刚性约束项,εreg为约束仿射变换的单位正交性质,εsil为模型受多视角轮廓图像的约束,εsift为模型受前后两帧的SIFT特征约束。
可以理解的是,本发明实施例可以采用多视角非刚性对齐的方法逐帧拼接这些深度图像,以得到矫正后的深度图像,在本发明的一个具体实施例中,非刚性拼接多视角深度图包括以下步骤:
1)将多视角深度图离散化成一组均匀网格,并且标记落在前景深度图上的节点。
2)用发生在节点处的刚性变形描述整体深度信息的非刚体变形,并且将一对{(R_i,t_i)}与每个变形节点相关联。
具体地,对于深度图上的某个顶点v,它对应的非刚性变形由最近的4个节点的双四元数插值得到,公式为
其中,SE3(·)代表将双四元数归一化并且映射到SE(3)群中,它对应一个单位正交旋转矩阵;ω_j代表第j个节点对三维点v的权重,定义为顶点到节点欧式距离平方的Huber函数。
3)建立多视角对齐问题的能量函数:
其中,和T分别代表每个视角的整体刚性变换以及每个变形节点的局部刚性变形。
εfit代表空间约束,它由对应点之间的点到点以及点到平面的距离构成。
其中,Ti是第i个视角对应的刚性变换,是顶点i的局部刚性变形,在2)中计算得到。
εarap代表局部非刚性运动约束,约束在每个相机视角下,相邻节点的变形效果一致。
其中,ρ(.)是Huber核函数。
εsift代表SIFT图像特征约束,
其中,pi代表第i个特征点在全局参考系中的三维坐标,ψ(.)是Tukey核函数,用来减弱SIFT错误匹配对优化的影响。
4)对能量函数进行求解,以得到多视角对齐的结果。
本发明实施例采用非刚性迭代最近点方法,利用非线性最小二乘的高斯牛顿法求解。由于多视角的未知量过多,为了保证实时性,本发明实施例提出一种新的交替迭代的优化方法:对于每一次ICP(Iterative Closest Point,迭代最近点算法)迭代,首先固定除第i个视角外的其他视角的未知量,独立求解每个视角的未知量;在更新所有未知量后,再重新搜索最近有效点;交替求解这两步,可以使得优化收敛。
在步骤S103中,通过非刚性变形将参考帧中的静态模型与矫正后的深度图像观测对齐。
进一步地,在本发明的一个实施例中,通过非刚性变形将参考帧中的静态模型与矫正后的深度图像观测对齐,进一步包括:在参考帧中累积模型的截断符号距离函数,并且将当前帧与深度信息融合,以估计多视角的非刚性运动场。
可以理解的是,本发明实施例可以利用非刚性变形的方法将参考帧中的静态模型与矫正后的深度观测对齐。
具体地,这指的是在参考帧中累积模型的TSDF(Truncatiosign distancefunction,截断符号距离函数),并且在当前帧与深度信息融合,以估计多视角的非刚性运动场。上文的非刚性运动场,指的是定义在表面均匀采样的一组节点的局部刚性变换矩阵(Ai,ti)。该非刚性运动将顶点Vi变形到顶点顶点的法向ni变形到其中:
其中,R和t是模型的整体刚性旋转和平移变换,Xj是节点j的三维坐标,ω(Xj,Vi)是节点到顶点的归一化权重,并且定义为
其中,σj是节点Xj的采样半径。
在本发明的一个示例中,估计多视角的非刚性运动场包括:
1)从参考帧中使用marching cube算法提取三角网格模型。
2)建立多视角非刚性运动场拟合问题的能量函数:
其中,εdata描述模型与多视角深度信息的匹配程度。
其中,Ki代表第i个相机的外参变换矩阵,Vj代表视角i下可见点集合Qi中的一个顶点,代表依照非刚性运动场定义计算的变形顶点,u代表第i个视角深度图上的一个顶点。
εsmooth代表嵌入式变形图的局部刚性约束项。
εreg约束仿射变换的单位正交性质。
公式中的各项分别约束A的列正交性,单位列向量性和行列式正值性质。
εsil代表模型受多视角轮廓图像的约束。
其中,Bi(.)代表在第i个视角下的距离采样函数,它具体定义为
其中,di(p)代表像素p到最近前景轮廓的等效距离,并且在流水线采集前端用高斯模糊核函数计算。代表第i个视角的彩色相机投影矩阵。轮廓约束产生将模型向轮廓内移动的驱动力,并且提高了系统跟踪快速运动的能力。
εsift代表模型受前后两帧的SIFT特征约束。
其中,P是反投影函数,它将当前帧的二维图像坐标投影到参考帧的三维坐标。利用图像SIFT(Scale-invariant feature transform,尺度不变特征变换)特征点约束,本发明实施例可以利用图像中的纹理信息提高跟踪快速运动的质量。对于缺少几何特征信息的观测,比如,跟踪平面运动,使用最近点搜索的方法是无法得到准确的对应点。但利用基于问题的特征点匹配方法,只要物体存在纹理变化,就可以建立对应点关系。
3)求解2)中的能量函数。
为了充分利用GPU并行的优势,本发明实施例使用预处理共轭梯度方法(PCG)求解该能量方程。由于矩阵是对称稀疏分块的,可以直接构造J^T J和J^T f,并使用5个CUDA流并行归约不同的能量项,然后同步所有CUDA流。
在步骤S104中,在当前帧融合几何模型,以重建拓扑变化以及处理跟踪丢失的情况。
可以理解的是,本发明实施例在当前帧融合几何模型,以重建拓扑变化以及处理跟踪丢失的情况。
具体地,系统将参考帧中的TSDF有选择性的投影到当前帧中。选择依据同时考虑两点:
1)对于发生体素碰撞的情况,只投影截断符号距离函数绝对值最小的体素;
2)对于某个节点,如果它的误差较大,算法停止投影所有它作用的体素。
由于TSDF的投影方法是依照其梯度进行,所以在迭代的投影过程中,由于浮点数的数值误差,会引起越来越大的累积误差直到表面重建失败。本发明提出了一种通过TSDF的Laplacian算子约束投影过程的方法。TSDF的Laplacian刻画表面曲率,表面曲率越大,所以用局部法向为依据投影TSDF越不可信;表面曲率越小,投影越可信。因此,本发明实施例将参考帧投影到当前帧的TSDF表述为:
其中,下标r代表参考帧,d代表当前帧。
对于纯平面的情况,如果投影误差使表面法向计算不准,表面的曲率会变大,从而上式会削弱法向误差对投影的影响,产生负反馈的效果。因此,本发明实施例的方法可以得到正确的结果。
在将参考帧的TSDF选择性的投影到当前帧后,本发明实施例将参考帧投影的TSDF融合到当前帧中,并将这一帧的深度信息非刚性的融合到参考帧中。
根据本发明实施例提出的基于多深度摄像机的动态场景实时三维重建方法,可以首先对彩色图像进行背景分割,提取并匹配图像SIFT特征点,从而对深度图像做双边滤波等预处理,并采用多视角非刚性对齐的方法逐帧拼接深度图像,以得到矫正后的深度图像,进而利用非刚性变形的方法将参考帧中的静态模型与矫正后的深度观测对齐,融合当前帧观测到的几何模型,有效保证实时性,提高鲁棒性,提高运行速度,简单易实现。
其次参照附图描述根据本发明实施例提出的基于多深度摄像机的动态场景实时三维重建装置。
图3是本发明一个实施例的基于多深度摄像机的动态场景实时三维重建装置的结构示意图。
如图3所示,该基于多深度摄像机的动态场景实时三维重建装置10包括:预处理模块100、拼接模块200、对齐模块300和重建模块400。
其中,预处理模块100用于对彩色图像进行背景分割,提取并匹配图像SIFT特征点,并且对深度图像做双边滤波预处理。拼接模块200用于通过多视角非刚性对齐逐帧拼接深度图像,以得到矫正后的深度图像。对齐模块300用于通过非刚性变形将参考帧中的静态模型与矫正后的深度图像观测对齐。重建模块400用于在当前帧融合几何模型,以重建拓扑变化以及处理跟踪丢失的情况。本发明实施例的装置10可以有效保证实时性,提高鲁棒性,提高运行速度,简单易实现。
进一步地,在本发明的一个实施例中,预处理模块,进一步包括:第一获取单元,用于通过绿幕抠图分割前景人物并得到对应的轮廓图;第二获取单元,用于对深度图像做双边滤波,并使用Scharr算子计算对应的法向图并反投影得到相机坐标系中的三维点云。
进一步地,在本发明的一个实施例中,拼接模块,进一步包括:标记单元,用于将多视角深度图像离散化成一组均匀网格,并且标记落在前景深度图上的节点;关联单元,用于用发生在节点处的刚性变形描述整体深度信息的非刚体变形,并且将一对{(R_i,t_i)}与每个变形节点相关联;求解单元,建立多视角对齐问题的能量函数,并且对能量函数进行求解,以得到多视角对齐的结果。
进一步地,在本发明的一个实施例中,能量函数包括第一能量函数和第二能量函数,其中,第一能量函数为:
其中,和T分别为每个视角的整体刚性变换和每个变形节点的局部刚性变形,εfit为空间约束,εarap为局部非刚性运动约束,εsift为SIFT图像特征约束;
第二能量函数为:
其中,εdata为描述模型与多视角深度信息的匹配程度,εsmooth为嵌入式变形图的局部刚性约束项,εreg为约束仿射变换的单位正交性质,εsil为模型受多视角轮廓图像的约束,εsift为模型受前后两帧的SIFT特征约束。
进一步地,在本发明的一个实施例中,对齐模块,进一步包括:在参考帧中累积模型的截断符号距离函数,并且将当前帧与深度信息融合,以估计多视角的非刚性运动场。
需要说明的是,前述对基于多深度摄像机的动态场景实时三维重建方法实施例的解释说明也适用于该实施例的基于多深度摄像机的动态场景实时三维重建装置,此处不再赘述。
根据本发明实施例提出的基于多深度摄像机的动态场景实时三维重建装置,可以首先对彩色图像进行背景分割,提取并匹配图像SIFT特征点,从而对深度图像做双边滤波等预处理,并采用多视角非刚性对齐的方法逐帧拼接深度图像,以得到矫正后的深度图像,进而利用非刚性变形的方法将参考帧中的静态模型与矫正后的深度观测对齐,融合当前帧观测到的几何模型,有效保证实时性,提高鲁棒性,提高运行速度,简单易实现。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于多深度摄像机的动态场景实时三维重建方法,其特征在于,包括以下步骤:
对彩色图像进行背景分割,提取并匹配图像SIFT特征点,并且对深度图像做双边滤波预处理;
通过多视角非刚性对齐逐帧拼接所述深度图像,以得到矫正后的深度图像;
通过非刚性变形将参考帧中的静态模型与所述矫正后的深度图像观测对齐;以及
在当前帧融合几何模型,以重建拓扑变化以及处理跟踪丢失的情况。
2.根据权利要求1所述的基于多深度摄像机的动态场景实时三维重建方法,其特征在于,所述对彩色图像进行背景分割,提取并匹配图像SIFT特征点,并且对深度图像做双边滤波预处理,进一步包括:
通过绿幕抠图分割前景人物并得到对应的轮廓图;
对所述深度图像做双边滤波,并使用Scharr算子计算对应的法向图并反投影得到相机坐标系中的三维点云。
3.根据权利要求1所述的基于多深度摄像机的动态场景实时三维重建方法,其特征在于,所述通过多视角非刚性对齐逐帧拼接所述深度图像,进一步包括:
将多视角深度图像离散化成一组均匀网格,并且标记落在前景深度图上的节点;
用发生在节点处的刚性变形描述整体深度信息的非刚体变形,并且将一对(Ri,ti)与每个变形节点相关联;
建立多视角对齐问题的能量函数,并且对所述能量函数进行求解,以得到多视角对齐的结果。
4.根据权利要求3所述的基于多深度摄像机的动态场景实时三维重建方法,其特征在于,所述能量函数包括第一能量函数和第二能量函数,其中,所述第一能量函数为:
其中,和T分别为每个视角的整体刚性变换和每个变形节点的局部刚性变形,εfit为空间约束,εarap为局部非刚性运动约束,εsift为SIFT图像特征约束;
所述第二能量函数为:
其中,εdata为描述模型与多视角深度信息的匹配程度,εsmooth为嵌入式变形图的局部刚性约束项,εreg为约束仿射变换的单位正交性质,εsil为模型受多视角轮廓图像的约束,εsift为模型受前后两帧的SIFT特征约束。
5.根据权利要求3所述的基于多深度摄像机的动态场景实时三维重建方法,其特征在于,所述通过非刚性变形将参考帧中的静态模型与所述矫正后的深度图像观测对齐,进一步包括:
在参考帧中累积模型的截断符号距离函数,并且将所述当前帧与所述深度信息融合,以估计多视角的非刚性运动场。
6.一种基于多深度摄像机的动态场景实时三维重建装置,其特征在于,包括:
预处理模块,用于对彩色图像进行背景分割,提取并匹配图像SIFT特征点,并且对深度图像做双边滤波预处理;
拼接模块,用于通过多视角非刚性对齐逐帧拼接所述深度图像,以得到矫正后的深度图像;
对齐模块,用于通过非刚性变形将参考帧中的静态模型与所述矫正后的深度图像观测对齐;以及
重建模块,用于在当前帧融合几何模型,以重建拓扑变化以及处理跟踪丢失的情况。
7.根据权利要求6所述的基于多深度摄像机的动态场景实时三维重建装置,其特征在于,所述预处理模块,进一步包括:
第一获取单元,用于通过绿幕抠图分割前景人物并得到对应的轮廓图;
第二获取单元,用于对所述深度图像做双边滤波,并使用Scharr算子计算对应的法向图并反投影得到相机坐标系中的三维点云。
8.根据权利要求6所述的基于多深度摄像机的动态场景实时三维重建装置,其特征在于,所述拼接模块,进一步包括:
标记单元,用于将多视角深度图像离散化成一组均匀网格,并且标记落在前景深度图上的节点;
关联单元,用于用发生在节点处的刚性变形描述整体深度信息的非刚体变形,并且将一对(Ri,ti)与每个变形节点相关联;
求解单元,建立多视角对齐问题的能量函数,并且对所述能量函数进行求解,以得到多视角对齐的结果。
9.根据权利要求8所述的基于多深度摄像机的动态场景实时三维重建装置,其特征在于,
所述能量函数包括第一能量函数和第二能量函数,其中,所述第一能量函数为:
其中,和T分别为每个视角的整体刚性变换和每个变形节点的局部刚性变形,εfit为空间约束,εarap为局部非刚性运动约束,εsift为SIFT图像特征约束;
所述第二能量函数为:
其中,εdata为描述模型与多视角深度信息的匹配程度,εsmooth为嵌入式变形图的局部刚性约束项,εreg为约束仿射变换的单位正交性质,εsil为模型受多视角轮廓图像的约束,εsift为模型受前后两帧的SIFT特征约束。
10.根据权利要求8所述的基于多深度摄像机的动态场景实时三维重建装置,其特征在于,所述对齐模块,进一步包括:
在参考帧中累积模型的截断符号距离函数,并且将所述当前帧与所述深度信息融合,以估计多视角的非刚性运动场。
CN201711443834.XA 2017-12-27 2017-12-27 基于多深度摄像机的动态场景实时三维重建方法及装置 Active CN108171791B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711443834.XA CN108171791B (zh) 2017-12-27 2017-12-27 基于多深度摄像机的动态场景实时三维重建方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711443834.XA CN108171791B (zh) 2017-12-27 2017-12-27 基于多深度摄像机的动态场景实时三维重建方法及装置

Publications (2)

Publication Number Publication Date
CN108171791A true CN108171791A (zh) 2018-06-15
CN108171791B CN108171791B (zh) 2020-11-17

Family

ID=62518376

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711443834.XA Active CN108171791B (zh) 2017-12-27 2017-12-27 基于多深度摄像机的动态场景实时三维重建方法及装置

Country Status (1)

Country Link
CN (1) CN108171791B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109345568A (zh) * 2018-09-19 2019-02-15 深圳市赢世体育科技有限公司 基于计算机视觉算法的运动场智能化实现方法及系统
CN109460077A (zh) * 2018-11-19 2019-03-12 深圳博为教育科技有限公司 一种自动跟踪方法、自动跟踪设备及自动跟踪系统
CN109493354A (zh) * 2018-10-10 2019-03-19 中国科学院上海技术物理研究所 一种基于多视角图像的目标二维几何外形重构方法
CN109523635A (zh) * 2018-11-01 2019-03-26 深圳蒜泥科技投资管理合伙企业(有限合伙) 一种三维人体扫描非刚性重建和测量方法及装置
CN109685847A (zh) * 2018-12-26 2019-04-26 北京因时机器人科技有限公司 一种视觉目标检测模型的训练方法和装置
CN110111250A (zh) * 2019-04-11 2019-08-09 中国地质大学(武汉) 一种鲁棒的自动全景无人机图像拼接方法及装置
CN112668410A (zh) * 2020-12-15 2021-04-16 浙江大华技术股份有限公司 分拣行为检测方法、系统、电子装置和存储介质
CN112819700A (zh) * 2019-11-15 2021-05-18 阿里巴巴集团控股有限公司 一种点云数据的去噪方法、装置及可读存储介质
CN113096144A (zh) * 2021-03-23 2021-07-09 清华大学 基于神经网络的动态人体自由视点视频的生成方法和装置
CN113129348A (zh) * 2021-03-31 2021-07-16 中国地质大学(武汉) 一种基于单目视觉的道路场景中车辆目标的三维重建方法
CN113313815A (zh) * 2021-05-24 2021-08-27 北京航空航天大学 一种机械臂抓取物体实时三维重建方法
CN113763559A (zh) * 2021-07-01 2021-12-07 清华大学 一种拟合深度图像的几何运动细节重建方法及装置
CN114041878A (zh) * 2021-10-19 2022-02-15 山东建筑大学 骨关节置换手术机器人的ct图像的三维重建方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271591A (zh) * 2008-04-28 2008-09-24 清华大学 一种交互式多视点三维模型重建方法
CN103514625A (zh) * 2012-06-20 2014-01-15 上海路同信息科技有限公司 基于多视角自适应特征配准的三维重建方法
US20170064279A1 (en) * 2015-09-01 2017-03-02 National Taiwan University Multi-view 3d video method and system
CN106548507A (zh) * 2015-09-16 2017-03-29 富士通株式会社 三维重建对象的方法和设备
CN106651926A (zh) * 2016-12-28 2017-05-10 华东师范大学 一种基于区域配准的深度点云三维重建方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271591A (zh) * 2008-04-28 2008-09-24 清华大学 一种交互式多视点三维模型重建方法
CN103514625A (zh) * 2012-06-20 2014-01-15 上海路同信息科技有限公司 基于多视角自适应特征配准的三维重建方法
US20170064279A1 (en) * 2015-09-01 2017-03-02 National Taiwan University Multi-view 3d video method and system
CN106548507A (zh) * 2015-09-16 2017-03-29 富士通株式会社 三维重建对象的方法和设备
CN106651926A (zh) * 2016-12-28 2017-05-10 华东师范大学 一种基于区域配准的深度点云三维重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周致富: "基于Kinect传感器的三维点云模型重建研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109345568A (zh) * 2018-09-19 2019-02-15 深圳市赢世体育科技有限公司 基于计算机视觉算法的运动场智能化实现方法及系统
CN109493354A (zh) * 2018-10-10 2019-03-19 中国科学院上海技术物理研究所 一种基于多视角图像的目标二维几何外形重构方法
CN109523635A (zh) * 2018-11-01 2019-03-26 深圳蒜泥科技投资管理合伙企业(有限合伙) 一种三维人体扫描非刚性重建和测量方法及装置
CN109523635B (zh) * 2018-11-01 2023-07-21 深圳蒜泥科技投资管理合伙企业(有限合伙) 一种三维人体扫描非刚性重建和测量方法及装置
CN109460077B (zh) * 2018-11-19 2022-05-17 深圳博为教育科技有限公司 一种自动跟踪方法、自动跟踪设备及自动跟踪系统
CN109460077A (zh) * 2018-11-19 2019-03-12 深圳博为教育科技有限公司 一种自动跟踪方法、自动跟踪设备及自动跟踪系统
CN109685847A (zh) * 2018-12-26 2019-04-26 北京因时机器人科技有限公司 一种视觉目标检测模型的训练方法和装置
CN109685847B (zh) * 2018-12-26 2021-02-12 北京因时机器人科技有限公司 一种视觉目标检测模型的训练方法和装置
CN110111250A (zh) * 2019-04-11 2019-08-09 中国地质大学(武汉) 一种鲁棒的自动全景无人机图像拼接方法及装置
CN110111250B (zh) * 2019-04-11 2020-10-30 中国地质大学(武汉) 一种鲁棒的自动全景无人机图像拼接方法及装置
CN112819700A (zh) * 2019-11-15 2021-05-18 阿里巴巴集团控股有限公司 一种点云数据的去噪方法、装置及可读存储介质
CN112668410A (zh) * 2020-12-15 2021-04-16 浙江大华技术股份有限公司 分拣行为检测方法、系统、电子装置和存储介质
CN112668410B (zh) * 2020-12-15 2024-03-29 浙江大华技术股份有限公司 分拣行为检测方法、系统、电子装置和存储介质
CN113096144A (zh) * 2021-03-23 2021-07-09 清华大学 基于神经网络的动态人体自由视点视频的生成方法和装置
CN113096144B (zh) * 2021-03-23 2022-07-29 清华大学 基于神经网络的动态人体自由视点视频的生成方法和装置
CN113129348A (zh) * 2021-03-31 2021-07-16 中国地质大学(武汉) 一种基于单目视觉的道路场景中车辆目标的三维重建方法
CN113129348B (zh) * 2021-03-31 2022-09-30 中国地质大学(武汉) 一种基于单目视觉的道路场景中车辆目标的三维重建方法
CN113313815A (zh) * 2021-05-24 2021-08-27 北京航空航天大学 一种机械臂抓取物体实时三维重建方法
CN113763559A (zh) * 2021-07-01 2021-12-07 清华大学 一种拟合深度图像的几何运动细节重建方法及装置
CN113763559B (zh) * 2021-07-01 2024-04-09 清华大学 一种拟合深度图像的几何运动细节重建方法
CN114041878A (zh) * 2021-10-19 2022-02-15 山东建筑大学 骨关节置换手术机器人的ct图像的三维重建方法及系统

Also Published As

Publication number Publication date
CN108171791B (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
CN108171791A (zh) 基于多深度摄像机的动态场景实时三维重建方法及装置
CN109655019B (zh) 一种基于深度学习和三维重建的货物体积测量方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
Basha et al. Multi-view scene flow estimation: A view centered variational approach
CN107240129A (zh) 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法
CN100485720C (zh) 一种基于序列静态图像的360°环视全景生成方法
CN101398886B (zh) 一种基于双目被动立体视觉的快速三维人脸识别方法
Plankers et al. Articulated soft objects for video-based body modeling
CN101271582B (zh) 基于多视角二维图像并结合sift算法的三维重建方法
US9189855B2 (en) Three dimensional close interactions
CN109242954B (zh) 基于模板变形的多视角三维人体重建方法
Deriche et al. 2-D curve matching using high curvature points: application to stereo vision
CN109558879A (zh) 一种基于点线特征的视觉slam方法和装置
CN106469465A (zh) 一种基于灰度和深度信息的三维人脸重建方法
Xu et al. Predicting animation skeletons for 3d articulated models via volumetric nets
Yao et al. Densebody: Directly regressing dense 3d human pose and shape from a single color image
Xian et al. UprightNet: geometry-aware camera orientation estimation from single images
Rogez et al. Image-based synthesis for deep 3D human pose estimation
CN101567093B (zh) 一种三维手势模型的初始化方法
CN108648194A (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
CN109584238A (zh) 一种基于立体视觉的弓网运行状况在线检测系统及方法
CN110675453A (zh) 一种已知场景中运动目标的自定位方法
CN111862316A (zh) 一种基于优化的imu紧耦合稠密直接rgbd的三维重建方法
CN109785428A (zh) 一种基于多态约束卡尔曼滤波的手持式三维重建方法
CN113256789A (zh) 一种三维实时人体姿态重建方法

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant