CN110288657A - 一种基于Kinect的增强现实三维注册方法 - Google Patents

一种基于Kinect的增强现实三维注册方法 Download PDF

Info

Publication number
CN110288657A
CN110288657A CN201910434938.7A CN201910434938A CN110288657A CN 110288657 A CN110288657 A CN 110288657A CN 201910434938 A CN201910434938 A CN 201910434938A CN 110288657 A CN110288657 A CN 110288657A
Authority
CN
China
Prior art keywords
depth
point
camera
color
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910434938.7A
Other languages
English (en)
Other versions
CN110288657B (zh
Inventor
田元
周幂
李方迪
王学璠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong Normal University
Central China Normal University
Original Assignee
Huazhong Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong Normal University filed Critical Huazhong Normal University
Priority to CN201910434938.7A priority Critical patent/CN110288657B/zh
Publication of CN110288657A publication Critical patent/CN110288657A/zh
Application granted granted Critical
Publication of CN110288657B publication Critical patent/CN110288657B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Abstract

本发明公开一种基于Kinect的增强现实三维注册方法,采用融合RGB‑D信息的深度图像修复方法,解决了由深度图中空洞、抖动以及边缘不稳定等问题造成的标定和图像对齐误差,为后续三维注册的精确度提供了保证;采用基于深度直方图的近景模式自动判断方法,非近景模式下,采用基于Fast ICP的三维注册方法计算摄像机位姿;近景模式下,采用融合Fast ICP(Fast Iterative Closest Point)和ORB(Oriented FAST and Rotated BRIEF)的三维注册方法计算摄像机位姿,解决了由于硬件限制造成的注册失败问题,不论是非近景模式还是近景模式都能获得精确、稳定的三维注册结果。本发明算法复杂度低,易理解,易实现,不受光照和复杂场景的影响,满足增强现实系统实时性要求,能够解决互遮挡问题。

Description

一种基于Kinect的增强现实三维注册方法
技术领域
本发明属于三维注册技术领域,涉及一种基于Kinect的增强现实三维注册方法。
背景技术
在增强现实系统中,进行三维注册的目的是通过对摄像机的动态跟踪,计算摄像机位姿,使得虚拟物体能够正确的叠加在真实场景中,对真实场景进行增强。为了使增强现实技术获得更广泛的应用,三维注册是必须解决的重要问题。三维注册的实时性、精确性、稳定性直接影响了增强现实系统的适用性和可信度。
基于计算机视觉的虚实注册因其硬件成本低、精确性好、健壮性强等特点,已经成为当前解决AR中三维注册问题的主流方法。Kinect传感器作为一款出色的体感外部设备,能够捕获人的骨骼点信息,不受光照变化和复杂背景的干扰。将其应用于增强现实中,不但能够实现三维注册,不易受外在环境的干扰,还可为人机交互带来新的机会。
但是,由于Kinect深度摄像机的成像模式容易导致获取的深度图像出现黑洞、抖动以及场景中物体轮廓不准确等问题,严重影响了后续三维注册的精确度。另外,Kinect硬件的深度检测最小范围不能低于0.4m。受此制约,当Kinect在移动的过程中,若距离场景太近,将无法获取场景深度信息,从而导致三维注册失败。
吴倩等人提出一种结合彩色图像局部分割的Kinect深度图修复算法,通过空洞类型判断和局部区域分割获得空洞像素的有效支撑区域,并利用该像素的有效支撑区域对其进行深度计算。该方法提高了场景深度信息的精确度,但对同色不同距的空洞修复存在着不足。
刘书曼等人针对Kinect彩色摄像头分辨率不高,远距离的增强现实会因为图像清晰度不够,影响增强现实效果的问题,利用Kinect传感器与高清摄像头的配准,解决了远距离图像清晰度问题。但是,他们的方法在近景模式下,要求人距离摄像头1~2米才能获得较好的三维注册结果。
王月等人提出了一种面向AR机械装配辅助系统的三维跟踪注册方法,该方法利用基于方向向量一致性的视觉特征匹配策略,解决了在光滑、无纹理的装配环境中获取足够数量的视觉特征匹配点对的问题。同时,设计了一种点云和视觉特征匹配相结合的三维跟踪注册方法,既避免了因初始匹配数据点集不足导致的相机跟踪注册失败,又保证了相机位姿估计精度。但是这种方法只能在Kinect的有效范围内获得准确的位姿,没有解决距离的制约问题。
公开号为CN105096311A的专利文件公开了一种基于的深度图修复和虚实场景结合技术,所述方法的主要步骤为:(1)采集深度图和彩色图;(2)对图像进行下采样,以保证实时的修复速度;(3)使用QuickShift算法对彩色图像进行分割;(4)利用彩色图的分割结果,对存在缺失深度数据的分割块进行处理。(5)对图像进行上采样。该方法解决了Kinect深度图的漏洞修复问题。并在此基础上,进行虚拟物体与真实物体的叠加,实现虚拟物体与真实物体之间的遮挡,从而实现增强现实互动。该方法虽然修复了深度图中的空洞,但是没有解决距离的制约对三维注册的影响问题。
相关参考文献如下:
[1]吴倩,史晋芳,王德娇,刘桂华.结合彩色图像局部分割的Kinect深度图修复算法[J].计算机应用研究,2017,34(12):3852-3854+3884.
[2]刘书曼,葛水英,徐士彪.基于深度传感器的远距增强现实注册技术研究[J].微电子学与计算机,2017,34(05):89-94.
[3]王月,张树生,白晓亮.点云和视觉特征融合的增强现实装配系统三维跟踪注册方法[J].西北工业大学学报,2019,37(01):143-151.
[4]葛水英,王波.基于GPU的深度图修复和虚实场景结合技术.中国专利:CN201510328820.8,2015.06.15.
发明内容
本发明针对现有技术的不足,提出一种基于Kinect的增强现实三维注册方法,克服Kinect硬件的制约,提高三维注册的精度,扩大增强现实系统的适用范围。
本发明的技术解决方案是:基于Kinect的增强现实三维注册方法,包括如下步骤:
步骤1,对Kinect彩色摄像机和深度摄像机进行标定;
步骤2,基于Kinect获得彩色图像和深度图像,生成三维点云,并将三维点云进一步转换为深度图,融合点云信息和快速步进算法(Fast Marching Method,FMM)修复深度图;
步骤3,深度图像与彩色图像对齐;
步骤4,基于深度直方图的近景模式自动判断;
步骤5,非近景模式下,采用基于Fast ICP的三维注册方法计算摄像机位姿,完成非近景模式下的三维注册;
步骤6,近景模式下,采用融合Fast ICP和ORB的三维注册方法计算摄像机位姿,完成近景模式下的三维注册;
步骤7,将虚拟物体叠加在真实场景的彩色图像中,显示虚实叠加结果。
进一步的,所述步骤1的具体实现包括以下子步骤,
步骤1.1,彩色摄像机标定:利用Kinect读取彩色图像数据,使用基于黑白棋盘格的视觉标定方法完成Kinect彩色摄像机的内外参数的标定,获得内参矩阵Acolor和外参矩阵Rcolor、Tcolor
步骤1.2,深度摄像机标定:利用Kinect读取红外图像数据,使用基于黑白棋盘格的视觉标定方法完成Kinect深度摄像机的内外参数的标定,获得内参矩阵Adepth和外参矩阵Rdepth、Tdepth
进一步的,所述步骤2的具体实现包括以下子步骤:
步骤2.1,利用Kinect实时获取真实场景的彩色图像Ic和深度图像Id,生成三维点云;
步骤2.2,将三维点云转换成深度图I′d,具体实施方法为,假设P(x,y,z)是三维点云中的一点,利用下式计算出其对应于深度图像I′d中的点p(u,v,d)的坐标:
上式中,u,v是深度图像中每个像素点的横坐标和纵坐标,d是深度数据,fx、fy是摄像机在X、Y轴上的焦距,cx、cy描述了摄像机的光圈中心,s是深度缩放因子;
步骤2.3,遍历I′d中的像素点,将深度值不为零的点设置为可靠区域,具体实施方法是:首先,创建与深度图像Id大小相同的待修复图像repairImg;然后,遍历repairImg中的每个像素点,查找其对应于I′d中的像素点的深度值d;若d大于零,则代表点云信息完好,将该像素区域设置为可靠区域;若d等于零,则代表点云信息缺失,将该像素区域设置为不可靠区域;
步骤2.4,对原始深度图像Id进行过滤,具体实施方法是:对于可靠区域内的像素点,将深度图像I′d中对应的深度值拷贝到待修复图像repairImg中;对于不可靠区域内的像素点,则将原始深度图像Id中对应的像素值拷贝到待修复图像repairImg中,由此获得物体边缘清晰且无抖动的平滑的深度图像;
步骤2.5,利用FMM算法进一步修复深度图中的空洞,具体实施方法是:首先,对空洞的边缘进行膨胀处理,获得一条窄边;然后,将窄边附近区域分为三部分:窄边上、窄边外(图像未损坏部分)以及窄边内(待修复空洞);设T为空洞边缘上某一像素与窄边之间的距离,将边缘上所有像素的T值按照升序方式存储到队列NarrowBand中,依次进行处理,方法是假设起始点为P,先处理点P的四邻域点,如果其类型为在空洞中,则重新计算像素值,修改其类型为在窄边内,并将其加入NarrowBand,依次处理NarrowBand中存放的每个像素,直到修补完成。
进一步的,所述步骤3的具体实现包括以下子步骤,
步骤3.1,构建深度摄像机坐标系与彩色摄像机坐标系的变换关系,求取两个摄像机的相对位姿,利用下式求取深度摄像机和彩色摄像机间的旋转关系R和平移关系T:
步骤3.2,利用两个摄像机的相对位姿关系构建彩色图像上的点与深度图像上对应点的变换关系,具体实施方法是:利用标定求得的彩色摄像机和深度摄像机的内参和外参以及位姿映射变换关系R和T,利用下式将深度图像上的点Pdepth=[Xdepth Ydepth Zdepth 1]T映射到彩色图像中:
ZcolorPcolor=R′ZdepthPdepth+T′
其中,
上式中,Pcolor=[Xcolor Ycolor Zcolor 1]T是点Pdepth在彩色摄像机坐标系下的坐标;
步骤3.3,将深度图像与彩色图像对齐,具体实施方法是:利用步骤3.2所得公式,求取深度图像中所有像素点与彩色图像的关系,达到对齐效果。
进一步的,所述步骤4的具体实现包括以下子步骤,
步骤4.1,将当前摄像机坐标下的点云数据转换为深度图像,统计深度图像直方图;
步骤4.2,根据深度图像直方图,判断是非近景模式还是近景模式,具体方法是:计算像素的灰度区间,根据大部分像素灰度值范围的下限确定灰度阈值δ,设Tpoint表示图像中灰度值大于δ的像素点个数与图像像素点总数的比值;若Tpoint>50,则判断为非近景模式;否则,判断为近景模式。
进一步的,所述步骤5的具体实现包括以下子步骤:
步骤5.1,移动Kinect传感器使深度摄像机位姿发生改变,由深度图像实时生成曲面点集;
步骤5.2,筛选初始帧深度图与当前帧深度图对应的曲面点集中待匹配的点集Vi和Vi′,具体方法是:首先利用四邻域顶点计算顶点法向量;然后根据法向量,在Vi中查找与Vi′中最近的点,组成点对,这些点对构成了将要进行匹配的两个点集,
步骤5.3,进行点集匹配并获得点集变换位姿,具体方法是:首先根据筛选的点对,将Vi中的三维顶点和所对应Vi′中的三维顶点转化为深度图像坐标系下的点vi-1和vi-1′,构成一组点对;然后计算这两个点集的重心位置,并将点集中心化产生两个新的点集;接下来,通过最小化两个新点集的差别,求取二者对应的深度摄像机的相对变换位姿,并根据顶点法向量一致性,给每个点分配权重去除不合适的点集边界;
步骤5.4,对步骤5.1-步骤5.3进行迭代运算,获得最优点集变换位姿,完成非近景模式下的三维注册,求得R’depth和T’depth
进一步的,所述步骤6的具体实现包括以下子步骤:
步骤6.1,特征点检测和特征描述,具体方法是:对Kinect彩色摄像机进行跟踪,设置初始帧和当前帧,检测两幅图像的FAST特征点,用BRIEF描述子描述特征点的属性,获得描述图像特征的二进制串;
步骤6.2,利用暴力匹配法对特征点描述子进行距离测试,获得两帧图像中最佳匹配的特征点;
步骤6.3,计算匹配成功的特征点的世界坐标,结合摄像机内参矩阵计算摄像机位姿,并优化位姿,完成近景模式下的三维注册,具体方法是:首先,由彩色摄像机和深度摄像机的映射关系计算匹配成功的特征点的世界坐标;然后,结合特征点的图像坐标、对应的世界坐标以及彩色摄像机的内参矩阵Acolor,获得特征点所在世界坐标系和彩色摄像机坐标系之间的外参;最后,根据外参优化位姿;
其中优化位姿的具体方法为:首先,在特征点中随机选取四个不同特征点作为输入,计算出一组彩色摄像机外参;然后,利用当前特征点对应世界坐标和彩色摄像机内参外参矩阵,经过反投影计算一组新的二维点集;最后,比较此点集与当前特征点,当距离小于阈值T1的点的数量大于阈值T2时,则将此外参作为优化后的彩色摄像机位姿,完成近景模式下的三维注册,求得最优的T’color和R’color
进一步的,步骤7显示虚实叠加结果的具体实施方式为,近景模式时,直接利用步骤6.3求得的T’color和R′color将虚拟物体叠加到真实场景中。非近景模式时,利用下式,将步骤5.4求得的R’depth和T’depth转换成T”color和R”color,然后将虚拟物体叠加到真实场景中。
其中,R和T分别表示深度摄像机和彩色摄像机间的旋转关系和平移关系。
与现有技术相比,本发明的优点及有益效果是:
(1)采用融合RGB-D信息的深度图像修复方法,解决了由深度图中空洞、抖动以及边缘不稳定等问题造成的标定和图像对齐误差,为后续三维注册的精确度提供了保证。
(2)采用基于深度直方图的近景模式自动判断方法,非近景模式下,采用基于FastICP的三维注册方法计算摄像机位姿;近景模式下,采用融合Fast ICP(Fast IterativeClosest Point)和ORB(Oriented FAST and Rotated BRIEF)的三维注册方法计算摄像机位姿,解决了由于硬件限制造成的注册失败问题,不论是非近景模式还是近景模式都能获得精确、稳定的三维注册结果。
(3)算法复杂度低,易理解,易实现,不受光照和复杂场景的影响,满足增强现实系统实时性要求,能够解决互遮挡问题。
附图说明
图1是本发明实施例的流程图;
具体实施方式
本发明在研究增强现实三维注册的基础上,以Kinect彩色数据和深度数据作为输入,通过获取近景和非近景下的摄像机相对位姿进行三维注册。
下面结合附图和实施例对本发明的技术方案作进一步说明。
如图1所示,本实施例的具体实施包括以下步骤:
步骤1,对Kinect彩色摄像机和深度摄像机进行标定;
步骤1.1,彩色摄像机标定。利用Kinect读取彩色图像数据,使用基于黑白棋盘格的视觉标定方法完成Kinect彩色摄像机的内外参数的标定,获得内参矩阵Acolor和外参矩阵Rcolor、Tcolor
步骤1.2,深度摄像机标定。利用Kinect读取红外图像数据,使用基于黑白棋盘格的视觉标定方法完成Kinect深度摄像机的内外参数的标定,获得内参矩阵Adepth和外参矩阵Rdepth、Tdepth
步骤2,融合点云信息和FMM算法修复深度图,步骤2的具体实施方式包括如下子步骤:
步骤2.1,利用Kinect实时获取真实场景的彩色图像Ic和深度图像Id,生成三维点云;
步骤2.2,将三维点云转换成深度图I′d。具体方法是,假设P(x,y,z)是三维点云中的一点,利用下式计算出其对应于深度图I′d中的点p(u,v,d)的坐标:
上式中,u,v是深度图像中每个像素点的横坐标和纵坐标,d是深度数据,fx、fy是摄像机在X、Y轴上的焦距,cx、cy描述了摄像机的光圈中心,s是深度缩放因子。
步骤2.3,遍历I′d中的像素点,将深度值不为零的点设置为可靠区域,具体实施方法是:首先,创建与深度图像Id大小相同的待修复图像repairImg。然后,遍历repairImg中的每个像素点,查找其对应于I′d中的像素点的深度值d。若d大于零,则代表点云信息完好,将该像素区域设置为可靠区域;若d等于零,则代表点云信息缺失,将该像素区域设置为不可靠区域。
步骤2.4,对原始深度图像Id进行过滤,具体实施方法是:对于可靠区域内的像素点,将深度图像I′d中对应的深度值拷贝到待修复图像repairImg中;对于不可靠区域内的像素点,则将原始深度图像Id中对应的像素值拷贝到待修复图像repairImg中,由此获得物体边缘清晰且无抖动的平滑的深度图像。
步骤2.5,利用FMM算法进一步修复深度图中的空洞,具体实施方法是:首先,对空洞的边缘进行膨胀处理,获得一条窄边。然后,将窄边附近区域分为三部分:窄边上、窄边外(图像未损坏部分)以及窄边内(待修复空洞)。设T为空洞边缘上某一像素与窄边之间的距离,将边缘上所有像素的T值按照升序方式存储到队列NarrowBand中,依次进行处理,方法是假设起始点为P,先处理点P的四邻域点,如果其类型为在空洞中,则重新计算像素值,修改其类型为在窄边内,并将其加入NarrowBand。依次处理NarrowBand中存放的每个像素,直到修补完成。
步骤3,深度图像与彩色图像对齐,步骤3的具体实施方式包括如下子步骤:
步骤3.1,构建深度摄像机坐标系与彩色摄像机坐标系的变换关系,求取两个摄像机的相对位姿。利用下式求取深度摄像机和彩色摄像机间的旋转关系R和平移关系T:
步骤3.2,利用两个摄像机的相对位姿关系构建彩色图像上的点与深度图像上对应点的变换关系。具体实施方法是:利用标定求得的彩色摄像机和深度摄像机的内参和外参以及位姿映射变换关系R和T,利用下式将深度图像上的点Pdepth=[Xdepth Ydepth Zdepth 1]T映射到彩色图像中:
ZcolorPcolor=R′ZdepthPdepth+T′
其中,
上式中,Pcolor=[Xcolor Ycolor Zcolor 1]T是点Pdepth在彩色摄像机坐标系下的坐标。
步骤3.3,将深度图像与彩色图像对齐。具体实施方法是:利用步骤3.2所得公式,求取深度图像中所有像素点与彩色图像的关系,达到对齐效果。该变换符合一致性约束:对深度图像上任意点,在彩色图像上一定存在一点与之匹配,反之亦然。
步骤4,基于深度直方图的近景模式自动判断,步骤4的具体实施方式包括如下子步骤:
步骤4.1,将当前摄像机坐标下的点云数据转换为深度图像,统计深度图像直方图。
步骤4.2,根据深度图像直方图,判断是非近景模式还是近景模式。具体方法是:计算像素的灰度区间,根据大部分像素灰度值范围的下限确定灰度阈值δ。设Tpoint表示图像中灰度值大于δ的像素点个数与图像像素点总数的比值。若Tpoint>50,则判断为非近景模式;否则,判断为近景模式。
步骤5,非近景模式下,采用基于Fast ICP的三维注册方法计算摄像机位姿,步骤5的具体实施方式包括如下子步骤:
步骤5.1,移动Kinect传感器使深度摄像机位姿发生改变,由深度图像实时生成曲面点集,该点集描述了深度图像对应的真实场景的三维顶点集合。
步骤5.2,筛选初始帧深度图与当前帧深度图对应的曲面点集中待匹配的点集Vi和Vi′。具体方法是:首先利用四邻域顶点计算顶点法向量;然后根据法向量,在Vi中查找与Vi′中最近的点,组成点对,这些点对构成了将要进行匹配的两个点集。
步骤5.3,进行点集匹配并获得点集变换位姿。具体方法是:首先根据筛选的点对,将Vi中的三维顶点和所对应Vi′中的三维顶点转化为深度图像坐标系下的点vi-1和vi-1′,构成一组点对。然后计算这两个点集的重心位置,并将点集中心化产生两个新的点集;接下来,通过最小化两个新点集的差别,求取二者对应的深度摄像机的相对变换位姿,并根据顶点法向量一致性,给每个点分配权重去除不合适的点集边界。
步骤5.4,对步骤5.1-步骤5.3进行迭代运算,获得最优点集变换位姿,完成非近景模式下的三维注册。具体方法是:在迭代过程中,不断将新获取的深度数据转换的点集与上一次计算得到的点集进匹配,得到点集最优变换位姿,即当前摄像机相对于初始状态下的相对变换位姿,完成非近景模式下的三维注册,求得R’depth和T’depth
步骤6,近景模式下,采用融合Fast ICP和ORB的三维注册方法计算摄像机位姿,步骤6的具体实施方式包括如下子步骤:
步骤6.1,特征点检测和特征描述。具体方法是:对Kinect彩色摄像机进行跟踪,设置初始帧和当前帧,检测两幅图像的FAST特征点,用BRIEF描述子描述特征点的属性,获得描述图像特征的二进制串。
步骤6.2,利用暴力匹配法对特征点描述子进行距离测试,获得两帧图像中最佳匹配的特征点。
步骤6.3,计算匹配成功的特征点的世界坐标,结合摄像机内参矩阵计算摄像机位姿,并优化位姿,完成近景模式下的三维注册。具体方法是:首先,由彩色摄像机和深度摄像机的映射关系计算匹配成功的特征点的世界坐标。然后,结合特征点的图像坐标、对应的世界坐标以及彩色摄像机的内参矩阵Acolor,获得特征点所在世界坐标系和彩色摄像机坐标系之间的外参;最后,根据外参优化位姿。
其中优化位姿的具体方法为:首先,在特征点中随机选取四个不同特征点作为输入,计算出一组彩色摄像机外参。然后,利用当前特征点对应世界坐标和彩色摄像机内参、外参矩阵,经过反投影计算一组新的二维点集。最后,比较此点集与当前特征点,当距离小于阈值T1的点的数量大于阈值T2时,则将此外参作为优化后的彩色摄像机位姿,完成近景模式下的三维注册,求得最优的T’color和R’color
步骤7,显示虚实叠加结果。具体实施方法是:近景模式时,直接利用步骤6.3求得的T’color和R’color将虚拟物体叠加到真实场景中。非近景模式时,利用下式,将步骤5.4求得的R’depth和T’depth转换成T”color和R”color,然后将虚拟物体叠加到真实场景中。
其中,R和T分别表示深度摄像机和彩色摄像机间的旋转关系和平移关系。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (8)

1.一种基于Kinect的增强现实三维注册方法,其特征在于,包括如下步骤:
步骤1,对Kinect彩色摄像机和深度摄像机进行标定;
步骤2,基于Kinect获得彩色图像和深度图像,生成三维点云,并将三维点云进一步转换为深度图,融合点云信息和快速步进算法(Fast Marching Method,FMM)修复深度图;
步骤3,深度图像与彩色图像对齐;
步骤4,基于深度直方图的近景模式自动判断;
步骤5,非近景模式下,采用基于Fast ICP的三维注册方法计算摄像机位姿,完成非近景模式下的三维注册;
步骤6,近景模式下,采用融合Fast ICP和ORB的三维注册方法计算摄像机位姿,完成近景模式下的三维注册;
步骤7,将虚拟物体叠加在真实场景的彩色图像中,显示虚实叠加结果。
2.如权利要求1所述的一种基于Kinect的增强现实三维注册方法,其特征在于:所述步骤1的具体实现包括以下子步骤,
步骤1.1,彩色摄像机标定:利用Kinect读取彩色图像数据,使用基于黑白棋盘格的视觉标定方法完成Kinect彩色摄像机的内外参数的标定,获得内参矩阵Acolor和外参矩阵Rcolor、Tcolor
步骤1.2,深度摄像机标定:利用Kinect读取红外图像数据,使用基于黑白棋盘格的视觉标定方法完成Kinect深度摄像机的内外参数的标定,获得内参矩阵Adepth和外参矩阵Rdepth、Tdepth
3.如权利要求1或2所述的一种基于Kinect的增强现实三维注册方法,其特征在于:所述步骤2的具体实现包括以下子步骤:
步骤2.1,利用Kinect实时获取真实场景的彩色图像Ic和深度图像Id,生成三维点云;
步骤2.2,将三维点云转换成深度图I′d,具体实施方法为,假设P(x,y,z)是三维点云中的一点,利用下式计算出其对应于深度图像I′d中的点p(u,v,d)的坐标:
上式中,u,v是深度图像中每个像素点的横坐标和纵坐标,d是深度数据,fx、fy是摄像机在X、Y轴上的焦距,cx、cy描述了摄像机的光圈中心,s是深度缩放因子;
步骤2.3,遍历I′d中的像素点,将深度值不为零的点设置为可靠区域,具体实施方法是:首先,创建与深度图像Id大小相同的待修复图像repairImg;然后,遍历repairImg中的每个像素点,查找其对应于I′d中的像素点的深度值d;若d大于零,则代表点云信息完好,将该像素区域设置为可靠区域;若d等于零,则代表点云信息缺失,将该像素区域设置为不可靠区域;
步骤2.4,对原始深度图像Id进行过滤,具体实施方法是:对于可靠区域内的像素点,将深度图像I′d中对应的深度值拷贝到待修复图像repairImg中;对于不可靠区域内的像素点,则将原始深度图像Id中对应的像素值拷贝到待修复图像repairImg中,由此获得物体边缘清晰且无抖动的平滑的深度图像;
步骤2.5,利用FMM算法进一步修复深度图中的空洞,具体实施方法是:首先,对空洞的边缘进行膨胀处理,获得一条窄边;然后,将窄边附近区域分为三部分:窄边上、窄边外(图像未损坏部分)以及窄边内(待修复空洞);设T为空洞边缘上某一像素与窄边之间的距离,将边缘上所有像素的T值按照升序方式存储到队列NarrowBand中,依次进行处理,方法是假设起始点为P,先处理点P的四邻域点,如果其类型为在空洞中,则重新计算像素值,修改其类型为在窄边内,并将其加入NarrowBand,依次处理NarrowBand中存放的每个像素,直到修补完成。
4.如权利要求2所述的一种基于Kinect的增强现实三维注册方法,其特征在于:所述步骤3的具体实现包括以下子步骤,
步骤3.1,构建深度摄像机坐标系与彩色摄像机坐标系的变换关系,求取两个摄像机的相对位姿,利用下式求取深度摄像机和彩色摄像机间的旋转关系R和平移关系T:
步骤3.2,利用两个摄像机的相对位姿关系构建彩色图像上的点与深度图像上对应点的变换关系,具体实施方法是:利用标定求得的彩色摄像机和深度摄像机的内参和外参以及位姿映射变换关系R和T,利用下式将深度图像上的点Pdepth=[Xdepth Ydepth Zdepth 1]T映射到彩色图像中:
ZcolorPcolor=R′ZdepthPdepth+T′
其中,
上式中,Pcolor=[Xcolor Ycolor Zcolor 1]T是点Pdepth在彩色摄像机坐标系下的坐标;
步骤3.3,将深度图像与彩色图像对齐,具体实施方法是:利用步骤3.2所得公式,求取深度图像中所有像素点与彩色图像的关系,达到对齐效果。
5.如权利要求4所述的一种基于Kinect的增强现实三维注册方法,其特征在于:所述步骤4的具体实现包括以下子步骤,
步骤4.1,将当前摄像机坐标下的点云数据转换为深度图像,统计深度图像直方图;
步骤4.2,根据深度图像直方图,判断是非近景模式还是近景模式,具体方法是:计算像素的灰度区间,根据大部分像素灰度值范围的下限确定灰度阈值δ,设Tpoint表示图像中灰度值大于δ的像素点个数与图像像素点总数的比值;若Tpoint>50,则判断为非近景模式;否则,判断为近景模式。
6.如权利要求5所述的一种基于Kinect的增强现实三维注册方法,其特征在于:所述步骤5的具体实现包括以下子步骤:
步骤5.1,移动Kinect传感器使深度摄像机位姿发生改变,由深度图像实时生成曲面点集;
步骤5.2,筛选初始帧深度图与当前帧深度图对应的曲面点集中待匹配的点集Vi和Vi′,具体方法是:首先利用相邻顶点计算顶点法向量;然后根据法向量,在Vi中查找与Vi′中最近的点,组成点对,这些点对构成了将要进行匹配的两个点集,
步骤5.3,进行点集匹配并获得点集变换位姿,具体方法是:首先根据筛选的点对,将Vi中的三维顶点和所对应Vi′中的三维顶点转化为深度图像坐标系下的点vi-1和vi-1′,构成一组点对;然后计算这两个点集的重心位置,并将点集中心化产生两个新的点集;接下来,通过最小化两个新点集的差别,求取二者对应的深度摄像机的相对变换位姿,并根据顶点法向量一致性,给每个点分配权重去除不合适的点集边界;
步骤5.4,对步骤5.1-步骤5.3进行迭代运算,获得最优点集变换位姿,完成非近景模式下的三维注册,求得R′depth和T’depth
7.如权利要求6所述的一种基于Kinect的增强现实三维注册方法,其特征在于:所述步骤6的具体实现包括以下子步骤:
步骤6.1,特征点检测和特征描述,具体方法是:对Kinect彩色摄像机进行跟踪,设置初始帧和当前帧,检测两幅图像的FAST特征点,用BRIEF描述子描述特征点的属性,获得描述图像特征的二进制串;
步骤6.2,利用暴力匹配法对特征点描述子进行距离测试,获得两帧图像中最佳匹配的特征点;
步骤6.3,计算匹配成功的特征点的世界坐标,结合摄像机内参矩阵计算摄像机位姿,并优化位姿,完成近景模式下的三维注册,具体方法是:首先,由彩色摄像机和深度摄像机的映射关系计算匹配成功的特征点的世界坐标;然后,结合特征点的图像坐标、对应的世界坐标以及彩色摄像机的内参矩阵Acolor,获得特征点所在世界坐标系和彩色摄像机坐标系之间的外参,最后,根据外参优化位姿;
其中优化位姿的具体方法为:首先,在特征点中随机选取四个不同特征点作为输入,计算出一组彩色摄像机外参;然后,利用当前特征点对应世界坐标和彩色摄像机内参、外参矩阵,经过反投影计算一组新的二维点集;最后,比较此点集与当前特征点,当距离小于阈值T1的点的数量大于阈值T2时,则将此外参作为优化后的彩色摄像机位姿,完成近景模式下的三维注册,求得最优的T’color和R’color
8.如权利要求7所述的一种基于Kinect的增强现实三维注册方法,其特征在于:步骤7显示虚实叠加结果的具体实施方式为,
近景模式时,直接利用步骤6.3求得的T’color和R’color将虚拟物体叠加到真实场景中。非近景模式时,利用下式,将步骤5.4求得的R’depth和T’depth转换成T”color和R”color,然后将虚拟物体叠加到真实场景中;
其中,R和T分别表示深度摄像机和彩色摄像机间的旋转关系和平移关系。
CN201910434938.7A 2019-05-23 2019-05-23 一种基于Kinect的增强现实三维注册方法 Active CN110288657B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910434938.7A CN110288657B (zh) 2019-05-23 2019-05-23 一种基于Kinect的增强现实三维注册方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910434938.7A CN110288657B (zh) 2019-05-23 2019-05-23 一种基于Kinect的增强现实三维注册方法

Publications (2)

Publication Number Publication Date
CN110288657A true CN110288657A (zh) 2019-09-27
CN110288657B CN110288657B (zh) 2021-05-04

Family

ID=68002447

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910434938.7A Active CN110288657B (zh) 2019-05-23 2019-05-23 一种基于Kinect的增强现实三维注册方法

Country Status (1)

Country Link
CN (1) CN110288657B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766800A (zh) * 2019-10-15 2020-02-07 西安电子科技大学 基于空间三点对齐的重建模型注册方法
CN110853075A (zh) * 2019-11-05 2020-02-28 北京理工大学 一种基于稠密点云与合成视图的视觉跟踪定位方法
CN111179341A (zh) * 2019-12-09 2020-05-19 西安交通大学 一种增强现实设备与移动机器人的配准方法
CN112053447A (zh) * 2020-07-29 2020-12-08 清华大学 一种增强现实三维注册方法及装置
CN111899293B (zh) * 2020-09-29 2021-01-08 成都索贝数码科技股份有限公司 Ar应用中的虚实遮挡处理方法
CN112949754A (zh) * 2021-03-29 2021-06-11 中国科学院合肥物质科学研究院 一种基于图像融合的文本识别数据合成方法
CN113012298A (zh) * 2020-12-25 2021-06-22 浙江大学 一种基于区域检测的弯曲mark三维注册增强现实方法
CN113269785A (zh) * 2021-05-13 2021-08-17 北京字节跳动网络技术有限公司 图像处理方法、设备、存储介质及程序产品
CN113269729A (zh) * 2021-05-10 2021-08-17 青岛理工大学 一种基于深度图像对比的装配体多视角检测方法和系统
CN113436559A (zh) * 2021-05-19 2021-09-24 吉林大学 一种沙盘动态景观实时显示系统及显示方法
WO2022040970A1 (zh) * 2020-08-26 2022-03-03 南京翱翔信息物理融合创新研究院有限公司 一种同步实现三维重建和ar虚实注册的方法、系统及装置
CN115249254A (zh) * 2022-09-21 2022-10-28 江西财经大学 一种基于ar技术的目标跟踪方法及系统
CN115619855A (zh) * 2022-12-05 2023-01-17 合肥的卢深视科技有限公司 深度图像的稳像方法、电子设备及存储介质
CN115890654A (zh) * 2022-10-09 2023-04-04 北京微链道爱科技有限公司 基于三维特征点的深度相机自动标定算法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102142153A (zh) * 2010-01-28 2011-08-03 香港科技大学 基于图像的三维模型的重建模方法
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法
CN102609941A (zh) * 2012-01-31 2012-07-25 北京航空航天大学 基于ToF深度相机的三维注册方法
CN103607584A (zh) * 2013-11-27 2014-02-26 浙江大学 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法
CN105096311A (zh) * 2014-07-01 2015-11-25 中国科学院科学传播研究中心 基于gpu的深度图修复和虚实场景结合技术
CN107292965A (zh) * 2017-08-03 2017-10-24 北京航空航天大学青岛研究院 一种基于深度图像数据流的虚实遮挡处理方法
US9870624B1 (en) * 2017-01-13 2018-01-16 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
US20180101932A1 (en) * 2016-10-11 2018-04-12 The Boeing Company System and method for upsampling of sparse point cloud for 3d registration
CN109255813A (zh) * 2018-09-06 2019-01-22 大连理工大学 一种面向人机协作的手持物体位姿实时检测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102142153A (zh) * 2010-01-28 2011-08-03 香港科技大学 基于图像的三维模型的重建模方法
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法
CN102609941A (zh) * 2012-01-31 2012-07-25 北京航空航天大学 基于ToF深度相机的三维注册方法
CN103607584A (zh) * 2013-11-27 2014-02-26 浙江大学 一种kinect拍摄的深度图与彩色摄像机拍摄视频的实时配准方法
CN105096311A (zh) * 2014-07-01 2015-11-25 中国科学院科学传播研究中心 基于gpu的深度图修复和虚实场景结合技术
US20180101932A1 (en) * 2016-10-11 2018-04-12 The Boeing Company System and method for upsampling of sparse point cloud for 3d registration
US9870624B1 (en) * 2017-01-13 2018-01-16 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
CN107292965A (zh) * 2017-08-03 2017-10-24 北京航空航天大学青岛研究院 一种基于深度图像数据流的虚实遮挡处理方法
CN109255813A (zh) * 2018-09-06 2019-01-22 大连理工大学 一种面向人机协作的手持物体位姿实时检测方法

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
ALESSIO PIERLUIGI PLACITELLI ET AL.: "Low-Cost Augmented Reality Systems via 3D Point Cloud Sensors", 《2011 SEVENTH INTERNATIONAL CONFERENCE ON SIGNAL IMAGE TECHNOLOGY & INTERNET-BASED SYSTEMS》 *
DIRK HOLZ ET AL.: "Registration with the Point Cloud Library:A Modular Framework for Aligning in 3-D", 《IEEE ROBOTICS & AUTOMATION MAGAZINE》 *
JIAQI YANG ET AL.: "A fast and robust local descriptor for 3D point cloud registration", 《INFORMATION SCIENCES》 *
刘书曼 等: "基于深度传感器的远距增强现实注册技术研究", 《微电子学与计算机》 *
吴倩 等: "结合彩色图像局部分割的Kinect深度图修复算法", 《计算机应用研究》 *
易柳: "基于Kinect增强现实的虚实注册与遮挡技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
王 欢 等: "利用Kinect深度信息的三维点云配准方法研究", 《计算机工程与应用》 *
王月 等: "点云和视觉特征融合的增强现实装配系统三维跟踪注册方法", 《西北工业大学学报》 *
王蓬金: "Kinect数据修复方法研究及其在立体视频中的应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110766800A (zh) * 2019-10-15 2020-02-07 西安电子科技大学 基于空间三点对齐的重建模型注册方法
CN110853075A (zh) * 2019-11-05 2020-02-28 北京理工大学 一种基于稠密点云与合成视图的视觉跟踪定位方法
CN110853075B (zh) * 2019-11-05 2021-08-06 北京理工大学 一种基于稠密点云与合成视图的视觉跟踪定位方法
CN111179341A (zh) * 2019-12-09 2020-05-19 西安交通大学 一种增强现实设备与移动机器人的配准方法
CN111179341B (zh) * 2019-12-09 2022-05-20 西安交通大学 一种增强现实设备与移动机器人的配准方法
CN112053447A (zh) * 2020-07-29 2020-12-08 清华大学 一种增强现实三维注册方法及装置
WO2022040970A1 (zh) * 2020-08-26 2022-03-03 南京翱翔信息物理融合创新研究院有限公司 一种同步实现三维重建和ar虚实注册的方法、系统及装置
CN111899293B (zh) * 2020-09-29 2021-01-08 成都索贝数码科技股份有限公司 Ar应用中的虚实遮挡处理方法
CN113012298A (zh) * 2020-12-25 2021-06-22 浙江大学 一种基于区域检测的弯曲mark三维注册增强现实方法
CN113012298B (zh) * 2020-12-25 2022-04-08 浙江大学 一种基于区域检测的弯曲mark三维注册增强现实方法
CN112949754B (zh) * 2021-03-29 2022-10-14 中国科学院合肥物质科学研究院 一种基于图像融合的文本识别数据合成方法
CN112949754A (zh) * 2021-03-29 2021-06-11 中国科学院合肥物质科学研究院 一种基于图像融合的文本识别数据合成方法
CN113269729A (zh) * 2021-05-10 2021-08-17 青岛理工大学 一种基于深度图像对比的装配体多视角检测方法和系统
CN113269785A (zh) * 2021-05-13 2021-08-17 北京字节跳动网络技术有限公司 图像处理方法、设备、存储介质及程序产品
CN113436559A (zh) * 2021-05-19 2021-09-24 吉林大学 一种沙盘动态景观实时显示系统及显示方法
CN115249254A (zh) * 2022-09-21 2022-10-28 江西财经大学 一种基于ar技术的目标跟踪方法及系统
CN115249254B (zh) * 2022-09-21 2022-12-30 江西财经大学 一种基于ar技术的目标跟踪方法及系统
CN115890654A (zh) * 2022-10-09 2023-04-04 北京微链道爱科技有限公司 基于三维特征点的深度相机自动标定算法
CN115890654B (zh) * 2022-10-09 2023-08-11 北京微链道爱科技有限公司 基于三维特征点的深度相机自动标定算法
CN115619855A (zh) * 2022-12-05 2023-01-17 合肥的卢深视科技有限公司 深度图像的稳像方法、电子设备及存储介质

Also Published As

Publication number Publication date
CN110288657B (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN110288657A (zh) 一种基于Kinect的增强现实三维注册方法
CN109387204B (zh) 面向室内动态环境的移动机器人同步定位与构图方法
CN107292965B (zh) 一种基于深度图像数据流的虚实遮挡处理方法
CN103635937B (zh) 用于在部分已知环境中定位相机和3d重建的方法
CN105956539B (zh) 一种应用背景建模和双目视觉原理的人体身高测量方法
CN112085659B (zh) 一种基于球幕相机的全景拼接融合方法、系统及存储介质
CN112053447B (zh) 一种增强现实三维注册方法及装置
CN104322052A (zh) 用于实时混合或复合计算机生成的三维对象和电影摄影机馈送视频的系统
GB2557398A (en) Method and system for creating images
CN107145224B (zh) 基于三维球面泰勒展开的人眼视线跟踪方法和装置
CN107038714B (zh) 多型视觉传感协同目标跟踪方法
CN112348775B (zh) 基于车载环视的路面坑塘检测系统及方法
CN110245199A (zh) 一种大倾角视频与2d地图的融合方法
CN110941996A (zh) 一种基于生成对抗网络的目标及轨迹增强现实方法和系统
CN105894443A (zh) 一种基于改进的surf算法的实时视频拼接方法
CN107527366A (zh) 一种面向深度相机的相机跟踪方法
WO2023116430A1 (zh) 视频与城市信息模型三维场景融合方法、系统及存储介质
CN113160421A (zh) 一种基于投影的空间式实物交互虚拟实验方法
CN115527016A (zh) 一种三维gis视频融合注册方法、系统、介质、设备及终端
CN107945109B (zh) 基于卷积网络的图像拼接方法及装置
CN104156933A (zh) 一种基于光流场的图像配准方法
CN108961182A (zh) 针对视频图像的竖直方向灭点检测方法及视频扭正方法
CN108898550A (zh) 基于空间三角面片拟合的图像拼接方法
Jacquet et al. Real-world normal map capture for nearly flat reflective surfaces
CN113012298A (zh) 一种基于区域检测的弯曲mark三维注册增强现实方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant