CN106780618A - 基于异构深度摄像机的三维信息获取方法及其装置 - Google Patents

基于异构深度摄像机的三维信息获取方法及其装置 Download PDF

Info

Publication number
CN106780618A
CN106780618A CN201611050176.3A CN201611050176A CN106780618A CN 106780618 A CN106780618 A CN 106780618A CN 201611050176 A CN201611050176 A CN 201611050176A CN 106780618 A CN106780618 A CN 106780618A
Authority
CN
China
Prior art keywords
depth
point
camera
information
video camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611050176.3A
Other languages
English (en)
Other versions
CN106780618B (zh
Inventor
周超艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201611050176.3A priority Critical patent/CN106780618B/zh
Publication of CN106780618A publication Critical patent/CN106780618A/zh
Application granted granted Critical
Publication of CN106780618B publication Critical patent/CN106780618B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于异构深度摄像机的三维信息获取方法,包括如下步骤:拍摄图片;求取Kinect摄像机和TOF摄像机的内部参数;根据所述拍摄的图片,提取可靠的深度信息;根据所述可靠的深度信息,分别拟合各自的标定板平面坐标;结合所述内部参数,在各自拟合的标定板平面坐标下,恢复Kinect摄像机和TOF摄像机的角点实际三维坐标集;求取二者之间的最小二乘转换矩阵;根据最小二乘转换矩阵对可靠深度信息进行的坐标转换,得到深度融合信息;将Kinect摄像机采集的彩色信息与深度融合信息进行匹配;将匹配后的图像信息,基于点间空间距离进行点云配准,获取三维信息。采用本发明,能够快速获取高分辨率的融合彩色信息的精准深度图,进而获取精准的三维信息。

Description

基于异构深度摄像机的三维信息获取方法及其装置
技术领域
本发明属于图像处理和点云配准领域,具体涉及一种基于异构深度摄像机的三维信息获取方法及其装置。
背景技术
目前获取物体深度信息的途径主要有两种:通过求取图像匹配点视差而获得深度的立体匹配方法以及深度摄像机方法。其中,广泛使用的深度摄像机主要有采用结构光技术的Kinect摄像机(指微软公司的Kinect XBOX360,下同)和采用飞行时间(Time ofFlight)技术的TOF摄像机(以Mesa公司的SR4000为代表)。两种深度摄像机都具有各自的优点和不足之处:所述TOF摄像机可以实时生成深度图,且深度信息精度高,可支持硬件触发,但图像分辨率低。例如Mesa公司的SR4000摄像机得到的深度信息精度可控制在1cm以内,但最高图像分辨率仅为176*144。采用结构光技术的Kinect摄像机可生成高分辨率深度图(深度图分辨率最大为640*480),但是深度信息的可靠性低(深度信息精度为10cm以内)。
在逆向工程、立体电视、基于深度信息的模式识别等领域中,高分辨率精准深度图的出现将大大降低相关算法的技术难度。但是从上可以看出,只通过单独的TOF摄像机或者Kinect摄像机都不能获取高分辨率精准深度图。
国内外现有的解决方法:将深度摄像机所得到的深度信息与立体匹配所得到的深度信息融合,以获取高分辨率的精准深度图。立体匹配获取深度信息除了要先进行摄像机标定外,还需要利用置信度传播之类的算法,进一步计算深度数据,计算过程耗时耗资源。同时,有的深度摄像机与普通彩色摄像机之间的标定还需要借助精确的机械来进行机械运动,从而根据运动轨迹进行标定,这就大大增加了使用的条件和限制了使用的场合。如中国专利公开号为CN101556696,公开日为2009年10月14日,名称为基于阵列摄像机的深度图实时获取算法,该申请案公开了在标定时直接使用了彩色摄像机阵列。其不足之处在于:普通彩色摄像机受光照和纹理的影响非常大,因此导致彩色摄像机与TOF深度摄像机进行直接标定的操作性差。
因此,要获取物体的完整三维信息,在获得某一个视角下的深度信息(点云)之后还需要将不同视角下的深度数据进行配准,这个过程称为物体的三维点云配准。目前大部分的粗配准算法都是采用RANSAC和特征值结合的方法,例如Dror Aiger提出的共面四点集算法(出自Aiger D,Mitra N J,Cohen-Or D.4-points congruent sets for robustpairwise surface registration[C]//ACM Transactions on Graphics(TOG).ACM,2008,27(3):85.)。2014年Mellado Nicolas对Dror Aiger算法进行改进提出super 4pcs算法(出自Mellado N,Aiger D,Mitra N J.Super 4pcs fast global pointcloud registrationvia smart indexing[C]//Computer Graphics Forum.2014,33(5):205-215.),通过约束目四边形对角线之间的夹角范围把相似控制集的数量减小。尽管如此,只依靠几何特征寻找到的相似控制集准确性仍然难以保证,而且控制集数量也非常庞大。
发明内容
为了解决上述问题,本发明的目的提供一种基于异构深度摄像机的三维信息获取方法,能够获取高分辨率的融合彩色信息的精准深度图,进而获取精准的三维信息。
为实现上述目的,本发明按以下技术方案予以实现的:
本发明所述的基于异构深度摄像机的三维信息获取方法,包括如下步骤:
S1、在共同摄像视野内,把标定板放在最少在10个不同的位置,每个位置上分别利用Kinect摄像机和TOF摄像机拍摄至少1张图片;
S2、根据Kinect摄像机和TOF摄像机各自拍摄的图片,分别求取Kinect摄像机和TOF摄像机的内部参数其中,其中α=f/dx,β=f/dy,f为摄像机的焦距,γ代表像素点在x,y方向上尺度的偏差。
S3、根据所述拍摄的图片,根据公式提取可靠的深度信息,
其中D表示深度值,I表示强度值,T代表用大津法求得的阈值T;
S4、根据所述可靠的深度信息,分别对Kinect摄像机和TOF摄像机拟合各自的标定板平面坐标;
S5、结合所述内部参数,在各自拟合的标定板平面坐标下,恢复Kinect摄像机和TOF摄像机的角点实际三维坐标集;
S6、根据Kinect摄像机和TOF摄像机的角点实际三维坐标集,求取二者之间的最小二乘转换矩阵;
S7、根据最小二乘转换矩阵对Kinect摄像机和TOF摄像机采集的可靠深度信息进行的坐标转换,得到深度融合信息;
S8、将Kinect摄像机采集的彩色信息与深度融合信息进行匹配;
S9、将匹配后的图像信息,基于点间空间距离进行点云配准,获取三维信息。
进一步地,所述S9的步骤,具体为包括:
在源数据集P选取源控制集;
在目标数据集Q,根据源控制集进行色彩相似控制集的选取;
对源控制集和色彩相似控制集进行LCP准则求取最佳变换矩阵,并且利用最佳变换矩阵对源数据集P和目标数据集Q中的点云进行拼接,获取三维信息;
其中,所述源数据集P和目标数据集Q是不同视角下深度数据信息。
进一步地,所述S91的步骤,具体是:
随机在源数据集P中抽取共面的四点{s1,s2,s3,s4},其中{s1,s2,s3,s4}满足:
其中,两数据模型P和Q之间的重叠率为ω,源数据集P的平均点云间距davg,最大点云距离dmax,以及距离阈值Δ=davg*a(a=0.1);
求取直线s1s3与s2s4的近似交点es,至此得到一个共面五点集:Fs={s1,s2,s3,s4,es};
利用此共面五点集的以下四个特征值来表述此共面五点集:
①对角线单比②对角线单比③两邻边之间的夹角④Fs中每个点对应的颜色值在RGB颜色空间的颜色向量:
共面五点集Fs以及其对应的颜色控制集Cs共同组成源控制集S={Fs,Cs}。
进一步地,所述S92的步骤,具体是:
在目标数据集Q中搜寻所有特征值满足公式(5)-(8)的共面五点集Ft={t1,t2,t3,t4,et};
DC≤C (8)
其中β=π/4,代表共面五点集的之间的角度误差阈值;
et根据共面四边形t1t2t3t4重新计算出来的交点;
C为点云颜色距离阈值是源控制集与相似控制集之间色差的衡量;
相似控制集中每个共面五点集都有对应的颜色向量集合
所有满足公式(8)的Ct与其对应的共面五点集Ft组成色彩相似控制集T={T1,T2,...,Tn}。
进一步地,所述S93的步骤,具体是:
将色彩相似控制集Ti={T1,i,T2,i,...,Tm,i,...}与源控制集Si={Fs,i,Cs,i}利用最小二乘法求得一个旋转矩阵Rm,i以及一个平移矩阵tm,i;其中,m表示色彩相似控制集中的某一个;i表示次数;
根据该变换关系p'm,i=Rm,i*p+tm,i,将源数据集P中的一点p变换到目标集Q的坐标下;
在目标集Q中寻找与p'm,i距离最小的点,该点与p'm,i的距离即为p'm,i与目标点集Q的欧氏距离d(p'm,i,Q);
若d(p'm,i,Q)≤Δ,则点p在最大一致集内,LCPm,i的数量增加1;
LCPm,i数量最大时,对应的旋转矩阵Rm,i和平移矩阵tm,i为最佳变换矩阵;
根据最佳变换矩阵对应的源数据集P和目标数据集Q中点云进行拼接,获取三维信息。
进一步地,所述S4的步骤,具体是:
角点的三维坐标(xd,yd,zd)
zd=Dp
其中,(xo,yo)为光心在图像上的投影点,dx,dy为Kinect摄像机1的像素间距,Dp为其对应的深度值,而Kinect摄像机1的焦距为f,利用角点的三维坐标拟合出一个平面方程;
设平面方程为aX+bY+cZ=d(10),可以通过最小二乘法求得最优的方程系数a,b,c,d,从而拟合出该平面。
进一步地,所述S5的步骤,具体是:
假设图像坐标上的某一点角点H,其图像坐标为(xh,yh),(xo,yo)为光心在图像上的投影点,dx,dy为角点H与Kinect摄像机和TOF摄像机的像素间距,Dh为其对应的深度值,而摄像机的焦距为f,则光心和点H连线的直线方程为:
直线方程与平面方程的交点即角点的实际三维坐标;
根据以上公式(10)和(11),得出交点(x,y,z)的实际三维坐标为:
至此取得到所有角点的实际三维坐标集H1={h1,h2,...hn},同理,另一台摄像机得到的角点实际三维坐标集H2={h1,h2,...hn}。。
进一步地,所述S6的步骤,具体是:
求取TOF摄像机的深度数据集T与Kinect摄像机深度数据集K之间的最小二乘转换矩阵(R1,t1)。即:
本发明所述的基于异构深度摄像机的三维信息获取装置,包括处理器,分别与所述处理器连接的Kinect摄像机和TOF摄像机;所述Kinect摄像机和TOF摄像机将采集的深度图像信息传输至所述处理器,所述处理器将所述深度图像信息中的低分辨率高精度的深度图像信息匹配到高分辨率低精度的深度图像信息中,获取高分辨率高精度的深度图。
进一步地,所述Kinect摄像机包括分别与所述处理器连接的用于发射红外波段光源的红外发射器、用于采集彩色图像信息的彩色摄像头和用于采集深度图像信息的深度摄像头;所述处理器将所述彩色图像信息匹配至深度图像信息,并且进行点云配准,获取三维信息。
与现有技术相比,本发明的有益效果是:
本发明是基于设计TOF传感器与结构光Kinect传感器相结合的异构摄像机系统,它提供了一种基于深度信息的摄像机标定方法。该系统可以结合两者的深度信息,然后通过把低分辨率的深度图匹配到高分辨率的深度图中,从而获取高分辨率的精准深度图。
同时,因为Kinect摄像机是一个包含彩色摄像头与深度摄像头组成的固定系统,而且其自带了这两个摄像头进行标定的方法,因此利用Kinect的深度摄像头作为中间体,将彩色摄像头的数据匹配到TOF摄像机的深度数据中,进行求取内参、提取可靠的深度信息、拟合标定板平面坐标、恢复角点三维坐标集、求取最小二乘转换矩阵、彩色信息和深度信息融合、点云配准操作,最终获取高分辨率的精准深度图。
具体来讲,本发明所述的基于异构深度摄像机的三维信息获取方法及其装置,具有如下特点:
1.本发明所述的基于异构深度摄像机的三维信息获取方法中的彩色数据信息与深度数据信息的匹配过程中计算量少,而且不需要额外的机械设备进行摄像机之间的标定;
2.本发明所述的基于异构深度摄像机的三维信息获取方法与现有的类似算法相比,提高了配准的准确度和减少了计算量;
3.本发明所述的基于异构深度摄像机的三维信息获取方法中的标定方法简单,只需要一次标定即可。
4.传统的立体匹配方法会受纹理和光照强度的影响,而本发明所述的基于异构深度摄像机的三维信息获取装置中的Kinect摄像机具有发射的光源在红外波段,因此基本不受光照影响;
5.由于Kinect摄像机的价格低廉,相较于以前的TOF摄像机与多个普通彩色CCD摄像机结合的系统,TOF摄像机与Kinect摄像机系统的性价比更高。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细的说明,其中:
图1是本发明所述的基于异构深度摄像机的三维信息获取方法的流程示意图;
图2是本发明所述的基于异构深度摄像机的三维信息获取方法中点云配准步骤的流程示意图;
图3是本发明所述的基于异构深度摄像机的三维信息获取的结构示意图。
图中:
1:Kinect摄像机
11:红外发射器 12:彩色摄像头 13:深度摄像头
2:TOF摄像机
3:处理器
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
如图1~图3所示,本发明所述的基于异构深度摄像机的三维信息获取方法,在保证Kinect摄像机深度图分辨率不变的情况下,利用TOF摄像机获取的精准深度图去提高Kinect摄像机深度信息的可靠性,从而获取高分辨率的精准深度图。
在获取高分辨率的精准深度图过程中,针对现有三维点云全局配准过程中冗余控制集过多而导致配准速度低下,以及控制集选取不当导致配准精度难以保证的问题,引入颜色共面五点集和点云颜色距离的概念,提出基于点间颜色距离的三维点云自动配准算法。
为了实现上述目的,本发明所述的基于异构深度摄像机的三维信息获取装置,采用了一个Kinect摄像机1与一个TOF摄像机2,即设计了两个深度摄像机采集各自具有特点的图像信息,Kinect摄像机1具有高分辨率,TOF摄像机2具有深度信息精度高。然后通过处理器3进行标定,融合后获取高分辨率的精准深度图。同时,彩色摄像头12采集的彩色信息匹配到深度信息上的方法,再结合色彩信息的点云配准算法,共同完成获取物体的三维信息。
在本发明所述的实施例中,所述结构光深度Kinect摄像机1采用的是微软公司的KinectXBOX360,该摄像机可以提供最高分辨率为640*480的深度图,最高分辨率为1280*960的彩色图;TOF摄像机2采用的是MESA公司的SR4000,该摄像机可以提供分辨率为176*144的深度图和强度图(灰度图),调制频率可以是29MHZ,30MHZ,31MHZ。
如图1所示,本发明所述的基于异构深度摄像机的三维信息获取方法,步骤如下:
S1:采集深度图:在共同摄像视野内,把标定板放在最少在10个不同的位置,每个位置上分别利用Kinect摄像机1和TOF摄像机2拍摄至少1张图片;
S2:根据步骤S1拍摄的图片,分别求取Kinect摄像机1和TOF摄像机2的内部参数;
其中Kinect摄像机1的深度图和彩色图的分辨率均为320*240;为了不干扰Kinect摄像机1发射的结构光,设定TOF摄像机2选用的SR4000的光频率为31MHZ。
所述Kinect摄像机1和TOF摄像机2求取内部参数的方式一样,在此则只以Kinect摄像机的求取做具体说明,具体如下:
Kinect摄像机1根据步骤S1拍摄标定板的图片,把标定板放在至少10个不同的位置上,每个位置上拍摄一张照片,同时,标定板的位置范围应尽量全面的覆盖整个摄像机的视野。其中,标定板为正面有标定的棋盘格,每个棋格均为边长为31.4mm的正方形。
本实施例中标定板分别放在10个不同的位置上,并且在每个不同的位置时,采用Kinect摄像机1对标定板进行1次信息采集。最后获取到Kinect摄像机1产生的深度图和彩色图各10张(如果是TOF摄像机2,即SR4000产生的是深度图和强度图各10张)。
然后,利用Matlab自带的Camera calibrator对Kinect摄像机1和TOF摄像机2进行自标定,具体是:
选取Kinect摄像机1采集到的一组10张深度图作为输入,然后手动输入标定板中棋格的边长,Camera calibrator会自动检测出强度图中的Harris角点,并且可以计算出摄像机的内参A以及每一幅图像对应的外参(R,t),A的具体表达式如下:
其中α=f/dx,β=f/dy,f为摄像机的焦距,因为像素不是规规矩矩的正方形,γ代表像素点在x,y方向上尺度的偏差。
图像坐标系,摄像机坐标系以及三维坐标系的关系采用以下的表达式表示:
其中表示图像坐标系中像素点的齐次坐标(u,v,1),表示三维坐标系中点的齐次坐标(X,Y,Z,1),R表示旋转矩阵、t表示平移矩阵、S表示尺度因子、A表示摄像机的内参数。
S3:根据步骤S1拍摄的图片,通过以下公式选取深度值可靠的信息:
将所述拍摄的图作阈值处理,然后取反,获得标定板上所有深度值可靠的点;
利用如下公式:
其中D表示深度值,I表示强度值,T代表用大津法求得的阈值T。
S4:根据所述可靠的深度信息,分别对Kinect摄像机和TOF摄像机拟合各自的标定板平面坐标;
其中,对Kinect摄像机和TOF摄像机的拟合方法一样,在此只以Kinect摄像机为例,该步骤具体为:
由于噪声及深度摄像机本身的精度影响,原本应在同一平面上的各个点会有微小的偏离,为了求得最真实的深度值,结合S3中去除深度值不可靠的点,然后利用剩下角点的深度Dp可得角点的三维坐标(xd,yd,zd)
zd=Dp
其中,(xo,yo)为光心在图像上的投影点,dx,dy为Kinect摄像机1的像素间距,Dp为其对应的深度值,而Kinect摄像机1的焦距为f,利用角点的三维坐标拟合出一个平面方程。
设平面方程为aX+bY+cZ=d,可以通过最小二乘法求得最优的方程系数a,b,c,d,从而拟合出该平面。
S5:在结合所述内部参数,在各自拟合的标定板平面坐标下,恢复Kinect摄像机和TOF摄像机的角点实际三维坐标集
同理,对Kinect摄像机和TOF摄像机的恢复方法一样,在此只以Kinect摄像机为例,该步骤也具体为:
求取角点的实际三维坐标:
假设图像坐标上的某一点角点H,则光心和点H连线的直线方程为:
其中:H点的图像坐标为(xh,yh),(xo,yo)为光心在图像上的投影点,dx,dy为Kinect摄像机1的像素间距,Dh为其对应的深度值,而摄像机的焦距为f。
此直线方程与步骤S4中求得的标定板的平面方程求取交点近似解,则得角点H的实际三维坐标:
至此取得到所有角点的实际三维坐标集H1={h1,h2,...hn},同理,另一台摄像机得到的角点实际三维坐标集H2={h1,h2,...hn}。
S6:根据Kinect摄像机和TOF摄像机的角点实际三维坐标集,求取二者之间的最小二乘转换矩阵;
利用SVD奇异值求解的方法求取TOF摄像机2的深度数据集T与Kinect摄像机1的深度数据集K之间的最小二乘转换矩阵(R1,t1)。即:
S7:根据最小二乘转换矩阵对Kinect摄像机和TOF摄像机采集的可靠深度信息进行的坐标转换。
至此,完成了SR400的TOF摄像机2的深度数据通过转换矩阵(R1,t1)投影到Kinect摄像机1获得的深度数据中。即:
TK=R1*T+t1
TK即为Kinect摄像机1视野下TOF摄像机2的深度数据。
S8:将Kinect摄像机采集的彩色信息与深度融合信息进行匹配,实现深度信息与彩色信息的融合;
利用微软公司的Kinect SDK for Windows可以进行Kinect摄像机1内置彩色摄像头12获得的数据与深度摄像头13之间的匹配,假设利用该工具获得的彩色摄像头12到深度数据的矩阵为(R2,t2).所述彩色摄像头12中的坐标点集为C={c1,c2,...cn},所述深度摄像头13中的坐标点集为K={k1,k2,...kn},TOF摄像机2中的坐标点集为F={f1,f2,...fn},则通过以下公式将彩色数据与TOF的深度数据信息相融合:
FK=R1*F+t1
CK=R2*C+t2
其中CK为深度摄像头13视野下彩色摄像头12的数据,FK为深度摄像头13视野下TOF摄像机2的深度数据。
S9:将匹配后的图像信息,基于点间空间距离进行点云配准,获取三维信息。
该步骤有具体包括如下步骤:
S91:在源数据集P选取源控制集;
随机在源数据集P中抽取共面的四点{s1,s2,s3,s4},其中{s1,s2,s3,s4}满足:
其中,源数据集P和目标数据集Q之间的重叠率为ω,源数据集P的平均点云间距davg,最大点云距离dmax,以及距离阈值Δ=davg*a(a=0.1);
求取直线s1s3与s2s4的近似交点es,至此得到一个共面五点集Fs={s1,s2,s3,s4,es};
利用此共面五点集的以下四个特征值来表述此共面五点集:
①对角线单比②对角线单比③两邻边之间的夹角④Fs中每个点对应的颜色值在RGB颜色空间的颜色向量共面五点集Fs以及其对应的颜色控制集Cs共同组成源控制集S={Fs,Cs}。
S92:对色彩相似控制集的选取;
在目标数据集Q中搜寻所有特征值满足公式(6)-(9)的共面五点集Ft={t1,t2,t3,t4,et}:
DC≤C (8)
其中β=π/4,代表共面五点集的之间的角度误差阈值;
et根据共面四边形t1t2t3t4重新计算出来的交点;
相似控制集中每个共面五点集都有对应的颜色向量集合其中C为点云颜色距离阈值是源控制集与相似控制集之间色差的衡量。
所有满足公式(8)的Ct与其对应的共面五点集Ft组成相似控制集T={T1,T2,...,Tn}(如T1={Ft,1,Ct,1},以此类推)。
需要说明的是:每一个源控制集通常对应多个相似控制集,本文利用K-d树加速解决选取相似控制集时的最近邻问题,从而减少了控制集数量,也就降低算法的时间复杂度。
S93:对源控制集和色彩相似控制集进行LCP准则求取最佳变换矩阵,并且利用最佳变换矩阵对源数据集P和目标数据集Q中的点云拼接,获取三维信息;其中,LCP即最大一致集,是指在一定误差范围内能满足一定条件的点的集合。
将色彩相似控制集Ti={T1,i,T2,i,...,Tm,i,...}与源控制集Si={Fs,i,Cs,i}利用最小二乘法求得一个旋转矩阵Rm,i以及一个平移矩阵tm,i;其中,m表示色彩相似控制集中的某一个;i表示次数;
根据该变换关系p'm,i=Rm,i*p+tm,i,将源数据集P中的一点p变换到目标集Q的坐标下;
在目标集Q中寻找与p'm,i距离最小的点,该点与p'm,i的距离即为p'm,i与目标点集Q的欧氏距离d(p'm,i,Q);
若d(p'm,i,Q)≤Δ,则点p在最大一致集内,LCPm,i的数量增加1;
LCPm,i数量最大时,对应的旋转矩阵Rm,i和平移矩阵tm,i为最佳变换矩阵,然后对最佳变化矩阵所对应的源数据集P和目标数据集Q中的数据进行拼接,获取三维信息。
本发明所述的基于异构深度摄像机的三维信息获取装置,包括处理器3,分别与所述处理器3连接的Kinect摄像机1和TOF摄像机2,所述Kinect摄像机1和TOF摄像机2将采集的深度图像信息传输至所述处理器3,所述处理器3将所述深度图像信息中的低分辨率高精度的深度图像信息匹配到高分辨率低精度的深度图像信息中,获取高分辨率高精度的深度图。
具体地,所述Kinect摄像机1包括分别与所述处理器3连接的用于发射红外波段光源的红外发射器11、用于采集彩色图像信息的彩色摄像头12和用于采集深度图像信息的深度摄像头13;所述处理器3将所述彩色图像信息匹配至深度图像信息,并且进行点云配准,获取三维信息。
其中,所述红外发射器11可以提供所需的红外波段,避免了现有匹配方法中容易受纹理和光照强度影响的问题。
同时,对于整个基于异构深度摄像机的三维信息获取装置而言,实际采用了3个摄像头(彩色摄像头12、深度摄像头13和TOF摄像机2的摄像头)的数据,但是由于彩色摄像头12和深度摄像头13的位置是固定的,所以只需要进行一次对Kinect摄像机1与TOF摄像机2之间深度信息的标定,对于整个运算而言,则相对更为简单。
同时,本发明所述的基于异构深度摄像机的三维信息获取方法及其装置的其他内容参见现有技术,在此不再赘述。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,故凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (10)

1.一种基于异构深度摄像机的三维信息获取方法,其特征在于,包括如下步骤:
S1、在共同摄像视野内,把标定板放在最少在10个不同的位置,每个位置上分别利用Kinect摄像机和TOF摄像机拍摄至少1张图片;
S2、根据Kinect摄像机和TOF摄像机各自拍摄的图片,分别求取Kinect摄像机和TOF摄像机的内部参数其中,其中α=f/dx,β=f/dy,f为摄像机的焦距,γ代表像素点在x,y方向上尺度的偏差;
S3、根据所述拍摄的图片,根据公式提取可靠的深度信息,
其中D表示深度值,I表示强度值,T代表用大津法求得的阈值T;
S4、根据所述可靠的深度信息,分别对Kinect摄像机和TOF摄像机拟合各自的标定板平面坐标;
S5、结合所述内部参数,在各自拟合的标定板平面坐标下,恢复Kinect摄像机和TOF摄像机的角点实际三维坐标集;
S6、根据Kinect摄像机和TOF摄像机的角点实际三维坐标集,求取二者之间的最小二乘转换矩阵;
S7、根据最小二乘转换矩阵对Kinect摄像机和TOF摄像机采集的可靠深度信息进行的坐标转换,得到深度融合信息;
S8、将Kinect摄像机采集的彩色信息与深度融合信息进行匹配;
S9、将匹配后的图像信息,基于点间空间距离进行点云配准,获取三维信息。
2.根据权利要求1所述的基于异构深度摄像机的三维信息获取方法,其特征在于:
所述S9的步骤,具体为包括:
S91:在源数据集P选取源控制集;
S92:在目标数据集Q中,根据源控制集进行色彩相似控制集的选取;
S93:对源控制集P和色彩相似控制集进行LCP准则求取最佳变换矩阵,并且利用最佳变换矩阵对源数据集P和目标数据集Q中的点云拼接,获取三维信息;
其中,所述源数据集P和目标数据集Q是不同视角下的深度融合信息。
3.根据权利要求2所述的基于异构深度摄像机的三维信息获取方法,其特征在于:
所述S91步骤,具体是:
随机在源数据集P中抽取共面的四点{s1,s2,s3,s4},其中{s1,s2,s3,s4}满足:
其中,源数据集P和目标数据集Q之间的重叠率为ω,源数据集P的平均点云间距davg,最大点云距离dmax,以及距离阈值Δ=davg*a(a=0.1);
求取直线s1s3与s2s4的近似交点es,得到一个共面五点集:Fs={s1,s2,s3,s4,es};
利用此共面五点集的以下四个特征值来表述此共面五点集:
①对角线单比②对角线单比③两邻边之间的夹角④Fs中每个点对应的颜色值在RGB颜色空间的颜色向量:
共面五点集Fs以及其对应的颜色控制集Cs共同组成源控制集S={Fs,Cs}。
4.根据权利要求3所述的基于异构深度摄像机的三维信息获取方法,其特征在于:
所述S92的步骤,具体是:
在目标数据集Q中搜寻所有特征值满足公式(5)-(8)的共面五点集Ft={t1,t2,t3,t4,et};
DC≤C (8)
其中β=π/4,代表共面五点集的之间的角度误差阈值;
et根据共面四边形t1t2t3t4重新计算出来的交点;
C为点云颜色距离阈值是源控制集与相似控制集之间色差的衡量;
相似控制集中每个共面五点集都有对应的颜色向量集合
所有满足公式(8)的Ct与其对应的共面五点集Ft组成色彩相似控制集T={T1,T2,...,Tn}。
5.根据权利要求4所述的基于异构深度摄像机的三维信息获取方法,其特征在于:
所述S93的步骤,具体是:
将色彩相似控制集Ti={T1,i,T2,i,...,Tm,i,...}与源控制集Si={Fs,i,Cs,i}利用最小二乘法求得一个旋转矩阵Rm,i以及一个平移矩阵tm,i;其中,m表示色彩相似控制集中的某一个;i表示次数;
根据该变换关系p'm,i=Rm,i*p+tm,i,将源数据集P中的一点p变换到目标集Q的坐标下;
在目标集Q中寻找与p'm,i距离最小的点,该点与p'm,i的距离即为p'm,i与目标点集Q的欧氏距离d(p'm,i,Q);
若d(p'm,i,Q)≤Δ,则点p在最大一致集内,LCPm,i的数量增加1;
LCPm,i数量最大时,对应的旋转矩阵Rm,i和平移矩阵tm,i为最佳变换矩阵;
根据最佳变换矩阵对源数据集P和目标数据集Q中点云进行拼接,获取三维信息。
6.根据权利要求1所述的基于异构深度摄像机的三维信息获取方法,其特征在于:
所述S4的步骤,具体是:
角点的三维坐标(xd,yd,zd)
x d = ( x u - x o ) * d x * D p f
y d = ( y u - y o ) * d y * D p f
zd=Dp
其中,(xo,yo)为光心在图像上的投影点,dx,dy为Kinect摄像机1的像素间距,Dp为其对应的深度值,而Kinect摄像机1的焦距为f,利用角点的三维坐标拟合出一个平面方程;
设平面方程为aX+bY+cZ=d(10),可以通过最小二乘法求得最优的方程系数a,b,c,d,从而拟合出该平面。
7.根据权利要求6所述的基于异构深度摄像机的三维信息获取方法,其特征在于:
所述S5的步骤,具体是:
假设图像坐标上的某一点角点H,其图像坐标为(xh,yh),(xo,yo)为光心在图像上的投影点,dx,dy为角点H与Kinect摄像机和TOF摄像机的像素间距,Dh为其对应的深度值,而摄像机的焦距为f,则光心和点H连线的直线方程为:
X ( x h - x o ) = Y ( y h - y o ) = Z f - - - ( 11 ) ;
直线方程与平面方程的交点即角点的实际三维坐标;
根据以上公式(10)和(11),得出角点(x,y,z)的实际三维坐标为:
x = d * ( x h - x o ) a * ( x h - x o ) + b * ( y h - y o ) + c * f ;
y = d * ( y h - y o ) a * ( x h - x o ) + b * ( y h - y o ) + c * f ;
z = d * f a * ( x h - x o ) + b * ( y h - y o ) + c * f ;
至此取得到所有角点的实际三维坐标集H1={h1,h2,...hn},同理,另一台摄像机得到的角点实际三维坐标集H2={h1,h2,...hn}。
8.根据权利要求1所述的基于异构深度摄像机的三维信息获取方法,其特征在于:
所述S6的步骤,具体是:
利用SVD奇异值求解的方法求取TOF摄像机2的深度数据集T与Kinect摄像机1的深度数据集K之间的最小二乘转换矩阵(R1,t1),即:
( R 1 , t 1 ) = arg min ( R 1 , t 1 ) Σ i = 1 n | | R 1 * H 1 + t 1 - H 2 | | - - - ( 12 ) ;
其中,H1、H2分别为Kinect摄像机和TOF摄像机对应的角点的实际三维坐标集。
9.一种基于异构深度摄像机的三维信息获取装置,其特征在于:包括处理器,分别与所述处理器连接的Kinect摄像机和TOF摄像机;
所述Kinect摄像机和TOF摄像机将采集的深度图像信息传输至所述处理器,所述处理器将所述深度图像信息中的低分辨率高精度的深度图像信息匹配到高分辨率低精度的深度图像信息中,获取高分辨率高精度的深度图。
10.根据权利要求9所述的基于异构深度摄像机的三维信息获取装置,其特征在于:
所述Kinect摄像机包括分别与所述处理器连接的用于发射红外波段光源的红外发射器、用于采集彩色图像信息的彩色摄像头和用于采集深度图像信息的深度摄像头;
所述处理器将所述彩色图像信息匹配至深度图像信息,并且进行点云配准,获取三维信息。
CN201611050176.3A 2016-11-24 2016-11-24 基于异构深度摄像机的三维信息获取方法及其装置 Expired - Fee Related CN106780618B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611050176.3A CN106780618B (zh) 2016-11-24 2016-11-24 基于异构深度摄像机的三维信息获取方法及其装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611050176.3A CN106780618B (zh) 2016-11-24 2016-11-24 基于异构深度摄像机的三维信息获取方法及其装置

Publications (2)

Publication Number Publication Date
CN106780618A true CN106780618A (zh) 2017-05-31
CN106780618B CN106780618B (zh) 2020-11-03

Family

ID=58912883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611050176.3A Expired - Fee Related CN106780618B (zh) 2016-11-24 2016-11-24 基于异构深度摄像机的三维信息获取方法及其装置

Country Status (1)

Country Link
CN (1) CN106780618B (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107091643A (zh) * 2017-06-07 2017-08-25 旗瀚科技有限公司 一种基于多台3d结构光相机拼接的室内导航方法
CN107480612A (zh) * 2017-07-31 2017-12-15 广东欧珀移动通信有限公司 人物动作的识别方法、装置和终端设备
CN107507235A (zh) * 2017-08-31 2017-12-22 山东大学 一种基于rgb‑d设备采集的彩色图像和深度图像的配准方法
CN108038453A (zh) * 2017-12-15 2018-05-15 罗派智能控制技术(上海)有限公司 一种基于rgbd的汽车驾驶员状态检测和识别系统
CN108470323A (zh) * 2018-03-13 2018-08-31 京东方科技集团股份有限公司 一种图像拼接方法、计算机设备及显示装置
CN108845332A (zh) * 2018-07-04 2018-11-20 歌尔股份有限公司 基于tof模组的深度信息测量方法及装置
CN109272555A (zh) * 2018-08-13 2019-01-25 长安大学 一种rgb-d相机的外部参数获得及标定方法
CN109377551A (zh) * 2018-10-16 2019-02-22 北京旷视科技有限公司 一种三维人脸重建方法、装置及其存储介质
WO2019041116A1 (zh) * 2017-08-29 2019-03-07 深圳市汇顶科技股份有限公司 光学测距方法以及光学测距装置
CN109767464A (zh) * 2019-01-11 2019-05-17 西南交通大学 一种低重叠率的点云配准方法
CN109886905A (zh) * 2019-01-25 2019-06-14 江苏大学 一种基于Kinect传感器的颜色深度融合的导航线提取识别方法
CN109949350A (zh) * 2019-03-11 2019-06-28 中国矿业大学(北京) 一种基于形态不变特征的多时相点云自动配准方法
CN110110614A (zh) * 2019-04-19 2019-08-09 江苏理工学院 一种基于3d相机的手势识别装置及方法
CN110189371A (zh) * 2019-05-20 2019-08-30 东南大学 一种基于tof深度相机的小鼠平衡状态判别装置及其方法
CN110930411A (zh) * 2019-11-20 2020-03-27 杭州光珀智能科技有限公司 一种基于深度相机的人体分割方法及系统
CN111654626A (zh) * 2020-06-05 2020-09-11 合肥泰禾光电科技股份有限公司 一种包含深度信息的高分辨率相机
CN111681282A (zh) * 2020-06-18 2020-09-18 浙江大华技术股份有限公司 一种栈板识别处理方法及装置
CN112734862A (zh) * 2021-02-10 2021-04-30 北京华捷艾米科技有限公司 深度图像的处理方法、装置、计算机可读介质以及设备
CN113096154A (zh) * 2020-01-08 2021-07-09 浙江光珀智能科技有限公司 一种基于斜装深度相机的目标检测与跟踪方法及系统
CN113312992A (zh) * 2021-05-18 2021-08-27 中山方显科技有限公司 一种基于多源传感器信息融合的动态物体感知及预测方法
CN117190911A (zh) * 2023-09-06 2023-12-08 中国铁建大桥工程局集团有限公司 一种基于三维激光扫描的钢桁架拱桥施工线形监测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101582165A (zh) * 2009-06-29 2009-11-18 浙江大学 基于灰度图像与空间深度数据的摄像机阵列标定算法
KR20120047482A (ko) * 2010-11-04 2012-05-14 삼성전자주식회사 평면 영역을 이용한 이종 카메라간 교정 방법 및 장치
CN103426200A (zh) * 2013-08-26 2013-12-04 天津大学 基于无人机航拍序列图像的树木三维重建方法
US20150103200A1 (en) * 2013-10-16 2015-04-16 Broadcom Corporation Heterogeneous mix of sensors and calibration thereof
US20160210753A1 (en) * 2012-10-17 2016-07-21 DotProduct LLC Handheld portable optical scanner and method of using
CN106097348A (zh) * 2016-06-13 2016-11-09 大连理工大学 一种三维激光点云与二维图像的融合方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101582165A (zh) * 2009-06-29 2009-11-18 浙江大学 基于灰度图像与空间深度数据的摄像机阵列标定算法
KR20120047482A (ko) * 2010-11-04 2012-05-14 삼성전자주식회사 평면 영역을 이용한 이종 카메라간 교정 방법 및 장치
US20160210753A1 (en) * 2012-10-17 2016-07-21 DotProduct LLC Handheld portable optical scanner and method of using
CN103426200A (zh) * 2013-08-26 2013-12-04 天津大学 基于无人机航拍序列图像的树木三维重建方法
US20150103200A1 (en) * 2013-10-16 2015-04-16 Broadcom Corporation Heterogeneous mix of sensors and calibration thereof
CN106097348A (zh) * 2016-06-13 2016-11-09 大连理工大学 一种三维激光点云与二维图像的融合方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
OMER RAJPUT等: "《2016 IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems (MFI)》", 21 September 2016 *
YI YANG等: "《2013 International Conference on Virtual Reality and Visualization》", 15 September 2013 *
王欢等: ""利用Kinect深度信息的三维点云配准方法研究"", 《计算机工程与应用》 *
袁艺天等: ""基于边缘校正的深度图像上采样后处理算法"", 《铁道学报》 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107091643A (zh) * 2017-06-07 2017-08-25 旗瀚科技有限公司 一种基于多台3d结构光相机拼接的室内导航方法
CN107480612A (zh) * 2017-07-31 2017-12-15 广东欧珀移动通信有限公司 人物动作的识别方法、装置和终端设备
US10908290B2 (en) 2017-08-29 2021-02-02 Shenzhen GOODIX Technology Co., Ltd. Optical distance measuring method and optical distance measuring device
WO2019041116A1 (zh) * 2017-08-29 2019-03-07 深圳市汇顶科技股份有限公司 光学测距方法以及光学测距装置
CN107507235A (zh) * 2017-08-31 2017-12-22 山东大学 一种基于rgb‑d设备采集的彩色图像和深度图像的配准方法
CN107507235B (zh) * 2017-08-31 2020-11-10 山东大学 一种基于rgb-d设备采集的彩色图像和深度图像的配准方法
CN108038453A (zh) * 2017-12-15 2018-05-15 罗派智能控制技术(上海)有限公司 一种基于rgbd的汽车驾驶员状态检测和识别系统
US11308579B2 (en) 2018-03-13 2022-04-19 Boe Technology Group Co., Ltd. Image stitching method, image stitching apparatus, display apparatus, and computer product
CN108470323A (zh) * 2018-03-13 2018-08-31 京东方科技集团股份有限公司 一种图像拼接方法、计算机设备及显示装置
CN108845332A (zh) * 2018-07-04 2018-11-20 歌尔股份有限公司 基于tof模组的深度信息测量方法及装置
CN108845332B (zh) * 2018-07-04 2020-11-20 歌尔光学科技有限公司 基于tof模组的深度信息测量方法及装置
CN109272555A (zh) * 2018-08-13 2019-01-25 长安大学 一种rgb-d相机的外部参数获得及标定方法
CN109272555B (zh) * 2018-08-13 2021-07-06 长安大学 一种rgb-d相机的外部参数获得及标定方法
CN109377551A (zh) * 2018-10-16 2019-02-22 北京旷视科技有限公司 一种三维人脸重建方法、装置及其存储介质
CN109377551B (zh) * 2018-10-16 2023-06-27 北京旷视科技有限公司 一种三维人脸重建方法、装置及其存储介质
CN109767464A (zh) * 2019-01-11 2019-05-17 西南交通大学 一种低重叠率的点云配准方法
CN109767464B (zh) * 2019-01-11 2023-03-28 西南交通大学 一种低重叠率的点云配准方法
CN109886905A (zh) * 2019-01-25 2019-06-14 江苏大学 一种基于Kinect传感器的颜色深度融合的导航线提取识别方法
CN109949350A (zh) * 2019-03-11 2019-06-28 中国矿业大学(北京) 一种基于形态不变特征的多时相点云自动配准方法
CN110110614A (zh) * 2019-04-19 2019-08-09 江苏理工学院 一种基于3d相机的手势识别装置及方法
CN110189371B (zh) * 2019-05-20 2023-06-30 东南大学 一种基于tof深度相机的小鼠平衡状态判别装置及其方法
CN110189371A (zh) * 2019-05-20 2019-08-30 东南大学 一种基于tof深度相机的小鼠平衡状态判别装置及其方法
CN110930411B (zh) * 2019-11-20 2023-04-28 浙江光珀智能科技有限公司 一种基于深度相机的人体分割方法及系统
CN110930411A (zh) * 2019-11-20 2020-03-27 杭州光珀智能科技有限公司 一种基于深度相机的人体分割方法及系统
CN113096154A (zh) * 2020-01-08 2021-07-09 浙江光珀智能科技有限公司 一种基于斜装深度相机的目标检测与跟踪方法及系统
CN111654626A (zh) * 2020-06-05 2020-09-11 合肥泰禾光电科技股份有限公司 一种包含深度信息的高分辨率相机
CN111681282A (zh) * 2020-06-18 2020-09-18 浙江大华技术股份有限公司 一种栈板识别处理方法及装置
CN112734862A (zh) * 2021-02-10 2021-04-30 北京华捷艾米科技有限公司 深度图像的处理方法、装置、计算机可读介质以及设备
CN113312992A (zh) * 2021-05-18 2021-08-27 中山方显科技有限公司 一种基于多源传感器信息融合的动态物体感知及预测方法
CN117190911A (zh) * 2023-09-06 2023-12-08 中国铁建大桥工程局集团有限公司 一种基于三维激光扫描的钢桁架拱桥施工线形监测方法

Also Published As

Publication number Publication date
CN106780618B (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
CN106780618A (zh) 基于异构深度摄像机的三维信息获取方法及其装置
CN106097348B (zh) 一种三维激光点云与二维图像的融合方法
CN108151671B (zh) 一种三维数字成像传感器、三维扫描系统及其扫描方法
Zanuttigh et al. Time-of-flight and structured light depth cameras
CN109754426B (zh) 一种用于摄像标定参数验证的方法、系统和装置
Falcao et al. Plane-based calibration of a projector-camera system
EP2847741B1 (en) Camera scene fitting of real world scenes for camera pose determination
US10447999B2 (en) Alignment of images of a three-dimensional object
CN105654547B (zh) 三维重建方法
CN109559349A (zh) 一种用于标定的方法和装置
CN108717728A (zh) 一种基于多视角深度摄像机的三维重建装置及方法
CN109920007A (zh) 基于多光谱光度立体与激光扫描的三维成像装置及方法
CN106548489A (zh) 一种深度图像与彩色图像的配准方法、三维图像采集装置
CN107274380B (zh) 一种无人机多光谱影像快速拼接方法
CN109978949B (zh) 基于计算机视觉的农作物识别与特征点三维坐标提取的一种方法
CN106595702B (zh) 一种基于天文标定的多传感器空间配准方法
CN107995434A (zh) 图像获取方法、电子装置和计算机可读存储介质
Khoshelham et al. Generation and weighting of 3D point correspondences for improved registration of RGB-D data
CN108662987A (zh) 2d摄像式激光测量头的标定方法
CN102156986A (zh) 近红外摄像机的标定方法
WO2020024684A1 (zh) 三维场景建模方法及装置、电子装置、可读存储介质及计算机设备
CN106546230B (zh) 定位点布置方法及装置、测定定位点三维坐标的方法及设备
CN107680039A (zh) 一种基于白光扫描仪的点云拼接方法及系统
CN110189347A (zh) 一种测量物体体积的方法及终端
WO2021238070A1 (zh) 三维图像的生成方法、装置及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201103