CN105069789B - 基于编码网格模板的结构光动态场景深度获取方法 - Google Patents
基于编码网格模板的结构光动态场景深度获取方法 Download PDFInfo
- Publication number
- CN105069789B CN105069789B CN201510478113.7A CN201510478113A CN105069789B CN 105069789 B CN105069789 B CN 105069789B CN 201510478113 A CN201510478113 A CN 201510478113A CN 105069789 B CN105069789 B CN 105069789B
- Authority
- CN
- China
- Prior art keywords
- vertical line
- line
- image
- pixel
- bruijn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种基于编码网格模板的结构光动态场景深度获取方法,主要解决现有技术测量深度精度低,测量效果易受测量场景影响的问题。其实现步骤为:设计由2元3次De Bruijn序列编码的二值网格模板;通过二值网格模板分别获取参考平面图和变形网格图像;分别对变形网格图像和参考平面图进行线提取操作,得到网格图像的折线图与竖线图和参考平面图的折线图与竖线图;分别对变形网格图像和参考平面图的竖线图进行解码,得到对应的竖线序号;根据竖线序号,得到变形网格图像上的像素点在参考平面图中的匹配点;根据三角测距原理,计算竖线中每一点的深度值。本发明的测量精度高,且对复杂场景的鲁棒性好,可用于动态三维场景的测量。
Description
技术领域
本发明属于图像处理技术领域,特别涉及结构光动态场景深度的获取方法,可用于三维重建或目标识别。
背景技术
随着计算机视觉和工业水平的发展,传统的二维图像已不能满足人们生产生活的需求。深度信息,反映了物体表面的三维信息,大大提高了人们认识和理解真实世界物体的复杂性的能力。深度信息在医学领域、文物重建、自动导航、人机交互等领域,均有广泛应用。如何能够从场景中快速、高效的获取三维场景中的深度信息已经成为当前研究的热点。
根据深度获取过程中是否需要对被测物体进行接触式测量,可以把深度获取方法分为接触式测量和非接触式测量两大类。
接触式测量,是通过接触物体表面测量其深度,所得深度数据精确性高,但接触式深度获取过程繁琐,只能获得少数点的深度信息,分辨率低,对硬件设备要求较高,应用范围有限,且直接接触物体表面会对物体产生一定的损害。
非接触式测量,不需要接触物体表面就能获取目标物体的深度信息,如激光雷达、光学成像测量等方法。由于非接触式测量具有测量速度快,采样点分辨率高等优点,目前已成为获取深度信息的一个重要方法。
在非接触式测量方法中根据测量过程中是否需要投射出探测信号,又可分为被动测量法深度获取和主动测量法深度获取两大类。被动测量法深度获取仅由环境光提供照明,不添加额外的光源,通过测量目标物体表面反射的辐射波来进行深度测量。常见的被动式测量方法有双目立体视觉法、离焦法和阴影法等方法。其中应用比较广泛的双目立体视觉法是通过模拟生物的视觉方式,获得物体不同角度的二维图像,在多幅图像中提取相应特征点进行匹配,已知成像设备之间的相对空间位置关系和焦距等内部参数的条件下,根据视差和三角测量原理计算深度数据。虽然被动式测量方法操作简便,容易实现,不需要额外光源,但对于无明显特征的物体,特征点不易提取,计算量大,图像匹配问题尚未得到很好的解决,匹配精度低,继而难以获得高精确的深度测量结果。
主动式深度获取在场景中额外添加可控光源对物体进行照明,并在物体表面发生形变,对形变信息进行处理可得到物体表面的深度数据。主动式测量方法主要有激光扫描法、飞行时间法和结构光法等。
激光扫描法,是激光技术的应用之一,运用激光测距原理,实现待测目标的深度测量。激光扫描法对物体逐点扫描,获得的深度数据具有较高的精度,但是激光测量法所用的设备价格昂贵,同时也耗费较长的时间,不能实时获取数据,因此只适用于静态场景的深度获取。
飞行时间法,其原理是通过计算接收到的光波的延时实现场景深度的求取。该方法原理简单,测量速度快,但为避免激光脉冲之间的干扰,采样点分布稀疏,得到的深度图分辨率和精度较低。
结构光法,其原理是利用投射设备将具有一定规律的结构光模板投射到被测目标表面,然后利用图像采集设备采集经过目标物体表面调制后的图像,利用三角测距原理以及图形处理技术计算出物体表面的深度数据信息。结构光法具有实现简单、测量速度快、精度高等特点,该方法目前已得到广泛应用。
根据结构光模板的编码方式,结构光法可分为基于时间编码和基于空间编码两种方法。基于时间编码方式需要向测量物体投射多帧不同的编码模板,图像采集设备相应地采集经过物体调制后的多帧编码图像。通过对获得的编码图像序列进行解码,得到被测物体的深度信息。基于时间编码方式编码解码原理简单,易于实现,采样密度大,所得深度数据精度高,但由于需要投射多幅编码模板,获取时间较长,实时性较差,因此不适用于动态场景。
基于空间编码方式,基于空间编码的方法将所有的编码信息压缩到一幅图中,因而只需投射一幅编码图案即可获得三维数据,适用于动态场景的检测。因为只需投射一幅编码模板,因此数据采集时间较短,实时性较好,可用于动态场景,但空间复杂度大,解码困难,测量误差较大。同时,空间编码方式易受物体表面反射率不一致及表面颜色不一致等问题的影响。
发明内容
本发明的目的在于针对已有技术的不足,提出一种基于编码网格模板的结构光动态场景深度获取方法,在不增加设备复杂性以及计算复杂性的情况下,减小测量误差,提高动态场景深度值的测量精度。
为实现上述目的,本发明的技术方案包括如下步骤:
(1)设计由2元3次De Bruijn序列编码的二值网格模板P;
(2)将二值网格模板P先投射到深度为D0的参考平面F上,获得参考平面图R;再投射到三维场景中,获得变形网格图像U;
(3)分别对变形网格图像U和参考平面图R进行线提取操作,分别得到变形网格图像U的折线图IHU、竖线图IVU、所有网格交点IU的坐标(xu,yu),和参考平面图R的折线图IHR、竖线图IVR;
(4)根据变形网格图像的折线图IHU,得到其竖线图IVU中每一条竖线VU的DeBruijn序列编码及解码序号NU;根据参考平面图的折线图IHR中的码值,得到其竖线图IVR中每一条竖线VR的De Bruijn序列编码及解码序号NR;
(5)根据变形网格图像U中竖线VU的序号,查找该竖线VU上像素点G在参考平面图R中对应的匹配点M;
(6)根据像素点G和匹配点M的坐标,利用三角测距原理,计算出像素点G的深度值D。
本发明与现有技术相比具有以下优点:
第一,本发明采用二值网格模板,可以降低环境光的干扰,减少场景中物体表面不同反射率对图像的影响,具有较强的鲁棒性。
第二,本发明模板只有黑白两种颜色,不受场景中颜色信息的影响,对于彩色场景可以获得高精度的深度测量结果。
第三,本发明采用De Bruijn序列编解码方式,降低了计算复杂度,提高了动态复杂场景的深度测量精度。
附图说明
图1为本发明的实现流程图;
图2为本发明中的二值网格模板图;
图3为本发明使用的深度测量系统示意图;
图4为本发明中线提取使用的结构单元图;
图5为本发明中的三角测距原理图。
具体实施方式
本发明是对现有结构光法空间编码方式的动态场景深度获取方法进行改进,以在不增加设备复杂性以及计算复杂度的情况下,提高获取动态场景深度的鲁棒性,提高了所获取深度的精度。
参照图1,本发明的实现步骤如下:
步骤1,设计由2元3次De Bruijn序列编码的二值网格模板P。
(1a)设计间隔为10像素,线宽为1像素的等间隔竖直线和等间隔水平线;
(1b)用竖直线和水平线构成10*10的图像单元,定义图像单元的主对角线方向的折线段编码为1,副对角线方向的折线段编码为0,并沿水平方向对每个图像单元按照2元3次De Bruijn序列的规律进行编码,即按00010111规律添加对应的折线段,即构成二值网格模板P,如图2所示。
所述2元3次De Bruijn序列,是按00010111为周期循环编码的一种编码方式,该编码可以按顺序循环生成8个3位二进制序列000,001,010,101,011,111,110,100,且一个编码周期内生成的3位二进制序列是唯一的,不会出现重复编码。
步骤2,根据二值网格模板P获取参考平面图R和变形网格图像U。
参照图3,本步骤的具体实现如下:
(2a)将投影仪T与摄像机C水平放置,并使两者光轴平行,将设计好的网格模板P经投影仪T投射到深度为D0的参考平面F上,用摄像机C记录,获得参考平面图R;
(2b)将设计好的网格模板P经投影仪T投射到三维场景中,由于场景中各点的深度不同,使得网格模板P发生变形,产生变形网格图像U,并用摄像机C记录获得变形网格图像U。
步骤3,分别对变形网格图像U和参考平面图R进行线提取操作。
目前已有的线提取方法有Canny算子、小波变换尺度边缘检测方法和梯度计算方法等,针对本方法中图像的线条具有一定的方向性,本步骤选择但不限于计算复杂度较低的梯度计算方法,其实现如下:
(3a)对变形网格图像U进行线提取操作:
(3a1)将变形网格图像U分成25×25大小的图像块,在每一个图像块中选取阈值TU,进行二值化操作,得到二值图像B;
(3a2)对二值图像B进行开操作,依次得到主对角线方向的折线条带图Sh1、副对角线方向的折线条带图Sh2和竖条带图Sv:
图4所示给出了三种结构单元,其中图4(a)为主对角线开操作结构单元,图4(b)为副对角线开操作结构单元,图4(c)为竖线开操作结构单元,利用图4(a)与二值图像B进行开操作,得到主对角线方向的折线条带图Sh1;利用图4(b)与二值图像B进行开操作,得到副对角线方向的折线条带图Sh2;利用图4(c)与二值图像B进行开操作,得到竖条带图Sv;
(3a3)沿水平方向求取变形网格图像U中的所有灰度极大值,将所有极大值像素点位置标为1,得到水平极值图Gv,再对竖条带图Sv和水平极值图Gv做按位与操作,得到竖线图IVU;
(3a4)将主对角线折线条带图Sh1和水平极值图Gv做按位与操作,得到主对角线方向折线图S1;将副对角线折线条带图Sh2和水平极值图Gv做按位与操作,得到副对角线方向折线图S2;对该S1和S2做按位或操作,得到折线图IHU;
(3a5)将竖线图IVU和折线图IHU做按位与操作,得到所有网格交点IU及其坐标(xu,yu);
(3b)对参考平面图R进行线提取操作:
(3b1)将参考平面图R分成25×25大小的图像块,在每一个图像块中选取阈值TR,进行二值化操作,得到二值图像BR;
(3b2)对二值图像BR进行开操作,依次得到主对角线方向的折线条带图Sr1、副对角线方向的折线条带图Sr2和竖条带图Srv,即利用4(a)与二值图像BR进行开操作,得到主对角线方向的折线条带图Sr1;利用图4(b)与二值图像BR进行开操作,得到副对角线方向的折线条带图Sr2;利用图4(c)与二值图像BR进行开操作,得到竖条带图Srv;
(3b3)沿水平方向求取参考平面图R中的所有灰度极大值,将所有极大值像素点位置标为1,得到水平极值图Grv,再对竖条带图Srv和水平极值图Grv做按位与操作,得到竖线图IVR;
(3b4)将主对角线折线条带图Sr1和水平极值图Grv做按位与操作,得到主对角线方向折线图R1;将副对角线折线条带图Sr2和水平极值图Grv做按位与操作,得到副对角线方向折线图R2;对该R1和R2做按位或操作,得到折线图IHR。
步骤4,对变形网格图像的竖线图IVU中竖线VU进行解码。
(4a)以变形网格图像的二值图像B中交点IU的图像横坐标xu为起点向左取7个像素,同时以该交点的图像纵坐标yu为中心向上、向下各取6个像素,得到7*13的变形左矩形图像块LU,对该变形左矩形图像块内像素值为1的像素点的纵坐标求均值得到平均纵坐标值ylu,比较yu与ylu的值,如果yu大于ylu,则该交点的De Bruijn序列编码的第一位u1为0,否则u1为1;
(4b)以该交点IU的图像横坐标xu为起点向右取7个像素,同时以该交点的图像纵坐标yu为中心向上、向下各取6个像素,得到7*13的变形右矩形图像块RU,对该变形右矩形图像块内像素值为1的像素点的纵坐标求均值得到平均纵坐标值ysu,比较yu与ysu的值,如果yu大于ysu,则该交点的De Bruijn序列编码的第二位u2为1,否则u2为0;
(4c)对同一条竖线VU上的交点IU的编码u1u2进行统计,选择出现次数最多的编码作为该竖线VU的De Bruijn序列编码的前两位ul1ul2;
(4d)对竖线图IVU中任意两条前后相邻的竖线VUi、VUi+1,把后一条竖线VUi+1的DeBruijn序列编码第二位ul2'数值赋给前一条竖线VUi的De Bruijn序列编码第三位ul3,得到竖线VUi的三位De Bruijn序列编码ul1ul2ul2';
(4e)由每一条竖线的三位De Bruijn序列编码ul1ul2ul2',根据2元3次De Bruijn序列的解码方案,将编码序列000解码为序号0,将编码序列001解码为序号1,将编码序列010解码为序号2,将编码序列101解码为序号3,将编码序列011解码为序号4,将编码序列111解码为序号5,将编码序列110解码为序号6,将编码序列100解码为序号7,并将解码得到的序号0~7作为该竖线VU的序号NU。
步骤5,对参考平面图的竖线图IVR中的竖线VR进行解码。
(5a)以参考平面图的二值图像BR中交点IR的图像横坐标xr为起点向左取7个像素,同时以该交点的图像纵坐标yr为中心向上、向下各取6个像素,得到7*13的平面左矩形图像块LR,对该平面左矩形图像块内像素值为1的像素点的纵坐标求均值得到平均纵坐标值ysr,比较yr与ylr的值,如果yr大于ylr,该交点的De Bruijn序列编码的第一位r1为0,否则r1为1;
(5b)以该交点IR的图像横坐标xr为起点向右取7个像素,同时以该交点的图像纵坐标yr为中心向上、向下各取6个像素,得到7*13的平面右矩形图像块RR,对该平面右矩形图像块内像素值为1的像素点的纵坐标求均值得到平均纵坐标值ysr,比较yr与ysr的值,如果yr大于ysr,该交点IR的De Bruijn序列编码的第二位r2为1,否则r2为0;
(5c)对同一条竖线VR上的交点IR的编码r1r2进行统计,选择出现次数最多的编码作为该竖线VR的De Bruijn序列编码的前两位rl1rl2;
(5d)对竖线图IVR中任意两条前后相邻的竖线VRi、VRi+1,把后一条竖线VRi+1的DeBruijn序列编码的第二位rl2'数值赋给前一条竖线VRi的De Bruijn序列编码第三位rl3,从而得到竖线VRi的三位De Bruijn序列编码rl1rl2rl2';
(5e)根据2元3次De Bruijn序列的解码方案,把每一条竖线的三位De Bruijn序列编码rl1rl2rl2'解码为序号0~7,并把解码序号作为该竖线VR的序号NR。
步骤6,查找变形网格图像U中像素点G在参考平面图R中对应的匹配点M。
根据变形网格图像U中竖线VU的序号NUi,找到竖线VU上的像素点G在参考平面图R中的对应位置的像素点X,从像素点X开始沿外极线方向查找参考平面图R,找到参考平面图R中竖线序号等于NUi的竖线VR,该竖线VR与外极线的交点即为变形网格图像U中像素点G在参考平面图R中的匹配点M;
所述外极线是指,摄像机光心、投影仪光心和像素点X三点构成的外极平面与摄像机的成像平面相交构成的直线。
步骤7,根据像素点G和匹配点M的坐标,利用三角测距原理,计算像素点G的深度值D。
参照图5,本步骤的具体实现如下:
以摄像机坐标系为参考坐标系,坐标系原点为摄像机的光心,x轴沿摄像机成像平面的水平方向,y轴沿摄像机成像平面的竖直方向,z轴与摄像机成像平面垂直,根据三角测距原理,变形网格图像U中像素点G的坐标为(xg,yg),对应在参考平面图R中的匹配点M的坐标为(xm,ym),通过下式计算像素点G的深度值D:
其中,B为摄像机光心和投影仪光心的水平距离,f为摄像机焦距,D0为参考平面距离,yg为像素点G的纵坐标,ym为像素点M的纵坐标。
Claims (7)
1.一种基于编码网格模板的结构光动态场景深度获取方法,包括:
(1)设计由2元3次De Bruijn序列编码的二值网格模板P:
先设计间隔为10像素,线宽为1像素的等间隔竖直线和等间隔水平线;
再用竖直线和水平线构成10*10的图像单元,定义图像单元的主对角线方向的折线段编码为1,副对角线方向的折线段编码为0,沿水平方向对每个图像单元按照2元3次DeBruijn序列的规律进行编码,即按00010111规律添加对应的折线段,构成二值网格模板P;
(2)将二值网格模板P先投射到深度为D0的参考平面F上,获得参考平面图R;再投射到三维场景中,获得变形网格图像U;
(3)分别对变形网格图像U和参考平面图R进行线提取操作,分别得到变形网格图像U的折线图IHU、竖线图IVU、所有网格交点IU的坐标(xu,yu),和参考平面图R的折线图IHR、竖线图IVR;
(4)根据变形网格图像的折线图IHU,得到其竖线图IVU中每一条竖线VU的De Bruijn序列编码及解码序号NU;根据参考平面图的折线图IHR中的码值,得到其竖线图IVR中每一条竖线VR的De Bruijn序列编码及解码序号NR;
(5)根据变形网格图像U中竖线VU的序号,查找该竖线VU上像素点G在参考平面图R中对应的匹配点M;
(6)根据像素点G和匹配点M的坐标,利用三角测距原理,计算出像素点G的深度值D。
2.根据权利要求1所述的基于编码网格模板的结构光动态场景深度获取方法,其中所述(3)对变形网格图像U进行线提取操作,其步骤包括:
(3a)将变形网格图像U分成25×25大小的图像块,在每一个图像块中选取阈值TU,进行二值化操作,得到二值图像B,并对该二值图像B进行开操作,得到主对角线方向的折线条带图Sh1、副对角线方向的折线条带图Sh2和竖条带图Sv;
(3b)沿水平方向求取变形网格图像U中的所有灰度极大值,将所有极大值像素点位置标为1,得到水平极值图Gv,再对竖条带图Sv和水平极值图Gv做按位与操作,得到竖线图IVU;
(3c)将主对角线折线条带图Sh1和水平极值图Gv做按位与操作,得到主对角线方向折线图S1;将副对角线折线条带图Sh2和水平极值图Gv做按位与操作,得到副对角线方向折线图S2;对该S1和S2做按位或操作,得到折线图IHU;
(3d)将竖线图IVU和折线图IHU做按位与操作,得到所有网格交点IU及其坐标(xu,yu)。
3.根据权利要求1所述的基于编码网格模板的结构光动态场景深度获取方法,其中所述(3)对参考平面图R进行线提取操作,其步骤包括:
(3e)将参考平面图R分成25×25大小的图像块,在每一个图像块中选取阈值TR,进行二值化操作,得到二值图像BR,并对该二值图像BR进行开操作,得到主对角线方向的折线条带图Sr1、副对角线方向的折线条带图Sr2和竖条带图Srv;
(3f)沿水平方向求取参考平面图R中的所有灰度极大值,将所有极大值像素点位置标为1,得到水平极值图Grv,再对竖条带图Srv和水平极值图Grv做按位与操作,得到竖线图IVR;
(3g)将主对角线折线条带图Sr1和水平极值图Grv做按位与操作,得到主对角线方向折线图R1;将副对角线折线条带图Sr2和水平极值图Grv做按位与操作,得到副对角线方向折线图R2;对该R1和R2做按位或操作,得到折线图IHR。
4.根据权利要求1所述的基于编码网格模板的结构光动态场景深度获取方法,其中所述(4)根据变形网格图像的折线图IHU,得到其竖线图IVU中每一条竖线VU的De Bruijn序列编码及解码序号NU,其步骤包括:
(4a)以变形网格图像的二值图像B中交点IU的图像横坐标xu为起点向左取7个像素,同时以该交点的图像纵坐标yu为中心向上、向下各取6个像素,得到7*13的变形左矩形图像块LU,对该变形左矩形图像块内像素值为1的像素点的纵坐标求均值得到平均纵坐标值ylu,比较yu与ylu的值,如果yu大于ylu,则该交点的De Bruijn序列编码的第一位u1为0,否则u1为1;
(4b)以该交点IU的图像横坐标xu为起点向右取7个像素,同时以该交点的图像纵坐标yu为中心向上、向下各取6个像素,得到7*13的变形右矩形图像块RU,对该变形右矩形图像块内像素值为1的像素点的纵坐标求均值得到平均纵坐标值ysu,比较yu与ysu的值,如果yu大于ysu,则该交点的De Bruijn序列编码的第二位u2为1,否则u2为0;
(4c)对同一条竖线VU上的交点IU的编码u1u2进行统计,选择出现次数最多的编码作为该竖线VU的De Bruijn序列编码的前两位ul1ul2;
(4d)对竖线图IVU中任意两条前后相邻的竖线VUi、VUi+1,把后一条竖线VUi+1的DeBruijn序列编码第二位ul2'数值赋给前一条竖线VUi的De Bruijn序列编码第三位ul3,得到竖线VUi的三位De Bruijn序列编码ul1ul2ul2';
(4e)由每一条竖线的三位De Bruijn序列编码ul1ul2ul2',根据2元3次De Bruijn序列的解码方案,将编码序列000解码为序号0,将编码序列001解码为序号1,将编码序列010解码为序号2,将编码序列101解码为序号3,将编码序列011解码为序号4,将编码序列111解码为序号5,将编码序列110解码为序号6,将编码序列100解码为序号7,并将解码得到的序号0~7作为该竖线VU的序号NU。
5.根据权利要求1所述的基于编码网格模板的结构光动态场景深度获取方法,其中所述(4)的根据参考平面的折线图IHR,得到其竖线图IVR中每一条竖线VR的De Bruijn序列编码及解码序号NR,其步骤包括:
(4f)以参考平面图的二值图像BR中交点IR的图像横坐标xr为起点向左取7个像素,同时以该交点的图像纵坐标yr为中心向上、向下各取6个像素,得到7*13的平面左矩形图像块LR,对该平面左矩形图像块内像素值为1的像素点的纵坐标求均值得到平均纵坐标值ysr,比较yr与ylr的值,如果yr大于ylr,该交点的De Bruijn序列编码的第一位r1为0,否则r1为1;
(4g)以该交点IR的图像横坐标xr为起点向右取7个像素,同时以该交点的图像纵坐标yr为中心向上、向下各取6个像素,得到7*13的平面右矩形图像块RR,对该平面右矩形图像块内像素值为1的像素点的纵坐标求均值得到平均纵坐标值ysr,比较yr与ysr的值,如果yr大于ysr,该交点IR的De Bruijn序列编码的第二位r2为1,否则r2为0;
(4h)对同一条竖线VR上的交点IR的编码r1r2进行统计,选择出现次数最多的编码作为该竖线VR的De Bruijn序列编码的前两位rl1rl2;
(4i)对竖线图IVR中任意两条前后相邻的竖线VRi、VRi+1,把后一条竖线VRi+1的DeBruijn序列编码的第二位rl2'数值赋给前一条竖线VRi的De Bruijn序列编码第三位rl3,从而得到竖线VRi的三位De Bruijn序列编码rl1rl2rl2';
(4j)根据2元3次De Bruijn序列的解码方案,把每一条竖线的三位De Bruijn序列编码rl1rl2rl2'解码为序号0~7,并把解码序号作为该竖线VR的序号NR。
6.根据权利要求1所述的基于编码网格模板的结构光动态场景深度获取方法,其中所述(5)中的匹配点M查找,是根据变形网格图像U中竖线VU的序号NUi,找到竖线VU上的像素点G在参考平面图R中的对应位置的像素点X,从像素点X开始沿外极线方向查找参考平面图R,找到参考平面图R中竖线序号等于NUi的竖线VR,该竖线VR与外极线的交点即为变形网格图像U中像素点G在参考平面图R中的匹配点M。
7.根据权利要求1所述的基于编码网格模板的结构光动态场景深度获取方法,其中所述(6)中根据像素点G和匹配点M的坐标,利用三角测距原理,计算像素点G的深度值D,通过如下公式进行:
<mrow>
<mi>D</mi>
<mo>=</mo>
<mfrac>
<msub>
<mi>D</mi>
<mn>0</mn>
</msub>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>+</mo>
<mfrac>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>g</mi>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
<mo>&CenterDot;</mo>
<msub>
<mi>D</mi>
<mn>0</mn>
</msub>
</mrow>
<mrow>
<mi>f</mi>
<mo>&CenterDot;</mo>
<mi>B</mi>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
</mfrac>
<mo>,</mo>
</mrow>
其中,B为摄像机中心到投影仪中心距离,f为摄像机焦距,D0为参考平面距离,yg为像素点G的纵坐标,ym为像素点M的纵坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510478113.7A CN105069789B (zh) | 2015-08-05 | 2015-08-05 | 基于编码网格模板的结构光动态场景深度获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510478113.7A CN105069789B (zh) | 2015-08-05 | 2015-08-05 | 基于编码网格模板的结构光动态场景深度获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105069789A CN105069789A (zh) | 2015-11-18 |
CN105069789B true CN105069789B (zh) | 2018-03-06 |
Family
ID=54499146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510478113.7A Active CN105069789B (zh) | 2015-08-05 | 2015-08-05 | 基于编码网格模板的结构光动态场景深度获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105069789B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI585436B (zh) * | 2016-05-19 | 2017-06-01 | 緯創資通股份有限公司 | 深度資訊量測方法及裝置 |
CN106908773B (zh) * | 2017-03-31 | 2020-01-21 | 中国科学院电子学研究所 | 连续脉冲雷达的信号时域循环编码和恢复方法 |
CN107240135B (zh) * | 2017-04-28 | 2020-07-10 | 深圳大学 | 基于DeBruijn序列的三维图像重建方法及装置 |
EP3447525B1 (en) * | 2017-08-23 | 2020-05-06 | Ecole Polytechnique Federale De Lausanne (Epfl) | Model-based image reconstruction method |
CN108895979B (zh) * | 2018-05-10 | 2020-04-07 | 西安电子科技大学 | 线段编码的结构光深度获取方法 |
CN110428458A (zh) * | 2018-12-26 | 2019-11-08 | 西安电子科技大学 | 基于单帧密集形状编码的深度信息测量方法 |
CN110557622B (zh) * | 2019-09-03 | 2021-04-02 | 歌尔光学科技有限公司 | 基于结构光的深度信息获取方法及装置、设备及介质 |
CN113405461B (zh) * | 2021-04-23 | 2023-03-21 | 封泽希 | 用于深度检测的结构光编码、解码方法及编码、解码装置 |
CN113327229B (zh) * | 2021-05-27 | 2023-09-22 | 扬州大学 | 一种快速定位像点网格的方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400366A (zh) * | 2013-07-03 | 2013-11-20 | 西安电子科技大学 | 基于条纹结构光的动态场景深度获取方法 |
CN104506838A (zh) * | 2014-12-23 | 2015-04-08 | 宁波盈芯信息科技有限公司 | 一种符号阵列面结构光的深度感知方法、装置及系统 |
CN104680534A (zh) * | 2015-03-09 | 2015-06-03 | 西安电子科技大学 | 基于单帧复合模板的物体深度信息获取方法 |
-
2015
- 2015-08-05 CN CN201510478113.7A patent/CN105069789B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400366A (zh) * | 2013-07-03 | 2013-11-20 | 西安电子科技大学 | 基于条纹结构光的动态场景深度获取方法 |
CN104506838A (zh) * | 2014-12-23 | 2015-04-08 | 宁波盈芯信息科技有限公司 | 一种符号阵列面结构光的深度感知方法、装置及系统 |
CN104680534A (zh) * | 2015-03-09 | 2015-06-03 | 西安电子科技大学 | 基于单帧复合模板的物体深度信息获取方法 |
Non-Patent Citations (2)
Title |
---|
一种投影网格模板检测方法;辛勤 等;《计算机应用研究》;19991231(第7期);第73-75页 * |
基于红外编码结构光的深度测量方法;贾同 等;《红外与激光工程》;20150531;第44卷(第5期);第1629-1630页 * |
Also Published As
Publication number | Publication date |
---|---|
CN105069789A (zh) | 2015-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105069789B (zh) | 基于编码网格模板的结构光动态场景深度获取方法 | |
CN107945268B (zh) | 一种基于二元面结构光的高精度三维重建方法及系统 | |
CN104408732B (zh) | 一种基于全向结构光的大视场深度测量系统及方法 | |
CN103400366B (zh) | 基于条纹结构光的动态场景深度获取方法 | |
EP2881702B1 (en) | Image processing system, and image processing method | |
CN104335005B (zh) | 3d扫描以及定位系统 | |
CN103697815B (zh) | 基于相位编码的混频结构光三维信息获取方法 | |
CN103438832B (zh) | 基于线结构光的三维影像测量方法 | |
CN105844633B (zh) | 基于De序列和相位编码的单帧结构光深度获取方法 | |
CN103940370B (zh) | 基于周期互质混合编码的目标物体三维信息获取方法 | |
CN108225216A (zh) | 结构光系统标定方法及装置、结构光系统及移动设备 | |
WO2012096747A1 (en) | Forming range maps using periodic illumination patterns | |
CN104021588A (zh) | 一种实时恢复车辆三维真实模型的系统及方法 | |
CN105303572B (zh) | 基于主被动结合的深度信息获取方法 | |
CN106500626A (zh) | 一种手机立体成像方法及三维成像手机 | |
Furukawa et al. | One-shot entire shape acquisition method using multiple projectors and cameras | |
CN104680534B (zh) | 基于单帧复合模板的物体深度信息获取方法 | |
CN102914295A (zh) | 基于计算机视觉立方体标定的三维测量方法 | |
JP5761750B2 (ja) | 画像処理方法および装置 | |
CN103942802A (zh) | 基于随机模板的结构光动态场景深度获取方法 | |
CN108895979B (zh) | 线段编码的结构光深度获取方法 | |
CN105096314A (zh) | 基于二值网格模板的结构光动态场景深度获取方法 | |
CN113345039A (zh) | 三维重建量化结构光相位图像编码方法 | |
Fu et al. | Single-shot colored speckle pattern for high accuracy depth sensing | |
CN105844623A (zh) | 基于De序列混合编码的目标物体深度信息获取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |