CN107990846B - 基于单帧结构光的主被动结合深度信息获取方法 - Google Patents

基于单帧结构光的主被动结合深度信息获取方法 Download PDF

Info

Publication number
CN107990846B
CN107990846B CN201711068660.3A CN201711068660A CN107990846B CN 107990846 B CN107990846 B CN 107990846B CN 201711068660 A CN201711068660 A CN 201711068660A CN 107990846 B CN107990846 B CN 107990846B
Authority
CN
China
Prior art keywords
phase
image
template image
camera
pixel point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711068660.3A
Other languages
English (en)
Other versions
CN107990846A (zh
Inventor
李甫
陶清龙
牛毅
石光明
蒋景松
李泉录
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Electronic Science and Technology
Original Assignee
Xian University of Electronic Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Electronic Science and Technology filed Critical Xian University of Electronic Science and Technology
Priority to CN201711068660.3A priority Critical patent/CN107990846B/zh
Publication of CN107990846A publication Critical patent/CN107990846A/zh
Application granted granted Critical
Publication of CN107990846B publication Critical patent/CN107990846B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于单帧结构光的主被动结合深度信息获取方法,主要解决现有技术难以实现动态场景的实时深度测量问题。其方案为:1)将左摄像机CL、右摄像机CR和投影仪P水平放置,使三者光轴平行,用投影仪P向场景投射一幅相位编码模板;2)用两个摄像机CL和CR分别获取经场景物体调制后的变形模板;3)使用Gabor滤波器获取截断相位;4)使用频率滤波器得到两幅自然场景图像,再进行被动双目匹配,计算粗深度Z0,获得粗匹配点,5)用粗匹配点计算绝对相位φ,求得精确匹配点,进而求得精确深度信息。本发明实现了对动态场景的高精度、高分辨率的实时深度获取,可用于人机交互、3D打印、逆向工程和文物重建。

Description

基于单帧结构光的主被动结合深度信息获取方法
技术领域
本发明属于计算机视觉测量技术领域,主要涉及一种对动态或静态物体三维信息获取的方法,可用于人机交互、3D打印、逆向工程和文物重建等领域。
背景技术
深度信息获取是指利用特定设备获得场景中目标物体到设备之间的距离信息。传统的成像设备只能采集到空间域上的二维信息,空间域上的深度信息没有被采集到。随着人们的生活水平不断提高,传统的二维信息已不再满足人们实际生活的需求。因此,如何快速、高效地获取场景三维信息成为当前研究的热点。
当前深度获取方法主要分为两大类:被动式测量法和主动式测量法。被动式测量法是利用自然场景光源在目标物体表面反射或散射后获得该场景图像,并利用场景中的特征点计算场景深度信息。常见的被动式测量法有立体视觉法、阴影测量法和聚焦法等方法。其中应用最为广泛的立体视觉法是通过模拟人的双眼进行场景深度的测量。被动式测量法无需额外光源,且对成像设备要求不高,操作简单,容易实现。然而该类方法极其依赖于环境光,故而对于环境会有一定的要求,且对于某些纹理比较简单、特征比较少的场景来说,该方法计算复杂度较高,测量结果精度较低。主动式测量法是向场景中投射特定的光源,通过检测经物体表面反射的光波,实现场景深度测量。由于主动式测量法向场景中投射特定光源,增加了被测场景中的信息量,因此该类方法测量的精度较高。根据深度获取原理的不同,主动式深度测量法主要有飞行时间法、激光测量法和结构光法三种。
飞行时间法,是通过记录光源从发射到经物体表面返回所用的时间来计算物体到设备之间的距离信息。飞行时间法原理简单,不需要进行图像处理,适用于大型曲面的测量,但由于被测场景表面是由无数个点组成,因此飞行时间法测量精度一般都比较低。
激光测量法,是通过激光器向场景中投射激光再根据三角测量原理计算得到距离信息。激光测量法精度高、稳定性高、同时具备高鲁棒性,然而该方法需要逐点扫描,对设备要求比较高且比较耗时,数据获取效率低。
结构光深度测量法,其原理是利用投射设备向场景中投射具有编码信息的光学模板,再通过图像采集设备获取经被测场景调制过的变形模板,通过投射模板与变形模板之间对应点的匹配实现待测场景的深度测量。这种方法既利用了图像作为信息载体,又利用可控光源形成明显纹理特征,能够对诸如缺乏纹理、光滑、无明显灰度的表面区域进行精确的深度测量。结构光深度测量法具有结构简单、测量速度快和精度高等特点,已得到广泛应用。该结构光深度测量法根据投射图案的不同可以分为点结构光法、线结构光法和面结构光法。其中:
点结构光法,是向待测场景投射点状物,经过逐点扫描得到待测场景的深度数据。这种方法测量效率低,不适用于动态场景的深度测量。
线结构光法,是通过投影设备向待测场景中投射线结构光,并在一个方向上扫描实现物体深度信息的获取,相比于点结构光,线结构光大大提升了测量效率,然而该方法测量精度低且对环境光比较敏感。
面结构光法,是向被测场景投射具有特定编码二维图像,该方法可以对场景中特定区域内的所有像素点实现唯一编码。该方法不仅结构简单,测量效率高,而且还具有测量精度高、分辨率高等优点。面结构光法中最为常用的方法是相移编码法,该方法不仅具有测量精度高、分辨率高的优点,还具有鲁棒性好的优点,但该方法存在解相位缠绕耗时低效的问题。传统的面结构光法通常需要投射多帧模板,很难实现对动态场景的实时深度测量,虽然单帧结构光测量法能够对动态场景的实时深度测量,但该方法测量精度和分辨率都不高。因此寻找一种高精度、高分辨率的动态场景实时深度测量法是当前该领域的研究热点之一。
发明内容
本发明的目的在于针对上述已有技术的不足,提出了一种基于单帧结构光的主被动结合深度信息获取方法,以在保证深度信息测量准确度和分辨率的情况下,实现对动态场景的深度获取。
实现本发明的技术关键是:在传统多帧相移法的基础上,添加一个摄像机,构成由两个摄像机和一个投影仪组成的深度信息获取系统。通过投影仪向场景中投射一幅相移编码模板,随后由摄像机获得经场景调制后的变形模板并求得截断相位,同时使用滤波器恢复出自然场景图像,再使用被动式双目匹配法并得到场景粗深度数据,并根据粗深度数据指导截断相位展开过程,进而得到精确深度信息。其实现步骤包括:
(1)将左摄像机CL、右相机CR和投影仪P水平放置,并使三者光轴平行,在投影仪P中载入一幅相位编码图像T;
(2)用投影仪P将相位编码图像T投射到目标物体上,用左摄像机CL拍摄一幅经目标物体调制后的左变形模板图像
Figure BDA0001456366850000031
用右摄像机CR拍摄一幅与左摄像机相同场景下的右变形模板图像
Figure BDA0001456366850000032
(3)将右变形模板图像与二维Gabor滤波器进行卷积,得到右变形模板图像
Figure BDA0001456366850000034
的截断相位
Figure BDA0001456366850000035
(4)滤除两个变形模板图像
Figure BDA0001456366850000036
中的余弦基频分量,得到两幅不含编码信息的左自然场景图像IL和右自然场景图像IR,再将这两幅自然场景图像IL和IR进行被动双目匹配,计算得到粗深度Z0
(5)根据粗深度Z0求得右变形模板图像
Figure BDA0001456366850000038
上像素点pR(x,y)在相位编码图像T上的粗匹配点
Figure BDA0001456366850000039
(6)利用粗匹配点
Figure BDA00014563668500000310
的坐标对截断相位进行相位展开,得到绝对相位φ(x,y),再根据绝对相位计算右变形模板图像
Figure BDA00014563668500000312
上像素点pR(x,y)在相位编码图像T上的精确匹配点pp(i,j);
(7)根据精确匹配点pp(i,j)与右变形模板图像上像素点pR(x,y)的坐标,利用三角测距原理,计算得到精确深度信息Z。
本发明与现有技术相比具有以下优点:
1)本发明由于仅使用了一幅投射模板,无需对场景投射多张不同编码模板,避免了投射多张模板需要解决摄像机与投影仪之间的同步及需要场景静止的问题,因此能够实现对动态场景的高精度、高分辨率的实时深度信息获取。
2)本发明结合了主动式和被动式深度获取方法的优点,避开了传统相移法在相位展开时所存在的耗时低效的问题,同时也保证了深度信息获取的准确度、高分辨率和高鲁棒性。
3)本发明在传统相移深度获取方法的基础上仅增加了一个摄像机,实现简单。
附图说明
图1为本发明使用的系统框图;
图2为本发明的实现流程图;
图3为本发明使用的相移编码模板;
图4为用本发明获得的场景调制后的模板图及其余弦条纹截断相位图;
图5为用本发明获得的恢复后的自然场景图;
图6为用本发明获得的目标物体的深度图。
具体实施方式
本发明在传统相移深度测量法的基础上只增加了一个摄像机,并且仅投射一幅相位编码图像,实现对动态场景的高精度、高分辨率的实时深度测量。以下参考附图对本发明作进一步详细描述。
参考图1,本发明使用的三维扫描系统包括:待扫描的目标物体、左摄像机CL、右摄像机CR和投影仪P。投影仪P用于向目标物体投射一幅相位编码图像,两个摄像机用于分别拍摄经目标物体调制后的变形模板图像。
参考图2,本发明的具体实现步骤如下:
步骤1,设计相位编码图像T,并将其载入到投影仪P中。
1a)采用余弦函数设计一幅相位编码图像T,该相位编码图像中像素点(i,j)处的灰度值Ip(i,j)为:
Figure BDA0001456366850000041
其中,Tp为余弦函数的周期,A表示余弦函数的直流分量,B表示余弦函数调制振幅,为初始相位,j为像素点(i,j)的列坐标;
由上述各像素点得到的相位编码图像T,如图3所示;
1b)将左摄像机CL、右摄像机CR和投影仪P水平放置,且三者光轴平行,并将上述相位编码图像T载入到投影仪P中。
步骤2,获取变形模板图像。
2a)用投影仪P将相位编码图像T投射到目标物体上;
2b)用左摄像机CL拍摄一幅经目标物体调制后的左变形模板图像
Figure BDA0001456366850000043
用右摄像机CR拍摄一幅与左摄像机相同场景下的右变形模板图像
Figure BDA0001456366850000044
并将这左右两幅变形模板图像传至计算机,其中由右摄像机CR获得的右变形模板图像
Figure BDA0001456366850000045
如图4(a)所示。
步骤3,获取右变形模板图像
Figure BDA0001456366850000046
的截断相位
Figure BDA0001456366850000047
3a)通过下式对右变形模板图像
Figure BDA0001456366850000048
与二维Gabor滤波器进行卷积:
Figure BDA0001456366850000049
其中,
Figure BDA00014563668500000410
为Gabor滤波器的核函数,*为卷积运算符,g(x,y)为卷积结果,该卷积结果为复数,其复数表达式为:
g(x,y)=gr(x,y)+igi(x,y), <3>
其中,gr(x,y)为g(x,y)的实数部分,gi(x,y)为g(x,y)的虚数部分,i为纯虚数;
3b)将卷积结果的虚数部分除以实数部分并取反正切得到右变形模板图像
Figure BDA0001456366850000051
的截断相位
Figure BDA0001456366850000052
Figure BDA0001456366850000053
其中,arctg为取反正切运算,获得的截断相位值的范围为[-π,π)。
本步骤得到的截断相位如图4(b)所示,图4(b)中每个像素点的灰度值为截断相位值。
步骤4,获取自然场景图像,进行被动双目匹配,计算粗深度Z0
被动双目匹配算法包含动态规划算法、本证曲线匹配算法、非对应性算法和置信传播算法,本实例采用但不限于置信传播算法,其实现步骤如下:
4a)获取左自然场景图像IL
4a1)将左变形模板图像
Figure BDA0001456366850000054
沿着水平方向进行傅里叶变换,得到
Figure BDA0001456366850000055
的频谱图
Figure BDA0001456366850000056
其中,IL(f)为左变形模板图像
Figure BDA0001456366850000058
的零频分量,
Figure BDA0001456366850000059
为频谱图中的负余弦频率分量,
Figure BDA00014563668500000510
为频谱图中的正余弦频率分量,Tp为相位编码图像中条纹的周期;
4a2)对上述频谱图
Figure BDA00014563668500000511
进行滤波,滤除其中的两个余弦频率分量,得到左变形模板图像的零频分量IL(f):
其中G(f)为频率滤波器;
4a3)对零频分量IL(f)进行傅里叶反变换,得到左自然场景图像IL;
4b)获取右自然场景图像IR
4b1)将右变形模板图像
Figure BDA00014563668500000514
沿着水平方向进行傅里叶变换,得到
Figure BDA00014563668500000515
的频谱图
Figure BDA00014563668500000517
其中,IR(f)为右变形模板图像的零频分量,
Figure BDA00014563668500000519
为频谱图中的负余弦频率分量,
Figure BDA00014563668500000520
为频谱图中的正余弦频率分量,Tp为相位编码图像中条纹的周期;
4b2)对上述频谱图
Figure BDA00014563668500000521
进行滤波,滤除其中的两个余弦频率分量,得到右变形模板图像
Figure BDA0001456366850000061
的零频分量IR(f):
Figure BDA0001456366850000062
其中G(f)为频率滤波器;
4b3)对零频分量IR(f)进行傅里叶反变换,得到右自然场景图像IR
由步骤4b)得到的右自然场景图像IR的效果如图5所示;
4c)先将左自然场景图像IL和右自然场景图像IR存入到计算机,再调用计算机中的Sum-product函数,把左右这两个自然场景图像IL和IR作为该函数的输入,计算得到IL与IR之间每一点置信度最大的视差值d;
4d)根据视差值d,计算得到粗深度Z0
Figure BDA0001456366850000063
其中,fR表示摄像机CR的焦距,B为左摄像机CL的光心到右摄像机CR的光心的距离。
本步骤得到的粗深度图如图6(a)所示。
步骤5,获取相位编码图像T上的粗匹配点
Figure BDA0001456366850000064
5a)根据粗深度Z0求出粗匹配像素点
Figure BDA0001456366850000065
的列坐标
Figure BDA0001456366850000067
其中,Np为投影仪P的投影平面宽度,NR为右摄像机CR拍摄图像的宽度,Lp为投影仪P中每个像素点的实际长度,LR为摄像机CR中每个像素点的实际长度,y为右变形模板上像素点pR(x,y)的列坐标,B为左摄像机CL的光心到右摄像机CR的光心的距离;
5b)根据外极限约束定理,得到粗匹配像素点的行坐标
Figure BDA0001456366850000069
Figure BDA00014563668500000610
其中,x为右变形模板图像上像素点pR(x,y)的行坐标。
步骤6,计算绝对相位φ(x,y),并获取相位编码图像T上的精确匹配点pp(i,j)。
6a)计算截断相位
Figure BDA00014563668500000611
的延拓周期数N:
Figure BDA00014563668500000612
其中,[·]表示四舍五入取整操作,Tp为余弦函数的周期,
Figure BDA00014563668500000613
为粗匹配点
Figure BDA00014563668500000614
的列坐标;
6b)根据延拓周期数N,得到右变形模板图像
Figure BDA0001456366850000071
上像素点pR(x,y)的绝对相位φ(x,y):
Figure BDA0001456366850000075
6c)根据绝对相位φ(x,y),计算精确匹配点pp(i,j)的列坐标j:
Figure BDA0001456366850000072
其中,Tp为余弦函数的周期;
6d)由外极限约束定理可知,则右变形模板图像
Figure BDA0001456366850000073
上像素点pR(x,y)与其在相位编码图像T上对应的精确匹配点pp(i,j)的行坐标相同,即得到:
i=x <15>
其中,x为右变形模板图像上像素点pR(x,y)的行坐标。
步骤7,计算精确深度信息Z。
7a)计算右变形模板图像上像素点pR(x,y)与其对应的精确匹配点pp(i,j)之间的视差Δd(x,y):
Δd(x,y)=y-j <16>
其中,y为右变形模板图像上像素点pR(x,y)的列坐标,j为精确匹配点pp(i,j)的列坐标;
7b)根据三角测距原理,利用右变形模板图像上像素点pR(x,y)与其对应的精确匹配点pp(i,j)的空间关系,计算右变形模板图像上像素点pR(x,y)处的精确深度信息Z(x,y):
Figure BDA0001456366850000074
其中b表示右摄像机CR与投影仪P之间的距离,fR表示右摄像机CR的焦距;
7c)按照上述所有步骤,计算右变形模板图像上所有像素点的精确深度信息,得到待测物体上的精确深度信息值Z。
本步骤得到待测物体的精确深度信息图如图6(b)所示。
以上描述仅是本发明的一个具体事例,并不构成对本发明的任何限制。显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修正和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。

Claims (8)

1.一种基于单帧结构光的主被动结合深度信息获取方法,包括:
(1)将左摄像机CL、右相机CR和投影仪P水平放置,并使三者光轴平行,在投影仪P中载入一幅相位编码图像T;
(2)用投影仪P将相位编码图像T投射到目标物体上,用左摄像机CL拍摄一幅经目标物体调制后的左变形模板图像
Figure FDA0002232147560000011
用右摄像机CR拍摄一幅与左摄像机相同场景下的右变形模板图像
Figure FDA0002232147560000012
(3)将右变形模板图像与二维Gabor滤波器进行卷积,得到右变形模板图像
Figure FDA0002232147560000014
的截断相位
(4)滤除两个变形模板图像
Figure FDA0002232147560000016
Figure FDA0002232147560000017
中的余弦基频分量,得到两幅不含编码信息的左自然场景图像IL和右自然场景图像IR,再将这两幅自然场景图像IL和IR进行被动双目匹配,计算得到粗深度Z0
(5)根据粗深度Z0求得右变形模板图像
Figure FDA0002232147560000018
上像素点pR(x,y)在相位编码图像T上的粗匹配像素点
Figure FDA0002232147560000019
(6)利用粗匹配像素点
Figure FDA00022321475600000110
的坐标对截断相位进行相位展开,得到绝对相位φ(x,y),再根据绝对相位计算右变形模板图像
Figure FDA00022321475600000112
上像素点pR(x,y)在相位编码图像T上的精确匹配点pp(i,j);
(7)根据精确匹配点pp(i,j)与右变形模板图像上像素点pR(x,y)的坐标,利用三角测距原理,计算得到精确深度信息Z。
2.根据权利要求1所述的方法,其中步骤(3)中得到右变形模板图像
Figure FDA00022321475600000114
的截断相位
Figure FDA00022321475600000115
按照如下步骤进行:
3a)通过下式对右变形模板图像
Figure FDA00022321475600000116
与二维Gabor滤波器进行卷积:
Figure FDA00022321475600000117
其中,h(x,y)为Gabor滤波器的核函数,*为卷积运算符,g(x,y)为卷积结果,该卷积结果为复数,其复数表达式为:
g(x,y)=gr(x,y)+igi(x,y),
其中,gr(x,y)为g(x,y)的实数部分,gi(x,y)为g(x,y)的虚数部分,i为纯虚数;
3b)将卷积结果的虚数部分除以实数部分并取反正切得到右变形模板图像
Figure FDA0002232147560000021
的截断相位
Figure FDA0002232147560000023
其中,arctg为取反正切运算,获得的截断相位值的范围为[-π,π)。
3.根据权利要求1所述的方法,其中步骤(4)中滤除两个变形模板图像
Figure FDA0002232147560000024
中的余弦基频分量,按照如下步骤进行:
4a)将左变形模板图像
Figure FDA0002232147560000026
沿着水平方向进行傅里叶变换,得到
Figure FDA0002232147560000027
的频谱图
Figure FDA0002232147560000028
Figure FDA0002232147560000029
其中,IL(f)为左变形模板图像
Figure FDA00022321475600000210
的零频分量,
Figure FDA00022321475600000211
为频谱图中的负余弦频率分量,
Figure FDA00022321475600000212
为频谱图中的正余弦频率分量,Tp为余弦函数的周期;
4b)对上述频谱图
Figure FDA00022321475600000213
进行滤波,滤除其中的两个余弦频率分量,得到左变形模板图像
Figure FDA00022321475600000214
的零频分量IL(f):
其中G(f)为频率滤波器;
4c)对零频分量IL(f)进行傅里叶反变换,得到左自然场景图像IL
4d)使用与上述4a)到4c)步骤相同的处理方法,得到右变形模板图像的自然场景图IR
4.根据权利要求1所述的方法,其中步骤(4)中对左自然场景图像IL和右自然场景图像IR进行被动双目匹配,按照如下步骤进行:
4e)先将左自然场景图像IL和右自然场景图像IR存入到计算机,再调用计算机中的Sum-product函数,把左右这两个自然场景图像IL和IR作为该函数的输入,计算得到IL与IR之间每一点置信度最大的视差值d;
4f)根据视差值d,计算得到粗深度Z0
Figure FDA00022321475600000217
其中,fR表示摄像机CR的焦距,B为左摄像机CL的光心到右摄像机CR的光心的距离。
5.根据权利要求1所述的方法,其中步骤(5)中求得的粗匹配像素点
Figure FDA0002232147560000031
按照如下步骤进行:
5a)根据粗深度Z0求出粗匹配像素点
Figure FDA0002232147560000032
的列坐标
Figure FDA0002232147560000033
Figure FDA0002232147560000034
其中,Np为投影仪P的投影平面宽度,NR为右摄像机CR拍摄图像的宽度,Lp为投影仪P中每个像素点的实际长度,LR为摄像机CR中每个像素点的实际长度,y为像素点pR(x,y)的列坐标,B为左摄像机CL的光心到右摄像机CR的光心的距离;
5b)根据外极限约束定理,得到粗匹配像素点
Figure FDA0002232147560000035
的行坐标
Figure FDA0002232147560000036
Figure FDA0002232147560000037
其中,x为右变形模板图像上像素点pR(x,y)的行坐标。
6.根据权利要求1所述的方法,其中步骤(6)中利用粗匹配像素点的坐标对截断相位
Figure FDA0002232147560000039
进行相位展开,按照如下步骤进行:
6a)计算截断相位
Figure FDA00022321475600000310
的延拓周期数N:
Figure FDA00022321475600000311
其中,[·]表示四舍五入取整操作,Tp为余弦函数的周期,
Figure FDA00022321475600000312
为粗匹配像素点
Figure FDA00022321475600000313
的列坐标;
6b)根据延拓周期数N,得到右变形模板图像
Figure FDA00022321475600000314
上像素点pR(x,y)的绝对相位φ(x,y):
Figure FDA00022321475600000315
7.根据权利要求1所述的方法,其中步骤(6)中计算右变形模板图像
Figure FDA00022321475600000316
上像素点pR(x,y)在相位编码图像T上的精确匹配点pp(i,j),按照如下步骤进行:
6c)根据绝对相位φ(x,y),计算精确匹配点pp(i,j)的列坐标j:
Figure FDA0002232147560000041
其中,Tp为余弦函数的周期;
6d)由外极限约束定理可知,右变形模板图像
Figure FDA0002232147560000042
上像素点pR(x,y)与其在相位编码图像T上对应的精确匹配点pp(i,j)的行坐标相同,即得到:
i=x,
其中,x为右变形模板图像上像素点pR(x,y)的行坐标。
8.根据权利要求1所述的方法,其中步骤(7)中计算精确深度信息Z,按照如下步骤进行:
7a)计算右变形模板图像上像素点pR(x,y)与其对应的精确匹配点pp(i,j)之间的视差Δd(x,y):
Δd(x,y)=y-j,
其中,y为右变形模板图像上像素点pR(x,y)的列坐标,j为精确匹配点pp(i,j)的列坐标;
7b)根据三角测距原理,利用右变形模板图像上像素点pR(x,y)与其对应的精确匹配点pp(i,j)的空间关系,计算右变形模板图像上像素点pR(x,y)处的精确深度信息Z(x,y):
Figure FDA0002232147560000043
其中b表示右摄像机CR与投影仪P之间的距离,fR表示右摄像机CR的焦距;
7c)按照上述所有步骤,计算右变形模板图像上所有像素点的精确深度信息,得到待测物体上的精确深度信息值Z。
CN201711068660.3A 2017-11-03 2017-11-03 基于单帧结构光的主被动结合深度信息获取方法 Active CN107990846B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711068660.3A CN107990846B (zh) 2017-11-03 2017-11-03 基于单帧结构光的主被动结合深度信息获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711068660.3A CN107990846B (zh) 2017-11-03 2017-11-03 基于单帧结构光的主被动结合深度信息获取方法

Publications (2)

Publication Number Publication Date
CN107990846A CN107990846A (zh) 2018-05-04
CN107990846B true CN107990846B (zh) 2020-01-31

Family

ID=62031252

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711068660.3A Active CN107990846B (zh) 2017-11-03 2017-11-03 基于单帧结构光的主被动结合深度信息获取方法

Country Status (1)

Country Link
CN (1) CN107990846B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108989682B (zh) * 2018-08-06 2020-06-05 深圳大学 一种主动光场深度成像方法及系统
WO2020168187A1 (en) * 2019-02-15 2020-08-20 Root Ai, Inc. Depth and vision sensors for challenging agricultural environments
CN111829449B (zh) * 2019-04-23 2022-04-12 上海图漾信息科技有限公司 深度数据测量头、测量装置和测量方法
CN110009673B (zh) * 2019-04-01 2020-04-21 四川深瑞视科技有限公司 深度信息检测方法、装置及电子设备
CN111462208A (zh) * 2020-04-05 2020-07-28 北京工业大学 一种基于双目视差和外极线约束的无监督深度预测方法
CN111721236B (zh) * 2020-05-24 2022-10-25 奥比中光科技集团股份有限公司 一种三维测量系统、方法及计算机设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8326020B2 (en) * 2007-02-28 2012-12-04 Sungkyunkwan University Foundation Structural light based depth imaging method and system using signal separation coding, and error correction thereof
CN103940370B (zh) * 2014-04-29 2016-08-17 西安电子科技大学 基于周期互质混合编码的目标物体三维信息获取方法
CN105806315B (zh) * 2014-12-31 2018-06-26 上海新跃仪表厂 基于主动编码信息的非合作目标相对测量系统及测量方法
CN104680534B (zh) * 2015-03-09 2017-08-25 西安电子科技大学 基于单帧复合模板的物体深度信息获取方法
CN104713497B (zh) * 2015-03-13 2017-07-04 香港应用科技研究院有限公司 相位偏移校准方法、3d形状检测的方法、系统及投影系统
CN105303572B (zh) * 2015-10-26 2018-05-25 西安电子科技大学 基于主被动结合的深度信息获取方法

Also Published As

Publication number Publication date
CN107990846A (zh) 2018-05-04

Similar Documents

Publication Publication Date Title
CN107990846B (zh) 基于单帧结构光的主被动结合深度信息获取方法
CN110288642B (zh) 基于相机阵列的三维物体快速重建方法
CN110487216B (zh) 一种基于卷积神经网络的条纹投影三维扫描方法
CN110514143B (zh) 一种基于反射镜的条纹投影系统标定方法
CN109919911B (zh) 基于多视角光度立体的移动三维重建方法
CN110728671B (zh) 基于视觉的无纹理场景的稠密重建方法
CN108734776B (zh) 一种基于散斑的三维人脸重建方法及设备
CN105844633B (zh) 基于De序列和相位编码的单帧结构光深度获取方法
CN110070598B (zh) 用于3d扫描重建的移动终端及其进行3d扫描重建方法
CN111288925B (zh) 一种基于数字对焦结构照明光场的三维重建方法和装置
CN107767456A (zh) 一种基于rgb‑d相机的物体三维重建方法
CN109945802B (zh) 一种结构光三维测量方法
WO2012096747A1 (en) Forming range maps using periodic illumination patterns
CN107967697B (zh) 基于彩色随机二元编码结构照明的三维测量方法和系统
CN111563952B (zh) 基于相位信息与空间纹理特征实现立体匹配方法及系统
CN105303572B (zh) 基于主被动结合的深度信息获取方法
CN104680534A (zh) 基于单帧复合模板的物体深度信息获取方法
CN109712139A (zh) 基于线性运动模组的单目视觉的尺寸测量方法
CN113763540A (zh) 一种基于散斑条纹混合调制的三维重建方法及设备
CN110619601B (zh) 一种基于三维模型的图像数据集生成方法
CN117450955B (zh) 基于空间环形特征的薄型物体三维测量方法
CN108895979B (zh) 线段编码的结构光深度获取方法
Liao et al. Digital image correlation assisted absolute phase unwrapping
CN111914790B (zh) 基于双摄像头的不同场景下实时人体转动角度识别方法
Tehrani et al. A new approach to 3D modeling using structured light pattern

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant