CN107990846B - 基于单帧结构光的主被动结合深度信息获取方法 - Google Patents
基于单帧结构光的主被动结合深度信息获取方法 Download PDFInfo
- Publication number
- CN107990846B CN107990846B CN201711068660.3A CN201711068660A CN107990846B CN 107990846 B CN107990846 B CN 107990846B CN 201711068660 A CN201711068660 A CN 201711068660A CN 107990846 B CN107990846 B CN 107990846B
- Authority
- CN
- China
- Prior art keywords
- phase
- image
- template image
- camera
- pixel point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/254—Projection of a pattern, viewing through a pattern, e.g. moiré
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于单帧结构光的主被动结合深度信息获取方法,主要解决现有技术难以实现动态场景的实时深度测量问题。其方案为:1)将左摄像机CL、右摄像机CR和投影仪P水平放置,使三者光轴平行,用投影仪P向场景投射一幅相位编码模板;2)用两个摄像机CL和CR分别获取经场景物体调制后的变形模板;3)使用Gabor滤波器获取截断相位;4)使用频率滤波器得到两幅自然场景图像,再进行被动双目匹配,计算粗深度Z0,获得粗匹配点,5)用粗匹配点计算绝对相位φ,求得精确匹配点,进而求得精确深度信息。本发明实现了对动态场景的高精度、高分辨率的实时深度获取,可用于人机交互、3D打印、逆向工程和文物重建。
Description
技术领域
本发明属于计算机视觉测量技术领域,主要涉及一种对动态或静态物体三维信息获取的方法,可用于人机交互、3D打印、逆向工程和文物重建等领域。
背景技术
深度信息获取是指利用特定设备获得场景中目标物体到设备之间的距离信息。传统的成像设备只能采集到空间域上的二维信息,空间域上的深度信息没有被采集到。随着人们的生活水平不断提高,传统的二维信息已不再满足人们实际生活的需求。因此,如何快速、高效地获取场景三维信息成为当前研究的热点。
当前深度获取方法主要分为两大类:被动式测量法和主动式测量法。被动式测量法是利用自然场景光源在目标物体表面反射或散射后获得该场景图像,并利用场景中的特征点计算场景深度信息。常见的被动式测量法有立体视觉法、阴影测量法和聚焦法等方法。其中应用最为广泛的立体视觉法是通过模拟人的双眼进行场景深度的测量。被动式测量法无需额外光源,且对成像设备要求不高,操作简单,容易实现。然而该类方法极其依赖于环境光,故而对于环境会有一定的要求,且对于某些纹理比较简单、特征比较少的场景来说,该方法计算复杂度较高,测量结果精度较低。主动式测量法是向场景中投射特定的光源,通过检测经物体表面反射的光波,实现场景深度测量。由于主动式测量法向场景中投射特定光源,增加了被测场景中的信息量,因此该类方法测量的精度较高。根据深度获取原理的不同,主动式深度测量法主要有飞行时间法、激光测量法和结构光法三种。
飞行时间法,是通过记录光源从发射到经物体表面返回所用的时间来计算物体到设备之间的距离信息。飞行时间法原理简单,不需要进行图像处理,适用于大型曲面的测量,但由于被测场景表面是由无数个点组成,因此飞行时间法测量精度一般都比较低。
激光测量法,是通过激光器向场景中投射激光再根据三角测量原理计算得到距离信息。激光测量法精度高、稳定性高、同时具备高鲁棒性,然而该方法需要逐点扫描,对设备要求比较高且比较耗时,数据获取效率低。
结构光深度测量法,其原理是利用投射设备向场景中投射具有编码信息的光学模板,再通过图像采集设备获取经被测场景调制过的变形模板,通过投射模板与变形模板之间对应点的匹配实现待测场景的深度测量。这种方法既利用了图像作为信息载体,又利用可控光源形成明显纹理特征,能够对诸如缺乏纹理、光滑、无明显灰度的表面区域进行精确的深度测量。结构光深度测量法具有结构简单、测量速度快和精度高等特点,已得到广泛应用。该结构光深度测量法根据投射图案的不同可以分为点结构光法、线结构光法和面结构光法。其中:
点结构光法,是向待测场景投射点状物,经过逐点扫描得到待测场景的深度数据。这种方法测量效率低,不适用于动态场景的深度测量。
线结构光法,是通过投影设备向待测场景中投射线结构光,并在一个方向上扫描实现物体深度信息的获取,相比于点结构光,线结构光大大提升了测量效率,然而该方法测量精度低且对环境光比较敏感。
面结构光法,是向被测场景投射具有特定编码二维图像,该方法可以对场景中特定区域内的所有像素点实现唯一编码。该方法不仅结构简单,测量效率高,而且还具有测量精度高、分辨率高等优点。面结构光法中最为常用的方法是相移编码法,该方法不仅具有测量精度高、分辨率高的优点,还具有鲁棒性好的优点,但该方法存在解相位缠绕耗时低效的问题。传统的面结构光法通常需要投射多帧模板,很难实现对动态场景的实时深度测量,虽然单帧结构光测量法能够对动态场景的实时深度测量,但该方法测量精度和分辨率都不高。因此寻找一种高精度、高分辨率的动态场景实时深度测量法是当前该领域的研究热点之一。
发明内容
本发明的目的在于针对上述已有技术的不足,提出了一种基于单帧结构光的主被动结合深度信息获取方法,以在保证深度信息测量准确度和分辨率的情况下,实现对动态场景的深度获取。
实现本发明的技术关键是:在传统多帧相移法的基础上,添加一个摄像机,构成由两个摄像机和一个投影仪组成的深度信息获取系统。通过投影仪向场景中投射一幅相移编码模板,随后由摄像机获得经场景调制后的变形模板并求得截断相位,同时使用滤波器恢复出自然场景图像,再使用被动式双目匹配法并得到场景粗深度数据,并根据粗深度数据指导截断相位展开过程,进而得到精确深度信息。其实现步骤包括:
(1)将左摄像机CL、右相机CR和投影仪P水平放置,并使三者光轴平行,在投影仪P中载入一幅相位编码图像T;
(7)根据精确匹配点pp(i,j)与右变形模板图像上像素点pR(x,y)的坐标,利用三角测距原理,计算得到精确深度信息Z。
本发明与现有技术相比具有以下优点:
1)本发明由于仅使用了一幅投射模板,无需对场景投射多张不同编码模板,避免了投射多张模板需要解决摄像机与投影仪之间的同步及需要场景静止的问题,因此能够实现对动态场景的高精度、高分辨率的实时深度信息获取。
2)本发明结合了主动式和被动式深度获取方法的优点,避开了传统相移法在相位展开时所存在的耗时低效的问题,同时也保证了深度信息获取的准确度、高分辨率和高鲁棒性。
3)本发明在传统相移深度获取方法的基础上仅增加了一个摄像机,实现简单。
附图说明
图1为本发明使用的系统框图;
图2为本发明的实现流程图;
图3为本发明使用的相移编码模板;
图4为用本发明获得的场景调制后的模板图及其余弦条纹截断相位图;
图5为用本发明获得的恢复后的自然场景图;
图6为用本发明获得的目标物体的深度图。
具体实施方式
本发明在传统相移深度测量法的基础上只增加了一个摄像机,并且仅投射一幅相位编码图像,实现对动态场景的高精度、高分辨率的实时深度测量。以下参考附图对本发明作进一步详细描述。
参考图1,本发明使用的三维扫描系统包括:待扫描的目标物体、左摄像机CL、右摄像机CR和投影仪P。投影仪P用于向目标物体投射一幅相位编码图像,两个摄像机用于分别拍摄经目标物体调制后的变形模板图像。
参考图2,本发明的具体实现步骤如下:
步骤1,设计相位编码图像T,并将其载入到投影仪P中。
1a)采用余弦函数设计一幅相位编码图像T,该相位编码图像中像素点(i,j)处的灰度值Ip(i,j)为:
其中,Tp为余弦函数的周期,A表示余弦函数的直流分量,B表示余弦函数调制振幅,为初始相位,j为像素点(i,j)的列坐标;
由上述各像素点得到的相位编码图像T,如图3所示;
1b)将左摄像机CL、右摄像机CR和投影仪P水平放置,且三者光轴平行,并将上述相位编码图像T载入到投影仪P中。
步骤2,获取变形模板图像。
2a)用投影仪P将相位编码图像T投射到目标物体上;
2b)用左摄像机CL拍摄一幅经目标物体调制后的左变形模板图像用右摄像机CR拍摄一幅与左摄像机相同场景下的右变形模板图像并将这左右两幅变形模板图像传至计算机,其中由右摄像机CR获得的右变形模板图像如图4(a)所示。
g(x,y)=gr(x,y)+igi(x,y), <3>
其中,gr(x,y)为g(x,y)的实数部分,gi(x,y)为g(x,y)的虚数部分,i为纯虚数;
其中,arctg为取反正切运算,获得的截断相位值的范围为[-π,π)。
本步骤得到的截断相位如图4(b)所示,图4(b)中每个像素点的灰度值为截断相位值。
步骤4,获取自然场景图像,进行被动双目匹配,计算粗深度Z0。
被动双目匹配算法包含动态规划算法、本证曲线匹配算法、非对应性算法和置信传播算法,本实例采用但不限于置信传播算法,其实现步骤如下:
4a)获取左自然场景图像IL:
其中G(f)为频率滤波器;
4a3)对零频分量IL(f)进行傅里叶反变换,得到左自然场景图像IL;
4b)获取右自然场景图像IR:
其中G(f)为频率滤波器;
4b3)对零频分量IR(f)进行傅里叶反变换,得到右自然场景图像IR;
由步骤4b)得到的右自然场景图像IR的效果如图5所示;
4c)先将左自然场景图像IL和右自然场景图像IR存入到计算机,再调用计算机中的Sum-product函数,把左右这两个自然场景图像IL和IR作为该函数的输入,计算得到IL与IR之间每一点置信度最大的视差值d;
4d)根据视差值d,计算得到粗深度Z0:
其中,fR表示摄像机CR的焦距,B为左摄像机CL的光心到右摄像机CR的光心的距离。
本步骤得到的粗深度图如图6(a)所示。
其中,Np为投影仪P的投影平面宽度,NR为右摄像机CR拍摄图像的宽度,Lp为投影仪P中每个像素点的实际长度,LR为摄像机CR中每个像素点的实际长度,y为右变形模板上像素点pR(x,y)的列坐标,B为左摄像机CL的光心到右摄像机CR的光心的距离;
其中,x为右变形模板图像上像素点pR(x,y)的行坐标。
步骤6,计算绝对相位φ(x,y),并获取相位编码图像T上的精确匹配点pp(i,j)。
6c)根据绝对相位φ(x,y),计算精确匹配点pp(i,j)的列坐标j:
其中,Tp为余弦函数的周期;
i=x <15>
其中,x为右变形模板图像上像素点pR(x,y)的行坐标。
步骤7,计算精确深度信息Z。
7a)计算右变形模板图像上像素点pR(x,y)与其对应的精确匹配点pp(i,j)之间的视差Δd(x,y):
Δd(x,y)=y-j <16>
其中,y为右变形模板图像上像素点pR(x,y)的列坐标,j为精确匹配点pp(i,j)的列坐标;
7b)根据三角测距原理,利用右变形模板图像上像素点pR(x,y)与其对应的精确匹配点pp(i,j)的空间关系,计算右变形模板图像上像素点pR(x,y)处的精确深度信息Z(x,y):
其中b表示右摄像机CR与投影仪P之间的距离,fR表示右摄像机CR的焦距;
7c)按照上述所有步骤,计算右变形模板图像上所有像素点的精确深度信息,得到待测物体上的精确深度信息值Z。
本步骤得到待测物体的精确深度信息图如图6(b)所示。
以上描述仅是本发明的一个具体事例,并不构成对本发明的任何限制。显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修正和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。
Claims (8)
1.一种基于单帧结构光的主被动结合深度信息获取方法,包括:
(1)将左摄像机CL、右相机CR和投影仪P水平放置,并使三者光轴平行,在投影仪P中载入一幅相位编码图像T;
(7)根据精确匹配点pp(i,j)与右变形模板图像上像素点pR(x,y)的坐标,利用三角测距原理,计算得到精确深度信息Z。
8.根据权利要求1所述的方法,其中步骤(7)中计算精确深度信息Z,按照如下步骤进行:
7a)计算右变形模板图像上像素点pR(x,y)与其对应的精确匹配点pp(i,j)之间的视差Δd(x,y):
Δd(x,y)=y-j,
其中,y为右变形模板图像上像素点pR(x,y)的列坐标,j为精确匹配点pp(i,j)的列坐标;
7b)根据三角测距原理,利用右变形模板图像上像素点pR(x,y)与其对应的精确匹配点pp(i,j)的空间关系,计算右变形模板图像上像素点pR(x,y)处的精确深度信息Z(x,y):
其中b表示右摄像机CR与投影仪P之间的距离,fR表示右摄像机CR的焦距;
7c)按照上述所有步骤,计算右变形模板图像上所有像素点的精确深度信息,得到待测物体上的精确深度信息值Z。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711068660.3A CN107990846B (zh) | 2017-11-03 | 2017-11-03 | 基于单帧结构光的主被动结合深度信息获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711068660.3A CN107990846B (zh) | 2017-11-03 | 2017-11-03 | 基于单帧结构光的主被动结合深度信息获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107990846A CN107990846A (zh) | 2018-05-04 |
CN107990846B true CN107990846B (zh) | 2020-01-31 |
Family
ID=62031252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711068660.3A Active CN107990846B (zh) | 2017-11-03 | 2017-11-03 | 基于单帧结构光的主被动结合深度信息获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107990846B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108989682B (zh) * | 2018-08-06 | 2020-06-05 | 深圳大学 | 一种主动光场深度成像方法及系统 |
WO2020168187A1 (en) * | 2019-02-15 | 2020-08-20 | Root Ai, Inc. | Depth and vision sensors for challenging agricultural environments |
CN111829449B (zh) * | 2019-04-23 | 2022-04-12 | 上海图漾信息科技有限公司 | 深度数据测量头、测量装置和测量方法 |
CN110009673B (zh) * | 2019-04-01 | 2020-04-21 | 四川深瑞视科技有限公司 | 深度信息检测方法、装置及电子设备 |
CN111462208A (zh) * | 2020-04-05 | 2020-07-28 | 北京工业大学 | 一种基于双目视差和外极线约束的无监督深度预测方法 |
CN111721236B (zh) * | 2020-05-24 | 2022-10-25 | 奥比中光科技集团股份有限公司 | 一种三维测量系统、方法及计算机设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8326020B2 (en) * | 2007-02-28 | 2012-12-04 | Sungkyunkwan University Foundation | Structural light based depth imaging method and system using signal separation coding, and error correction thereof |
CN103940370B (zh) * | 2014-04-29 | 2016-08-17 | 西安电子科技大学 | 基于周期互质混合编码的目标物体三维信息获取方法 |
CN105806315B (zh) * | 2014-12-31 | 2018-06-26 | 上海新跃仪表厂 | 基于主动编码信息的非合作目标相对测量系统及测量方法 |
CN104680534B (zh) * | 2015-03-09 | 2017-08-25 | 西安电子科技大学 | 基于单帧复合模板的物体深度信息获取方法 |
CN104713497B (zh) * | 2015-03-13 | 2017-07-04 | 香港应用科技研究院有限公司 | 相位偏移校准方法、3d形状检测的方法、系统及投影系统 |
CN105303572B (zh) * | 2015-10-26 | 2018-05-25 | 西安电子科技大学 | 基于主被动结合的深度信息获取方法 |
-
2017
- 2017-11-03 CN CN201711068660.3A patent/CN107990846B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107990846A (zh) | 2018-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107990846B (zh) | 基于单帧结构光的主被动结合深度信息获取方法 | |
CN110288642B (zh) | 基于相机阵列的三维物体快速重建方法 | |
CN110487216B (zh) | 一种基于卷积神经网络的条纹投影三维扫描方法 | |
CN110514143B (zh) | 一种基于反射镜的条纹投影系统标定方法 | |
CN109919911B (zh) | 基于多视角光度立体的移动三维重建方法 | |
CN110728671B (zh) | 基于视觉的无纹理场景的稠密重建方法 | |
CN108734776B (zh) | 一种基于散斑的三维人脸重建方法及设备 | |
CN105844633B (zh) | 基于De序列和相位编码的单帧结构光深度获取方法 | |
CN110070598B (zh) | 用于3d扫描重建的移动终端及其进行3d扫描重建方法 | |
CN111288925B (zh) | 一种基于数字对焦结构照明光场的三维重建方法和装置 | |
CN107767456A (zh) | 一种基于rgb‑d相机的物体三维重建方法 | |
CN109945802B (zh) | 一种结构光三维测量方法 | |
WO2012096747A1 (en) | Forming range maps using periodic illumination patterns | |
CN107967697B (zh) | 基于彩色随机二元编码结构照明的三维测量方法和系统 | |
CN111563952B (zh) | 基于相位信息与空间纹理特征实现立体匹配方法及系统 | |
CN105303572B (zh) | 基于主被动结合的深度信息获取方法 | |
CN104680534A (zh) | 基于单帧复合模板的物体深度信息获取方法 | |
CN109712139A (zh) | 基于线性运动模组的单目视觉的尺寸测量方法 | |
CN113763540A (zh) | 一种基于散斑条纹混合调制的三维重建方法及设备 | |
CN110619601B (zh) | 一种基于三维模型的图像数据集生成方法 | |
CN117450955B (zh) | 基于空间环形特征的薄型物体三维测量方法 | |
CN108895979B (zh) | 线段编码的结构光深度获取方法 | |
Liao et al. | Digital image correlation assisted absolute phase unwrapping | |
CN111914790B (zh) | 基于双摄像头的不同场景下实时人体转动角度识别方法 | |
Tehrani et al. | A new approach to 3D modeling using structured light pattern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |