CN105844633B - 基于De序列和相位编码的单帧结构光深度获取方法 - Google Patents

基于De序列和相位编码的单帧结构光深度获取方法 Download PDF

Info

Publication number
CN105844633B
CN105844633B CN201610160762.7A CN201610160762A CN105844633B CN 105844633 B CN105844633 B CN 105844633B CN 201610160762 A CN201610160762 A CN 201610160762A CN 105844633 B CN105844633 B CN 105844633B
Authority
CN
China
Prior art keywords
pixel
sequence
value
phase
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610160762.7A
Other languages
English (en)
Other versions
CN105844633A (zh
Inventor
李甫
窦平方
石光明
杨莉莉
牛毅
高哲峰
张志峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201610160762.7A priority Critical patent/CN105844633B/zh
Publication of CN105844633A publication Critical patent/CN105844633A/zh
Application granted granted Critical
Publication of CN105844633B publication Critical patent/CN105844633B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于De序列和相位编码的单帧结构光深度获取方法,主要解决现有单帧技术精度低、多帧技术难以实现动态场景深度获取的问题。其技术方案为:利用像素亮度值作为相位编码信息,根据模板的RGB不同颜色通道信息进行De序列编码辅助相位周期解码;对摄像机采集的待测场景变形图像,分别提取图像中像素点的颜色信息和亮度信息;通过亮度信息利用Gabor滤波器卷积得到相位编码信息,通过颜色信息利用De序列解码确定截断相位周期;根据相位立体匹配原则,利用三角测距原理,得到物体的深度数据。本发明通过一幅投射模板,实现了高空间分辨率的深度数据获取,可用于动态场景的高精度高分辨率深度获取。

Description

基于De序列和相位编码的单帧结构光深度获取方法
技术领域
本发明属于计算机视觉测量技术领域,主要涉及静态或者动态物体的三维信息获取,可用于人机交互、3D打印、逆向工程、文物三维重建。
背景技术
随着科学与技术的飞速发展,物体三维信息的获取在很多应用领域都有着广泛的应用前景,如人机交互、3D打印、逆向工程、文物三维重建等。因此,快速、高效地从获取场景三维信息成为当前研究的热点,一般称三维信息获取的过程为深度获取。
当前深度获取方法众多,比较常见的有被动式的立体视觉法、阴影测量法、聚焦法,主动式的激光扫描法、飞行时间法和结构光法。其中,结构光测量法作为一种非接触式的三维信息获取技术,因其实现简单、速度快和精度高等优点得到了广泛应用。
结构光法,其原理是利用投射设备将具有一定规律的结构光模板投射到被测目标表面,利用图像采集设备记录被测目标表面的图像,将采集到的图像数据结合三角测距原理以及图形处理技术计算出物体表面的深度数据信息。这种方法既利用了图像作为信息载体,又利用可控光源形成明显纹理特征,能大大减小对诸如缺乏纹理、光滑、无明显灰度的表面区域进行匹配的难度。
结构光法根据投射的图案的不同可以分为点结构光、线结构光和面结构光。点结构光是通过将点状光源投射到待测物体上,经过逐点扫描得到待测场景的深度数据,但是该方法所需扫描时间较长,不能用于动态变化物体的深度获取;线结构光是向场景中投射一条线状结构光,只需进行一维扫描,缩短了扫描时间,但对外界杂光的抗干扰能力比较差;面结构光利用二维图像作为编码模板,避免了长时间扫描,可以快速实现整个场景中物体的深度测量,该方法提高了测量效率,同时也具有较高的测量精度,可以用于动态物体的高精度深度测量。结构光法需要解决的问题是编码模板与场景调制后模板间的匹配问题,这是结构光法研究的重点也是研究的难点之一。
根据编码方式的不同,结构光方法的匹配方案和匹配效果都有很大不同。其中,相位编码由于其数据致密性,具有测量精度高的优点,但是由于相位周期性的特点,相位解缠绕成为匹配的瓶颈问题。多帧结构光编码模板具有稠密的模板信息,能够获得较为精确的匹配结果,但是多帧投射很难实现动态场景的深度获取,而且对模板投射以及图像获取的硬件要求较高。单帧结构光编码模板能够实现动态场景的深度获取,但是由于单帧模板数据较为稀疏,匹配过程较为复杂耗时,最终的匹配精度较低。
发明内容
本发明针对上述已有技术的不足,提出一种基于De序列和相位编码的单帧结构光深度获取方法,以提高在动态场景下的深度数据获取精度和空间分辨率。
本发明的技术方案是:基于相位编码和De Bruijn序列编码的混合编码技术,在一幅投射模板上进行相位和De序列混合编码,利用编码信息进行模板与场景中获取的变形场景进行匹配得到场景的视差信息,再利用三角测距原理,得到场景的深度信息。其实现步骤包括如下
(1)设计强度变化且包含相位编码和颜色编码的混合编码模板P:
(1a)采取余弦函数进行相位编码,计算编码模板中像素点(i,j)处的亮度值P0(i,j):
其中,T为余弦函数的周期,A表示余弦函数的直流分量,B表示调制振幅,为编码中余弦的初始相位,取值为
(1b)采用二元三阶De Brujin序列的00011101顺序循环组合进行颜色编码,其中基元0、1分别采用绿色、红色表示,条纹宽度为T,计算红色条纹亮度值Pr(i,j),绿色条纹亮度值Pg(i,j):
Pr(i,j)=C(i,j)P0(i,j)
Pg(i,j)=[1-C(i,j)]P0(i,j)
其中,C(i,j)表示像素点(i,j)处的基元值,红色条纹取值为1,绿色条纹取值为0,P(i,j)表示相位编码中得到的像素点(i,j)的亮度值;
(1c)得到混合编码模板P中每个像素点像素值P(i,j):
其中,Pr(i,j)、Pg(i,j)为颜色编码中红色、绿色条纹亮度值,T为彩色条纹宽度值,为向下取整运算符;
(2)水平放置投影仪R与摄像机V,并使二者光轴平行,通过投影仪R将混合编码模板P投影到三维物体O上,用摄像机V拍摄经过待测物体O调制过的变形条纹图像U;
(3)将变形条纹图像U与波长为λ、滤波方向为θ、初始相位为ψ的一维Gabor滤波器进行卷积,求取像素点(x,y)处的截断相位φ(x,y);
(4)计算变形条纹图像U的每一个像素(x,y)的颜色编码信息C(x,y):
其中,x,y分别为变形条纹图像中像素点(x,y)的行列坐标,Ur(x,y),Ug(x,y)分别为RGB图像中像素点(x,y)红色通道、绿色通道分量的强度值;
(5)利用投票机制矫正,通过嵌入的De Bruijn序列空间编码信息Pr、Pg和变形条纹图像U中的颜色编码信息C(x,y),求解截断相位需要延拓的周期数n;
(6)计算像素点(x,y)处的绝对相位:
Φ(x,y)=φ(x,y)+2nπ
(7)根据三角测距原理与绝对相位值Φ,计算待测物体的三维信息值。
本发明与现有技术相比具有以下优点:
1)本发明由于在相位编码上融合De序列空间信息,使得仅需要一幅模板投射即可实现场景深度信息获取,简化了实现过程,降低了对物理设备的要求;
2)本发明由于采用De序列辅助相位编码解周期,使得本发明能够保留相位编码高精度的优点,又可以有效解决相位编码遇到的周期性截断相位缠绕问题,这在确保测量精度的同时使测量时间进一步减少;
3)本发明由于仅使用一幅模板,可以实现对于动态场景的实时高精度、高空间分辨率的深度数据获取。
附图说明
图1为本发明的实现流程图;
图2为本发明设计的双颜色条纹模板图;
图3为本发明使用的系统框图;
图4为本发明获得的截断相位展开图;
图5为本发明中进行三维测量时使用的空间几何关系图;
图6为本发明获得的待测物体的三维重构图。
具体实施方式
本发明提出了一种单帧的基于相位编码和De Bruijn序列编码的混合编码技术,以在不增加设备复杂性的条件下,实现适用于动态目标物体的高精度、高分辨率的三维信息获取,以下参照附图对本发明作进一步详细描述。
参照图1,本发明具体实现步骤如下:
步骤1,设计强度变化且包含相位编码和颜色编码的混合编码模板P。
(1a)采取余弦函数进行相位编码,计算编码模板中像素点(i,j)处的亮度值P0(i,j):
其中,T为余弦函数的周期,A表示余弦函数的直流分量,B表示调制振幅,为编码中余弦的初始相位,取值为
(1b)采用二元三阶De Brujin序列的00011101顺序循环组合进行颜色编码,其中基元0、1分别采用绿色、红色表示,条纹宽度为T,计算红色条纹亮度值Pr(i,j),绿色条纹亮度值Pg(i,j):
其中,C(i,j)表示像素点(i,j)处的基元值,红色条纹取值为1,绿色条纹取值为0,P(i,j)表示相位编码中得到的像素点(i,j)的亮度值;
(1c)根据步骤(1a)和(1b)的结果,得到混合编码双颜色条纹模板P,如附图2所示,模板P中每个像素点像素值P(i,j):
其中,Pr(i,j)、Pg(i,j)为颜色编码中红色、绿色条纹亮度值,T为彩色条纹宽度值,为向下取整运算符。
步骤2,拍摄待测物体O调制过的变形条纹图像U。
参照图3,拍摄时,水平放置投影仪R与摄像机V,并使二者光轴平行,通过投影仪R将混合编码模板P投影到三维物体O上,用摄像机V拍摄经过待测物体O调制过的变形条纹图像U。
步骤3,将变形条纹图像U与波长为λ、滤波方向为θ、初始相位为ψ的一维Gabor滤波器进行卷积,求取像素点(x,y)处的截断相位φ(x,y)。
(3a)将得到的条纹图像与二维Gabor滤波器卷积,根据Gabor函数的性质可以得到:
G(x,y)=|R(x,y)|exp(i(ωx+φ(x,y))),
其中,G(x,y)表示图像与Gabor滤波器卷积的结果,R(x,y)表示Gabor滤波器响应的幅值,ω为图像中像素点(x,y)处的局部频率,i为虚数单位;
(3b)根据欧拉定理,将G(x,y)进行进一步展开得到:
其中,Gr(x,y)表示图像与Gabor滤波器卷积得到的实部值,Gi(x,y)表示图像与Gabor滤波器卷积得到的虚部值,φ(x,y)为像素点(x,y)处的截断相位,
按照步骤3得到的截断相位展开图如图4所示,图中灰度值大小表示截断相位展开值的大小。
步骤4,对于步骤2得到的变形条纹图像U的每一个像素(x,y),计算其颜色编码信息C(x,y):
其中,x,y分别为变形条纹图像中像素点(x,y)的行列坐标,Ur(x,y),Ug(x,y)分别为RGB图像中像素点(x,y)红色通道、绿色通道分量的强度值;
步骤5,利用投票机制矫正,通过嵌入的De Bruijn序列空间编码信息求解截断相位需要延拓的周期数n。
(5a)遍历同一个条纹上的码值,将投票占有多数的基元码值标定为正确的码值;
(5b)对每三位码值组成的序列进行解码,得到该序列对应序号N,即当序列为000时N为0,当序列为001时N为1,当序列为011时N为2,当序列为111时N为3,当序列为110时N为4,当序列为101时N为5,当序列为010时N为6,当序列为100时N为7;
(5c)对于给定的参考平面L、参考平面距离Dr、摄像机中心坐标(Cx,Cy,Cz)、投影仪中心R,根据成像原理计算参考平面上某点G的坐标(Gx,Gy,Gz):
其中,(Bx,By,Bz)为空白场景中摄像机获得的条纹图像U中与G对应点B的坐标;
(5d)根据投影仪中心R、模板上空白场景下与G对应的点F与场景中G的几何关系,计算F点坐标(Fx,Fy,Fz):
其中,f表示投影仪的焦距,综合以上两式得到F点坐标(Fx,Fy,Fz):
(5e)根据坐标转换关系得到F点对应的成像平面坐标(xF,yF),计算变形图像U中B点所在条纹对应的De Bruijn序列周期延拓周期数S:
其中,T为De Bruijn序列中条纹的宽度,为向下取整算子;
(5f)根据步骤(5b)和(5e)的结果,计算条纹的最终编号n:
n=N+8S。
步骤6,计算像素点(x,y)处的绝对相位:
Φ(x,y)=φ(x,y)+2nπ。
步骤7,利用像素点与匹配点的空间关系,计算待测物体的三维信息值。
参照图5,根据三角测距原理,本步骤的具体实现如下:
(7a)沿着水平方向进行解码,并计算变形图像U中每个像素点(x,y)对应在模板图像中的位置(i,j):
由于变形图像中像素点(x,y)与对应在模板图像中的位置(i,j)在竖直方向上保持不变,则j=y,y为变形图像U中像素点(x,y)的纵坐标值;
(7b)计算变形图像U中的像素点(x,y)与编码模板中对应点(i,j)之间的视差值d(x,y):
其中,x为变形图像U中像素点(x,y)的横坐标值;
(7c)根据三角形相似原理,计算像素点(x,y)对应点的深度值Z(x,y):
其中f表示摄像机和投影仪焦距,b表示摄像机和投影仪光心间基线距离。
本发明的效果可通过以下仿真进一步说明:
利用欧美3DMAX进行仿真平台搭建,按照上述步骤对本方法进行仿真实验,根据得到的目标物体的深度信息,对目标物体进行仿真重构,其结果如图6所示。
从图6中可以看到,本发明重构出的目标物体正确真实、噪声点少,而且实验系统复杂度低、实验所需时间少,因此本发明提出的基于De序列和相位编码的单帧结构光深度获取方法具有精度高、分辨率高、速度快、系统复杂度低的优点。
以上描述仅是本发明的一个具体事例,并不构成对本发明的任何限制。显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修正和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。

Claims (3)

1.一种基于De序列和相位编码的单帧结构光深度获取方法,包括:
(1)设计强度变化且包含相位编码和颜色编码的混合编码模板P:
(1a)采取余弦函数进行相位编码,计算编码模板中像素点(i,j)处的亮度值P0(i,j):
其中,T为余弦函数的周期,A表示余弦函数的直流分量,B表示调制振幅,为编码中余弦的初始相位,取值为
(1b)采用二元三阶De Brujin序列的00011101顺序循环组合进行颜色编码,其中基元0、1分别采用绿色、红色表示,条纹宽度为T,计算红色条纹亮度值Pr(i,j),绿色条纹亮度值Pg(i,j):
Pr(i,j)=C(i,j)P0(i,j)
Pg(i,j)=[1-C(i,j)]P0(i,j)
其中,C(i,j)表示像素点(i,j)处的基元值,红色条纹取值为1,绿色条纹取值为0,P(i,j)表示相位编码中得到的像素点(i,j)的亮度值;
(1c)得到混合编码模板P中每个像素点像素值P(i,j):
其中,Pr(i,j)、Pg(i,j)为颜色编码中红色、绿色条纹亮度值,T为彩色条纹宽度值,为向下取整运算符;
(2)水平放置投影仪R与摄像机V,并使二者光轴平行,通过投影仪R将混合编码模板P投影到三维物体O上,用摄像机V拍摄经过待测物体O调制过的变形条纹图像U;
(3)将变形条纹图像U与波长为λ、滤波方向为θ、初始相位为ψ的一维Gabor滤波器进行卷积,求取像素点(x,y)处的截断相位φ(x,y);
(4)计算变形条纹图像U的每一个像素(x,y)的颜色编码信息C(x,y):
其中,x,y分别为变形条纹图像中像素点(x,y)的行列坐标,Ur(x,y),Ug(x,y)分别为RGB图像中像素点(x,y)红色通道、绿色通道分量的强度值;
(5)利用投票机制矫正,通过嵌入的De Bruijn序列空间编码信息Pr、Pg和变形条纹图像U中的颜色编码信息C(x,y),求解截断相位需要延拓的周期数n:
(5a)遍历同一个条纹上的码值,将投票占有多数的基元码值标定为正确的码值;
(5b)对每三位码值组成的序列进行解码,得到该序列对应序号N,即当序列为000时N为0,当序列为001时N为1,当序列为011时N为2,当序列为111时N为3,当序列为110时N为4,当序列为101时N为5,当序列为010时N为6,当序列为100时N为7;
(5c)对于给定的参考平面L、参考平面距离Dr、摄像机中心坐标(Cx,Cy,Cz)、投影仪中心R,根据成像原理计算参考平面上某点G的坐标(Gx,Gy,Gz):
其中,(Bx,By,Bz)为空白场景中摄像机获得的变形条纹图像U中与G对应点B的坐标;
(5d)根据投影仪中心R、模板上空白场景下与G对应的点F与场景中G的几何关系,计算F点坐标(Fx,Fy,Fz):
其中,f表示投影仪的焦距,综合以上(5c)和(5d)两式得到F点坐标(Fx,Fy,Fz):
(5e)根据坐标转换关系得到F点对应的成像平面坐标(xF,yF),计算变形条纹图像U中B点所在条纹对应的De Bruijn序列周期延拓周期数S:
其中,T为De Bruijn序列中条纹的宽度,为向下取整算子;
(5f)根据步骤(5b)和(5e)的结果,计算条纹的最终编号n:
n=N+8S;
(6)计算像素点(x,y)处的绝对相位:
Φ(x,y)=φ(x,y)+2nπ
(7)根据三角测距原理与绝对相位值Φ,计算待测物体的三维信息值。
2.根据权利要求1所述的基于De序列和相位编码的单帧结构光深度获取方法,其中步骤(3)所述的求取像素点(x,y)的截断相位φ(x,y),按照如下步骤进行:
(3a)将得到的条纹图像与二维Gabor滤波器卷积,根据Gabor函数的性质得到:
G(x,y)=|R(x,y)|exp(i(ωx+φ(x,y)))
其中,G(x,y)表示图像与Gabor滤波器卷积的结果,R(x,y)表示Gabor滤波器响应的幅值,ω为图像中像素点(x,y)处的局部频率,
(3b)根据欧拉定理,将G(x,y)进行进一步展开得到:
G(x,y)=Gr(x,y)+Gi(x,y)
=|R(x,y)|(cos(ωx+φ(x,y))+isin(ωx+φ(x,y)))
其中,Gr(x,y)表示图像与Gabor滤波器卷积得到的实部值,Gi(x,y)表示图像与Gabor滤波器卷积得到的虚部值;
(3c)根据(3b)的计算,得到图像中每个像素点的相位信息φ(x,y):
3.根据权利要求1所述的基于De序列和相位编码的单帧结构光深度获取方法,其中步骤(7)中求解物体深度信息,按如下步骤进行:
(7a)沿着水平方向进行解码,并计算变形条纹图像U中每个像素点(x,y)对应在模板图像中的位置(i,j):
由于变形条纹图像中像素点(x,y)与对应在模板图像中的位置(i,j)在竖直方向上保持不变,则j=y,y为变形条纹图像U中像素点(x,y)的纵坐标值;
(7b)计算变形条纹图像U中的像素点(x,y)与编码模板中对应点(i,j)之间的视差值d(x,y):
其中,x为变形条纹图像U中像素点(x,y)的横坐标值;
(7c)根据三角形相似原理,计算像素点(x,y)对应点的深度值Z(x,y):
其中f表示摄像机和投影仪焦距,b表示摄像机和投影仪光心间基线距离。
CN201610160762.7A 2016-03-21 2016-03-21 基于De序列和相位编码的单帧结构光深度获取方法 Active CN105844633B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610160762.7A CN105844633B (zh) 2016-03-21 2016-03-21 基于De序列和相位编码的单帧结构光深度获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610160762.7A CN105844633B (zh) 2016-03-21 2016-03-21 基于De序列和相位编码的单帧结构光深度获取方法

Publications (2)

Publication Number Publication Date
CN105844633A CN105844633A (zh) 2016-08-10
CN105844633B true CN105844633B (zh) 2019-03-26

Family

ID=56588093

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610160762.7A Active CN105844633B (zh) 2016-03-21 2016-03-21 基于De序列和相位编码的单帧结构光深度获取方法

Country Status (1)

Country Link
CN (1) CN105844633B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106815864B (zh) * 2017-01-10 2019-06-18 西安电子科技大学 基于单帧调制模板的深度信息测量方法
CN107356212B (zh) * 2017-06-01 2020-01-21 深圳大学 一种基于单幅光栅投影的三维测量方法和系统
CN109903719A (zh) * 2017-12-08 2019-06-18 宁波盈芯信息科技有限公司 一种时空编码的结构光编码图案生成方法及装置
CN108808549A (zh) * 2018-06-16 2018-11-13 南京理工大学 基于激光除冰系统的除冰方法
CN108989682B (zh) * 2018-08-06 2020-06-05 深圳大学 一种主动光场深度成像方法及系统
CN109540023B (zh) * 2019-01-22 2019-11-26 西安电子科技大学 基于二值网格编码模板结构光的物体表面深度值测量方法
CN111023996B (zh) * 2019-11-18 2021-05-14 西安电子科技大学 一种单帧动态三维测量方法
EP3958018A4 (en) * 2020-06-18 2022-08-17 Shenzhen Goodix Technology Co., Ltd. TIME-OF-FLIGHT TELEMETRY METHOD AND ASSOCIATED SYSTEM
CN111953985B (zh) * 2020-08-14 2024-04-05 上海数迹智能科技有限公司 一种基于tof深度相机的图像处理方法及可存储介质
CN113405461B (zh) * 2021-04-23 2023-03-21 封泽希 用于深度检测的结构光编码、解码方法及编码、解码装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400366A (zh) * 2013-07-03 2013-11-20 西安电子科技大学 基于条纹结构光的动态场景深度获取方法
CN103697815A (zh) * 2014-01-15 2014-04-02 西安电子科技大学 基于相位编码的混频结构光三维信息获取方法
CN103940370A (zh) * 2014-04-29 2014-07-23 西安电子科技大学 基于周期互质混合编码的目标物体三维信息获取方法
CN103942802A (zh) * 2014-04-29 2014-07-23 西安电子科技大学 基于随机模板的结构光动态场景深度获取方法
US8903135B2 (en) * 2010-06-30 2014-12-02 Panasonic Corporation Stereo image processing apparatus and method of processing stereo image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8903135B2 (en) * 2010-06-30 2014-12-02 Panasonic Corporation Stereo image processing apparatus and method of processing stereo image
CN103400366A (zh) * 2013-07-03 2013-11-20 西安电子科技大学 基于条纹结构光的动态场景深度获取方法
CN103697815A (zh) * 2014-01-15 2014-04-02 西安电子科技大学 基于相位编码的混频结构光三维信息获取方法
CN103940370A (zh) * 2014-04-29 2014-07-23 西安电子科技大学 基于周期互质混合编码的目标物体三维信息获取方法
CN103942802A (zh) * 2014-04-29 2014-07-23 西安电子科技大学 基于随机模板的结构光动态场景深度获取方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Efficient multiple phase shift patterns for dense 3D acquisition in structured light scanning;Tomislay Pribanic et al.;《Image and Vision Computing》;20101231;全文
基于条纹结构光的深度获取研究;李芹;《万方数据库》;20140415;全文
基于相位编码的深度获取系统构建;石悦鑫;《万方数据库》;20150415;全文
彩色结构光编码的视觉测量研究;高乐;《万方数据库》;20140417;全文
格雷码结合相移的编码结构光三维重建技术研究;侯风芝;《万方数据库》;20110803;全文

Also Published As

Publication number Publication date
CN105844633A (zh) 2016-08-10

Similar Documents

Publication Publication Date Title
CN105844633B (zh) 基于De序列和相位编码的单帧结构光深度获取方法
CN107945268B (zh) 一种基于二元面结构光的高精度三维重建方法及系统
CN101813461B (zh) 基于复合彩色条纹投影的绝对相位测量方法
CN104335005B (zh) 3d扫描以及定位系统
CN104197861B (zh) 基于结构光灰度向量的三维数字成像方法
CN101853528B (zh) 一种手持式三维型面信息提取方法及其提取仪
CN103400366B (zh) 基于条纹结构光的动态场景深度获取方法
CN109506589A (zh) 一种基于结构光场成像的三维轮廓测量方法
CN105806259B (zh) 一种基于二值光栅离焦投影的三维测量方法
CN103940370B (zh) 基于周期互质混合编码的目标物体三维信息获取方法
CN107990846B (zh) 基于单帧结构光的主被动结合深度信息获取方法
CN103697815A (zh) 基于相位编码的混频结构光三维信息获取方法
CN109945802B (zh) 一种结构光三维测量方法
CN103292741A (zh) 一种基于k均值颜色聚类的物体表面三维轮廓的结构光视觉测量方法
WO2012096747A1 (en) Forming range maps using periodic illumination patterns
CN101509764A (zh) 一种快速获取物体三维形状的方法
CN105069789B (zh) 基于编码网格模板的结构光动态场景深度获取方法
CN104103058B (zh) 图像匹配系统及方法
CN105303572B (zh) 基于主被动结合的深度信息获取方法
CN104299211A (zh) 一种自由移动式三维扫描方法
CN108596008B (zh) 针对三维人脸测量的面部抖动补偿方法
CN106155299B (zh) 一种对智能设备进行手势控制的方法及装置
CN110174079B (zh) 一种基于四步相移编码型面结构光的三维重建方法
CN108592822A (zh) 一种基于双目相机及结构光编解码的测量系统及方法
CN106500626A (zh) 一种手机立体成像方法及三维成像手机

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant