CN112945087A - 一种基于Carre算法的变相移步长的相位展开方法 - Google Patents

一种基于Carre算法的变相移步长的相位展开方法 Download PDF

Info

Publication number
CN112945087A
CN112945087A CN202011313380.6A CN202011313380A CN112945087A CN 112945087 A CN112945087 A CN 112945087A CN 202011313380 A CN202011313380 A CN 202011313380A CN 112945087 A CN112945087 A CN 112945087A
Authority
CN
China
Prior art keywords
phase
fringe
digital
computer
phase shift
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011313380.6A
Other languages
English (en)
Inventor
刘飞
张茵楠
吴延雪
吴高旭
杨时超
罗惠方
严谨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202011313380.6A priority Critical patent/CN112945087A/zh
Publication of CN112945087A publication Critical patent/CN112945087A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于Carre算法的变相移步长的相位展开方法,步骤包括:1)搭建数字光栅结构光三维测量系统;2)对相移步距进行连续编码,生成四幅数字条纹光栅图像;3)将四幅数字条纹光栅图像输出至投影仪,投影仪将四幅数字条纹光栅图像投影到被测物体表面,相机采集经过被测物体表面调制后的四幅条纹光栅图像;4)对采集的四幅条纹光栅图像进行处理计算,得到每一个像素点对应的相移步距及包裹相位;5)基于相移步距和包裹相位,计算得出每一个像素点对应的的条纹级数;6)根据包裹相位和条纹级数计算得到绝对相位;本发明仅需要四幅图像就能同时解出包裹相位和条纹级数,从而减少了投影图像数量,提高了测量速度。

Description

一种基于Carre算法的变相移步长的相位展开方法
技术领域
本发明属于光学三维形貌测量技术领域,具体涉及一种基于Carre算法的变相移步长的相位展开方法。
背景技术
随着科学技术的发展,三维形貌测量技术在工业自动测量,智能机器人,生物医学等众多领域的应用越来越广泛。三维形貌测量技术早期通过接触式测量,使测量探针接触被测物体来对物体三维形貌进行测量。接触式测量精度高但测量速度较慢且无法用于动态物体的测量。光学三维测量作为一种非接触式测量方法,利用光学仪器和电子仪器来获取物体三维形貌信息。光学三维测量技术又分为主动三维测量和被动三维测量两类。主动三维测量技术通过向物体表面投射特定的结构光,根据结构光的编码规则和被测物体的光栅图像的对应性得出物体的高度信息,进而实现物体的三维模型重建。
结构光三维测量技术根据结构光的编码方法分为不同的结构光测量方法。相移轮廓术(Phase measuring profilometry,PMP)即为一类。相移轮廓术通过具有一定相位差的一组条纹光栅图像获取每个像素点的相位值,然后根据相位值计算出高度信息。为提高测量的分辨率以及扩大测量范围,条纹光栅图像通常包含多个周期,对条纹光栅图像分析得到的相对相位值在0到2π之间呈周期性变化,需要在整个图像范围内将相对相位值展开为绝对相位才能保证每个像素点的单一对应性,进而计算出高度信息。
存在的问题:在结构光三维测量的实际应用中,能否从采集的条纹光栅图像中解出准确的相位信息直接影响着三维测量和重建精度。所需条纹光栅图像的数量直接影响着测量速度。传统相位展开算法为保证精度需要投影多幅光栅图像,以至于图像采集和处理的时间增加,影响了结构光三维重建的快速性与时效性。进而使结构光三维重建技术应用的领域受到限制。
发明内容
为实现本发明目的而采用的技术方案是这样的,一种基于Carre算法的变相移步长的相位展开方法,包括如下步骤:
1)搭建数字光栅结构光三维测量系统。其中,所述数字光栅结构光三维测量系统包括计算机、投影仪、相机和被测物体。所述相机和投影仪可通信的连接于所述计算机。所述相机和投影仪分别布置在待测物体的前方。
2)所述计算机基于Carre算法对相移步距进行连续编码,生成四幅数字条纹光栅图像。四幅数字条纹光栅图像按下列表达式生成:
I1(x,y)=A+Bcos[φ(x,y)-3α(x,y)] (1)
I2(x,y)=A+Bcos[φ(x,y)-α(x,y)] (2)
I3(x,y)=A+Bcos[φ(x,y)+α(x,y)] (3)
I4(x,y)=A+Bcos[φ(x,y)+3α(x,y)] (4)
式(1)至式(4)中,Ii(x,y)表示第i幅图像的灰度值(i=1,2,3,4),A表示图像的平均灰度,B表示图像的灰度调制,φ(x,y)表示绝对相位值,α(x,y)表示相移步距。
3)所述计算机将四幅数字条纹光栅图像输出至投影仪。所述投影仪将四幅数字条纹光栅图像投影到被测物体表面。所述相机采集经过被测物体表面调制后的四幅条纹光栅图像,并输出至计算机。
4)所述计算机对步骤3)采集的四幅条纹光栅图像进行处理计算,得到每一个像素点对应的相移步距α(x,y)及包裹相位
Figure BDA0002790555230000023
5)所述计算机基于相移步距α(x,y)和包裹相位
Figure BDA0002790555230000024
计算得出每一个像素点对应的的条纹级数k(x,y)。
6)所述计算机根据包裹相位
Figure BDA0002790555230000025
和条纹级数k(x,y)计算得到绝对相位φ(x,y)。
进一步,在步骤2)中,生成数字条纹光栅图像时,根据下列表达式对相移步距α(x,y)进行连续编码:
Figure BDA0002790555230000021
式(5)中,w是光栅图像的宽度。
进一步,在步骤4)中,相移步距α(x,y)和包裹相位
Figure BDA0002790555230000022
由下列表达式计算所得:
Figure BDA0002790555230000031
Figure BDA0002790555230000032
式(5)和式(7)中,arctan是反正切函数,Ic1、Ic2、Ic3、Ic4分别表示四幅条纹光栅图像的灰度值。
进一步,在步骤2)中,所述计算机生成四幅数字条纹光栅图像前,所述计算机需要确定待生成的四幅数字条纹光栅图像的条纹周期数N,且四幅数字条纹光栅图像的条纹周期数相同。
进一步,在步骤5)中,条纹级数k(x,y)由下列表达式计算所得:
Figure BDA0002790555230000033
式(8)中,round表示四舍五入取整运算。
进一步,在步骤6)中,绝对相位值φ(x,y)由下列表达式计算所得:
Figure BDA0002790555230000034
本发明的技术效果是毋庸置疑的,具有如下优点:
1)本发明基于Carre算法,对相移步距进行连续编码而非取定值,所以仅需要四幅图像就能同时解出包裹相位和条纹级数,从而减少了投影图像数量,提高了测量速度;
2)本发明依旧保留传统Carre算法的优点但测量速度更快,效率更高;
3)本发明不需要任何预先知道的信息,逐像素的获得绝对相位图,且操作简单,可提高整个快速测量过程的操作效率。
附图说明
图1为数字光栅结构光三维测量系统的结构示意图;
图2为本发明的流程示意图;
图3为本发明的生成的四幅数字光栅条纹图。
图中:计算机1、投影仪2、相机3和被测物体4。
具体实施方式
下面结合实施例对本发明作进一步说明,但不应该理解为本发明上述主题范围仅限于下述实施例。在不脱离本发明上述技术思想的情况下,根据本领域普通技术知识和惯用手段,做出各种替换和变更,均应包括在本发明的保护范围内。
实施例1:
本实施例公开一种基于Carre算法的变相移步长的相位展开方法,包括如下步骤:
1)参见图1和图2,搭建数字光栅结构光三维测量系统。其中,所述数字光栅结构光三维测量系统包括计算机1、投影仪2、相机3和被测物体4。所述相机3和投影仪2可通信的连接于所述计算机1。所述相机3和投影仪2分别布置在待测物体4的前方,其布置位置应保证该相机3拍摄范围覆盖该投影仪2的投影范围。
2)所述计算机1确定待生成的四幅数字条纹光栅图像的条纹周期数N,且四幅数字条纹光栅图像的条纹周期数相同。在本实施例中,所述计算机1基于Carre算法对用于生成四幅数字条纹光栅图像的绝对相位和相移步距分别根据下列表达式(1)和(2)进行编码:
Figure BDA0002790555230000041
Figure BDA0002790555230000042
其中,h是条纹节距,代表一个周期内的像素总数;w是投影光栅图像的宽度,其取决于采用的投影仪2的分辨率,x为为沿水平方向的像素坐标,y为沿竖直方向的像素坐标。
则四幅数字条纹光栅图像可通过下列表达式(3)至(6)生成:
Figure BDA0002790555230000043
Figure BDA0002790555230000044
Figure BDA0002790555230000045
Figure BDA0002790555230000051
本实施例生成的四幅数字条纹光栅图像展示在附图3中。
步骤2)中相移步距编码方式应遵循关于投影仪2坐标系一次线性递增,范围为[0,π/2],该编码方式用以实现条纹级数计算步骤的简化,减少所需数字光栅图像张数,保证条纹级数计算的准确度和精度。
3)所述计算机1将四幅数字条纹光栅图像输出至投影仪2。所述投影仪2将四幅数字条纹光栅图像投影到被测物体4表面。所述相机3采集经过被测物体4表面调制后的四幅条纹光栅图像,并输出至计算机1。
4)所述计算机1对步骤3)采集的四幅条纹光栅图像进行处理计算,得到每一个像素点对应的相移步距α(x,y)及包裹相位
Figure BDA0002790555230000052
相移步距α(x,y)和包裹相位
Figure BDA0002790555230000053
由下列表达式计算所得:
Figure BDA0002790555230000054
Figure BDA0002790555230000055
式(7)和式(8)中,arctan是反正切函数,Ic1、Ic2、Ic3、Ic4分别表示四幅条纹光栅图像的灰度值。
5)所述计算机1基于相移步距α(x,y)和包裹相位
Figure BDA0002790555230000056
计算得出每一个像素点对应的的条纹级数k(x,y)。条纹级数k(x,y)由下列表达式计算所得:
Figure BDA0002790555230000057
式(9)中,round表示四舍五入取整运算。
6)所述计算机1根据包裹相位
Figure BDA0002790555230000058
和条纹级数k(x,y)计算得到绝对相位φ(x,y)。绝对相位值φ(x,y)由下列表达式计算所得:
Figure BDA0002790555230000059
7)所述计算机1通过绝对相位φ(x,y)信息,并通过标定投影仪2和相机3的参数信息,计算被测物体4表面点的三维坐标数据,完成被测物体4的三维重建。
本实施例基于传统Carre算法,提供一种对相移步距连续编码而进行相位展开的方法,该方法使用一种图像频率,生成一组包含四步相移编码信息的条纹光栅图像,精确测量三维信息。该基于Carre算法的变相移步长的相位展开方法仅使用四幅图像同时解出包裹相位和绝对相位,不需要更多的图像或者额外的预知信息,测量速度更快,可以应用于快速三维测量领域,适合大规模的推广和应用。
实施例2:
本实施例提供一种较为基础的实现方式,一种基于Carre算法的变相移步长的相位展开方法,包括如下步骤:
1)参见图1和图2,搭建数字光栅结构光三维测量系统。其中,所述数字光栅结构光三维测量系统包括计算机1、投影仪2、相机3和被测物体4。所述相机3和投影仪2可通信的连接于所述计算机1。所述相机3和投影仪2分别布置在待测物体4的前方,其布置位置应保证该相机3拍摄范围覆盖该投影仪2的投影范围。
2)在本实施例中,所述计算机1基于Carre算法对用于生成四幅数字条纹光栅图像的绝对相位和相移步距分别根据下列表达式(1)和(2)进行编码:
Figure BDA0002790555230000061
Figure BDA0002790555230000062
其中,h是条纹节距,代表一个周期内的像素总数;w是投影光栅图像的宽度,其取决于采用的投影仪2的分辨率,x为为沿水平方向的像素坐标,y为沿竖直方向的像素坐标。
则四幅数字条纹光栅图像可通过下列表达式(3)至(6)生成:
Figure BDA0002790555230000063
Figure BDA0002790555230000064
Figure BDA0002790555230000071
Figure BDA0002790555230000072
本实施例生成的四幅数字条纹光栅图像展示在附图3中。
3)所述计算机1将四幅数字条纹光栅图像输出至投影仪2。所述投影仪2将四幅数字条纹光栅图像投影到被测物体4表面。所述相机3采集经过被测物体4表面调制后的四幅条纹光栅图像,并输出至计算机1。
4)所述计算机1对步骤3)采集的四幅条纹光栅图像进行处理计算,得到每一个像素点对应的相移步距α(x,y)及包裹相位
Figure BDA0002790555230000073
5)所述计算机1基于相移步距α(x,y)和包裹相位
Figure BDA0002790555230000074
计算得出每一个像素点对应的的条纹级数k(x,y)。
6)所述计算机1根据包裹相位
Figure BDA0002790555230000075
和条纹级数k(x,y)计算得到绝对相位φ(x,y)。
7)所述计算机1通过绝对相位φ(x,y)信息,并通过标定投影仪2和相机3的参数信息,计算被测物体4表面点的三维坐标数据,完成被测物体4的三维重建。
本实施例公开的基于Carre算法的变相移步长的相位展开方法仅使用四幅图像同时解出包裹相位和绝对相位,不需要更多的图像或者额外的预知信息,测量速度更快,可以应用于快速三维测量领域,适合大规模的推广和应用。
实施例3:
本实施例主要步骤同实施例2,进一步,在步骤4)中,相移步距α(x,y)和包裹相位
Figure BDA0002790555230000076
由下列表达式计算所得:
Figure BDA0002790555230000077
Figure BDA0002790555230000078
式(6)和式(7)中,arctan是反正切函数,Ic1、Ic2、Ic3、Ic4分别表示四幅条纹光栅图像的灰度值。
实施例4:
本实施例主要步骤同实施例2,进一步,在步骤2)中,所述计算机1生成四幅数字条纹光栅图像前,所述计算机1需要确定待生成的四幅数字条纹光栅图像的条纹周期数N,且四幅数字条纹光栅图像的条纹周期数相同。
实施例5:
本实施例主要步骤同实施例4,进一步,在步骤5)中,条纹级数k(x,y)由下列表达式计算所得:
Figure BDA0002790555230000081
式(7)中,round表示四舍五入取整运算。
实施例6:
本实施例主要步骤同实施例2,进一步,在步骤6)中,绝对相位值φ(x,y)由下列表达式计算所得:
Figure BDA0002790555230000082

Claims (6)

1.一种基于Carre算法的变相移步长的相位展开方法,其特征在于,包括如下步骤:
1)搭建数字光栅结构光三维测量系统;其中,所述数字光栅结构光三维测量系统包括所述计算机(1)、投影仪(2)、相机(3)和被测物体(4);所述相机(3)和投影仪(2)可通信的连接于所述计算机(1);所述相机(3)和投影仪(2)分别布置在待测物体(4)的前方;
2)所述计算机(1)基于Carre算法对相移步距进行连续编码,生成四幅数字条纹光栅图像。四幅数字条纹光栅图像按下列表达式生成:
I1(x,y)=A+Bcos[φ(x,y)-3α(x,y)] (1)
I2(x,y)=A+Bcos[φ(x,y)-α(x,y)] (2)
I3(x,y)=A+Bcos[φ(x,y)+α(x,y)] (3)
I4(x,y)=A+Bcos[φ(x,y)+3α(x,y)] (4)
式(1)至式(4)中,Ii(x,y)表示第i幅图像的灰度值(i=1,2,3,4),A表示图像的平均灰度,B表示图像的灰度调制,φ(x,y)表示绝对相位值,α(x,y)表示相移步距;
3)所述计算机(1)将四幅数字条纹光栅图像输出至投影仪(2);所述投影仪(2)将四幅数字条纹光栅图像投影到被测物体(4)表面;所述相机(3)采集经过被测物体(4)表面调制后的四幅条纹光栅图像,并输出至计算机(1);
4)所述计算机(1)对步骤3)采集的四幅条纹光栅图像进行处理计算,得到每一个像素点对应的相移步距α(x,y)及包裹相位
Figure FDA0002790555220000011
5)所述计算机(1)基于相移步距α(x,y)和包裹相位
Figure FDA0002790555220000012
计算得出每一个像素点对应的的条纹级数k(x,y);
6)所述计算机(1)根据包裹相位
Figure FDA0002790555220000013
和条纹级数k(x,y)计算得到绝对相位φ(x,y)。
2.根据权利要求2所述的一种基于Carre算法的变相移步长的相位展开方法,其特征在于:在步骤2)中,生成数字条纹光栅图像时,根据下列表达式对相移步距α(x,y)进行连续编码:
Figure FDA0002790555220000021
式(5)中,w是光栅图像的宽度。
3.根据权利要求1所述的一种基于Carre算法的变相移步长的相位展开方法,其特征在于:在步骤4)中,相移步距α(x,y)和包裹相位
Figure FDA0002790555220000022
由下列表达式计算所得:
Figure FDA0002790555220000023
Figure FDA0002790555220000024
式(6)和式(7)中,arctan是反正切函数,Ic1、Ic2、Ic3、Ic4分别表示四幅条纹光栅图像的灰度值。
4.根据权利要求1所述的一种基于Carre算法的变相移步长的相位展开方法,其特征在于:在步骤2)中,所述计算机(1)生成四幅数字条纹光栅图像前,所述计算机(1)需要确定待生成的四幅数字条纹光栅图像的条纹周期数N,且四幅数字条纹光栅图像的条纹周期数相同。
5.根据权利要求4所述的一种基于Carre算法的变相移步长的相位展开方法,其特征在于:在步骤5)中,条纹级数k(x,y)由下列表达式计算所得:
Figure FDA0002790555220000025
式(8)中,round表示四舍五入取整运算。
6.根据权利要求1所述的一种基于Carre算法的变相移步长的相位展开方法,其特征在于:在步骤6)中,绝对相位值φ(x,y)由下列表达式计算所得:
Figure FDA0002790555220000026
CN202011313380.6A 2020-11-21 2020-11-21 一种基于Carre算法的变相移步长的相位展开方法 Pending CN112945087A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011313380.6A CN112945087A (zh) 2020-11-21 2020-11-21 一种基于Carre算法的变相移步长的相位展开方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011313380.6A CN112945087A (zh) 2020-11-21 2020-11-21 一种基于Carre算法的变相移步长的相位展开方法

Publications (1)

Publication Number Publication Date
CN112945087A true CN112945087A (zh) 2021-06-11

Family

ID=76234683

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011313380.6A Pending CN112945087A (zh) 2020-11-21 2020-11-21 一种基于Carre算法的变相移步长的相位展开方法

Country Status (1)

Country Link
CN (1) CN112945087A (zh)

Similar Documents

Publication Publication Date Title
CN110645919B (zh) 一种基于空域二值编码的结构光三维测量方法
CN110174079B (zh) 一种基于四步相移编码型面结构光的三维重建方法
CN107036556B (zh) 基于分段量化相位编码的结构光三维测量方法
CN109945802B (zh) 一种结构光三维测量方法
CN108955571B (zh) 双频外差与相移编码相结合的三维测量方法
CN111174730B (zh) 一种基于相位编码的快速相位解包裹方法
CN102519390B (zh) 三编码周期灰度梯形相移结构光三维信息获取方法
CN104567730B (zh) 一种时空二元编码产生正弦结构光场的方法
CN102494637B (zh) 三个编码周期的三基色梯形相移三维信息获取方法
CN110849290B (zh) 基于形态学操作的分段量化编码强度的三维测量方法
CN112880589B (zh) 基于双频相位编码的光学三维测量方法
CN106840038B (zh) 一种双频相移与格雷码组合方法
CN112365601A (zh) 一种基于特征点信息的结构光三维点云重建方法
CN110207620A (zh) 一种通过不同频率确定数字光栅投影结构光级数的三维重建方法
Yu et al. Unequal-period combination approach of gray code and phase-shifting for 3-D visual measurement
CN111207692A (zh) 一种改进的分段阶梯相位编码三维测量方法
CN114234849B (zh) 一种调制格雷码信息于周期边缘的三维测量方法
CN110428459A (zh) 一种基于数字顺序编码的相位解包裹的方法
CN113345039B (zh) 三维重建量化结构光相位图像编码方法
CN102519396B (zh) 三个灰度对称线性编码周期的采样点三维信息获取方法
CN114252026B (zh) 调制三维编码于周期边缘的三维测量方法及系统
CN112945087A (zh) 一种基于Carre算法的变相移步长的相位展开方法
CN114234852B (zh) 基于最佳映射点集匹配的多目结构光三维测量方法及系统
CN114234850B (zh) 一种调制级次相位于周期边缘的三维测量方法
CN102494638B (zh) 三个编码周期的三基色三角形相移三维信息获取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210611