CN104835158A - 基于格雷码结构光与极线约束的三维点云获取方法 - Google Patents
基于格雷码结构光与极线约束的三维点云获取方法 Download PDFInfo
- Publication number
- CN104835158A CN104835158A CN201510222288.1A CN201510222288A CN104835158A CN 104835158 A CN104835158 A CN 104835158A CN 201510222288 A CN201510222288 A CN 201510222288A CN 104835158 A CN104835158 A CN 104835158A
- Authority
- CN
- China
- Prior art keywords
- point
- camera
- image
- coordinate
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明基于双目立体视觉法和编码结构光法的原理,提出了一种基于格雷码结构光与极线约束的三维点云获取方法,其将对极约束和编码条纹约束两种对应点匹配的约束条件进行叠加,将点匹配的搜索范围缩小到一维,简化了两视图图像的匹配问题,同时保证了匹配的准确度。该方法不需要利用摄像机与投影仪的相对位置计算物点深度,因此绕过了投影仪标定与摄像机的联合标定问题,更加便捷地实现了三维点云的获取。
Description
技术领域
本发明属于图像信息处理领域,涉及三维点云获取方法,尤其涉及基于格雷码结构光与极线约束的三维点云获取方法。
背景技术
三维重建一直是计算机视觉领域中的热门课题。针对不同应用背景,人们提出了一系列三维重建方法。在众多方法中,光学三维测量方法因为其“非接触”与“全场”的特点,应用最为最广泛。而双目立体视觉法和结构光法又是其中两种在工程实践中最常用到的光学三维重构方法。
双目立体视觉法用不同地点的两台摄像机取得同一场景的两幅视差图像,通过对同一物点在两幅图像上的两个像点的匹配和检测,得到该物点的三维坐标信息。其优点是原理简单,但计算过程中需要通过稠密匹配算法在两幅图像中寻找对应点,效率不高且精度有限。
编码结构光法则利用结构光投影的几何信息来求得物体表面的三维信息。为了区分出投影在物体表面上的每一条纹的序数,对条纹进行编码,依次将编码条纹投射到物体表面,在物体上形成图案并由摄像机摄取,然后根据三角法和设备结构参数进行计算,得到物体表面的三维坐标值。其优点是量程大、精度高、速度快,但需要进行投影仪与摄像机的联合标定,且一旦若摄像机与投影仪的相对位置发生了改变,就需要重新进行标定,过程繁琐且灵活性较差。
发明内容
本发明综合利用双目立体视觉法和编码结构光法的原理,提出了一种基于格雷码结构光与极线约束的三维点云获取方法。将对极约束和编码条纹约束两种对应点匹配的约束条件进行叠加,将点匹配的搜索范围缩小到一维,简化了两视图图像的匹配问题,同时保证了匹配的准确度。该方法不需要利用摄像机与投影仪的相对位置计算物点深度,因此绕过了投影仪标定与摄像机的联合标定问题,更加便捷地实现了三维点云的获取。
具体地,本发明采用的技术方案是:
一种基于格雷码结构光与极线约束的三维点云获取方法,其特征在于包括以下步骤:
S1.同步标定双摄像机,获得两摄像机的内外参数矩阵;
S2.在S1中得到摄像机内外参数矩阵基础上建立两摄像机视图之间的极线约束,将对应点的搜索范围缩减到一维;
S3.将格雷码编码条纹以此投影到待测物体表面并采集图像,再从中提取编码信息;
S4.利用在S2和S3中建立的点匹配约束条件得到两视图中对应点的匹配关系;
S5.利用在S4中建立的点匹配关系计算物体表面的三维点云。
进一步地,所述步骤S1的具体方法包括:
摄像机成像模型的建立基于三个抽象的坐标系分别为世界坐标系(W),摄像机坐标系(C)和图像坐标系(I),摄像机成像中与摄像机自身性能参数相关的部分用内参数矩阵K描述,与成像环境相关的部分用外参数矩阵P描述;
摄像机的内参数矩阵K为:
其中,α、β是像素单位表示焦距,θ是图像坐标系两坐标轴的夹角,u0和v0表示光轴与图像的交点位置;
摄像机的外参数矩阵P为:
其中为单位正交矩阵,表示三维坐标系之间的旋转变换,与分别表示世界坐标系和摄像机坐标系的三个基向量,T为平移向量,表示摄像机坐标系与世界坐标系之间的平移;
摄像机内、外参数矩阵的乘积即为摄像机的投影矩阵M,M由5个内参数(α,β,u0,v0,θ)(其中:α与β分别表示水平和竖直方向的等效焦距,(u0,v0)为光学图像中心坐标,θ为图像坐标系两坐标轴的夹角)和6个外参数表达,其中6个外参数中3个外参数表示平移T,另外3个表示旋转矩阵的3个自由度;
其中r1,r2,r3分别表示的三行;
拍摄多幅标定参考图像,输入对应参考特征点世界坐标和图像坐标,解算得到摄像机内参数矩阵K和外参数矩阵P;双摄像机同时标定需要保证两摄像机视图中所识别的特征点能够匹配,即确定左、右摄像机视图中对应同一物点的特征点对。若采用标准棋盘格进行标定,可根据棋盘格中各角点空间次序的不变性实现两视图中特征点的匹配。
进一步地,所述步骤S2的具体方法包括:
给定空间中一点P,Pl和Pr分别是点P在左右两摄像机坐标系中的坐标。不妨选择左摄像机坐标系为基准坐标系,则右摄像机光心的坐标为T,由坐标变换关系可知:
Pl=RPr+T
其中,R为左右摄像机坐标系之间的旋转矩阵,上式经变换得到:
(Pr)T(RTS)Pl=0
其中, 记E=RTS为本征矩阵,则有:
(Pr)TEPl=0
设pl,pr分别为Pl,Pr在各自摄像机的图像坐标系中的齐次坐标,则有:
其中,Κl与Κr分别为左、右两摄像机的内参数矩阵,zl,zr为未知常数,综合上述两式有:
(zrpr)T(Κr -1)TEΚl -1(zlpl)=0
消去zl,zr得:
(pr)T(Κr -1)TEΚl -1pl=0
记F=(Κr -1)TEΚl -1为基础矩阵,则有:
(pr)TFpl=0
以左摄像机视图为主视图,可算出对应左摄像机视图上任意像素点pl的外极线方程(a,b,c)·pr=0的系数a,b,c:
l=Fpl=(a,b,c)T
点pl对应的极线方程ax+by+c=0已知,即建立了相应的对极约束。
进一步地,所述步骤S3的具体方法包括:
格雷码是一种错误最小化的常用二进制时序编码方法,其特点是任意两个相邻码字间的Hamming距离都是1,抗干扰能力较强。设图像像素宽度为W,对于第k幅格雷码条纹编码图像,横坐标为w的点的灰度值Gk,w应为:
其中,W为编码图像宽度。保持被测物体静止,依次将根据上式绘制出的编码条纹图案投射到被测物体表面,并由左、右两摄像机进行摄取。然后对附加编码信息的图像明暗部分进行二值化处理。
每一幅时序编码图像提供一比特码值信息,设白色为1,黑色为0,时序较小编码图像对应的码值置于最终编码的高位,时序较大编码图像对应的码值置于最终编码的低位。对某一摄像机视图的一组编码图像上所有点进行解码处理后,即得到该摄像机视图内各点的编码值,且任意一点的编码值唯一确定了该点所属的条纹。
进一步地,所述步骤S4的具体方法包括:
对于左摄像机视图中任意一点pl,由于摄像机左右分布,其外极线的方向是横向的,而使用的结构光编码条纹是纵向的,二者相交得到一个交点pr,pr便是pl在右摄像机视图中的对应点。该过程可以理解为在原本困难的二维稠密匹配过程中引入了对极线和编码条纹两个强约束,从而简化了匹配过程。
考虑到物体表面形状起伏对编码条纹的影响,某一特定编码值对应的编码条纹通常不是直线,沿条纹搜索较为复杂,而外极线是直线,因此沿外极线搜索编码值与当前点相等的点,即得到当前点在另一摄像机视图中的对应点。相对于传统色块匹配算法,该方法能够简单高效地完成对应点的匹配。
进一步地,所述步骤S5的具体方法包括:
根据摄像机内参数矩阵K的定义,有:
其中,zl,zr为未知常数,上式等价于:
将Pr=RT(Pl-T)代入得:
其中,pl=(xl,yl,1),pr=(xr,yr,1), 上式可写为:
上式是一个过约束的方程组,有4个关于Pl的三个坐标分量的独立线性等式。利用最小二乘法可求解这个方程得到Pl的三维坐标。对左摄像机视图所有采样点完成求解即得到物体表面的三维点云。
本发明所述方法基于双目立体视觉法和编码结构光法的原理,提出了一种基于格雷码结构光与极线约束的三维点云获取方法。将对极约束和编码条纹约束两种对应点匹配的约束条件进行叠加,将点匹配的搜索范围缩小到一维,简化了两视图图像的匹配问题,同时保证了匹配的准确度。该方法不需要利用摄像机与投影仪的相对位置计算物点深度,回避了投影仪标定与摄像机的联合标定问题,更加便捷地实现了三维点云的获取。
附图说明:
图1为本发明的总体流程图。
图2为格雷编码与投影序列图像的对应关系。
具体实施方式
下面将结合附图和实例对本发明的具体实施方式作进一步的详细说明。
本发明所述方法基于双目立体视觉法和编码结构光法的原理,提出了一种基于格雷码结构光与极线约束的三维点云获取方法。首先,同步标定双摄像机,获得两摄像机的内外参数矩阵;然后,基于标定结果,建立两摄像机视图之间的极线约束,将对应点的搜索范围缩减到一维;然后,将格雷码编码条纹依次投影到待测物体表面并采集图像,再从中提取编码信息;然后,利用极线约束和编码信息得到两视图中对应点的匹配关系;最后,利用点匹配关系计算物体表面的三维点云。总体流程图如图1所示。
本发明提供的基于格雷码结构光与极线约束的三维点云获取方法通过以下步骤实现:
S1.同步标定双摄像机,获得两摄像机的内外参数矩阵;
摄像机成像模型的建立基于三个抽象的坐标系:世界坐标系(W),摄像机坐标系(C)和图像坐标系(I)。成像中与摄像机自身性能参数相关的部分用内参数矩阵K描述,与成像环境相关的部分用外参数矩阵P描述。
摄像机的内参数矩阵K为:
其中,α、β是像素单位表示焦距,θ是图像坐标系两坐标轴的夹角,u0和v0表示光轴与图像的交点位置。
摄像机的外参数矩阵P为:
其中为单位正交矩阵,表示三维坐标系之间的旋转变换,T为平移向量,表示摄像机坐标系与世界坐标系之间的平移。
摄像机内、外参数矩阵的乘积即为摄像机的投影矩阵M,M由5个内参数(α,β,u0,v0,θ)和6个外参数(6个外参数中3个外参数表示平移T,另外3个表示旋转矩阵的3个自由度)表达:
其中r1,r2,r3分别表示的三行。
拍摄多幅标定参考图像,输入对应参考特征点世界坐标和图像坐标,解算得到摄像机内参数矩阵K和外参数矩阵P。双摄像机同时标定需要考虑两个摄像机标定图像中特征点识别的一致性,即左、右摄像机视图中同一次序的特征点要对应同一物点,采用标准棋盘格各角点空间次序的不变性确定。
S2.在S1中得到摄像机内外参数矩阵基础上建立两摄像机视图之间的极线约束,将对应点的搜索范围缩减到一维;
给定空间中一点P,Pl和Pr分别是点P在左右两摄像机坐标系中的坐标。不妨选择左摄像机坐标系为基准坐标系,则右摄像机光心的坐标为T,由坐标变换关系可知:
Pl=RPr+T
上式经变换得到:
(Pr)T(RTS)Pl=0
其中, 记E=RTS为本征矩阵,则有:
(Pr)TEPl=0
设pl,pr分别为Pl,Pr在各自摄像机的图像坐标系中的齐次坐标,则有:
其中,zl,zr为未知常数,综合上述两式有:
(zrpr)T(Κr -1)TEΚl -1(zlpl)=0
消去zl,zr得:
(pr)T(Κr -1)TEΚl -1pl=0
记F=(Κr -1)TEΚl -1为基础矩阵,则有:
(pr)TFpl=0
以左摄像机视图为主视图,可算出对应左摄像机视图上任意像素点pl的外极线方程系数a,b,c:
l=Fpl=(a,b,c)T
点pl对应的极线方程ax+by+c=0已知,即建立了相应的对极约束。
S3.将格雷码编码条纹以此投影到待测物体表面并采集图像,再从中提取编码信息;
格雷码是一种错误最小化的常用二进制时序编码方法,其特点是任意两个相邻码字间的Hamming距离都是1,抗干扰能力较强。设图像像素宽度为W,对于第k幅格雷码条纹编码图像,横坐标为w的点的灰度值应为:
保持被测物体静止,依次将根据上式绘制出的编码条纹图案投射到被测物体表面,并由左、右两摄像机进行摄取。投影序列图像与格雷编码的关系如图2所示。然后对附加编码信息的图像明暗部分进行二值化处理。
每一幅时序编码图像提供一比特码值信息,设白色为1,黑色为0,时序较小编码图像对应的码值置于最终编码的高位,时序较大编码图像对应的码值置于最终编码的低位。对某一摄像机视图的一组编码图像上所有点进行解码处理后,即得到该摄像机视图内各点的编码值,且任意一点的编码值唯一确定了该点所属的条纹。
S4.利用在S2和S3中建立的点匹配约束条件得到两视图中对应点的匹配关系;
对于左摄像机视图中任意一点pl,由于摄像机左右分布,其外极线的方向是横向的,而使用的结构光编码条纹是纵向的,二者相交得到一个交点pr,pr便是pl在右摄像机视图中的对应点。该过程可以理解为在原本困难的二维稠密匹配过程中引入了对极线和编码条纹两个强约束,从而简化了匹配过程。
考虑到物体表面形状起伏对编码条纹的影响,某一特定编码值对应的编码条纹通常不是直线,沿条纹搜索较为复杂,而外极线是直线,因此沿外极线搜索编码值与当前点相等的点,即得到当前点在另一摄像机视图中的对应点。相对于传统色块匹配算法,该方法能够简单高效地完成对应点的匹配。
S5.利用在S4中建立的点匹配关系计算物体表面的三维点云。
根据摄像机内参数矩阵K的定义,有:
其中,zl,zr为未知常数,上式等价于:
将Pr=RT(Pl-T)代入得:
其中,pl=(xl,yl,1),pr=(xr,yr,1), 上式可写为:
上式是一个过约束的方程组,有4个关于Pl的三个坐标分量的独立线性等式。利用最小二乘法可求解这个方程得到Pl的三维坐标。对左摄像机视图所有采样点完成求解即得到物体表面的三维点云。
Claims (6)
1.一种基于格雷码结构光与极线约束的三维点云获取方法,其特征在于包括以下步骤:
S1.同步标定双摄像机,获得两摄像机的内外参数矩阵;
S2.在S1中得到摄像机内外参数矩阵基础上建立两摄像机视图之间的极线约束,将对应点的搜索范围缩减到一维;
S3.将格雷码编码条纹以此投影到待测物体表面并采集图像,再从中提取编码信息;
S4.利用在S2和S3中建立的点匹配约束条件得到两视图中对应点的匹配关系;
S5.利用在S4中建立的点匹配关系计算物体表面的三维点云。
2.根据权利要求1所述的基于格雷码结构光与极线约束的三维点云获取方法,其特征在于:所述步骤S1的具体方法包括:
摄像机成像模型的建立基于三个抽象的坐标系分别为世界坐标系(W),摄像机坐标系(C)和图像坐标系(I),摄像机成像中与摄像机自身性能参数相关的部分用内参数矩阵K描述,与成像环境相关的部分用外参数矩阵P描述;
摄像机的内参数矩阵K为:
其中,α、β是像素单位表示焦距,θ是图像坐标系两坐标轴的夹角,u0和v0表示光轴与图像的交点位置;
摄像机的外参数矩阵P为:
其中为单位正交矩阵,表示三维坐标系之间的旋转变换,与分别表示世界坐标系和摄像机坐标系的三个基向量,T为平移向量,表示摄像机坐标系与世界坐标系之间的平移;
摄像机内、外参数矩阵的乘积即为摄像机的投影矩阵M,M由5个内参数(α,β,u0,v0,θ)和6个外参数表达,其中:5个内参数中α与β分别表示水平和竖直方向的等效焦距,(u0,v0)为光学图像中心坐标,θ为图像坐标系两坐标轴的夹角,6个外参数中3个外参数表示平移T,另外3个表示旋转矩阵的3个自由度;
其中r1,r2,r3分别表示的三行;
拍摄多幅标定参考图像,输入对应参考特征点世界坐标和图像坐标,解算得到摄像机内参数矩阵K和外参数矩阵P;双摄像机同时标定需要保证两摄像机视图中所识别的特征点能够匹配,即确定左、右摄像机视图中对应同一物点的特征点对;若采用标准棋盘格进行标定,可根据棋盘格中各角点空间次序的不变性实现两视图中特征点的匹配。
3.根据权利要求2所述的基于格雷码结构光与极线约束的三维点云获取方法,其特征在于:所述步骤S2的具体方法包括:
给定空间中一点P,Pl和Pr分别是点P在左右两摄像机坐标系中的坐标;选择左摄像机坐标系为基准坐标系,则右摄像机光心的坐标为T,由坐标变换关系可知:
Pl=RPr+T
其中,R为左右摄像机坐标系之间的旋转矩阵,上式经变换得到:
(Pr)T(RTS)Pl=0
其中, 记E=RTS为本征矩阵,则有:
(Pr)TEPl=0
设pl,pr分别为Pl,Pr在各自摄像机的图像坐标系中的齐次坐标,则有:
其中,Κl与Κr分别为左、右两摄像机的内参数矩阵,zl,zr为未知常数,综合上述两式有:
(zrpr)T(Κr -1)TEΚl -1(zlpl)=0
消去zl,zr得:
(pr)T(Κr -1)TEΚl -1pl=0
记F=(Κr -1)TEΚl -1为基础矩阵,则有:
(pr)TFpl=0
以左摄像机视图为主视图,算出对应左摄像机视图上任意像素点pl的外极线方程(a,b,c)·pr=0的系数a,b,c:
l=Fpl=(a,b,c)T
点pl对应的极线方程ax+by+c=0已知,即建立了相应的对极约束。
4.根据权利要求3所述的基于格雷码结构光与极线约束的三维点云获取方法,其特征在于:所述步骤S3的具体方法包括:
设图像像素宽度为W,对于第k幅格雷码条纹编码图像,横坐标为w的点的灰度值Gk,w应为:
其中,W为编码图像宽度;保持被测物体静止,依次将根据上式绘制出的编码条纹图案投射到被测物体表面,并由左、右两摄像机进行摄取,然后对附加编码信息的图像明暗部分进行二值化处理;
每一幅时序编码图像提供一比特码值信息,设白色为1,黑色为0,时序较小编码图像对应的码值置于最终编码的高位,时序较大编码图像对应的码值置于最终编码的低位;对某一摄像机视图的一组编码图像上所有点进行解码处理后,即得到该摄像机视图内各点的编码值,且任意一点的编码值唯一确定了该点所属的条纹。
5.根据权利要求4所述的基于格雷码结构光与极线约束的三维点云获取方法,其特征在于:所述步骤S4的具体方法包括:
对于左摄像机视图中任意一点pl,由于摄像机左右分布,其外极线的方向是横向的,而使用的结构光编码条纹是纵向的,二者相交得到一个交点pr,pr便是pl在右摄像机视图中的对应点。
6.根据权利要求5所述的基于格雷码结构光与极线约束的三维点云获取方法,其特征在于:所述步骤S5的具体方法包括:
根据摄像机内参数矩阵K的定义,有:
其中,zl,zr为未知常数,上式等价于:
将Pr=RT(Pl-T)代入得:
其中,pl=(xl,yl,1),pr=(xr,yr,1), 上式可写为:
上式是一个过约束的方程组,有4个关于Pl的三个坐标分量的独立线性等式;利用最小二乘法求解这个方程得到Pl的三维坐标;对左摄像机视图所有采样点完成求解即得到物体表面的三维点云。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510222288.1A CN104835158B (zh) | 2015-05-05 | 2015-05-05 | 基于格雷码结构光与极线约束的三维点云获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510222288.1A CN104835158B (zh) | 2015-05-05 | 2015-05-05 | 基于格雷码结构光与极线约束的三维点云获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104835158A true CN104835158A (zh) | 2015-08-12 |
CN104835158B CN104835158B (zh) | 2016-03-23 |
Family
ID=53813023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510222288.1A Active CN104835158B (zh) | 2015-05-05 | 2015-05-05 | 基于格雷码结构光与极线约束的三维点云获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104835158B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106934833A (zh) * | 2017-02-06 | 2017-07-07 | 江苏华航威泰机器人科技有限公司 | 一种散乱堆放物料拾取装置和方法 |
CN106991702A (zh) * | 2017-03-03 | 2017-07-28 | 浙江华睿科技有限公司 | 一种投影仪标定方法及装置 |
CN107063087A (zh) * | 2017-03-13 | 2017-08-18 | 浙江优迈德智能装备有限公司 | 一种基于手持示教器的着漆中心点信息的测量方法 |
CN108332685A (zh) * | 2018-02-05 | 2018-07-27 | 哈尔滨理工大学 | 一种编码结构光三维测量方法 |
CN109102524A (zh) * | 2018-07-17 | 2018-12-28 | 广州视源电子科技股份有限公司 | 图像特征点的跟踪方法和跟踪装置 |
CN109887022A (zh) * | 2019-02-25 | 2019-06-14 | 北京超维度计算科技有限公司 | 一种双目深度相机的特征点匹配方法 |
CN109975141A (zh) * | 2019-04-11 | 2019-07-05 | 中国矿业大学(北京) | 一种用于爆破过程中试件应变的实验分析系统及方法 |
CN110044301A (zh) * | 2019-03-29 | 2019-07-23 | 易思维(天津)科技有限公司 | 基于单双目混合测量的三维点云计算方法 |
CN112070842A (zh) * | 2020-07-28 | 2020-12-11 | 安徽农业大学 | 一种基于正交编码条纹的多摄像机全局标定方法 |
CN112414301A (zh) * | 2020-10-22 | 2021-02-26 | 光华临港工程应用技术研发(上海)有限公司 | 一种用于线结构光三维测量的设备 |
CN112530020A (zh) * | 2020-12-22 | 2021-03-19 | 珠海格力智能装备有限公司 | 三维数据的重建方法、装置、处理器和电子装置 |
CN113506348A (zh) * | 2021-07-15 | 2021-10-15 | 吉林省凯迪科技有限公司 | 一种基于格雷码辅助的三维坐标计算方法 |
CN114295516A (zh) * | 2021-11-18 | 2022-04-08 | 煤炭科学研究总院 | 物料的密度测量方法及其装置 |
TWI816511B (zh) * | 2022-08-15 | 2023-09-21 | 國立高雄大學 | 運用平衡格雷碼之影像辨識方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008062407A2 (en) * | 2006-11-21 | 2008-05-29 | Mantisvision Ltd. | 3d geometric modeling and 3d video content creation |
CN104197861A (zh) * | 2014-08-25 | 2014-12-10 | 深圳大学 | 基于结构光灰度向量的三维数字成像方法 |
CN104390608A (zh) * | 2014-11-27 | 2015-03-04 | 上海江南长兴造船有限责任公司 | 基于投影栅相位法的结构光三维形状构建方法 |
-
2015
- 2015-05-05 CN CN201510222288.1A patent/CN104835158B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008062407A2 (en) * | 2006-11-21 | 2008-05-29 | Mantisvision Ltd. | 3d geometric modeling and 3d video content creation |
CN104197861A (zh) * | 2014-08-25 | 2014-12-10 | 深圳大学 | 基于结构光灰度向量的三维数字成像方法 |
CN104390608A (zh) * | 2014-11-27 | 2015-03-04 | 上海江南长兴造船有限责任公司 | 基于投影栅相位法的结构光三维形状构建方法 |
Non-Patent Citations (1)
Title |
---|
易凯: "结构光三维测量与点云配准的研究", 《中国优秀硕士学位论文全文数据库 科技信息辑》 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106934833B (zh) * | 2017-02-06 | 2019-09-10 | 华中科技大学无锡研究院 | 一种散乱堆放物料拾取装置和方法 |
CN106934833A (zh) * | 2017-02-06 | 2017-07-07 | 江苏华航威泰机器人科技有限公司 | 一种散乱堆放物料拾取装置和方法 |
CN106991702A (zh) * | 2017-03-03 | 2017-07-28 | 浙江华睿科技有限公司 | 一种投影仪标定方法及装置 |
CN106991702B (zh) * | 2017-03-03 | 2020-06-23 | 浙江华睿科技有限公司 | 一种投影仪标定方法及装置 |
CN107063087A (zh) * | 2017-03-13 | 2017-08-18 | 浙江优迈德智能装备有限公司 | 一种基于手持示教器的着漆中心点信息的测量方法 |
CN107063087B (zh) * | 2017-03-13 | 2019-04-30 | 浙江优迈德智能装备有限公司 | 一种基于手持示教器的着漆中心点信息的测量方法 |
CN108332685B (zh) * | 2018-02-05 | 2019-11-29 | 哈尔滨理工大学 | 一种编码结构光三维测量方法 |
CN108332685A (zh) * | 2018-02-05 | 2018-07-27 | 哈尔滨理工大学 | 一种编码结构光三维测量方法 |
CN109102524A (zh) * | 2018-07-17 | 2018-12-28 | 广州视源电子科技股份有限公司 | 图像特征点的跟踪方法和跟踪装置 |
CN109887022A (zh) * | 2019-02-25 | 2019-06-14 | 北京超维度计算科技有限公司 | 一种双目深度相机的特征点匹配方法 |
CN110044301A (zh) * | 2019-03-29 | 2019-07-23 | 易思维(天津)科技有限公司 | 基于单双目混合测量的三维点云计算方法 |
WO2020199439A1 (zh) * | 2019-03-29 | 2020-10-08 | 易思维天津科技有限公司 | 基于单双目混合测量的三维点云计算方法 |
CN109975141A (zh) * | 2019-04-11 | 2019-07-05 | 中国矿业大学(北京) | 一种用于爆破过程中试件应变的实验分析系统及方法 |
CN112070842A (zh) * | 2020-07-28 | 2020-12-11 | 安徽农业大学 | 一种基于正交编码条纹的多摄像机全局标定方法 |
CN112070842B (zh) * | 2020-07-28 | 2023-03-21 | 安徽农业大学 | 一种基于正交编码条纹的多摄像机全局标定方法 |
CN112414301A (zh) * | 2020-10-22 | 2021-02-26 | 光华临港工程应用技术研发(上海)有限公司 | 一种用于线结构光三维测量的设备 |
CN112530020A (zh) * | 2020-12-22 | 2021-03-19 | 珠海格力智能装备有限公司 | 三维数据的重建方法、装置、处理器和电子装置 |
CN113506348A (zh) * | 2021-07-15 | 2021-10-15 | 吉林省凯迪科技有限公司 | 一种基于格雷码辅助的三维坐标计算方法 |
CN113506348B (zh) * | 2021-07-15 | 2023-02-28 | 吉林省凯迪科技有限公司 | 一种基于格雷码辅助的三维坐标计算方法 |
CN114295516A (zh) * | 2021-11-18 | 2022-04-08 | 煤炭科学研究总院 | 物料的密度测量方法及其装置 |
TWI816511B (zh) * | 2022-08-15 | 2023-09-21 | 國立高雄大學 | 運用平衡格雷碼之影像辨識方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104835158B (zh) | 2016-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104835158B (zh) | 基于格雷码结构光与极线约束的三维点云获取方法 | |
CN108369743B (zh) | 使用多方向相机地图构建空间 | |
Schönbein et al. | Omnidirectional 3d reconstruction in augmented manhattan worlds | |
CN101976455B (zh) | 一种基于立体匹配的彩色图像三维重建方法 | |
CN104376552B (zh) | 一种3d模型与二维图像的虚实配准方法 | |
CN110009674B (zh) | 基于无监督深度学习的单目图像景深实时计算方法 | |
CN101887589B (zh) | 一种基于立体视觉的实拍低纹理图像重建方法 | |
CN108288292A (zh) | 一种三维重建方法、装置及设备 | |
CN106910222A (zh) | 基于双目立体视觉的人脸三维重建方法 | |
CN105160702A (zh) | 基于LiDAR点云辅助的立体影像密集匹配方法及系统 | |
Saurer et al. | Homography based visual odometry with known vertical direction and weak manhattan world assumption | |
US9865045B2 (en) | Orthogonal and collaborative disparity decomposition | |
CN104539928A (zh) | 一种光栅立体印刷图像合成方法 | |
CN111462302B (zh) | 基于深度编码网络的多视点人体动态三维重建方法及系统 | |
CN104537707A (zh) | 像方型立体视觉在线移动实时测量系统 | |
CN111028281A (zh) | 基于光场双目系统的深度信息的计算方法及装置 | |
Nagy et al. | Online targetless end-to-end camera-LiDAR self-calibration | |
Furukawa et al. | One-shot entire shape acquisition method using multiple projectors and cameras | |
WO2020221443A1 (en) | Scale-aware monocular localization and mapping | |
CN104182968A (zh) | 宽基线多阵列光学探测系统模糊动目标分割方法 | |
Gadasin et al. | Reconstruction of a Three-Dimensional Scene from its Projections in Computer Vision Systems | |
Jia et al. | Depth measurement based on a convolutional neural network and structured light | |
Fan et al. | Large-scale dense mapping system based on visual-inertial odometry and densely connected U-Net | |
CN101523436A (zh) | 用于恢复视频流中的视差的方法和滤波器 | |
Le Besnerais et al. | Dense height map estimation from oblique aerial image sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |