CN105021124B - 一种基于深度图的平面零件三维位置和法向量计算方法 - Google Patents
一种基于深度图的平面零件三维位置和法向量计算方法 Download PDFInfo
- Publication number
- CN105021124B CN105021124B CN201510183903.2A CN201510183903A CN105021124B CN 105021124 B CN105021124 B CN 105021124B CN 201510183903 A CN201510183903 A CN 201510183903A CN 105021124 B CN105021124 B CN 105021124B
- Authority
- CN
- China
- Prior art keywords
- plane
- point cloud
- dimensional position
- normal vector
- outliers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于深度图的平面零件三维位置和法向量计算方法,是使用形状匹配识别零件,再使用双目立体视觉系统获得零件所在感兴趣区域的稠密深度图;对稠密深度图进行非均匀采样和统计分析以移除离群点;再使用鲁棒的随机样本一致性算法拟合稠密深度图中的平面;根据平面方程来计算零件的三维位置和法向量,并给出了摄像机坐标系和世界坐标系的转换方法。本发明通用性强、定位精度高、稳定性好、适用于平面类零件。
Description
技术领域
本发明涉及视觉工业机器人零件三维定位领域,特别涉及一种基于深度图的平面零件三维位置和法向量计算方法。
背景技术
视觉工业机器人常用于焊接、码垛、装配、加工、检测、物流搬运和喷涂等领域,应用过程中都需要对零件进行识别和三维定位。零件三维定位是视觉工业机器人准确进行抓取和装配等作业的一个重要前提,三维定位精度直接影响到生产制造质量。在工业非结构化环境中,零件位姿各不相同,并且零件常受到非线性光照变化、杂乱背景和遮挡等因素干扰,使传统的基于稀疏特征点的三维定位方法不能得到稳定、精确的定位结果。另外,国内外在相关方面进行了大量的研究,现有视觉三维定位系统主要是根据具体零件的形状和大小进行针对性开发,通用性和鲁棒性不强,使得视觉三维定位软件的推广受到限制。基于此,在不提高硬件成本的前提下,使用鲁棒和精确的零件三维定位方法非常重要。
发明内容
本发明的目的在于克服现有技术中存在的缺点,提供一种通用性强、定位精度高、稳定性好、适用于平面类零件的基于深度图的平面零件三维位置和法向量计算方法。
双目立体视觉系统是通过对左右图像进行立体匹配以获得稠密深度图,并根据三角测量原理将深度图转换为三维数据,因此,利用稠密深度图可以精确计算零件的三维位置和法向量。因为许多零件具有平面特征,其三维位姿可以用三维位置和法向量表示,所以本发明针对平面类零件,使用双目立体视觉系统获得零件稠密深度图,并提出一种鲁棒的零件三维位置和法向量计算方法。
本发明的目的通过下述技术方案实现:
一种基于深度图的平面零件三维位置和法向量计算方法,包括下述步骤:
(1)识别和获得深度图:使用双目立体视觉系统获取工业场景中的图像,包括左图像和右图像,然后使用形状匹配算法来识别左图像中的零件;再使用双目立体视觉系统计算零件所在感兴趣区域的稠密深度图;
(2)移除离群点:将稠密深度图转换为三维点云,对点云进行非均匀采样以移除杂乱背景,再进行鲁棒的统计分析以移除点云中的反光离群点;
(3)平面拟合:利用移除离群点后的点云,使用随机样本一致性算法拟合平面,得到平面方程;
(4)计算三维位置和法向量:利用上述平面方程,计算零件的三维位置和法向量;再采用坐标转换方法,将三维位置和法向量从摄像机坐标系转换到世界坐标系上,完成零件的三维定位。
步骤(1)中,所述使用形状匹配算法来识别左图像中的零件,其识别步骤是:首先,创建零件的模板图像,同时假定左图像中存在位姿各异的零件;其次,在左图像中移动模板,计算模板图像与左图像的匹配区域的相似度,如果零件的方向与模板不同,还需要创建多个角度的模板;第三,如果相似度大于给定阈值,则意味着找到该模板的一个实例;最后,使用双目视觉系统来计算该实例的稠密深度图。
所述相似度是指模板图像与左图像的匹配区域的方向向量的夹角的余弦值的和的平均值,具体表示为:假定模板图像表示为T,其中任意点(x,y)灰度值表示为T(x,y),使用有限差分算子求模板图像的偏导数(Tx(x,y),Ty(x,y)),它构成了模板图像的方向向量,方向向量的角度θT(x,y)=tan-1(Ty(x,y),Tx(x,y));同样地,将左图像表示为I,其中任意点(x,y)灰度值表示为I(x,y),求左图像的偏导数(Ix(x,y),Iy(x,y)),它构成了左图像的方向向量,方向向量的角度θI(x,y)=tan-1(Iy(x,y),Ix(x,y));形状匹配的相似度表示为:
式(1)中:n是模板图像像素点的数量,s(r,c)是左图像I上任一点(r,c)的得分。
步骤(2)中,因金属零件表面反光、杂乱背景、遮挡和立体视觉系统算法误差等因素影响,稠密深度图中存在大量离群点,为抑制这些离群点,采用以下方法依次移除:
(2-1)假定零件的稠密深度图大小为Mt*Nt,令z(i,j)为稠密深度图在第i行和第j列处的深度值(0≤i<Mt-1,0≤j<Nt-1),将深度图像转化为三维点云Ω={(i,j,z(i,j))|i=0...Mt,j=0...Nt};
(2-2)移除杂乱离群点:确定点云最优的外接球体半径R,将球体以外的深度数据视为杂乱离群点而移除;
所述点云最优的外接球体半径R用下述鲁棒的方法来估计:
(2-2-1)计算点云中心点:其中z是点云所有深度值的集合z={zi∈pi(xi,yi,zi)|pi∈Ω};
(2-2-2)计算所有点云数据到中心点的距离的集合:d={||pi-p|||pi∈Ω};
(2-2-3)球体半径R=1.5median{d},其中常数1.5是为了使R称为球体半径的无偏估计。
(2-3)移除反光离群点:由反光干扰带来的离群点是偏离大部分数据的大离群点,体现为它们的深度值与平面深度值不连续,所以,可以采用点云的均值和标准偏差来分析数据是否超出了正态分布的某个区间值来移除离群点;但是,大离群点会使传统方法计算的均值和标准偏差不能够反映数据真实的分布,导致正常数据被误检测为离群点,因此也可以采用中值代替均值,由中值绝对偏差的中值代替标准偏差:
m=median{z}
式中:m指中值,s指中值绝对偏差的中值;
如果点云数据满足下式关系,它将被视为离群点:
式(3)中:k可取值为2.5或3.0。
步骤(3)中,由于步骤(2)得到的点云数据中不仅存在一个显著的平面,还存在少量离群点(例如遮挡离群点),这些离群点会影响传统的最小二乘法或者特征值法的平面拟合精度,因此使用随机样本一致性方法拟合平面;具体步骤如下:
(3-1)利用式(4)将点云数据转换到摄像机坐标系上:
式(4)中:(Xc,Yc,Zc)是点云在摄像机坐标系上的三维坐标,(xc,yc)是零件中心点在左图像中的像素位置,f是摄像机焦距,Tx是左右摄像机的基线距离,这三个参数可通过对立体视觉系统进行立体标定来确定;
(3-2)然后使用随机样本一致性算法拟合点云数据中的平面:
(3-2-1)从点云中随机选择3个样本点以构成子集S,使用该子集直接解算平面方程z=ax+by+c,得到方程的解p;
(3-2-2)使用该平面方程对点云进行划分,将平面误差di=|zi-axi-byi-c|小于某个阈值的点并入子集S,表示为S*,集合S*被称为集合S的一致集;
(3-2-3)如果集合num(S*)>t(t是内点的最小数量),那么利用它重新估计平面方程的参数p*,并计算平面误差;
(3-2-4)重复以上过程k次,记下平面误差最小的参数作为平面方程的参数p*。
迭代次数k可用以下方法计算:
式中:z是算法得到正确的平面的概率,w是点云中包含离群点的比例。例如假设z=95%,w=40%,那么可算出k=12。也就是说重复迭代12次后,得到正确的平面的概率为95%。
(3-3)输出平面方程的参数p*。
步骤(4)中,根据步骤(3)的平面方程,得到零件的三维位置和法向量,具体方法如下:
(4-1)计算平面上三个不共线的点Pc0、Pc1和Pc2,其中:规定Pc0是零件的三维位置,也就是平面中心点位置;
(4-2)将世界坐标系固定于平面标定板上,使用摄像机单目标定来计算平面标定板与左摄像机坐标系的旋转矩阵R和平移矩阵T;
(4-3)使用式(6)计算这三个点在世界坐标系上的三维坐标Pw0、Pw1和Pw2:
Pw=R-1(Pc-T) (6)
(4-4)零件的三维位置是Pw0,零件的法向量可用式(7)计算:
v=(Pw0-Pw1)×(Pw0-Pw2) (7)
本发明与现有技术相比具有如下优点和效果:
(1)采用计算效率高的形状匹配算法来识别零件,在非线性光照、杂乱和遮挡等因素影响下具备鲁棒性和实时性;
(2)采用零件的稠密深度图来计算零件的三维位置和法向量,算法有很好的稳定性和精度。
(3)通过对稠密深度图进行非均匀采样和标准差分析,抑制深度图中的离群点;进而使用鲁棒的随即样本一致性算法拟合点云数据,得到正确的平面方程;最后,根据平面方程提出了一种新颖的三维位置和法向量计算方法啊,并且给出了简易的坐标转换方法。
附图说明
图1基于深度图的零件三维位置和法向量计算方法的流程图
图2形状匹配算法识别零件示意图
图3立体视觉系统获得零件深度图示意图
图4非均匀采样示意图
图5移除反光离群点示意图
图6随机样本一致性算法拟合平面结果示意图
图7计算三维位置和法向量示意图
具体实施方式
下面结合实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
实施例1
如图1所示,是本发明基于深度图的零件三维位置和法向量计算方法的流程图。首先,使用双目立体视觉系统获取左右图片;接着,使用形状匹配算法识别左图像中的零件,并且计算零件的稠密深度图;然后,使用非均匀采样技术和统计分析方法来移除稠密深度图中的离群数据;第四,使用随机抽样一致性算法拟合稠密深度图中的平面;最后,根据平面方程来计算零件的三维位置和法向量,并且进行坐标转换。
具体步骤如下:
步骤一:创建大小为140像素*140像素的模板图像,获取大小为1280像素*960像素的左、右图像,使用形状匹配算法识别左图像中零件,如图2所示,图中共有5个零件被识别,分别用序号NO.1-5表示。接着,使用双目立体视觉系统来计算零件的深度图,如图3所示,图中左下方区域表示NO.1区域对应的稠密深度图,右下方区域是稠密深度图的放大图。
步骤二:为了抑制零件表面反光和杂乱背景离群点,通过计算点云的最优外接圆半径R来移除圆外的数据,即杂乱背景,如图4所示;接着,分析反光离群点的分布规律,使用点云数据的中值m、中值绝对偏差的中值s来移除反光离群点,如图5所示。本实施例中,R=60.1像素,中值m=136.25像素,中值绝对偏差的中值s=1.03像素。
步骤三:给定最小内点数量t、离群点比例w和平面拟合正确率z,使用随机样本一致性算法拟合平面,如图6所示。本实施例中,t=3500,w=0.5,z=0.95。
步骤四:计算平面上三个不共线的点Pc0,Pc1和Pc2,规定Pc0是零件的中心点三维位置,也就是平面方程的中心点;将这三个点从摄像机坐标系转换到世界坐标系上,得到Pw0,Pw1和Pw2,其中Pw0就是零件在世界坐标系上的三维位置,零件的法向量可由式(7)来计算,如图7所示。
Claims (8)
1.一种基于深度图的平面零件三维位置和法向量计算方法,其特征在于包括下述步骤:
(1)识别和获得深度图:使用双目立体视觉系统获取工业场景中的图像,包括左图像和右图像,然后使用形状匹配算法来识别左图像中的零件;再使用双目立体视觉系统计算零件所在感兴趣区域的稠密深度图;
(2)移除离群点:将稠密深度图转换为三维点云,对点云进行非均匀采样以移除杂乱背景,再进行鲁棒的统计分析以移除点云中的反光离群点;
(3)平面拟合:利用移除离群点后的点云,使用随机样本一致性算法拟合平面,得到平面方程;
(4)计算三维位置和法向量:利用上述平面方程,计算零件的三维位置和法向量;再采用坐标转换方法,将三维位置和法向量从摄像机坐标系转换到世界坐标系上,完成零件的三维定位。
2.根据权利要求1所述的基于深度图的平面零件三维位置和法向量计算方法,其特征在于:步骤(1)中,所述使用形状匹配算法来识别左图像中的零件,其识别步骤是:首先,创建零件的模板图像,同时假定左图像中存在位姿各异的零件;其次,在左图像中移动模板,计算模板图像与左图像的匹配区域的相似度,如果零件的方向与模板不同,还需要创建多个角度的模板;第三,如果相似度大于给定阈值,则意味着找到该模板的一个实例;最后,使用双目视觉系统来计算该实例的稠密深度图。
3.根据权利要求2所述的基于深度图的平面零件三维位置和法向量计算方法,其特征在于:所述相似度是指模板图像与左图像的匹配区域的方向向量的夹角的余弦值的和的平均值,具体表示为:假定模板图像表示为T,其中任意点(x,y)灰度值表示为T(x,y),使用有限差分算子求模板图像的偏导数(Tx(x,y),Ty(x,y)),它构成了模板图像的方向向量,方向向量的角度θT(x,y)=tan-1(Ty(x,y),Tx(x,y));同样地,将左图像表示为I,其中任意点(x,y)灰度值表示为I(x,y),求左图像的偏导数(Ix(x,y),Iy(x,y)),它构成了左图像的方向向量,方向向量的角度θI(x,y)=tan-1(Iy(x,y),Ix(x,y));形状匹配的相似度表示为:
<mrow>
<mi>s</mi>
<mrow>
<mo>(</mo>
<mi>r</mi>
<mo>,</mo>
<mi>c</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>n</mi>
</mfrac>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
<mo>&Element;</mo>
<mi>T</mi>
</mrow>
</munder>
<mi>c</mi>
<mi>o</mi>
<mi>s</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>&theta;</mi>
<mi>T</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>-</mo>
<msub>
<mi>&theta;</mi>
<mi>I</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>+</mo>
<mi>r</mi>
<mo>,</mo>
<mi>y</mi>
<mo>+</mo>
<mi>c</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
式(1)中:n是模板图像像素点的数量,s(r,c)是左图像I上任一点(r,c)的得分。
4.根据权利要求1所述的基于深度图的平面零件三维位置和法向量计算方法,其特征在于:步骤(2)中,所述移除离群点是采用以下方法依次移除:
(2-1)假定零件的稠密深度图大小为Mt*Nt,令z(i,j)为稠密深度图在第i行和第j列处的深度值(0≤i<Mt-1,0≤j<Nt-1),将深度图像转化为三维点云Ω={(i,j,z(i,j))|i=0...Mt,j=0...Nt};
(2-2)移除杂乱离群点:确定点云最优的外接球体半径R,将球体以外的深度数据视为杂乱离群点而移除;
(2-3)移除反光离群点:由反光干扰带来的离群点是偏离大部分数据的大离群点,体现为它们的深度值与平面深度值不连续,所以,能够采用点云的均值和标准偏差来分析数据是否超出了正态分布的某个区间值来移除离群点;但是,大离群点会使传统方法计算的均值和标准偏差不能够反映数据真实的分布,导致正常数据被误检测为离群点,因此也能够采用中值代替均值,由中值绝对偏差的中值代替标准偏差:
m=median{z}
<mrow>
<mi>s</mi>
<mo>=</mo>
<mn>1.4826</mn>
<munder>
<mrow>
<mi>m</mi>
<mi>e</mi>
<mi>d</mi>
<mi>i</mi>
<mi>a</mi>
<mi>n</mi>
</mrow>
<mi>i</mi>
</munder>
<mo>{</mo>
<mo>|</mo>
<msub>
<mi>z</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<mi>m</mi>
<mo>|</mo>
<mo>}</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
式中:m指中值,s指中值绝对偏差的中值;
如果点云数据满足下式关系,它将被视为离群点:
<mrow>
<mfrac>
<mrow>
<mo>|</mo>
<msub>
<mi>z</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<mi>m</mi>
<mi>e</mi>
<mi>d</mi>
<mi>i</mi>
<mi>a</mi>
<mi>n</mi>
<mo>{</mo>
<mi>z</mi>
<mo>}</mo>
<mo>|</mo>
</mrow>
<mi>s</mi>
</mfrac>
<mo>></mo>
<mi>k</mi>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
式(3)中:k可取值为2.5或3.0。
5.根据权利要求4所述的基于深度图的平面零件三维位置和法向量计算方法,其特征在于:所述点云最优的外接球体半径R用下述鲁棒的方法来估计:
(2-2-1)计算点云中心点:其中z是点云所有深度值的集合z={zi∈pi(xi,yi,zi)|pi∈Ω};
(2-2-2)计算点云数据到中心点的距离的几何:d={||pi-p|||pi∈Ω};
(2-2-3)球体半径R=1.5median{d},其中常数1.5是为了使R称为球体半径的无偏估计。
6.根据权利要求1所述的基于深度图的平面零件三维位置和法向量计算方法,其特征在于:步骤(3)中,所述平面拟合的具体步骤如下:
(3-1)利用式(4)将点云数据转换到摄像机坐标系上:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>z</mi>
<mi>c</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mi>f</mi>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>z</mi>
<mi>c</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>y</mi>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mi>f</mi>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>z</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>T</mi>
<mi>x</mi>
</msub>
<mi>f</mi>
</mrow>
<mi>z</mi>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
式(4)中:(xc,yc)是零件中心点在左图像中的像素位置,f是摄像机焦距,Tx是左右摄像机的基线距离,这三个参数可通过对立体视觉系统进行立体标定来确定;
(3-2)然后使用随机样本一致性算法拟合点云数据中的平面;
(3-3)最后,输出平面方程的参数p*。
7.根据权利要求6所述的基于深度图的平面零件三维位置和法向量计算方法,其特征在于:所述使用随机样本一致性算法拟合点云数据中的平面,具体步骤如下:
(3-2-1)从点云中随机选择3个样本点以构成子集S,使用该子集直接解算平面方程z=ax+by+c,得到方程的解p,
(3-2-2)使用该平面方程对点云进行划分,将平面误差di=|zi-axi-byi-c|小于某个阈值的点并入子集S,表示为S*,集合S*被称为集合S的一致集,
(3-2-3)如果集合num(S*)>t,t是内点的最小数量,那么利用它重新估计平面方程的参数p*,并计算平面误差,
(3-2-4)重复以上过程k次,记下平面误差最小的参数作为平面方程的参数p*,
迭代次数k可用以下方法计算:
<mrow>
<mi>k</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>z</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<mi>w</mi>
</mrow>
<mo>)</mo>
</mrow>
<mn>3</mn>
</msup>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
式中:z是算法得到正确的平面的概率,w是点云中包含离群点的比例。
8.根据权利要求1所述的基于深度图的平面零件三维位置和法向量计算方法,其特征在于:步骤(4)中,所述计算三维位置和法向量的具体方法如下:
(4-1)计算平面上三个不共线的点Pc0、Pc1和Pc2,其中:规定Pc0是零件的三维位置,也就是平面中心点位置;
(4-2)将世界坐标系固定于平面标定板上,使用单目标定计算平面标定板与左摄像机坐标系的旋转矩阵R和平移矩阵T;
(4-3)使用式(6)计算这三个点在世界坐标系上的三维坐标Pw0、Pw1和Pw2:
Pw=R-1(Pc-T) (6)
(4-4)零件的三维位置是Pw0,零件的法向量可用式(7)计算:
v=(Pw0-Pw1)×(Pw0-Pw2) (7)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510183903.2A CN105021124B (zh) | 2015-04-16 | 2015-04-16 | 一种基于深度图的平面零件三维位置和法向量计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510183903.2A CN105021124B (zh) | 2015-04-16 | 2015-04-16 | 一种基于深度图的平面零件三维位置和法向量计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105021124A CN105021124A (zh) | 2015-11-04 |
CN105021124B true CN105021124B (zh) | 2018-02-16 |
Family
ID=54411278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510183903.2A Active CN105021124B (zh) | 2015-04-16 | 2015-04-16 | 一种基于深度图的平面零件三维位置和法向量计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105021124B (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038741B (zh) * | 2016-11-21 | 2020-08-11 | 上海咔咖文化传播有限公司 | 三维渲染二维光影的方法 |
WO2018094719A1 (zh) * | 2016-11-28 | 2018-05-31 | 深圳市大疆创新科技有限公司 | 生成点云地图的方法、计算机系统和装置 |
CN107063086B (zh) * | 2017-03-13 | 2019-03-12 | 浙江优迈德智能装备有限公司 | 一种基于双红外传感器的局部曲面法向量确定方法 |
CN107238374B (zh) * | 2017-05-04 | 2019-05-07 | 华南农业大学 | 一种不规则平面零件的分类和识别定位方法 |
CN107292309B (zh) * | 2017-06-12 | 2018-05-22 | 长春工程学院 | 一种无色差刻印字符识别方法 |
CN107464258A (zh) * | 2017-07-28 | 2017-12-12 | 南京华捷艾米软件科技有限公司 | 一种从图像中提取三维平面的方法 |
CN107590836B (zh) * | 2017-09-14 | 2020-05-22 | 斯坦德机器人(深圳)有限公司 | 一种基于Kinect的充电桩动态识别与定位方法及系统 |
CN107610176B (zh) * | 2017-09-15 | 2020-06-26 | 斯坦德机器人(深圳)有限公司 | 一种基于Kinect的栈板动态识别与定位方法、系统及介质 |
CN107818577A (zh) * | 2017-10-26 | 2018-03-20 | 滁州学院 | 一种基于混合模型的零件识别与定位方法 |
CN108280488B (zh) * | 2018-02-09 | 2021-05-07 | 哈尔滨工业大学 | 基于共享神经网络的可抓取物体识别方法 |
CN108548482B (zh) * | 2018-03-01 | 2019-11-15 | 华南农业大学 | 一种基于单目视觉与激光传感的图像识别装置和方法 |
CN108491776B (zh) * | 2018-03-12 | 2020-05-19 | 青岛理工大学 | 基于像素分类的装配体零件识别方法、装置及监测系统 |
CN110315525A (zh) * | 2018-03-29 | 2019-10-11 | 天津工业大学 | 一种基于视觉引导的机器人工件抓取方法 |
CN109631847B (zh) * | 2018-12-03 | 2020-08-07 | 易思维(天津)科技有限公司 | 一种基于点云数据的含螺纹目标物位姿的计算方法 |
CN111366070B (zh) * | 2018-12-25 | 2022-04-29 | 苏州笛卡测试技术有限公司 | 一种复合式线激光测量系统多轴空间坐标系标定方法 |
CN109948682B (zh) * | 2019-03-12 | 2021-12-10 | 湖南科技大学 | 基于正态随机抽样分布的激光雷达点云电力线分类方法 |
CN110223336B (zh) * | 2019-05-27 | 2023-10-17 | 上海交通大学 | 一种基于tof相机数据的平面拟合方法 |
CN110455189B (zh) * | 2019-08-26 | 2021-04-06 | 广东博智林机器人有限公司 | 一种大尺寸物料的视觉定位方法和搬运机器人 |
CN111013883A (zh) * | 2019-11-25 | 2020-04-17 | 浙江明泉工业涂装有限公司 | 一种可用于多车型的智能喷涂的机器人控制方法 |
CN111079765B (zh) * | 2019-12-13 | 2022-07-01 | 电子科技大学 | 一种基于深度图的稀疏点云稠密化及路面去除方法 |
CN112465825A (zh) * | 2021-02-02 | 2021-03-09 | 聚时科技(江苏)有限公司 | 一种基于图像处理的零件的空间位置信息的获取方法 |
CN112488112B (zh) * | 2021-02-04 | 2021-11-09 | 深兰人工智能芯片研究院(江苏)有限公司 | 目标对象识别方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7003136B1 (en) * | 2002-04-26 | 2006-02-21 | Hewlett-Packard Development Company, L.P. | Plan-view projections of depth image data for object tracking |
CN101533529A (zh) * | 2009-01-23 | 2009-09-16 | 北京建筑工程学院 | 基于深度图像的三维空间数据处理方法与装置 |
CN103729882A (zh) * | 2013-12-30 | 2014-04-16 | 浙江大学 | 一种基于三维曲线匹配的点云相对位姿估计方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100707206B1 (ko) * | 2005-04-11 | 2007-04-13 | 삼성전자주식회사 | 3차원 객체의 깊이영상 기반 표현 방법 및 이를 이용한모델링 및 렌더링 방법 및 장치 |
-
2015
- 2015-04-16 CN CN201510183903.2A patent/CN105021124B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7003136B1 (en) * | 2002-04-26 | 2006-02-21 | Hewlett-Packard Development Company, L.P. | Plan-view projections of depth image data for object tracking |
CN101533529A (zh) * | 2009-01-23 | 2009-09-16 | 北京建筑工程学院 | 基于深度图像的三维空间数据处理方法与装置 |
CN103729882A (zh) * | 2013-12-30 | 2014-04-16 | 浙江大学 | 一种基于三维曲线匹配的点云相对位姿估计方法 |
Non-Patent Citations (1)
Title |
---|
面向三维视频系统的深度图压缩方法研究;朱波等;《宁波大学学报(理工版)》;20090930;第22卷(第3期);317-321页 * |
Also Published As
Publication number | Publication date |
---|---|
CN105021124A (zh) | 2015-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105021124B (zh) | 一种基于深度图的平面零件三维位置和法向量计算方法 | |
CN109345588B (zh) | 一种基于Tag的六自由度姿态估计方法 | |
CN107063228B (zh) | 基于双目视觉的目标姿态解算方法 | |
Guindel et al. | Automatic extrinsic calibration for lidar-stereo vehicle sensor setups | |
CN111897349B (zh) | 一种基于双目视觉的水下机器人自主避障方法 | |
JP4865557B2 (ja) | 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム | |
Kallwies et al. | Determining and improving the localization accuracy of AprilTag detection | |
CN111046776A (zh) | 基于深度相机的移动机器人行进路径障碍物检测的方法 | |
JP2011192214A (ja) | 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置 | |
Munoz-Banon et al. | Targetless camera-lidar calibration in unstructured environments | |
CN112907735B (zh) | 一种基于点云的柔性电缆识别与三维重建方法 | |
CN112435262A (zh) | 基于语义分割网络和多视图几何的动态环境信息检测方法 | |
CN112017248B (zh) | 一种基于点线特征的2d激光雷达相机多帧单步标定方法 | |
Ahmed et al. | Pothole 3D reconstruction with a novel imaging system and structure from motion techniques | |
CN104460505A (zh) | 工业机器人相对位姿估计方法 | |
CN112419429A (zh) | 一种基于多视角的大型工件表面缺陷检测标定方法 | |
Huang et al. | Mobile robot localization using ceiling landmarks and images captured from an rgb-d camera | |
Luo et al. | Multisensor integrated stair recognition and parameters measurement system for dynamic stair climbing robots | |
Ann et al. | Study on 3D scene reconstruction in robot navigation using stereo vision | |
Kawanishi et al. | Parallel line-based structure from motion by using omnidirectional camera in textureless scene | |
CN108469729B (zh) | 一种基于rgb-d信息的人体目标识别与跟随方法 | |
Cui et al. | ACLC: Automatic Calibration for non-repetitive scanning LiDAR-Camera system based on point cloud noise optimization | |
CN112785647A (zh) | 一种三目立体图像检测方法和系统 | |
CN111915632A (zh) | 一种基于机器学习的贫纹理目标物体真值数据库构建方法 | |
Xie et al. | Real-time reconstruction of unstructured scenes based on binocular vision depth |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |