CN101907448A - 一种基于双目三维视觉的深度测量方法 - Google Patents
一种基于双目三维视觉的深度测量方法 Download PDFInfo
- Publication number
- CN101907448A CN101907448A CN 201010237096 CN201010237096A CN101907448A CN 101907448 A CN101907448 A CN 101907448A CN 201010237096 CN201010237096 CN 201010237096 CN 201010237096 A CN201010237096 A CN 201010237096A CN 101907448 A CN101907448 A CN 101907448A
- Authority
- CN
- China
- Prior art keywords
- coordinate
- layer
- unique point
- image coordinate
- described step
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明提供了一种基于双目三维视觉的深度测量方法,包括步骤:(1)由两个摄像机分别获取物体的左图像和右图像;获取若干个物体的特征点;(2)建立BP神经网络模型;(3)提取物体底部平面特征点的左图像坐标和右图像坐标,并通过BP神经网络模型训练得到三维世界坐标,建立物体底部表面的三维平面函数;(4)提取物体顶部平面一个特征点的左图像坐标和右图像坐标,并通过BP神经网络模型训练得到三维世界坐标;(5)根据物体底部表面的三维平面函数与物体顶部平面一个特征点,求取物体的深度值。本发明可对物体进行非接触深度测量,具有测量精度高、成本低等优点。
Description
技术领域
本发明属于物体测量技术领域,特别涉及一种基于双目三维视觉的深度测量方法。
背景技术
古今中外,对物体的测量方法层出不穷。但是对于测量的要求来说,每种方法都是针对十分具体的需求。
目前现有的深度测量技术,可分为接触式测量与非接触式测量两大类。总结归纳如下表1所示:
表1各种测量技术
现有技术中,有一种便捷式三维扫描仪,由单个视觉传感器的移动来实现多传感器视觉测量系统的功能,有时称这种方式为流动式三维扫描。在这种方式下,根据测量任务要求,单个视觉传感器可以随意放置到大型工件周围的任何位置,通过在工件表面上设置适当的标记点,单个视觉传感器在不同位置的局部测量数据就可以自动拼接,从而完成对大型工件的整体测量。
激光跟踪仪是一种具有球坐标系的坐标测量系统,由两个测角单元和一个测距单元组成,测角采用角度编码器,测距采用单光束激光干涉仪,通过球形反射镜接触被测物体实施测量,是一种接触式测量仪器。
虽然流动式三维扫描和激光跟踪仪的测量技术可实现接触式测量,测量精度可以满足要求,但由于是接触式测量,不适用于恶劣环境下(比如有毒,易腐蚀的物体,如盛化学品的烧杯)或者微小的物体(如按键)的测量。
室内GPS系统是由美国ARC SECOND公司推出的一种基于工业厂房区域内超大型现场测量系统。室内GPS系统最大的特点是测量不受限,测量范围大(可达上百米),无论在工件外还是在工件内,都可以完成测量,适用于大型结构的整体精密测量。但其成本较大,技术复杂。
在非接触式的测量方法中,视觉技术的成本最低、重构性最好,能很好的满足应用需求的变化。
华中科技大学提出了单目视觉的测量方法,并且为了确保被测物体始终在摄像机的景深范围内,在扫描过程中引进了两种随动控制技术,即预扫描的随动测量技术和信号跟踪算法的随动测量技术。这种技术采用单目视觉技术以及基于参数辨别的标定,对环境扰动以及摄像机的精度有较高的要求,具有一定的局限性。
传统的视觉测量方法,一般采用双目摄像机的标定的技术提取特征点进行三维视觉测量,双目摄像机的标定是一个非常复杂的非线性模型,可归结为直接求解的解析标定方法。在标定后,仍然需要用空间立体解析几何法求取三维坐标,其计算十分复杂,且不能通用于求解非线性模型,不但不能满足实现要求,误差较大,而且标定模型的误差,会被放大到根据匹配点对求解其三维坐标的过程中去,有一种“失之毫厘,谬以千里”的感觉。在不利环境和摄像机精度不高的情况下,导致传统的视觉测量的精度也相对较低。
综上所述,现有的测量技术一般存在着以下缺陷:(1)精密设备,价格不菲,成本高;(2)多数高精度测量系统为接触式测量方式;(3)接触式测量系统难以重构;(4)对操作人员的学习培训困难。
因此,需要设计一种精度较高而成本相对较低的测量方法。
发明内容
本发明的目的在于克服上述现有技术的缺点与不足,提供一种精度较高而成本较低的基于双目三维视觉的深度测量方法。
为达上述目的,本发明采用如下的技术方案:一种基于双目三维视觉的深度测量方法,包括如下步骤:
(1)由两个摄像机分别获取物体的左图像和右图像,物体各点在左图像和右图像中对应有左图像坐标和右图像坐标,且均为二维坐标;获取若干个物体的特征点;
(2)建立BP神经网络模型;
(3)根据所述步骤(1)获取的左图像和右图像,提取物体底部平面特征点的左图像坐标和右图像坐标;通过所述步骤(2)所得的BP神经网络模型对所述特征点进行训练,将各特征点的左图像坐标和右图像坐标均映射到三维世界坐标,并将所有三维世界坐标拟合成三维世界坐标点集,建立物体底部表面的三维平面函数,所述三维平面函数满足:Z=aX+bY+c,其中,X、Y、Z分别为底部表面各点的三个世界坐标值,a、b、c分别为函数参数;
(4)根据所述步骤(1)获取的左图像和右图像,提取物体顶部平面一个特征点的左图像坐标和右图像坐标;通过所述步骤(2)所得的BP神经网络模型训练,所述特征点的左图像坐标和右图像坐标映射到三维世界坐标,设为P(Px,Py,Pz);
(5)求取物体的深度值,所述深度值满足:其中Dist为所求的深度值,Px、Py、Pz分别为步骤(4)特征点三维世界坐标对应的三个坐标值,a、b、c分别为所述步骤(3)物体底部表面的三维平面函数的三个参数值。
所述步骤(1)中,特征点的获取步骤如下:在物体的特征位置打上激光,通过用图像处理获取激光所在的位置点,这些位置点就是所述的特征点。
所述步骤(2)中,BP神经网络模型包括三层前馈网络,分别为输入层、隐含层和输出层,所述输入层包括四个神经元,分别对应特征点左图像坐标的两个坐标值和右图像坐标的两个坐标值;所述隐含层包括八个神经元;所述输出层包括三个神经元,分别对应特征点的世界坐标的三个坐标值;所述输入层的各神经元与隐含层的各神经元一一映射连接,所述隐含层的各神经元与输出层的各神经元一一映射连接。
所述步骤(2)中,建立BP神经网络模型包括如下步骤:
(2-1)选择训练样本,建立训练样本集;
(2-2)初始化:对各层权值向量赋初值,设定训练的最大迭代次数、期望输出信号;
(2-3)随机输入任一项训练样本,根据输入的训练样本依次计算各层神经元的输入信号和输出信号;
(2-4)根据所述步骤(2-3)中最终的输出信号和期望输出信号,计算误差信号,判断所述误差信号是否满足要求,若满足,则执行步骤(2-8),否则,执行步骤(2-5);
(2-5)判断下一次的迭代次数是否大于最大迭代次数,若大于,则执行步骤(2-8),否则,对输入的训练样本反向计算每层神经元的局部梯度,所述局部梯度满足:其中n为迭代次数;Dij(n)为所求的第i层第j个神经元的局部梯度;f(uij(n))为转移函数;uij(n)为第i层第j个神经元的输入信号线性组合后的输出;Di-1,j(n)为第i-1层第j个神经元的局部梯度;J为第i-1层的神经元总数;wij(n)为第i层第j个神经元与第i-1层各个神经元的连接权值;
(2-6)调整各层的连接权值,各层调整后的连接权值满足:
wij(n+1)=wij(n)+α(n)[(1-η)Dij(n)+ηDij(n-1)],其中wij(n)均为第i层第j个神经元第n次迭代时神经元的连接权值,wij(n+1)为第i层第j个神经元第n+1次迭代时的连接权值,n为迭代次数;α(n)为第n次调整迭代时的学习率;η为动量因子;Dij(n)为本次迭代时,第i层第j个神经元的局部梯度;Dij(n-1)为上次迭代时,第i层第j个神经元的局部梯度;
(2-7)迭代次数加一,进入下一次迭代,执行步骤(2-3);
(2-8)判断是否已学完所有的训练样本,若是,则结束训练,得到输出结果;否则,执行步骤(2-3)。
所述步骤(2-6)中,各层学习率的调整满足:当连续两次迭代的梯度方向相同时,则使学习率加倍;当连续两次迭代的梯度方向相反时,则使学习率减半。
所述训练样本为所述步骤(1)特征点的左图像坐标和右图像坐标。
所述步骤(3)的具体步骤如下:
(3-1)通过图像分析,提取物体在所述步骤(1)形成的图像中对应的底部平面特征点的左图像坐标和右图像坐标;
(3-2)对所述步骤(3-1)底部平面的各个特征点按照基数排序进行匹配;
(3-3)通过所述步骤(2)所得的BP神经网络模型对底部平面特征点进行训练,将物体底部平面的特征点的左图像坐标和右图像坐标分别映射到三维世界坐标;
(3-4)将所述步骤(3-3)训练得到的各特征点的三维世界坐标拟合三维世界坐标点集,建立物体底部表面的三维平面函数。
所述(3-2)中对各个特征点按照基数排序进行匹配的具体如下:各特征点的左图像坐标和右图像坐标均按照X轴分组收集,然后再按照Y轴分组收集,从而实现各特征点在左图像坐标和右图像坐标的点集合内的排序匹配。
所述步骤(4)包括如下步骤:
(4-1)通过图像分析,提取物体在所述步骤(1)形成的图像中对应的顶部平面中一个特征点的左图像坐标和右图像坐标;
(4-2)通过所述步骤(2)所得的BP神经网络模型对所述步骤(4-1)中的特征点进行训练,将这一特征点的左图像坐标和右图像坐标分别映射到三维世界坐标。
本发明可对恶劣环境下的物体(如盛装有毒、易腐蚀物体的容器,如盛化学品的烧杯),或者不易直接测量(或者微小的物体,如按键)的物体进行深度测量。
本方法可用于建筑工程、电子器材检测、流水线检测以及机器人和机械制造业等多种领域系统的测量,属于计算机应用技术、计算机视觉技术、非接触式测量领域。
与现有技术相比,本发明具有如下优点和有益效果:
1、本发明可测量恶劣环境下(比如有毒,易腐蚀的物体,如盛化学品的烧杯)的物体或者不易直接测量(或者微小的物体,如按键)的物体的深度,具有测量方便、测量精度高等优点。
2、本发明采用激光标记来获取物体的特征点,具有灵敏度高、实验环境适应性强等优点,能够有效地防止环境光的影响。
3、本发明采用BP神经网络模型训练,可将二维的图像坐标映射到三维世界坐标,相对于传统的摄像机标定与畸变校正,通过BP神经网络模型逼近三维坐标函数,可向下屏蔽标定参数的直接求解,向上提供了二维坐标到三维坐标的直接映射,解决了在不利环境和摄像机精度不高的情况下,能够稳定地提取特征点进行三维视觉测量的问题,测量结果达到一定的可控精度要求。
4、本发明的各个特征点按照基数排序进行匹配,可有效简化BP神经网络模型训练速度,且能确保特征点的客观与真实性。
5、本发明成本低、重构性好,能很好的满足应用需求的变化。
附图说明
图1是本发明方法的流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本基于双目三维视觉的深度测量方法,包括如下步骤:
(1)由两个摄像机分别获取物体的左图像和右图像,物体各点在左图像和右图像中对应有左图像坐标和右图像坐标,且均为二维坐标;获取若干个物体的特征点;
(2)建立BP神经网络模型;
(3)根据所述步骤(1)获取的左图像和右图像,提取物体底部平面特征点的左图像坐标和右图像坐标;通过所述步骤(2)所得的BP神经网络模型对所述特征点进行训练,将各特征点的左图像坐标和右图像坐标均映射到三维世界坐标,并将所有三维世界坐标拟合成三维世界坐标点集,建立物体底部表面的三维平面函数,所述三维平面函数满足:Z=aX+bY+c,其中,X、Y、Z分别为底部表面各点的三个世界坐标值,a、b、c分别为函数参数;
(4)根据所述步骤(1)获取的左图像和右图像,提取物体顶部平面一个特征点的左图像坐标和右图像坐标;通过所述步骤(2)所得的BP神经网络模型训练,所述特征点的左图像坐标和右图像坐标映射到三维世界坐标,设为P(Px,Py,Pz);
(5)求取物体的深度值,所述深度值满足:其中Dist为所求的深度值,Px、Py、Pz分别为步骤(4)特征点三维世界坐标对应的三个坐标值,a、b、c分别为所述步骤(3)物体底部表面的三维平面函数的三个参数值。
所述步骤(1)中,特征点的获取步骤如下:在物体的特征位置打上激光,通过用图像处理获取激光所在的位置点,这些位置点就是所述的特征点。
所述步骤(2)中,BP神经网络模型包括三层前馈网络,分别为输入层、隐含层和输出层,所述输入层包括四个神经元,分别对应特征点左图像坐标的两个坐标值和右图像坐标的两个坐标值;所述隐含层包括八个神经元;所述输出层包括三个神经元,分别对应特征点的世界坐标的三个坐标值;所述输入层的各神经元与隐含层的各神经元一一映射连接,所述隐含层的各神经元与输出层的各神经元一一映射连接。
所述步骤(2)中,建立BP神经网络模型包括如下步骤:
(2-1)选择训练样本,建立训练样本集;
(2-2)初始化:对各层权值向量赋初值,设定训练的最大迭代次数、期望输出信号;
(2-3)随机输入任一项训练样本,根据输入的训练样本依次计算各层神经元的输入信号和输出信号;
(2-4)根据所述步骤(2-3)中最终的输出信号和期望输出信号,计算误差信号,判断所述误差信号是否满足要求,若满足,则执行步骤(2-8),否则,执行步骤(2-5);
(2-5)判断下一次的迭代次数是否大于最大迭代次数,若大于,则执行步骤(2-8),否则,对输入的训练样本反向计算每层神经元的局部梯度,所述局部梯度满足:其中n为迭代次数;Dij(n)为所求的第i层第j个神经元的局部梯度;f(uij(n))为转移函数;uij(n)为第i层第j个神经元的输入信号线性组合后的输出;Di-1,j(n)为第i-1层第j个神经元的局部梯度;J为第i-1层的神经元总数;wij(n)为第i层第j个神经元与第i-1层各个神经元的连接权值;
(2-6)调整各层的连接权值,各层调整后的连接权值满足:
wij(n+1)=wij(n)+α(n)[(1-η)Dij(n)+ηDij(n-1)],其中wij(n)均为第i层第j个神经元第n次迭代时神经元的连接权值,wij(n+1)为第i层第j个神经元第n+1次迭代时的连接权值,n为迭代次数;α(n)为第n次调整迭代时的学习率;η为动量因子;Dij(n)为本次迭代时,第i层第j个神经元的局部梯度;Dij(n-1)为上次迭代时,第i层第j个神经元的局部梯度;
(2-7)迭代次数加一,进入下一次迭代,执行步骤(2-3);
(2-8)判断是否已学完所有的训练样本,若是,则结束训练,得到输出结果;否则,执行步骤(2-3)。
所述步骤(2-6)中,各层学习率的调整满足:当连续两次迭代的梯度方向相同时,则使学习率加倍;当连续两次迭代的梯度方向相反时,则使学习率减半。
所述训练样本为所述步骤(1)特征点的左图像坐标和右图像坐标。
所述步骤(3)的具体步骤如下:
(3-1)通过图像分析,提取物体在所述步骤(1)形成的图像中对应的底部平面特征点的左图像坐标和右图像坐标;
(3-2)对所述步骤(3-1)底部平面的各个特征点按照基数排序进行匹配;
(3-3)通过所述步骤(2)所得的BP神经网络模型对底部平面特征点进行训练,将物体底部平面的特征点的左图像坐标和右图像坐标分别映射到三维世界坐标;
(3-4)将所述步骤(3-3)训练得到的各特征点的三维世界坐标拟合三维世界坐标点集,建立物体底部表面的三维平面函数。
所述(3-2)中对各个特征点按照基数排序进行匹配的具体如下:各特征点的左图像坐标和右图像坐标均按照X轴分组收集,然后再按照Y轴分组收集,从而实现各特征点在左图像坐标和右图像坐标的点集合内的排序匹配。
所述步骤(4)包括如下步骤:
(4-1)通过图像分析,提取物体在所述步骤(1)形成的图像中对应的顶部平面中一个特征点的左图像坐标和右图像坐标;
(4-2)通过所述步骤(2)所得的BP神经网络模型对所述步骤(4-1)中的特征点进行训练,将这一特征点的左图像坐标和右图像坐标分别映射到三维世界坐标。
本发明可对恶劣环境下的物体(如盛装有毒、易腐蚀物体的容器,如盛化学品的烧杯),或者不易直接测量(或者微小的物体,如按键)的物体进行深度测量,可用于建筑工程、电子器材检测、流水线检测以及机器人和机械制造业等多种领域系统的测量,属于计算机应用技术、计算机视觉技术、非接触式测量领域。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (9)
1.一种基于双目三维视觉的深度测量方法,其特征在于,包括如下步骤:
(1)由两个摄像机分别获取物体的左图像和右图像,物体各点在左图像和右图像中对应有左图像坐标和右图像坐标,且均为二维坐标;获取若干个物体的特征点;
(2)建立BP神经网络模型;
(3)根据所述步骤(1)获取的左图像和右图像,提取物体底部平面特征点的左图像坐标和右图像坐标;通过所述步骤(2)所得的BP神经网络模型对所述特征点进行训练,将各特征点的左图像坐标和右图像坐标均映射到三维世界坐标,并将所有三维世界坐标拟合成三维世界坐标点集,建立物体底部表面的三维平面函数,所述三维平面函数满足:Z=aX+bY+c,其中,X、Y、Z分别为底部表面各点的三个世界坐标值,a、b、c分别为函数参数;
(4)根据所述步骤(1)获取的左图像和右图像,提取物体顶部平面一个特征点的左图像坐标和右图像坐标;通过所述步骤(2)所得的BP神经网络模型训练,所述特征点的左图像坐标和右图像坐标映射到三维世界坐标,设为P(Px,Py,Pz);
2.根据权利要求1所述的基于双目三维视觉的深度测量方法,其特征在于,所述步骤(1)中,特征点的获取步骤如下:在物体的特征位置打上激光,通过用图像处理获取激光所在的位置点,这些位置点就是所述的特征点。
3.根据权利要求1所述的基于双目三维视觉的深度测量方法,其特征在于,所述步骤(2)中,BP神经网络模型包括三层前馈网络,分别为输入层、隐含层和输出层,所述输入层包括四个神经元,分别对应特征点左图像坐标的两个坐标值和右图像坐标的两个坐标值;所述隐含层包括八个神经元;所述输出层包括三个神经元,分别对应特征点的世界坐标的三个坐标值;所述输入层的各神经元与隐含层的各神经元一一映射连接,所述隐含层的各神经元与输出层的各神经元一一映射连接。
4.根据权利要求3所述的基于双目三维视觉的深度测量方法,其特征在于,所述步骤(2)中,建立BP神经网络模型包括如下步骤:
(2-1)选择训练样本,建立训练样本集;
(2-2)初始化:对各层权值向量赋初值,设定训练的最大迭代次数、期望输出信号;
(2-3)随机输入任一项训练样本,根据输入的训练样本依次计算各层神经元的输入信号和输出信号;
(2-4)根据所述步骤(2-3)中最终的输出信号和期望输出信号,计算误差信号,判断所述误差信号是否满足要求,若满足,则执行步骤(2-8),否则,执行步骤(2-5);
(2-5)判断下一次的迭代次数是否大于最大迭代次数,若大于,则执行步骤(2-8),否则,对输入的训练样本反向计算每层神经元的局部梯度,所述局部梯度满足:其中n为迭代次数;Dij(n)为所求的第i层第j个神经元的局部梯度;f(uij(n))为转移函数;uij(n)为第i层第j个神经元的输入信号线性组合后的输出;Di-1,j(n)为第i-1层第j个神经元的局部梯度;J为第i-1层的神经元总数;wij(n)为第i层第j个神经元与第i-1层各个神经元的连接权值;
(2-6)调整各层的连接权值,各层调整后的连接权值满足:
wij(n+1)=wij(n)+α(n)[(1-η)Dij(n)+ηDij(n-1)],其中wij(n)均为第i层第j个神经元第n次迭代时神经元的连接权值,wij(n+1)为第i层第j个神经元第n+1次迭代时的连接权值,n为迭代次数;α(n)为第n次调整迭代时的学习率;η为动量因子;Dij(n)为本次迭代时,第i层第j个神经元的局部梯度;Dij(n-1)为上次迭代时,第i层第j个神经元的局部梯度;
(2-7)迭代次数加一,进入下一次迭代,执行步骤(2-3);
(2-8)判断是否已学完所有的训练样本,若是,则结束训练,得到输出结果;否则,执行步骤(2-3)。
5.根据权利要求4所述的基于双目三维视觉的深度测量方法,其特征在于,所述步骤(2-6)中,各层学习率的调整满足:当连续两次迭代的梯度方向相同时,则使学习率加倍;当连续两次迭代的梯度方向相反时,则使学习率减半。
6.根据权利要求4所述的基于双目三维视觉的深度测量方法,其特征在于,所述训练样本为所述步骤(1)特征点的左图像坐标和右图像坐标。
7.根据权利要求1所述的基于双目三维视觉的深度测量方法,其特征在于,所述步骤(3)的具体步骤如下:
(3-1)通过图像分析,提取物体在所述步骤(1)形成的图像中对应的底部平面特征点的左图像坐标和右图像坐标;
(3-2)对所述步骤(3-1)底部平面的各个特征点按照基数排序进行匹配;
(3-3)通过所述步骤(2)所得的BP神经网络模型对底部平面特征点进行训练,将物体底部平面的特征点的左图像坐标和右图像坐标分别映射到三维世界坐标;
(3-4)将所述步骤(3-3)训练得到的各特征点的三维世界坐标拟合三维世界坐标点集,建立物体底部表面的三维平面函数。
8.根据权利要求7所述的基于双目三维视觉的深度测量方法,其特征在于,所述(3-2)中对各个特征点按照基数排序进行匹配的具体如下:各特征点的左图像坐标和右图像坐标均按照X轴分组收集,然后再按照Y轴分组收集,从而实现各特征点在左图像坐标和右图像坐标的点集合内的排序匹配。
9.根据权利要求1所述的基于双目三维视觉的深度测量方法,其特征在于,所述步骤(4)包括如下步骤:
(4-1)通过图像分析,提取物体在所述步骤(1)形成的图像中对应的顶部平面中一个特征点的左图像坐标和右图像坐标;
(4-2)通过所述步骤(2)所得的BP神经网络模型对所述步骤(4-1)中的特征点进行训练,将这一特征点的左图像坐标和右图像坐标分别映射到三维世界坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010237096 CN101907448B (zh) | 2010-07-23 | 2010-07-23 | 一种基于双目三维视觉的深度测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010237096 CN101907448B (zh) | 2010-07-23 | 2010-07-23 | 一种基于双目三维视觉的深度测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101907448A true CN101907448A (zh) | 2010-12-08 |
CN101907448B CN101907448B (zh) | 2013-07-03 |
Family
ID=43262973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201010237096 Expired - Fee Related CN101907448B (zh) | 2010-07-23 | 2010-07-23 | 一种基于双目三维视觉的深度测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101907448B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103822592A (zh) * | 2014-03-18 | 2014-05-28 | 重庆交通大学 | 一种利用移动通讯设备进行道路坑洞深度测量的方法 |
CN104964708A (zh) * | 2015-08-03 | 2015-10-07 | 苏州科技学院 | 一种基于车载双目视觉的路面坑槽检测方法 |
CN105809689A (zh) * | 2016-03-09 | 2016-07-27 | 哈尔滨工程大学 | 基于机器视觉的船体六自由度测量方法 |
CN106442569A (zh) * | 2015-08-12 | 2017-02-22 | 业纳工业计量德国公司 | 孔检查装置 |
CN106683070A (zh) * | 2015-11-04 | 2017-05-17 | 杭州海康威视数字技术股份有限公司 | 基于深度相机的身高测量方法及装置 |
CN106767422A (zh) * | 2017-03-01 | 2017-05-31 | 长春工程学院 | 基于神经网络的动车车体关键尺寸检测系统解决方案 |
CN108335322A (zh) * | 2018-02-01 | 2018-07-27 | 深圳市商汤科技有限公司 | 深度估计方法和装置、电子设备、程序和介质 |
CN109003325A (zh) * | 2018-06-01 | 2018-12-14 | 网易(杭州)网络有限公司 | 一种三维重建的方法、介质、装置和计算设备 |
CN109191386A (zh) * | 2018-07-18 | 2019-01-11 | 武汉精测电子集团股份有限公司 | 一种基于BPNN的快速Gamma校正方法及装置 |
CN109448061A (zh) * | 2018-10-09 | 2019-03-08 | 西北工业大学 | 一种无需摄像机标定的水下双目视觉定位方法 |
CN109887035A (zh) * | 2018-12-27 | 2019-06-14 | 哈尔滨理工大学 | 基于蝙蝠算法优化bp神经网络双目视觉标定 |
CN110470228A (zh) * | 2019-09-17 | 2019-11-19 | 福州大学 | 一种利用姿态角估计的双目视觉测距方法及系统 |
CN113240829A (zh) * | 2021-02-24 | 2021-08-10 | 南京工程学院 | 一种基于机器视觉的闸机智能通行检测方法 |
CN113536879A (zh) * | 2020-04-21 | 2021-10-22 | 和硕联合科技股份有限公司 | 影像识别方法及其装置及人工智能模型训练方法及其装置 |
CN113554700A (zh) * | 2021-07-26 | 2021-10-26 | 贵州电网有限责任公司 | 一种不可见光瞄准方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020184167A1 (en) * | 2001-06-05 | 2002-12-05 | Mcclanahan Craig J. | System and method for converting a color formula using an artificial intelligence based conversion model |
EP1603071A1 (en) * | 2004-06-01 | 2005-12-07 | Fuji Jukogyo Kabushiki Kaisha | Three-dimensional object recognizing system |
CN101261115A (zh) * | 2008-04-24 | 2008-09-10 | 吉林大学 | 空间圆几何参数的双目立体视觉测量方法 |
JP2010123072A (ja) * | 2008-11-21 | 2010-06-03 | Nagoya Institute Of Technology | パルスニューロンモデルのためのバックプロパゲーション学習法 |
-
2010
- 2010-07-23 CN CN 201010237096 patent/CN101907448B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020184167A1 (en) * | 2001-06-05 | 2002-12-05 | Mcclanahan Craig J. | System and method for converting a color formula using an artificial intelligence based conversion model |
EP1603071A1 (en) * | 2004-06-01 | 2005-12-07 | Fuji Jukogyo Kabushiki Kaisha | Three-dimensional object recognizing system |
CN101261115A (zh) * | 2008-04-24 | 2008-09-10 | 吉林大学 | 空间圆几何参数的双目立体视觉测量方法 |
JP2010123072A (ja) * | 2008-11-21 | 2010-06-03 | Nagoya Institute Of Technology | パルスニューロンモデルのためのバックプロパゲーション学習法 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103822592A (zh) * | 2014-03-18 | 2014-05-28 | 重庆交通大学 | 一种利用移动通讯设备进行道路坑洞深度测量的方法 |
CN104964708A (zh) * | 2015-08-03 | 2015-10-07 | 苏州科技学院 | 一种基于车载双目视觉的路面坑槽检测方法 |
CN106442569A (zh) * | 2015-08-12 | 2017-02-22 | 业纳工业计量德国公司 | 孔检查装置 |
CN106683070A (zh) * | 2015-11-04 | 2017-05-17 | 杭州海康威视数字技术股份有限公司 | 基于深度相机的身高测量方法及装置 |
CN106683070B (zh) * | 2015-11-04 | 2020-05-12 | 杭州海康威视数字技术股份有限公司 | 基于深度相机的身高测量方法及装置 |
CN105809689A (zh) * | 2016-03-09 | 2016-07-27 | 哈尔滨工程大学 | 基于机器视觉的船体六自由度测量方法 |
CN106767422B (zh) * | 2017-03-01 | 2019-05-14 | 长春工程学院 | 基于神经网络的动车车体关键尺寸检测系统解决方案 |
CN106767422A (zh) * | 2017-03-01 | 2017-05-31 | 长春工程学院 | 基于神经网络的动车车体关键尺寸检测系统解决方案 |
CN108335322A (zh) * | 2018-02-01 | 2018-07-27 | 深圳市商汤科技有限公司 | 深度估计方法和装置、电子设备、程序和介质 |
US11308638B2 (en) | 2018-02-01 | 2022-04-19 | Shenzhen Sensetime Technology Co., Ltd. | Depth estimation method and apparatus, electronic device, program, and medium |
CN108335322B (zh) * | 2018-02-01 | 2021-02-12 | 深圳市商汤科技有限公司 | 深度估计方法和装置、电子设备、程序和介质 |
CN109003325A (zh) * | 2018-06-01 | 2018-12-14 | 网易(杭州)网络有限公司 | 一种三维重建的方法、介质、装置和计算设备 |
CN109003325B (zh) * | 2018-06-01 | 2023-08-04 | 杭州易现先进科技有限公司 | 一种三维重建的方法、介质、装置和计算设备 |
CN109191386A (zh) * | 2018-07-18 | 2019-01-11 | 武汉精测电子集团股份有限公司 | 一种基于BPNN的快速Gamma校正方法及装置 |
CN109191386B (zh) * | 2018-07-18 | 2020-11-06 | 武汉精测电子集团股份有限公司 | 一种基于BPNN的快速Gamma校正方法及装置 |
CN109448061A (zh) * | 2018-10-09 | 2019-03-08 | 西北工业大学 | 一种无需摄像机标定的水下双目视觉定位方法 |
CN109887035A (zh) * | 2018-12-27 | 2019-06-14 | 哈尔滨理工大学 | 基于蝙蝠算法优化bp神经网络双目视觉标定 |
CN110470228A (zh) * | 2019-09-17 | 2019-11-19 | 福州大学 | 一种利用姿态角估计的双目视觉测距方法及系统 |
CN110470228B (zh) * | 2019-09-17 | 2020-09-01 | 福州大学 | 一种利用姿态角估计的双目视觉测距方法及系统 |
CN113536879A (zh) * | 2020-04-21 | 2021-10-22 | 和硕联合科技股份有限公司 | 影像识别方法及其装置及人工智能模型训练方法及其装置 |
CN113240829A (zh) * | 2021-02-24 | 2021-08-10 | 南京工程学院 | 一种基于机器视觉的闸机智能通行检测方法 |
CN113554700A (zh) * | 2021-07-26 | 2021-10-26 | 贵州电网有限责任公司 | 一种不可见光瞄准方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101907448B (zh) | 2013-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101907448B (zh) | 一种基于双目三维视觉的深度测量方法 | |
CN102645173A (zh) | 一种基于多目视觉的桥梁三维变形监测方法 | |
CN102589530B (zh) | 基于二维相机和三维相机融合的非合作目标位姿测量方法 | |
CN105091744A (zh) | 一种基于视觉传感器和激光测距仪的位姿检测装置与方法 | |
Zhang et al. | Exploitation of photogrammetry measurement system | |
CN109029450B (zh) | 一种室内定位方法 | |
CN107167073A (zh) | 一种线阵结构光三维快速测量装置及其测量方法 | |
CN102785129A (zh) | 复杂零件的曲面加工精度的在线检测方法 | |
CN112541946A (zh) | 一种基于透视多点投影的机械臂的位姿实时检测方法 | |
CN106323286B (zh) | 一种机器人坐标系与三维测量坐标系的变换方法 | |
Traslosheros et al. | An inexpensive method for kinematic calibration of a parallel robot by using one hand-held camera as main sensor | |
CN102654387A (zh) | 一种基于空间曲面约束的工业机器人在线标定装置 | |
Isa et al. | Volumetric error modelling of a stereo vision system for error correction in photogrammetric three-dimensional coordinate metrology | |
Lee et al. | Improved feature map merging using virtual supporting lines for multi-robot systems | |
Lu et al. | Three-dimensional coordinate measurement algorithm by optimizing BP neural network based on GA | |
Wang et al. | An improved measurement model of binocular vision using geometrical approximation | |
Hu et al. | Gelstereo palm: a novel curved visuotactile sensor for 3d geometry sensing | |
Xu et al. | Improved calibration method based on the RANSAC approach and an improved gray centroid method for a laser-line-based structured light system | |
Jin et al. | Sensitivity analysis of the error factors in the binocular vision measurement system | |
CN103176606A (zh) | 基于双目视觉识别的平面交互系统及方法 | |
CN113916128A (zh) | 一种基于光笔式视觉测量系统的提高精度的方法 | |
Yuan et al. | DSmT-based ultrasonic detection model for estimating indoor environment contour | |
Zexiao et al. | A novel approach for the field calibration of line structured-light sensors | |
Zhang et al. | Freight train gauge-exceeding detection based on three-dimensional stereo vision measurement | |
Zhou et al. | Simultaneously calibration of multi hand-eye robot system based on graph |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130703 Termination date: 20150723 |
|
EXPY | Termination of patent right or utility model |