CN105300316B - 基于灰度重心法的光条中心快速提取方法 - Google Patents
基于灰度重心法的光条中心快速提取方法 Download PDFInfo
- Publication number
- CN105300316B CN105300316B CN201510609406.4A CN201510609406A CN105300316B CN 105300316 B CN105300316 B CN 105300316B CN 201510609406 A CN201510609406 A CN 201510609406A CN 105300316 B CN105300316 B CN 105300316B
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- light
- center
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000005484 gravity Effects 0.000 title claims abstract description 49
- 230000003287 optical effect Effects 0.000 title claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract description 44
- 238000005259 measurement Methods 0.000 claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims description 18
- JXASPPWQHFOWPL-UHFFFAOYSA-N Tamarixin Natural products C1=C(O)C(OC)=CC=C1C1=C(OC2C(C(O)C(O)C(CO)O2)O)C(=O)C2=C(O)C=C(O)C=C2O1 JXASPPWQHFOWPL-UHFFFAOYSA-N 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 abstract description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明基于灰度重心法的光条中心快速提取方法属于计算机视觉测量领域,涉及视觉测量中左右摄像机视场、拍摄角度不一致时的特征信息有效获取。该方法采用双目摄像机拍摄待测表面激光光条,利用传统的灰度重心法在光条的每行像素内进行中心点的粗提取,设定边界识别阈值以确定光条的测量有效区域。再利用对左右图像信息数量的判定线性拆分光条方向像素坐标,得到光条中心在该方向内的亚像素坐标。利用边界点信息及拆分结果进行光条中心的精确提取,得到有效光条的中心点坐标。该方法实现了待测物体表面光条中心点的等量快速高精度提取,在满足测量实时性要求的基础上,有效减少了后续匹配中存在的各种问题,有利于提高双目视觉测量后续重建精度。
Description
技术领域
本发明属于计算机视觉测量领域,涉及视觉测量中,左右摄像机视场拍摄角度不一致时特征信息的有效获取。
背景技术
双目立体视觉的测量原理是根据双目摄像机同时拍摄的两张图片的二维图像信息得到物体的几何三维信息。为得到待测物体的特征尺寸,需要将光条投射至待测物体表面,利用摄像机拍摄其二维图片,提取二维图片中的特征光条中心点并将其进行匹配,从而还原待测物体表面的三维特征信息。图片中光条的特征信息直接反应了待测物体的特征尺寸信息,然而由于双目摄像机的拍摄角度、距离等并不完全相同,导致特征光条在左右图像中的几何信息差异较大,左右图像中的像素点不能完全一一匹配。目前视觉测量中常用的光条中心提取方法包括传统的灰度重心法、方向模板法、曲线拟合法以及基于Hessian阵的steger算法。相比之下,灰度重心法算法简单,速度快,其中胡斌等人在《计算机工程与应用》2002(11):59-60发表的《基于方向模板的结构光条纹中心检测方法》提出该方法将各个带有方向性的模板依次与结构光光条图像卷积,光条截面的极值将被强化而周围的非极值点被相应抑制,然后比较各方向最强的点即为光条的中心点,其结果为像素级。
曲线拟合方法及steger算法虽然能达到亚像素精度,但因其算法复杂度高,提取效率低不适合用于实时在线测量中的光条中心提取。可充分满足测量的实时性要求,且相对于其他传统提取方法,灰度重心法能够实现光条中心点在计算方向的亚像素坐标提取,对光条在该方向内的平移不敏感,减小由于光条灰度分布的不对称引起的误差,因而更广泛地应用于具有在线实时性要求的视觉测量中。然而,利用灰度重心法进行光条提取的过程中,在光条方向通常以像素为单位确定用于计算灰度权重的光条截面方向,导致同一光条在左右图像中提取出的光条中心点数量不一致,影响后续光条中心点的精准匹配,造成较大的测量误差。
发明内容
本发明主要解决的是在利用双目立体视觉及结构光条进行工件尺寸测量过程中,光条中心点的快速高精度提取问题,发明了一种基于灰度重心法的光条中心快速提取方法,在提取光条中心的过程中,需要对待测物体边界进行识别,对同一光条左右图像中的中心点数判断比较,并进行线性插值,实现待测物体表面光条中心点的等量快速高精度提取。
本发明采用的技术方案是基于灰度重心法的光条中心快速提取方法,采用双目摄像机拍摄,其特征是,方法首先采用双目摄像机拍摄待测表面激光光条,然后,利用传统的灰度重心法在光条的每行像素内进行中心点的粗提取,设定边界识别阈值以确定光条的测量有效区域;再利用对左右图像信息数量的判定线性拆分光条方向像素坐标,得到光条中心在该方向内的亚像素坐标;最后,利用边界点信息及拆分结果进行光条中心的精确提取,得到有效光条的中心点坐标;方法的具体步骤如下:
步骤1:灰度重心法粗提取光条中心
设第i行像素坐标内单根光条截面中各像素点的坐标为(xi,yj),其中xi=i,yi=j为第i行第j列像素点坐标值,相应的灰度值为g(xi,yj),则该截面的中心点坐标(xc,yc)利用灰度重心法计算如下:
其中,(xc,yc)为一个截面内的中心点坐标,xc为像素级,yc可达亚像素级,n为截面内像素点的个数,g(xi,yj)为(xi,yj)对应的灰度值;把光条每个截面内像素点的灰度分布质心作为截面的光条中心点,即可粗提取出单方向为亚像素级精度的特征光条中心点;
步骤2:建立光条有效区域模型
针对双目立体视觉测量系统,利用待测表面图像上光条中心点分布与背景图像上光条中心点分布的几何关系,判别光条中心点信息是否有效,确定带有表面几何特征信息的光条有效区域;
由于待测表面与背景表面空间方向不同且两表面存在空间距离,故在双目立体视觉中双目摄像机拍摄出的两表面中的光条具有不同的几何特性,利用粗提取出的光条中心点:P=(Xc,Yc)={(xci,yci)|i=2,3,....,n-1}拟合直线,其中n为拟合的中心点个数,P=(Xc,Yc)为单根光条中心点构成的集合,(xci,yci)为集合中点的坐标;设该拟合直线为:Yc=a+bXc,利用最小二乘法可根据提取出的离散中心点求得拟合直线的参数:
其中为拟合直线的参数,xi,yi分别带入光条中心点对应的坐标值即可;以作为单根光条的边界点的评价指标,分别计算光条中心点与上下临近点的梯度bui,bdi:
给定区间其中Δb为根据图片拍摄角度等设定的阈值,判别bui,bdi是否在区间内,分为以下三种情况讨论:
1)若则初步判定其为上边界点;
2)若则初步判定其为下边界点;
3)若或 则该点为非边界点;
结合图像属性在初步判定的上下边界点中选择确定的光条上边界点(xu,yu),下边界点(xd,yd),若xci∈(xu,xd),则对应中心点为光条有效区域,予以保留;
步骤3:像素拆分及提取方向确定
对左右图像中的多根光条分别进行上述光条中心粗提取操作,并设左图像中共NL根光条,第j根光条的有效中心点集为:
PjL=(XjLc,YjLc)={(xjLci,yjLci)|i=1,2,....,njL},点数为njL,上边界为(xjLu,yjLu),下边界为(xjLd,yjLd);同理设右图像中共NR根光条,第j根光条的有效中心点集为PjR=(XjRc,YjLc)={(xjRci,yjRci)|i=1,2,....,njR},点数为njR,上边界为(xjRu,yjRu),下边界为(xjRd,yjRd);对同一根光条的在左右图像中的中心点数进行比较判别后对中心点数的图像进行像素拆分;
若njL≤njR,对左图像进行像素拆分,拆分像素后的灰度重心提取单位大小为ql:
若njL>njR,对左图像进行像素拆分,拆分像素后的灰度重心提取单位大小为qr:
拆分后的亚像素坐标对应的灰度值计算如下:
g(x,y)=g(xi,yi) (6)其中xi是x的整数部分,yi是y的整数部分,g(x,y)代表(x,y)对应的灰度值;
利用判别结果进行像素拆分后,分别对左右图像确定光条提取方向;任取左图像中两根相邻光条的上边界点(xjLu,yjLu),(x(j-1)Lu,y(j-1)Lu)和其中一根光条的下边界点(xjLd,yjLd),拆分像素后的灰度中心提取方向为
任取右图像中两根相邻光条的上边界点(xjRu,yjRu),(x(j-1)Ru,y(j-1)Ru)和其中一根光条的下边界点(xjRd,yjRd),拆分像素后的灰度中心提取方向为
步骤4:光条中心精确提取
根据灰度重心法粗提取光条中心的结果,对左右图像中的光条分别进行精确提取,根据步骤3的判断,对光条点数量较多的图像保留每行开始进行灰度重心计算的像素坐标,对需要进行像素拆分的图像进行列的拆分,即每行开始进行灰度重心计算的坐标需要根据插值重新计算:
(x,y)=(x+rq,y),r=1,2,...,n (9)其中,
(x,y)是每行开始进行灰度计算的亚像素坐标,n为被插值光条插值后应具有的点个数,q为灰度重心提取单位,即njL≤njR时,n=njR,q=ql;njL>njR时,n=njL,q=qr;
确定每行开始灰度重心计算的亚像素坐标后,利用改进的灰度重心法逐行求取光条中心点坐标:
其中, 为灰度重心提取方向,其左右图像中的算法如公式(7)(8);M为所计算光条中参与计算的坐标个数;
遍历左右图像中的每根光条,精确求取其中心点坐标,得到左右对应光条的中心点数一致的新特征光条中心点信息,用于还原待测的三维特征信息。
本发明的有益效果是通过改进传统的灰度重心法提取光条中心点,使左右图像中的中心点数量相等,且其坐标均达到亚像素级精度,在满足测量实时性要求的基础上,有效减少了后续匹配中存在的各种问题,有利于提高双目视觉测量后续重建精度。
附图说明
附图1为测量系统示意图,其中,1为图形工作站,2为激光器阵列,3a、3b分别为左、右摄像机,4为待测平板。
附图2为基于灰度中心法改进的光条中心提取匹配方法流程图。
附图3为传统灰度中心法提取光条中心后匹配重建的图像,附图4为基于灰度重心法改进提取光条中心后匹配重建的图像。其中,XYZ轴为欧式空间坐标系的坐标轴,单位为mm,1、2、3、4、5、6、7、8、9、10、11曲线分别为传统灰度重心法提取光条中心匹配后重建出的第一条、第二条、第三条、第四条、第五条、第六条、第七条、第八条、第九条、第十条、第十一条光条图像,1’、2’、3’、4’、5’、6’、7’、8’、9’、10’、11’曲线分别为利用本发明方法提取光条中心后匹配重建出的的第一条、第二条、第三条、第四条、第五条、第六条、第七条、第八条、第九条、第十条、第十一条光条图像。
具体实施方式
以下结合技术方案和附图详细说明本发明的具体实施方式。
针对传统灰度重心法提取光条中心点数不一致造成的匹配中一对多、多对一等问题,为尽可能减小由于这一因素造成的提取和匹配误差,光条中心的提取常需要精确到亚像素级精度。本发明在利用传统方法提取光条中心的基础上,改进提取方法,实现光条中心点的一一匹配,对后续还原待测物体的特征尺寸具有至关重要的意义。
附图1是测量系统示意图,表示采用的视觉测量系统以及待测平板表面4的视场测量系统。本发明采用的左、右摄像机3a、3b型号为:SVCam-svs11002。现场测量系统构成如下:两台SVCam-svs11002摄像机,分辨率为4008×2672;两个放置于摄像机镜头前方的短波通滤光片;激光器组成的激光器阵列2,以及一台图形工作站1。利用双目摄像机拍摄待测平板4上的激光光条,利用图形工作站对左右摄像机拍摄的图片进行处理,提取激光光条中心,并通过左右图像光条中心点匹配,重建出待测表面信息。测量方法的具体步骤如附图2所示。具体步骤的说明如下:
步骤1:灰度重心法粗提取光条中心
设第i行像素坐标内单根光条截面中各像素点的坐标为(xi,yj),其中xi=i,yi=j为第i行第j列像素点坐标值,相应的灰度值为g(xi,yj),则该截面的中心点坐标(xc,yc)可利用式(1)计算;把光条每个截面内像素点的灰度分布质心作为截面的光条中心点,即分别粗提取左右图像中11根光条单方向为亚像素级精度的特征光条中心点;
步骤2:建立光条有效区域模型
针对双目立体视觉测量系统,利用待测表面图像上光条中心点分布与背景图像上光条中心点分布的几何关系,判别光条中心点信息是否有效,确定带有表面几何特征信息的光条有效区域;
由于待测表面与背景表面空间方向不同且两表面存在空间距离,故在双目立体视觉中双目相机拍摄出的两表面中的光条具有不同的几何特性,利用粗提取出的光条中心点:P=(Xc,Yc)={(xci,yci)|i=2,3,....,n-1}拟合直线,其中n为拟合的中心点个数;设该拟合直线为:Yc=a+bXc,利用最小二乘法可根据式(2)提取出的离散中心点求得拟合直线的参数,以作为单根光条的边界点的评价指标,分别根据式子(3)计算光条中心点与上下临近点的梯度bui,bdi;给定区间其中Δb为根据图片拍摄角度等设定的阈值,判别bui,bdi是否在区间内,分为以下三种情况讨论:
1)若则初步判定其为上边界点;
2)若则初步判定其为下边界点;
3)若或 则该点为非边界点;
结合图像属性在初步判定的上下边界点中选择确定的光条上边界点(xu,yu),下边界点(xd,yd),若xci∈(xu,xd),对应中心点为光条有效区域,分别对左右图像中的11根光条进行上述判断计算,选择出11根光条的有效区域予以保留。
步骤3:像素拆分及提取方向确定
对左右图像中的多根光条分别进行上述光条中心粗提取操作,左图像中共11根光条,第j根光条的有效中心点集为PjL=(XjLc,YjLc)={(xjLci,yjLci)|i=1,2,....,njL},点数为njL,上边界为(xjLu,yjLu),下边界为(xjLd,yjLd);同理设右图像中共11根光条,第j根光条的有效中心点集为PjR=(XjRc,YjLc)={(xjRci,yjRci)|i=1,2,....,njR},点数为njR,上边界为(xjRu,yjRu),下边界为(xjRd,yjRd)。对同一根光条的在左右图像中的中心点数进行比较判别后对中心点数的图像进行像素拆分;
在本实施例中,以第一根光条为例,n1L=1410,n1R=1289,n1L>n1R,对左图像进行像素拆分,拆分像素后的灰度重心提取单位大小qr为0.914,其余10根光条算法亦然;
拆分后的亚像素坐标对应的灰度值可根据式(6)计算;利用判别结果进行像素拆分后,分别对左右图像确定光条提取方向;取左图像中第一根和第二根光条的上边界点(x1Lu,y1Lu),(x2Lu,y2Lu)和第一根光条的下边界点(x1Ld,y1Ld),拆分像素后的灰度中心提取方向为
取右图像中第一根和第二根光条的上边界点(x1Ru,y1Ru),(x2Ru,y2Ru)和第一根光条的下边界点(x1Rd,y1Rd),拆分像素后的灰度中心提取方向为
步骤4:光条中心精确提取
根据灰度重心法粗提取光条中心的结果,对左右图像中的光条分别进行精确提取,根据步骤3的判断,对光条点数量较多的图像即做图像保留每行开始进行灰度重心计算的像素坐标,对需要进行像素拆分的图像进行列的拆分,即每行开始进行灰度重心计算的坐标需要根据插值重新计算:(x,y)=(x+rq,y),r=1,2,...,n
其中,(x,y)是每行开始进行灰度计算的亚像素坐标,n为被插值光条插值后应具有的点个数即,q为灰度重心提取单位,即njL≤njR时,n=njR,q=ql;njL>njR时,n=njL,q=qr。
确定每行开始灰度重心计算的亚像素坐标后,利用改进的灰度重心法如式(10)逐行求取光条中心点坐标,其中:
为灰度重心提取方向,其左右图像中算法如公式(7)(8);M为所计算光条中参与计算坐标个数;
遍历左右图像中的每根光条,精确求取其中心点坐标,得到左右对应光条的中心点数一致的新特征光条中心点信息,左图像11根光条提取出的中心点个数分别为1410,1445,1452,1462,1473,1481,1487,1496,1506,1516,1525;右图像11根光条提取出的中心点个数分别为1410,1445,1452,1462,1473,1481,1487,1496,1506,1516,1525;匹配的中心点个数为1410,1445,1452,1462,1473,1478,1486,1490,1504,1512,1521,匹配率达到99.87%。
附图3为采用传统灰度重心法提取光条中心后的重建图像,1、2、3、4、5、6、7、8、9、10、11曲线分别为重建出的十一根光条图像,附图4为光条抑噪后重建图像,1’、2’、3’、4’、5’、6’、7’、8’、9’、10’、11’曲线分别为采用本发明方法提取光条中心后匹配后重建出的的十一根光条图像。通过对比重建的光条图像,本发明的方法匹配率更高,左右图像匹配后重建的点云更符合被测表面的三维形貌,有利于还原特征尺寸。
本发明通过改进传统的灰度重心法,快速提取出左右图像数量一致的光条中心点,有效减少了后续匹配中的一对多、多对一等问题,使得匹配后重建的光条信息符合被测表面三维形貌,提高了测量精度。
Claims (1)
1.一种基于灰度重心法的光条中心快速提取方法,采用双目摄像机拍摄,其特征是,方法首先采用双目摄像机拍摄待测表面激光光条,然后,利用传统的灰度重心法在光条的每行像素内进行中心点的粗提取,设定边界识别阈值以确定光条的测量有效区域;再利用对左右图像信息数量的判定线性拆分光条方向像素坐标,得到光条中心在该方向内的亚像素坐标;最后,利用边界点信息及拆分结果进行光条中心的精确提取,得到有效光条的中心点坐标;方法的具体步骤如下:
步骤1:灰度重心法粗提取光条中心
设第i行像素坐标内单根光条截面中各像素点的坐标为(xi,yj),其中xi=i,yi=j为第i行第j列像素点坐标值,相应的灰度值为g(xi,yj),则该截面的中心点坐标(xc,yc)利用灰度重心法计算如下:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&CenterDot;</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2</mn>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,(xc,yc)为一个截面内的中心点坐标,xc为像素级,yc可达亚像素级,n为截面内像素点的个数,g(xi,yj)为(xi,yj)对应的灰度值;把光条每个截面内像素点的灰度分布质心作为截面的光条中心点,即可粗提取出单方向为亚像素级精度的特征光条中心点;
步骤2:建立光条有效区域模型
针对双目立体视觉测量系统,利用待测表面图像上光条中心点分布与背景图像上光条中心点分布的几何关系,判别光条中心点信息是否有效,确定带有表面几何特征信息的光条有效区域;
由于待测表面与背景表面空间方向不同且两表面存在空间距离,故在双目立体视觉中双目摄像机拍摄出的两表面中的光条具有不同的几何特性,利用粗提取出的光条中心点P=(Xc,Yc)={(xci,yci)|i=2,3,....,n-1}拟合直线,其中n为拟合的中心点个数,P=(Xc,Yc)为单根光条中心点构成的集合,(xci,yci)为集合中点的坐标;设该拟合直线为:Yc=a+bXc,利用最小二乘法可根据提取出的离散中心点求得拟合直线的参数:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mover>
<mi>a</mi>
<mo>^</mo>
</mover>
<mo>=</mo>
<mfrac>
<mrow>
<mo>(</mo>
<msup>
<msub>
<mi>&Sigma;x</mi>
<mi>i</mi>
</msub>
<mn>2</mn>
</msup>
<mo>)</mo>
<mo>(</mo>
<msub>
<mi>&Sigma;y</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
<mo>-</mo>
<mo>(</mo>
<msub>
<mi>&Sigma;x</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
<mo>(</mo>
<msub>
<mi>&Sigma;x</mi>
<mi>i</mi>
</msub>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mi>N</mi>
<mrow>
<mo>(</mo>
<msup>
<msub>
<mi>&Sigma;x</mi>
<mi>i</mi>
</msub>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>&Sigma;x</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mover>
<mi>b</mi>
<mo>^</mo>
</mover>
<mo>=</mo>
<mfrac>
<mrow>
<mi>N</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>&Sigma;x</mi>
<mi>i</mi>
</msub>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>&Sigma;x</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<msub>
<mi>&Sigma;y</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>N</mi>
<mrow>
<mo>(</mo>
<msup>
<msub>
<mi>&Sigma;x</mi>
<mi>i</mi>
</msub>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>&Sigma;x</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中为拟合直线的参数,xi,yi分别带入光条中心点对应的坐标值即可;以作为单根光条的边界点的评价指标,分别计算光条中心点与上下临近点的梯度bui,bdi:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>b</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>y</mi>
<mrow>
<mi>c</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>x</mi>
<mrow>
<mi>c</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>b</mi>
<mrow>
<mi>d</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>y</mi>
<mrow>
<mi>c</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>x</mi>
<mrow>
<mi>c</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msub>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
给定区间其中Δb为根据图片拍摄角度等设定的阈值,判别bui,bdi是否在区间内,分为以下三种情况讨论:
1)若则初步判定其为上边界点;
2)若则初步判定其为下边界点;
3)若或 则该点为非边界点;
结合图像属性在初步判定的上下边界点中选择确定的光条上边界点(xu,yu),下边界点(xd,yd),若xci∈(xu,xd),则对应中心点为光条有效区域,予以保留;
步骤3:像素拆分及提取方向确定
对左右图像中的多根光条分别进行上述光条中心粗提取操作,并设左图像中共NL根光条,第j根光条的有效中心点集为:
PjL=(XjLc,YjLc)={(xjLci,yjLci)|i=1,2,....,njL},点数为njL,上边界为(xjLu,yjLu),下边界为(xjLd,yjLd);同理设右图像中共NR根光条,第j根光条的有效中心点集为PjR=(XjRc,YjLc)={(xjRci,yjRci)|i=1,2,....,njR},点数为njR,上边界为(xjRu,yjRu),下边界为(xjRd,yjRd);对同一根光条的在左右图像中的中心点数进行比较判别后对中心点数的图像进行像素拆分;
若njL≤njR,对左图像进行像素拆分,拆分像素后的灰度重心提取单位大小为ql:
<mrow>
<msub>
<mi>q</mi>
<mi>l</mi>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>n</mi>
<mrow>
<mi>j</mi>
<mi>L</mi>
</mrow>
</msub>
<msub>
<mi>n</mi>
<mrow>
<mi>j</mi>
<mi>R</mi>
</mrow>
</msub>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
若njL>njR,对左图像进行像素拆分,拆分像素后的灰度重心提取单位大小为qr:
<mrow>
<msub>
<mi>q</mi>
<mi>r</mi>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>n</mi>
<mrow>
<mi>j</mi>
<mi>R</mi>
</mrow>
</msub>
<msub>
<mi>n</mi>
<mrow>
<mi>j</mi>
<mi>L</mi>
</mrow>
</msub>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
拆分后的亚像素坐标对应的灰度值计算如下:
g(x,y)=g(xi,yi) (6)
其中xi是x的整数部分,yi是y的整数部分,g(x,y)代表(x,y)对应的灰度值;
利用判别结果进行像素拆分后,分别对左右图像确定光条提取方向;任取左图像中两根相邻光条的上边界点(xjLu,yjLu),(x(j-1)Lu,y(j-1)Lu)和其中一根光条的下边界点(xjLd,yjLd),拆分像素后的灰度中心提取方向为
<mrow>
<msub>
<mover>
<mi>k</mi>
<mo>&RightArrow;</mo>
</mover>
<mi>l</mi>
</msub>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>j</mi>
<mi>L</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
<mi>L</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>j</mi>
<mi>L</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
<mi>L</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
任取右图像中两根相邻光条的上边界点(xjRu,yjRu),(x(j-1)Ru,y(j-1)Ru)和其中一根光条的下边界点(xjRd,yjRd),拆分像素后的灰度中心提取方向为
<mrow>
<msub>
<mover>
<mi>k</mi>
<mo>&RightArrow;</mo>
</mover>
<mi>r</mi>
</msub>
<mo>=</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>j</mi>
<mi>R</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
<mi>R</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>j</mi>
<mi>R</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
<mi>R</mi>
<mi>u</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
步骤4:光条中心精确提取
根据灰度重心法粗提取光条中心的结果,对左右图像中的光条分别进行精确提取,根据步骤3的判断,对光条点数量较多的图像保留每行开始进行灰度重心计算的像素坐标,对需要进行像素拆分的图像进行列的拆分,即每行开始进行灰度重心计算的坐标需要根据插值重新计算:
(x,y)=(x+rq,y),r=1,2,...,n (9)
其中,(x,y)是每行开始进行灰度计算的亚像素坐标,n为被插值光条插值后应具有的点个数,q为灰度重心提取单位,即njL≤njR时,n=njR,q=ql;njL>njR时,n=njL,q=qr;
确定每行开始灰度重心计算的亚像素坐标后,利用改进的灰度重心法逐行求取光条中心点坐标:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<msub>
<mi>x</mi>
<mi>m</mi>
</msub>
</mrow>
<mi>M</mi>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>m</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&CenterDot;</mo>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>m</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
其中, 为灰度重心提取方向,其左右图像中的算法如公式(7)(8);M为所计算光条中参与计算的坐标个数;
遍历左右图像中的每根光条,精确求取其中心点坐标,得到左右对应光条的中心点数一致的新特征光条中心点信息,用于还原待测的三维特征信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510609406.4A CN105300316B (zh) | 2015-09-22 | 2015-09-22 | 基于灰度重心法的光条中心快速提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510609406.4A CN105300316B (zh) | 2015-09-22 | 2015-09-22 | 基于灰度重心法的光条中心快速提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105300316A CN105300316A (zh) | 2016-02-03 |
CN105300316B true CN105300316B (zh) | 2017-10-13 |
Family
ID=55197858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510609406.4A Active CN105300316B (zh) | 2015-09-22 | 2015-09-22 | 基于灰度重心法的光条中心快速提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105300316B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105758400B (zh) * | 2016-02-15 | 2018-08-03 | 上海卫星工程研究所 | 静止卫星成像导航与配准恒星敏感东西参数提取方法 |
CN105931232B (zh) * | 2016-04-18 | 2019-02-19 | 南京航空航天大学 | 结构光光条中心高精度亚像素提取方法 |
CN106023247B (zh) * | 2016-05-05 | 2019-06-14 | 南通职业大学 | 一种基于时空跟踪的光条中心提取跟踪方法 |
CN107516324B (zh) * | 2017-07-20 | 2019-12-17 | 大连理工大学 | 一种基于光条几何特征突变的目标边界提取方法 |
CN107687819B (zh) * | 2017-08-01 | 2019-09-27 | 大连理工大学 | 一种快速高精度的光条中心亚像素提取方法 |
CN107505324B (zh) * | 2017-08-10 | 2020-06-16 | 李�杰 | 基于双目协同激光的3d扫描装置及扫描方法 |
CN107578420B (zh) * | 2017-08-21 | 2019-11-19 | 大连理工大学 | 一种自适应光条图像阈值分割方法 |
US20190137549A1 (en) * | 2017-11-03 | 2019-05-09 | Velodyne Lidar, Inc. | Systems and methods for multi-tier centroid calculation |
CN108133298B (zh) * | 2018-03-08 | 2022-04-19 | 河南工业大学 | 一种多元回归模型全国粮食消费量预测方法 |
CN108592791B (zh) * | 2018-04-27 | 2020-06-16 | 烟台南山学院 | 一种凹坑检查方法 |
CN109035213A (zh) * | 2018-07-05 | 2018-12-18 | 大连理工大学 | 基于光条截面能量分布唯一性的光条中心亚像素提取方法 |
CN110223355B (zh) * | 2019-05-15 | 2021-01-05 | 大连理工大学 | 一种基于双重极线约束的特征标志点匹配方法 |
CN110288576B (zh) * | 2019-06-20 | 2022-03-22 | 河北科技大学 | 光条中心提取方法、终端设备及存储介质 |
CN112669379B (zh) * | 2020-12-22 | 2024-01-02 | 大连工业大学 | 一种基于辅助标记点的图像特征快速提取方法 |
CN113074660B (zh) * | 2021-03-26 | 2022-09-20 | 深度光学科技(天津)有限公司 | 一种大尺寸透明物体的面型测量方法 |
CN113223074A (zh) * | 2021-05-06 | 2021-08-06 | 哈尔滨工程大学 | 一种水下激光条纹中心提取方法 |
CN113421296B (zh) * | 2021-08-24 | 2021-11-26 | 之江实验室 | 一种基于灰度阈值的激光光斑质心提取方法 |
CN114018214A (zh) * | 2021-10-18 | 2022-02-08 | 武汉理工大学 | 一种基于硬件加速系统的标志物双目亚像素测距方法 |
CN114001671B (zh) * | 2021-12-31 | 2022-04-08 | 杭州思看科技有限公司 | 激光数据提取方法、数据处理方法、和三维扫描系统 |
CN114723808A (zh) * | 2022-03-10 | 2022-07-08 | 合肥工业大学 | 一种基于fpga的光条亚像素中心提取方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6181424B1 (en) * | 1997-12-19 | 2001-01-30 | Mitsumasa Okabayashi | Three-dimensional measurement apparatus |
JP2004226160A (ja) * | 2003-01-21 | 2004-08-12 | Nikke Kikai Seisakusho:Kk | 外観計測装置 |
CN101240995A (zh) * | 2007-07-17 | 2008-08-13 | 天津大学 | 一种基于全局标定约束的三维拼接匹配点选取方法 |
CN102032878A (zh) * | 2009-09-24 | 2011-04-27 | 甄海涛 | 基于双目立体视觉测量系统的精确在线测量方法 |
CN102768728A (zh) * | 2012-06-27 | 2012-11-07 | 山东大学 | 一种基于扫描振镜的立体字符图像采集及处理方法 |
CN103292741A (zh) * | 2013-05-29 | 2013-09-11 | 哈尔滨工程大学 | 一种基于k均值颜色聚类的物体表面三维轮廓的结构光视觉测量方法 |
CN103913131A (zh) * | 2014-04-14 | 2014-07-09 | 大连理工大学 | 一种基于双目视觉的自由曲面法矢量测量方法 |
CN103940369A (zh) * | 2014-04-09 | 2014-07-23 | 大连理工大学 | 多激光协同扫描形貌快速视觉测量方法 |
CN104897174A (zh) * | 2015-06-19 | 2015-09-09 | 大连理工大学 | 基于置信度评价的图像光条噪声抑制方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004046772A (ja) * | 2002-05-13 | 2004-02-12 | 3D Media Co Ltd | 画像処理方法、画像処理システム、及び画像処理装置 |
-
2015
- 2015-09-22 CN CN201510609406.4A patent/CN105300316B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6181424B1 (en) * | 1997-12-19 | 2001-01-30 | Mitsumasa Okabayashi | Three-dimensional measurement apparatus |
JP2004226160A (ja) * | 2003-01-21 | 2004-08-12 | Nikke Kikai Seisakusho:Kk | 外観計測装置 |
CN101240995A (zh) * | 2007-07-17 | 2008-08-13 | 天津大学 | 一种基于全局标定约束的三维拼接匹配点选取方法 |
CN102032878A (zh) * | 2009-09-24 | 2011-04-27 | 甄海涛 | 基于双目立体视觉测量系统的精确在线测量方法 |
CN102768728A (zh) * | 2012-06-27 | 2012-11-07 | 山东大学 | 一种基于扫描振镜的立体字符图像采集及处理方法 |
CN103292741A (zh) * | 2013-05-29 | 2013-09-11 | 哈尔滨工程大学 | 一种基于k均值颜色聚类的物体表面三维轮廓的结构光视觉测量方法 |
CN103940369A (zh) * | 2014-04-09 | 2014-07-23 | 大连理工大学 | 多激光协同扫描形貌快速视觉测量方法 |
CN103913131A (zh) * | 2014-04-14 | 2014-07-09 | 大连理工大学 | 一种基于双目视觉的自由曲面法矢量测量方法 |
CN104897174A (zh) * | 2015-06-19 | 2015-09-09 | 大连理工大学 | 基于置信度评价的图像光条噪声抑制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105300316A (zh) | 2016-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105300316B (zh) | 基于灰度重心法的光条中心快速提取方法 | |
CN109272537B (zh) | 一种基于结构光的全景点云配准方法 | |
CN103530880B (zh) | 基于投影高斯网格图案的摄像机标定方法 | |
JP5955028B2 (ja) | 画像処理装置、画像処理方法および画像処理用のプログラム | |
CN107588721A (zh) | 一种基于双目视觉的零件多尺寸的测量方法及系统 | |
CN109470149B (zh) | 一种管路位姿的测量方法及装置 | |
CN110310331B (zh) | 一种基于直线特征与点云特征结合的位姿估计方法 | |
CN110044374B (zh) | 一种基于图像特征的单目视觉测量里程的方法及里程计 | |
CN109447939B (zh) | 基于混合光谱视觉的熔池成形前焊缝宽度预测方法 | |
CN103278138A (zh) | 一种复杂结构薄部件三维位置及姿态的测量方法 | |
CN109523595A (zh) | 一种建筑工程直线棱角间距视觉测量方法 | |
CN109859272A (zh) | 一种自动对焦双目摄像头标定方法及装置 | |
CN108305277B (zh) | 一种基于直线段的异源图像匹配方法 | |
CN104835158A (zh) | 基于格雷码结构光与极线约束的三维点云获取方法 | |
CN104063860A (zh) | 一种激光点云边缘精细化的方法 | |
CN104778716B (zh) | 基于单幅图像的卡车车厢体积测量方法 | |
CN106225676B (zh) | 三维测量方法、装置及系统 | |
CN114998448B (zh) | 一种多约束双目鱼眼相机标定与空间点定位的方法 | |
CN112241964B (zh) | 一种用于线结构光非接触测量的光条中心提取方法 | |
CN116188558B (zh) | 基于双目视觉的立体摄影测量方法 | |
CN111126418A (zh) | 一种基于平面透视投影的倾斜影像匹配方法 | |
CN109341588B (zh) | 一种双目结构光三系统法视角加权的三维轮廓测量方法 | |
CN113340201B (zh) | 一种基于rgbd相机的三维测量方法 | |
CN111197976A (zh) | 一种顾及弱纹理区域多阶段匹配传播的三维重建方法 | |
CN113393413B (zh) | 基于单目与双目视觉协同的水域面积测量方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |