CN105300316B - 基于灰度重心法的光条中心快速提取方法 - Google Patents

基于灰度重心法的光条中心快速提取方法 Download PDF

Info

Publication number
CN105300316B
CN105300316B CN201510609406.4A CN201510609406A CN105300316B CN 105300316 B CN105300316 B CN 105300316B CN 201510609406 A CN201510609406 A CN 201510609406A CN 105300316 B CN105300316 B CN 105300316B
Authority
CN
China
Prior art keywords
mrow
msub
striation
point
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510609406.4A
Other languages
English (en)
Other versions
CN105300316A (zh
Inventor
贾振元
樊超楠
刘巍
刘阳
王灵丽
杨景豪
徐鹏涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN201510609406.4A priority Critical patent/CN105300316B/zh
Publication of CN105300316A publication Critical patent/CN105300316A/zh
Application granted granted Critical
Publication of CN105300316B publication Critical patent/CN105300316B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明基于灰度重心法的光条中心快速提取方法属于计算机视觉测量领域,涉及视觉测量中左右摄像机视场、拍摄角度不一致时的特征信息有效获取。该方法采用双目摄像机拍摄待测表面激光光条,利用传统的灰度重心法在光条的每行像素内进行中心点的粗提取,设定边界识别阈值以确定光条的测量有效区域。再利用对左右图像信息数量的判定线性拆分光条方向像素坐标,得到光条中心在该方向内的亚像素坐标。利用边界点信息及拆分结果进行光条中心的精确提取,得到有效光条的中心点坐标。该方法实现了待测物体表面光条中心点的等量快速高精度提取,在满足测量实时性要求的基础上,有效减少了后续匹配中存在的各种问题,有利于提高双目视觉测量后续重建精度。

Description

基于灰度重心法的光条中心快速提取方法
技术领域
本发明属于计算机视觉测量领域,涉及视觉测量中,左右摄像机视场拍摄角度不一致时特征信息的有效获取。
背景技术
双目立体视觉的测量原理是根据双目摄像机同时拍摄的两张图片的二维图像信息得到物体的几何三维信息。为得到待测物体的特征尺寸,需要将光条投射至待测物体表面,利用摄像机拍摄其二维图片,提取二维图片中的特征光条中心点并将其进行匹配,从而还原待测物体表面的三维特征信息。图片中光条的特征信息直接反应了待测物体的特征尺寸信息,然而由于双目摄像机的拍摄角度、距离等并不完全相同,导致特征光条在左右图像中的几何信息差异较大,左右图像中的像素点不能完全一一匹配。目前视觉测量中常用的光条中心提取方法包括传统的灰度重心法、方向模板法、曲线拟合法以及基于Hessian阵的steger算法。相比之下,灰度重心法算法简单,速度快,其中胡斌等人在《计算机工程与应用》2002(11):59-60发表的《基于方向模板的结构光条纹中心检测方法》提出该方法将各个带有方向性的模板依次与结构光光条图像卷积,光条截面的极值将被强化而周围的非极值点被相应抑制,然后比较各方向最强的点即为光条的中心点,其结果为像素级。
曲线拟合方法及steger算法虽然能达到亚像素精度,但因其算法复杂度高,提取效率低不适合用于实时在线测量中的光条中心提取。可充分满足测量的实时性要求,且相对于其他传统提取方法,灰度重心法能够实现光条中心点在计算方向的亚像素坐标提取,对光条在该方向内的平移不敏感,减小由于光条灰度分布的不对称引起的误差,因而更广泛地应用于具有在线实时性要求的视觉测量中。然而,利用灰度重心法进行光条提取的过程中,在光条方向通常以像素为单位确定用于计算灰度权重的光条截面方向,导致同一光条在左右图像中提取出的光条中心点数量不一致,影响后续光条中心点的精准匹配,造成较大的测量误差。
发明内容
本发明主要解决的是在利用双目立体视觉及结构光条进行工件尺寸测量过程中,光条中心点的快速高精度提取问题,发明了一种基于灰度重心法的光条中心快速提取方法,在提取光条中心的过程中,需要对待测物体边界进行识别,对同一光条左右图像中的中心点数判断比较,并进行线性插值,实现待测物体表面光条中心点的等量快速高精度提取。
本发明采用的技术方案是基于灰度重心法的光条中心快速提取方法,采用双目摄像机拍摄,其特征是,方法首先采用双目摄像机拍摄待测表面激光光条,然后,利用传统的灰度重心法在光条的每行像素内进行中心点的粗提取,设定边界识别阈值以确定光条的测量有效区域;再利用对左右图像信息数量的判定线性拆分光条方向像素坐标,得到光条中心在该方向内的亚像素坐标;最后,利用边界点信息及拆分结果进行光条中心的精确提取,得到有效光条的中心点坐标;方法的具体步骤如下:
步骤1:灰度重心法粗提取光条中心
设第i行像素坐标内单根光条截面中各像素点的坐标为(xi,yj),其中xi=i,yi=j为第i行第j列像素点坐标值,相应的灰度值为g(xi,yj),则该截面的中心点坐标(xc,yc)利用灰度重心法计算如下:
其中,(xc,yc)为一个截面内的中心点坐标,xc为像素级,yc可达亚像素级,n为截面内像素点的个数,g(xi,yj)为(xi,yj)对应的灰度值;把光条每个截面内像素点的灰度分布质心作为截面的光条中心点,即可粗提取出单方向为亚像素级精度的特征光条中心点;
步骤2:建立光条有效区域模型
针对双目立体视觉测量系统,利用待测表面图像上光条中心点分布与背景图像上光条中心点分布的几何关系,判别光条中心点信息是否有效,确定带有表面几何特征信息的光条有效区域;
由于待测表面与背景表面空间方向不同且两表面存在空间距离,故在双目立体视觉中双目摄像机拍摄出的两表面中的光条具有不同的几何特性,利用粗提取出的光条中心点:P=(Xc,Yc)={(xci,yci)|i=2,3,....,n-1}拟合直线,其中n为拟合的中心点个数,P=(Xc,Yc)为单根光条中心点构成的集合,(xci,yci)为集合中点的坐标;设该拟合直线为:Yc=a+bXc,利用最小二乘法可根据提取出的离散中心点求得拟合直线的参数:
其中为拟合直线的参数,xi,yi分别带入光条中心点对应的坐标值即可;以作为单根光条的边界点的评价指标,分别计算光条中心点与上下临近点的梯度bui,bdi
给定区间其中Δb为根据图片拍摄角度等设定的阈值,判别bui,bdi是否在区间内,分为以下三种情况讨论:
1)若则初步判定其为上边界点;
2)若则初步判定其为下边界点;
3)若 则该点为非边界点;
结合图像属性在初步判定的上下边界点中选择确定的光条上边界点(xu,yu),下边界点(xd,yd),若xci∈(xu,xd),则对应中心点为光条有效区域,予以保留;
步骤3:像素拆分及提取方向确定
对左右图像中的多根光条分别进行上述光条中心粗提取操作,并设左图像中共NL根光条,第j根光条的有效中心点集为:
PjL=(XjLc,YjLc)={(xjLci,yjLci)|i=1,2,....,njL},点数为njL,上边界为(xjLu,yjLu),下边界为(xjLd,yjLd);同理设右图像中共NR根光条,第j根光条的有效中心点集为PjR=(XjRc,YjLc)={(xjRci,yjRci)|i=1,2,....,njR},点数为njR,上边界为(xjRu,yjRu),下边界为(xjRd,yjRd);对同一根光条的在左右图像中的中心点数进行比较判别后对中心点数的图像进行像素拆分;
若njL≤njR,对左图像进行像素拆分,拆分像素后的灰度重心提取单位大小为ql
若njL>njR,对左图像进行像素拆分,拆分像素后的灰度重心提取单位大小为qr
拆分后的亚像素坐标对应的灰度值计算如下:
g(x,y)=g(xi,yi) (6)其中xi是x的整数部分,yi是y的整数部分,g(x,y)代表(x,y)对应的灰度值;
利用判别结果进行像素拆分后,分别对左右图像确定光条提取方向;任取左图像中两根相邻光条的上边界点(xjLu,yjLu),(x(j-1)Lu,y(j-1)Lu)和其中一根光条的下边界点(xjLd,yjLd),拆分像素后的灰度中心提取方向为
任取右图像中两根相邻光条的上边界点(xjRu,yjRu),(x(j-1)Ru,y(j-1)Ru)和其中一根光条的下边界点(xjRd,yjRd),拆分像素后的灰度中心提取方向为
步骤4:光条中心精确提取
根据灰度重心法粗提取光条中心的结果,对左右图像中的光条分别进行精确提取,根据步骤3的判断,对光条点数量较多的图像保留每行开始进行灰度重心计算的像素坐标,对需要进行像素拆分的图像进行列的拆分,即每行开始进行灰度重心计算的坐标需要根据插值重新计算:
(x,y)=(x+rq,y),r=1,2,...,n (9)其中,
(x,y)是每行开始进行灰度计算的亚像素坐标,n为被插值光条插值后应具有的点个数,q为灰度重心提取单位,即njL≤njR时,n=njR,q=ql;njL>njR时,n=njL,q=qr
确定每行开始灰度重心计算的亚像素坐标后,利用改进的灰度重心法逐行求取光条中心点坐标:
其中, 为灰度重心提取方向,其左右图像中的算法如公式(7)(8);M为所计算光条中参与计算的坐标个数;
遍历左右图像中的每根光条,精确求取其中心点坐标,得到左右对应光条的中心点数一致的新特征光条中心点信息,用于还原待测的三维特征信息。
本发明的有益效果是通过改进传统的灰度重心法提取光条中心点,使左右图像中的中心点数量相等,且其坐标均达到亚像素级精度,在满足测量实时性要求的基础上,有效减少了后续匹配中存在的各种问题,有利于提高双目视觉测量后续重建精度。
附图说明
附图1为测量系统示意图,其中,1为图形工作站,2为激光器阵列,3a、3b分别为左、右摄像机,4为待测平板。
附图2为基于灰度中心法改进的光条中心提取匹配方法流程图。
附图3为传统灰度中心法提取光条中心后匹配重建的图像,附图4为基于灰度重心法改进提取光条中心后匹配重建的图像。其中,XYZ轴为欧式空间坐标系的坐标轴,单位为mm,1、2、3、4、5、6、7、8、9、10、11曲线分别为传统灰度重心法提取光条中心匹配后重建出的第一条、第二条、第三条、第四条、第五条、第六条、第七条、第八条、第九条、第十条、第十一条光条图像,1’、2’、3’、4’、5’、6’、7’、8’、9’、10’、11’曲线分别为利用本发明方法提取光条中心后匹配重建出的的第一条、第二条、第三条、第四条、第五条、第六条、第七条、第八条、第九条、第十条、第十一条光条图像。
具体实施方式
以下结合技术方案和附图详细说明本发明的具体实施方式。
针对传统灰度重心法提取光条中心点数不一致造成的匹配中一对多、多对一等问题,为尽可能减小由于这一因素造成的提取和匹配误差,光条中心的提取常需要精确到亚像素级精度。本发明在利用传统方法提取光条中心的基础上,改进提取方法,实现光条中心点的一一匹配,对后续还原待测物体的特征尺寸具有至关重要的意义。
附图1是测量系统示意图,表示采用的视觉测量系统以及待测平板表面4的视场测量系统。本发明采用的左、右摄像机3a、3b型号为:SVCam-svs11002。现场测量系统构成如下:两台SVCam-svs11002摄像机,分辨率为4008×2672;两个放置于摄像机镜头前方的短波通滤光片;激光器组成的激光器阵列2,以及一台图形工作站1。利用双目摄像机拍摄待测平板4上的激光光条,利用图形工作站对左右摄像机拍摄的图片进行处理,提取激光光条中心,并通过左右图像光条中心点匹配,重建出待测表面信息。测量方法的具体步骤如附图2所示。具体步骤的说明如下:
步骤1:灰度重心法粗提取光条中心
设第i行像素坐标内单根光条截面中各像素点的坐标为(xi,yj),其中xi=i,yi=j为第i行第j列像素点坐标值,相应的灰度值为g(xi,yj),则该截面的中心点坐标(xc,yc)可利用式(1)计算;把光条每个截面内像素点的灰度分布质心作为截面的光条中心点,即分别粗提取左右图像中11根光条单方向为亚像素级精度的特征光条中心点;
步骤2:建立光条有效区域模型
针对双目立体视觉测量系统,利用待测表面图像上光条中心点分布与背景图像上光条中心点分布的几何关系,判别光条中心点信息是否有效,确定带有表面几何特征信息的光条有效区域;
由于待测表面与背景表面空间方向不同且两表面存在空间距离,故在双目立体视觉中双目相机拍摄出的两表面中的光条具有不同的几何特性,利用粗提取出的光条中心点:P=(Xc,Yc)={(xci,yci)|i=2,3,....,n-1}拟合直线,其中n为拟合的中心点个数;设该拟合直线为:Yc=a+bXc,利用最小二乘法可根据式(2)提取出的离散中心点求得拟合直线的参数,以作为单根光条的边界点的评价指标,分别根据式子(3)计算光条中心点与上下临近点的梯度bui,bdi;给定区间其中Δb为根据图片拍摄角度等设定的阈值,判别bui,bdi是否在区间内,分为以下三种情况讨论:
1)若则初步判定其为上边界点;
2)若则初步判定其为下边界点;
3)若 则该点为非边界点;
结合图像属性在初步判定的上下边界点中选择确定的光条上边界点(xu,yu),下边界点(xd,yd),若xci∈(xu,xd),对应中心点为光条有效区域,分别对左右图像中的11根光条进行上述判断计算,选择出11根光条的有效区域予以保留。
步骤3:像素拆分及提取方向确定
对左右图像中的多根光条分别进行上述光条中心粗提取操作,左图像中共11根光条,第j根光条的有效中心点集为PjL=(XjLc,YjLc)={(xjLci,yjLci)|i=1,2,....,njL},点数为njL,上边界为(xjLu,yjLu),下边界为(xjLd,yjLd);同理设右图像中共11根光条,第j根光条的有效中心点集为PjR=(XjRc,YjLc)={(xjRci,yjRci)|i=1,2,....,njR},点数为njR,上边界为(xjRu,yjRu),下边界为(xjRd,yjRd)。对同一根光条的在左右图像中的中心点数进行比较判别后对中心点数的图像进行像素拆分;
在本实施例中,以第一根光条为例,n1L=1410,n1R=1289,n1L>n1R,对左图像进行像素拆分,拆分像素后的灰度重心提取单位大小qr为0.914,其余10根光条算法亦然;
拆分后的亚像素坐标对应的灰度值可根据式(6)计算;利用判别结果进行像素拆分后,分别对左右图像确定光条提取方向;取左图像中第一根和第二根光条的上边界点(x1Lu,y1Lu),(x2Lu,y2Lu)和第一根光条的下边界点(x1Ld,y1Ld),拆分像素后的灰度中心提取方向为
取右图像中第一根和第二根光条的上边界点(x1Ru,y1Ru),(x2Ru,y2Ru)和第一根光条的下边界点(x1Rd,y1Rd),拆分像素后的灰度中心提取方向为
步骤4:光条中心精确提取
根据灰度重心法粗提取光条中心的结果,对左右图像中的光条分别进行精确提取,根据步骤3的判断,对光条点数量较多的图像即做图像保留每行开始进行灰度重心计算的像素坐标,对需要进行像素拆分的图像进行列的拆分,即每行开始进行灰度重心计算的坐标需要根据插值重新计算:(x,y)=(x+rq,y),r=1,2,...,n
其中,(x,y)是每行开始进行灰度计算的亚像素坐标,n为被插值光条插值后应具有的点个数即,q为灰度重心提取单位,即njL≤njR时,n=njR,q=ql;njL>njR时,n=njL,q=qr
确定每行开始灰度重心计算的亚像素坐标后,利用改进的灰度重心法如式(10)逐行求取光条中心点坐标,其中:
为灰度重心提取方向,其左右图像中算法如公式(7)(8);M为所计算光条中参与计算坐标个数;
遍历左右图像中的每根光条,精确求取其中心点坐标,得到左右对应光条的中心点数一致的新特征光条中心点信息,左图像11根光条提取出的中心点个数分别为1410,1445,1452,1462,1473,1481,1487,1496,1506,1516,1525;右图像11根光条提取出的中心点个数分别为1410,1445,1452,1462,1473,1481,1487,1496,1506,1516,1525;匹配的中心点个数为1410,1445,1452,1462,1473,1478,1486,1490,1504,1512,1521,匹配率达到99.87%。
附图3为采用传统灰度重心法提取光条中心后的重建图像,1、2、3、4、5、6、7、8、9、10、11曲线分别为重建出的十一根光条图像,附图4为光条抑噪后重建图像,1’、2’、3’、4’、5’、6’、7’、8’、9’、10’、11’曲线分别为采用本发明方法提取光条中心后匹配后重建出的的十一根光条图像。通过对比重建的光条图像,本发明的方法匹配率更高,左右图像匹配后重建的点云更符合被测表面的三维形貌,有利于还原特征尺寸。
本发明通过改进传统的灰度重心法,快速提取出左右图像数量一致的光条中心点,有效减少了后续匹配中的一对多、多对一等问题,使得匹配后重建的光条信息符合被测表面三维形貌,提高了测量精度。

Claims (1)

1.一种基于灰度重心法的光条中心快速提取方法,采用双目摄像机拍摄,其特征是,方法首先采用双目摄像机拍摄待测表面激光光条,然后,利用传统的灰度重心法在光条的每行像素内进行中心点的粗提取,设定边界识别阈值以确定光条的测量有效区域;再利用对左右图像信息数量的判定线性拆分光条方向像素坐标,得到光条中心在该方向内的亚像素坐标;最后,利用边界点信息及拆分结果进行光条中心的精确提取,得到有效光条的中心点坐标;方法的具体步骤如下:
步骤1:灰度重心法粗提取光条中心
设第i行像素坐标内单根光条截面中各像素点的坐标为(xi,yj),其中xi=i,yi=j为第i行第j列像素点坐标值,相应的灰度值为g(xi,yj),则该截面的中心点坐标(xc,yc)利用灰度重心法计算如下:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>=</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>y</mi> <mi>j</mi> </msub> </mrow> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> <mrow> <mo>(</mo> <mi>j</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2</mn> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,(xc,yc)为一个截面内的中心点坐标,xc为像素级,yc可达亚像素级,n为截面内像素点的个数,g(xi,yj)为(xi,yj)对应的灰度值;把光条每个截面内像素点的灰度分布质心作为截面的光条中心点,即可粗提取出单方向为亚像素级精度的特征光条中心点;
步骤2:建立光条有效区域模型
针对双目立体视觉测量系统,利用待测表面图像上光条中心点分布与背景图像上光条中心点分布的几何关系,判别光条中心点信息是否有效,确定带有表面几何特征信息的光条有效区域;
由于待测表面与背景表面空间方向不同且两表面存在空间距离,故在双目立体视觉中双目摄像机拍摄出的两表面中的光条具有不同的几何特性,利用粗提取出的光条中心点P=(Xc,Yc)={(xci,yci)|i=2,3,....,n-1}拟合直线,其中n为拟合的中心点个数,P=(Xc,Yc)为单根光条中心点构成的集合,(xci,yci)为集合中点的坐标;设该拟合直线为:Yc=a+bXc,利用最小二乘法可根据提取出的离散中心点求得拟合直线的参数:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mover> <mi>a</mi> <mo>^</mo> </mover> <mo>=</mo> <mfrac> <mrow> <mo>(</mo> <msup> <msub> <mi>&amp;Sigma;x</mi> <mi>i</mi> </msub> <mn>2</mn> </msup> <mo>)</mo> <mo>(</mo> <msub> <mi>&amp;Sigma;y</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>-</mo> <mo>(</mo> <msub> <mi>&amp;Sigma;x</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>(</mo> <msub> <mi>&amp;Sigma;x</mi> <mi>i</mi> </msub> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mrow> <mi>N</mi> <mrow> <mo>(</mo> <msup> <msub> <mi>&amp;Sigma;x</mi> <mi>i</mi> </msub> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>-</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>&amp;Sigma;x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mover> <mi>b</mi> <mo>^</mo> </mover> <mo>=</mo> <mfrac> <mrow> <mi>N</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;Sigma;x</mi> <mi>i</mi> </msub> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mrow> <mo>(</mo> <msub> <mi>&amp;Sigma;x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <msub> <mi>&amp;Sigma;y</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mi>N</mi> <mrow> <mo>(</mo> <msup> <msub> <mi>&amp;Sigma;x</mi> <mi>i</mi> </msub> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>-</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>&amp;Sigma;x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </mfrac> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中为拟合直线的参数,xi,yi分别带入光条中心点对应的坐标值即可;以作为单根光条的边界点的评价指标,分别计算光条中心点与上下临近点的梯度bui,bdi
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>b</mi> <mrow> <mi>u</mi> <mi>i</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>y</mi> <mrow> <mi>c</mi> <mi>i</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>c</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> </msub> </mrow> <mrow> <msub> <mi>x</mi> <mrow> <mi>c</mi> <mi>i</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>x</mi> <mrow> <mi>c</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msub> </mrow> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>b</mi> <mrow> <mi>d</mi> <mi>i</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mrow> <msub> <mi>y</mi> <mrow> <mi>c</mi> <mi>i</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>c</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msub> </mrow> <mrow> <msub> <mi>x</mi> <mrow> <mi>c</mi> <mi>i</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>x</mi> <mrow> <mi>c</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msub> </mrow> </mfrac> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
给定区间其中Δb为根据图片拍摄角度等设定的阈值,判别bui,bdi是否在区间内,分为以下三种情况讨论:
1)若则初步判定其为上边界点;
2)若则初步判定其为下边界点;
3)若 则该点为非边界点;
结合图像属性在初步判定的上下边界点中选择确定的光条上边界点(xu,yu),下边界点(xd,yd),若xci∈(xu,xd),则对应中心点为光条有效区域,予以保留;
步骤3:像素拆分及提取方向确定
对左右图像中的多根光条分别进行上述光条中心粗提取操作,并设左图像中共NL根光条,第j根光条的有效中心点集为:
PjL=(XjLc,YjLc)={(xjLci,yjLci)|i=1,2,....,njL},点数为njL,上边界为(xjLu,yjLu),下边界为(xjLd,yjLd);同理设右图像中共NR根光条,第j根光条的有效中心点集为PjR=(XjRc,YjLc)={(xjRci,yjRci)|i=1,2,....,njR},点数为njR,上边界为(xjRu,yjRu),下边界为(xjRd,yjRd);对同一根光条的在左右图像中的中心点数进行比较判别后对中心点数的图像进行像素拆分;
若njL≤njR,对左图像进行像素拆分,拆分像素后的灰度重心提取单位大小为ql
<mrow> <msub> <mi>q</mi> <mi>l</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>n</mi> <mrow> <mi>j</mi> <mi>L</mi> </mrow> </msub> <msub> <mi>n</mi> <mrow> <mi>j</mi> <mi>R</mi> </mrow> </msub> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
若njL>njR,对左图像进行像素拆分,拆分像素后的灰度重心提取单位大小为qr
<mrow> <msub> <mi>q</mi> <mi>r</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>n</mi> <mrow> <mi>j</mi> <mi>R</mi> </mrow> </msub> <msub> <mi>n</mi> <mrow> <mi>j</mi> <mi>L</mi> </mrow> </msub> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
拆分后的亚像素坐标对应的灰度值计算如下:
g(x,y)=g(xi,yi) (6)
其中xi是x的整数部分,yi是y的整数部分,g(x,y)代表(x,y)对应的灰度值;
利用判别结果进行像素拆分后,分别对左右图像确定光条提取方向;任取左图像中两根相邻光条的上边界点(xjLu,yjLu),(x(j-1)Lu,y(j-1)Lu)和其中一根光条的下边界点(xjLd,yjLd),拆分像素后的灰度中心提取方向为
<mrow> <msub> <mover> <mi>k</mi> <mo>&amp;RightArrow;</mo> </mover> <mi>l</mi> </msub> <mo>=</mo> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>j</mi> <mi>L</mi> <mi>u</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>x</mi> <mrow> <mo>(</mo> <mi>j</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mi>L</mi> <mi>u</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>y</mi> <mrow> <mi>j</mi> <mi>L</mi> <mi>u</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mo>(</mo> <mi>j</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mi>L</mi> <mi>u</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
任取右图像中两根相邻光条的上边界点(xjRu,yjRu),(x(j-1)Ru,y(j-1)Ru)和其中一根光条的下边界点(xjRd,yjRd),拆分像素后的灰度中心提取方向为
<mrow> <msub> <mover> <mi>k</mi> <mo>&amp;RightArrow;</mo> </mover> <mi>r</mi> </msub> <mo>=</mo> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>j</mi> <mi>R</mi> <mi>u</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>x</mi> <mrow> <mo>(</mo> <mi>j</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mi>R</mi> <mi>u</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>y</mi> <mrow> <mi>j</mi> <mi>R</mi> <mi>u</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mo>(</mo> <mi>j</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mi>R</mi> <mi>u</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
步骤4:光条中心精确提取
根据灰度重心法粗提取光条中心的结果,对左右图像中的光条分别进行精确提取,根据步骤3的判断,对光条点数量较多的图像保留每行开始进行灰度重心计算的像素坐标,对需要进行像素拆分的图像进行列的拆分,即每行开始进行灰度重心计算的坐标需要根据插值重新计算:
(x,y)=(x+rq,y),r=1,2,...,n (9)
其中,(x,y)是每行开始进行灰度计算的亚像素坐标,n为被插值光条插值后应具有的点个数,q为灰度重心提取单位,即njL≤njR时,n=njR,q=ql;njL>njR时,n=njL,q=qr
确定每行开始灰度重心计算的亚像素坐标后,利用改进的灰度重心法逐行求取光条中心点坐标:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>x</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>x</mi> <mi>m</mi> </msub> </mrow> <mi>M</mi> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>y</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>m</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>y</mi> <mi>m</mi> </msub> </mrow> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>m</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>m</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
其中, 为灰度重心提取方向,其左右图像中的算法如公式(7)(8);M为所计算光条中参与计算的坐标个数;
遍历左右图像中的每根光条,精确求取其中心点坐标,得到左右对应光条的中心点数一致的新特征光条中心点信息,用于还原待测的三维特征信息。
CN201510609406.4A 2015-09-22 2015-09-22 基于灰度重心法的光条中心快速提取方法 Active CN105300316B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510609406.4A CN105300316B (zh) 2015-09-22 2015-09-22 基于灰度重心法的光条中心快速提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510609406.4A CN105300316B (zh) 2015-09-22 2015-09-22 基于灰度重心法的光条中心快速提取方法

Publications (2)

Publication Number Publication Date
CN105300316A CN105300316A (zh) 2016-02-03
CN105300316B true CN105300316B (zh) 2017-10-13

Family

ID=55197858

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510609406.4A Active CN105300316B (zh) 2015-09-22 2015-09-22 基于灰度重心法的光条中心快速提取方法

Country Status (1)

Country Link
CN (1) CN105300316B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105758400B (zh) * 2016-02-15 2018-08-03 上海卫星工程研究所 静止卫星成像导航与配准恒星敏感东西参数提取方法
CN105931232B (zh) * 2016-04-18 2019-02-19 南京航空航天大学 结构光光条中心高精度亚像素提取方法
CN106023247B (zh) * 2016-05-05 2019-06-14 南通职业大学 一种基于时空跟踪的光条中心提取跟踪方法
CN107516324B (zh) * 2017-07-20 2019-12-17 大连理工大学 一种基于光条几何特征突变的目标边界提取方法
CN107687819B (zh) * 2017-08-01 2019-09-27 大连理工大学 一种快速高精度的光条中心亚像素提取方法
CN107505324B (zh) * 2017-08-10 2020-06-16 李�杰 基于双目协同激光的3d扫描装置及扫描方法
CN107578420B (zh) * 2017-08-21 2019-11-19 大连理工大学 一种自适应光条图像阈值分割方法
US20190137549A1 (en) * 2017-11-03 2019-05-09 Velodyne Lidar, Inc. Systems and methods for multi-tier centroid calculation
CN108133298B (zh) * 2018-03-08 2022-04-19 河南工业大学 一种多元回归模型全国粮食消费量预测方法
CN108592791B (zh) * 2018-04-27 2020-06-16 烟台南山学院 一种凹坑检查方法
CN109035213A (zh) * 2018-07-05 2018-12-18 大连理工大学 基于光条截面能量分布唯一性的光条中心亚像素提取方法
CN110223355B (zh) * 2019-05-15 2021-01-05 大连理工大学 一种基于双重极线约束的特征标志点匹配方法
CN110288576B (zh) * 2019-06-20 2022-03-22 河北科技大学 光条中心提取方法、终端设备及存储介质
CN112669379B (zh) * 2020-12-22 2024-01-02 大连工业大学 一种基于辅助标记点的图像特征快速提取方法
CN113074660B (zh) * 2021-03-26 2022-09-20 深度光学科技(天津)有限公司 一种大尺寸透明物体的面型测量方法
CN113223074A (zh) * 2021-05-06 2021-08-06 哈尔滨工程大学 一种水下激光条纹中心提取方法
CN113421296B (zh) * 2021-08-24 2021-11-26 之江实验室 一种基于灰度阈值的激光光斑质心提取方法
CN114018214A (zh) * 2021-10-18 2022-02-08 武汉理工大学 一种基于硬件加速系统的标志物双目亚像素测距方法
CN114001671B (zh) * 2021-12-31 2022-04-08 杭州思看科技有限公司 激光数据提取方法、数据处理方法、和三维扫描系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181424B1 (en) * 1997-12-19 2001-01-30 Mitsumasa Okabayashi Three-dimensional measurement apparatus
JP2004226160A (ja) * 2003-01-21 2004-08-12 Nikke Kikai Seisakusho:Kk 外観計測装置
CN101240995A (zh) * 2007-07-17 2008-08-13 天津大学 一种基于全局标定约束的三维拼接匹配点选取方法
CN102032878A (zh) * 2009-09-24 2011-04-27 甄海涛 基于双目立体视觉测量系统的精确在线测量方法
CN102768728A (zh) * 2012-06-27 2012-11-07 山东大学 一种基于扫描振镜的立体字符图像采集及处理方法
CN103292741A (zh) * 2013-05-29 2013-09-11 哈尔滨工程大学 一种基于k均值颜色聚类的物体表面三维轮廓的结构光视觉测量方法
CN103913131A (zh) * 2014-04-14 2014-07-09 大连理工大学 一种基于双目视觉的自由曲面法矢量测量方法
CN103940369A (zh) * 2014-04-09 2014-07-23 大连理工大学 多激光协同扫描形貌快速视觉测量方法
CN104897174A (zh) * 2015-06-19 2015-09-09 大连理工大学 基于置信度评价的图像光条噪声抑制方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046772A (ja) * 2002-05-13 2004-02-12 3D Media Co Ltd 画像処理方法、画像処理システム、及び画像処理装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181424B1 (en) * 1997-12-19 2001-01-30 Mitsumasa Okabayashi Three-dimensional measurement apparatus
JP2004226160A (ja) * 2003-01-21 2004-08-12 Nikke Kikai Seisakusho:Kk 外観計測装置
CN101240995A (zh) * 2007-07-17 2008-08-13 天津大学 一种基于全局标定约束的三维拼接匹配点选取方法
CN102032878A (zh) * 2009-09-24 2011-04-27 甄海涛 基于双目立体视觉测量系统的精确在线测量方法
CN102768728A (zh) * 2012-06-27 2012-11-07 山东大学 一种基于扫描振镜的立体字符图像采集及处理方法
CN103292741A (zh) * 2013-05-29 2013-09-11 哈尔滨工程大学 一种基于k均值颜色聚类的物体表面三维轮廓的结构光视觉测量方法
CN103940369A (zh) * 2014-04-09 2014-07-23 大连理工大学 多激光协同扫描形貌快速视觉测量方法
CN103913131A (zh) * 2014-04-14 2014-07-09 大连理工大学 一种基于双目视觉的自由曲面法矢量测量方法
CN104897174A (zh) * 2015-06-19 2015-09-09 大连理工大学 基于置信度评价的图像光条噪声抑制方法

Also Published As

Publication number Publication date
CN105300316A (zh) 2016-02-03

Similar Documents

Publication Publication Date Title
CN105300316B (zh) 基于灰度重心法的光条中心快速提取方法
CN102697508B (zh) 采用单目视觉的三维重建来进行步态识别的方法
CN109272537B (zh) 一种基于结构光的全景点云配准方法
CN103913131B (zh) 一种基于双目视觉的自由曲面法矢量测量方法
US8803943B2 (en) Formation apparatus using digital image correlation
CN106091984A (zh) 一种基于线激光的三维点云数据获取方法
CN109272524B (zh) 一种基于阈值分割的小尺度点云噪声去噪方法
CN105046743A (zh) 一种基于全局变分技术的超高分辨率三维重建方法
CN107301648B (zh) 基于重叠区域边界角度的冗余点云去除方法
CN104574432B (zh) 一种自动多视角人脸自拍图像的三维人脸重建方法及系统
CN105654483B (zh) 三维点云全自动配准方法
CN101398886A (zh) 一种基于双目被动立体视觉的快速三维人脸识别方法
CN104616325A (zh) 一种快速高精度的大型表面光条中心提取方法
CN103822581B (zh) 一种基于压缩感知的不规则物体体积测量方法
CN105184857A (zh) 基于点结构光测距的单目视觉重建中尺度因子确定方法
CN109523595A (zh) 一种建筑工程直线棱角间距视觉测量方法
CN104036542A (zh) 一种基于空间光线聚集性的像面特征点匹配方法
CN102914295A (zh) 基于计算机视觉立方体标定的三维测量方法
CN106780573A (zh) 一种全景图特征匹配精度优化的方法及系统
CN108010125A (zh) 基于线结构光和图像信息的真实尺度三维重建系统及方法
CN101178811A (zh) 一种三步法结构光直线光条的图像特征提取方法
CN110207670A (zh) 一种使用二维图像获取人工林森林冠幅参数的方法
CN101996415B (zh) 眼球的三维建模方法
CN109978957B (zh) 基于量子行为粒子群的双目系统标定方法
CN113340201B (zh) 一种基于rgbd相机的三维测量方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant