CN105716539B - 一种快速高精度的三维形面测量方法 - Google Patents
一种快速高精度的三维形面测量方法 Download PDFInfo
- Publication number
- CN105716539B CN105716539B CN201610056646.0A CN201610056646A CN105716539B CN 105716539 B CN105716539 B CN 105716539B CN 201610056646 A CN201610056646 A CN 201610056646A CN 105716539 B CN105716539 B CN 105716539B
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- striation
- image
- mtd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/2433—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures for measuring outlines by shadow casting
Abstract
本发明属于计算机视觉测量技术领域,涉及一种基于光条宽度突变识别边界的三维形面测量方法。测量方法采用差影法对双目视觉测量系统采集到的光条图像进行去噪,根据激光光条在不同材料物体表面的反射特性不同,使得光条宽度会在边界轮廓处发生变化,根据光条宽度的变化精确识别边界位置,对边界以内的光条信息进行匹配重建,最终实现三维形面的快速高精度测量。测量方法包括图像采集,光条图像去噪及合成,光条中心提取,边界轮廓识别,匹配光条中心点及重建三维形面步骤。该方法测量精度高,减小了冗余计算量,提高了处理效率,可满足一般大型复合零部件形面的快速高精度三维测量要求。
Description
技术领域
本发明属于计算机视觉测量技术领域,涉及一种基于光条宽度突变识别边界的三维形面测量方法
背景技术
随着航空航天领域、汽车工业、模具和重大装备零部件制造技术的迅速发展,人们对制造的精度和质量提出了更高的要求。例如飞机的平垂尾等大型零部件三维形面的高精度测量,由于这类零部件的尺寸大、形状不规则、局部精度要求高等特点,其三维形面的精确测量成为现在一个难题。近年来,基于结构光扫描的双目视觉测量方法成为研究人员的研究热点。由于这种方法具有检测速度快、测量精度高、动态响应快、自动化程度高、操作简单和测量非接触等优势而被广泛应用于航空、航天及汽车等工业领域中。该方法通过对相机的标定、采集光条图像、提取光条中心和匹配重建等过程完成三维形面的测量。但是由于在实际工作现场中的光照环境非常复杂,背景干扰十分严重等问题,导致采集的光条常会出现断开、弯折等现象,对于三维形面的测量产生不利影响,从而导致制造精度低、连接装配不精确等一系列问题。经文献检索,刘震、张广军、孙军华等发明的专利号:CN 102445164A,专利名称为:“一种大型构件表面三维形面视觉测量方法及系统”的发明专利提出了一种包括图像采集系统、控制器、计算机、一个三维光学测头、多个平面靶标的测量系统。该方法通过三维光学测头中的双目视觉系统测量不同区域的三维形面,在通过三维光学测头中的宽视场相机测量大型构件周围的多个平面靶标的位置,将不同区域的三维形面信息统一到同一全局坐标系下,以实现三维形面的测量。但是由于该方法多次进行坐标转换,精度难以得到保证,并且需要多次移动三维光学测头位置,操作较麻烦。李航、司东宏、刘丽丽等发明的专利号:CN103759669A,专利名称为:“一种大型零件的单目视觉测量方法”的发明专利提出了一种通过转战球进行三维形面测量的方法,通过转战球上的标志点来把每一个单目相机的位置统一到世界坐标系下,但算法复杂容易受中间过程影响,测量效率较低。
发明内容
本发明要解决的技术难题是针对大型复合零部件表面三维形面测量过程中测量效率低、边界提取不精确的问题,发明了一种快速高精度且轮廓边界准确的双目视觉三维形面测量方法。该方法针采用基于辅助激光扫描的双目立体视觉测量系统进行图像采集,利用图像差影法快速去除大面积背景噪声,再将所有处理后的扫描光条图像进行图像合成;并将所有光条合成到一张图像上,在图像中一次性提取所有光条的中心位置;最后,建立基于光条宽度突变的边界识别方法,识别确定出上述提取光条在被测物边界的所有边界点位置,去除边界以外的光条中心坐标,仅保留边界以内的光条中心坐标并进行三维重建,从而实现快速、高精度的三维形面测量。
本发明采用的技术方案是一种快速高精度的三维形面测量方法,其特征是,测量方法采用差影法对双目视觉测量系统采集到的光条图像进行去噪,根据激光光条在不同材料物体表面的反射特性不同,使得光条宽度会在边界轮廓处发生变化,根据光条宽度的变化精确识别边界位置,对边界以内的光条信息进行匹配重建,最终实现三维形面的快速高精度测量;测量方法包括图像采集,光条图像去噪及合成,光条中心提取,边界轮廓识别,匹配光条中心点及重建三维形面步骤;测量方法具体步骤如下:
第一步对被测物三维形面进行图像采集,并进行光条图像合成
1)光条图像快速去噪方法
采用激光扫描加双目视觉测量系统对被测物体的表面进行图像采集,得到原始无光条图像和不同时刻的激光光条图像。由于对图像采集的过程中,光照环境基本相同,因此可以采用如下公式对所有光条扫描的图像进行去噪处理:
Fi(x,y)=fi(x,y,ti)-f0(x,y) (1)
其中,Fi(x,y)为第i张光条图像去噪后的初始灰度图像,fi(x,y,ti)为第i张光条灰度图像,f0(x,y)为原始无光条的灰度图像。由于在图像采集过程中的噪声影响,光条图像与原始无光条图像在除光条区域外的灰度并不完全相同,因此去噪处理过程中定义一个灰度阈值R,当光条灰度图像fi(x,y,ti)某一元素减去原始无光条灰度图像f0(x,y)对应元素的值小于R时,将Fi(x,y)中对应元素的值置0;当光条灰度图像fi(x,y,ti)某一元素减去原始无光条灰度图像f0(x,y)对应元素的值大于R时,保留相减得到的灰度值,公式如下:
其中,Hi(x,y)为第i张光条图像去噪后得到的灰度图像。
2)光条图像合成为实现扫描光条图像的快速提取与匹配,将上述得到的所有去噪后的光条灰度图像Hi(x,y)进行合成,得到一张包含所有扫描光条信息的合成图像,然后进行一次性的光条提取和匹配,大大减少了冗余计算量,提高了光条图像处理效率。图像合成公式如下:
G(x,y)=∑Hi(x,y) (3)
其中,G(x,y)表示所有光条图像合成后的灰度图像。
第二步对合成的光条图像进行光条中心提取,并识别被测物边界点位置
1)光条中心提取在合成的图像上,对每一根光条使用灰度重心法提取其横截面方向重心点坐标,灰度重心法提取光条重心的公式如下:
其中为第k根光条第i行的灰度重心点坐标,Iij为第i行第j列灰度值,(m,n)为第k根光条的列坐标区间,利用此公式求出所有光条各行的重心坐标,并将其作为光条中心坐标。
2)基于光条宽度突变的边界点识别
首先,采用阈值分割的方法分割出图像光条连通区域,由上到下逐行搜索光条宽度值d,将每一根光条不同行的宽度值设为di,则得到一根光条不同行的所有宽度值,如下:
d=[dp dp+1 ... dp+i dp+i+1 ... dp+n]
其中,dp表示第p行光条宽度值,p为光条连通区域的首行,n为光条连通区域的总行数。利用光条图像第i行的上下各λ行光条宽度并以离散方差的形式定义第i行光条宽度的变化率ψi,公式如下:
其中,μ表示上下各λ行光条宽度的平均值,公式如下:
为满足运算规则,将i=p和i=p+n处溢出部分的宽度值dp-λ和dp+n+λ按等于0进行处理。对每一根光条利用公式(5)计算可得到的宽度变化率会由于光条两端断开、一端断开一端连续、两端连续而分别产生两个、三个、四个不同的极值点,因此设定一个阈值ψ0(其值的大小与被测物、背景及激光光条有光)来判定被测物的两个边界位置,设由上述公式得到的极值点的极值为ψic,其中c=1~s,i=2~4,其所对应的光条中心位置为则:
由此可以得到被测物第k根光条的两个边界位置,接着对所有光条进行同样的操作,即可得到所有光条对应的边界轮廓位置。
第三步三维形面还原
识别出边界轮廓以后,对边界轮廓内的信息进行保留,而对边界轮廓外的信息予以剔除,然后对轮廓内的光条信息进行三维重建。
1)光条中心匹配利用极线约束对双目视觉测量系统中左、右相机的图像进行对应左、右图像光条中心的匹配;具体做法是:首先采用八点归一化算法计算出左、右相机的基本矩阵F,然后通过左、右相机采集到的光条图像之间的极线约束关系进行对应点匹配;设左图像光条中心点xi'与右图像光条中心点xi′′相匹配,极线约束条件为:
其中,xi'为左相机采集的图像光条中心点的像面坐标;xi′′为与xi'相匹配由右相机所采集图像光条中心点的像面坐标;F为两相机之间的基本矩阵;
2)三维重建对得到的匹配点进行三维重建,重建公式如下:
其中,Xi',Yi'分别为左相机采集的图像光条中心点xi'的像面横纵坐标;Xi”,Yi”分别为右相机采集的图像光斑中心点xi‘'的像面横纵坐标;f1、f2分别为左、右相机标定得到的焦距;是右相机相对于左相机的旋转矩阵,[tx ty tz]是右相机相对于左相机的平移矩阵,由此可以得到重建的三维形面。
本发明的有益效果是该方法不仅测量精度高,而且仅需对一幅图像进行处理即可实现所有形面特征的提取,大大减小了冗余计算量,提高了处理效率。可满足一般大型零部件形面的快速高精度三维测量要求。
附图说明
图1为激光光条图像采集示意图。其中,1-激光器,2-被测物体表面,3-两端连续的光条,4-一端连续、一端断开的光条,5-两端断开的光条,f为相机采集图像帧频,ω为激光器的扫描角速度。
图2为光条合成图像示意图。其中,6-被测物,7-第i根光条位置。
图3为三维形面测量流程图。
具体实施方式
以下结合技术方案和附图详细叙述本发明的具体实施方式。
附图1为激光光条图像采集位置图。被测物体为一块450×450mm的碳纤维材料方形平板,首先对双目视觉测量系统进行标定,然后调整激光器的位置,以使光条投射在复合材料板靠左的初始位置上,激光器作扫描运动。
实施例1,本发明分别配置广角镜头的两个摄像机拍摄一幅光条图像。摄像机型号为vieworks VC-12MC-M/C 65摄像机,分辨率:4096×3072,图像传感器:CMOS,帧率:全画幅,最高64.3fps,重量:420g。广角镜头型号为EF 16-35mm f/2.8L II USM,参数如下所示,镜头焦距:f=16-35,APS焦距:25.5-52.5,光圈:F2.8,镜头尺寸:82×106。拍摄条件如下:图片像素为4096×3072,镜头焦距为17mm,物距为750mm,视场约为800mm×800mm。
附图3为三维形面测量流程图。整个三维形面的测量过程包括图像采集、光条图像去噪及合成、光条中心提取、边界轮廓识别、匹配光条中心点及重建三维形面步骤。根据激光光条在不同材料物体表面的反射特性不同,使得光条宽度会在边界轮廓处发生变化,从而根据光条宽度的变化精确识别边界位置,对边界以内的光条信息进行匹配重建,最终实现三维形面的快速高精度测量。实施例的具体步骤如下:
第一步光条图像的去噪与合成
1)光条图像去噪对双目视觉系统采集到的图像按照公式(1)和(2)进行去噪处理,并且定义一个灰度阈值R,当光条灰度图像fi(x,y,ti)某一元素减去原始无光条灰度图像f0(x,y)对应元素的值小于R时,将Fi(x,y)中对应元素的值置0;当光条灰度图像fi(x,y,ti)某一元素减去原始无光条灰度图像f0(x,y)对应元素的值大于R时,保留相减得到的灰度值;从而得到去噪后的光条灰度图像Hi(x,y)。
2)光条图像合成根据上述得到的所有去噪后的光条灰度图像Hi(x,y),根据公式(3)将他们合成在一张图像上,得到一张包含所有光条信息的图像G(x,y),如附图2所示。
第二步光条中心提取方法及边缘轮廓的识别
1)光条中心提取
利用上述得到的灰度图像G(x,y),并结合公式(4)对每一根光条逐行求解其灰度重心坐标并将其作为光条中心坐标。
2)基于光条宽度突变的边界点识别
对于三维形面的边界区域,采用公式(5)和(6)求其宽度变化率的极值点的极值ψic,并取λ=1。根据光条两端断开、一端断开一端连续、两端连续不同的情况,利用公式(7)来判断极值点位置是否为边界点,由此确定每一根光条的两个边界点。对所有光条重复上述操作,可以得到所有光条边界轮廓位置。
第三步三维形面还原方法
1)左右图像光条中心匹配
根据上述步骤得到的左相机图像的光条中心点坐标xi'=(ui,vi),采用公式(8)即可得到右相机图像上匹配到的对应位置的光条中心点坐标xi′′=(ui',vi')。
2)光条中心三维重建
得到左、右图像所有匹配到的光条中心点后,采用公式(9)进行三维重建,得到被测物表面光条中心点在世界坐标系下的三维坐标(xi,yi,zi),重建出所有匹配点后便得到被测物表面三维形面点云信息。
本发明首先采用差影法对双目视觉测量系统采集到的光条图像进行去噪,并进行图像合成处理,然后提取合成图像的所有光条中心位置,并且根据光条在不同材料表面下的宽度不同来精确识别边界位置,剔除边界外的光条信息,对边界内的光条信息进行三维重建。该方法不仅测量精度高,而且仅需对一幅图像进行处理即可实现所有形面特征的提取,大大减小了冗余计算量,提高了处理效率。可满足一般大型零部件形面的快速高精度三维测量要求。
Claims (1)
1.一种快速高精度的三维形面测量方法,其特征是,测量方法采用差影法对双目视觉测量系统采集到的光条图像进行去噪,根据激光光条在不同材料物体表面的反射特性不同,使得光条宽度会在边界轮廓处发生变化,根据光条宽度的变化精确识别边界位置,对边界以内的光条信息进行匹配重建,最终实现三维形面的快速高精度测量;测量方法包括图像采集,光条图像去噪及合成,光条中心提取,边界轮廓识别,匹配光条中心点及重建三维形面步骤;
该方法的具体步骤如下:
第一步 对被测物三维形面进行图像采集、光条图像去噪及合成;
1)光条图像采集、快速去噪方法
采用激光扫描加双目视觉测量系统对被测物体的表面进行图像采集,得到原始无光条图像和不同时刻的激光光条图像;由于对图像采集的过程中,光照环境基本相同,采用如下公式对所有光条扫描的图像进行去噪处理:
Fi(x,y)=fi(x,y,ti)-f0(x,y) (1)
其中,Fi(x,y)为第i张光条图像去噪后的初始灰度图像,fi(x,y,ti)为第i张光条灰度图像,f0(x,y)为原始无光条的灰度图像;
由于在图像采集过程中的噪声影响,光条图像与原始无光条图像在除光条区域外的灰度并不完全相同,因此去噪处理过程中定义一个灰度阈值R,当光条灰度图像fi(x,y,ti)某一元素减去原始无光条灰度图像f0(x,y)对应元素的值小于R时,将Fi(x,y)中对应元素的值置0;当光条灰度图像fi(x,y,ti)某一元素减去原始无光条灰度图像f0(x,y)对应元素的值大于R时,保留相减得到的灰度值,公式如下:
<mrow>
<msub>
<mi>H</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>i</mi>
</msub>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
<mo>&le;</mo>
<mi>R</mi>
<mo>)</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>F</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>i</mi>
</msub>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
<mo>></mo>
<mi>R</mi>
<mo>)</mo>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,Hi(x,y)为第i张光条图像去噪后得到的灰度图像;
2)光条图像合成 为实现扫描光条图像的快速提取与匹配,将上述得到的所有去噪后的光条灰度图像Hi(x,y)进行合成,得到一张包含所有扫描光条信息的合成图像,然后进行一次性的光条提取和匹配,大大减少了冗余计算量,提高了光条图像处理效率;图像合成公式如下:
G(x,y)=∑Hi(x,y) (3)
其中,G(x,y)表示所有光条图像合成后的灰度图像;
第二步对合成的光条图像进行光条中心提取,识别被测物边界点位置
1)光条中心提取 在合成的图像上,对每一根光条使用灰度重心法提取其横截面方向重心点坐标,灰度重心法提取光条重心的公式如下:
<mrow>
<mo>(</mo>
<msubsup>
<mi>u</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>v</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>m</mi>
</mrow>
<mi>n</mi>
</munderover>
<mi>j</mi>
<mo>&times;</mo>
<msub>
<mi>I</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>m</mi>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>I</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
其中为第k根光条第i行的灰度重心点坐标,Iij为第i行第j列灰度值,(m,n)为第k根光条的列坐标区间,利用此公式求出所有光条各行的重心坐标,并将其作为光条中心坐标;
2)基于光条宽度突变的边界点识别
首先,采用阈值分割的方法分割出图像光条连通区域,由上到下逐行搜索光条宽度值d,将每一根光条不同行的宽度值设为di,则得到一根光条不同行的所有宽度值,如下:
d=[dp dp+1 … dp+i dp+i+1 … dp+n]
其中,dp表示第p行光条宽度值,p为光条连通区域的首行,n为光条连通区域的总行数;利用光条图像第i行的上下各λ行光条宽度并以离散方差的形式定义第i行光条宽度的变化率ψi,
<mrow>
<msub>
<mi>&psi;</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>i</mi>
<mo>-</mo>
<mi>&lambda;</mi>
</mrow>
<mrow>
<mi>i</mi>
<mo>+</mo>
<mi>&lambda;</mi>
</mrow>
</munderover>
<mfrac>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>d</mi>
<mi>j</mi>
</msub>
<mo>-</mo>
<mi>&mu;</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mrow>
<mn>2</mn>
<mi>&lambda;</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,μ表示上下各λ行光条宽度的平均值,公式如下:
<mrow>
<mi>&mu;</mi>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>i</mi>
<mo>-</mo>
<mi>&lambda;</mi>
</mrow>
<mrow>
<mi>i</mi>
<mo>+</mo>
<mi>&lambda;</mi>
</mrow>
</munderover>
<msub>
<mi>d</mi>
<mi>j</mi>
</msub>
<mo>/</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mi>&lambda;</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
为满足运算规则,将i=p和i=p+n处溢出部分的宽度值dp-λ和dp+n+λ按等于0进行处理;对每一根光条利用公式(5)计算得到的宽度变化率会由于光条两端断开、一端断开一端连续、两端连续而分别产生两个、三个、四个不同的极值点,设定一个阈值ψ0,其值的大小与被测物、背景及激光光条有关,来判定被测物的两个边界位置;设由上述公式得到的极值点的极值为其中,c=1~s,i=2~4,其所对应的光条中心位置为则:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mo>(</mo>
<msubsup>
<mi>u</mi>
<msub>
<mi>i</mi>
<mi>c</mi>
</msub>
<mi>k</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>v</mi>
<msub>
<mi>i</mi>
<mi>c</mi>
</msub>
<mi>k</mi>
</msubsup>
<mo>)</mo>
<mo>&Element;</mo>
<mi>e</mi>
<mi>d</mi>
<mi>g</mi>
<mi>e</mi>
<mi>p</mi>
<mi>o</mi>
<mi>int</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&psi;</mi>
<msub>
<mi>i</mi>
<mi>c</mi>
</msub>
</msub>
<mo>&le;</mo>
<msub>
<mi>&psi;</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>(</mo>
<msubsup>
<mi>u</mi>
<msub>
<mi>i</mi>
<mi>c</mi>
</msub>
<mi>k</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>v</mi>
<msub>
<mi>i</mi>
<mi>c</mi>
</msub>
<mi>k</mi>
</msubsup>
<mo>)</mo>
<mo>&NotElement;</mo>
<mi>e</mi>
<mi>d</mi>
<mi>g</mi>
<mi>e</mi>
<mi>p</mi>
<mi>o</mi>
<mi>int</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&psi;</mi>
<msub>
<mi>i</mi>
<mi>c</mi>
</msub>
</msub>
<mo>></mo>
<msub>
<mi>&psi;</mi>
<mn>0</mn>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
由此得到被测物第k根光条的两个边界位置,接着对所有光条进行同样的操作,得到所有光条对应的边界轮廓位置;
第三步 三维形面还原
识别出边界轮廓以后,对边界轮廓内的信息进行保留,而对边界轮廓外的信息予以剔除,然后对轮廓内的光条信息进行三维重建;
1)光条中心匹配 利用极线约束对双目视觉测量系统中左、右相机的图像进行对应左、右图像光条中心的匹配;具体做法是:首先采用八点归一化算法计算出左、右相机的基本矩阵F,然后通过左、右相机采集到的光条图像之间的极线约束关系进行对应点匹配;设左图像光条中心点xi'与右图像光条中心点xi′′相匹配,极线约束条件为:
<mrow>
<msubsup>
<mi>x</mi>
<mi>i</mi>
<mrow>
<mo>&prime;</mo>
<mi>T</mi>
</mrow>
</msubsup>
<mi>F</mi>
<msubsup>
<mi>x</mi>
<msup>
<mi>i</mi>
<mo>&prime;</mo>
</msup>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mn>0</mn>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,xi'为左相机采集的图像光条中心点的像面坐标;xi′′为与xi'相匹配由右相机所采集图像光条中心点的像面坐标;F为两相机之间的基本矩阵;
2)三维重建,对得到的匹配点进行三维重建,重建公式如下:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msup>
<msub>
<mi>zX</mi>
<mi>i</mi>
</msub>
<mo>&prime;</mo>
</msup>
</mrow>
<msub>
<mi>f</mi>
<mn>1</mn>
</msub>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msup>
<msub>
<mi>zY</mi>
<mi>i</mi>
</msub>
<mo>&prime;</mo>
</msup>
</mrow>
<msub>
<mi>f</mi>
<mn>1</mn>
</msub>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>z</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>f</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>f</mi>
<mn>2</mn>
</msub>
<msub>
<mi>t</mi>
<mi>y</mi>
</msub>
<mo>-</mo>
<msup>
<msub>
<mi>Y</mi>
<msup>
<mi>i</mi>
<mo>&prime;</mo>
</msup>
</msub>
<mo>&prime;</mo>
</msup>
<msub>
<mi>t</mi>
<mi>z</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>Y</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mn>7</mn>
</msub>
<msup>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>&prime;</mo>
</msup>
<mo>+</mo>
<msub>
<mi>r</mi>
<mn>8</mn>
</msub>
<msup>
<msub>
<mi>Y</mi>
<mi>i</mi>
</msub>
<mo>&prime;</mo>
</msup>
<mo>+</mo>
<msub>
<mi>r</mi>
<mn>9</mn>
</msub>
<msub>
<mi>f</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>f</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mn>4</mn>
</msub>
<msup>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>&prime;</mo>
</msup>
<mo>+</mo>
<msub>
<mi>r</mi>
<mn>5</mn>
</msub>
<msup>
<msub>
<mi>Y</mi>
<mi>i</mi>
</msub>
<mo>&prime;</mo>
</msup>
<mo>+</mo>
<msub>
<mi>r</mi>
<mn>6</mn>
</msub>
<msub>
<mi>f</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,X′i,Y′i分别为左相机采集的图像光条中心点xi′的像面横纵坐标;Xi′′,Yi′′分别为右相机采集的图像光斑中心点xi‘'的像面横纵坐标;f1、f2分别为左、右相机标定得到的焦距;是右相机相对于左相机的旋转矩阵,[tx ty tz]是右相机相对于左相机的平移矩阵,由此得到重建的三维形面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610056646.0A CN105716539B (zh) | 2016-01-26 | 2016-01-26 | 一种快速高精度的三维形面测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610056646.0A CN105716539B (zh) | 2016-01-26 | 2016-01-26 | 一种快速高精度的三维形面测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105716539A CN105716539A (zh) | 2016-06-29 |
CN105716539B true CN105716539B (zh) | 2017-11-07 |
Family
ID=56155259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610056646.0A Active CN105716539B (zh) | 2016-01-26 | 2016-01-26 | 一种快速高精度的三维形面测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105716539B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106175676A (zh) * | 2016-07-11 | 2016-12-07 | 天津大学 | 成像光线空间追踪舌面彩色三维成像方法和系统 |
CN106500593A (zh) * | 2016-10-31 | 2017-03-15 | 哈尔滨工业大学 | 航空电连接器插针位置偏差检测方法 |
CN106767509A (zh) * | 2016-12-24 | 2017-05-31 | 大连日佳电子有限公司 | 一种焊锡三维表面扫描方法 |
CN107301648B (zh) * | 2017-06-09 | 2020-04-07 | 大连理工大学 | 基于重叠区域边界角度的冗余点云去除方法 |
CN107392954B (zh) * | 2017-07-04 | 2019-11-19 | 大连理工大学 | 一种基于序列图像的粗大误差点剔除方法 |
CN107516324B (zh) * | 2017-07-20 | 2019-12-17 | 大连理工大学 | 一种基于光条几何特征突变的目标边界提取方法 |
CN107657604A (zh) * | 2017-09-06 | 2018-02-02 | 西安交通大学 | 一种基于近场非标准光源的磨痕三维形貌原位获取方法 |
CN107764205B (zh) * | 2017-11-06 | 2020-05-12 | 长安大学 | 基于线结构光扫描高频电阻焊焊缝形貌三维检测装置及检测方法 |
CN108550160B (zh) * | 2018-04-03 | 2020-04-07 | 大连理工大学 | 基于光强模板的非均匀光条特征区域提取方法 |
CN108961429B (zh) * | 2018-06-08 | 2023-01-10 | 大连理工大学 | 一种文物碎片模型自动分割及拼接方法 |
EP3779882B1 (en) * | 2019-08-16 | 2022-07-20 | Sick IVP AB | Providing intensity peak position in image data from light triangulation in a three-dimensional imaging system |
CN110375675B (zh) * | 2019-08-30 | 2020-12-08 | 易思维(杭州)科技有限公司 | 基于空间相位展开的双目光栅投影测量方法 |
CN110595392B (zh) * | 2019-09-26 | 2021-03-02 | 桂林电子科技大学 | 一种十字线结构光双目视觉扫描系统及方法 |
CN112146589A (zh) * | 2020-09-16 | 2020-12-29 | 天津大学 | 一种基于zynq平台的三维形貌测量系统及方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59188509A (ja) * | 1983-04-11 | 1984-10-25 | Nippon Telegr & Teleph Corp <Ntt> | 物体の位置および形状認識方法 |
JPH1096611A (ja) * | 1996-07-31 | 1998-04-14 | N S D Kk | 形状測定装置 |
JP2005030997A (ja) * | 2003-07-09 | 2005-02-03 | Matsushita Electric Ind Co Ltd | 段差形状測定方法 |
CN103530880B (zh) * | 2013-10-16 | 2016-04-06 | 大连理工大学 | 基于投影高斯网格图案的摄像机标定方法 |
CN103940369A (zh) * | 2014-04-09 | 2014-07-23 | 大连理工大学 | 多激光协同扫描形貌快速视觉测量方法 |
CN103913131B (zh) * | 2014-04-14 | 2017-04-12 | 大连理工大学 | 一种基于双目视觉的自由曲面法矢量测量方法 |
CN104457569B (zh) * | 2014-11-27 | 2017-06-16 | 大连理工大学 | 一种大型复合板材几何参数视觉测量方法 |
CN104930985B (zh) * | 2015-06-16 | 2017-08-22 | 大连理工大学 | 基于时空约束的双目视觉三维形貌测量方法 |
CN104897060B (zh) * | 2015-06-17 | 2017-08-01 | 大连理工大学 | 采用坐标跟踪控制板的大视场全局测量方法 |
-
2016
- 2016-01-26 CN CN201610056646.0A patent/CN105716539B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN105716539A (zh) | 2016-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105716539B (zh) | 一种快速高精度的三维形面测量方法 | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN104930985B (zh) | 基于时空约束的双目视觉三维形貌测量方法 | |
CN109035200B (zh) | 一种基于单双目视觉协同的螺栓定位及位姿检测方法 | |
CN103971378B (zh) | 一种混合视觉系统中全景图像的三维重建方法 | |
CN104063702B (zh) | 一种基于遮挡修复和局部相似性匹配的三维步态识别方法 | |
CN103411553B (zh) | 多线结构光视觉传感器的快速标定方法 | |
CN105346706B (zh) | 飞行装置、飞行控制系统及方法 | |
CN103714535B (zh) | 双目视觉测量系统中摄像机参数在线调整方法 | |
CN102697508B (zh) | 采用单目视觉的三维重建来进行步态识别的方法 | |
CN104574393B (zh) | 一种三维路面裂缝图像生成系统和方法 | |
CN101443817B (zh) | 用于确定场景的三维重建时的对应关系的方法和装置 | |
CN108801135B (zh) | 核燃料棒位姿自动识别装置 | |
CN108986070B (zh) | 一种基于高速视频测量的岩石裂缝扩展实验监测方法 | |
CN103093191A (zh) | 一种三维点云数据结合数字影像数据的物体识别方法 | |
CN107560592B (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN101398886A (zh) | 一种基于双目被动立体视觉的快速三维人脸识别方法 | |
CN106407875A (zh) | 目标特征提取方法及装置 | |
CN112419429B (zh) | 一种基于多视角的大型工件表面缺陷检测标定方法 | |
CN106996748A (zh) | 一种基于双目视觉的轮径测量方法 | |
CN110044374A (zh) | 一种基于图像特征的单目视觉测量里程的方法及里程计 | |
CN111967288A (zh) | 智能三维物体识别和定位系统和方法 | |
CN112067233A (zh) | 一种用于风洞模型六自由度运动捕获方法 | |
CN113744337A (zh) | 一种融合视觉、imu与声纳的同步定位与建图方法 | |
CN107610086A (zh) | 一种基于仿生复眼结构的工业并联机器人快速视觉检测算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |