CN114119553A - 一种以十字激光为基准的双目视觉异面圆孔检测方法 - Google Patents
一种以十字激光为基准的双目视觉异面圆孔检测方法 Download PDFInfo
- Publication number
- CN114119553A CN114119553A CN202111427385.6A CN202111427385A CN114119553A CN 114119553 A CN114119553 A CN 114119553A CN 202111427385 A CN202111427385 A CN 202111427385A CN 114119553 A CN114119553 A CN 114119553A
- Authority
- CN
- China
- Prior art keywords
- point
- hole
- plane
- points
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000005259 measurement Methods 0.000 claims abstract description 15
- 238000013178 mathematical model Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 56
- 239000011159 matrix material Substances 0.000 claims description 48
- 230000009466 transformation Effects 0.000 claims description 41
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 13
- 238000005457 optimization Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 13
- 238000001914 filtration Methods 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000003708 edge detection Methods 0.000 claims description 10
- 238000013135 deep learning Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000000137 annealing Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 6
- XOFYZVNMUHMLCC-ZPOLXVRWSA-N prednisone Chemical compound O=C1C=C[C@]2(C)[C@H]3C(=O)C[C@](C)([C@@](CC4)(O)C(=O)CO)[C@@H]4[C@@H]3CCC2=C1 XOFYZVNMUHMLCC-ZPOLXVRWSA-N 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 230000002159 abnormal effect Effects 0.000 claims description 4
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 238000002922 simulated annealing Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 230000002146 bilateral effect Effects 0.000 claims description 3
- 230000010355 oscillation Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000008439 repair process Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000011179 visual inspection Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- UDHXJZHVNHGCEC-UHFFFAOYSA-N Chlorophacinone Chemical compound C1=CC(Cl)=CC=C1C(C=1C=CC=CC=1)C(=O)C1C(=O)C2=CC=CC=C2C1=O UDHXJZHVNHGCEC-UHFFFAOYSA-N 0.000 claims 1
- 238000013459 approach Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005553 drilling Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000001808 coupling effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种以十字激光为基准的双目视觉异面圆孔检测方法,属于测量技术领域。采集图像,提取异面孔的边缘轮廓,建立边缘轮廓点的匹配点对,得到边缘轮廓点的三维点云数据,获取的外轮廓尺寸,构建异面孔的数学模型,计算异面孔的孔位垂直精度和锪窝深度。本发明优点是能够有效地降低图像的透视投影误差,提高边缘轮廓点的匹配精度,适用于非接触式工业检测和基于视觉的圆孔精密检测。
Description
技术领域
本发明属于先进测量技术领域,尤其涉及一种以十字激光为基准的双目视觉异面圆孔检测方法,适用于非接触式工业检测和基于视觉的圆孔精密检测。
背景技术
目前,异面孔的检测方式仍采用传统的接触式检测,这种检测方式虽然精度较高,但操作流程复杂,检测效率低难以满足批量化检测的需求,同时检测过程中可能会划伤工件表面降低沉头孔的疲劳寿命,研究非接触式异面孔检测法对填补该领域的技术空白具有重大战略意义。
“基于点云的锪孔成孔质量检测系统研究与实现”[安轶伦,[D].武汉理工大学,2019],该方法通过手持式三维扫描仪获取异面孔的点云数据,但是当锪窝曲面存在加工造成的碎屑或划痕时,结构光可能会发生严重的光学干扰现象。
“基于视觉测量的沉头孔垂直度检测方法”[毕运波,徐超,樊新田,严伟苗.[J].浙江大学学报(工学版),2017,51(02):312-318.],该方法采用单目视觉结合远心镜头的方式检测沉头孔质量,然而沉头孔的内外轮廓在深度方向上不共面,仅依靠成像平面内的二维信息会产生透视投影误差,测量结果与真实值将发生比例变化。当沉头孔的轴向与工件表面存在角度偏差,误差将进一步影响最后的检测结果。
立体匹配可以分为基于特征信息的匹配以及基于区域灰度值的匹配。然而在获取的异面孔图像中,同种材质的异面孔与背景具有相似的像数值并且光滑的圆轮廓导致无法提取角点、拐点等有效的特征信息用于匹配,倘若直接对其使用立体匹配算法,图像中背景区域作为无纹理区域会在视差图中会以块状的形式聚集产生严重的误匹配现象。因此针对上述匹配难的问题,本发明提出十字激光条纹与边缘的交点作为特征定位点并将异面孔的轮廓边缘点作为待匹配点进行立体匹配。
基于双目视觉的异面圆孔检测方法,其关键技术在于图像中圆边界的准确提取、边界点的精准匹配以及圆孔几何参数的正确拟合。“基于改进Zernike矩的亚像素钻铆圆孔检测方法”[陈璐,关立文.[J].清华大学学报(自然科学版),2019,59(0版:438-444).]通过建立亚像素正交矩的方式提高边界提取精度;“立体视觉空间圆检测及其在曲轴红套中的应用实验研究”[徐博.[D].上海交通大学,2008.]通过Levenberg—Marquardt构建非线性最优接的方式拟合点云数据提取圆孔参数。但在立体匹配阶段均仅采用极线约束和一致性原则建立边界匹配点对约束关系,在实际测量中很难获得较好的立体匹配结果。
发明内容
本发明提供一种以十字激光为基准的双目视觉异面圆孔检测方法,以解决目前存在的因透视投影误差影响检测结果准确的问题,能够有效地降低图像的透视投影误差,提高边缘轮廓点的匹配精度。
本发明采取的技术方案是,包括下列步骤:
(1)、通过视觉检测系统中的双目相机获取工件异面孔图像,
(2)、对于采集到的图像,通过图像预处理以及边缘检测提取异面孔的边缘轮廓;
(3)、完成边缘轮廓提取后,通过透视变换和深度学习优化的立体匹配算法建立边缘轮廓点的匹配点对;
(4)、根据双目视觉的三角测量法得到边缘轮廓点的三维点云数据,拟合点云所在的平面可以得到异面孔外轮廓的尺寸信息;
(5)通过已知的内孔孔径和锪窝角信息结合之前获取的外轮廓尺寸,构建异面孔的数学模型;
(6)根据模型内的几何约束关系计算异面孔的孔位垂直精度和锪窝深度。
本发明所述视觉检测系统包括工业相机,高清微距镜头,转盘,滑动块,底板,定位块,连接板和激光发射器,其中滑动块在底板的长槽中调整好位置后螺栓连接,转盘通过弧形槽与滑动块调整好角度后螺栓连接,工业相机与转盘固定连接,工业相机下方连接高清微距镜头,定位块与底板固定连接,激光发射器与定位块下方的底板固定连接,底板与后边的连接板固定连接。
本发明所述视觉检测系统中,相机的基线距可调节范围为60~240mm,双目相机倾斜角度的调节范围为0°~20°,定位块作为基线测量和角度调节的定位基准,激光发射器的十字激光条纹作为孔位定位标记,使被测孔清晰成像在图像中央。
本发明所述步骤(2)边缘检测包括:采用的3x3卷积核大小的双边滤波器在消除图像中孤立噪点的同时还能有效保留边缘信息,再通过阈值处理筛选出图像中的高亮度区域,并利用FMM算法修复图像中的高亮度区域,最后,利用直方图均衡化增强图像中沉头孔区域与其他区域的明暗对比程度,以及Canny边缘检测算法提取异面孔内外轮廓。
本发明所述步骤(3)具体方法包括:Psample和Esample分别为样本数据和样本标签用于训练SA-MLP网络模型,对参考平面内的边界点Ptarget经过透视变换后得到的投影点Ptransfrom进行判断,若满足误差要求则直接用于立体匹配,反之将待修正的投影点Preferct输入训练好的SA-MLP网络模型中,得到定位误差的预测值最后将补偿修正后的投影点坐标Pmodifie用于立体匹配,其中:
a)在透视变换过程中,通过十字激光与圆孔边缘轮廓得到的特征点构建左右两幅图像的空间变换关系,可将一个平面内的特征点透视投影到另一个新平面中,其数学模型可以表示为如下矩阵方程:
式中s为比例因子,(up,vp)是参考图像上特征点的坐标,(ut,vt)为投影图像上对应的像素坐标,h1~h8为单应矩阵H的8个变换系数,针对透视变换环节得到的单组特征点仅包含局部区域映射关系不能有效覆盖偏离权重的变形区域的问题,通过旋转激光条纹的角度并尽可能覆盖整个圆孔区域的方式,得到多组特征点对Si,再根据Ransac算法对特征点对提纯并估算最佳单应矩阵H*,特征点集合{Si}经过透视变换得到的投影点集合为{Qi(xi,yi)},则投影点集合的中心点坐标的表达式为:
以所有投影点到中心点qi的几何距离均值来表示投影点的分布发散程度,计算公式为:
其中,△R数值越大,则投影点分布越发散表示变换矩阵涵盖的区域映射关系越全面,因此模型的总体评估函数△E为:
式中,(ui,vi)为原投影平面的特征点坐标,(xi',yi')为生成的投影点坐标,λ为权重因子,△S和△R分别用于衡量投影误差及投影分布,因此基于Ransac算法的最佳单应矩阵计算流程如下:
1)从特征点组集合{Si}中随机抽取4组不共线的样本,计算出变换矩阵H;
2)利用变换矩阵H对所有集合{Si}内的点进行透视变换得到投影点集合{Qi},计算当前模型的△E,若△E小于阈值,则记录该变换矩阵的内点集{Ni};
3)判断内点集{Ni}的点数是否为最大内点集数,若达到最大内点集数,则记录最佳内点集{Ni}以及最优单应矩阵H*,结束循环,反之,则进入步骤4);
4)判断当前迭代次数是否达到最大迭代次数,若没有则重复步骤1),反之则输出整个迭代过程中的最佳内点集{Ni}以及最优单应矩阵H*,运行结束;
b)在深度学习优化环节,首先需要筛选出脱离映射关系的投影点,根据实验需求,取几何距离均值△R作为衡量标准,若投影点到中心点qi的距离di不满足|di-△R|<τ,即为待修正的投影点Tp(xp,yp),因此设定网络模型的输入、输出均为两个节点,即为补偿前的投影点Tp(xp,yp)和误差补偿值△E{△x,△y},其中,i,j,k分别对应输入层、隐含层、输出层的节点个数,Wij为输入层到隐含层的权值矩阵,Wjk为隐含层到输出层的权值矩阵,bj,bk为对应的偏置参数,经过前向计算后,网络输入输出间的关系为:
式中,σ(x)为sigmoid激活函数将输出值限制在(0,1)区间,能够加速网络的收敛,对于损失函数的选择,为减小损失值在局部极小的“波谷”区域震荡采用熵误差函数,其函数表达式为:
在网络模型的反向传播优化权值的过程中,采用基于模拟退火的优化算法,通过添加扰动的方式使全局函数在搜索过程中生成新的状态,并以Metropolis准则作为判断依据让函数一定概率接受比当前解更差的解,从而跳出局部最优解区域,最后逐步降低温度使函数收敛至全局最优解,Metropolis准则的表达式为:
式中,P为接受概率,E(n)为更新前的状态,E(n+1)为更新后的状态,Tn+1=εnT0为当前的退火温度由初始温度T0随着迭代轮次衰减得到,同时生成一个随机数μ~U[0,1],当P>μ时模型接受新的状态,反之保留当前状态,同时选择损失函数L(W)作为模型的评价函数、梯度下降法作为新权值的生成函数,设置网络参数α,T0,Tmin,δ,Epoch分别对应网络学习率、初始温度、终止温度、最小增量以及迭代轮次,并且在迭代轮次、退火温度、函数增量中任意一个达到阈值后输出最优解并结束循环。
本发明所述步骤(4)中包括:
1)三维重建阶段
在完成边缘轮廓点的精准匹配之后,根据双目视觉的检测算法需要将二维的像素点生成三维空间点,根据双目立体视觉成像的数学模型,为了简化计算选择左相机坐标系作为世界坐标系,fl,fr,为相机对应的有效焦距,Cx,Cy为图像中心点,K为相机的内参矩阵,R,T为两相机坐标系之间的旋转、平移矩阵,则通过左、右两幅图像上的对应点(u1,v1),(u2,v2)可以建立求解空间点P(x,y,z)的方程组:
则空间点P的三维坐标可以表示为:
其中,u′1=u1-Cx,v′1=v1-Cy,u'2=u2-Cx,v'2=v2-Cy相机的内参矩阵和外参矩阵可以通过双目相机标定获得;
2)点云滤波阶段:
生成的点云数据受到测量误差的干扰存在与边缘轮廓较远的离群点,需要进行点云滤波处理,为此采用抗差估计算法处理,首先将平面方程展开成如下表达式:
抗差估计的目的是以残差为变量,使损失函数达到最小值:
通常取空间点到平面的距离di作为判断离群点的依据,选取Tukey’s Biweight函数作为权函数:
式中:c为权函数的尺度因子,为了确保损失函数收敛趋向于全局最优解,在尺度因子设的足够高的情况下启动迭代算法,然后逐步减小尺度因子,使越来越多的异常点得到抑制,当减小c不能更好地逼近平面时,停止迭代算法并输出最优解,最后通过选权迭代法,利用第k步的迭代残差确定第k+1步的等价权Wk,进而求出第k+1步的迭代解:
ψk+1=(XTWkX)-1XTWkY (18)
整体算法流程如下:
(a)设置衰减因子ε,阈值τ,尺度因子ck=εkc0,其中k为迭代次数,导入样本数据集C={C1,C2...Cm};
(b)随机选取三个点拟合出平面模型Lk,计算所有样本点到平面Lk的距离di,过滤|di|>ck的离群点;
(c)计算每一个点对应的等价权值W(di),进而求解出当前的迭代解ψk;
(d)判断损失函数E(ψk)是否小于E(ψk-1),若满足要求则最优迭代解ψ*=ψk,更新当前的样本数据集C*,进入步骤e),反之,则重复步骤b);
(e)判断E(ψk)-E(ψk-1)是否小于ε或者ck是否小于τ,满足两者任意条件结束循环并输出最优迭代解ψ*以及最佳样本数据集C*,反之,则重复步骤b)。
本发明所述步骤(5)构建异面孔的数学模型包括:
a)总体分析:对内外轮廓进行同样的点云滤波和平面拟合处理,确定内孔圆的半径r、圆心坐标O(x0,y0,z0)、外孔椭圆的半长短轴a,b,圆心坐标O1(x1,y1,z1)以及两点云所处平面的法向量对于异面孔的检测指标包括孔径尺寸、法向偏差角以及锪窝深度,其中,孔径尺寸可以通过空间曲线拟合获取,法向偏差角为平面L的法向量与平面∏的法向量所构成的夹角,而锪窝深度的计算还需要确定所在圆锥的顶点Me,开口角θ,以及圆锥轴线axis,为此构建异面孔模型,进行数学建模分析;
b)具体实施:首先确定圆锥的顶点Me,并计算开口角θ,在内圆曲线上任取一点P1,作一个法向量垂直于和且过线段OP1的平面Γ,平面Γ交内圆曲线于P1,P2,交外椭圆曲线于N1,N2,连接N1P1,N2P2,由于空间直线N1P1,N2P2均为平面Γ上的共面直线,因此必然有公共交点即为圆锥的顶点Me,最后在△OMeP1中求得圆锥的开口角θ,重复迭代多次上述步骤并将所有得到的结果取平均值。
本发明所述(6)计算异面孔的孔位垂直精度和锪窝深度如下:
本发明的优点是:
1)在边缘检测阶段,针对检测到的高亮像素点利用周边像素进行代替,层层向内推进直至修复完所有的像素点,如图5a)所示,飞机蒙皮为金属材质,在实际加工过程反光现象不可避免,导致图像的纹理结构和边缘信息受到严重破坏,修复后实际效果如图5b)所示,有效克服了结构光在金属材质表面易发生反射和衍射现象。
2)在立体匹配阶段,受到相机高度和夹角的影响,得到的钻铆圆孔图像存在透视投影畸变,传统匹配算法采用的极线约束和一致性原则没有建立边界点对精确的映射关系,从而影响了后续空间圆几何参数测量。为此,本发明采用的结合透视变换和深度学习优化的立体匹配法,利用两幅待配准的图像中存在相对应的重叠区域Il和Ir,以十字激光与圆孔边缘轮廓的交点作为透视变换的特征点对,初步建立出边界点间的映射关系。针对双目相机内外参的耦合作用以及非线性误差的影响导致的并非所有的投影点位于边界轮廓上的问题,利用多层感知器模型(MLP)具有极强的非线性泛化能力,通过构建合适的输入、输出数据间的关系式,有效地解决了相机成像产生的非线性因素问题,从而精确获取边界匹配点对的映射关系。
3)传统的网络模型优化算法建立在梯度下降法之上,普遍存在着收敛速度慢、易陷入局部最小值等缺点。本发明采用基于模拟退火法的多层感知器模型(SA-MLP),通过添加扰动的方式使全局函数在搜索过程中生成新的状态,并以Metropolis准则作为判断依据让函数一定概率接受比当前解更差的解,从而跳出局部最优解区域,最后逐步降低温度使函数收敛至全局最优解,具有较大的应用价值。
附图说明
图1是基于双目视觉的异面孔检测方法的系统示意图;
图2是视觉检测系统的爆炸图;
图3是偏斜式双目相机布局示意图;
图4a)是双目相机公共视野的小孔成像示意图;
图4b)是双目相机公共视野的相机视场区域示意图;
图5是异面孔预处理图像,图中a)沉头孔原始灰度图像,b)抑制反光区域后的图像,c)亚像素边缘提取图像;
图6是基于透视变换和SA-MLP网络的立体匹配流程图;
图7是透视变换原理示意图;
图8是基于透视变换和深度学习优化的匹配效果图;
图9是基于透视变换和SA-MLP网络的立体匹配流程图;
图10是双目立体视觉成像模型图;
图11是点云滤波算法过滤效果对比图,图中a)原始点云数据图,b)滤波后的点云数据图;
图12是点云拟合算法效果图;
图13是异面孔模型的示意图;
图14是异面孔模型截面图。
具体实施方式
包括下列步骤:
(1)、通过连接板7与工业机器人连接,工业机器人带动双目相机移动至检测孔上方,通过视觉检测系统中的双目相机获取工件异面孔图像;
所述视觉检测系统包括工业相机1,高清微距镜头2,转盘3,滑动块4,底板5,定位块6,连接板7和激光发射器8,其中滑动块4在底板5的长槽中调整好位置后螺栓连接,转盘3通过弧形槽与滑动块4调整好角度后螺栓连接,工业相机1与转盘3固定连接,工业相机1下方连接高清微距镜头2,定位块6与底板5固定连接,激光发射器8与定位块6下方的底板5固定连接,底板5与后边的连接板7固定连接;
所述视觉检测系统中,相机的基线距可调节范围为60~240mm,双目相机1倾斜角度的调节范围为0°~20°,定位块6作为基线测量和角度调节的定位基准,激光发射器8的十字激光条纹作为孔位定位标记,使被测孔清晰成像在图像中央;
本实施例考虑相机的公共视野大小,如图3所示双目像采用偏斜式放置,为此需要确定两相机间基线距离B和相机倾斜角α;
由于选用的相机焦距f=55mm,物距z=276mm,景深t=17.6mm,相机芯片尺寸为7.2×5.4mm(记为w0×h0),则单个相机视场在平面上的投影尺寸为:
其中,水平视场角β和线段E1C1的长度l的表达式为:
在确定了l和β具体数值后,如图4a)所示,根据相机的成像原理可以得到水平公共视野D2E1的长度m和水平公共视野N1N2的长度n关于倾斜角α和基线距B的表达式:
在确立垂直公共视野的最大变化范围后,如图4b)所示可以得到偏斜式双目视场区域的最大重叠面积S:
由于本实施例中被测孔的孔径在18mm左右,并要求相机的公共视野占据原视野的70%以上,综合得到对倾斜角α和基线距B的约束方程:
代入数据后计算得到相机光轴夹角α的取值范围[71.25,82.85],基线距B的取值范围[117.48,211.71],结合相机的理论误差要求,最终选择相机的光心距离为130mm,相机于光轴夹角为80°,此时镜头距工作台表面的高度为275.10mm,相机的公共视野为32.2x26.5mm占相机视野的83.3%,并且相机的理论精度达到了0.013mm。
在完成相机夹具的设计安装之后,利用手眼标定和十字激光找正技术定位被测孔位并采集清晰的图像;
(2)、对于采集到的图像,通过图像预处理以及边缘检测提取异面孔的边缘轮廓;
首先采用的3x3卷积核大小的双边滤波器在消除图像中孤立噪点的同时还能有效保留边缘信息。再通过阈值处理筛选出图像中的高亮度区域,并利用FMM算法修复图像中的高亮度区域,最后,利用直方图均衡化增强图像中沉头孔区域与其他区域的明暗对比程度,以及Canny边缘检测算法提取异面孔内外轮廓,处理结果如图5c)所示;
(3)、完成边缘轮廓提取后,通过透视变换和深度学习优化的立体匹配算法建立边缘轮廓点的匹配点对;
在完成边缘检测之后,根据双目视觉的检测算法需要通过立体匹配确定两幅图像中对应的边缘轮廓点对,采用基于透视变换和深度学习优化的立体匹配法,该方法流程如图6所示,其中,Psample和Esample分别为样本数据和样本标签用于训练SA-MLP网络模型。对参考平面内的边界点Ptarget经过透视变换后得到的投影点Ptransfrom进行判断,若满足误差要求则直接用于立体匹配,反之将待修正的投影点Preferct输入训练好的SA-MLP网络模型中,得到定位误差的预测值最后将补偿修正后的投影点坐标Pmodifie用于立体匹配,从以下两个方面介绍具体实施细节:
a)在透视变换过程中,通过十字激光与圆孔边缘轮廓得到的特征点构建左右两幅图像的空间变换关系。如图7为透视变换的原理示意图,可将一个平面内的特征点透视投影到另一个新平面中,其数学模型可以表示为如下矩阵方程:
式中s为比例因子,(up,vp)是参考图像上特征点的坐标,(ut,vt)为投影图像上对应的像素坐标,h1~h8为单应矩阵H的8个变换系数。针对透视变换环节得到的单组特征点仅包含局部区域映射关系不能有效覆盖偏离权重的变形区域的问题,在实际操作中通过旋转激光条纹的角度并尽可能覆盖整个圆孔区域的方式,得到多组特征点对Si。再根据Ransac算法对特征点对提纯并估算最佳单应矩阵H*。假设特征点集合{Si}经过透视变换得到的投影点集合为{Qi(xi,yi)},则投影点集合的中心点坐标的表达式为:
这里以所有投影点到中心点qi的几何距离均值来表示投影点的分布发散程度,计算公式为:
其中,△R数值越大,则投影点分布越发散表示变换矩阵涵盖的区域映射关系越全面,因此模型的总体评估函数△E为:
式中,(ui,vi)为原投影平面的特征点坐标,(xi',yi')为生成的投影点坐标,λ为权重因子,△S和△R分别用于衡量投影误差及投影分布。因此基于Ransac算法的最佳单应矩阵计算流程如下:
1)从特征点组集合{Si}中随机抽取4组不共线的样本,计算出变换矩阵H;
2)利用变换矩阵H对所有集合{Si}内的点进行透视变换得到投影点集合{Qi},计算当前模型的△E,若△E小于阈值,则记录该变换矩阵的内点集{Ni};
3)判断内点集{Ni}的点数是否为最大内点集数,若达到最大内点集数,则记录最佳内点集{Ni}以及最优单应矩阵H*,结束循环。反之,则进入步骤4);
4)判断当前迭代次数是否达到最大迭代次数,若没有则重复步骤1),反之则输出整个迭代过程中的最佳内点集{Ni}以及最优单应矩阵H*,运行结束。最后经过透视变换以及Ransack算法处理后,边界点对间的映射效果如图8所示;
b)在深度学习优化环节,首先需要筛选出脱离映射关系的投影点。根据实验需求,取几何距离均值△R作为衡量标准,若投影点到中心点qi的距离di不满足|di-△R|<τ,即为待修正的投影点Tp(xp,yp),因此设定网络模型的输入、输出均为两个节点,即为补偿前的投影点Tp(xp,yp)和误差补偿值△E{△x,△y},其中,i,j,k分别对应输入层、隐含层、输出层的节点个数,Wij为输入层到隐含层的权值矩阵,Wjk为隐含层到输出层的权值矩阵,bj,bk为对应的偏置参数。经过前向计算后,网络输入输出间的关系为:
式中,σ(x)为sigmoid激活函数将输出值限制在(0,1)区间,能够加速网络的收敛。对于损失函数的选择,为减小损失值在局部极小的“波谷”区域震荡采用熵误差函数,其函数表达式为:
在网络模型的反向传播优化权值的过程中,采用基于模拟退火的优化算法。通过添加扰动的方式使全局函数在搜索过程中生成新的状态,并以Metropolis准则作为判断依据让函数一定概率接受比当前解更差的解,从而跳出局部最优解区域,最后逐步降低温度使函数收敛至全局最优解。Metropolis准则的表达式为:
式中,P为接受概率,E(n)为更新前的状态,E(n+1)为更新后的状态,Tn+1=εnT0为当前的退火温度由初始温度T0随着迭代轮次衰减得到,同时生成一个随机数μ~U[0,1],当P>μ时模型接受新的状态,反之保留当前状态,同时选择损失函数L(W)作为模型的评价函数、梯度下降法作为新权值的生成函数,设置网络参数α,T0,Tmin,δ,Epoch分别对应网络学习率、初始温度、终止温度、最小增量以及迭代轮次,并且在迭代轮次、退火温度、函数增量中任意一个达到阈值后输出最优解并结束循环。算法的具体流程如图9所示。
(4)、根据双目视觉的三角测量法得到边缘轮廓点的三维点云数据,拟合点云所在的平面可以得到异面孔外轮廓的尺寸信息;
1)三维重建阶段:
在完成边缘轮廓点的精准匹配之后,根据双目视觉的检测算法需要将二维的像素点生成三维空间点,如图10所示为双目立体视觉的数学模型,为了简化计算选择左相机坐标系作为世界坐标系,假设fl,fr,为相机对应的有效焦距,Cx,Cy为图像中心点,K为相机的内参矩阵,R,T为两相机坐标系之间的旋转、平移矩阵,则通过左右两幅图像上的对应点(u1,v1),(u2,v2)可以建立求解空间点P(x,y,z)的方程组:
则空间点P的三维坐标可以表示为:
其中,u1'=u1-Cx,v1'=v1-Cy,u'2=u2-Cx,v'2=v2-Cy相机的内参矩阵和外参矩阵可以通过双目相机标定获得。
2)点云滤波阶段:
如图11a)所示为生成的点云数据,受到测量误差的干扰存在与边缘轮廓较远的离群点,需要进行点云滤波处理,为此采用抗差估计算法处理。首先将平面方程展开成如下表达式:
抗差估计的目的是以残差为变量,使损失函数达到最小值:
通常取空间点到平面的距离di作为判断离群点的依据,本方法选取Tukey’sBiweight函数作为权函数:
式中:c为权函数的尺度因子,为了确保损失函数收敛趋向于全局最优解,在尺度因子设的足够高的情况下启动迭代算法,然后逐步减小尺度因子,使越来越多的异常点得到抑制。当减小c不能更好地逼近平面时,停止迭代算法并输出最优解。最后通过选权迭代法,利用第k步的迭代残差确定第k+1步的等价权Wk,进而求出第k+1步的迭代解:
ψk+1=(XTWkX)-1XTWkY (18)
整体算法流程如下:
1)设置衰减因子ε,阈值τ,尺度因子ck=εkc0,其中k为迭代次数,导入样本数据集C={C1,C2...Cm};
2)随机选取三个点拟合出平面模型Lk,计算所有样本点到平面Lk的距离di,过滤|di|>ck的离群点;
3)计算每一个点对应的等价权值W(di),进而求解出当前的迭代解ψk
4)判断损失函数E(ψk)是否小于E(ψk-1),若满足要求则最优迭代解ψ*=ψk,更新当前的样本数据集C*,进入步骤5)。反之,则重复步骤2);
5)判断E(ψk)-E(ψk-1)是否小于ε或者ck是否小于τ,满足两者任意条件结束循环并输出最优迭代解ψ*以及最佳样本数据集C*,反之,则重复步骤2)。
最终经过点云滤波处理都得到的效果如图11b)所示。
(5)通过已知的内孔孔径和锪窝角信息结合之前获取的外轮廓尺寸,构建异面孔的数学模型;
1)数学建模阶段:
a)总体分析:对内外轮廓进行同样的点云滤波和平面拟合处理,得到的拟合结果如图12所示,为此,可以确定内孔圆的半径r、圆心坐标O(x0,y0,z0)外孔椭圆的半长短轴a,b、圆心坐标O1(x1,y1,z1)以及两点云所处平面的法向量对于异面孔的检测指标主要包括孔径尺寸、法向偏差角以及锪窝深度。其中,孔径尺寸可以通过空间曲线拟合获取,法向偏差角为平面L的法向量与平面∏的法向量所构成的夹角,而锪窝深度的计算还需要确定所在圆锥的顶点Me,开口角θ,以及圆锥轴线axis,为此构建如图13所示的异面孔模型,进行数学建模分析;
b)具体实施:首先确定圆锥的顶点Me,并计算开口角θ。在内圆曲线上任取一点P1,作一个法向量垂直于和且过线段OP1的平面Γ,平面Γ交内圆曲线于P1,P2,交外椭圆曲线于N1,N2。连接N1P1,N2P2,由于空间直线N1P1,N2P2均为平面Γ上的共面直线,因此必然有公共交点即为圆锥的顶点Me,最后在△OMeP1中求得圆锥的开口角θ,重复迭代多次上述步骤并将所有得到的结果取平均值。
(6)根据模型内的几何约束关系计算异面孔的孔位垂直精度和锪窝深度;
在确定了内圆半径r、外孔半轴a、内孔圆心O到顶点Me的距离圆锥开口角θ以及法向偏差角后,如图14所示取异面孔模型截面图分析,可以得到锪窝深度的表达式。因此综合得到圆锥开口角θ以及法向偏差角以及锪窝深度h的表达示为:
本实施例中人工测量异面孔的内外孔径、锪窝角、法向偏差角以及锪窝深度与本发明方法估计的数据对比如下:
表1.沉头孔参数测量结果数据对比
从上述结果中可以看出,锪窝深度作为间接测量的数据受到其他误差的累计,其均值误差更高于其他数据的误差。尽管如此,经过多次实验系统测量的锪窝深度误差最大仅为0.068mm与深度测量表的结果基本保持一致。由此说明,本发明提出的一种双目视觉与十字激光相结合的异面圆孔检测方法可以达到较高的精度,为实现异面圆孔自动化检测提供支持。
Claims (8)
1.一种以十字激光为基准的双目视觉异面圆孔检测方法,其特征在于,包括下列步骤:
(1)、通过视觉检测系统中的双目相机获取工件异面孔图像,
(2)、对于采集到的图像,通过图像预处理以及边缘检测提取异面孔的边缘轮廓;
(3)、完成边缘轮廓提取后,通过透视变换和深度学习优化的立体匹配算法建立边缘轮廓点的匹配点对;
(4)、根据双目视觉的三角测量法得到边缘轮廓点的三维点云数据,拟合点云所在的平面可以得到异面孔外轮廓的尺寸信息;
(5)通过已知的内孔孔径和锪窝角信息结合之前获取的外轮廓尺寸,构建异面孔的数学模型;
(6)根据模型内的几何约束关系计算异面孔的孔位垂直精度和锪窝深度。
2.根据权利要求1所述一种以十字激光为基准的双目视觉异面圆孔检测方法,其特征在于:步骤(1)所述视觉检测系统包括工业相机,高清微距镜头,转盘,滑动块,底板,定位块,连接板和激光发射器,其中滑动块在底板的长槽中调整好位置后螺栓连接,转盘通过弧形槽与滑动块调整好角度后螺栓连接,工业相机与转盘固定连接,工业相机下方连接高清微距镜头,定位块与底板固定连接,激光发射器与定位块下方的底板固定连接,底板与后边的连接板固定连接。
3.根据权利要求2所述一种以十字激光为基准的双目视觉异面圆孔检测方法,其特征在于:所述视觉检测系统中,相机的基线距可调节范围为60~240mm,双目相机倾斜角度的调节范围为0°~20°,定位块作为基线测量和角度调节的定位基准,激光发射器的十字激光条纹作为孔位定位标记,使被测孔清晰成像在图像中央。
4.根据权利要求1所述一种以十字激光为基准的双目视觉异面圆孔检测方法,其特征在于:所述步骤(2)边缘检测包括:采用的3x3卷积核大小的双边滤波器在消除图像中孤立噪点的同时还能有效保留边缘信息,再通过阈值处理筛选出图像中的高亮度区域,并利用FMM算法修复图像中的高亮度区域,最后,利用直方图均衡化增强图像中沉头孔区域与其他区域的明暗对比程度,以及Canny边缘检测算法提取异面孔内外轮廓。
5.根据权利要求1所述一种以十字激光为基准的双目视觉异面圆孔检测方法,其特征在于:所述步骤(3)具体方法包括:Psample和Esample分别为样本数据和样本标签用于训练SA-MLP网络模型,对参考平面内的边界点Ptarget经过透视变换后得到的投影点Ptransfrom进行判断,若满足误差要求则直接用于立体匹配,反之将待修正的投影点Preferct输入训练好的SA-MLP网络模型中,得到定位误差的预测值最后将补偿修正后的投影点坐标Pmodifie用于立体匹配,其中:
a)在透视变换过程中,通过十字激光与圆孔边缘轮廓得到的特征点构建左右两幅图像的空间变换关系,可将一个平面内的特征点透视投影到另一个新平面中,其数学模型可以表示为如下矩阵方程:
式中s为比例因子,(up,vp)是参考图像上特征点的坐标,(ut,vt)为投影图像上对应的像素坐标,h1~h8为单应矩阵H的8个变换系数,针对透视变换环节得到的单组特征点仅包含局部区域映射关系不能有效覆盖偏离权重的变形区域的问题,通过旋转激光条纹的角度并尽可能覆盖整个圆孔区域的方式,得到多组特征点对Si,再根据Ransac算法对特征点对提纯并估算最佳单应矩阵H*,特征点集合{Si}经过透视变换得到的投影点集合为{Qi(xi,yi)},则投影点集合的中心点坐标的表达式为:
以所有投影点到中心点qi的几何距离均值来表示投影点的分布发散程度,计算公式为:
其中,△R数值越大,则投影点分布越发散表示变换矩阵涵盖的区域映射关系越全面,因此模型的总体评估函数△E为:
式中,(ui,vi)为原投影平面的特征点坐标,(x′i,y′i)为生成的投影点坐标,λ为权重因子,△S和△R分别用于衡量投影误差及投影分布,因此基于Ransac算法的最佳单应矩阵计算流程如下:
1)从特征点组集合{Si}中随机抽取4组不共线的样本,计算出变换矩阵H;
2)利用变换矩阵H对所有集合{Si}内的点进行透视变换得到投影点集合{Qi},计算当前模型的△E,若△E小于阈值,则记录该变换矩阵的内点集{Ni};
3)判断内点集{Ni}的点数是否为最大内点集数,若达到最大内点集数,则记录最佳内点集{Ni}以及最优单应矩阵H*,结束循环,反之,则进入步骤4);
4)判断当前迭代次数是否达到最大迭代次数,若没有则重复步骤1),反之则输出整个迭代过程中的最佳内点集{Ni}以及最优单应矩阵H*,运行结束;
b)在深度学习优化环节,首先需要筛选出脱离映射关系的投影点,根据实验需求,取几何距离均值△R作为衡量标准,若投影点到中心点qi的距离di不满足|di-△R|<τ,即为待修正的投影点Tp(xp,yp),因此设定网络模型的输入、输出均为两个节点,即为补偿前的投影点Tp(xp,yp)和误差补偿值△E{△x,△y},其中,i,j,k分别对应输入层、隐含层、输出层的节点个数,Wij为输入层到隐含层的权值矩阵,Wjk为隐含层到输出层的权值矩阵,bj,bk为对应的偏置参数,经过前向计算后,网络输入输出间的关系为:
式中,σ(x)为sigmoid激活函数将输出值限制在(0,1)区间,能够加速网络的收敛,对于损失函数的选择,为减小损失值在局部极小的“波谷”区域震荡采用熵误差函数,其函数表达式为:
在网络模型的反向传播优化权值的过程中,采用基于模拟退火的优化算法,通过添加扰动的方式使全局函数在搜索过程中生成新的状态,并以Metropolis准则作为判断依据让函数一定概率接受比当前解更差的解,从而跳出局部最优解区域,最后逐步降低温度使函数收敛至全局最优解,Metropolis准则的表达式为:
式中,P为接受概率,E(n)为更新前的状态,E(n+1)为更新后的状态,Tn+1=εnT0为当前的退火温度由初始温度T0随着迭代轮次衰减得到,同时生成一个随机数μ~U[0,1],当P>μ时模型接受新的状态,反之保留当前状态,同时选择损失函数L(W)作为模型的评价函数、梯度下降法作为新权值的生成函数,设置网络参数α,T0,Tmin,δ,Epoch分别对应网络学习率、初始温度、终止温度、最小增量以及迭代轮次,并且在迭代轮次、退火温度、函数增量中任意一个达到阈值后输出最优解并结束循环。
6.根据权利要求1所述一种以十字激光为基准的双目视觉异面圆孔检测方法,其特征在于:所述步骤(4)中包括:
1)三维重建阶段
在完成边缘轮廓点的精准匹配之后,根据双目视觉的检测算法需要将二维的像素点生成三维空间点,根据双目立体视觉成像的数学模型,为了简化计算选择左相机坐标系作为世界坐标系,fl,fr,为相机对应的有效焦距,Cx,Cy为图像中心点,K为相机的内参矩阵,R,T为两相机坐标系之间的旋转、平移矩阵,则通过左、右两幅图像上的对应点(u1,v1),(u2,v2)可以建立求解空间点P(x,y,z)的方程组:
则空间点P的三维坐标可以表示为:
其中,u′1=u1-Cx,v′1=v1-Cy,u′2=u2-Cx,v′2=v2-Cy相机的内参矩阵和外参矩阵可以通过双目相机标定获得;
2)点云滤波阶段:
生成的点云数据受到测量误差的干扰存在与边缘轮廓较远的离群点,需要进行点云滤波处理,为此采用抗差估计算法处理,首先将平面方程展开成如下表达式:
抗差估计的目的是以残差为变量,使损失函数达到最小值:
通常取空间点到平面的距离di作为判断离群点的依据,选取Tukey’s Biweight函数作为权函数:
式中:c为权函数的尺度因子,为了确保损失函数收敛趋向于全局最优解,在尺度因子设的足够高的情况下启动迭代算法,然后逐步减小尺度因子,使越来越多的异常点得到抑制,当减小c不能更好地逼近平面时,停止迭代算法并输出最优解,最后通过选权迭代法,利用第k步的迭代残差确定第k+1步的等价权Wk,进而求出第k+1步的迭代解:
ψk+1=(XTWkX)-1XTWkY (18)
整体算法流程如下:
(a)设置衰减因子ε,阈值τ,尺度因子ck=εkc0,其中k为迭代次数,导入样本数据集C={C1,C2...Cm};
(b)随机选取三个点拟合出平面模型Lk,计算所有样本点到平面Lk的距离di,过滤|di|>ck的离群点;
(c)计算每一个点对应的等价权值W(di),进而求解出当前的迭代解ψk;
(d)判断损失函数E(ψk)是否小于E(ψk-1),若满足要求则最优迭代解ψ*=ψk,更新当前的样本数据集C*,进入步骤e),反之,则重复步骤b);
(e)判断E(ψk)-E(ψk-1)是否小于ε或者ck是否小于τ,满足两者任意条件结束循环并输出最优迭代解ψ*以及最佳样本数据集C*,反之,则重复步骤b)。
7.根据权利要求1所述一种以十字激光为基准的双目视觉异面圆孔检测方法,其特征在于:所述步骤(5)构建异面孔的数学模型包括:
a)总体分析:对内外轮廓进行同样的点云滤波和平面拟合处理,确定内孔圆的半径r、圆心坐标O(x0,y0,z0)、外孔椭圆的半长短轴a,b,圆心坐标O1(x1,y1,z1)以及两点云所处平面的法向量对于异面孔的检测指标包括孔径尺寸、法向偏差角以及锪窝深度,其中,孔径尺寸可以通过空间曲线拟合获取,法向偏差角为平面L的法向量与平面∏的法向量所构成的夹角,而锪窝深度的计算还需要确定所在圆锥的顶点Me,开口角θ,以及圆锥轴线axis,为此构建异面孔模型,进行数学建模分析;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111427385.6A CN114119553B (zh) | 2021-11-28 | 2021-11-28 | 一种以十字激光为基准的双目视觉异面圆孔检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111427385.6A CN114119553B (zh) | 2021-11-28 | 2021-11-28 | 一种以十字激光为基准的双目视觉异面圆孔检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114119553A true CN114119553A (zh) | 2022-03-01 |
CN114119553B CN114119553B (zh) | 2024-05-10 |
Family
ID=80370969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111427385.6A Active CN114119553B (zh) | 2021-11-28 | 2021-11-28 | 一种以十字激光为基准的双目视觉异面圆孔检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114119553B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114742869A (zh) * | 2022-06-15 | 2022-07-12 | 西安交通大学医学院第一附属医院 | 基于图形识别的脑部神经外科配准方法及电子设备 |
CN114862957A (zh) * | 2022-07-08 | 2022-08-05 | 西南交通大学 | 一种基于3d激光雷达的地铁车底定位方法 |
CN115289974A (zh) * | 2022-10-09 | 2022-11-04 | 思看科技(杭州)股份有限公司 | 孔位测量方法、装置、计算机设备和存储介质 |
CN116152167A (zh) * | 2022-12-13 | 2023-05-23 | 珠海视熙科技有限公司 | 滑动检测方法、装置、介质、设备 |
CN116734775A (zh) * | 2023-08-11 | 2023-09-12 | 成都飞机工业(集团)有限责任公司 | 一种非接触式孔垂直度测量方法 |
CN116977403A (zh) * | 2023-09-20 | 2023-10-31 | 山东科技大学 | 一种基于双目视觉的薄膜生产幅宽检测和控制方法 |
CN117197215A (zh) * | 2023-09-14 | 2023-12-08 | 上海智能制造功能平台有限公司 | 基于五目相机系统的多目视觉圆孔特征的鲁棒提取方法 |
CN117442359A (zh) * | 2023-12-22 | 2024-01-26 | 无锡蔚动智能科技有限公司 | 一种基于双臂协同控制的医用无影灯控制系统及方法 |
CN117058218B (zh) * | 2023-07-13 | 2024-06-07 | 湖南工商大学 | 基于图像-深度的盘式造球颗粒粉末填充率在线测量方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109903327A (zh) * | 2019-03-04 | 2019-06-18 | 西安电子科技大学 | 一种稀疏点云的目标物尺寸测量方法 |
WO2020081927A1 (en) * | 2018-10-18 | 2020-04-23 | Cyberoptics Corporation | Three-dimensional sensor with counterposed channels |
CN112729157A (zh) * | 2020-12-25 | 2021-04-30 | 中国电子科技集团公司第三十四研究所 | 基于四步相移与双目立体视觉融合的钣金件测量方法 |
US11099275B1 (en) * | 2020-04-29 | 2021-08-24 | Tsinghua University | LiDAR point cloud reflection intensity complementation method and system |
-
2021
- 2021-11-28 CN CN202111427385.6A patent/CN114119553B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020081927A1 (en) * | 2018-10-18 | 2020-04-23 | Cyberoptics Corporation | Three-dimensional sensor with counterposed channels |
CN109903327A (zh) * | 2019-03-04 | 2019-06-18 | 西安电子科技大学 | 一种稀疏点云的目标物尺寸测量方法 |
US11099275B1 (en) * | 2020-04-29 | 2021-08-24 | Tsinghua University | LiDAR point cloud reflection intensity complementation method and system |
CN112729157A (zh) * | 2020-12-25 | 2021-04-30 | 中国电子科技集团公司第三十四研究所 | 基于四步相移与双目立体视觉融合的钣金件测量方法 |
Non-Patent Citations (3)
Title |
---|
全燕鸣;黎淑梅;麦青群;: "基于双目视觉的工件尺寸在机三维测量", 光学精密工程, no. 04, 15 April 2013 (2013-04-15) * |
唐燕;赵辉;陶卫;王占斌;: "基于面结构光的三维内轮廓测量系统数学建模", 计算机测量与控制, no. 06, 25 June 2007 (2007-06-25) * |
王宇;朴燕;: "基于多视差函数拟合的集成成像深度提取方法", 光学学报, no. 04, 10 April 2015 (2015-04-10) * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114742869B (zh) * | 2022-06-15 | 2022-08-16 | 西安交通大学医学院第一附属医院 | 基于图形识别的脑部神经外科配准方法及电子设备 |
CN114742869A (zh) * | 2022-06-15 | 2022-07-12 | 西安交通大学医学院第一附属医院 | 基于图形识别的脑部神经外科配准方法及电子设备 |
CN114862957A (zh) * | 2022-07-08 | 2022-08-05 | 西南交通大学 | 一种基于3d激光雷达的地铁车底定位方法 |
CN114862957B (zh) * | 2022-07-08 | 2022-09-27 | 西南交通大学 | 一种基于3d激光雷达的地铁车底定位方法 |
CN115289974A (zh) * | 2022-10-09 | 2022-11-04 | 思看科技(杭州)股份有限公司 | 孔位测量方法、装置、计算机设备和存储介质 |
CN116152167B (zh) * | 2022-12-13 | 2024-04-05 | 珠海视熙科技有限公司 | 滑动检测方法、装置、介质、设备 |
CN116152167A (zh) * | 2022-12-13 | 2023-05-23 | 珠海视熙科技有限公司 | 滑动检测方法、装置、介质、设备 |
CN117058218B (zh) * | 2023-07-13 | 2024-06-07 | 湖南工商大学 | 基于图像-深度的盘式造球颗粒粉末填充率在线测量方法 |
CN116734775A (zh) * | 2023-08-11 | 2023-09-12 | 成都飞机工业(集团)有限责任公司 | 一种非接触式孔垂直度测量方法 |
CN116734775B (zh) * | 2023-08-11 | 2023-12-08 | 成都飞机工业(集团)有限责任公司 | 一种非接触式孔垂直度测量方法 |
CN117197215A (zh) * | 2023-09-14 | 2023-12-08 | 上海智能制造功能平台有限公司 | 基于五目相机系统的多目视觉圆孔特征的鲁棒提取方法 |
CN117197215B (zh) * | 2023-09-14 | 2024-04-09 | 上海智能制造功能平台有限公司 | 基于五目相机系统的多目视觉圆孔特征的鲁棒提取方法 |
CN116977403B (zh) * | 2023-09-20 | 2023-12-22 | 山东科技大学 | 一种基于双目视觉的薄膜生产幅宽检测和控制方法 |
CN116977403A (zh) * | 2023-09-20 | 2023-10-31 | 山东科技大学 | 一种基于双目视觉的薄膜生产幅宽检测和控制方法 |
CN117442359A (zh) * | 2023-12-22 | 2024-01-26 | 无锡蔚动智能科技有限公司 | 一种基于双臂协同控制的医用无影灯控制系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114119553B (zh) | 2024-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114119553A (zh) | 一种以十字激光为基准的双目视觉异面圆孔检测方法 | |
Moru et al. | A machine vision algorithm for quality control inspection of gears | |
CN107063228B (zh) | 基于双目视觉的目标姿态解算方法 | |
CN107705328B (zh) | 用于3d对准算法的平衡探针位置选择 | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
CN104981105B (zh) | 一种快速精确获得元件中心和偏转角度的检测及纠偏方法 | |
CN109916322B (zh) | 一种基于自适应窗口匹配的数字散斑全场形变测量方法 | |
US11676301B2 (en) | System and method for efficiently scoring probes in an image with a vision system | |
CN102159918B (zh) | 用于测定机动车的车轮或车轴几何形状的方法和测量装置 | |
CN108986070B (zh) | 一种基于高速视频测量的岩石裂缝扩展实验监测方法 | |
CN107230203B (zh) | 基于人眼视觉注意机制的铸件缺陷识别方法 | |
CN115330958B (zh) | 基于激光雷达的实时三维重建方法及装置 | |
CN110766669B (zh) | 一种基于多目视觉的管线测量方法 | |
CA2577969A1 (en) | Automated system and method for tool mark analysis | |
US20220230348A1 (en) | Method and apparatus for determining a three-dimensional position and pose of a fiducial marker | |
CN114460093B (zh) | 一种航空发动机缺陷检测方法及系统 | |
CN112258455A (zh) | 基于单目视觉检测零件空间位置的检测方法 | |
CN113744351A (zh) | 基于多介质折射成像的水下结构光测量标定方法及系统 | |
CN104050660A (zh) | 一种测量工件圆形边缘的方法 | |
Itami et al. | A simple calibration procedure for a 2D LiDAR with respect to a camera | |
CN112329726A (zh) | 人脸识别方法及装置 | |
Quinsat et al. | A novel approach for in-situ detection of machining defects | |
CN113674218A (zh) | 焊缝特征点提取方法、装置、电子设备与存储介质 | |
Fang et al. | A vision-based method for narrow weld trajectory recognition of arc welding robots | |
CN111583388A (zh) | 一种三维扫描系统的扫描方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |