CN114463425B - 一种基于概率Hough直线检测的工件表面无特征点定位方法 - Google Patents

一种基于概率Hough直线检测的工件表面无特征点定位方法 Download PDF

Info

Publication number
CN114463425B
CN114463425B CN202210093819.1A CN202210093819A CN114463425B CN 114463425 B CN114463425 B CN 114463425B CN 202210093819 A CN202210093819 A CN 202210093819A CN 114463425 B CN114463425 B CN 114463425B
Authority
CN
China
Prior art keywords
points
straight line
point
workpiece
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210093819.1A
Other languages
English (en)
Other versions
CN114463425A (zh
Inventor
朱大虎
付佳豪
刘红帝
田林雳
庄可佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202210093819.1A priority Critical patent/CN114463425B/zh
Publication of CN114463425A publication Critical patent/CN114463425A/zh
Application granted granted Critical
Publication of CN114463425B publication Critical patent/CN114463425B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于概率Hough直线检测的工件表面无特征点定位方法,采用双目视觉系统对工件进行图像信息采集,获得工件的边缘轮廓图像,用概率Hough直线检测算法提取工件表面多条线段,通过控制检测阈值,剔除掉干扰线段,利用最小二乘法进行直线拟合,根据实际工件直线夹角选取阈值筛选出目标直线,根据两条直线解析式即可求出交点的二维像素坐标信息,最后将求解后的二维像素坐标成对输入到相机成像模型中,得到其在相机坐标系下的三维坐标,利用K‑means聚类算法提取目标交点并求出平面法向量,实现定位功能。本发能明针对其表面多条直线无直接相交的情况,在不添加人工标记点的前提下,通过图像处理及直线拟合的方式求出定位点,具有很强的实用性。

Description

一种基于概率Hough直线检测的工件表面无特征点定位方法
技术领域
本发明属于机器视觉检测定位技术领域,具体涉及一种基于Hough直线检测的工件表面无特征点定位方法。
背景技术
在视觉引导定位的机器人加工领域,对表面简单的规则工件,通常提取角点、线作为特征进行匹配定位来引导机器人抓取或加工。而对于表面多为曲线、无明显特征点的飞轮壳这种复杂零件,无法通过简单的角点提取来进行定位,其表面存在太多干扰直线及曲线,对于提取目标直线进行拟合具有一定难度和误差,更直观的方法是采用精密视觉系统例如扫描仪,通过对零件表面进行扫描获取的点云与实际工件离散的点云进行一个点云配准,来实现工件定位。该方法精度高,但是匹配算法复杂,扫描工件耗时长,且仪器比较昂贵。若对飞轮壳采取人工贴取标记点作为特征点来进行定位,一是不能满足工厂内对大批量的工件加工生产;二是人工标记点存在不可避免的偶然误差,无法保证每次定位精度的准确性和稳定性。因此针对汽车飞轮壳这种表面复杂的零件,成本更低的双目相机还无法很好的实现精准定位加工。
发明内容
为了解决双目相机针对飞轮壳表面无特征点无法精确定位,本发明提出了一种基于概率Hough直线检测的工件表面无特征点定位方法。该方法主要通过图像处理的方式,通过对采集的工件图像进行预处理,对预处理的图像进行概率Hough直线检测,通过设定阈值,过滤掉干扰直线,提取边缘目标直线并求出解析式,根据两条直线解析式即可求出交点,将交点输入到相机模型中计算得到三维坐标,最后利用K-means聚类算法提取三个目标交点作为定位点,进一步求出平面法向量完成定位。
为了实现上述目的,本发明采用的技术方案是:
一种基于概率Hough直线检测的工件表面无特征点定位方法,其特征在于,包括以下步骤:
步骤1、采用左、右相机的双目视觉系统对待加工工件进行数据采集,首先对双目相机进行标定,并利用标定后的参数建立双目相机成像模型,采集工件表面图像,进行对图像预处理,获得工件的边缘轮廓图像,之后进行基于概率Hough直线检测,得到工件图像上的多条直线段,通过设置斜率差阈值ε,过滤掉干扰线段,得到筛选出来的直线段;
步骤2、对筛选出来的直线段上的点(Xi,Yi)组成的数据采用最小二乘法进行直线拟合,计算出拟合的直线解析式y=α+βx,(Xi,Yi)为工件图像上的第i个二维坐标点,x,y分别为工件图像上的横纵坐标,α为常数,β直线斜率;遍历提取的任两条解析式,计算出两条直线的夹角,根据实际工件直线角度设置筛选条件,对存在一定厚度的边缘直线进行处理,最终得到任意两条目标相交直线及交点;对双目视觉系统左相机采集的数据进行处理得到相交直线Ll和交点(xl1,yl1);对双目视觉系统右相机采集的数据进行处理得到相交直线Lr和交点(xr1,yr1);
步骤3、将左右相机分别得到的相交直线及交点输入到双目相机成像模型中计算出交点在相机坐标系(一般为以左相机为主相机建立的坐标系)的三维坐标,最终得到多个相交直线交点(Xi,Yi,Zi);
步骤4、将得到的多个交点坐标利用K-means聚类算法将三个目标边缘交点提取出来,利用向量叉积的概念,求出工件表面上平面的法向量a、b、c分别为法向量在坐标轴上的三个单位向量;
步骤5、通过手眼标定将相机坐标系下三维坐标转换到机器人基坐标系下坐标,将步骤2及步骤4求解出的坐标和法向量通过通讯输入到机器人控制器,即可引导机器人定位进行加工。
进一步地,先对采集图像进行双边滤波去噪和Gamma图像增强,去除可能产生干扰的噪点和增强边缘轮廓的细节,之后采用Otsu方法对图像进行阈值分割,图像预处理后采用基于概率Hough直线检测和控制阈值的算法进行提取目标线段。
进一步地,所述步骤1中,基于概率Hough直线检测和控制阈值的步骤如下:
步骤1.1、随机获取直线上特征点,映射到极坐标系画曲线;当极坐标系里面有交点达到最小投票数,找出该点对应x-y坐标系的直线L:y=kx+b,x,y分别为相机拍摄图像建立二维坐标系的横、纵坐标,b为常数,k为直线L的斜率;
步骤1.2、搜索边缘轮廓上的点,通过设置线段的最小距离(maxlineGap)过滤掉部分密集特征点,减小计算量,将过滤后在直线L上的点连成线段,然后将中间点全部删除,并记录该线段的起始点(x1,y1)和终止点(x2,y2);
步骤1.3、提取图片检测到线段上的起始点与终止点,组成点云集P={pm=(xm,ym)|m=1,2,3,...n};
步骤1.4、根据工件特点,为提取边缘直线,按照x递减的顺序从点云集P中提取子集Pz={pz=(xi,yi)|xi=xmax},i为子集点坐标的角标,z为子集中点总数,xmax为点云集P中x坐标最大值yi为xi取最大值时对应的y坐标,取p1=(x1,y1)作为起始点,删掉点p1后对剩余点组成子集Pz-1中同样的规则再取一点p2=(x2,y2),计算起始点p1与p2斜率kx,同样地,取p3=(x3,y3),计算起始点p1与p3的斜率ky,若两条线段满足0<|ky-kx|≤ε,ε为斜率差阈值,则将两条线段记为一条新线段,p1和p3记为新线段的起始点与终止点,删除这三个点后继续从子集中继续筛选;若所选两条选择线段满足|ky-kx|>ε,则删除起始点,从剩余子集中再选点进行筛选,直到筛选完所有点,最终得到多条筛选后的线段。
进一步地,所述步骤2中的直线筛选具体步骤如下:
遍历提取的任两条解析式,如果两条直线的夹角θ=0,且两条直线距离0<d<δ,对两条直线采用取中值的方法,求解出直线y=αiix,根据实际工件上直线夹角特征继续筛选出两条目标直线y1=α11x、y2=α22x,得到交点(xl1,yl1)作为定位点。其中,δ为根据实际工件边缘厚度所取阈值,计算两条直线的夹角公式为
进一步地,所述步骤2中,通过交点坐标判断,如果交点坐标偏离工件所在区域,则舍弃该交点。
进一步地,步骤3中,根据双目相机的硬件结构参数,并结合本质矩阵和基本矩阵参数,即可建立双目相机成像模型,对相机成像模型求逆得到二维像素坐标到世界坐标转换的单应性矩阵[R|T],通过输入的二维像素坐标对,即可计算出三维坐标(Xl,Y1,Z1);
所述步骤4中,K-means具体步骤如下:
4.1根据步骤2中得到的直线交点个数选择合适的K值;
4.2采用欧式距离作为距离度量,得到K个新的簇;
4.3分别计算簇内其他点距离均值最小的点作为质心;
4.4进行迭代,当每个簇心质心不再改变时停止K-means,提取三个目标定位点。
进一步地,步骤4中,求取法向量方法如下:
记P1=(Xl,Y1,Z1),P2=(X2,Y2,Z2),P3=(X3,Y3,Z3),法向量可以根据/>的叉积来计算,/>记/>a=((Y2–Y1)(Z3–Z1)–(Y3–Y1)(Z2–Z1));b=((Z2–Z1)(X3-Xl)–(Z3–Z1)(X2–Xl));c=((X2–Xl)(Y3–Y1)–(X3-Xl)(Y2–Y1))。
与现有技术相比,本发明的有益效果是:
本发明首先选择两台CMOS相机搭建双目系统;利用标定的相机参数进而建立双目相机间的成像模型;采集工件表面图像,对图像进行滤波降噪、图像增强等预处理获得工件轮廓边缘细节图,主要采用基于概率Hough变换的直线提取方法,根据工件的成像特点,通过控制检测阈值,过滤掉小段的干扰线段。提取剩余线段上的二维像素点(Xi,Yi),利用最小二乘法进行直线拟合,通过对边缘直线的筛选得到目标直线,将提取到的直线交点作为定位点成对输入到相机成像模型中,得到其在主相机空间坐标系下的三维坐标实现工件定位。再根据平面所求的三个点求出平面法向量,将定位点和法向量通过通讯传递给机器人,即可引导机器人完成定位加工。本发明所提方法主要针对汽车工件表面无特征点无法进行特征点定位,通过图像处理的方式,提取边缘上的点,利用最小二乘法等算法拟合目标直线和设定阈值剔除干扰直线,从而求解出直线交点,利用K-means聚类算法来提取目标交点作为定位点,解决了人工贴标志点带来的误差,在实际生产中具有很强的实用性。
附图说明
图1为本发明方法实施例中双目相机的复杂零件表面无特征点定位方法的流程示意图;
图2为本发明实施例中所述的相机采集工件表面及图像处理示意图,其中图2(a)为双目相机采集的本发明实施例中飞轮壳原图,图2(b)为对原图进行滤波及图像增强后的图;图2(c)为阈值分割后的图;图2(d)为对阈值分割后概率Hough直线检测提取直线图。
具体实施方式
下面结合附图来具体描述本发明的优选实施例,其中,附图构成本申请一部分,并与本发明的实施例一起用于阐释本发明的原理,并非用于限定本发明的范围。
下面以汽车飞轮壳表面加工为例来对本发明进行举例说明。
请参阅图1,本发明实施例提供的一种基于概率Hough直线检测的工件表面无特征点定位方法的流程示意图,包括如下步骤:
步骤1、选取两台CMOS相机组成双目立体视觉系统利用标定同时触发双目相机采集汽车飞轮壳表面图像,对图像进行滤波降噪、图像增强,对图像进行阈值分割,分离图像背景;
a、滤波根据实际环境选择效果较好的双边滤波:
其中,W是权重,i和j是像素索引,K是归一化常量,I是像素的强度值,因为后续需要做边缘检测,而双边滤波在图像边缘等强度梯度较大的地方,可以保持梯度,所以这里可选择双边滤波算法。
b、根据实际工件所处环境选择相应的算法,图像增强算法采用的是Gamma增强,而阈值分割算法使用Otsu阈值分割。
作为一种优选实施例,以左相机为例,对预处理后的图像进行概率Hough直线检测,得到工件图像边缘直线上多条线段,通过控制斜率差检测阈值,剔除掉干扰线段;
步骤2、对剩余线段上的点(Xi,Yi)(i=1、2、3…)组成的数据采用最小二乘法进行直线拟合
a、假设线性方程为:
b、遍历提取的任两条解析式,根据公式计算出两条直线的夹角,根据实际工件直线角度设置筛选条件,对存在一定厚度的边缘直线进行处理,筛选出相邻的边缘直线,计算出相邻直线的左相机交点(xl1,yl1),右相机同理,可以得到右相机(xr1,yr1),将二维坐标依次输入双目相机成像模型中。
步骤3、将左右相机分别得到的相交直线及交点,即可计算出交点在相机坐标系下的三维坐标(Xl,Y1,Z1);
步骤4、将得到的多个交点坐标利用K-means聚类算法将三个目标边缘直线交点提取出来,利用向量叉积的概念,求出平面的法向量
步骤5、通过手眼标定将相机坐标系下三维坐标转换到机器人基坐标系下坐标,将步骤2及步骤4求解出的坐标和法向量通过通讯输入到机器人控制器,即可引导机器人定位进行加工。
作为一种优选实施例,所述步骤1中,基于概率Hough直线检测和控制阈值的步骤如下:
步骤1.1、随机获取直线上特征点,映射到极坐标系画曲线;当极坐标系里面有交点达到最小投票数,找出该点对应x-y坐标系的直线L:y=kx+b,x,y分别为相机拍摄图像建立二维坐标系的横、纵坐标,b为常数,k为直线L的斜率;
步骤1.2、搜索边缘轮廓上的点,通过设置线段的最小距离(maxlineGap)过滤掉部分密集特征点,减小计算量,将过滤后在直线L上的点连成线段,然后将中间点全部删除,并记录该线段的起始点(x1,y1)和终止点(x2,y2);
步骤1.3、提取图片检测到线段上的起始点与终止点,组成点云集P={pm=(xm,ym)|m=1,2,3,...n};
步骤1.4、根据工件特点,为提取边缘直线,按照x递减的顺序从点云集P中提取子集Pz={pz=(xi,yi)|xi=xmax},i为子集点坐标的角标,z为子集中点总数,xmax为点云集P中x坐标最大值yi为xi取最大值时对应的y坐标,取p1=(x1,y1)作为起始点,删掉点p1后对剩余点组成子集Pz-1中同样的规则再取一点p2=(x2,y2),计算起始点p1与p2斜率kx,同样地,取p3=(x3,y3),计算起始点p1与p3的斜率ky,若两条线段满足0<|ky-kx|≤ε,ε为斜率差阈值,则将两条线段记为一条新线段,p1和p3记为新线段的起始点与终止点,删除这三个点后继续从子集中继续筛选;若所选两条选择线段满足|ky-kx|>ε,则删除起始点,从剩余子集中再选点进行筛选,直到筛选完所有点,最终得到多条筛选后的线段。
作为一种优选实施例,所述步骤4中,K-means具体步骤如下:
4.1根据步骤2中得到的直线交点个数选择合适的K值;
4.2采用欧式距离作为距离度量,得到K个新的簇;
4.3分别计算簇内其他点距离均值最小的点作为质心;
4.4进行迭代,当每个簇心质心不再改变时停止K-means,提取三个目标定位点。
作为一种优选实施例,步骤4中,求取法向量方法如下:
记P1=(Xl,Y1,Z1),P2=(X2,Y2,Z2),P3=(X3,Y3,Z3),法向量可以根据/>的叉积来计算,/>记/>a=((Y2–Y1)(Z3–Z1)–(Y3–Y1)(Z2–Z1));b=((Z2–Z1)(X3-Xl)–(Z3–Z1)(X2–Xl));c=((X2–Xl)(Y3–Y1)–(X3-Xl)(Y2–Y1))。
本发明方法主要创新点是:1)在机器视觉引导智能加工领域内建立了一种基于概率Hough直线检测的工件表面无特征点定位方法;2)针对复杂工件表面无特征点,主要采用图像处理的方法,对边缘直线进行剔除和提取,最终拟合出相邻目标直线及其交点,利用K-means聚类算法来提取目标交点作为定位点,避免了人工贴标定点的误差。
以上实施例仅用于说明本发明的设计思想和特点,其目的在于使本领域内的技术人员能够了解本发明的内容并据以实施,本发明的保护范围不限于上述实施例。所以,凡依据本发明所揭示的原理、设计思路所作的等同变化或修饰,均在本发明的保护范围之内。

Claims (7)

1.一种基于概率Hough直线检测的工件表面无特征点定位方法,其特征在于,包括以下步骤:
步骤1、采用左、右相机的双目视觉系统对待加工工件进行数据采集,对采集后的工件图像进行对图像预处理,获得工件的边缘轮廓图像,之后进行基于概率Hough直线检测,得到工件图像边缘的多条直线段,通过设置斜率差阈值ε,过滤掉干扰线段,得到筛选出的直线段;
步骤2、对筛选出直线段的点(Xi,Yi)组成的数据采用最小二乘法进行直线拟合,计算出拟合的直线解析式y=α+βx,(Xi,Yi)为工件图像上的第i个二维坐标点,x,y分别为工件图像上的横纵坐标,α为常数,β直线斜率;遍历提取的任两条解析式,计算出两条直线的夹角,根据实际工件直线角度设置筛选条件,最终得到任意两条目标相交直线及交点;对双目视觉系统左相机采集的数据进行处理得到相交直线Ll和交点(xl1,yl1);对双目视觉系统右相机采集的数据进行处理得到相交直线Lr和交点(xr1,yr1);
步骤3、将左右相机分别得到的相交直线及交点输入到双目相机成像模型中计算出交点在相机坐标系的三维坐标,最终得到多个相交直线交点(Xi,Yi,Zi);
步骤4、利用K-means聚类算法将边缘直线上的三个目标交点提取出来,利用向量叉积的概念,求出工件表面上平面的法向量a、b、c分别为法向量在坐标轴上的三个单位向量;
步骤5、通过手眼标定将相机坐标系下三维坐标转换到机器人基坐标系下坐标,将步骤2及步骤4求解出的坐标和法向量通过通讯输入到机器人控制器,即可引导机器人定位进行加工。
2.如权利要求1所述的一种基于概率Hough直线检测的工件表面无特征点定位方法,其特征在于:步骤1中,先对采集图像进行双边滤波去噪和Gamma图像增强,去除可能产生干扰的噪点和增强边缘轮廓的细节,之后采用Otsu方法对图像进行阈值分割,图像预处理后采用基于概率Hough直线检测和控制阈值的算法进行提取目标线段。
3.如权利要求2所述的一种基于概率Hough直线检测的工件表面无特征点定位方法,其特征在于:步骤1中,具体步骤如下:
步骤1.1、随机获取直线上的特征点,映射到极坐标系画曲线;当极坐标系里面有交点达到最小投票数,找出该点对应x-y坐标系的直线L:y=kx+b,x,y分别为相机拍摄图像建立二维坐标系的横、纵坐标,b为常数,k为直线L的斜率;
步骤1.2、搜索边缘轮廓上的点,通过设置线段的最小距离过滤掉部分密集特征点,减小计算量,将过滤后在直线L上的点连成线段,然后将中间点全部删除,并记录该线段的起始点(x1,y1)和终止点(x2,y2);
步骤1.3、提取图片检测到线段上的起始点与终止点,组成点云集P={pm=(xm,ym)|m=1,2,3,...n},n为点云集中点总数,m为角标,pm表示第m个点;
步骤1.4、根据工件特点,为提取边缘直线,按照x递减的顺序从点云集P中提取子集Pz={pz=(xi,yi)|xi=xmax},i为子集点坐标的角标,z为子集中点总数,xmax为点云集P中x坐标最大值,yi为xi取最大值时对应的y坐标;取p1=(x1,y1)作为起始点,删掉点p1后对剩余点组成子集Pz-1中同样的规则再取一点p2=(x2,y2),计算起始点p1与p2斜率kx,同样地,取p3=(x3,y3),计算起始点p1与p3的斜率ky,若两条线段满足0<|ky-kx|≤ε,ε为斜率差阈值,则将两条线段记为一条新线段,p1和p3记为新线段的起始点与终止点,删除这三个点后继续从子集中继续筛选;若所选两条选择线段满足|ky-kx|>ε,则删除起始点,从剩余子集中再选点进行筛选,直到筛选完所有点,最终得到多条筛选后的线段。
4.如权利要求3所述的一种基于概率Hough直线检测的工件表面无特征点定位方法,其特征在于:步骤2中,如果两条直线的夹角θ=0,且两条直线距离0<d<δ,对两条直线采用取中值的方法,求解出直线y=α+βx,根据实际工件上直线夹角特征继续筛选出两条目标直线y1=α11x、y2=α22x,得到交点(xl1,yl1),其中,δ为根据实际工件边缘厚度所取阈值,计算两条直线的夹角公式为
5.如权利要求4所述的一种基于概率Hough直线检测的工件表面无特征点定位方法,其特征在于:步骤3中,根据双目视觉系统所选的相机的硬件结构参数,并结合本质矩阵和基本矩阵参数,建立双目相机成像模型,对相机成像模型求逆得到二维像素坐标到世界坐标转换的单应性矩阵[R|T],通过输入求得的二维交点坐标对,即可计算出三维坐标(Xi,Yi,Zi)。
6.如权利要求5所述的一种基于概率Hough直线检测的工件表面无特征点定位方法,其特征在于:步骤4中,K-means聚类算法具体步骤如下:
4.1根据得到的直线交点个数选择相应合适的K值;
4.2采用欧式距离作为距离度量,得到K个新的簇;
4.3分别计算簇内其他交点距离均值最小的点作为质心;
4.4进行迭代,当每个簇心质心不再改变时停止K-means,提取三个目标定位点。
7.如权利要求6所述的一种基于概率Hough直线检测的工件表面无特征点定位方法,其特征在于:步骤4中,求取法向量方法如下:
三个目标交点记为P1=(Xl,Y1,Z1),P2=(X2,Y2,Z2),P3=(X3,Y3,Z3),法向量 则a=((Y2–Y1)(Z3–Z1)–(Y3–Y1)(Z2–Z1));b=((Z2–Z1)(X3-Xl)–(Z3–Z1)(X2–Xl));c=((X2–Xl)(Y3–Y1)–(X3-Xl)(Y2–Y1))。
CN202210093819.1A 2022-01-26 2022-01-26 一种基于概率Hough直线检测的工件表面无特征点定位方法 Active CN114463425B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210093819.1A CN114463425B (zh) 2022-01-26 2022-01-26 一种基于概率Hough直线检测的工件表面无特征点定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210093819.1A CN114463425B (zh) 2022-01-26 2022-01-26 一种基于概率Hough直线检测的工件表面无特征点定位方法

Publications (2)

Publication Number Publication Date
CN114463425A CN114463425A (zh) 2022-05-10
CN114463425B true CN114463425B (zh) 2024-04-16

Family

ID=81410934

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210093819.1A Active CN114463425B (zh) 2022-01-26 2022-01-26 一种基于概率Hough直线检测的工件表面无特征点定位方法

Country Status (1)

Country Link
CN (1) CN114463425B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114878570B (zh) * 2022-05-18 2023-09-08 南京工业大学 一种基于机器视觉的可转位刀片刃口钝化检测方法
CN114782925B (zh) * 2022-06-17 2022-09-02 四川省公路规划勘察设计研究院有限公司 一种基于车载lidar数据的高速公路护栏矢量化方法及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251544A (ja) * 1996-03-14 1997-09-22 Toshiba Corp ワークエッジ検出画像処理装置
CN109493313A (zh) * 2018-09-12 2019-03-19 华中科技大学 一种基于视觉的钢卷定位方法及设备
CN113643280A (zh) * 2021-08-30 2021-11-12 燕山大学 一种基于计算机视觉的板材分拣系统及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106356757B (zh) * 2016-08-11 2018-03-20 河海大学常州校区 一种基于人眼视觉特性的电力线路无人机巡检方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251544A (ja) * 1996-03-14 1997-09-22 Toshiba Corp ワークエッジ検出画像処理装置
CN109493313A (zh) * 2018-09-12 2019-03-19 华中科技大学 一种基于视觉的钢卷定位方法及设备
CN113643280A (zh) * 2021-08-30 2021-11-12 燕山大学 一种基于计算机视觉的板材分拣系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
一种基于双目视觉的奥制齿轮刀具参数测量方法;何长海;许增朴;王永强;周聪玲;;传感器与微系统;20151020(10);全文 *

Also Published As

Publication number Publication date
CN114463425A (zh) 2022-05-10

Similar Documents

Publication Publication Date Title
CN110070570B (zh) 一种基于深度信息的障碍物检测系统及方法
CN106651942B (zh) 基于特征点的三维旋转运动检测与旋转轴定位方法
CN114463425B (zh) 一种基于概率Hough直线检测的工件表面无特征点定位方法
CN109211198B (zh) 一种基于三目视觉的智能目标检测和测量系统和方法
CN109489566B (zh) 锂电池隔膜材料分切宽度检测方法、检测系统及装置
CN107392929B (zh) 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法
CN109087261B (zh) 基于非受限采集场景的人脸矫正方法
CN110736747B (zh) 一种细胞液基涂片镜下定位的方法及系统
CN112067233B (zh) 一种用于风洞模型六自由度运动捕获方法
CN113470090A (zh) 基于sift-shot特征的多固态激光雷达外参标定方法
CN108510544B (zh) 一种基于特征聚类的光条定位方法
CN111273701B (zh) 一种云台视觉控制系统以及控制方法
CN111127556B (zh) 基于3d视觉的目标物体识别和位姿估算方法以及装置
CN116309847A (zh) 一种基于二维图像和三维点云结合的堆叠工件位姿估计方法
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置
CN113781413A (zh) 一种基于Hough梯度法的电解电容定位方法
CN111415378B (zh) 用于汽车玻璃检测的图像配准方法及汽车玻璃检测方法
CN113065532A (zh) 一种基于rgbd图像的坐姿几何参数检测方法及系统
CN116596987A (zh) 一种基于双目视觉的工件三维尺寸高精度测量方法
CN113689365B (zh) 一种基于Azure Kinect的目标跟踪定位方法
CN115034577A (zh) 一种基于虚实边缘匹配的机电产品漏装检测方法
CN114898347A (zh) 一种指针式仪表机器视觉识别方法
CN114626112A (zh) 一种基于边界检验的未知物体表面测量视点规划方法
CN114862765A (zh) 一种细胞分层图像处理方法
CN112365600A (zh) 一种三维物体检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant