CN114581529A - 机器人3d视觉精密装配误差分析方法及应用 - Google Patents

机器人3d视觉精密装配误差分析方法及应用 Download PDF

Info

Publication number
CN114581529A
CN114581529A CN202210129404.5A CN202210129404A CN114581529A CN 114581529 A CN114581529 A CN 114581529A CN 202210129404 A CN202210129404 A CN 202210129404A CN 114581529 A CN114581529 A CN 114581529A
Authority
CN
China
Prior art keywords
robot
error
pcb
images
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210129404.5A
Other languages
English (en)
Inventor
李福东
蒋彬
李威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuxi Xinran Ruishi Intelligent Technology Co ltd
Original Assignee
Wuxi Xinran Ruishi Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuxi Xinran Ruishi Intelligent Technology Co ltd filed Critical Wuxi Xinran Ruishi Intelligent Technology Co ltd
Priority to CN202210129404.5A priority Critical patent/CN114581529A/zh
Publication of CN114581529A publication Critical patent/CN114581529A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了智能制造领域内的一种机器人3D视觉精密装配误差分析方法,包括以下步骤:S1)将标定板固定在机器人法兰盘末端,采集多组位姿和对应标定板图像;S2)标定相机内参、外参、畸变系数,分析镜头校正像素误差;S3)进行手眼标定,分析手眼标定过程的平移与旋转误差;S4)采集PCB板图像、电容针脚图像,并进行图像定位:分析PCB孔重复定位误差和针脚重复定位误差;S5)分析PCB高度误差,分析电容针脚高度误差;S6)计算针脚中心X、Y坐标与机器人末端工具坐标系X、Y坐标之间的重复误差;S7)分析PCB板与机器人X轴角度偏差导致的机械定位误差;S8)计算最终的插装误差,本发明大大提高了机器人3D视觉系统的装配精度。

Description

机器人3D视觉精密装配误差分析方法及应用
技术领域
本发明涉及智能制造技术领域,尤其涉及一种机器人3D视觉装配方法。
背景技术
单目视觉位姿测量系统的精度受许多因素影响,例如输入参数误差、测 量距离和控制点设置等,国内外学者在这方面做了大量的研究。霍炬等人研 究了特征标靶布局对位姿测量精度的影响[1]。周静等人分析了不考虑镜头畸 变情况下摄像机标定参数误差与位姿测量精度之间的关系[2]。郝颖明等人将 输入参数分为目标模型的测量误差、焦比误差和主点坐标误差3类,研究了 每类误差和测量距离对位姿测量误差的影响[3]。上述研究都是在只有某一个 或某一类参数存在误差,其余参数均为理想无误差的情况下进行的。在工程 实际中,各个输入参数都无法避免地存在着误差,且它们之间存在非线性的 相互影响,因此如果只分析一个或一类参数的误差,结果就很可能与实际情 况有比较大的差异。此外,为了简化模型,也没有考虑镜头畸变误差的影响, 更没有研究其他常用精度优化方法对系统精度的提高效果[4]。
[1]霍炬,崔家山,王伟兴.基于共面特征点的单目视觉位姿测量误差分 析[J].光子学报,2014,43(05):150-156.
[2]周静,郝颖明,朱枫,何雷.摄像机标定参数误差对位姿测量精度的 影响[A].中国仪器仪表学会青年工作委员会.中国仪器仪表学会第九届青年 学术会议论文集[C].中国仪器仪表学会青年工作委员会:《仪器仪表学报》杂 志社,2007:5.
[3]郝颖明,朱枫,欧锦军,吴清潇,周静,付双飞.P3P位姿测量方法的 误差分析[J].计算机工程与应用,2008(18):239-242.
[4]郝仁杰,王中宇,李亚茹.一种单目视觉位姿测量系统的误差分析方 法[J].应用光学,2019,40(01):79-85.
发明内容
本发明的目的在于概述本发明的实施例的一些方面以及简要介绍一些较 佳实施例。在本说明书以及本申请的说明书摘要和发明名称中可能会做些简 化或省略以避免使本说明书、说明书摘要和发明名称的目的模糊,而这种简 化或省略不能用于限制本发明的范围。
针对现有技术中不能全面考虑多种误差而导致装配精度不够的问题,提 出了本发明,因此,本发明提供了一种机器人3D视觉精密装配误差分析方 法及应用,通过离线标定和在线装配两个阶段的误差进行分析,最终提高机 器人3D视觉系统的装配精度。
为解决上述技术问题,本发明提供如下技术方案:一种机器人3D视觉 精密装配误差分析方法,包括离线标定阶段和在线装配阶段;
离线标定阶段
S1)将标定板固定在机器人法兰盘末端,移动标定板至1号相机和2号 相机的上方,保存机器人位姿信息并采集标定板图像,重复平移与旋转运动, 采集多组位姿和对应标定板图像;
S2)用多副标定板图像标定相机内参、外参、畸变系数,分析镜头校正 像素误差;
S3)用多组位姿信息和标定板图像进行手眼标定,得到相机在机器人底 座坐标系下的位姿,分析手眼标定过程的平移与旋转误差;
在线装配阶段
S4)1号相机采集PCB板图像、2号相机采集电容针脚图像,并对二者 分别进行图像定位:对多幅PCB图片进行定位时,分析PCB孔重复定位误 差,对多幅针脚图像进行定位时,分析针脚重复定位误差;
S5)基于PCB板的CAD模型分析PCB高度误差,基于电容小范围平移 分析电容针脚高度误差;
S6)将针脚中心X、Y坐标与机器人末端工具坐标系X、Y坐标之间的 计算值进行重复测算,计算其中的重复误差;
S7)计算目标PCB板插装孔位姿,分析PCB板与机器人X轴角度偏差 导致的机械定位误差;
S8)利用误差链传播的串并联关系,并选取合适的融合参数,计算最终 的插装误差。
作为本发明所述机器人3D视觉精密装配误差分析方法的优选方案,S4) 中PCB板图像定位的具体方法为:采集多张PCB板图像,以相同的图像处 理算法定位图像的通孔坐标,计算多幅图像中同一通孔的X、Y坐标误差, 以多组误差的均值作为PCB孔重复定位误差。
作为本发明所述机器人3D视觉精密装配误差分析方法的优选方案,S4) 中电容针脚图像定位的具体方法为:安装在机器人法兰盘上的机器人夹爪抓 取电容,在固定高度进行X、Y方向的平移运动,2号相机采集多张图像,计 算不同图像中电容同一针脚的相对距离与机器人平移距离的误差,以多组误 差的均值作为电容针脚重复定位误差。
作为本发明所述机器人3D视觉精密装配误差分析方法的优选方案,S5) 中计算PCB高度误差具体为:假设PCB高度为1号相机标定时标定板的高 度,计算此时PCB图像不同通孔之间的距离与CAD模型理论值的误差的平 均值;接着在小范围内改变PCB高度值,使计算的误差的平均值达到最小, 得到相对最优的PCB高度,计算其与相机标定高度的差值,得到PCB高度 误差。
作为本发明所述机器人3D视觉精密装配误差分析方法的优选方案,S5) 中计算电容针脚高度误差具体为:假设电容针脚高度为2号相机标定时标定板 的高度,然后对多幅电容在机器人X-Y平面上平移时拍照的图像进行处理, 计算不同图像中电容中心的相对距离与机器人平移距离的误差的平均值,小 范围内改变电容针脚高度值,使计算的误差的均值达到最小,得到相对最优 的电容针脚高度,计算其与相机标定高度的差值,得到电容针脚高度误差。
作为本发明所述机器人3D视觉精密装配误差分析方法的优选方案,S6) 具体为:安装在机器人法兰盘上的机器人夹爪抓取电容在2号相机上方平移 并拍照,由机器人系统获得机器人法兰盘中心坐标,以电容三针脚中心的外 接圆圆心作为电容中心,计算机器人法兰盘中心与电容中心在机器人底座坐 标系X-Y平面上的距离,重复上述步骤,以多个计算值的方差作为重复误差。
作为本发明所述机器人3D视觉精密装配误差分析方法的优选方案,S7) 具体为:计算PCB中心位置三个通孔中心构成的三角形的长边与机器人底座 坐标系X轴的角度大小,与其CAD模型里长边与水平轴的正确角度比较, 得到PCB板与机器人底座坐标系X轴的角度偏差,并计算其导致的机械定 位误差。
一种机器人3D视觉精密装配误差分析方法的应用,利用所述机器人3D 视觉精密装配误差分析方法计算出插装误差指标,根据相应误差指标补偿后 将电容抓取插装在PCB板上。
与现有技术相比,本发明的有益效果在于:
本发明指出机器人3D视觉精密装配过程中可能产生的误差,包括相机 标定的镜头矫正像素误差,手眼标定误差,PCB或电容重复定位误差,高度 误差,针脚中心X、Y坐标与机器人末端工具坐标系X、Y坐标间距的重复 误差和机械定位误差;首先对上述误差进行单独分析,然后利用误差链传播 的串并联关系,选取合适的融合参数,计算最终的插装误差指标,最终得到 有效的机器人3D视觉装配参数,大大提高了装配精度和装配效率,实现智能制造。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所 需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发 明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的 前提下,还可以根据这些附图获得其它的附图。其中:
图1为本发明应用的插装引导装置结构示意图。
图2为本发明中机器人3D视觉精密装配系统示意图。
图3为本发明中系统误差分析流程图。
图4为本发明中部分标定板图像。
图5为本发明中2号相机标定与手眼标定结果误差。
图6为本发明中1号相机标定与手眼标定结果误差。
图7为本发明中PCB通孔定位示意图。
图8为本发明中电容针脚图像定位示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合说明 书附图对本发明的具体实施方式做详细的说明。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发 明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以 在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体 实施例的限制。
其次,此处所称的“一个实施例”或“实施例”是指可包含于本发明至 少一个实现方式中的特定特征、结构或特性。在本说明书中不同地方出现的 “在一个实施例中”并非均指同一个实施例,也不是单独的或选择性的与其 他实施例互相排斥的实施例。
再其次,本发明结合示意图进行详细描述,在详述本发明实施例时,为 便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示 意图只是示例,其在此不应限制本发明保护的范围。此外,在实际制作中应 包含长度、宽度及深度的三维空间尺寸。
本发明实施例应用的插装引导装置如图1所示,包括:
放置在设备架上的待插装电容的PCB板,PCB板可通过夹具夹紧固定, 设备架的下方设置1号相机以及与1号相机配合的光源板,1号相机布置在 光源板的中心,通过在光源板的中心开孔来实现,设备架的一旁设置针脚光 源(本实施例中采用圆形光源),针脚光源的下方设置2号相机,工业机器人 也设置在设备架一旁,工业机器人的末端为法兰盘,用以连接圆盘式多工位 抓手。
实施例1
如图2所示的一种机器人3D视觉精密装配误差分析方法,包括离线标 定误差和在线装配误差(附图2):
离线标定误差:
步骤S1)将标定板固定在机器人法兰盘末端,移动标定板至相机上方, 保存机器人位姿信息并采集标定板图像,重复平移与旋转运动,采集多组位 姿和对应标定板图像(附图3);
步骤S2)用多副标定板图像在Halcon中标定相机内参、外参、畸变系 数,分析镜头校正像素误差(附图4、附图5);
步骤S3)用多组位姿信息和标定板图像在Halcon中进行手眼标定,得 到相机在机器人底座坐标系下的位姿,分析手眼标定过程的平移与旋转误差 (附图4、附图5);
在线装配误差:
步骤S4)相机1号相机、2号相机分别采集PCB板与电容针脚图像,并 对二者分别进行图像定位,对多幅PCB图片进行定位(附图6),分析PCB 孔重复定位误差,多幅针脚图像进行定位(附图7),分析针脚重复定位误差;
步骤S5)基于PCB板的CAD模型分析PCB高度误差,基于电容小范 围平移分析电容针脚高度误差;
步骤S6)将针脚中心X、Y坐标与机器人末端工具坐标系X、Y坐标之 间的计算值进行重复测算,计算其中的重复误差;
步骤S7)计算目标PCB板插装孔位姿,分析PCB板与机器人X轴角度 偏差导致的机械定位误差;
步骤S8)利用误差链传播的串并联关系,并选取合适的融合参数,计算 最终的插装误差指标,最终得到有效的机器人3D视觉装配精度。
在本实施例中,步骤S4具体为:
首先,PCB板相对于相机的位置固定,PCB的每个通孔中心在不同图像 中的位置相同,因此采集10张PCB板图像,以相同的图像处理算法定位图像 的通孔坐标,计算多幅图像中同一通孔的X、Y坐标误差,以10组误差的均值 作为PCB孔重复定位误差,该误差小于±0.01mm;接着,机器人夹爪抓取电 容,在固定高度进行X、Y方向的平移运动,采集10张图像,计算不同图像中 电容中心的相对距离与机器人平移距离的误差,以10组误差的均值作为电容 针脚重复定位误差;如下表:
Figure BDA0003502034130000081
通过分别对多幅PCB与电容图像进行定位,得到了在线装配过程中对图 像定位时的重复误差大小。以该方法分析误差后改进图像处理算法,使系统 精度进一步提高。
本实施例中,步骤S5具体为:
由于PCB下表面与相机光轴垂直,PCB通孔相对于相机的高度固定,首 先假设PCB高度为PCB相机标定高度467.27mm,计算此时PCB图像不同通孔 之间的距离与CAD模型理论值的误差的平均值为0.560375mm;接着在±5mm 内以步长0.01mm改变PCB高度值,使计算的误差的平均值达到最小。如附图8 所示,此时PCB高度为465.47mm,误差均值达到最小值0.178889mm,得到PCB 高度误差为1.8mm。同样,假设电容针脚高度为针脚相机标定高度244.573mm, 然后对多幅电容在机器人X-Y平面上平移时拍照的图像进行处理,计算不同图像中电容中心的相对距离与机器人平移距离的误差的平均值,在±5mm内 以步长0.01mm改变电容针脚高度值,使计算的误差的均值达到最小,得到相 对最优的电容针脚高度245.358mm,计算其与相机标定高度的差值,得到电 容针脚高度误差0.785mm。
通过对高度误差进行分析,优化了PCB高度值,使其更接近实际值,同 时最小化高度误差对精度的影响。
本实施例中,步骤S6具体为:
以法兰盘坐标系作为机器人末端工具坐标系,由于抓手安装在法兰盘末 端,其机械结构固定,抓取的电容中心与机器人法兰盘中心在机器人X-Y平 面上的距离固定,计算电容中心的3D坐标与机器人法兰盘中心的距离并分 析其重复误差。具体步骤如下:机器人抓取电容在针脚光源处平移并拍照, 由机器人系统获得机器人法兰盘中心XY坐标BPT=(xT,yT),以电容三针脚中 心的外接圆圆心的XY坐标作为电容中心BP2=(x2,y2),计算机器人法兰盘中 心与电容中心在机器人底座坐标系X-Y平面上的距离
Figure BDA0003502034130000091
重复上述步骤,以10个计算值的方差作为重复 误差,同时以10个计算值与平均值的最大偏差作为该重复误差的最大值,该 值小于±0.35mm。如下表:
Figure BDA0003502034130000092
通过计算电容中心与法兰盘中心的距离,分析得到该计算值的重复误差 大小,进一步提高精度。
在本实施例中,步骤S7具体为:
计算PCB中心位置三个通孔中心构成的三角形的长边与机器人底座坐 标系X轴的角度大小,与其CAD模型里长边与水平轴的正确角度比较,得 到PCB板与机器人底座坐标系X轴的角度误差为0.0173995,机械定位误差 最大为2.9374mm。
通过计算PCB板与机器人底座坐标系X轴的角度误差,对该误差进行 补偿,提高了系统精度。
在本实施例中,S8)具体为:相机镜头矫正像素误差、手眼标定过程的 平移与旋转误差、重复定位误差、针脚中心X、Y坐标与机器人末端工具坐 标系X、Y坐标间距的重复误差以串联形式传播,其中PCB的重复定位误差 是由图像定位算法、相机镜头矫正误差、手眼标定过程的平移与旋转误差叠 加作用导致,选取该误差的最大值作为PCB定位误差,该误差小于±0.01mm, 针脚中心X、Y坐标与机器人末端工具坐标系X、Y坐标间距的重复误差是 由图像定位算法、相机镜头矫正误差、手眼标定过程的平移与旋转误差叠加 作用导致,选取其最大值作为电容定位误差,该误差小于±0.35mm;本系统 对高度误差、机械定位误差进行了补偿误差,并联形式传播的误差只包括两 个定位误差,将两者作为融合参数相加得到系统最终插装误差,该值小于± 0.4mm。
一种机器人3D视觉精密装配误差分析方法的应用,利用上述方法计算 出插装误差指标,根据相应误差指标补偿后即可得到准确的装配参数,再根 据相应的装配参数将电容抓取插装在PCB板上,实现高精度高效率装配。
本实施例在实际操作过程中,结合工业机器人在工业生产中的快速性, 对于1块PCB板34个待插装位置(如图8所示),仅需5分钟,可实现全部 插装,较于之前人工方法20分钟,速度方面有明显提升,并且可做到100% 精确插装。
重要的是,应注意,在多个不同示例性实施方案中示出的本申请的构造 和布置仅是例示性的。尽管在此公开内容中仅详细描述了几个实施方案,但 参阅此公开内容的人员应容易理解,在实质上不偏离该申请中所描述的主题 的新颖教导和优点的前提下,许多改型是可能的(例如,各种元件的尺寸、 尺度、结构、形状和比例、以及参数值(例如,温度、压力等)、安装布置、 材料的使用、颜色、定向的变化等)。例如,示出为整体成形的元件可以由多 个部分或元件构成,元件的位置可被倒置或以其它方式改变,并且分立元件 的性质或数目或位置可被更改或改变。因此,所有这样的改型旨在被包含在 本发明的范围内。可以根据替代的实施方案改变或重新排序任何过程或方法 步骤的次序或顺序。在权利要求中,任何“装置加功能”的条款都旨在覆盖 在本文中所描述的执行所述功能的结构,且不仅是结构等同而且还是等同结 构。在不背离本发明的范围的前提下,可以在示例性实施方案的设计、运行 状况和布置中做出其他替换、改型、改变和省略。因此,本发明不限制于特 定的实施方案,而是扩展至仍落在所附的权利要求书的范围内的多种改型。
此外,为了提供示例性实施方案的简练描述,可以不描述实际实施方案 的所有特征(即,与当前考虑的执行本发明的最佳模式不相关的那些特征, 或于实现本发明不相关的那些特征)。
应理解的是,在任何实际实施方式的开发过程中,如在任何工程或设计 项目中,可做出大量的具体实施方式决定。这样的开发努力可能是复杂的且 耗时的,但对于那些得益于此公开内容的普通技术人员来说,不需要过多实 验,所述开发努力将是一个设计、制造和生产的常规工作。
应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管 参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解, 可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案 的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (8)

1.一种机器人3D视觉精密装配误差分析方法,其特征在于,包括离线标定阶段和在线装配阶段;
离线标定阶段
S1)将标定板固定在机器人法兰盘末端,移动标定板至1号相机和2号相机的上方,保存机器人位姿信息并采集标定板图像,重复平移与旋转运动,采集多组位姿和对应标定板图像;
S2)用多副标定板图像标定相机内参、外参、畸变系数,分析镜头校正像素误差;
S3)用多组位姿信息和标定板图像进行手眼标定,得到相机在机器人底座坐标系下的位姿,分析手眼标定过程的平移与旋转误差;
在线装配阶段
S4)1号相机采集PCB板图像、2号相机采集电容针脚图像,并对二者分别进行图像定位:对多幅PCB图片进行定位时,分析PCB孔重复定位误差,对多幅针脚图像进行定位时,分析针脚重复定位误差;
S5)基于PCB板的CAD模型分析PCB高度误差,基于电容小范围平移分析电容针脚高度误差;
S6)将针脚中心X、Y坐标与机器人末端工具坐标系X、Y坐标之间的计算值进行重复测算,计算其中的重复误差;
S7)计算目标PCB板插装孔位姿,分析PCB板与机器人X轴角度偏差导致的机械定位误差;
S8)利用误差链传播的串并联关系,并选取合适的融合参数,计算最终的插装误差。
2.根据权利要求1所述的机器人3D视觉精密装配误差分析方法,其特征在于,S4)中PCB板图像定位的具体方法为:采集多张PCB板图像,以相同的图像处理算法定位图像的通孔坐标,计算多幅图像中同一通孔的X、Y坐标误差,以多组误差的均值作为PCB孔重复定位误差。
3.根据权利要求1所述的机器人3D视觉精密装配误差分析方法,其特征在于,S4)中电容针脚图像定位的具体方法为:安装在机器人法兰盘上的机器人夹爪抓取电容,在固定高度进行X、Y方向的平移运动,2号相机采集多张图像,计算不同图像中电容同一针脚的相对距离与机器人平移距离的误差,以多组误差的均值作为电容针脚重复定位误差。
4.根据权利要求1所述的机器人3D视觉精密装配误差分析方法,其特征在于,S5)中计算PCB高度误差具体为:假设PCB高度为1号相机标定时标定板的高度,计算此时PCB图像不同通孔之间的距离与CAD模型理论值的误差的平均值;接着在小范围内改变PCB高度值,使计算的误差的平均值达到最小,得到相对最优的PCB高度,计算其与相机标定高度的差值,得到PCB高度误差。
5.根据权利要求1所述的机器人3D视觉精密装配误差分析方法,其特征在于,S5)中计算电容针脚高度误差具体为:假设电容针脚高度为2号相机标定时标定板的高度,然后对多幅电容在机器人X-Y平面上平移时拍照的图像进行处理,计算不同图像中电容中心的相对距离与机器人平移距离的误差的平均值,小范围内改变电容针脚高度值,使计算的误差的均值达到最小,得到相对最优的电容针脚高度,计算其与相机标定高度的差值,得到电容针脚高度误差。
6.根据权利要求1所述的机器人3D视觉精密装配误差分析方法,其特征在于,S6)具体为:安装在机器人法兰盘上的机器人夹爪抓取电容在2号相机上方平移并拍照,由机器人系统获得机器人法兰盘中心坐标,以电容三针脚中心的外接圆圆心作为电容中心,计算机器人法兰盘中心与电容中心在机器人底座坐标系X-Y平面上的距离,重复上述步骤,以多个计算值的方差作为重复误差。
7.根据权利要求1所述的机器人3D视觉精密装配误差分析方法,其特征在于,S7)具体为:计算PCB中心位置三个通孔中心构成的三角形的长边与机器人底座坐标系X轴的角度大小,与其CAD模型里长边与水平轴的正确角度比较,得到PCB板与机器人底座坐标系X轴的角度偏差,并计算其导致的机械定位误差。
8.一种机器人3D视觉精密装配误差分析方法的应用,其特征在于,利用权利要求1所述方法计算出插装误差指标,根据相应误差指标补偿后将电容抓取插装在PCB板上。
CN202210129404.5A 2022-02-11 2022-02-11 机器人3d视觉精密装配误差分析方法及应用 Pending CN114581529A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210129404.5A CN114581529A (zh) 2022-02-11 2022-02-11 机器人3d视觉精密装配误差分析方法及应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210129404.5A CN114581529A (zh) 2022-02-11 2022-02-11 机器人3d视觉精密装配误差分析方法及应用

Publications (1)

Publication Number Publication Date
CN114581529A true CN114581529A (zh) 2022-06-03

Family

ID=81775364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210129404.5A Pending CN114581529A (zh) 2022-02-11 2022-02-11 机器人3d视觉精密装配误差分析方法及应用

Country Status (1)

Country Link
CN (1) CN114581529A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115690205A (zh) * 2022-10-09 2023-02-03 北京自动化控制设备研究所 基于点线综合特征的视觉相对位姿测量误差估计方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115690205A (zh) * 2022-10-09 2023-02-03 北京自动化控制设备研究所 基于点线综合特征的视觉相对位姿测量误差估计方法
CN115690205B (zh) * 2022-10-09 2023-12-05 北京自动化控制设备研究所 基于点线综合特征的视觉相对位姿测量误差估计方法

Similar Documents

Publication Publication Date Title
CN101870039B (zh) 双工作台驱动激光加工机及其加工方法
CN110455815B (zh) 一种电子元器件外观缺陷检测的方法及系统
CN110666798A (zh) 一种基于透视变换模型的机器人视觉标定方法
JP2008539437A (ja) 透明基板の寸法変化を測定するための方法及び装置
CN111515944A (zh) 非固定路径机器人自动标定方法
CN112873213B (zh) 一种提升六关节机器人工具坐标系标定精度的方法
CN114581529A (zh) 机器人3d视觉精密装配误差分析方法及应用
CN109447971B (zh) 一种摆线齿轮型线误差精确提取及关键形位精度快速分析方法
CN114260903A (zh) 圆盘式多工位抓手的工业机器人3d视觉精密插装引导控制方法
CN112958960B (zh) 一种基于光学靶标的机器人手眼标定装置
CN109059755B (zh) 一种机器人高精度手眼标定方法
CN111998797B (zh) 一种拍照式三维扫描仪的扫描轨迹规划方法
CN114643578A (zh) 一种提高机器人视觉引导精度的标定装置及方法
CN112697112A (zh) 一种相机水平面倾斜角的测量方法及装置
CN103192399A (zh) 一种基于目标运动的显微视觉手眼标定方法
CN111975756B (zh) 一种3d视觉测量系统的手眼标定系统及方法
CN211401101U (zh) 高精度3d轮廓建模设备
CN115609586B (zh) 一种基于抓取位姿约束的机器人高精度装配方法
CN116038703A (zh) 一种光伏电池串的机器人抓取位姿获取方法及系统
CN112529969B (zh) 贴片机xy轴定位补偿方法
CN109506626A (zh) 一种相机倾斜角的测量方法
CN115482276A (zh) 一种基于相移偏折测量系统的高精度标定方法
CN114248085A (zh) 基于机器视觉的中心定位装配装置及装配方法
CN108994601B (zh) 一种基于图像检测的仪表组件装配精度的装配方法
CN206095985U (zh) 一种基于图像处理的晶圆检测装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination