CN112907679A - 基于视觉的机器人重复定位精度测量方法 - Google Patents

基于视觉的机器人重复定位精度测量方法 Download PDF

Info

Publication number
CN112907679A
CN112907679A CN202110118865.8A CN202110118865A CN112907679A CN 112907679 A CN112907679 A CN 112907679A CN 202110118865 A CN202110118865 A CN 202110118865A CN 112907679 A CN112907679 A CN 112907679A
Authority
CN
China
Prior art keywords
camera
robot
target
vision
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110118865.8A
Other languages
English (en)
Inventor
柴永生
崔立民
李佳霖
张夫奕
王守丽
常耀文
李啸
王昌辉
陈义保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yantai University
Original Assignee
Yantai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yantai University filed Critical Yantai University
Priority to CN202110118865.8A priority Critical patent/CN112907679A/zh
Publication of CN112907679A publication Critical patent/CN112907679A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

本发明公开的一种基于视觉的机器人重复定位精度测量方法,所述测量方法包括以下步骤:S1.搭建测量平台;S2.随机采集标靶图像;S3.通过图像数据进行相机标定;S4.写入数点,循环采集靶标图像;S5.对采集的靶标图像进行位姿估计;S6.进行数据处理;S7.输出结果。本发明是一种基于视觉的重复定位精度测量的新方法,包括相机标定、位姿估计、重复定位精度计算三大核心步骤,其测量平台仅需要工业相机、高清镜头、靶标、电脑等设备即可完成重复定位精度的测量,相对于激光跟踪仪高昂的设备价格和软件费用,大大降低了测量成本;且步骤简单,对操作人员、工作环境要求低。

Description

基于视觉的机器人重复定位精度测量方法
技术领域
本发明涉及检测技术领域,用于工业机器人重复定位精度的测量,具体为一种基于视觉的机器人重复定位精度测量方法。
背景技术
重复定位精度指同一机器人,在各条件、参数一致的条件下应用同一程序,重复达到原指令或示教位置所得连续测量结果的一致程度。重复定位精度是工业机器人的一项重要参数,并且重复定位精度对绝对定位精度有直接影响,因此重复定位精度是评估工业机器人优劣的重要指标。随着现代工业生产的迅猛发展,越来越多工业机器人替代人,成为生产加工的主力军。而在机器人的往复运动过程中,为了保证所生产工件的加工精度达标,应使工业机器人具有较高的重复定位精度。
目前工业机器人重复定位精度检测主要采用激光跟踪仪,采用基于球坐标的API激光跟踪仪对工业机器人的重复定位精度进行测量。测量的对象是六轴工业机器人,所有测点均以API激光跟踪仪的测量头为参照点。机器人末端位置以额定速度从某一测点开始,依次经过其他测点,再回到开始时的测点,进行第二次循环,共循环30次。与API激光跟踪仪配套使用的测量软件为 Spatial Analyzer,使用该软件采集数据,将所采集的机器人末端位置坐标原始数据导入计算机程序,计算出工业机器人在额定速度下几个测点的重复定位精度。
上述检测方法存在以下几方面缺点:
1.激光跟踪仪价格昂贵,且需要支付软件服务费,主要面向机器人研发检测,不适合批量检测;
2.激光跟踪仪对操作人员的技术水平要求较高,并且对工作环境的要求非常苛刻;
3.激光跟踪仪测量时需要与目标靶镜配合使用,在某些特殊使用场景中,将目标靶镜固定到待测位置的难度较大。
发明内容
本发明的目的是提供一种基于视觉的机器人重复定位精度测量方法,用于解决现有的测量方法中,激光跟踪仪在应用中存在价格高昂,不适合机器人批量检测;对操作人员和工作环境要求苛刻;测量需配合目标靶镜,某些场景难以实现等问题,而提供一种基于视觉的成本低廉、结构简单、操作方便的机器人重复定位精度间接测量方法。
为了实现本发明的目的,采用以下技术方案:
基于视觉的机器人重复定位精度测量方法,所述测量方法包括以下步骤:
S1.搭建测量平台;
S2.随机采集标靶图像;
S3.通过图像数据进行相机标定;
S4.写入数点,循环采集靶标图像;
S5.对采集的靶标图像进行位姿估计;
S6.进行数据处理;
S7.输出结果。
为了进一步实现本发明的目的,还可以采用以下技术方案:
如上所述的基于视觉的机器人重复定位精度的测量方法,步骤S2中在待测机器人有效空间位置设置靶标,在其活动范围内随机选取至少20个点来采集靶标图像。
如上所述的基于视觉的机器人重复定位精度测量方法,步骤S3中,所述的相机标定用于从靶标图像数据中获取相机内参矩阵的α、β、u0、v0以及畸变系数k1-k5,并输出重投影误差以消除相机畸变,具体过程如下:
A1.从世界坐标系(Xw,Yw,Zw)到摄像机坐标系(Xc,Yc,Zc)的刚体转换,待标定参数R,T,获得外参数;
A2.基于针孔相机模型的透视变换,从摄像机坐标系(Xc,Yc,Zc)到成像平面(Xu,Yu),待标定参数f;
A3.理想的成像平面坐标系(Xu,Yu)与实际成像平面坐标(Xd,Yd)间的转换,待标定参数包括径向畸变K1、K2、K3和切向畸变K4、K5;
A4.实际成像平面坐标(Xd,Yd)与图像坐标(u,v)间的线性转换,待标定参数图像原点(u0,v0)。
如上所述的基于视觉的机器人重复定位精度测量方法,步骤S4中,首先,在机器人示教器内写入至少5个从机器人末端工业相机能拍摄到靶标的点,然后控制机器人按某一额定速度依次到达所写入的点并采集靶标图像数据,并往复循环20次以上。
如上所述的基于视觉的机器人重复定位精度的测量方法,步骤S5中通过位姿估计以获得相机光心在世界坐标系的位姿信息,包括导入标定参数纠正相机畸变、加载和预处理图像、提取角点、亚像素角点识别和存储角点信息、求解旋转和平移向量步骤,所述位姿信息包括旋转向量R和平移向量t参数;计算公式如下:
r1=λA-1h1
r2=λA-1h2
r3=r1×r2
t=λA-1h3
Figure RE-GDA0003046553560000041
t=(tx ty tz)T
Figure RE-GDA0003046553560000042
H=(h1 h2 h3);
A-1(h1 h2 h3)=λ(r1 r2 t);
其中,λ表示任意标量;R表示旋转向量矩阵,r1、r2、r3分别表示R在z、 y、x轴的旋转分量;t表示水平向量矩阵,tx、ty、tz分别表示t在x、y、z轴的位移分量;K表示相机内参矩阵,α、β表示以像素单位表示的焦距,u0、v0表示图像中心的主点;H表示图像单应性矩阵,h1、h2、h3表示H的三个分量。
如上所述的基于视觉的机器人重复定位精度的测量方法,由所述平移向量t 的三个x,y,z位置参数计算获得重复定位精度,计算公式如下:
Figure RE-GDA0003046553560000043
Figure RE-GDA0003046553560000044
Figure RE-GDA0003046553560000045
Figure RE-GDA0003046553560000046
Figure RE-GDA0003046553560000051
其中,Ei表示第i张图像位置误差;E表示平均位置误差;Vxi、Vyi、Vzi分别表示第i张图像在x、y、z三个方向的分量误差;xi、yi、zi分别表示第i张图像在x、y、z三个方向的分量。
如上所述的基于视觉的机器人重复定位精度测量方法,所述测量平台的靶标采用型号为GP070 12*9的棋盘格标定靶;相机选用BASLER acA2500-14gc 型工业相机。
本发明是一种基于视觉的重复定位精度测量的新方法,包括相机标定、位姿估计、重复定位精度计算三大核心步骤;在对循环测量法所拍摄图像进行位姿估计之前,先使用机械臂末端相机随即拍摄二十组靶标图像进行相机标定,纠正相机畸变;循环采集靶标图像的位姿完全是机械臂活动范围内能拍摄到靶标的随机点,机械臂的活动范围没有限制,不会出现激光跟踪仪测量方法所存在的目标靶镜特殊场景固定困难的问题。且为了提高测量精度,还可以添加更多的点以及增加循环次数。
与现有技术相比,本发明的优点在于:
本发明仅需要工业相机、高清镜头、靶标、处理器、机器人示教器等设备,结合原有的机器人控制器即可完成重复定位精度的测量,相对于激光跟踪仪高昂的设备价格,大大降低了测量成本;
相比于激光跟踪仪对操作人员技术水平要求高、对工作环境要求苛刻以及特定场景下目标靶镜存在难以固定到待测位置等问题,此发明操作过程仅需相机标定、位姿估计、重复定位精度计算三步,步骤简单,对操作人员、工作环境要求低。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍。
图1是本发明的流程框图;
图2是本发明所述测量平台的示意图;
图3是本发明所述相机标定的流程框图;
图4是本发明标靶图像循环采集流程图。
附图标记:1-待测机器人,2-工业相机,3-标靶,4-处理器,5-机器人示教器,6-机器人控制器。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
如图1所示,本实施例公开的一种基于视觉的机器人重复定位精度测量方法,该测量方法包括以下步骤:
S1.搭建测量平台;
S2.随机采集标靶图像;
S3.通过图像数据进行相机标定;
S4.写入数点,循环采集靶标图像;
S5.对采集的靶标图像进行位姿估计;
S6.进行数据处理;
S7.输出结果。
工业机器人与末端工业相机通过专门设计的夹具刚性连接,因此相机夹具在机器人运动过程中产生的微小柔性变形可忽略。所以工业相机在空间范围内运动前后的空间位置数据可以间接反映机器人末端执行器原点的运动情况,基于该测量原理具体步骤如下所述。
步骤S1、搭建测量平台,在待测机器人有效空间位置放置靶标一枚;
如图2所示,该测量平台包括处理器4、标靶3、工业相机2、机器人示教器5、机器人控制器6,标靶3设置在待测机器人1的作业有效空间内,工业相机2安装在待测机器人1末端,工业相机2的数据输出端与处理器4的数据输入端电连接;机器人示教器5与机器人控制器6信号连接,机器人控制器6与待测机器人1电连接,通过机器人示教器4为待测机器人1设定工业相机2拍摄到所述标靶3的点数量和位置,机器人控制器6用于控制待测机器人1的动作并循环采集标靶图像。
步骤S2、应用待测机器人在其活动范围内随机选取20个或以上点来采集靶标图像;
步骤S3、执行应用Python语言,基于张正友标定法编写的相机标定自动化程序,相机标定具体步骤如图3,从靶标图像数据中获取相机内参矩阵的α、β、 u0、v0,畸变系数k1-k5并输出重投影误差,目的是为了消除相机畸变,提高测量精度;
步骤S4:在机器人示教器内写入数个可以保证机器人末端相机能拍摄到靶标的点,为了保证重复定位精度测量的准确性,一般写入点数量应大于5;控制机器人按某一额定速度依次到达所写入的点并采集靶标图像数据,此过程往复循环20次以上。所采集的点以及循环次数越多,测量结果越精确,图4是以5 个点、循环20次为例的靶标图像循环采集流程图。
步骤S5、位姿估计是在相机标定所得结果基础上的进一步图像信息提取操作,是求解机器人末端处固连的相机光心的位置信息问题。对某一额定速度下循环测量所采集的各点的靶标数据执行应用Python语言编写的位姿估计自动化程序,程序分为导入标定参数纠正相机畸变、加载和预处理图像、提取角点、亚像素角点识别和存储角点信息、求解旋转和平移向量等步骤;通过位姿估计求解外部参数R(旋转矩阵)和t(平移向量),具体计算公式如下:
r1=λA-1h1
r2=λA-1h2
r3=r1×r2
t=λA-1h3
λ表示任意标量,且:
Figure RE-GDA0003046553560000081
t=(tx ty tz)T
Figure RE-GDA0003046553560000082
H=(h1 h2 h3);
A-1(h1 h2 h3)=λ(r1 r2 t);
其中,R表示旋转向量矩阵,r1、r2、r3分别表示R在z、y、x轴的旋转分量;t表示水平向量矩阵,tx、ty、tz分别表示t在x、y、z轴的位移分量;K 表示相机内参矩阵,α、β表示以像素单位表示的焦距,u0、v0表示图像中心的主点;H表示图像单应性矩阵,h1、h2、h3表示H的三个分量。
通过计算,可得到相机光心在世界坐标系的位姿信息,即平移向量t、旋转向量R,世界坐标系建立在靶标左下角。
步骤S6、空间点的位姿信息包含平移向量t和旋转向量R,共6个参数(x,y,z,a,b,c)。重复定位精度由平移向量中的(x,y,z)3个位置参数得出。
第i张图像位置误差Ei为:
Figure RE-GDA0003046553560000091
平均位置误差E为:
Figure RE-GDA0003046553560000092
其中,Vxi、Vyi、Vzi为别为第i张图像在x、y、z三个方向的分量误差,表示为:
Figure RE-GDA0003046553560000093
xi、yi、zi分别表示第i张图像在x、y、z三个方向的分量。
对上述视觉测量系统的准确性通过实验平台进行验证,选取关节机器人作为视觉测量系统的待测对象;靶标选用高精度棋盘格标定靶,型号为GP070 12*9;相机选用BASLERacA2500-14gc型工业相机。
经搭建测量平台、随机拍摄靶标图像进行相机标定后,选用待测机器人10%额定速度下某一位姿的20张图像求解外部参数R和t,具体公式如步骤S5所述;对所得平移向量t进行步骤S6重复定位误差计算,经计算得到:
平均位置误差E≈0.0077mm;
最大位置误差EiMAX≈0.0127mm;
最小位置误差EiMIN≈0.0014mm;
待测机器人出厂前制造单位给出的激光跟踪仪测量得到的重复定位误差精度值为0.014mm,选取最大测量误差0.0127mm作为本发明的测量结果,重复定位误差精度提升了约(0.014-0.0127)/0.014≈9%。
重复上述过程,选用待测机器人不同额定速度下某位姿图像,经相机标定、位姿估计以及数据处理的自动化程序,经过多次试验验证,所得最大重复定位精度误差相较于制造单位所给出的应用激光跟踪仪测量所得到的重复定位误差精度值减小了8~10%,验证得出本发明所提出的基于视觉测量的工业机器人重复定位精度测量方案具有较好测量精度和效率。
本发明未详尽描述的技术内容均为公知技术。

Claims (7)

1.基于视觉的机器人重复定位精度测量方法,其特征在于,所述测量方法包括以下步骤:
S1.搭建测量平台;
S2.随机采集标靶图像;
S3.通过图像数据进行相机标定;
S4.写入数点,循环采集靶标图像;
S5.对采集的靶标图像进行位姿估计;
S6.进行数据处理;
S7.输出结果。
2.根据权利要求1所述的基于视觉的机器人重复定位精度的测量方法,其特征在于,步骤S2中在待测机器人有效空间位置设置靶标,在其活动范围内随机选取至少20个点来采集靶标图像。
3.根据权利要求1所述的基于视觉的机器人重复定位精度测量方法,其特征在于,步骤S3中,所述的相机标定用于从靶标图像数据中获取相机内参矩阵的α、β、u0、v0以及畸变系数k1-k5,并输出重投影误差以消除相机畸变,具体过程如下:
A1.从世界坐标系(Xw,Yw,Zw)到摄像机坐标系(Xc,Yc,Zc)的刚体转换,待标定参数R,T,获得外参数;
A2.基于针孔相机模型的透视变换,从摄像机坐标系(Xc,Yc,Zc)到成像平面(Xu,Yu),待标定参数f;
A3.理想的成像平面坐标系(Xu,Yu)与实际成像平面坐标(Xd,Yd)间的转换,待标定参数包括径向畸变K1、K2、K3和切向畸变K4、K5;
A4.实际成像平面坐标(Xd,Yd)与图像坐标(u,v)间的线性转换,待标定参数图像原点(u0,v0)。
4.根据权利要求1所述的基于视觉的机器人重复定位精度测量方法,其特征在于,步骤S4中,首先,在机器人示教器内写入至少5个从机器人末端相机能拍摄到靶标的点,然后控制机器人按某一额定速度依次到达所写入的点并采集靶标图像数据,并往复循环20次以上。
5.根据权利要求1所述的基于视觉的机器人重复定位精度的测量方法,其特征在于,步骤S5中通过位姿估计以获得相机光心在世界坐标系的位姿信息,包括导入标定参数纠正相机畸变、加载和预处理图像、提取角点、亚像素角点识别和存储角点信息、求解旋转和平移向量步骤,所述位姿信息包括旋转向量R和平移向量t参数;计算公式如下:
r1=λA-1h1
r2=λA-1h2
r3=r1×r2
t=λA-1h3
Figure FDA0002921303420000021
t=(tx ty tz)T
Figure FDA0002921303420000022
H=(h1 h2 h3);
A-1(h1 h2 h3)=λ(r1 r2 t);
其中,λ表示任意标量;R表示旋转向量矩阵,r1、r2、r3分别表示R在z、y、x轴的旋转分量;t表示水平向量矩阵,tx、ty、tz分别表示t在x、y、z轴的位移分量;K表示相机内参矩阵,α、β表示以像素单位表示的焦距,u0、v0表示图像中心的主点;H表示图像单应性矩阵,h1、h2、h3表示H的三个分量。
6.根据权利要求5所述的基于视觉的机器人重复定位精度的测量方法,其特征在于,由所述平移向量t的三个x,y,z位置参数计算获得重复定位精度,计算公式如下:
Figure RE-FDA0003046553550000031
Figure RE-FDA0003046553550000032
Figure RE-FDA0003046553550000033
Figure RE-FDA0003046553550000034
Figure RE-FDA0003046553550000035
其中,Ei表示第i张图像位置误差;E表示平均位置误差;Vxi、Vyi、Vzi分别表示第i张图像在x、y、z三个方向的分量误差;xi、yi、zi分别表示第i张图像在x、y、z三个方向的分量。
7.根据权利要求1所述的基于视觉的机器人重复定位精度测量方法,其特征在于,所述测量平台的靶标采用型号为GP070 12*9的棋盘格标定靶;相机选用BASLER acA2500-14gc型高清工业相机。
CN202110118865.8A 2021-01-28 2021-01-28 基于视觉的机器人重复定位精度测量方法 Pending CN112907679A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110118865.8A CN112907679A (zh) 2021-01-28 2021-01-28 基于视觉的机器人重复定位精度测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110118865.8A CN112907679A (zh) 2021-01-28 2021-01-28 基于视觉的机器人重复定位精度测量方法

Publications (1)

Publication Number Publication Date
CN112907679A true CN112907679A (zh) 2021-06-04

Family

ID=76119735

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110118865.8A Pending CN112907679A (zh) 2021-01-28 2021-01-28 基于视觉的机器人重复定位精度测量方法

Country Status (1)

Country Link
CN (1) CN112907679A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113365047A (zh) * 2021-08-10 2021-09-07 苏州维嘉科技股份有限公司 相机重复抓靶精度的检验方法、装置及相机系统
CN113503813A (zh) * 2021-06-09 2021-10-15 北京航天控制仪器研究所 六自由度运动平台线位移定位精度测量与误差补偿方法
CN114663689A (zh) * 2022-05-18 2022-06-24 沈阳和研科技有限公司 一种多步进测量方法
CN115179327A (zh) * 2022-09-05 2022-10-14 成都睿芯行科技有限公司 一种移动机器人定位精度测试方法
CN115984388A (zh) * 2023-02-28 2023-04-18 江西省智能产业技术创新研究院 一种空间定位精度评估方法、系统、存储介质及计算机
CN117197241A (zh) * 2023-09-14 2023-12-08 上海智能制造功能平台有限公司 一种基于多目视觉的机器人末端绝对位姿高精度跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150185027A1 (en) * 2014-01-02 2015-07-02 Microsoft Corporation Ground truth estimation for autonomous navigation
CN109623206A (zh) * 2018-12-19 2019-04-16 清华大学 用于机器人管道焊接中优化离线规划的焊枪位姿的方法
CN111360827A (zh) * 2020-03-06 2020-07-03 哈尔滨工业大学 一种视觉伺服切换控制方法及系统
CN111531547A (zh) * 2020-05-26 2020-08-14 华中科技大学 一种基于视觉测量的机器人标定及检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150185027A1 (en) * 2014-01-02 2015-07-02 Microsoft Corporation Ground truth estimation for autonomous navigation
CN109623206A (zh) * 2018-12-19 2019-04-16 清华大学 用于机器人管道焊接中优化离线规划的焊枪位姿的方法
CN111360827A (zh) * 2020-03-06 2020-07-03 哈尔滨工业大学 一种视觉伺服切换控制方法及系统
CN111531547A (zh) * 2020-05-26 2020-08-14 华中科技大学 一种基于视觉测量的机器人标定及检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
张岩等: ""基于非线性局部特征匹配的重复定位精度测量方法"", 《重庆理工大学学报》 *
熊有伦等: "《机器人学 建模、控制与视觉》", 31 March 2018, 华中科技大学出版社 *
荆学东: "《工业机器人技术》", 31 July 2018, 上海科学技术出版社 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113503813A (zh) * 2021-06-09 2021-10-15 北京航天控制仪器研究所 六自由度运动平台线位移定位精度测量与误差补偿方法
CN113365047A (zh) * 2021-08-10 2021-09-07 苏州维嘉科技股份有限公司 相机重复抓靶精度的检验方法、装置及相机系统
CN113365047B (zh) * 2021-08-10 2021-11-02 苏州维嘉科技股份有限公司 相机重复抓靶精度的检验方法、装置及相机系统
CN114663689A (zh) * 2022-05-18 2022-06-24 沈阳和研科技有限公司 一种多步进测量方法
CN114663689B (zh) * 2022-05-18 2022-08-16 沈阳和研科技有限公司 一种多步进测量方法
CN115179327A (zh) * 2022-09-05 2022-10-14 成都睿芯行科技有限公司 一种移动机器人定位精度测试方法
CN115984388A (zh) * 2023-02-28 2023-04-18 江西省智能产业技术创新研究院 一种空间定位精度评估方法、系统、存储介质及计算机
CN117197241A (zh) * 2023-09-14 2023-12-08 上海智能制造功能平台有限公司 一种基于多目视觉的机器人末端绝对位姿高精度跟踪方法
CN117197241B (zh) * 2023-09-14 2024-06-21 上海智能制造功能平台有限公司 一种基于多目视觉的机器人末端绝对位姿高精度跟踪方法

Similar Documents

Publication Publication Date Title
CN112907679A (zh) 基于视觉的机器人重复定位精度测量方法
CN110555889B (zh) 一种基于CALTag和点云信息的深度相机手眼标定方法
CN110421562B (zh) 基于四目立体视觉的机械臂标定系统和标定方法
CN111801198B (zh) 一种手眼标定方法、系统及计算机存储介质
CN110666798B (zh) 一种基于透视变换模型的机器人视觉标定方法
CN109940626B (zh) 一种基于机器人视觉的画眉机器人系统的控制方法
CN109493389B (zh) 一种基于深度学习的相机标定方法及系统
CN114283203B (zh) 一种多相机系统的标定方法及系统
JP3138080B2 (ja) 視覚センサの自動キャリブレーション装置
CN102818524A (zh) 一种基于视觉测量的在线机器人参数校准方法
CN113870366B (zh) 基于位姿传感器的三维扫描系统的标定方法及其标定系统
CN115861445B (zh) 一种基于标定板三维点云的手眼标定方法
CN114714356A (zh) 基于双目视觉的工业机器人手眼标定误差精确检测方法
CN114792345B (zh) 一种基于单目结构光系统的标定方法
CN113334380A (zh) 基于双目视觉的机器人视觉标定方法、控制系统及装置
CN214200141U (zh) 基于视觉的机器人重复定位精度测量系统
CN115187612A (zh) 一种基于机器视觉的平面面积测量方法、装置及系统
CN113658270A (zh) 基于工件孔心的多目视觉标定的方法、装置、介质及系统
CN115200475A (zh) 一种臂载式多视觉传感器快速校正方法
CN116619350A (zh) 一种基于双目视觉测量的机器人误差标定方法
Liang et al. An integrated camera parameters calibration approach for robotic monocular vision guidance
CN113781581A (zh) 基于靶标松姿态约束的景深畸变模型标定方法
CN112935562A (zh) 基于旁轴离线测量的激光精密加工方法
CN111780683A (zh) 便携式扫描系统及其使用方法
CN116061196B (zh) 一种多轴运动平台运动学参数标定方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210604