CN113524204A - 一种坐标系重合校准方法及系统 - Google Patents
一种坐标系重合校准方法及系统 Download PDFInfo
- Publication number
- CN113524204A CN113524204A CN202111079041.0A CN202111079041A CN113524204A CN 113524204 A CN113524204 A CN 113524204A CN 202111079041 A CN202111079041 A CN 202111079041A CN 113524204 A CN113524204 A CN 113524204A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- calibration
- robot
- coordinate
- calibration data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种坐标系重合校准方法及系统,该方法包括:基于机器人的结构获取第一坐标系,基于拍摄的机器人的图像获取第二坐标系;从图像中获取标定点,标定点中的任意三个都能够组成等腰三角形;令机器人等间距平移,基于获得的第一组和第二组标定数据计算第一和第二坐标系的平移矩阵;令机器人旋转,基于获得的第三组和第四组标定数据计算第一和第二坐标系的旋转矩阵;获取某张图像上的一个特征点,计算特征点在第二坐标系上的预估坐标值;测量得到该特征点的实际坐标值;比较预估坐标值和实际坐标值以反向验证平移矩阵和旋转矩阵的准确性。本发明能够减小图像视觉系统的误差,提高相机坐标系和机器人坐标系的重合度,继而提高零件组装精度。
Description
技术领域
本发明涉及坐标系校准技术领域,尤其涉及一种坐标系重合校准方法及系统。
背景技术
在3C电子、汽车等行业中,通常有一些零件需要进行组装装配,为确保装配顺利进行,需要将两个坐标系进行重合,例如相机的坐标系和机器人的坐标系。但是在一些场景中,因为安装和结构的问题,常规的坐标系重合校准方式会出现一定程度的局限性,例如:相机的安装方式不平行或机器人的位置和产品不同心等,会导致组装精确性的下降。为了提高生产时组装零件的精度,在图像算法上需要改进对坐标系的校准精度,减小计算误差,使相机的坐标系和机器人的坐标系重合度达到更高。
在实际生产环境中,由于对某些零件组装需要更高的精度,所以在提升精度的这一环节上,图像的算法起着关键作用,而在图像算法上可提升精度的部分可以包括成像质量、识别算法和坐标系重合精度,前两种精度提升和实际项目有紧密关系,而坐标系重合精度则只与计算的原理和方式有关,传统校准方式往往是:选取机器人坐标系中的一个标定点,控制机器人运动,在运动过程中拍摄得到标定点在图像中的坐标,继而得到机器人坐标系和相机坐标系的映射关系。但是这种方式的误差范围较大,实际生产过程中组装的精度难以保证。
因此,如何提供一种精度更高的坐标系重合校准方法及系统是本领域技术人员亟待解决的一个技术问题。
发明内容
本发明提供一种坐标系重合校准方法及系统,以解决上述技术问题。
为解决上述技术问题,本发明提供一种坐标系重合校准方法,所述方法包括:
步骤1:基于机器人的结构获取第一坐标系,采用2D相机拍摄所述机器人的图像,基于所述图像获取第二坐标系;
步骤2:从所述图像中获取3~5个标定点以及所述标定点在所述第二坐标系中的坐标值,所述标定点中的任意三个都能够组成等腰三角形;
步骤3:令所述机器人等间距平移9次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第一组标定数据;基于所述机器人在所述第一坐标系中的平移距离得到第二组标定数据;基于所述第一组标定数据和第二组标定数据计算所述第一坐标系和第二坐标系的平移矩阵;
步骤4:令所述机器人旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第三组标定数据;基于所述机器人在所述第一坐标系中的旋转角度得到第四组标定数据;基于所述第三组标定数据和第四组标定数据计算所述第一坐标系和第二坐标系的旋转矩阵;
步骤5:获取某张图像上的一个特征点,令所述机器人旋转一次,基于所述平移矩阵和旋转矩阵以及所述特征点在第一坐标系上的坐标值,计算得到所述特征点在第二坐标系上的预估坐标值;测量得到所述特征点在所述第二坐标系上的实际坐标值;比较所述预估坐标值和实际坐标值的第一差值,基于所述第一差值反向验证所述平移矩阵和旋转矩阵的准确性。
较佳地,所述标定点为标定板上的点,所述标定板固定安装于所述机器人上。
较佳地,每次令所述机器人进行平移或旋转之后,通过所述等腰三角形的结构特点对所述标定点在所述第二坐标系中的坐标值进行修正。
较佳地,步骤5之后还包括步骤6:若所述第一差值大于第一阈值,则按固定步距逐步修改所述特征点在第二坐标系上的预估坐标值,继而调整所述平移矩阵和旋转矩阵,重复所述第一差值的计算过程,直至计算得到的第一差值小于所述第一阈值。
较佳地,步骤4中还包括数据验证步骤,包括:得到所述第三组标定数据和第四组标定数据后,令所述机器人沿直线移动一次,移动方向为从一个标定点到另一个标定点,移动距离为两个所述标定点之间的距离;然后,令所述机器人再旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第五组标定数据;依据所述移动距离和第五组标定数据验证前述标定数据的准确性。
较佳地,依据移动距离和第五组标定数据验证前述标定数据的准确性的方法包括:将第三组标定数据进行拟合得到第一旋转中心,将第五组标定数据进行拟合得到第二旋转中心;计算第一旋转中心和第二旋转中心的距离与移动距离之间的第二差值,比较所述第二差值与第二阈值的关系,验证前述标定数据的准确性。
本发明还提供一种坐标系重合校准系统,包括:
坐标系获取单元:用于基于机器人的结构获取第一坐标系,采用2D相机拍摄所述机器人的图像,基于所述图像获取第二坐标系;
标定点获取单元:用于从所述图像中获取3~5个标定点以及所述标定点在所述第二坐标系中的坐标值,所述标定点中的任意三个都能够组成等腰三角形;
平移矩阵获取单元:用于令所述机器人等间距平移9次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第一组标定数据;基于所述机器人在所述第一坐标系中的平移距离得到第二组标定数据;基于所述第一组标定数据和第二组标定数据计算所述第一坐标系和第二坐标系的平移矩阵;
旋转矩阵获取单元:令所述机器人旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第三组标定数据;基于所述机器人在所述第一坐标系中的旋转角度得到第四组标定数据;基于所述第三组标定数据和第四组标定数据计算所述第一坐标系和第二坐标系的旋转矩阵;
反向验证单元:用于获取某张图像上的一个特征点,令所述机器人旋转一次,基于所述平移矩阵和旋转矩阵以及所述特征点在第一坐标系上的坐标值,计算得到所述特征点在第二坐标系上的预估坐标值;测量得到所述特征点在所述第二坐标系上的实际坐标值;比较所述预估坐标值和实际坐标值的第一差值,基于所述第一差值反向验证所述平移矩阵和旋转矩阵的准确性。
较佳地,所述系统还包括修正单元:用于在每次令所述机器人进行平移或旋转之后,通过所述等腰三角形的结构特点对所述标定点在所述第二坐标系中的坐标值进行修正。
较佳地,所述反向验证单元还用于:若所述第一差值大于第一阈值,则按固定步距逐步修改所述特征点在第二坐标系上的预估坐标值,继而调整所述平移矩阵和旋转矩阵,重复所述第一差值的计算过程,直至计算得到的第一差值小于所述第一阈值。
较佳地,所述旋转矩阵获取单元还用于:得到所述第三组标定数据和第四组标定数据后,令所述机器人沿直线移动一次,移动方向为从一个标定点到另一个标定点,移动距离为两个所述标定点之间的距离;然后,令所述机器人再旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第五组标定数据;依据所述移动距离和第五组标定数据验证前述标定数据的准确性。
与现有技术相比,本发明提供的坐标系重合校准方法及系统具有如下优点:相较于现有技术中的利用单个标定点采用单流程的校准方式,本发明能够减小图像视觉系统的误差,提高机器人坐标系和相机坐标系的重合精度,对小视野校准,得到更精确的坐标系转换关系。
附图说明
图1为本发明一具体实施方式中坐标系重合校准方法的流程图;
图2为本发明一具体实施方式中坐标系重合校准系统的模块图。
具体实施方式
为了更详尽的表述上述发明的技术方案,以下列举出具体的实施例来证明技术效果;需要强调的是,这些实施例用于说明本发明而不限于限制本发明的范围。
本发明提供的坐标系重合校准方法,请重点参考图1,所述方法包括:
步骤1:基于机器人的结构获取第一坐标系,采用2D相机拍摄所述机器人的图像,基于所述图像获取第二坐标系,本实施例中,所述第一坐标系为三维坐标系,第二坐标系为二维坐标系。
步骤2:从所述图像中获取3~5个标定点以及所述标定点在所述第二坐标系中的坐标值,所述标定点中的任意三个都能够组成等腰三角形;具体地,所述标定点可以是图像中抓取到的所述机器人上的清晰的点;若图像中无法抓取符合要求的点,标定点也可以是定制的标定板上的点,所述标定板固定安装于所述机器人上,使标定点与所述机器人的相对位置关系固定即可。
步骤3:令所述机器人等间距平移9次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值(即测量得到的平移后的标定点在第二坐标系中的坐标值),得到第一组标定数据;基于所述机器人在所述第一坐标系中的平移距离得到平移后的标定点在第一坐标系中的坐标值,记为第二组标定数据;基于所述第一组标定数据和第二组标定数据计算所述第一坐标系和第二坐标系的平移矩阵,具体地,可通过现有技术中的变换矩阵的方式计算平移矩阵,具体方式此处不予限定。
步骤4:令所述机器人旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第三组标定数据;基于所述机器人在所述第一坐标系中的旋转角度得到第四组标定数据;基于所述第三组标定数据和第四组标定数据计算所述第一坐标系和第二坐标系的旋转矩阵,具体地,也可通过现有技术中的变换矩阵的方式计算旋转矩阵,具体方式此处不予限定。
步骤5:在视野内获取某张图像上的一个特征点,令所述机器人旋转一次,基于所述平移矩阵和旋转矩阵以及所述特征点在第一坐标系上的坐标值,计算得到所述特征点在第二坐标系上的预估坐标值;测量得到所述特征点在所述第二坐标系上的实际坐标值;比较所述预估坐标值和实际坐标值的第一差值,基于所述第一差值反向验证所述平移矩阵和旋转矩阵的准确性。本申请中通过增加步骤5的反向验证方法,能检验计算得到的平移矩阵和旋转矩阵的准确性,从而减小图像视觉系统的误差,提高机器人坐标系和相机坐标系的重合精度。
较佳地,步骤5之后还包括步骤6:若所述第一差值大于第一阈值,则按固定步距逐步修改所述特征点在第二坐标系上的预估坐标值,继而调整所述平移矩阵和旋转矩阵,重复所述第一差值的计算过程,直至计算得到的第一差值小于所述第一阈值。本申请增加了平移矩阵和旋转矩阵的自动微调功能,进一步提高了坐标系重合校准的精度。
较佳地,每次令所述机器人进行平移或旋转之后,通过所述等腰三角形的结构特点对所述标定点在所述第二坐标系中的坐标值进行修正。换句话说,本申请利用各个标定点之间的位置关系对标定点在第二坐标系中的坐标值进行修正,例如,初始状态中,三个标定点组成的三角形的三条边为L1、L2和L3,且L1=L2;在平移一次后,图像中三个标定点组成的三角形的三条边为L1’、L2’和L3’,但L1’≠L2’,则说明平移后,三个标定点的坐标值出现了误差,此时可根据等腰三角形的结构特点,调节平移后的三个标定点的坐标值进行微调,使各个标定点的位置信息更加精确,确保为后续计算提供更加准确的数据。因此,本申请采用等腰三角形的设定便于修正和检验,大大减小了后续的计算。
较佳地,步骤4中还包括数据验证步骤,包括:得到所述第三组标定数据和第四组标定数据后,令所述机器人沿直线移动一次,移动方向为从一个标定点到另一个标定点,移动距离为两个所述标定点之间的距离;然后,令所述机器人再旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第五组标定数据;依据所述移动距离和第五组标定数据验证前述标定数据的准确性,具体方法包括:将第三组标定数据进行拟合(例如传统的圆拟合算法)得到第一旋转中心,将第五组标定数据进行拟合得到第二旋转中心;计算第一旋转中心和第二旋转中心的距离与移动距离之间的第二差值,比较所述第二差值与第二阈值的关系,验证前述标定数据(包括第一组至第四组标定数据)的准确性。例如,第一旋转中心与第二旋转中心之间的距离为M;得到第三组和第四组标定数据后,将机器人进行移动,移动距离为K,理论上两个旋转中心之间的距离M应该约等于机器人的移动距离K,即,第二差值应接近于0,若第二差值的数值较大,则需进行提示,并返回到步骤3和步骤4中重新确认各组标定数据的准确性。本申请通过增加数据验证步骤,能够对小视野校准,进一步确保数据的准确性,提高坐标系重合的准确度。
本发明还提供一种坐标系重合校准系统100,请重点参考图2,并结合图1,包括:
坐标系获取单元110,用于执行步骤1,用于基于机器人的结构获取第一坐标系,采用2D相机拍摄所述机器人的图像,基于所述图像获取第二坐标系;
标定点获取单元120,用于执行步骤2,用于从所述图像中获取3~5个标定点以及所述标定点在所述第二坐标系中的坐标值,所述标定点中的任意三个都能够组成等腰三角形;
平移矩阵获取单元130,用于执行步骤3,用于令所述机器人等间距平移9次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第一组标定数据;基于所述机器人在所述第一坐标系中的平移距离得到第二组标定数据;基于所述第一组标定数据和第二组标定数据计算所述第一坐标系和第二坐标系的平移矩阵;
旋转矩阵获取单元140,用于执行步骤4,用于令所述机器人旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第三组标定数据;基于所述机器人在所述第一坐标系中的旋转角度得到第四组标定数据;基于所述第三组标定数据和第四组标定数据计算所述第一坐标系和第二坐标系的旋转矩阵;较佳地,所述旋转矩阵获取单元140还用于:得到所述第三组标定数据和第四组标定数据后,令所述机器人沿直线移动一次,移动方向为从一个标定点到另一个标定点,移动距离为两个所述标定点之间的距离;然后,令所述机器人再旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第五组标定数据;依据所述移动距离和第五组标定数据验证前述标定数据的准确性。
反向验证单元150,用于执行步骤5,用于获取某张图像上的一个特征点,令所述机器人旋转一次,基于所述平移矩阵和旋转矩阵以及所述特征点在第一坐标系上的坐标值,计算得到所述特征点在第二坐标系上的预估坐标值;测量得到所述特征点在所述第二坐标系上的实际坐标值;比较所述预估坐标值和实际坐标值的第一差值,基于所述第一差值反向验证所述平移矩阵和旋转矩阵的准确性。较佳地,所述反向验证单元150还用于:若所述第一差值大于第一阈值,则按固定步距逐步修改所述特征点在第二坐标系上的预估坐标值,继而调整所述平移矩阵和旋转矩阵,重复所述第一差值的计算过程,直至计算得到的第一差值小于所述第一阈值。
较佳地,所述系统还包括修正单元160,用于在每次令所述机器人进行平移或旋转之后,通过所述等腰三角形的结构特点对所述标定点在所述第二坐标系中的坐标值进行修正。
采用上述坐标重合校准系统,能够减小误差,得到更加准确的坐标系转换关系。
综上所述,本发明提供的坐标系重合校准方法及系统,所述方法包括:步骤1:基于机器人的结构获取第一坐标系,采用2D相机拍摄所述机器人的图像,基于所述图像获取第二坐标系;步骤2:从所述图像中获取3~5个标定点以及所述标定点在所述第二坐标系中的坐标值,所述标定点中的任意三个都能够组成等腰三角形;步骤3:令所述机器人等间距平移9次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第一组标定数据;基于所述机器人在所述第一坐标系中的平移距离得到第二组标定数据;基于所述第一组标定数据和第二组标定数据计算所述第一坐标系和第二坐标系的平移矩阵;步骤4:令所述机器人旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第三组标定数据;基于所述机器人在所述第一坐标系中的旋转角度得到第四组标定数据;基于所述第三组标定数据和第四组标定数据计算所述第一坐标系和第二坐标系的旋转矩阵;步骤5:获取某张图像上的一个特征点,令所述机器人旋转一次,基于所述平移矩阵和旋转矩阵以及所述特征点在第一坐标系上的坐标值,计算得到所述特征点在第二坐标系上的预估坐标值;测量得到所述特征点在所述第二坐标系上的实际坐标值;比较所述预估坐标值和实际坐标值的第一差值,基于所述第一差值反向验证所述平移矩阵和旋转矩阵的准确性。本申请能够减小图像视觉系统的误差,提高相机坐标系和机器人坐标系的重合度,继而提高零件组装精度。
显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。
Claims (10)
1.一种坐标系重合校准方法,其特征在于,所述方法包括:
步骤1:基于机器人的结构获取第一坐标系,采用2D相机拍摄所述机器人的图像,基于所述图像获取第二坐标系;
步骤2:从所述图像中获取3~5个标定点以及所述标定点在所述第二坐标系中的坐标值,所述标定点中的任意三个都能够组成等腰三角形;
步骤3:令所述机器人等间距平移9次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第一组标定数据;基于所述机器人在所述第一坐标系中的平移距离得到第二组标定数据;基于所述第一组标定数据和第二组标定数据计算所述第一坐标系和第二坐标系的平移矩阵;
步骤4:令所述机器人旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第三组标定数据;基于所述机器人在所述第一坐标系中的旋转角度得到第四组标定数据;基于所述第三组标定数据和第四组标定数据计算所述第一坐标系和第二坐标系的旋转矩阵;
步骤5:获取某张图像上的一个特征点,令所述机器人旋转一次,基于所述平移矩阵和旋转矩阵以及所述特征点在第一坐标系上的坐标值,计算得到所述特征点在第二坐标系上的预估坐标值;测量得到所述特征点在所述第二坐标系上的实际坐标值;比较所述预估坐标值和实际坐标值的第一差值,基于所述第一差值反向验证所述平移矩阵和旋转矩阵的准确性。
2.如权利要求1所述的坐标系重合校准方法,其特征在于,所述标定点为标定板上的点,所述标定板固定安装于所述机器人上。
3.如权利要求1所述的坐标系重合校准方法,其特征在于,每次令所述机器人进行平移或旋转之后,通过所述等腰三角形的结构特点对所述标定点在所述第二坐标系中的坐标值进行修正。
4.如权利要求1所述的坐标系重合校准方法,其特征在于,步骤5之后还包括步骤6:若所述第一差值大于第一阈值,则按固定步距逐步修改所述特征点在第二坐标系上的预估坐标值,继而调整所述平移矩阵和旋转矩阵,重复所述第一差值的计算过程,直至计算得到的第一差值小于所述第一阈值。
5.如权利要求1所述的坐标系重合校准方法,其特征在于,步骤4中还包括数据验证步骤,包括:得到所述第三组标定数据和第四组标定数据后,令所述机器人沿直线移动一次,移动方向为从一个标定点到另一个标定点,移动距离为两个所述标定点之间的距离;然后,令所述机器人再旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第五组标定数据;依据所述移动距离和第五组标定数据验证前述标定数据的准确性。
6.如权利要求5所述的坐标系重合校准方法,其特征在于,依据移动距离和第五组标定数据验证前述标定数据的准确性的方法包括:将第三组标定数据进行拟合得到第一旋转中心,将第五组标定数据进行拟合得到第二旋转中心;计算第一旋转中心和第二旋转中心的距离与移动距离之间的第二差值,比较所述第二差值与第二阈值的关系,验证前述标定数据的准确性。
7.一种坐标系重合校准系统,其特征在于,包括:
坐标系获取单元:用于基于机器人的结构获取第一坐标系,采用2D相机拍摄所述机器人的图像,基于所述图像获取第二坐标系;
标定点获取单元:用于从所述图像中获取3~5个标定点以及所述标定点在所述第二坐标系中的坐标值,所述标定点中的任意三个都能够组成等腰三角形;
平移矩阵获取单元:用于令所述机器人等间距平移9次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第一组标定数据;基于所述机器人在所述第一坐标系中的平移距离得到第二组标定数据;基于所述第一组标定数据和第二组标定数据计算所述第一坐标系和第二坐标系的平移矩阵;
旋转矩阵获取单元:令所述机器人旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第三组标定数据;基于所述机器人在所述第一坐标系中的旋转角度得到第四组标定数据;基于所述第三组标定数据和第四组标定数据计算所述第一坐标系和第二坐标系的旋转矩阵;
反向验证单元:用于获取某张图像上的一个特征点,令所述机器人旋转一次,基于所述平移矩阵和旋转矩阵以及所述特征点在第一坐标系上的坐标值,计算得到所述特征点在第二坐标系上的预估坐标值;测量得到所述特征点在所述第二坐标系上的实际坐标值;比较所述预估坐标值和实际坐标值的第一差值,基于所述第一差值反向验证所述平移矩阵和旋转矩阵的准确性。
8.如权利要求7所述的坐标系重合校准系统,其特征在于,还包括修正单元:用于在每次令所述机器人进行平移或旋转之后,通过所述等腰三角形的结构特点对所述标定点在所述第二坐标系中的坐标值进行修正。
9.如权利要求7所述的坐标系重合校准系统,其特征在于,所述反向验证单元还用于:若所述第一差值大于第一阈值,则按固定步距逐步修改所述特征点在第二坐标系上的预估坐标值,继而调整所述平移矩阵和旋转矩阵,重复所述第一差值的计算过程,直至计算得到的第一差值小于所述第一阈值。
10.如权利要求7所述的坐标系重合校准系统,其特征在于,所述旋转矩阵获取单元还用于:得到所述第三组标定数据和第四组标定数据后,令所述机器人沿直线移动一次,移动方向为从一个标定点到另一个标定点,移动距离为两个所述标定点之间的距离;然后,令所述机器人再旋转3~5次,每次拍摄得到一张图像,基于所述标定点在每张所述图像上的坐标值,得到第五组标定数据;依据所述移动距离和第五组标定数据验证前述标定数据的准确性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111079041.0A CN113524204B (zh) | 2021-09-15 | 2021-09-15 | 一种坐标系重合校准方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111079041.0A CN113524204B (zh) | 2021-09-15 | 2021-09-15 | 一种坐标系重合校准方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113524204A true CN113524204A (zh) | 2021-10-22 |
CN113524204B CN113524204B (zh) | 2021-12-17 |
Family
ID=78123114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111079041.0A Active CN113524204B (zh) | 2021-09-15 | 2021-09-15 | 一种坐标系重合校准方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113524204B (zh) |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116888A (zh) * | 2013-02-01 | 2013-05-22 | 云南大学 | 利用平面三角形求解摄像机的内参数 |
CN103440639A (zh) * | 2013-07-15 | 2013-12-11 | 江南大学 | 基于正三角形模板的摄像机内参数标定方法 |
CN103558850A (zh) * | 2013-07-26 | 2014-02-05 | 无锡信捷电气股份有限公司 | 一种激光视觉引导的焊接机器人全自动运动自标定方法 |
CN104359464A (zh) * | 2014-11-02 | 2015-02-18 | 天津理工大学 | 基于立体视觉的移动机器人定位方法 |
CN104613899A (zh) * | 2015-02-09 | 2015-05-13 | 淮阴工学院 | 一种全自动的结构光手眼三维测量系统标定方法 |
CN104677340A (zh) * | 2013-11-30 | 2015-06-03 | 中国科学院沈阳自动化研究所 | 一种基于点特征的单目视觉位姿测量方法 |
CN105014667A (zh) * | 2015-08-06 | 2015-11-04 | 浙江大学 | 一种基于像素空间优化的相机与机器人相对位姿标定方法 |
CN109990698A (zh) * | 2017-12-29 | 2019-07-09 | 广州智信科技有限公司 | 快速标定装置及快速标定方法 |
CN110000790A (zh) * | 2019-04-19 | 2019-07-12 | 深圳科瑞技术股份有限公司 | 一种SCARA机器人eye-to-hand手眼系统的标定方法 |
CN110238849A (zh) * | 2019-06-13 | 2019-09-17 | 深圳市汇川技术股份有限公司 | 机器人手眼标定方法及装置 |
CN110625600A (zh) * | 2019-10-29 | 2019-12-31 | 华中科技大学 | 一种机器人末端工件坐标系标定方法 |
CN110640745A (zh) * | 2019-11-01 | 2020-01-03 | 苏州大学 | 基于视觉的机器人自动标定方法、设备和存储介质 |
CN111768453A (zh) * | 2020-07-17 | 2020-10-13 | 哈尔滨工业大学 | 航天器集群地面模拟系统中导航定位装置与方法 |
CN112318506A (zh) * | 2020-10-28 | 2021-02-05 | 上海交通大学医学院附属第九人民医院 | 机械臂自动标定方法、装置、设备、机械臂和介质 |
CN113103238A (zh) * | 2021-04-26 | 2021-07-13 | 福建(泉州)哈工大工程技术研究院 | 一种基于数据优化的手眼标定方法 |
CN113296395A (zh) * | 2021-05-14 | 2021-08-24 | 珞石(山东)智能科技有限公司 | 一种特定平面内的机器人手眼标定方法 |
-
2021
- 2021-09-15 CN CN202111079041.0A patent/CN113524204B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103116888A (zh) * | 2013-02-01 | 2013-05-22 | 云南大学 | 利用平面三角形求解摄像机的内参数 |
CN103440639A (zh) * | 2013-07-15 | 2013-12-11 | 江南大学 | 基于正三角形模板的摄像机内参数标定方法 |
CN103558850A (zh) * | 2013-07-26 | 2014-02-05 | 无锡信捷电气股份有限公司 | 一种激光视觉引导的焊接机器人全自动运动自标定方法 |
CN104677340A (zh) * | 2013-11-30 | 2015-06-03 | 中国科学院沈阳自动化研究所 | 一种基于点特征的单目视觉位姿测量方法 |
CN104359464A (zh) * | 2014-11-02 | 2015-02-18 | 天津理工大学 | 基于立体视觉的移动机器人定位方法 |
CN104613899A (zh) * | 2015-02-09 | 2015-05-13 | 淮阴工学院 | 一种全自动的结构光手眼三维测量系统标定方法 |
CN105014667A (zh) * | 2015-08-06 | 2015-11-04 | 浙江大学 | 一种基于像素空间优化的相机与机器人相对位姿标定方法 |
CN109990698A (zh) * | 2017-12-29 | 2019-07-09 | 广州智信科技有限公司 | 快速标定装置及快速标定方法 |
CN110000790A (zh) * | 2019-04-19 | 2019-07-12 | 深圳科瑞技术股份有限公司 | 一种SCARA机器人eye-to-hand手眼系统的标定方法 |
CN110238849A (zh) * | 2019-06-13 | 2019-09-17 | 深圳市汇川技术股份有限公司 | 机器人手眼标定方法及装置 |
CN110625600A (zh) * | 2019-10-29 | 2019-12-31 | 华中科技大学 | 一种机器人末端工件坐标系标定方法 |
CN110640745A (zh) * | 2019-11-01 | 2020-01-03 | 苏州大学 | 基于视觉的机器人自动标定方法、设备和存储介质 |
CN111768453A (zh) * | 2020-07-17 | 2020-10-13 | 哈尔滨工业大学 | 航天器集群地面模拟系统中导航定位装置与方法 |
CN112318506A (zh) * | 2020-10-28 | 2021-02-05 | 上海交通大学医学院附属第九人民医院 | 机械臂自动标定方法、装置、设备、机械臂和介质 |
CN113103238A (zh) * | 2021-04-26 | 2021-07-13 | 福建(泉州)哈工大工程技术研究院 | 一种基于数据优化的手眼标定方法 |
CN113296395A (zh) * | 2021-05-14 | 2021-08-24 | 珞石(山东)智能科技有限公司 | 一种特定平面内的机器人手眼标定方法 |
Non-Patent Citations (1)
Title |
---|
谢小鹏等: ""一种固定视点的机器人手眼关系标定方法"", 《中国测试》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113524204B (zh) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8368761B2 (en) | Image correction method for camera system | |
US9858684B2 (en) | Image processing method and apparatus for calibrating depth of depth sensor | |
US8452568B2 (en) | Method for calibrating cameras installed on vehicle | |
CN112017205B (zh) | 一种激光雷达和相机传感器空间位置自动标定方法及系统 | |
CN108871373B (zh) | 一种基于俯仰滚转台和非线性优化的星敏感器标定方法 | |
KR20200083301A (ko) | 이동하는 오브젝트 센서의 정렬을 교정하기 위한 방법 | |
CN113409396B (zh) | 一种adas单目相机的标定方法 | |
US8077080B2 (en) | Calibration to improve weather radar positioning determination | |
CN114993266B (zh) | 定位装置及定位系统 | |
KR101597163B1 (ko) | 스테레오 카메라 교정 방법 및 장치 | |
US20180295347A1 (en) | Apparatus for measuring three-dimensional position of object | |
CN113524204B (zh) | 一种坐标系重合校准方法及系统 | |
CN112621378B (zh) | 用于标定机床的结构性参数的方法、装置及机床控制系统 | |
CN110674888B (zh) | 一种基于数据融合的头部姿态识别方法 | |
Bräuer-Burchardt | A simple new method for precise lens distortion correction of low cost camera systems | |
CN113256734B (zh) | 一种车载感知传感器标定方法、系统及电子设备 | |
Dubbelman et al. | Bias compensation in visual odometry | |
CN112971984B (zh) | 一种基于一体化手术机器人的坐标配准方法 | |
CN112200876B (zh) | 一种5d四轮定位标定系统的标定方法 | |
US8219348B2 (en) | Method for calibrating and/or correcting a display device having a needle, the needle being able to move in rotation about an axis of rotation | |
JP4285618B2 (ja) | ステレオカメラの自己診断装置 | |
WO2021145280A1 (ja) | ロボットシステム | |
JP7264974B2 (ja) | 絶対距離測定に基づくマルチラテレーションシステム及びこれを用いたマルチラテレーション方法 | |
JP2021009113A (ja) | 計測用具、校正装置、およびプログラム | |
CN115023626A (zh) | 用于校准车辆或机器人的摄像头和/或激光雷达传感器的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |