WO2020051748A1 - 标定方法及标定装置 - Google Patents

标定方法及标定装置 Download PDF

Info

Publication number
WO2020051748A1
WO2020051748A1 PCT/CN2018/104894 CN2018104894W WO2020051748A1 WO 2020051748 A1 WO2020051748 A1 WO 2020051748A1 CN 2018104894 W CN2018104894 W CN 2018104894W WO 2020051748 A1 WO2020051748 A1 WO 2020051748A1
Authority
WO
WIPO (PCT)
Prior art keywords
calibration
target
position parameter
industrial robot
calibration device
Prior art date
Application number
PCT/CN2018/104894
Other languages
English (en)
French (fr)
Inventor
阳光
Original Assignee
深圳配天智能技术研究院有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳配天智能技术研究院有限公司 filed Critical 深圳配天智能技术研究院有限公司
Priority to PCT/CN2018/104894 priority Critical patent/WO2020051748A1/zh
Priority to CN201880087340.9A priority patent/CN111683797B/zh
Publication of WO2020051748A1 publication Critical patent/WO2020051748A1/zh

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant

Definitions

  • the present application relates to the field of position calibration, in particular to a calibration method and a calibration device.
  • Robot tool coordinate system calibration is an identification process that calculates the position and attitude of the tool end relative to the robot coordinate system.
  • the pose is an unknown and determined attitude.
  • the calibration of the workpiece coordinate system is a process of calculating the attitude recognition of the workpiece coordinate system relative to the base coordinate system.
  • the repeated positioning accuracy of industrial robots is very high, but its absolute positioning accuracy is several millimeters or even tens of millimeters. This is because during the manufacturing and assembly process of the robot body, there is inevitably an error in the length of the rod of the robot and the mounting angle of the motor shaft. These errors cause a certain deviation between the real robot kinematic model parameters and the theoretical model parameters stored in the robot controller.
  • the controller uses the ideal model parameters to calculate the inverse kinematics and control the actual robot motion, the real pose of the robot in the absolute coordinate system is definitely not the desired pose in the software. Therefore, each high-quality robot must be calibrated for kinematic parameters when it leaves the factory.
  • the main calibration methods are based on independent laser tracker or line tracking encoder equipment to obtain the kinematic parameters of the real robot product to be calibrated.
  • it is usually necessary to unify the control coordinates of the two robots into a world coordinate system.
  • the accuracy is not high, and the repeat accuracy can only be guaranteed at the teaching position.
  • Precision requirements for guided complex tasks In order to provide a more convenient and effective way for the coordination between robots, a traditional robot system is proposed, but in the traditional robot system, the robot needs to be installed in a fixed position in advance. Once the robot moves, the original calibration result will be It is no longer applicable and needs to be calibrated again with precision instruments, and because precision instruments are expensive and time consuming.
  • the technical problem that this application mainly solves is to provide a calibration method and a calibration device. By directly establishing a constraint relationship between two positioning targets, the coordinates between the two targets can ensure calibration accuracy in a cooperative space.
  • a technical solution adopted in the present application is to provide a calibration method, where the calibration method includes:
  • the calibration of the first target and the second target is completed according to the constraint relationship.
  • the calibration device includes a light emitting unit, a photosensitive unit, and a processor
  • the light emitting unit and the light sensing unit are configured to obtain a first position parameter of the calibration device in a first target coordinate system; obtain a second position parameter of the calibration device in a second target coordinate system;
  • the processor is configured to establish a constraint relationship between the first position parameter and the second position parameter; and complete calibration of the first target and the second target according to the constraint relationship.
  • the beneficial effects of the present application are: Different from the prior art, the present application obtains the first positional relationship between the positioning device and the first target and the second positional relationship between the positioning device and the second target, and then A constraint relationship is established between them, and the first target and the second target are positioned by the constraint relationship. Through the constraint relationship between the two targets, the coordinates between the two targets ensure the calibration accuracy in the cooperative space, thereby improving the calibration efficiency.
  • FIG. 1 is a schematic flowchart of an embodiment of a calibration method of the present application
  • FIG. 2 is a schematic structural diagram of an embodiment of a calibration device of the present application.
  • FIG. 1 is a schematic flowchart of an embodiment of a calibration method of the present application.
  • the calibration method of this embodiment includes:
  • the first target is a first industrial robot
  • the second target is a second industrial robot.
  • a calibration device is installed on the first industrial robot, and a first position parameter of the calibration device in a first robot coordinate system is obtained.
  • the first industrial robot can obtain the position parameters of the second industrial robot in the calibration area, and then use the calibration device's position parameters in the first robot coordinate system and the second A position parameter of the industrial robot in the calibration area is obtained to obtain a first position parameter of the calibration device in a first target coordinate system.
  • the first position parameter of the calibration device in the first target coordinate system is (x 1 -x, y 1 -y, z 1 ).
  • the calibration device is directly mounted on the forearm of the first industrial robot.
  • the front-end tool can also be set on the industrial robot, the front-end tool can be set on the industrial robot, and then the calibration device can be directly installed on the front-end tool; or the calibration device can be installed on the front-end tool through the connector, as long as It can be applied to an industrial robot, and is not specifically limited here.
  • the first target is a vision system and the second target is an industrial robot.
  • the vision system positions the calibration device, and then obtains a first position parameter of the calibration device in the coordinate system of the vision system.
  • the vision system obtains the image feature coordinates of the calibration device according to the light emitting unit on the calibration device, and then further obtains the first position parameter of the calibration device in the coordinate system of the vision system.
  • the image feature coordinates of the calibration device obtained by the vision system are (u, v)
  • the position coordinates of the industrial robot in the calibration area of the calibration device are (x, y).
  • the image feature coordinates are (f (x), f (y)), then the first position parameter of the calibration device in the first target coordinate system is (u + f (x), v + f (y)).
  • the first target is the first industrial robot and the second target is the second industrial robot.
  • the calibration device is acquired in the coordinate system of the second industrial robot.
  • the second position parameter when the front end of the second industrial robot enters the calibration area of the calibration device, the position coordinates of the second robot relative to the calibration device can be obtained, and then the calibration is obtained according to the coordinates of the second robot relative to its own base.
  • the second position parameter of the device in the second industrial robot coordinate system when the front end of the second industrial robot enters the calibration area of the calibration device, the position coordinates of the second robot relative to the calibration device can be obtained, and then the calibration is obtained according to the coordinates of the second robot relative to its own base.
  • the second position parameter may be a position coordinate (x 2 , y 2 , z 2 ) of the second industrial robot in a base coordinate system thereof, or a position coordinate of the second industrial robot with respect to the calibration device, or Is a position coordinate of the calibration device relative to the position coordinate (x 2 , y 2 , z 2 ) of the second industrial robot in its base coordinate system, as long as it is a position coordinate that can establish a constraint relationship with the first position parameter It is not specifically limited here.
  • the first target is a vision system and the second target is an industrial robot.
  • a second position parameter of the calibration device in the industrial robot coordinate system is obtained.
  • the second position parameter in the coordinate system.
  • the second position parameter may be a position coordinate (x 2 , y 2 , z 2 ) of the industrial robot in its base coordinate system, or a position coordinate of the industrial robot relative to the calibration device, or a relative position of the calibration device.
  • a position coordinate of the position coordinate (x 2 , y 2 , z 2 ) of the industrial robot in its base coordinate system may be a position coordinate that can establish a constraint relationship with the first position parameter, and is not specifically limited herein. .
  • parameter conversion is performed on the first position parameter and the second position parameter to establish a constraint relationship.
  • the first position parameter and the second position parameter can be converted to each other.
  • the constraint relationship is a transformation relationship between the first position parameter and the second position parameter, that is, the first position parameter can be obtained by adding, subtracting, or other calculation methods between the coordinate points to obtain the second
  • the position parameter may be obtained as long as the second position parameter can be obtained through the first position parameter, and the specific calculation method is not specifically limited herein.
  • the first target is a vision system and the second target is an industrial robot.
  • the first position parameter and the second position parameter are subjected to parameter transformation to establish a constraint relationship.
  • the specific establishment manner of the constraint relationship is the same as the establishment manner of the constraint relationship of the industrial robot in the foregoing embodiment, and details are not described herein.
  • a first target is a first industrial robot and a second target is a second industrial robot.
  • position calibration of the first industrial robot and the second industrial robot is completed.
  • a constraint relationship is established, and the constraint relationship is created and stored in a table.
  • the constraint relationship between the position parameters of the first industrial robot and the second industrial robot may be obtained by looking up the table.
  • the constraint relationship is stored in the server of the robot by creating a table.
  • the constraint relationship may also be stored in a storage unit of the calibration device or the like by other methods. As long as the constraint relationship is stored, the specific storage method and location are not specifically limited herein.
  • the first target is a vision system
  • the second target is an industrial robot
  • the position calibration of the vision system and the industrial robot is completed according to a result of parameter transformation.
  • the specific calibration method is the same as the position calibration method of the industrial robot in the above embodiment, and will not be repeated here.
  • the calibration device is a closed structure.
  • the closed structure is a ring or a rectangle.
  • the closed structure may also be in the shape of a diamond or trapezoid, as long as it is a closed structure, and its shape and material are not specifically limited herein.
  • the calibration position of the first target when the calibration position of the first target is obtained, the calibration position of the second target may be obtained through a constraint relationship. For example, during the teaching process, when the first target is calibrated once, the corresponding calibration position of the second target can be obtained.
  • the calibration can be performed based on the The constraint relationship obtains the position relationship of the second target, so in the teaching process, it is not necessary to calibrate each target, which not only reduces the operation steps, but also does not generate cumulative errors, thereby improving the calibration accuracy.
  • the first position parameter and the second position parameter may be the position parameters of the image feature or the position parameters of the model feature, as long as they can represent the position parameters of each target and can perform parameter transformation. Yes, it is not specifically limited here.
  • the present application obtains a first positional relationship between a positioning device and a first target and a second positional relationship between a positioning device and a second target, and then establishes a constraint relationship between the first target and the second target, and further The first target and the second target are located through the constraint relationship.
  • the coordinates between the two targets ensure the calibration accuracy in the cooperative space.
  • the calibration device 20 includes a light emitting unit 201, a light receiving unit 202, and a processor 203.
  • the light emitting unit 201 and the light sensing unit 202 are configured to obtain a first position parameter of the calibration device 20 in a first target coordinate system, and a second position parameter of the calibration device 20 in a second target coordinate system.
  • a position parameter and a second position parameter establish a constraint relationship, and the calibration of the first target and the second target is completed according to the constraint relationship.
  • the light emitting unit 201 and the light receiving unit 202 acquire a first position parameter of the calibration device 20 in a first target coordinate system.
  • the first target is a first industrial robot
  • the second target is a second industrial robot.
  • a calibration device 20 is installed on the first industrial robot, and the light emitting unit 201 and the photosensitive unit 202 acquire a first position parameter of the calibration device 20 in a first robot coordinate system.
  • the first industrial robot can obtain the position parameters of the second industrial robot in the calibration area, and then use the calibration device 20's position parameters in the first robot coordinate system and the first The position parameters of the two industrial robots in the calibration area are obtained to obtain the first position parameters of the calibration device 20 in the first target coordinate system.
  • the first position parameter of the calibration device in the first target coordinate system is (x 1 -x, y 1 -y, z 1 ).
  • the calibration device 20 is directly mounted on the forearm of the first industrial robot.
  • the calibration device may also be directly installed at the rear end of the industrial robot or other locations.
  • the front end or back end tools may also be set on the industrial robot, and the front end or back end tools may be set in the industry.
  • the calibration device is then directly installed on the front-end or back-end tool; or the calibration device is installed on the front-end or back-end tool through the connector, as long as it is installed on the industrial robot, which is not specifically limited here.
  • the first target is a vision system and the second target is an industrial robot.
  • the vision system positions the calibration device 20 to obtain a first position parameter of the calibration device 20 in the coordinate system of the vision system.
  • the vision system obtains the image feature coordinates of the calibration device 20 according to the light emitting unit on the calibration device 20, and then further obtains the first position parameter of the calibration device 20 in the coordinate system of the vision system.
  • the image feature coordinates of the calibration device obtained by the vision system are (u, v)
  • the position coordinates of the industrial robot in the calibration area of the calibration device are (x, y).
  • the image feature coordinates are (f (x), f (y)), then the first position parameter of the calibration device in the first target coordinate system is (u + f (x), v + f (y)).
  • the light emitting unit 201 and the light receiving unit 202 acquire a second position parameter of the calibration device 20 in a second target coordinate system.
  • the first target is a first industrial robot and the second target is a second industrial robot.
  • the second industrial robot enters the calibration area of the calibration device 20
  • the coordinates of the calibration device 20 at the second industrial robot are acquired.
  • the second position parameter under the system.
  • the position coordinates of the second robot relative to the calibration device 20 can be obtained, and then obtained according to the coordinates of the second robot relative to its own base.
  • a second position parameter of the calibration device 20 in the second industrial robot coordinate system is obtained.
  • the first target is a vision system and the second target is an industrial robot.
  • the industrial robot enters the calibration area of the calibration device 20
  • the light emitting unit 201 and the photosensitive unit 202 obtain the coordinates of the calibration device 20 in the industrial robot.
  • the second position parameter under the system.
  • the position coordinates of the industrial robot relative to the calibration device 20 can be obtained, and then the calibration device 20 is obtained according to the coordinates of the industrial robot relative to its own base.
  • the second position parameter in the industrial robot coordinate system when the front end of the industrial robot enters the calibration area of the calibration device 20, the position coordinates of the industrial robot relative to the calibration device 20 can be obtained, and then the calibration device 20 is obtained according to the coordinates of the industrial robot relative to its own base. The second position parameter in the industrial robot coordinate system.
  • the processor 203 establishes a constraint relationship between the first position parameter and the second position parameter.
  • the processor 203 performs parameter transformation on the first position parameter and the second position parameter to establish a constraint relationship.
  • the first position parameter and the second position parameter can be converted to each other.
  • the constraint relationship is a transformation relationship between the first position parameter and the second position parameter, that is, the first position parameter can be obtained by adding, subtracting, or other calculation methods between the coordinate points to obtain the second
  • the position parameter may be obtained as long as the second position parameter can be obtained through the first position parameter, and the specific calculation method is not specifically limited herein.
  • the processor 203 completes the calibration of the first target and the second target according to the constraint relationship.
  • the first target is a first industrial robot and the second target is a second industrial robot.
  • the processor 203 completes the first industrial robot and the second industrial robot according to a result of parameter transformation.
  • Position calibration Specifically, according to the foregoing embodiment, a constraint relationship is established, and the constraint relationship is created and stored in a table.
  • the constraint relationship between the position parameters of the first industrial robot and the second industrial robot may be obtained by looking up the table.
  • the calibration position of the first industrial robot is obtained, and then the calibration position of the second industrial robot is obtained, that is, there is no need to calibrate each industrial robot.
  • the constraint relationship is stored in the server of the robot by creating a table.
  • the constraint relationship may also be stored in a storage unit of the calibration device or the like by other methods. As long as the constraint relationship is stored, the specific storage method and location are not specifically limited herein.
  • the first target is a vision system
  • the second target is an industrial robot
  • the position calibration of the vision system and the industrial robot is completed according to a result of parameter transformation.
  • the specific calibration method is the same as the position calibration method of the industrial robot in the above embodiment, and will not be repeated here.
  • the calibration device is a closed structure.
  • the closed structure is a ring or a rectangle.
  • the closed structure may also be in the shape of a diamond or trapezoid, as long as it is a closed structure, and its shape and material are not specifically limited herein.
  • the calibration position of the second target when the calibration position of the first target is obtained, the calibration position of the second target may be obtained through a constraint relationship. For example, during the teaching process, when the first target is calibrated once, the corresponding calibration position of the second target can be obtained. When the next calibration is performed, the calibration can be performed based on the The constraint relationship obtains the position relationship of the second target, so in the teaching process, it is not necessary to calibrate each target, which not only reduces the operation steps, but also does not generate cumulative errors, thereby improving the calibration accuracy.
  • the first position parameter and the second position parameter can be either the position parameters of the image feature or the position parameters of the model feature, as long as they can represent the position parameters of each target and can perform parameter transformation. That is, it is not specifically limited herein.
  • the present application obtains a first positional relationship between a positioning device and a first target and a second positional relationship between a positioning device and a second target, and then establishes a constraint relationship between the first target and the second target, and further The first target and the second target are located through the constraint relationship.
  • the coordinates between the two targets ensure the calibration accuracy in the cooperative space.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

一种标定方法,包括:获取标定装置在第一目标坐标系下的第一位置参数;获取标定装置在第二目标坐标系下的第二位置参数;将第一位置参数和第二位置参数建立约束关系;根据约束关系完成第一目标和第二目标的标定。一种标定装置。

Description

标定方法及标定装置 【技术领域】
本申请涉及位置标定领域,特别是一种标定方法及标定装置。
【背景技术】
标定就是应用先进的测量手段和基于模型的参数识别方法辨识出机器模型的准确参数,从而提高机器人绝对精度的过程。机器人工具坐标系标定是计算工具端相对于机器人坐标系的位置和姿态的辨识过程,该位姿是一个未知的确定姿态。工件坐标系的标定是计算工件坐标系相对于基坐标系的姿态辨识过程。
通常工业机器人的重复定位精度很高,但是其绝对定位精度却在几毫米甚至几十毫米。这是由于机器人本体在制造及装配过程中,机器人的杆件长度和电机轴安装角度不可避免地存在着误差。这些误差导致了真实的机器人运动学模型参数和机器人控制器中存放的理论模型参数有一定偏差。控制器以理想模型参数去运算运动学反解并控制实际机器人运动时,机器人在绝对坐标系中的实到位姿必然不是软件中希望的位姿。因此每一台高品质的机器人在出厂时都必须要进行运动学参数的标定。
目前主要的标定手段都是基于独立的激光跟踪仪或线跟踪编码器设备去获取所要标定的真实机器人产品的运动学参数。当两机器人相互协作时,通常需要将两个机器人控制坐标统一到一个世界坐标系中,然而精度并不高,而且只有在示教位置能够保证重复精度,并不能保证两机器人在空间中完成视觉引导的复杂任务时的精度需求。为了给机器人之间的协调提供更便捷、有效的途径,提出了传统的机器人系统,但在传统的机器人系统中,机器人需要事先安装在固定的位置,一旦机器人发生移动,原有的标定结果将不再适用,需要重新采用精密的仪器进行标定,而且由于精密的仪器价格昂贵,费时费力。
【发明内容】
本申请主要解决的技术问题是提供一种标定方法及标定装置,通过在两定 位目标之间直接建立约束关系,使两目标间的坐标在协同空间中保证标定精度。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种标定方法,所述标定方法包括:
获取标定装置在第一目标坐标系下的第一位置参数;
获取所述标定装置在第二目标坐标系下的第二位置参数;
将所述第一位置参数和所述第二位置参数建立约束关系;
根据所述约束关系完成所述第一目标与所述第二目标的标定。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种标定装置,所述标定装置包括:发光单元、感光单元及处理器;
所述发光单元和感光单元用于获取标定装置在第一目标坐标系下的第一位置参数;获取所述标定装置在第二目标坐标系下的第二位置参数;
所述处理器用于将所述第一位置参数和所述第二位置参数建立约束关系;根据所述约束关系完成所述第一目标与所述第二目标的标定。
本申请的有益效果是:区别于现有技术,本申请通过获取定位装置与第一目标的第一位置关系和定位装置与第二目标的第二位置关系,然后在第一目标和第二目标之间建立约束关系,进而通过该约束关系对第一目标和第二目标进行定位。通过两个目标之间的约束关系,使两目标间的坐标在协同空间中保证了标定精度,从而提高标定的效率。
【附图说明】
图1是本申请标定方法一实施方式的流程示意图;
图2是本申请标定装置一实施方式的结构示意图。
【具体实施方式】
下面将结合本申请实施方式中的附图,对本申请实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本申请一部分实施方式,而不是全部的实施方式。基于本申请中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,均属于本申请保护的范围。
请参阅图1,图1是本申请标定方法一实施方式的流程示意图。本实施方式的标定方法包括:
S101:获取标定装置在第一目标坐标系下的第一位置参数。
在一个具体的实施场景中,第一目标为第一工业机器人,第二目标为第二工业机器人。具体地,在该第一工业机器人上安装标定装置,并获取该标定装置在第一机器人坐标系下的第一位置参数。进一步地,当第二工业机器人进入到标定区域时,第一工业机器人可以获取到第二工业机器人在该标定区域的位置参数,然后通过标定装置在第一机器人坐标系下的位置参数和第二工业机器人在该标定区域的位置参数获取得到标定装置在第一目标坐标系下的第一位置参数。比如:在一个水平坐标系中,如果标定装置相对于第一机器人的的基座的坐标为(x 1,y 1,z 1),第二工业机器人在该标定区域的位置坐标为(x,y),那么标定装置在第一目标坐标系下的第一位置参数为(x 1-x,y 1-y,z 1)。
在本实施方式中,该标定装置是直接安装在第一工业机器人的前臂上的。进一步地,也可以在工业机器人上设置前端工具,将前端工具设置在工业机器人上,然后直接将标定装置安装在前端工具上;或者通过连接件将标定装置安装在前端工具上,只要是安装在工业机器人上即可,在此不作具体限定。
在另一个具体的实施方式中,第一目标为视觉系统,第二目标为工业机器人。具体地,视觉系统对标定装置进行定位,进而获取标定装置在视觉系统坐标系下的第一位置参数。在本实施方式中,视觉系统是根据标定装置上的发光单元获取到标定装置的图像特征坐标的,然后进一步得出标定装置在视觉系统坐标系下的第一位置参数。比如:在一个水平坐标系中,视觉系统获取得到的标定装置的图像特征坐标为(u,v),工业机器人在标定装置的标定区域内的位置坐标为(x,y),则工业机器人的图像特征坐标为(f(x),f(y)),那么标定装置在第一目标坐标系下的第一位置参数为(u+f(x),v+f(y))。
S102:获取标定装置在第二目标坐标系下的第二位置参数。
在一个具体的实施场景中,第一目标为第一工业机器人,第二目标为第二工业机器人,当第二工业机器人进入标定装置的标定区域时,获取标定装置在第二工业机器人坐标系下的第二位置参数。在本实施方式中,当第二工业机器人的前端进入到标定装置的标定区域时,可以获取到第二机器人相对标定装置的位置坐标,进而根据第二机器人相对于自身基座的坐标获取得到标定装置在第二工业机器人坐标系下的第二位置参数。其中,该第二位置参数可以是第二工业机器人在其基坐标系下的位置坐标(x 2,y 2,z 2),也可以是第二工业机器人相对于标定装置的一位置坐标,或者是标定装置相对于第二工业机器人在其基坐 标系下的位置坐标(x 2,y 2,z 2)的一位置坐标,只要是可以与上述第一位置参数建立约束关系的位置坐标即可,在此不作具体限定。
在另一个具体的实施方式中,第一目标为视觉系统,第二目标为工业机器人,当工业机器人进入标定装置的标定区域时,获取标定装置在工业机器人坐标系下的第二位置参数。在本实施方式中,当工业机器人的前端进入到标定装置的标定区域时,可以获取得到工业机器人相对标定装置的位置坐标,进而根据工业机器人相对于自身基座的坐标获取得到标定装置在工业机器人坐标系下的第二位置参数。其中,该第二位置参数可以是工业机器人在其基坐标系下的位置坐标(x 2,y 2,z 2),也可以是工业机器人相对于标定装置的一位置坐标,或者是标定装置相对于工业机器人在其基坐标系下的位置坐标(x 2,y 2,z 2)的一位置坐标,只要是可以与上述第一位置参数建立约束关系的位置坐标即可,在此不作具体限定。
S103:将第一位置参数和第二位置参数建立约束关系。
在一个具体的实施场景中,将上述第一位置参数和第二位置参数进行参数变换,建立约束关系。具体地,上述第一位置参数和第二位置参数之间是可以相互变换的。在本实施方式中,该约束关系即为第一位置参数和第二位置参数之间的变换关系,即第一位置参数可以通过坐标点之间的加、减或者其它的运算方式获取得到第二位置参数,只要是可以通过第一位置参数获取得到第二位置参数即可,具体运算方式在此不作具体限定。
在另一个具体的实施方式中,第一目标为视觉系统,第二目标为工业机器人,将上述第一位置参数和所述第二位置参数进行参数变换,建立约束关系。具体的约束关系建立方式与上述实施方式中工业机器人的约束关系建立方式相同,在此不作赘述。
S104:根据约束关系完成第一目标与第二目标的标定。
在一个具体的实施场景中,第一目标为第一工业机器人,第二目标为第二工业机器人,根据参数变换的结果,完成所述第一工业机器人与所述第二工业机器人的位置标定。具体地,根据上述实施方式建立约束关系,将该约束关系建表进行存储,当进行标定时,可以通过查表的方式获取第一工业机器人和第二工业机器人的位置参数之间的约束关系,当得到第一工业机器人的标定位置时,进而获取得到第二工业机器人的标定位置,即不需要对每个工业机器人进行标定。在本实施方式中,是通过建表的方式将该约束关系存储在机器人的服 务端,在其它的实施方式中,也可以将该约束关系通过其它的方式存储在标定装置的的存储单元等,只要是将该约束关系进行存储即可,具体的存储方式和位置在此不作具体限定。
在另一个具体的实施方式中,第一目标为视觉系统,第二目标为工业机器人,根据参数变换的结果,完成所述视觉系统与所述工业机器人的位置标定。具体的标定方式与上述实施方式中工业机器人的位置标定方式相同,在此不作赘述。
在上述任一实施方式中,所述标定装置为封闭结构。在本实施方式中,该封闭结构为环形或矩形,在其它的实施方式中,该封闭结构也可以为菱形、梯形等形状,只要是封闭结构即可,其形状和材质在此不作具体限定。在上述任意一个实施方式中,当得到第一目标的标定位置时,可以通过约束关系获取得到第二目标的标定位置。比如:在示教的过程中,当第一目标进行一次标定时,即可以得到相应的第二目标的标定位置,当进行下一次标定时,就可以根据第一目标和第二目标之间的约束关系得到第二目标的位置关系,所以在示教的过程中,不需要对每个目标进行标定,不仅减少了操作步骤,还不会产生累积误差,进而提高了标定精度。
在上述任一实施方式中,第一位置参数和第二位置参数既可以为图像特征的位置参数,也可以为模型特征的位置参数,只要能表示各个目标的位置参数,并且能够进行参数变换即可,在此不作具体限定。
区别于现有技术,本申请通过获取定位装置与第一目标的第一位置关系和定位装置与第二目标的第二位置关系,然后在第一目标和第二目标之间建立约束关系,进而通过该约束关系对第一目标和第二目标进行定位。通过两个目标之间的约束关系,使两目标间的坐标在协同空间中保证了标定精度。
请参阅图2,图2是本申请标定装置一实施方式的结构示意图。在本实施方式中,标定装置20:发光单元201、感光单元202及处理器203。其中,发光单元201和感光单元202用于获取标定装置20在第一目标坐标系下的第一位置参数,获取标定装置20在第二目标坐标系下的第二位置参数,处理器203将第一位置参数和第二位置参数建立约束关系,根据约束关系完成第一目标与所述第二目标的标定。
在本实施方式中,发光单元201和感光单元202获取标定装置20在第一目标坐标系下的第一位置参数。
在一个具体的实施场景中,第一目标为第一工业机器人,第二目标为第二工业机器人。具体地,在该第一工业机器人上安装标定装置20,发光单元201和感光单元202获取该标定装置20在第一机器人坐标系下的第一位置参数。进一步地,当第二工业机器人进入到标定区域时,第一工业机器人可以获取到第二工业机器人在该标定区域的位置参数,然后通过标定装置20在第一机器人坐标系下的位置参数和第二工业机器人在该标定区域的位置参数获取得到标定装置20在第一目标坐标系下的第一位置参数。比如:在一个水平坐标系中,如果标定装置相对于第一机器人的的基座的坐标为(x 1,y 1,z 1),第二工业机器人在该标定区域的位置坐标为(x,y),那么标定装置在第一目标坐标系下的第一位置参数为(x 1-x,y 1-y,z 1)。
在本实施方式中,该标定装置20是直接安装在第一工业机器人的前臂上的。在其它的实施方式中,该标定装置也可以直接安装在工业机器人的后端或者其它的位置,进一步地,也可以在工业机器人上设置前端或者后端工具,将前端或者后端工具设置在工业机器人上,然后直接将标定装置安装在前端或者后端工具上;或者通过连接件将标定装置安装在前端或者后端工具上,只要是安装在工业机器人上即可,在此不作具体限定。
在另一个具体的实施方式中,第一目标为视觉系统,第二目标为工业机器人。具体地,视觉系统对标定装置20进行定位,进而获取标定装置20在视觉系统坐标系下的第一位置参数。在本实施方式中,视觉系统是根据标定装置20上的发光单元获取到标定装置20的图像特征坐标的,然后进一步得出标定装置20在视觉系统坐标系下的第一位置参数。比如:在一个水平坐标系中,视觉系统获取得到的标定装置的图像特征坐标为(u,v),工业机器人在标定装置的标定区域内的位置坐标为(x,y),则工业机器人的图像特征坐标为(f(x),f(y)),那么标定装置在第一目标坐标系下的第一位置参数为(u+f(x),v+f(y))。
在本实施方式中,发光单元201和感光单元202获取标定装置20在第二目标坐标系下的第二位置参数。
在一个具体的实施场景中,第一目标为第一工业机器人,第二目标为第二工业机器人,当第二工业机器人进入标定装置20的标定区域时,获取标定装置20在第二工业机器人坐标系下的第二位置参数。在本实施方式中,当第二工业机器人的前端进入到标定装置20的标定区域时,可以获取到第二机器人相对标定装置20的位置坐标,进而根据第二机器人相对于自身基座的坐标获取得到标 定装置20在第二工业机器人坐标系下的第二位置参数。
在另一个具体的实施方式中,第一目标为视觉系统,第二目标为工业机器人,当工业机器人进入标定装置20的标定区域时,发光单元201和感光单元202获取标定装置20在工业机器人坐标系下的第二位置参数。在本实施方式中,当工业机器人的前端进入到标定装置20的标定区域时,可以获取得到工业机器人相对标定装置20的位置坐标,进而根据工业机器人相对于自身基座的坐标获取得到标定装置20在工业机器人坐标系下的第二位置参数。
在本实施方式中,处理器203将第一位置参数和第二位置参数建立约束关系。
在一个具体的实施场景中,处理器203将上述第一位置参数和第二位置参数进行参数变换,建立约束关系。具体地,上述第一位置参数和第二位置参数之间是可以相互变换的。在本实施方式中,该约束关系即为第一位置参数和第二位置参数之间的变换关系,即第一位置参数可以通过坐标点之间的加、减或者其它的运算方式获取得到第二位置参数,只要是可以通过第一位置参数获取得到第二位置参数即可,具体运算方式在此不作具体限定。
在本实施方式中,处理器203根据约束关系完成第一目标与第二目标的标定。
在一个具体的实施场景中,第一目标为第一工业机器人,第二目标为第二工业机器人,处理器203根据参数变换的结果,完成所述第一工业机器人与所述第二工业机器人的位置标定。具体地,根据上述实施方式建立约束关系,将该约束关系建表进行存储,当进行标定时,可以通过查表的方式获取第一工业机器人和第二工业机器人的位置参数之间的约束关系,当得到第一工业机器人的标定位置时,进而获取得到第二工业机器人的标定位置,即不需要对每个工业机器人进行标定。在本实施方式中,是通过建表的方式将该约束关系存储在机器人的服务端,在其它的实施方式中,也可以将该约束关系通过其它的方式存储在标定装置的的存储单元等,只要是将该约束关系进行存储即可,具体的存储方式和位置在此不作具体限定。
在另一个具体的实施方式中,第一目标为视觉系统,第二目标为工业机器人,根据参数变换的结果,完成所述视觉系统与所述工业机器人的位置标定。具体的标定方式与上述实施方式中工业机器人的位置标定方式相同,在此不作赘述。
在上述任一实施方式中,所述标定装置为封闭结构。在本实施方式中,该封闭结构为环形或矩形,在其它的实施方式中,该封闭结构也可以为菱形、梯形等形状,只要是封闭结构即可,其形状和材质在此不作具体限定。
在上述任意一个实施方式中,当得到第一目标的标定位置时,可以通过约束关系获取得到第二目标的标定位置。比如:在示教的过程中,当第一目标进行一次标定时,即可以得到相应的第二目标的标定位置,当进行下一次标定时,就可以根据第一目标和第二目标之间的约束关系得到第二目标的位置关系,所以在示教的过程中,不需要对每个目标进行标定,不仅减少了操作步骤,还不会产生累积误差,进而提高了标定精度。
在上述任一实施方式中,第一位置参数和第二位置参数既可以为图像特征的位置参数,也可以为模型特征的位置参数,只要能表示各个目标的位置参数,并且能能够进行参数变换即可,在此不作具体限定。
区别于现有技术,本申请通过获取定位装置与第一目标的第一位置关系和定位装置与第二目标的第二位置关系,然后在第一目标和第二目标之间建立约束关系,进而通过该约束关系对第一目标和第二目标进行定位。通过两个目标之间的约束关系,使两目标间的坐标在协同空间中保证了标定精度。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (16)

  1. 一种标定方法,其特征在于,所述标定方法包括:
    获取标定装置在第一目标坐标系下的第一位置参数;
    获取所述标定装置在第二目标坐标系下的第二位置参数;
    将所述第一位置参数和所述第二位置参数建立约束关系;
    根据所述约束关系完成所述第一目标与所述第二目标的标定。
  2. 根据权利要求1所述的标定方法,其特征在于,所述第一目标为第一工业机器人,所述第二目标为第二工业机器人。
  3. 根据权利要求2所述的标定方法,其特征在于,所述获取标定装置在第一目标坐标系下的第一位置参数的步骤具体包括:
    在所述第一工业机器人上安装所述标定装置;
    获取所述标定装置在第一工业机器人坐标系下的第一位置参数。
  4. 根据权利要求3所述的标定方法,其特征在于,所述在所述第一工业机器人上安装所述标定装置的步骤具体包括:在所述第一工业机器人的前臂上安装所述标定装置。
  5. 根据权利要求3所述的标定方法,其特征在于,所述获取所述标定装置在第二目标坐标系下的第二位置参数的步骤具体包括:
    当所述第二工业机器人进入所述标定装置的标定区域时,获取所述标定装置在第二工业机器人坐标系下的第二位置参数。
  6. 根据权利要求5所述的标定方法,其特征在于,所述将所述第一位置参数和所述第二位置参数建立约束关系的步骤具体包括:
    将所述第一位置参数和所述第二位置参数进行参数变换,建立约束关系。
  7. 根据权利要求6所述的标定方法,其特征在于,所述根据所述约束关系完成所述第一目标与所述第二目标的标定的步骤具体包括:
    根据所述参数变换的结果,完成所述第一机器人与所述第二机器人的位置标定。
  8. 根据权利要求1所述的标定方法,其特征在于,所述第一目标为视觉系统,所述第二目标为工业机器人。
  9. 根据权利要求8所述的标定方法,其特征在于,所述获取标定装置在第一 目标坐标系下的第一位置参数的步骤具体包括:所述视觉系统对所述标定装置进行定位,进而获取标定装置在所述视觉系统坐标系下的第一位置参数。
  10. 根据权利要求8所述的标定方法,其特征在于,所述获取所述标定装置在第二目标坐标系下的第二位置参数的步骤具体包括:
    当所述工业机器人进入所述标定装置的标定区域时,获取所述标定装置在第二工业机器人坐标系下的第二位置参数。
  11. 根据权利要求8所述的标定方法,其特征在于,所述将所述第一位置参数和所述第二位置参数建立约束关系的步骤具体包括:
    将所述第一位置参数和所述第二位置参数进行参数变换,建立约束关系。
  12. 根据权利要求8所述的标定方法,其特征在于,所述根据所述约束关系完成所述第一目标与所述第二目标的标定的步骤具体包括:
    根据所述参数变换的结果,完成所述视觉系统与所述工业机器人的位置标定。
  13. 根据权利要求1所述的标定方法,其特征在于,所述标定装置具有封闭结构。
  14. 根据权利要求13所述的标定方法,其特征在于,所述封闭结构为环形封闭结构或矩形封闭结构。
  15. 根据权利要求1所述的标定方法,其特征在于,所述第一位置参数和所述第一位置参数为图像特征的位置参数或模型特征的位置参数。
  16. 一种标定装置,其特征在于,所述标定装置包括:发光单元、感光单元及处理器;
    所述发光单元和感光单元用于获取标定装置在第一目标坐标系下的第一位置参数;获取所述标定装置在第二目标坐标系下的第二位置参数;
    所述处理器用于将所述第一位置参数和所述第二位置参数建立约束关系;根据所述约束关系完成所述第一目标与所述第二目标的标定。
PCT/CN2018/104894 2018-09-10 2018-09-10 标定方法及标定装置 WO2020051748A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/CN2018/104894 WO2020051748A1 (zh) 2018-09-10 2018-09-10 标定方法及标定装置
CN201880087340.9A CN111683797B (zh) 2018-09-10 2018-09-10 标定方法及标定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/104894 WO2020051748A1 (zh) 2018-09-10 2018-09-10 标定方法及标定装置

Publications (1)

Publication Number Publication Date
WO2020051748A1 true WO2020051748A1 (zh) 2020-03-19

Family

ID=69776912

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/104894 WO2020051748A1 (zh) 2018-09-10 2018-09-10 标定方法及标定装置

Country Status (2)

Country Link
CN (1) CN111683797B (zh)
WO (1) WO2020051748A1 (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1704210A (zh) * 2004-06-02 2005-12-07 发那科株式会社 机械手系统
DE102006004153A1 (de) * 2006-01-27 2007-08-02 Vision Tools Hard- Und Software Entwicklungs-Gmbh Automatisches Einmessen kooperierender Roboter
CN102226677A (zh) * 2011-01-26 2011-10-26 东南大学 具有协作关系的多机器人系统的基坐标系标定方法
CN104165584A (zh) * 2013-05-17 2014-11-26 上海三菱电梯有限公司 机器人基坐标系的非接触式高精度标定方法及其应用
CN104215206A (zh) * 2014-09-28 2014-12-17 东南大学 一种双机器人协作系统的基坐标标定方法
CN105066831A (zh) * 2015-09-09 2015-11-18 大族激光科技产业集团股份有限公司 一种单一或多机器人系统协同工作坐标系的标定方法
CN105643369A (zh) * 2014-11-28 2016-06-08 发那科株式会社 机床以及具备机器人的协作系统
JP2016120557A (ja) * 2014-12-25 2016-07-07 セイコーエプソン株式会社 ロボット、及びロボット校正システム
CN105751245A (zh) * 2016-03-30 2016-07-13 广东工业大学 一种用于标定多机器人系统基坐标系的方法及其设备
CN106595474A (zh) * 2016-11-18 2017-04-26 华南理工大学 一种基于激光跟踪仪的双机器人基坐标系标定方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013184236A (ja) * 2012-03-06 2013-09-19 Jtekt Corp ロボットのキャリブレーション方法及びキャリブレーション装置
KR101842286B1 (ko) * 2012-10-30 2018-03-26 현대로보틱스주식회사 로봇의 자동 캘리브레이션 방법
CN102927908B (zh) * 2012-11-06 2015-04-22 中国科学院自动化研究所 机器人手眼系统结构光平面参数标定装置及方法
CN106272444B (zh) * 2016-08-31 2018-11-13 山东中清智能科技股份有限公司 一种实现手眼关系和双机器人关系同时标定的方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1704210A (zh) * 2004-06-02 2005-12-07 发那科株式会社 机械手系统
DE102006004153A1 (de) * 2006-01-27 2007-08-02 Vision Tools Hard- Und Software Entwicklungs-Gmbh Automatisches Einmessen kooperierender Roboter
CN102226677A (zh) * 2011-01-26 2011-10-26 东南大学 具有协作关系的多机器人系统的基坐标系标定方法
CN104165584A (zh) * 2013-05-17 2014-11-26 上海三菱电梯有限公司 机器人基坐标系的非接触式高精度标定方法及其应用
CN104215206A (zh) * 2014-09-28 2014-12-17 东南大学 一种双机器人协作系统的基坐标标定方法
CN105643369A (zh) * 2014-11-28 2016-06-08 发那科株式会社 机床以及具备机器人的协作系统
JP2016120557A (ja) * 2014-12-25 2016-07-07 セイコーエプソン株式会社 ロボット、及びロボット校正システム
CN105066831A (zh) * 2015-09-09 2015-11-18 大族激光科技产业集团股份有限公司 一种单一或多机器人系统协同工作坐标系的标定方法
CN105751245A (zh) * 2016-03-30 2016-07-13 广东工业大学 一种用于标定多机器人系统基坐标系的方法及其设备
CN106595474A (zh) * 2016-11-18 2017-04-26 华南理工大学 一种基于激光跟踪仪的双机器人基坐标系标定方法

Also Published As

Publication number Publication date
CN111683797A (zh) 2020-09-18
CN111683797B (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
EP3705239B1 (en) Calibration system and method for robotic cells
CN109397282B (zh) 机械手臂加工方法、系统及计算机可读取纪录媒体
CN108748159B (zh) 一种机械臂工具坐标系自标定方法
US20130123982A1 (en) Calibration method for tool center point of a robot manipulator
CN110625600B (zh) 一种机器人末端工件坐标系标定方法
WO2020121396A1 (ja) ロボットキャリブレーションシステム及びロボットキャリブレーション方法
CN110370316B (zh) 一种基于垂直反射的机器人tcp标定方法
CN112833792B (zh) 一种用于六自由度机械臂的精度标定和验证方法
CN103713579B (zh) 一种工业机器人作业方法
CN109814434B (zh) 控制程序的校准方法及装置
CN113070876A (zh) 一种基于3d视觉的机械手点胶路径引导纠偏方法
CN114139857A (zh) 一种工件精整加工工序修正方法、系统、存储介质及装置
CN114347013A (zh) 印刷电路板与fpc柔性电缆线的装配方法及相关设备
US7957834B2 (en) Method for calculating rotation center point and axis of rotation, method for generating program, method for moving manipulator and positioning device, and robotic system
TW202128378A (zh) 校準方法及校準系統
US20110118876A1 (en) Teaching line correcting apparatus, teaching line correcting method, and program thereof
CN112907682A (zh) 一种五轴运动平台的手眼标定方法、装置及相关设备
CN111530670A (zh) 应用于机器人喷涂领域的零件位置误差补偿方法及系统
JP2013019704A (ja) 三次元計測システム及び三次元計測方法
CN114012719A (zh) 一种六轴机器人的零点标定方法及系统
JP6912529B2 (ja) 視覚誘導ロボットアームの補正方法
WO2018214156A1 (zh) 校正机器人的运动控制命令的方法及其相关设备
WO2020051748A1 (zh) 标定方法及标定装置
Lembono et al. Automatic robot taping: system integration
US20230191611A1 (en) Robot system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18933223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM1205A DATED 13/08/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 18933223

Country of ref document: EP

Kind code of ref document: A1