CN109153125A - 用于定向工业机器人的方法和工业机器人 - Google Patents

用于定向工业机器人的方法和工业机器人 Download PDF

Info

Publication number
CN109153125A
CN109153125A CN201780034042.9A CN201780034042A CN109153125A CN 109153125 A CN109153125 A CN 109153125A CN 201780034042 A CN201780034042 A CN 201780034042A CN 109153125 A CN109153125 A CN 109153125A
Authority
CN
China
Prior art keywords
industrial robot
absolute
coordinate system
feature
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780034042.9A
Other languages
English (en)
Other versions
CN109153125B (zh
Inventor
G.冯维歇特
W.法伊滕
K.武尔姆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of CN109153125A publication Critical patent/CN109153125A/zh
Application granted granted Critical
Publication of CN109153125B publication Critical patent/CN109153125B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39024Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39027Calibrate only some links, part of dofs, lock some links, ref pins on links
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)

Abstract

从安装在固定的工业机器人(1)的不同轴(11、12、13、14)上的传感器(21、22、23、24)的信号中提取环境特征(31、32、33、34)。其中借助于用于同时定位和创建地图的SLAM算法来同时确定绝对坐标系(2)和环境地图,其中所述环境地图描绘所提取的特征,并且在绝对坐标系中确定工业机器人可动部件的绝对姿态。该方法将移动式机器人的同时定位技术(即确定位置和方向)和建立环境特征地图的技术转用于固定工业机器人的定向。该方法基于安装到可动部件上的传感器的测量。有利地,还附加地考虑了获取关节位置的传感器。该方法的优点在于:即使对于不精确或者弹性的工业机器人以及针对不同负载也获取到绝对位置和方向。另外,可以在工业机器人的模型中确定参数,因此可以在必要时改进工业机器人的位置和方向的测量精度以及改进工业机器人的控制。不再强制性需要外部校准设备和特殊校准过程。

Description

用于定向工业机器人的方法和工业机器人
根据VDI指南2860,工业机器人是普遍适用的多轴运动机械,其运动可自由编程并且必要时由传感器引导。这种机器人可以例如配备有夹具或其他作为执行机构的工具,从而可以执行处理任务或制造任务。因此,工业机器人由多个构件或者轴组成,所述构件连接底座与执行机构,并且可根据运动学进行运动。
从现有技术中已知,将工业机器人构造为具有串联运动学的机器人臂,其由多个主轴和手轴组成。主轴主要用于调节执行机构的位置,该执行机构安装在机器人臂末端的法兰上。相反,手轴的任务是调节执行机构的定向。根据工业机器人的结构类型和用途,主轴可选地选择为旋转轴或平移轴,或者这两种类型的组合;而手轴始终是旋转轴。
工业机器人的另一个例子是德尔塔机器人(Deltaroboter)。它由多个运动学链组成,所述运动学链将底座与执行机构或工作平台连接起来。例如,德尔塔机器人由三个臂组成,所述臂共同将工作平台与底座连接。这里对德尔塔机器人的运动可能性的数学描述是闭合运动学,例如并联运动学。
在这样的工业机器人中,可能出现的问题是,执行机构相对于环境的绝对位置和方向是不足够准确已知的。当传感器安装在工业机器人的关节或轴上时,也可能是这种情况,所述传感器可以准确地确定关节或轴的位置。
对此可能有不同的原因:关节中的传动器或机械部件可能是弹性的,或者偏移可能是未知的,可能因为所述偏移取决于未知的载荷。此外,基于其来计算位置和方向的运动学模型可能是有误的。
就传统的工业机器人而言,通过如此大量地设计它们来抵消这一点,使得即使负载很高也尽可能不出现弹性。这首先导致高重复精度。为了实现高的绝对精度,工业机器人被手动移动到不同位置。对于这些位置中的每一个,例如这在DE 10 2011 052 386 AI中公开的,用距离传感器精确地从外部测量轴的位置。作为这种校准的一部分,获取并存储在关节位置与末端执行机构的位置和方向之间的关系。
例如,由S.Hutchinson,G.D.Hager和P.I.Corke的“视觉伺服控制教程:(Atutorial on visual servo contral)”(IEEE机器人交互与自动化(Transactions onRobotic and Automation),12卷,No.5,651-670页,1996年)已知这种将摄像机安装到末端执行机构上的方法。借助于摄像机来确定在夹具和工件之间或在两个工件之间的相对位置和方向。
例如任意机构、特征或对象的位置和方向在下文中也被综合为术语“姿态”。
本发明旨在提供一种用于定向工业机器人的方法和一种工业机器人,它们提供现有技术的替代方案。
该任务通过一种用于定向工业机器人的方法予以解决,
- 其中,从安装在固定的工业机器人的可动部件上的至少一个成像传感器的信号中提取环境的至少一个特征,在工业机器人执行运动之前、期间或者之后,并且
- 其中,借助于用于同时定位和创建地图的SLAM算法来同时
- 确定绝对坐标系统和环境地图,其中环境地图描绘所述至少一个提取的特征,以及
- 确定工业机器人可动部件的绝对姿态,其中所述绝对姿态是在绝对坐标系中的姿态。
该任务进一步通过一种工业机器人予以解决,
- 具有至少一个安装在工业机器人的可动部件上的成像传感器,以及
- 具有控制器,该控制器被设置用于:利用工业机器人执行所述方法。
下面提到的优点不一定通过独立权利要求的主题实现。更确切地说,也可以涉及仅通过单独的实施方式、变型方案或改型方案实现的优点。
例如,成像传感器安装在工业机器人的构件上,所述成像传感器可以检测环境中存在的特征,并且其测量值适合用于绝对地确定成像传感器的姿态,并且因此确定承载着成像传感器的机器人构件相对于环境的姿态。
为此目的,环境具有可由所述传感器识别的特征,并且其相对于所述传感器的位置和方向可至少部分地进行获取。这些特征可以是专门为确定机器人的位置和方向而设置的特征,以及本来就存在于环境中的特征。所述特征的位置和方向的确定由具有其传感器的工业机器人自身来完成。所获取的绝对姿态是绝对固定坐标系中的姿态。
该方法将移动式机器人的同时定位技术(即确定位置和方向)和建立环境特征地图的技术转用于固定工业机器人的定向。在这种情况下,优选同时获取绝对坐标系,确定环境特征相对于所述绝对坐标系的位置和方向,和计算工业机器人的可动部件相对于所述绝对坐标系的位置和方向。这基于安装在可动部件上的传感器的测量值。有利地,还附加地考虑获取关节位置的传感器,
所述方法的实施方式或改型方案可以提供以下优点:即使是不精确的或弹性的工业机器人的、以及在不同负载时的绝对位置和方向也被获取。此外,可以确定在工业机器人的模型中的参数,并且因此如果需要可以改进工业机器人的位置和方向的测量精度以及工业机器人的控制。通过使用本来就存在于环境中的特征,可以降低成本和准备时间(Rüstzeit)。特征的位置和方向的确定由具有成像传感器的工业机器人自身来完成,不再强制性需要外部校准设备和特殊校准过程。由于使用了相对于绝对坐标系的绝对位置和方向,因此工件可以由另一个代理(人或机器)相对于绝对坐标系进行放置。为此,可以使用关于一些环境特征的位置和方向的信息。
工业机器人的构件例如可以是线性轴和/或旋转轴。在具有串联运动学的关节臂机器人的运动学中的最后一个构件例如是具有作为工具接口的法兰的构件。例如,在具有并联运动学的德尔塔机器人中,最后一个构件是工作平台。
成像传感器可以例如安装在相应构件上或嵌入相应构件中。
例如,绝对坐标系由固定且绝对地位于空间中的直角坐标轴组成。其原点优选固定在空间中唯一的点上。绝对坐标系不会相对于工业机器人改变或运动,但是工业机器人的构件可以根据绝对坐标系内的运动学来运动。
根据需要,为了创建地图,可以对工业机器人预先规定:它应当根据哪些标准来选择绝对坐标系,例如与房间角落或地板相一致。
根据一种实施方式,提供了一种方法,
- 其中,环境地图的确定是统计估计,和
- 其中绝对姿态被建模为概率密度函数。
绝对姿态不必在所有坐标中被确定。它也可以具有模糊性并且概率性地进行描述,例如在该实施方式中描述为概率密度函数。
根据一种实施方式,提供了一种方法,
- 其中,SLAM算法迭代地执行卡尔曼滤波算法、扩展卡尔曼滤波算法、无迹卡尔曼滤波算法或者粒子滤波算法。
迭代方法基于迭代预测和校正。
根据一种实施方式,提供了一种方法,
- 其中SLAM算法基于因子图算法,特别是GTSAM算法。
根据一种实施方式,提供了一种方法,
- 其中,所述工业机器人重复地执行限定的运动、特别是构件的平移或旋转,以及
- 其中,环境特征在每次运动期间和/或之后从所述至少一个成像传感器的信号中提取。
根据一种实施方式,提供了一种方法,
- 其中,工业机器人输出绝对坐标系。
为此,工业机器人可以例如接近(anfahren)绝对坐标系中的点,并且并行地输出它们的坐标。这允许在由工业机器人确定的绝对坐标系与应用坐标系之间确定出变换。
根据一种实施方式,提供了一种方法,
- 其中,所述至少一个成像传感器安装在承载构件上,并且
- 其中确定所述承载构件的绝对姿态。
根据一种实施方式,提供了一种方法,
- 其中,环境特征从安装在承载构件上的多个成像传感器的信号中提取,其中所述成像传感器朝向不同的方向。
不同的方向是有利的,因为相比于特征的距离和旋转,摄像机可以更好地确定特征的横向位移。
根据一种实施方式,提供了一种方法,
- 其中,承载构件是工业机器人的多个构件中的一个构件,其中所述构件可根据运动学进行运动。
根据一种实施方式,提供了一种方法,
- 其中,构件的驱动器被操控以调节工业机器人的工具接口的下述姿态,该姿态在绝对坐标系中预先给定。
由此在绝对坐标系中提供了工具接口的绝对定位。预定姿态的调节可以总是包括相同的定向,或者例如仅在两个或一个维度中进行预定姿态的调节,如果相应的运动学由结构决定地仅允许这样并且因此限制调节可能性。
因此,连续获取的绝对姿态用于使工业机器人的工具接口进入预定姿态。该预定姿态与执行机构的期望的姿态相同或者可以通过简单的变换由期望的姿态计算出来,所述执行机构安装在工具接口上,。
根据一种实施方式,提供了一种方法,
- 其中,在调节至预定姿态时考虑所获取的绝对姿态。
根据一种实施方式,提供了一种方法,
- 其中,在调节至预定姿态时考虑工业机器人的内部传感机构的信号。
内部传感机构优选是获取工业机器人的关节或轴的位置的传感器。
根据一种实施方式,提供了一种方法,
- 其中,根据工业机器人的内部传感机构的绝对姿态和/或信号,计算基于工业机器人(1)的运动学的运动模型的参数。
在此,确定在工业机器人的运动模型中的参数,这相当于持续的校准。
根据一种实施方式,提供了一种方法,
- 其中,借助于运动模型来调节至预定姿态。
根据一种实施方式,提供了一种方法,
- 其中,环境特征从多个成像传感器的信号中提取的,这些成像传感器安装在工业机器人的、多个、尤其是所有的构件上,
- 其中,借助于提取的特征确定相应构件的绝对姿态,其中所述绝对姿态是在绝对坐标系中的姿态,并且
- 其中,所述绝对姿态用于在绝对坐标系中计算工业机器人的工具接口的运动模型的参数和/或预定姿态的调节。
在工业机器人的运动学中的最后一个构件必要时能够被取出,并且不承载着成像传感器,以便不妨碍工业机器人的执行机构或使用。
在计算机可读的数据载体上,存储有计算机程序,当该计算机程序在处理器中被执行时,其实施所述方法。所述计算机程序在处理器中被执行,并且在此实施所述方法。
在下文中,参考附图更详细地阐述本发明的实施例。在附图中,除非另有说明,否则相同或功能相同的元件配设有相同的附图标记。附图示出:
图1示出了具有四个摄像机的工业机器人1,
图2示出了在最后一个构件14处具有摄像机的工业机器人1
图3示出了在第三构件13上具有摄像机的工业机器人1。
图1示出了工业机器人1,其被设计为具有四个构件的关节臂机器人。第一构件11安装在固定的底座10上。在工业机器人1的串联运动学中,之后是第二构件12、第三构件13和最后的构件14,第一摄像机21安装在第二构件上,第二摄像机22安装在第三构件上,第三摄像机23和第四摄像机24安装在最后的构件上,上述摄像机朝向不同的方向。在最后的构件14处还安装有一个执行机构15、在此是一夹具,该执行机构应当将第一工件51插入到第二工件52中。例如,最后的构件14具有法兰板,其具有中点3,执行机构15安装在该中点上。在这种情况下,所述法兰板形成工具接口,在该工具接口上也可以安装用于不同工具的转换接收器。
原则上,摄像机21、22、23、24可以任意分布在一个或多个、尤其是所有构件上。安装在同一承载构件上的多个摄像机优选朝向不同的方向。
根据视野的不同,摄像机21、22、23、24分别记录环境的第一特征31、第二特征32、第三特征33和第四特征34。这些特征例如是旋转不变的(rotationsinvariant)ARToolkit标记、QR码或棋盘图案(Schachbrettmuster)。然而,这些特征也可以是本来就存在于环境中的结构,可以使用合适的算法将其提取为SIFT特征或SURF特征。
术语“绝对定位”在下文中应被理解为:在工业机器人1上的限定的点驶过在绝对坐标系2中给出的位置。在工业机器人1上的限定的点在图1示出的示例中例如是法兰板的中点3,或者是在最后的构件14的旋转轴线上的最外侧的点,通常是工具接口或在末端执行机构15本身处的点。
在这种情况下,绝对定位也可以包括方向的调节。在这种情况下,在绝对坐标系2中调节绝对的姿态,即工具接口或者执行机构15的位置和方向。在此,待调节的姿态能够作为预定姿态被预先给定,并且例如由第二工件52的、用于一系列的工作步骤的CAD数据计算出来,如果在绝对坐标系中已知第二工件52的位置。
绝对坐标系2作为位置固定的坐标系例如参照工业机器人1的固定的底座10,或者参照环境、例如工作区域、围绕工业机器人1的笼子、料箱、架子等。
当绝对坐标系2参照工业机器人1时,它例如如图1所示与工业机器人1的运动学相关。在图1所示的实施例中,第一构件11的第一运动自由度是基本垂直的旋转轴线4。在此,该旋转轴线4可以用作绝对坐标系2的z轴,其被如此调节,使得角度传感器将该轴指定为0°。绝对坐标系2的x轴被选为与第二构件12正交,即与第二自由度的旋转轴线正交,并且与z轴正交。如果我们将这个第二自由度的旋转轴称为u,则x轴是标准化的叉积x =(u × z)/| | u × z | |。于是,y轴是z和x的叉积,即z × x。作为绝对坐标系2的原点,例如选择z轴的具有工作台5的的截面。为了使其可见,第三特征33和第四特征34安装在工作台5上,该工作台在工业机器人1的摄像机中可见。
这是机器人居中的绝对坐标系2的实施例,即用于确定绝对坐标系2的基本特征可以在机器人运动学中找到。然而,用于确定绝对坐标系2的基本特征也可以如图2所示位于环境中,并且它们能够以自然的方式出现在那里,或者特别安装在那里,即,它们能够出于不同于获取绝对坐标系2的原因(作为工作台、料箱,保护栅(Schutzgatter)等)安置在那里,或者是能够由摄像机特别良好地检测的并且因此安置在环境中的对象或结构或图案。在后一种意义上,例如工作台5可以配设有棋盘图案,其特别良好地被摄像机检测。于是,该工作台5成为x-y平面,并且原点利用另一图案进行确定,例如指向棋盘一角的箭头。
在一个变型方案中,工业机器人1将绝对坐标系2输出给用户或其他机器。为此,工业机器人1例如接近绝对坐标系2中的某些点,例如(1,1,0)、(1,-1,0)、(-1,1,0)、(-1,-1,0)、(1,1,1)、(1,-1,1)、(-1,1,1)、(-1,-1,1)。替代地,用户可以手动利用工业机器人1接近特征位置(例如在架子上的点),并且为此,绝对坐标能够作为语音输出、数字数据集等进行输出。工业机器人1在此传达正确的绝对坐标,其遵循在3D中的几何规则。如果给出了两点A和B并且在工作空间中在物理上接近所述两点,则在计算中在所述点之间的欧几里德距离| | A - B | | 必须与测量值一致。这同样适用于角度。
根据应用场景,工业机器人1装配一马达,其具有大量多样化变型。必要时,该马达的结构也被调整,并且工业机器人1是首次看到这款马达,但是它知道CAD图纸。为了进行装配必须依次接近的位置之前没有接近过,因此不能使用具有高重复精度的相对定位。取而代之,需要具有足够精确性的绝对定位。参照图1,马达例如是第二工件52,第一工件51应当插入该第二工件中。为此,必须准确地知道第二工件52在工业机器人1的绝对坐标系2中的位置。优选的是,为此第二工件52借助于定心销准确限定地插入到一支架中,随后所有的部件都装配到成长的(wachsend)马达上。由第二工件52的合适的CAD数据和初始位置,得到在绝对坐标系2中的下述点的位置,工业机器人1必须将新的工件移动到所述点处。同样,之后进行所需的、工业机器人1的定向。
因此,工业机器人1必须能够利用执行机构15占据相应所需的精确位置和方向,并且为此,它使其马达运动。它所谓的内部传感机构通常检测其关节位置。从背景技术中,例如从文档“机器人校准”中(2016年7月5日获取于互联网,网址为https://de.wikipedia.org/wiki/Roboter-kalibrierung)已知用于由这些传感器测量值来计算位置和方向的数学基础。根据这个文档中的标注,位置和方向y可以被描述为关节位置x和几个其他参数p的函数f,所述参数进一步限定函数f:
f:(x,p)→ y。
在此,X由内部传感机构的传感器测量,并且因此是有误的。以这种方式获取的绝对定位对于许多应用情况来说不够准确。一方面,参数p不是准确已知的。这应当改进校准,其中所述参数如此改变,使得对于绝对坐标中的多个在物理上测量的点来说,模型化的点与经测量的点的方差(quadratische Abweichung)之和被最小化。
然而,这种校准具有局限性。首先,难以测量在物理上待接近的点。其次,工业机器人1的模型通常不完整,因为它没有描绘工业机器人1的位置和方向(例如其法兰板中点3的位置和方向)所取决于的所有特性。所述特性包括传动器的特性、其弹性或其滞后行为、或构件的弹性、温度效应、内部传感机构的不准确性等。利用相应的花费,能够建立和校准更准确的、即更完整的模型。
为了实现较高的绝对精度,工业机器人1的位置和方向一方面可以由关节位置的测量基于模型来推导。另一方面,位置和方向也可以直接在执行机构15处或在法兰板的中点3处测量。例如,为此将测量体安置在法兰和执行机构15之间,该测量体由位于环境中的外部传感器检测。在这种情况下,精确的位置既由关节位置的测量又由测量体的定位来获取,并且所述工业机器人1被相应地调节到该位置。然而,这种测量体体积很庞大并且可能妨碍某些任务。
分布在图1中的工业机器人1的不同构件上的第一摄像机21、第二摄像机22、第三摄像机23和第四摄像机24比这种测量体更小且更便宜,并提供进一步的测量,由该测量能够确定执行机构15的精确位置。
在这种情况下,第三摄像机23和第四摄像机24直接安装在位于最后的构件14上的执行机构15附近,也就是说在与前述测量体类似的位置。取代从外部观察这样的测量体,第三摄像机23和第四摄像机24从工业机器人1出发记录环境的第三特征33和第四特征34。
在下文中,阐述多个示例:如何借助于同时定位和创建地图来同时确定绝对坐标系2、环境地图和工业机器人1的绝对姿态。在此,参考图2和迄今为止的实施例。例如,环境地图是一种统计估计,而绝对姿态被良好地建模为概率密度函数。
图2再次示出了工业机器人1,其被设计为具有四个构件的关节臂机器人。当然,工业机器人1也可以像在所有其他实施例中那样设计成具有多于或少于四个构件。原则上,考虑用于工业机器人1的每种任意的运动学,例如由旋转轴(R)、平移轴(T)或这两种类型的组合组成的串联运动学。串联运动学例如可以是具有两个或三个主轴和三个手轴的机器人的RRR / RRR、RTR / RRR、TRR / RRR、RRT / RRR、RTT / RRR、RT /RRR或者TR /RRR运动学。此外,工业机器人1的运动学也可以是并联运动学。
在图2所示的个别情况下,工业机器人1的第一构件11安装在固定的底座10上。在工业机器人1的串联运动学中,之后是第二构件12、第三构件13和最后的构件14,第一摄像机21安装在该最后的构件上。最后的构件14具有法兰板,该法兰板具有中点3,执行机构15、在此是夹具安装在该法兰板上,该执行机构应当将第一工件51插入到第二工件52中。
在本实施例中,应当确定工业机器人1的可动部件的绝对姿态,其中所述绝对姿态是在绝对坐标系2中的姿态,该绝对坐标系之前已经阐述,并且在位于图2中的新的变型中被画出。可动部件例如是最后的构件14、第一摄像机21或者执行机构15。相应的坐标可以被容易地相互转换,因为相应的部件彼此间刚性地安装在最后的构件14上。
因为第一摄像机21安装在最后的构件14上,所以图2示出了下述情况:计算出了最后的构件14、第一摄像机21或执行机构15的绝对姿态。然而,原则上,参考下述实施例,第一摄像机21也可以——如图1所示——安装在第二构件12或第三构件13上。在这种情况下,计算第二构件12或者第三构件13的绝对姿态,这对于改进工业机器人1的绝对定位的计算精度同样也是有利的。
在图2中,工业机器人1的底座10再次安装在工作台5上,该工作台被绘制为具有棋盘的第一特征31,棋盘位于第一摄像机21的视野中。棋盘的领域的边缘长度是已知的,并且该边缘长度校准第一摄像机21。此外,存在工业机器人1的运动学模型。工业机器人1的内部传感机构的传感器记录其关节位置,但是在此对于绝对定位而言不够准确。
在这种情况下,环境地图仅包含基准图案“棋盘”,该基准图案具有其固有特性(直角的、领域的边缘长度)以及它在3D中的位置和方向。在当前场景中,创建3D地图,因为工业机器人1能够在3D中自由运动。然而,取决于工业机器人1的自由度,2D地图也能够是足够的。
根据图2,工作台5预先给定绝对坐标系2的x-y平面,因为这简化了绝对坐标系2与外界的通信。为此,第一特征31的棋盘图案限定绝对坐标系的x-y平面。如果在棋盘上绘制了x轴和y轴,则完整的地图绘制(Mapping)被完成。
现在借助于第一摄像机21来实施执行机构15的定位。在图1所示的结构中,可以由摄像机图像获取到第一特征31相对于第一摄像机21的位置和方向。为此例如在假设出位置和方向的情况下预测摄像机图像,并且将该预测与实际的摄像机图像进行比较。然后改变位置和方向,直到两者一致。由于姿态在此相对于第一特征1的棋盘被获取(所述第一特征1也限定了绝对坐标系2),因此它以绝对坐标的形式存在。
作为图像处理的一部分,尤其是能够在必要时仅不准确地确定至所述第一特征31的距离和方向。为了提高这种精度,另一棋盘作为第二特征32以大致垂直于第一特征31的方式安装在墙上。在下一步骤中,确定第二特征32的位置和方向。例如,为此旋转最后的构件14,直到第二特征32在第一摄像机21的摄像机图像中可见。由于重复精度超过绝对精度,因此可以利用传统的工业机器人非常精确地重复进行围绕固定角度范围(例如60°或90°)的旋转。
第二特征32的位置和方向如下地进行确定。首先,获取第一摄像机21相对于第一特征31的位置和方向。随后,旋转最后的构件14。在第三步骤中,计算第一摄像机21在旋转之后的位置和方向。最后,在第四步骤中确定第二特征32相对于第一摄像机21的位置和方向。作为结果,获取到第二特征32在绝对坐标系2中的位置和方向,即相对于第一特征31的位置和方向。
这可以针对工业机器人1的许多不同位置和方向进行重复,其中,每次都计算第二特征32的另一位置和方向,尽管这必须是恒定的。因此,如此调节摄像机运动的参数和位置与方向,使得第二特征32的位置和方向的波动最小化,即改善了地图。同时,因此还改善了工业机器人1(这里是第一摄像机21)的绝对姿态的估计。执行机构15的绝对姿态也可以直接由第一摄像机21的绝对姿态来计算,因为两者都安装在最后的构件14上。
在之前阐述的实施例中,绝对坐标系2的位置由第一特征31预先给定。第一特征31在此是事先(priori)已知的。为此,也可以利用合适的传感器事先精确地测量第一特征31和可能的第二特征32。
图3示出了另一种工业机器人1,其被设计为具有四个构件的关节臂机器人。如上所述,任何其他运动学也都是可能的,例如六轴或七轴关节臂机器人的运动学。在图3的实施例中,绝对坐标系统2再次如图1所示地被选择,其中由第一构件11,即工业机器人1的第一旋转轴来推导出绝对坐标系2的z轴,如在图1的说明中已经阐述的那样。第一特征31,第二部件32,第三特征33和第四部件34位于工业机器人1的视野中,这些特征对于工业机器人1来说是事先已知的。在这种情况下,工业机器人1的视野表示第一摄像机21在所有可能的摄像机位置处的视野的覆盖范围。例如,这些特征是旋转不变的ARToolkit标记、QR码或棋盘图案。然而,这些特征也可以是本来就存在于环境中的结构,可以利用合适的算法将该结构提取为SIFT特征或SURF特征。
在图3中,第一摄像机21安装在第三构件13上。这仅仅是各种可能的实施方式的一种说明。当然,摄像机21也可以安装在其他构件11、12或14之一上。
为了创建地图并同时进行定位,在第三构件13上的第一摄像机21四处运动,由此检测特征31、32、33、34。在此是指限定的运动,尤其是构件的平移或旋转。借助于机器人运动学,能够在此计算关于第一摄像机21的位置和方向的信息。如果所述特征31、32、33、34之一在摄像机图像中可见的,则我们由此在摄像机坐标系中获得特征的位置和方向的估计,并且通过运动学也获得在绝对坐标中的位置和方向的估计。利用认知:特征31、32、33、34的位置和方向在绝对坐标中是恒定的,可以最小化关于该位置和方向的不确定性。同时,在此也可以优化运动学参数的估计。最后,如果所述特征31、32、33、34的位置和方向经由许多次测量被准确地确定,则也能够由特征31、32、33、34的图像准确地确定第一摄像机21的位置和方向(更确切地说,比仅由关节的位置和运动学模型更加精确)。然而,通过使用特征31、32、33、34的位置和方向的改进的估计,为了定位所述第三摄像机23,不必等到完成工业机器人1的设置——也能够同样使用所述估计。
用于此的SLAM算法在背景技术中充分公开的。在下文中,将参考图3进一步解释SLAM算法的合适的实施例。
在时刻k,第一摄像机21在绝对坐标系2中的位置和方向被称为cam(k),此外第i个特征31,32,33,34在绝对坐标系2中的位置和方向被称为mi。这些量应当被估计,并且共同形成整个系统的状态矢量,
(cam(l),cam(2),...,cam(K),m1,...,mM)。
为此,关节位置x1,...,xK和特征31、32、33、34的照准(Sichtung)作为测量值出现。由关节位置xi得到具有一定的可靠性的、摄像机位置的测量值cam(l)。这被建模为位置和方向的概率密度分布。在此假设平均误差为0,即运动学被校准了。如果没有进行高质量的校准,则计算仍然有效,因为只有cam(i)的协方差(Kovarianz)相应增加。
假设在时刻k由第一摄像机21看到特征i,则特征i在摄像机坐标中的位置和方向标记为s(k,i)。由于特征31、32、33、34具有恒定的位置和方向,所述第一摄像机21在绝对坐标中的位置和方向的复合量(Komposition)以及相应的特征31、32、33、34在摄像机坐标中的位置和方向的复合量是恒定的。这是通过补偿可能出现的误差来实现的。为此,cam(k) +errors(k)用作该复合量的第一部分;并且s(k,i) + errors(k,i)用作该复合量的第二部分。当一值(作为优化变量)用于cam(k)和mi时,会出现这些错误。它们取决于在优化变量值与测量值之间的距离的大小,并且取决于对于测量假设的协方差。如此选择摄像机位置和特征位置,以使总误差最小化。在这种情况下,其他摄像机位置被计算为仅由运动学确定的摄像机位置,就是说所述特征具有显著的影响。相对于由单次照准出发,特征位置也被更准确地确定。
在此,同时改进地图并确定位置,如这在使用由背景技术已知的算法的情况下对于其他的应用已经公开的那样,该算法用于同时定位和创建地图(英语:SimultanousLocalization and Mapping, 缩写为SLAM)。这种方法的有利的实施提供了诸如GTSAM算法的因子图算法,GTSAM算法详细阐述于下述文献:“Factor Graphs and GTSAM: A Hands-onIntroduction", 佐治亚理工学院, 机器人和智能机器中心, CP&R 技术报告, 2012年,2016年7月6日获取与互联网,网址为 http: //hdl.handle.net/1853/45226。
如果没有同时在所有测量上进行优化,而是考虑每次测量,只要它被实施,那么SLAM算法也可以达到类似的精度。因此,迭代地执行系统状态的上述优化(定位和制图)。对此适合的算法例如是卡尔曼滤波、扩展卡尔曼滤波、无迹卡尔曼滤波或者粒子滤波,它们由S. Thrun、W. Burgard和D. Fox所著的Probabilistic Robotics(概率机器人), MIT出版社, 2005年, 65-71页, 96-102页, 309-317页所公开。
在最后的实施例中,被阐述的是唯一的摄像机的使用。这可以是概括性的。再次参照图1,在下文中,被阐述的是应用在工业机器人1的不同构件11、12、13、14上的多台摄像机21、22、23、24的实施例。对于这个实施例,工业机器人1相对于图1中的视图被一般化,并且被更详细地建模为具有六个可动构件g1,...,g6的机器人。
替代仅一个构件的位置和方向,例如最后的构件g6的位置和方向,现在在状态模型中接收有每个其上安装摄像机的构件的位置和方向。通过相应构件的坐标系的变换,可以将相应的构件姿态转换成相应的摄像机姿态。这些是其他参数,它们同样也需要通过校准来更准确地确定。相应构件的坐标系对应于Denavit和Hartenberg的标准模型地被选择,关于该标准模型请参考文献:“Denavit-Hartenberg-Transformation”, 2016年7月6日获取于互联网,网址为https://de.wikipedia.org/wiki/Denavit-Hartenberg-ransformation。
关节位置现在不再整体进入到计算中,而是计算在两个承载着摄像机的机器人构件之间的相对位置和方向,而位于其中的构件不承载摄像机。否则,所述计算对应于前述实施例:测量的误差如在之前的情况中那样被建模并且最小化,所有机器人构件同时被定位,并且它也可以通过多个构件或摄像机看到相同的特征。在此,优化也可以在所有观察上同时实施,也可以迭代地实施。
在最后的实施例中,被阐述的是事先已知的特征在环境中的使用。为此,特殊的光学标记是合适的,其中可以最佳地获取摄像机相对于标记的可能的位置和方向。这对应于集中的概率密度分布。然而,在下文中,被阐述的是在已经描述的实施例中如何能够使用其他特征。
例如,代替棋盘,海报可以作为特征存在于环境中,在该海报上通过图像处理方法能够准确地确定一点并且也能够再次识别一点。这样的图像特征例如被称为SIFT特征或SURF特征,参见文档“Scale-invariant feature transform”,2016年7月6日获取于互联网,网址为https://en.wikipedia.org/wiki/Scale-inviant_feature_transform。
在这种情况下,距离的确定是非常不准确的,并且三个旋转参数中的两个旋转参数也是非常不准确的。但是,这种不确定性可以再次建模为概率密度分布,并且可以如前面的示例中那样获取整体估计的精确度。因此,出现了出自个别测量的、较差的信息,然而这可以通过更加独立的测量来补偿。
在迄今为止的实施例中,摄像机被描述为成像传感器,因为在此在提高性能的同时存在小型化和降低成本的趋势。然而,代替摄像机,在相应实施例中可以使用其他成像传感器,因为所描述的原理对其他传感器也是有效的。因此,在2D摄像机之外,3D摄像机、红外摄像机、条纹投影传感器、超声波传感器和激光扫描仪也适合用作成像传感器。
此外,代替在前述实施例中提到的摄像机,多平面激光扫描仪也可以用作成像传感器,其生成密集的点云。这种点云通常包含特征结构,该特征结构可用作用于定位和制图的特征。如果环境具有足够多的特征结构,则在此也可以使用具有扫描平面的激光扫描仪。在这种情况下,为了更好地定位和制图,可能需要执行特殊的运动。
此外,例如以光源的形式的有源特征布置在环境中。如前所述,有帮助的是:作为事先信息提供这些标记的绝对位置,但不是必须的。在此,工业机器人的高绝对精度也可以通过同时定位和制图来实现。
一个或多个上述实施例的一种可能的实施方式是具有执行相应计算的控制器的工业机器人。为此,控制器可以具有电子存储器,可以评估工业机器人的内部传感机构的以及成像传感器的信号,并且可以操控工业机器人的马达。在这种情况下,控制器还可以执行一种调节,其方式为该控制器连续地从摄像机图像和内部传感机构中获取当前的绝对姿态,并且调整该绝对姿态直到以预定的精度调节至预定姿态。
尽管已经通过实施例详细说明和描述了本发明,但是本发明不限于所公开的示例。在不脱离本发明的保护范围的情况下,本领域技术人员可以从中推导出其他变型。所描述的实施例、变型、实施方式和改型方案也可以自由地彼此组合。

Claims (18)

1. 定向工业机器人的方法,
- 其中,从安装在工业机器人(1)的可动部件上的至少一个成像传感器(21、22、23、24)的信号中提取环境的至少一个特征(31、32、33、34),在工业机器人(1)执行运动之前、期间或者之后,并且
- 其中,借助于用于同时定位和创建地图的SLAM算法来同时
- 确定绝对坐标系统(2)和环境地图,其中环境地图描绘所述至少一个提取的特征(31、32、33、34),以及
- 确定工业机器人可动部件的绝对姿态,其中所述绝对姿态是在绝对坐标系中的姿态。
2. 根据权利要求1的方法,
- 其中环境地图的确定是统计估计,和
- 其中绝对姿态被建模为概率密度函数。
3.根据权利要求2所述的方法,
- 其中,SLAM算法迭代地执行卡尔曼滤波算法、扩展卡尔曼滤波算法、无迹卡尔曼滤波算法或者粒子滤波算法。
4.根据权利要求1或2的方法,
- 其中,SLAM算法基于因子图算法,特别是GTSAM算法。
5.根据前述权利要求中任一项所述的方法,其中,所述工业机器人(1)重复地执行限定的运动、特别是构件的平移或旋转,以及
- 其中,环境特征(31、32、33、34)在每次运动期间和/或之后从所述至少一个成像传感器(21、22、23、24)的信号中提取。
6.根据前述权利要求中任一项所述的方法,
- 其中,工业机器人输出绝对坐标系。
7. 根据前述权利要求中任一项所述的方法,
- 其中,所述至少一个成像传感器(21、22、23、24)安装在承载构件上,并且
- 其中确定所述承载构件的绝对姿态。
8.根据权利要求7的方法,
- 其中,环境特征(31、32、33、34)从安装在承载构件上的多个成像传感器(21、22、23、24)的信号中提取,其中所述成像传感器(21、22、23、24)朝向不同的方向。
9.根据权利要求7或8的方法,
- 其中,承载构件是工业机器人(1)的多个构件(11、12、13、14)中的一个构件,其中所述构件(11、12、13、14)可根据运动学进行运动。
10.根据权利要求9所述的方法,
- 其中,构件(11、12、13、14)的驱动器被操控以调节工业机器人(1)的工具接口的下述姿态,该姿态在绝对坐标系中预先给定。
11.如权利要求10所述的方法,
- 其中,在调节至预定姿态时考虑所获取的绝对姿态。
12.根据权利要求10或11所述的方法,
- 其中,在调节至预定姿态时考虑工业机器人(1)的内部传感机构的信号。
13.根据前述权利要求中任一项所述的方法,
- 其中,根据工业机器人(1)的内部传感机构的绝对姿态和/或信号,计算基于工业机器人(1)的运动学的运动模型的参数。
14.根据权利要求10至12中任一项所述的方法,结合权利要求13,
- 其中,借助于运动模型来调节至预定姿态。
15.根据前述权利要求中任一项所述的方法,
- 其中,环境特征(31、32、33、34)从多个成像传感器(21、22、23、24)的信号中提取,这些成像传感器安装在工业机器人(1)的、多个、尤其是所有的构件(11、12、13、14)上,
- 其中,借助于提取的特征(31、32、33、34)确定相应构件(11、12、13、14)的绝对姿态,其中所述绝对姿态是在绝对坐标系中的姿态,并且
- 其中,所述绝对姿态用于在绝对坐标系中计算工业机器人(1)的工具接口的运动模型的参数和/或预定姿态的调节。
16.计算机可读的数据载体,
- 其上存储有计算机程序,当该计算机程序在处理器中被执行时,其实施根据权利要求1至15中任一项所述的方法。
17.计算机程序,
- 其在处理器中被执行,并且在此实施根据权利要求1至15中任一项所述的方法。
18. 工业机器人(1),
- 具有至少一个安装在工业机器人(1)的可动部件上的成像传感器(21、22、23、24),以及
- 具有控制器,该控制器被设置用于:利用工业机器人执行根据权利要求1至15中任一项所述的方法。
CN201780034042.9A 2016-05-31 2017-05-22 用于定向工业机器人的方法和工业机器人 Active CN109153125B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102016209462 2016-05-31
DE102016209462.9 2016-05-31
DE102016212694.6A DE102016212694A1 (de) 2016-05-31 2016-07-12 Verfahren zur Orientierung eines Industrieroboters und Industrieroboter
DE102016212694.6 2016-07-12
PCT/EP2017/062215 WO2017207312A1 (de) 2016-05-31 2017-05-22 Verfahren zur orientierung eines industrieroboters und industrieroboter

Publications (2)

Publication Number Publication Date
CN109153125A true CN109153125A (zh) 2019-01-04
CN109153125B CN109153125B (zh) 2022-12-13

Family

ID=60269298

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780034042.9A Active CN109153125B (zh) 2016-05-31 2017-05-22 用于定向工业机器人的方法和工业机器人

Country Status (5)

Country Link
US (1) US20200298411A1 (zh)
EP (1) EP3463766A1 (zh)
CN (1) CN109153125B (zh)
DE (2) DE102016212695B4 (zh)
WO (2) WO2017207312A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110861081A (zh) * 2019-10-14 2020-03-06 北京航空航天大学 一种欠约束索并联机器人末端执行器的自主定位方法
CN112297004A (zh) * 2019-08-01 2021-02-02 发那科株式会社 对机器人的位置进行控制的机器人装置的控制装置
CN113825980A (zh) * 2019-07-19 2021-12-21 西门子(中国)有限公司 机器人手眼标定方法、装置、计算设备、介质以及产品
CN114474038A (zh) * 2020-10-26 2022-05-13 西门子股份公司 用于将非电气组件组装到组件载体上的方法和组装单元

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12103170B2 (en) 2017-01-13 2024-10-01 Clara Vu Dynamic, interactive signaling of safety-related conditions in a monitored environment
US11518051B2 (en) 2017-02-07 2022-12-06 Veo Robotics, Inc. Dynamic, interactive signaling of safety-related conditions in a monitored environment
US11541543B2 (en) 2017-02-07 2023-01-03 Veo Robotics, Inc. Dynamic, interactive signaling of safety-related conditions in a monitored environment
CN110494900A (zh) 2017-02-07 2019-11-22 韦奥机器人股份有限公司 工作空间安全监控和设备控制
US11820025B2 (en) 2017-02-07 2023-11-21 Veo Robotics, Inc. Safe motion planning for machinery operation
US12049014B2 (en) 2018-02-06 2024-07-30 Veo Robotics, Inc. Workplace monitoring and semantic entity identification for safe machine operation
US12097625B2 (en) 2018-02-06 2024-09-24 Veo Robotics, Inc. Robot end-effector sensing and identification
DE102018109329B4 (de) * 2018-04-19 2019-12-05 Gottfried Wilhelm Leibniz Universität Hannover Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter
DE102018118265B4 (de) * 2018-07-27 2020-11-12 Sick Ag Verfahren und Überwachungssystem zum Absichern einer Maschine
GB2576322B (en) * 2018-08-13 2022-11-09 Imperial College Innovations Ltd Mapping object instances using video data
US11325252B2 (en) * 2018-09-15 2022-05-10 X Development Llc Action prediction networks for robotic grasping
US10990104B2 (en) 2019-01-10 2021-04-27 General Electric Company Systems and methods including motorized apparatus for calibrating sensors
DE102019105466B3 (de) 2019-03-04 2020-08-06 Forward Ttc Gmbh Verfahren zum Betrieb eines Antriebssystems sowie Antriebssystem
US11254019B2 (en) * 2019-03-05 2022-02-22 The Boeing Company Automatic calibration for a robot optical sensor
GB2582139B (en) * 2019-03-11 2021-07-21 Arrival Ltd A method for determining positional error within a robotic cell environment
JP7306937B2 (ja) * 2019-09-25 2023-07-11 ファナック株式会社 ロボットに支持された部材の位置を調整するロボット装置の制御装置
CN110625597B (zh) * 2019-09-27 2021-01-01 陈小龙 一种基于slam的机器人系统及其示教方法
CN110936378B (zh) * 2019-12-04 2021-09-03 中科新松有限公司 一种基于增量补偿的机器人手眼关系自动标定方法
CN111872931B (zh) * 2020-07-31 2021-08-13 安徽巨一科技股份有限公司 一种机器人自动标定检测位置机构
EP4108390B1 (de) * 2021-06-25 2023-08-02 Sick Ag Verfahren zum sicheren betrieb eines beweglichen maschinenteils
CN113878586B (zh) * 2021-11-04 2023-07-18 杭州景吾智能科技有限公司 机器人运动学标定装置、方法及系统
CN113927599B (zh) * 2021-11-05 2023-12-19 上海新时达电气股份有限公司 绝对精度补偿方法及系统、设备和计算机可读存储介质
DE102021213358A1 (de) 2021-11-26 2023-06-01 Physik Instrumente (PI) GmbH & Co KG Posenbestimmung bei Parallelkinematiken mit Referenzmarkern
CN115008476B (zh) * 2022-08-09 2022-12-13 广州数控设备有限公司 基于等效运动学模型的机器人标定方法及设备
US20240075617A1 (en) * 2022-09-06 2024-03-07 Applied Materials, Inc. Robot arm trajectory control

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993005479A1 (en) * 1991-08-30 1993-03-18 Cimetrix Incorporated Robot end-effector terminal control frame (tcf) calibration method and device
CN101370624A (zh) * 2006-01-23 2009-02-18 偌鸿慕·葛赫布瓦 自动化攫握零件的方法和系统
CN101511550A (zh) * 2006-08-02 2009-08-19 皮尔茨公司 用于观测工业环境中的人员的方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4753569A (en) * 1982-12-28 1988-06-28 Diffracto, Ltd. Robot calibration
AT506865B1 (de) * 2008-05-20 2010-02-15 Siemens Vai Metals Tech Gmbh Vorrichtung zum verbessern von genauigkeitseigenschaften von handhabungsgeräten
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US8744215B2 (en) * 2010-06-25 2014-06-03 American Android Corp. Methods and processes to aggregate multiple image feeds and dynamically select command reference frames
DE102011052386B8 (de) 2010-08-03 2016-10-06 Denso Wave Inc. Verfahren und Vorrichtung zum Kalibrieren einer Ursprungsposition eines Gelenkarmroboters
KR101913332B1 (ko) * 2011-12-23 2018-10-31 삼성전자주식회사 이동 장치 및 이동 장치의 위치 인식 방법
DE102013207899A1 (de) * 2013-04-30 2014-10-30 Kuka Laboratories Gmbh Fahrerloses Transportfahrzeug, System mit einem Rechner und einem fahrerlosen Transportfahrzeug, Verfahren zum Planen einer virtuellen Spur und Verfahren zum Betreiben eines fahrerlosen Transportfahrzeugs
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
US9630319B2 (en) * 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
US10173324B2 (en) * 2015-11-16 2019-01-08 Abb Schweiz Ag Facilitating robot positioning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993005479A1 (en) * 1991-08-30 1993-03-18 Cimetrix Incorporated Robot end-effector terminal control frame (tcf) calibration method and device
CN101370624A (zh) * 2006-01-23 2009-02-18 偌鸿慕·葛赫布瓦 自动化攫握零件的方法和系统
CN101511550A (zh) * 2006-08-02 2009-08-19 皮尔茨公司 用于观测工业环境中的人员的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MATTHEW KLINGENSMITH等: "Articulated Robot Motion for Simultaneous Localization and Mapping (ARM-SLAM)", 《IEEE ROBOTICS AND AUTOMATION LETTERS》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113825980A (zh) * 2019-07-19 2021-12-21 西门子(中国)有限公司 机器人手眼标定方法、装置、计算设备、介质以及产品
CN113825980B (zh) * 2019-07-19 2024-04-09 西门子(中国)有限公司 机器人手眼标定方法、装置、计算设备以及介质
CN112297004A (zh) * 2019-08-01 2021-02-02 发那科株式会社 对机器人的位置进行控制的机器人装置的控制装置
CN110861081A (zh) * 2019-10-14 2020-03-06 北京航空航天大学 一种欠约束索并联机器人末端执行器的自主定位方法
CN114474038A (zh) * 2020-10-26 2022-05-13 西门子股份公司 用于将非电气组件组装到组件载体上的方法和组装单元
US12037207B2 (en) 2020-10-26 2024-07-16 Siemens Aktiengesellschaft Method and assembly unit for assembling non-electric components onto a component carrier

Also Published As

Publication number Publication date
DE102016212694A1 (de) 2017-11-30
US20200298411A1 (en) 2020-09-24
DE102016212695B4 (de) 2019-02-21
WO2017207312A1 (de) 2017-12-07
EP3463766A1 (de) 2019-04-10
DE102016212695A1 (de) 2017-11-30
WO2017207436A1 (de) 2017-12-07
CN109153125B (zh) 2022-12-13

Similar Documents

Publication Publication Date Title
CN109153125A (zh) 用于定向工业机器人的方法和工业机器人
Filion et al. Robot calibration using a portable photogrammetry system
US11833696B2 (en) Vision-based sensor system and control method for robot arms
Jagersand et al. Experimental evaluation of uncalibrated visual servoing for precision manipulation
DK2796249T3 (en) Programming robots
Lee et al. Industrial robot calibration method using denavit—Hatenberg parameters
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JPH08377B2 (ja) ロボット不正確度修正方法
Boby Identification of elasto-static parameters of an industrial robot using monocular camera
da Silva Santos et al. Comparison of visual servoing technologies for robotized aerospace structural assembly and inspection
Shen et al. Automatic camera calibration for a multiple-sensor integrated coordinate measurement system
JPWO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
Andreff et al. Unifying kinematic modeling, identification, and control of a Gough–Stewart parallel robot into a vision-based framework
Ulrich et al. Generic hand–eye calibration of uncertain robots
Boby et al. Measurement of end-effector pose errors and the cable profile of cable-driven robot using monocular camera
Chiwande et al. Comparative need analysis of industrial robot calibration methodologies
Ulrich et al. Uncertainty-aware hand–eye calibration
Marvel et al. Tools for robotics in sme workcells: challenges and approaches for calibration and registration
WO2023192681A1 (en) Inertia-based improvements to robots and robotic systems
Figueroa et al. Joint origin identification of articulated robots with marker-based multi-camera optical tracking systems
Axelrod et al. Improving hand-eye calibration for robotic grasping and manipulation
Rebello et al. Autonomous active calibration of a dynamic camera cluster using next-best-view
King et al. Vision guided robots for automated assembly
Schmitt et al. Recognition of dynamic environments for robotic assembly on moving workpieces
Li et al. Relative posture-based kinematic calibration of a 6-RSS parallel robot by using a monocular vision system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant