CN115362049A - 用于修正机器人的示教位置的装置、示教装置、机器人系统、示教位置修正方法以及计算机程序 - Google Patents

用于修正机器人的示教位置的装置、示教装置、机器人系统、示教位置修正方法以及计算机程序 Download PDF

Info

Publication number
CN115362049A
CN115362049A CN202180026006.4A CN202180026006A CN115362049A CN 115362049 A CN115362049 A CN 115362049A CN 202180026006 A CN202180026006 A CN 202180026006A CN 115362049 A CN115362049 A CN 115362049A
Authority
CN
China
Prior art keywords
robot
change
data
position data
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180026006.4A
Other languages
English (en)
Inventor
傅万峰
小洼恭平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN115362049A publication Critical patent/CN115362049A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40383Correction, modification program by detection type workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40387Modify without repeating teaching operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

要求一种使机器人的示教位置修正所涉及的作业简化的技术。用于修正机器人(12)的示教位置的装置(70)具有:姿势变化数据取得部(82),其根据机器人(12)的第一位置数据和第二位置数据,取得表示基于配置变化的工件相对于机器人(12)的姿势的变化量的姿势变化数据;第三位置数据取得部(84),其取得在将手前端部配置成使用姿势变化数据校正后的第二姿势的状态下相对于指标配置成规定的位置关系时的机器人(12)的第三位置数据;位置变化数据取得部(86),其根据第一位置数据和第三位置数据,取得表示由配置变化造成的工件相对于机器人(12)的位置的变化量的位置变化数据。

Description

用于修正机器人的示教位置的装置、示教装置、机器人系统、 示教位置修正方法以及计算机程序
技术领域
本发明涉及用于修正机器人的示教位置的装置、示教装置、机器人系统、示教位置修正方法以及计算机程序。
背景技术
已知有用于修正机器人的示教位置的装置(例如,专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2018-202559号公报
发明内容
发明要解决的课题
以往,要求使机器人的示教位置修正所涉及的作业更加简单化的技术。
用于解决课题的手段
在本公开的一方式中,使用相对于工件被配置于规定的位置的指标,在工件相对于机器人的配置发生变化时修正该机器人的示教位置的装置具有:第一位置数据取得部,其取得在工件的配置变化前,在使机器人的手前端部配置成第一姿势的状态下相对于指标配置成规定的位置关系时的机器人的第一位置数据;第二位置数据取得部,其取得在配置变化后,在使手前端部配置成第一姿势的状态下相对于指标配置成规定的位置关系时的机器人的第二位置数据;姿势变化数据取得部,其根据第一位置数据和第二位置数据,取得表示由配置变化造成的工件相对于机器人的姿势的变化量的姿势变化数据;第三位置数据取得部,其取得在使手前端部配置成使用姿势变化数据从第一姿势校正后的第二姿势的状态下相对于指标配置成规定的位置关系时的机器人的第三位置数据;位置变化数据取得部,其根据第一位置数据和第三位置数据,取得表示由配置变化造成的工件相对于机器人的位置的变化量的位置变化数据。
在本公开的其他方式中,使用相对于工件配置于规定的位置的指标,在工件相对于机器人的配置发生变化时修正该机器人的示教位置的方法中,取得在工件的配置变化前,在使机器人的手前端部配置成第一姿势的状态下相对于指标配置成规定的位置关系时的机器人的第一位置数据,取得在配置变化后,在使手前端部配置成第一姿势的状态下相对于指标配置成规定的位置关系时的机器人的第二位置数据,根据第一位置数据和第二位置数据,取得表示由配置变化造成的工件相对于机器人的姿势的变化量的姿势变化数据,取得在使手前端部配置成使用姿势变化数据从第一姿势校正后的第二姿势的状态下相对于指标配置成规定的位置关系时的机器人的第三位置数据,根据第一位置数据和第三位置数据,取得表示由配置变化造成的工件相对于机器人的位置的变化量的位置变化数据。
在本公开的另一方式中,为了使用相对于工件被配置于规定的位置的指标,在工件相对于机器人的配置发生变化时修正该机器人的示教位置,计算机程序使计算机作为以下部分发挥功能:第一位置数据取得部,其取得在工件的配置变化前,在使机器人的手前端部配置成第一姿势的状态下相对于指标配置成规定的位置关系时的机器人的第一位置数据;第二位置数据取得部,其取得在配置变化后,在使手前端部配置成第一姿势的状态下相对于指标配置成规定的位置关系时的机器人的第二位置数据;姿势变化数据取得部,其根据第一位置数据和第二位置数据,取得表示由配置变化造成的工件相对于机器人的姿势的变化量的姿势变化数据;第三位置数据取得部,其取得在使手前端部配置成使用姿势变化数据从第一姿势校正后的第二姿势的状态下相对于指标配置成规定的位置关系时的机器人的第三位置数据;位置变化数据取得部,其根据第一位置数据和第三位置数据,取得表示由配置变化造成的工件相对于机器人的位置的变化量的位置变化数据。
发明效果
根据本公开,能够不进行实机触摸释放动作,通过第三位置数据来取得用于示教位置修正的位置变化数据。因此,能够使示教位置修正涉及的作业简化。
附图说明
图1是一实施方式的机器人系统的图。
图2是图1所示的机器人系统的框图。
图3是图1所示的手前端部的放大图。
图4是从MIF坐标系的z轴正方向观察图3所示的手前端部的图。
图5是用于对一实施方式的工件以及指标进行说明的图。
图6是表示事前流程的一例的流程图。
图7是表示图6中的步骤S2以及图10中的步骤S2’的流程的一例的流程图。
图8表示在图7中的步骤S12中视觉传感器拍摄到的图像数据的例子。
图9是表示示教位置修正流程的一例的流程图。
图10是表示图9中的步骤S23的流程的一例的流程图。
图11是其他实施方式的机器人系统的框图。
具体实施方式
以下,根据附图对本公开的实施方式进行详细说明。此外,在以下说明的各种实施方式中,对一样的要素标注相同的附图标记,省略重复的说明。首先,参照图1~图4,对一实施方式的机器人系统10进行说明。机器人系统10具有:机器人12、视觉传感器14、控制装置16以及示教装置18。
在本实施方式中,机器人12是垂直多关节机器人,具有:机器人基座20、回转体22、机械臂24以及手腕部26。机器人基座20被固定于作业单元的地板。回转体22以能够绕铅垂轴回转的方式设置于机器人基座20。机械臂24具有:下臂部28,其以能够绕水平轴转动的方式设置于回转体22;以及上臂部30,其以能够转动的方式设置于该下臂部28的末端部。
手腕部26具有:手腕基座32,其以能够转动的方式与上臂部30的末端部连结;以及手腕凸缘34,其以能够绕轴线A转动的方式设置于该手腕基座32。手腕凸缘34是以轴线A为中心轴的圆筒状的部件,在其末端侧具有安装面34a。
在安装面34a以能够装卸的方式安装有进行针对工件的作业的末端执行器36。末端执行器36例如是机器人手、焊枪、激光加工头、涂料涂布器等,针对工件W进行规定的作业(工件处理、焊接、激光加工、涂敷等)。手腕凸缘34和安装于该手腕凸缘34的末端侧的末端执行器36构成机器人12的手前端部38。
在机器人12的各结构要素(即,机器人基座20、回转体22、机械臂24以及手腕部26)分别内置有伺服马达39(图2)。伺服马达39根据来自控制装置16的指令来驱动机器人12的各可动要素(即,回转体22、机械臂24以及手腕部26)。
对机器人12设定机器人坐标系C1(图1)。机器人坐标系C1是用于自动控制机器人12的各可动要素的动作的坐标系,固定在3维空间内。在本实施方式中,以将其原点配置于机器人基座20的中心且使其z轴与回转体22的回转轴一致的方式对机器人12设定机器人坐标系C1。
另一方面,如图1、图3以及图4所示,对手前端部38设定机械接口(以下,简称为“MIF”)坐标系C2。MIF坐标系C2是用于控制机器人坐标系C1中的手前端部38(即,末端执行器36)的位置以及姿势的坐标系。
在本实施方式中,以将其原点配置于手腕凸缘34的安装面34a的中心且使其z轴与轴线A一致的方式对手前端部38设定MIF坐标系C2。在使手前端部38移动时,处理器40在机器人坐标系C1中设定MIF坐标系C2,控制机器人12的各伺服马达39,以使手前端部38配置成由设定的MIF坐标系C2表示的位置以及姿势。这样,处理器40能够将手前端部38定位成机器人坐标系C1中的任意的位置以及姿势。
视觉传感器14例如是照相机或3维视觉传感器,具有光学系统(聚光透镜、聚焦透镜等)和拍摄传感器(CCD、CMOS等)。视觉传感器14拍摄物体,将拍摄到的图像数据发送至控制装置16。视觉传感器14相对于手前端部38被固定在规定的位置。
更具体而言,如图4所示,视觉传感器14内置于手腕凸缘34而被固定为不能移动,被摄体像被配置成通过形成于安装面34a的开口34b而沿光轴O入射到视觉传感器14的光学系统。对视觉传感器14设定传感器坐标系C3。
传感器坐标系C3是规定由视觉传感器14拍摄到的图像数据的各像素的坐标的坐标系,以使其x-y平面与视觉传感器14的光轴O正交的方式对视觉传感器14进行设定。在此,在本实施方式中,MIF坐标系C2与传感器坐标系C3的位置关系未被校准,是未知的。
控制装置16控制机器人12和视觉传感器14的动作。具体而言,控制装置16是具有处理器40、存储器42以及I/O接口44的计算机。处理器40具有CPU或GPU等,经由总线46与存储器42及I/O接口44能够通信地连接。处理器40一边与存储器42及I/O接口44进行通信,一边向机器人12及视觉传感器14输送指令,控制机器人12及视觉传感器14的动作。
存储器42具有RAM或ROM等,暂时或永久地存储各种数据。I/O接口44例如具有以太网(注册商标)端口、USB端口、光纤连接器、或HDMI(注册商标)端子等,在来自处理器40的指令之下,以无线或有线的方式与外部设备进行数据通信。上述的伺服马达39和视觉传感器14通过无线或有线以能够通信的方式与I/O接口44连接。
示教装置18例如是对用于使机器人12执行规定的作业的动作进行示教所使用的手持式装置(如示教器、或者平板便携设备那样的便携设备)。具体而言,示教装置18是具有处理器50、存储器52、I/O接口54、输入装置56以及显示装置58的计算机。处理器50具有CPU或GPU等,经由总线60与存储器52、输入装置56、显示装置58以及I/O接口54能够通信地连接。
存储器52具有RAM或ROM等,暂时或永久地存储各种数据。I/O接口54例如具有以太网(注册商标)端口、USB端口、光纤连接器、或HDMI(注册商标)端子等,在来自处理器50的指令之下,以无线或有线的方式与外部设备进行数据通信。I/O接口54与控制装置16的I/O接口44连接,控制装置16与示教装置18能够相互通信。
输入装置56具有按钮、开关或触摸面板等,受理来自操作员的输入,将输入信息发送到处理器50。显示装置58具有LCD或有机EL显示器等,在来自处理器50的指令之下显示各种信息。操作员通过操作输入装置56而对机器人12进行点动操作,能够对机器人12示教动作。
通过对机器人12进行示教,操作员能够构建用于使机器人12执行规定的作业的作业程序WP。在该作业程序WP中规定有为了作业而应对机器人12的手前端部38(具体而言,末端执行器36)进行定位的示教位置TP0。作业程序WP预先储存在存储器42以及52中。
处理器50将用于使机器人12进行动作的指令发送至控制装置16,控制装置16的处理器40根据来自示教装置18的指令来控制机器人12。这样,处理器50能够经由控制装置16控制机器人12的动作。
如图1以及图5所示,在本实施方式中,成为机器人12的作业对象的工件W通过夹具(未图示)等被固定于保持构造B的预先决定的位置。对工件W设定工件坐标系C4。工件坐标系C4是规定机器人坐标系C1中的工件W的位置以及姿势的坐标系,相对于工件W(或者,机器人坐标系C1)被固定。在本实施方式中,工件坐标系C4以将其原点配置于工件W的上表面的一顶角且使其x-y平面与工件W的上表面平行的方式相对于工件W进行配置。
在此,有时将机器人12、工件W以及保持构造B移设到其他生产线,或者更换机器人12、工件W以及保持构造B中的至少1个。这样的情况下,工件W相对于机器人12(或者机器人坐标系C1)的配置发生变化,其结果是,即使按照作业程序WP使机器人12进行动作而将手前端部38向示教位置TP0定位,也可能无法对工件W上的目标位置准确地执行作业。
因此,在本实施方式中,示教装置18使用相对于工件W配置于规定的位置的指标ID1、ID2、ID3来修正作业程序WP所规定的机器人12的示教位置TP0。如图5所示,在本实施方式中,共计3个指标ID1、ID2以及ID3被设置于保持构造B的上表面。
第一指标ID1、第二指标ID2以及第三指标ID3分别由圆线D和相互正交的2条直线E以及F构成。这些指标ID1、ID2以及ID3例如作为使用了涂料的图案、或者形成于保持构造B的上表面的刻印(凹凸)等能够视觉性识别的特征,被设置于保持构造B。
接下来,对示教装置18的动作流程进行说明。首先,示教装置18的处理器50在改变机器人12与工件W的配置(即,机器人12、工件W或保持机构B的移设或更换)之前,执行图6所示的事前流程。图6所示的事前流程在处理器50从操作员、上位控制器或示教位置修正用的计算机程序CP受理了事前流程开始指令时开始。
在步骤S1中,处理器50将确定第n指标IDn的编号“n”(在本实施方式中,n=1、2、3)设置为“1”。在步骤S2中,处理器50执行将手前端部38配置成相对于第n指标IDn规定的位置关系的过程。参照图7对该步骤S2进行说明。
在步骤S11中,处理器50将手前端部38配置成相对于第n指标IDn的初始位置PA_n以及第一姿势OR1。在此,初始位置PA_n被预先决定为第n指标IDn进入视觉传感器14的视野内的手前端部38的位置。另外,第一姿势OR1被决定为机器人坐标系C1的坐标(W1,P1,R1)。
在此,坐标W1表示机器人坐标系C1的绕x轴的角度,坐标P1表示机器人坐标系C1的绕y轴的角度,坐标R1表示机器人坐标系C1的绕z轴的角度。该初始位置PA_n以及第一姿势OR1的数据(即,机器人坐标系C1的坐标)由计算机程序CP规定。
处理器50经由控制装置16控制机器人12,使该机器人12进行动作,使手前端部38配置成初始位置PA_n以及第一姿势OR1。此时,视觉传感器14通过机器人12与手前端部38一起移动,而被配置在将第n指标IDn收纳于视野的位置。
假设,在该步骤S11的开始时间点设置为n=1的情况下,处理器50使机器人12进行动作而将手前端部38配置成相对于第一指标ID1的初始位置PA_1以及第一姿势OR1。这样,在本实施方式中,处理器50作为以使手前端部38以及视觉传感器14移动的方式控制机器人12的动作的机器人控制部72(图2)发挥功能。
在步骤S12中,处理器50使视觉传感器14动作来拍摄第n指标IDn。图8表示此时视觉传感器14拍摄到的图像数据JDn的例子。如图8所示,在本实施方式中,传感器坐标系C3的原点配置于图像数据JDn的中心(具体而言,处于中心的像素)。
处理器50经由控制装置16从视觉传感器14取得图像数据JDn,存储在存储器52中。因此,处理器50作为取得由视觉传感器14拍摄第n指标IDn而得的图像数据JDn的图像取得部74(图2)发挥功能。此外,处理器50也可以不经由控制装置16,从视觉传感器14直接取得图像数据JDn。该情况下,I/O接口54能够通过有线或无线以能够通信的方式与视觉传感器14连接。
在步骤S13中,处理器50判定在最近的步骤S12中取得的图像数据JDn中第n指标IDn的位置IPn是否被配置于预先决定的目标位置PO,且第n指标IDn的尺寸SZn是否与预先决定的目标值TS一致。
具体而言,处理器50对取得的图像数据JDn进行解析,确定该图像数据JDn中显现的第n指标IDn的直线E以及F的交点G。并且,处理器50取得传感器坐标系C3中的交点G的坐标(x,y)作为表示位置IPn的数据。在此,在本实施方式中,目标位置PO设定为传感器坐标系C3的原点。
作为一例,处理器50在传感器坐标系C3中的位置IPn的x坐标处于-xth≤x≤xth的范围(即,范围[-xth,xth])内,且y坐标处于-yth≤y≤yth的范围(即,范围[-yth,yth])内的情况下,判定为位置IPn配置于目标位置PO。作为另一例,处理器50计算传感器坐标系C3的原点与交点G的距离δG=(x2+y2)1/2,在该距离δG为阈值δGth以下的情况下,判定为位置IPn被配置于目标位置PO。
这样,在本实施方式中,处理器50作为判定在图像数据JDn中第n指标IDn的位置IPn是否被配置于目标位置PO的图像判定部76(图2)发挥功能。此外,目标位置PO也可以设定在传感器坐标系C3的原点以外的任何位置:坐标(x0,y0)。该情况下,上述范围[-xth,xth]和[-yth,yth]能够设置为[-xth+x0,xth+x0]和[-yth+y0,yth+y0]。
另外,处理器50解析图像数据JDn,确定该图像数据JDn中显现的第n指标IDn的圆D。并且,处理器50取得传感器坐标系C3中的圆D的面积(或者,圆D的图像区域内所包含的像素数)作为表示尺寸SZn的数据。并且,处理器50在尺寸SZn处于以目标值TS为基准预先决定的范围(例如,[0.95×TS,1.05×TS])内的情况下,判定为该尺寸SZn与目标值TS一致。
在该步骤S13中,处理器50在位置IPn被配置于目标位置PO且尺寸SZn与目标值TS一致的情况下判定为是,结束图7的步骤S2,进入到图6中的步骤S3。另一方面,处理器50在位置IPn未被配置于目标位置PO或者尺寸SZn与目标值TS不一致的情况下判定为否,进入到步骤S14。
在该步骤S13中判定为是时,手前端部38在配置成第一姿势OR1的状态下相对于第n指标IDn配置成规定的位置关系,该规定的位置关系是视觉传感器14拍摄到在步骤S13中判定为是的图像数据JDn时的手前端部38与第n指标IDn的位置关系。即,手前端部38在配置成第一姿势OR1的状态下,相对于第n指标IDn,配置成视觉传感器14的光轴O通过交点G且该视觉传感器14从交点G离开了规定的距离的位置关系。
在步骤S14中,处理器50使手前端部38在配置成第一姿势OR1的状态下向方向H平移移动距离d。在此,处理器50也可以在第一次执行的步骤S14中,使手前端部38以预先决定的(或随机选择的)距离d0及方向H0平移移动。
之后,也可以在第二次以后执行的步骤S12中拍摄到的图像数据JDn中,根据作为平移移动的结果而在传感器坐标系C3中产生了位移的第n指标IDn的位移量及其方向,来决定在第二次以后执行的步骤S14中使手前端部38平移移动的距离d及方向H。
具体而言,处理器50以能够使位置IPn以及尺寸SZn分别接近目标位置PO以及目标值TS的方式决定距离d以及方向H。在执行步骤S14之后,处理器50返回到步骤S12,循环进行步骤S12~S14,直到在步骤S13中判定为是为止。
再次参照图6,在步骤S3中,处理器50取得在步骤S13中判定为是时的机器人12的位置数据PD1_n(第一位置数据)。例如,处理器50在步骤S13中判定为是的时间点,取得机器人坐标系C1中的MIF坐标系C2的原点的坐标(x1_n,y1_n,z1_n)作为位置数据PD1_n,存储在存储器52中。
此外,处理器50也可以根据来自被设置于机器人12的各伺服马达39的旋转检测器(编码器、霍尔元件等)的位置反馈,来求出坐标(x1_n、y1_n、z1_n)。这样,在本实施方式中,处理器50作为取得位置数据PD1_n(第一位置数据)的第一位置数据取得部78(图2)发挥功能。
在步骤S4中,处理器50将确定第n指标IDn的编号“n”增加“1”(n=n+1)。在步骤S5中,处理器50判定确定第n指标IDn的编号“n”是否为“4”(n=4)。该数“4”是指标IDn的总数+1的数。处理器50在n=4的情况下判定为是,结束图6所示的事前流程,另一方面,在n≤3的情况下判定为否,返回到步骤S2。然后,处理器50循环进行步骤S2~S5,直到在步骤S5中判定为是为止。
在结束了图6的事前流程的时间点,取得关于第一指标ID1取得的位置数据PD1_1:坐标(x1_1、y1_1、z1_1)、关于第二指标ID2取得的位置数据PD1_2:坐标(x1_2、y1_2、z1_2)、以及关于第三指标ID3取得的位置数据PD1_3:坐标(x1_3、y1_3、z1_3),存储在存储器52中。
在改变了机器人12与工件W的配置(即,机器人12、工件W或保持机构B的移设或更换)之后,处理器50执行图9所示的示教位置修正流程。此外,即使相对于配置变化后的工件W,也如图5所示,在与配置变化前相同的位置设置第一指标ID1、第二指标ID2以及第三指标ID3。图9所示的示教位置修正流程在处理器50从操作员、上位控制器或计算机程序CP受理了位置修正流程开始指令时开始。
在步骤S21中,处理器50执行第二位置数据取得过程。该步骤S21的流程与图6所示的流程相同。即,处理器50针对配置变化后的第n指标IDn执行步骤S1~S5。在步骤S21中执行的步骤S3中,处理器50在使手前端部38配置成第一姿势OR1的状态下,取得相对于配置变化后的第n指标IDn配置成上述规定的位置关系(即,在步骤S13中判定为是时的位置关系)时的机器人12的位置数据PD2_n(第二位置数据)。
步骤S21的结果是,取得关于第一指标ID1取得的位置数据PD2_1:坐标(x2_1,y2_1,z2_1)、关于第二指标ID2取得的位置数据PD2_2:坐标(x2_2,y2_2,z2_2)、以及关于第三指标ID3取得的位置数据PD2_3:坐标(x2_3,y2_3,z2_3),存储在存储器52中。这样,在本实施方式中,处理器50作为取得位置数据PD2_n(第二位置数据)的第二位置数据取得部80(图2)发挥功能。
在步骤S22中,处理器50根据位置数据PD1_n以及PD2_n,取得姿势变化数据。具体而言,处理器50首先求出以下的矩阵V1。
[数学式1]
Figure BDA0003871450370000101
在此,n1能够使用上述的位置数据PD1_1以及PD1_2,根据n1=(PD1_2-PD1_1)/|PD1_2-PD1_1|的公式求出。(PD1_2-PD1_1)是从坐标(x1_1,y1_1,z1_1)向坐标(x1_2,y1_2,z1_2)的矢量VT1,n1表示该矢量VT1的单位矢量。
另外,a1能够根据a1=r1/|r1|的公式求出,r1能够使用上述的位置数据PD1_1以及PD1_3和单位矢量n1,根据r1=(PD1_3-PD1_1)·n1的公式求出。在此,(PD1_3-PD1_1)是从坐标(x1_1,y1_1,z1_1)向坐标(x1_3,y1_3,z1_3)的矢量VT2,r1是与该矢量VT2和上述的单位矢量n1正交的矢量(即,r1是矢量VT2:(PD2_3-PD2_1)和矢量n1的外积)。这样,处理器50能够根据位置数据PD1_n来计算矩阵V1的各参数。
接着,处理器50求出以下的矩阵V2。
[数学式2]
Figure BDA0003871450370000111
在此,n2能够使用上述的位置数据PD2_1以及PD2_2,根据n2=(PD2_2-PD2_1)/|PD2_2-PD2_1|的公式求出。在此,(PD2_2-PD2_1)是从坐标(x2_1,y2_1,z2_1)向坐标(x2_2,y2_2,z2_2)的矢量VT3,n2表示该矢量VT3的单位矢量。
另外,a2能够根据a2=r2/|r2|的公式求出,r2能够使用上述的位置数据PD2_1以及PD2_3和单位矢量n2,根据r2=(PD2_3-PD2_1)·n2的公式求出。
在此,(PD2_3-PD2_1)是从坐标(x2_1,y2_1,z2_1)向坐标(x2_3,y2_3,z2_3)的矢量VT4,r2是与该矢量VT4和上述的单位矢量n2正交的矢量(即,r2是矢量VT4:(PD2_3-PD2_1)和矢量n2的外积)。这样,处理器50能够根据位置数据PD2_n来计算矩阵V2的各参数。
接着,处理器50使用计算出的矩阵V1以及V2,根据M1=inv(V2)·V1的公式求出矩阵M1。该矩阵M1相当于姿势变化数据,该姿势变化数据表示由配置变化造成的工件W相对于机器人12(或者机器人坐标系C1)的姿势的变化量。这样,在本实施方式中,处理器50作为根据位置数据PD1_n和PD2_n取得姿势变化数据M1的姿势变化数据取得部82(图2)发挥功能。
在步骤S23中,处理器50执行第三位置数据取得过程。参照图10对该步骤S23进行说明。在步骤S31中,处理器50校正第一姿势OR1。具体而言,处理器50使用姿势变化数据M1来校正手前端部38(或工具坐标系C2)的第一姿势OR1(W1、P1、R1),由此,求出手前端部38的第二姿势OR2(W2、P2、R2)。
用在步骤S22中求出的矩阵M1(=inv(V2)·V1)对第一姿势OR1的坐标(W1,P1,R1)进行转换,由此,能够求出该第二姿势OR2的各坐标(W2,P2,R2)(即,OR2=M1·OR1)。该第二姿势OR2是以与由配置变化造成的工件W相对于机器人12(或机器人坐标系C1)的姿势的变化量对应的方式从第一姿势OR1进行了校正后的手前端部38的姿势(即,工具坐标系C2的各轴的方向)。
接着,处理器50执行步骤S2’。该步骤S2’包含图7所示的步骤S11~S14,但与上述的步骤S2在以下方面不同。即,在步骤S2’中,处理器50在将手前端部38配置成在步骤S31中进行了校正后的第二姿势OR2的状态下,执行步骤S11~S14。
具体而言,处理器50在步骤S11中,在使手前端部38配置成第二姿势OR2的状态下,配置在相对于1个指标IDn的初始位置PA_n。该1个指标IDn是从3个指标ID1、ID2以及ID3中选择出的1个指标,能够由操作员预先指定。
接着,处理器50在使手前端部38配置成第二姿势OR2的状态下,关于该1个指标IDn执行步骤S12~S14。其结果是,手前端部38在配置成第二姿势OR2的状态下,相对于1个指标IDn配置成规定的位置关系(即,视觉传感器14拍摄到在步骤S13中判定为是的图像数据JDn时的手前端部38与1个指标IDn的位置关系)。
再次参照图10,在步骤S2’结束后,处理器50执行步骤S3,取得此时的机器人12的位置数据PD3_n(第三位置数据)。具体而言,处理器50取得在步骤S2’中的步骤S13中判定为是的时间点的、机器人坐标系C1中的MIF坐标系C2的原点的坐标(x3_n,y3_n,z3_n)作为位置数据PD3_n,存储在存储器52中。
这样,在本实施方式中,处理器50作为第三位置数据取得部84(图2)发挥功能,该第三位置数据取得部84取得在使手前端部38配置成第二姿势OR2的状态下相对于1个指标IDn配置成规定的位置关系时的机器人12的第三位置数据PD3_n
再次参照图9,在步骤S24中,处理器50根据位置数据PD1_n(第一位置数据)以及位置数据PD3_n(第三位置数据),取得位置变化数据。具体而言,处理器50根据M2=WBinv(M1·WA)的公式求出矩阵M2。
在此,WA是表示关于在上述步骤S2’中选择出的1个指标IDn取得的第一位置数据PD1_n和第一姿势OR1的位置姿势数据。假设,在步骤S2’中选择了第一指标ID1作为1个指标IDn的情况下,位置姿势数据WA表示为坐标(x1_1,y1_1,z1_1,W1,P1,R1)。
另外,WB是表示在图10中的步骤S3中取得的第三位置数据PD3_n和在步骤S31中取得的第二姿势OR2的位置姿势数据。假设,在选择了第一指标ID1作为1个指标IDn的情况下,位置姿势数据WB表示为坐标(x3_1,y3_1,z3_1,W2,P2,R2)。
该矩阵M2相当于位置变化数据,该位置变化数据表示基于配置变化的工件W相对于机器人12(机器人坐标系C1)的位置的变化量。这样,在本实施方式中,处理器50作为根据位置数据PD1_n和PD3_n取得位置变化数据M2的位置变化数据取得部86(图2)发挥功能。
在步骤S25中,处理器50根据姿势变化数据M1以及位置变化数据M2,取得用于对由作业程序WP规定的示教位置TP0进行修正的转换数据。具体而言,处理器50根据M3=M2·M1的公式求出矩阵M3作为转换数据。这样,在本实施方式中,处理器50作为根据姿势变化数据M1以及位置变化数据M2取得转换数据M3的转换数据取得部88(图2)发挥功能。
在步骤S26中,处理器50修正示教位置TP0。具体而言,处理器50使用在步骤S25中取得的转换数据M3,通过TP1=M3·TP0的公式将原来的示教位置TP0转换为新的示教位置TP1,存储在存储器52中。这样,处理器50将预先由作业程序WP规定的示教位置TP0修正为示教位置TP1
修正后的示教位置TP1为消除了因配置变化而产生的、工件W相对于机器人12(机器人坐标系C1)的位置以及姿势的变化量的示教位置。即,能够使将手前端部38定位于配置变化前的示教位置TP0时的手前端部38相对于工件W的位置以及姿势、与将手前端部38定位于配置变化后的示教位置TP1时的手前端部38相对于工件W的位置以及姿势相互一致。
如上所述,在本实施方式中,处理器50作为机器人控制部72、图像取得部74、图像判定部76、第一位置数据取得部78、第二位置数据取得部80、姿势变化数据取得部82、第三位置数据取得部84、位置变化数据取得部86以及转换数据取得部88发挥功能,使用第n指标IDn来修正示教位置TP0
因此,机器人控制部72、图像取得部74、图像判定部76、第一位置数据取得部78、第二位置数据取得部80、姿势变化数据取得部82、第三位置数据取得部84、位置变化数据取得部86以及转换数据取得部88构成用于使用第n指标IDn来修正示教位置TP0的装置70(图1)。
根据本实施方式,根据在将手前端部38校正为第二姿势OR2的状态下取得的第三位置数据PD3_n,取得为了修正示教位置TP0所需的位置变化数据M2。根据该结构,能够不需要以往所需要的基于实机的机器人12的实机触摸释放动作。
该实机触摸释放动作是指使装配于手前端部38的销的末端与被固定设置于保持构造B的对方侧销的末端抵接的动作。在包含上述的专利文献1的现有技术中,为了使机器人执行实际的作业,需要在取得示教位置修正用的矩阵之后,进行实机触摸释放动作。
根据本实施方式,不进行实机触摸释放动作,仅在步骤S23中取得第三位置数据PD3_n,就能够取得位置变化数据M2,并且也不需要对MIF坐标系C2与传感器坐标系C3的位置关系进行校准的作业。因此,能够简化示教位置修正涉及的作业。
另外,根据本实施方式,在上述的步骤S23中,仅关于选择出的1个指标IDn取得1个位置数据PD3_n,就能够取得位置变化数据M2。根据该结构,能够削减取得位置变化数据M2所需的作业工序,因此,能够简化图9所示的示教位置修正流程的过程,因此,能够简化示教位置修正涉及的作业。
另外,在本实施方式中,处理器50通过执行上述的步骤S2以及S2’,从而使用视觉传感器14拍摄到的图像数据JDn将手前端部38相对于第n指标IDn配置成规定的位置关系(即,视觉传感器14拍摄到在步骤S13中判定为是的图像数据JDn时的手前端部38与指标IDn的位置关系)。根据该结构,能够通过比较简单的算法使手前端部38准确地配置成规定的位置关系。
此外,处理器50也可以按照计算机程序CP来执行图6、图7、图9以及图10所示的流程。该计算机程序CP也可以预先储存在存储器52中。该情况下,计算机程序CP使处理器50作为机器人控制部72、图像取得部74、图像判定部76、第一位置数据取得部78、第二位置数据取得部80、姿势变化数据取得部82、第三位置数据取得部84、位置变化数据取得部86以及转换数据取得部88发挥功能。
此外,在工件W的位置以及姿势因配置变化而变化的情况下,在上述的步骤S26中,处理器50也可以修正示教位置TP0,并且根据姿势变化数据M1以及位置变化数据M2,在机器人坐标系C1中修正工件坐标系C4的位置(原点位置)以及姿势(各轴的方向)。由此,能够对配置变化后的工件W自动且准确地重新设定工件坐标系C4。
此外,视觉传感器14也可以是拍摄物体并且测定到该物体的距离的3维视觉传感器,在上述的步骤S12中,也可以拍摄第n指标IDn来取得图像数据JDn,并且测量从视觉传感器14(传感器坐标系C3的原点)到第n指标IDn(例如交点G)的距离k。
该情况下,处理器50也可以在上述的步骤S13中,判定在最近取得的图像数据JDn中第n指标IDn的位置IPn是否被配置于目标位置PO,且距离k是否处于预先决定的范围[kth1,kth2]内。该情况下,能够不使用指标IDn的圆D的尺寸SZn,将手前端部38相对于第n指标IDn配置成规定的位置关系,因此,能够从指标IDn省略圆D。
另外,视觉传感器14也可以是具有沿光轴O射出光(例如,激光光束)的光学系统(激光二极管等)、以及对因物体而反射的该光进行受光并进行光电转换的拍摄传感器(CCD、CMOS等)的激光扫描式的3维传感器。另外,视觉传感器14也可以由2维照相机构成,并且进一步机器人12的手前端部38还固定有能够射出激光光束的激光装置(例如,激光指示器)。
该情况下,也可以是,视觉传感器14在上述的步骤S12中,对指标IDn以及来自激光装置的激光光束的照射点显现的图像数据JDn一起拍摄,处理器50在步骤S13中判定该激光光束的照射点是否被配置于交点G。
或者,也可以从机器人系统10省略视觉传感器14,在步骤S12中,操作员通过目视来判定来自上述的激光装置(激光指示器)的激光光束的照射点是否被配置于指标IDn的交点G。另外,操作员也可以手动测量此时的从激光装置到交点G的距离,判定该距离是否在预先决定的目标范围内。
并且,操作员也可以在步骤S14中操作示教装置18的输入装置56来手动地对机器人12进行点动操作。即,该情况下,操作员执行步骤S2、S2’。通过这样的方法,也能够使手前端部38相对于指标IDn配置成规定的位置关系。该情况下,能够从装置70省略机器人控制部72、图像取得部74以及图像判定部76。
另外,也能够从装置70省略转换数据取得部88。例如,也可以将处于工厂内的示教装置18经由通信网络(因特网、LAN等)以能够通信的方式与处于与工厂不同的设施的外部设备(例如PC)连接,示教装置18将作为装置70发挥功能而取得的姿势变化数据M1以及位置变化数据M2发送给该外部设备。并且,在其他设施中,操作员也可以操作外部设备,使用从示教装置18接收到的姿势变化数据M1以及位置变化数据M2来取得转换数据M3。
此外,也可以对工件W设置4个以上的指标IDn。另外,指标IDn不限于图5所示那样的人工图案,例如也可以将形成于保持构造B或者工件W的孔、边缘、凹凸部等在视觉上地能够识别的任何视觉特征用作指标。另外,机器人坐标系C1、IMF坐标系C2、传感器坐标系C3、或者工件坐标系C4的原点位置以及各轴的方向并不限定于上述的方式。
另外,作为第一位置数据PD1_n、第二位置数据PD2_n以及第三位置数据PD3_n,不限于MIF坐标系C2的原点,也可以取得相对于MIF坐标系C2的原点(或者手前端部38)处于已知的位置的任意的点的位置数据。例如,相对于MIF坐标系C2在已知的位置设定工具坐标系C5。
该工具坐标系C5是用于规定机器人坐标系C1中的末端执行器36的位置以及姿势的坐标系,其原点被配置于末端执行器36的作业点(例如,机器人手的工件把持位置、焊枪的焊接点、激光加工头的激光射出口、涂料涂布器的涂料射出口等)。
若将机器人坐标系C1中的MIF坐标系C2的原点的坐标设为(x,y,z),则机器人坐标系C1中的工具坐标系C5的原点的坐标能够用(x+α,y+β,z+γ)表示。处理器50也可以取得工具坐标系C5的原点的坐标作为第一位置数据PD1_n、第二位置数据PD2_n以及第三位置数据PD3_n
此外,在上述的实施方式中,对装置70(即,机器人控制部72、图像取得部74、图像判定部76、第一位置数据取得部78、第二位置数据取得部80、姿势变化数据取得部82、第三位置数据取得部84、位置变化数据取得部86以及转换数据取得部88)作为处理器50执行的功能而安装于示教装置18的情况进行了叙述。但是,装置70也可以安装于控制装置16。图11表示这样的方式。
在图11所示的机器人系统10’中,控制装置16的处理器40执行图6、图7、图9以及图10所示的流程,作为机器人控制部72、图像取得部74、图像判定部76、第一位置数据取得部78、第二位置数据取得部80、姿势变化数据取得部82、第三位置数据取得部84、位置变化数据取得部86以及转换数据取得部88发挥功能。
该情况下,处理器40也可以按照预先储存在存储器42中的计算机程序CP来执行图6、图7、图9以及图10所示的流程。此外,机器人系统10’可以具有示教装置18,也可以不具有。另外,机器人12不限于垂直多关节机器人,例如也可以是水平多关节机器人、并联连杆机器人等能够使末端执行器36移动的任何类型的机器人。该情况下,末端执行器36和安装有该末端执行器36的机器人的部件(手腕凸缘34)构成手前端部38。以上,通过实施方式对本公开进行了说明,但上述的实施方式并不限定权利要求书涉及的发明。
附图文字说明
10、10’ 机器人系统
12 机器人
14 视觉传感器
16 控制装置
18 示教装置
38 手前端部
40、50 处理器
70 装置
72 机器人控制部
74 图像取得部
76 图像判定部
78 第一位置数据取得部
80 第二位置数据取得部
82 姿势变化数据取得部
84 第三位置数据取得部
86 位置变化数据取得部
88 转换数据取得部。

Claims (8)

1.一种装置,其用于使用相对于工件被配置于规定的位置的指标,在所述工件相对于机器人的配置发生变化时修正该机器人的示教位置,其特征在于,
所述装置具有:
第一位置数据取得部,其取得在所述工件的配置变化之前,在使所述机器人的手前端部配置成第一姿势的状态下相对于所述指标配置成规定的位置关系时的所述机器人的第一位置数据;
第二位置数据取得部,其取得在所述配置变化之后,在使所述手前端部配置成所述第一姿势的状态下相对于所述指标配置成所述规定的位置关系时的所述机器人的第二位置数据;
姿势变化数据取得部,其根据所述第一位置数据和所述第二位置数据,取得表示由所述配置变化造成的所述工件相对于所述机器人的姿势的变化量的姿势变化数据;
第三位置数据取得部,其取得在使所述手前端部配置成使用所述姿势变化数据从所述第一姿势校正后的第二姿势的状态下相对于所述指标配置成所述规定的位置关系时的所述机器人的第三位置数据;
位置变化数据取得部,其根据所述第一位置数据和所述第三位置数据,取得表示由所述配置变化造成的所述工件相对于所述机器人的位置的变化量的位置变化数据。
2.根据权利要求1所述的装置,其特征在于,
所述装置具有:
机器人控制部,其控制所述机器人的动作,以使所述手前端部和相对于该手前端部被固定的视觉传感器移动;
图像取得部,其取得由通过所述机器人的动作而移动的所述视觉传感器拍摄所述指标而得的图像数据;
图像判定部,其判定在所述图像数据中所述指标的位置是否被配置于预先决定的目标位置,
所述规定的位置关系是所述视觉传感器拍摄到由所述图像判定部判定为所述指标的位置被配置于所述目标位置的所述图像数据时的所述手前端部与所述指标的位置关系。
3.根据权利要求1或2所述的装置,其特征在于,
所述装置对所述工件配置多个所述指标,
所述第一位置数据取得部分别取得在使所述手前端部配置成所述第一姿势的状态下相对于各个所述指标配置成所述规定的位置关系时的所述第一位置数据,
所述第二位置数据取得部分别取得在使所述手前端部配置成所述第一姿势的状态下相对于各个所述指标配置成所述规定的位置关系时的所述第二位置数据,
所述姿势变化数据取得部根据所述第一位置数据取得部取得的多个所述第一位置数据和所述第二位置数据取得部取得的多个所述第二位置数据,取得所述姿势变化数据,
所述第三位置数据取得部取得在使所述手前端部配置成所述第二姿势的状态下相对于1个所述指标配置成所述规定的位置关系时的所述第三位置数据,
所述位置变化数据取得部根据所述第一位置数据取得部关于所述1个指标取得的1个所述第一位置数据和所述第三位置数据取得部取得的1个所述第三位置数据,取得所述位置变化数据。
4.根据权利要求1~3中任一项所述的装置,其特征在于,
所述装置还具有:转换数据取得部,其根据所述姿势变化数据和所述位置变化数据,取得用于修正所述机器人的作业程序所规定的所述示教位置的转换数据。
5.一种所述机器人的示教装置,其特征在于,具有:
权利要求1~4中任一项所述的装置。
6.一种机器人系统,其特征在于,具有:
机器人;以及
权利要求1~4中任一项所述的装置。
7.一种方法,使用相对于工件被配置于规定的位置的指标,在所述工件相对于机器人的配置发送变化时修正该机器人的示教位置,其特征在于,
取得在所述工件的配置变化之前,在使所述机器人的手前端部配置成第一姿势的状态下相对于所述指标配置成规定的位置关系时的所述机器人的第一位置数据,
取得在所述配置变化之后,在使所述手前端部配置成所述第一姿势的状态下相对于所述指标配置成所述规定的位置关系时的所述机器人的第二位置数据,
根据所述第一位置数据和所述第二位置数据,取得表示由所述配置变化造成的所述工件相对于所述机器人的姿势的变化量的姿势变化数据,
取得在使所述手前端部配置成使用所述姿势变化数据从所述第一姿势校正后的第二姿势的状态下相对于所述指标配置成所述规定的位置关系时的所述机器人的第三位置数据,
根据所述第一位置数据和所述第三位置数据,取得表示由所述配置变化造成的所述工件相对于所述机器人的位置的变化量的位置变化数据。
8.一种计算机程序,其特征在于,
为了使用相对于工件被配置于规定的位置的指标,在所述工件相对于机器人的配置发生变化时修正该机器人的示教位置,所述程序使计算机作为以下部分发挥功能:
第一位置数据取得部,其取得在所述工件的配置变化之前,在使所述机器人的手前端部配置成第一姿势的状态下相对于所述指标配置成规定的位置关系时的所述机器人的第一位置数据;
第二位置数据取得部,其取得在所述配置变化之后,在使所述手前端部配置成所述第一姿势的状态下相对于所述指标配置成所述规定的位置关系时的所述机器人的第二位置数据;
姿势变化数据取得部,其根据所述第一位置数据和所述第二位置数据,取得表示由所述配置变化造成的所述工件相对于所述机器人的姿势的变化量的姿势变化数据;
第三位置数据取得部,其取得在使所述手前端部配置成使用所述姿势变化数据从所述第一姿势校正后的第二姿势的状态下相对于所述指标配置成所述规定的位置关系时的所述机器人的第三位置数据;
位置变化数据取得部,其根据所述第一位置数据和所述第三位置数据,取得表示由所述配置变化造成的所述工件相对于所述机器人的位置的变化量的位置变化数据。
CN202180026006.4A 2020-04-02 2021-03-26 用于修正机器人的示教位置的装置、示教装置、机器人系统、示教位置修正方法以及计算机程序 Pending CN115362049A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020067082 2020-04-02
JP2020-067082 2020-04-02
PCT/JP2021/013092 WO2021200743A1 (ja) 2020-04-02 2021-03-26 ロボットの教示位置を修正するための装置、教示装置、ロボットシステム、教示位置修正方法、及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
CN115362049A true CN115362049A (zh) 2022-11-18

Family

ID=77929952

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180026006.4A Pending CN115362049A (zh) 2020-04-02 2021-03-26 用于修正机器人的示教位置的装置、示教装置、机器人系统、示教位置修正方法以及计算机程序

Country Status (5)

Country Link
US (1) US20230158687A1 (zh)
JP (1) JP7481432B2 (zh)
CN (1) CN115362049A (zh)
DE (1) DE112021002043T5 (zh)
WO (1) WO2021200743A1 (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6812095B2 (ja) * 2015-10-22 2021-01-13 キヤノン株式会社 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
JP6572262B2 (ja) 2017-06-06 2019-09-04 ファナック株式会社 教示位置修正装置および教示位置修正方法
JP7225560B2 (ja) * 2018-04-26 2023-02-21 セイコーエプソン株式会社 制御装置、ロボットシステム、及び表示制御方法
JP2019214105A (ja) * 2018-06-13 2019-12-19 キヤノン株式会社 ロボット制御装置およびロボット制御方法

Also Published As

Publication number Publication date
JPWO2021200743A1 (zh) 2021-10-07
DE112021002043T5 (de) 2023-04-13
US20230158687A1 (en) 2023-05-25
WO2021200743A1 (ja) 2021-10-07
JP7481432B2 (ja) 2024-05-10

Similar Documents

Publication Publication Date Title
US11247340B2 (en) Method and apparatus of non-contact tool center point calibration for a mechanical arm, and a mechanical arm system with said calibration function
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP7237483B2 (ja) ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
JP6468741B2 (ja) ロボットシステム及びロボットシステムの校正方法
JP6964989B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
US20180024521A1 (en) Control device, robot, and robot system
JP4191080B2 (ja) 計測装置
US8406923B2 (en) Apparatus for determining pickup pose of robot arm with camera
JP4021413B2 (ja) 計測装置
US20140288710A1 (en) Robot system and calibration method
JP7062911B2 (ja) ロボットシステム
EP3421930A1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
CN110712194B (zh) 物体检查装置、物体检查系统以及调整检查位置的方法
JP6869159B2 (ja) ロボットシステム
JP2019113895A (ja) ワークを撮像する視覚センサを備える撮像装置
JP2010188439A (ja) パラメータ算出方法及びパラメータ算出装置
TWI699264B (zh) 視覺導引機器手臂校正方法
CN109531604B (zh) 进行校准的机器人控制装置、测量系统以及校准方法
WO2021210456A1 (ja) ロボットの制御座標系における視覚センサの位置を取得する装置、ロボットシステム、方法、及びコンピュータプログラム
CN115972192A (zh) 具有可变空间分辨率的3d计算机视觉系统
CN115362049A (zh) 用于修正机器人的示教位置的装置、示教装置、机器人系统、示教位置修正方法以及计算机程序
US11759955B2 (en) Calibration method
WO2021210514A1 (ja) ロボットの制御装置及び制御方法、ロボットシステム、ロボットの動作プログラムを生成する装置及び方法
CN118355340A (zh) 用于验证产业机械的动作的装置及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination