CN116419826A - 取得机器人与作业设备的位置关系的装置、控制装置、系统、方法以及计算机程序 - Google Patents

取得机器人与作业设备的位置关系的装置、控制装置、系统、方法以及计算机程序 Download PDF

Info

Publication number
CN116419826A
CN116419826A CN202180065079.4A CN202180065079A CN116419826A CN 116419826 A CN116419826 A CN 116419826A CN 202180065079 A CN202180065079 A CN 202180065079A CN 116419826 A CN116419826 A CN 116419826A
Authority
CN
China
Prior art keywords
robot
coordinate system
work
hand
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180065079.4A
Other languages
English (en)
Inventor
渡边敏朗
森冈昌宏
安部健一郎
加藤盛刚
内田裕之
佟正
伊藤正则
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN116419826A publication Critical patent/CN116419826A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/425Teaching successive positions by numerical control, i.e. commands being entered to control the positioning servo of the tool head or end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37284Capacitive 3-D proximity sensor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40582Force sensor in robot fixture, base
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/405866-DOF force sensor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40599Force, torque sensor integrated in joint

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种更简单地取得表示机器人坐标系与作业设备坐标系的位置关系的数据的技术。装置(60)取得设定于机器人(12)的机器人坐标系与设定于作业设备的作业设备坐标系的位置关系,作业设备设置于机器人(12)的外部,其中,装置(60)具备:位置数据取得部(62),其取得将机器人(12)的手前部相对于作业设备配置为规定的位置以及姿势时的、表示该手前部相对于机器人坐标系的位置以及姿势的第一位置数据、以及表示该手前部相对于作业设备坐标系的位置以及姿势的第二位置数据;以及位置关系取得部(64),其根据第一位置数据以及第二位置数据,取得位置关系。

Description

取得机器人与作业设备的位置关系的装置、控制装置、系统、 方法以及计算机程序
技术领域
本发明涉及取得机器人与作业设备的位置关系的装置、控制装置、系统、方法以及计算机程序。
背景技术
已知有如下技术:利用机器人对在保持工件的作业设备中设定的多个点进行触摸释放(touch up),由此,取得作业设备与机器人的相对位置(例如,专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2010-76054号公报
发明内容
发明要解决的课题
提供一种更简单地取得表示机器人与作业设备的位置关系的数据的技术。
用于解决课题的手段
本公开的一方式的装置取得设定于机器人的机器人坐标系与设定于作业设备的作业设备坐标系的位置关系,作业设备设置于机器人的外部,其中,该装置具备:位置数据取得部,其取得将机器人的手前部相对于作业设备配置为规定的位置以及姿势时的、表示该手前部相对于机器人坐标系的位置以及姿势的第一位置数据、以及表示该手前部相对于作业设备坐标系的位置以及姿势的第二位置数据;以及位置关系取得部,其根据第一位置数据以及第二位置数据,取得位置关系。
本公开的其他方式的取得机器人与作业设备的位置关系的装置构成为,根据使机器人与设置于作业设备的已知的位置的抵接部抵接时的、机器人相对于作业设备的位置以及姿势,取得位置关系。
本公开的另外其他方式的方法取得设定于机器人的机器人坐标系与设定于作业设备的作业设备坐标系的位置关系,作业设备设置于机器人的外部,其中,取得将机器人的手前部相对于作业设备配置为规定的位置以及姿势时的、表示该手前部相对于机器人坐标系的位置以及姿势的第一位置数据、以及表示该手前部相对于作业设备坐标系的位置以及姿势的第二位置数据;以及根据所取得的第一位置数据以及第二位置数据,取得位置关系。
本公开的另外其他方式的取得机器人与作业设备的位置关系的方法,根据使机器人与设置于作业设备的已知的位置的抵接部抵接时的、机器人相对于作业设备的位置以及姿势,取得位置关系。
本公开的另外其他方式的计算机程序,为了取得设定于机器人的机器人坐标系与设定于作业设备的作业设备坐标系的位置关系,使处理器作为以下部分发挥功能,其中,作业设备设置于机器人的外部:位置数据取得部,其取得将机器人的手前部相对于作业设备配置为规定的位置以及姿势时的、表示该手前部相对于机器人坐标系的位置以及姿势的第一位置数据、以及表示该手前部相对于作业设备坐标系的位置以及姿势的第二位置数据;以及位置关系取得部,其根据第一位置数据以及第二位置数据,取得位置关系。
发明效果
根据本公开,通过将机器人的手前部配置为1个位置以及姿势,能够取得表示机器人坐标系(即,机器人)与作业设备坐标系(即,作业设备)的位置关系的第三位置数据。由此,能够大幅简化求出机器人坐标系与作业设备坐标系的位置关系的过程。
附图说明
图1是一实施方式的系统的立体图。
图2是图1所示的系统的框图。
图3是图1所示的机器人的手前部的放大图。
图4是图1所示的抵接部的放大图。
图5是图1的主要部分的放大图。
图6表示使机器人的手前部与图4所示的抵接部抵接的状态。
图7是其他实施方式的系统的立体图。
图8是图7所示的系统的框图。
图9是另外其他实施方式的系统的框图。
图10是另外其他实施方式的系统的框图。
图11表示一实施方式的接触检测传感器。
图12是表示图10所示的系统的动作流程的一例的流程图。
图13是另外其他实施方式的系统的框图。
图14是另外其他实施方式的系统的框图。
图15是另外其他实施方式的系统的框图。
图16表示一实施方式的位置检测传感器。
图17是另外其他实施方式的系统的立体图。
图18是图17所示的系统的框图。
图19是图17的主要部分的放大图。
图20是图17所示的工件的放大立体图。
图21是图17的主要部分的截面图。
图22是图17所示的工件保持机构及抵接部的主视图。
图23是表示用机械手把持其他实施方式的工件并使其保持于图17所示的工件保持机构的状态的截面图。
图24是图23所示的工件和把持该工件的机械手的放大立体图。
具体实施方式
以下,根据附图对本公开的实施方式进行详细说明。此外,在以下说明的各种实施方式中,对相同的要素标注相同的符号,省略重复的说明。首先,参照图1以及图2,对一实施方式的系统10进行说明。系统10具有:机器人12、作业设备14以及控制装置16。
在本实施方式中,机器人12是垂直多关节机器人(例如,6轴机器人),具有:机器人基座18、旋转体20、机械臂22、手腕部24以及末端执行器26。机器人基座18固定于支承机构28。支承机构28例如可以是固定于作业单元的地面的基台,也可以是能够在作业单元内自行的行驶装置,或者也可以是由操作员手动移动的手推台车。
旋转体20以能够绕铅垂轴旋转的方式设置于机器人基座18。机械臂22具有:下臂部30,其以能够绕水平轴转动的方式设置于旋转体20;以及上臂部32,其以能够转动的方式设置于该下臂部30的前端部。手腕部24以能够转动的方式设置于上臂部32的前端部,使末端执行器26绕手腕轴A1转动。
如图3所示,在本实施方式中,末端执行器26是能够把持工件WP1的机械手。具体而言,末端执行器26具有:基座部34、以能够开闭的方式设置于该基座部34的多个爪部36、以及驱动该爪部36的爪驱动部(未图示)。
基座部34以能够装卸的方式安装于手腕部24的前端部(所谓的手腕凸缘)。爪部36以能够向相互接近以及背离的方向移动的方式设置于基座部34。各个爪部36在其内侧具有把持面36a和卡合面36b。把持面36a为大致平面。卡合面36b是与把持面36a大致正交的平面,从卡合面36b的顶端缘向内侧延展。爪驱动部例如是气缸或电动机,根据来自控制装置16的指令使爪部36开闭,由此,末端执行器26能够把持或触摸释放工件WP1。
在本实施方式中,工件WP1是大致长方体状的部件,具有底面B1、顶面B2、侧面B3、B4以及B5。底面B1和顶面B2是彼此大致平行的平面。侧面B3和B4是彼此大致平行地对置配置的平面,与底面B1和顶面B2正交。侧面B5是与底面B1、顶面B2、侧面B3及B4正交的平面。
末端执行器26在规定的把持位置把持工件WP1。在末端执行器26把持工件WP1时,一对爪部36的把持面36a在工件WP1的侧面B3以及B4的规定位置分别与该侧面B3以及B4抵接,另一方面,一对爪部36的卡合面36b在工件WP1的顶面B2的规定位置分别与该顶面B2卡合。
末端执行器26在规定的把持位置把持的工件WP1能够视为与该末端执行器26一体的工件,换言之,能够视为该末端执行器26的一部分。在本实施方式中,将手腕部24的前端部(手腕凸缘)、末端执行器26以及该末端执行器26在规定的把持位置把持的工件WP1称为机器人12的手前部40。
在机器人12的构成要素(机器人基座18、旋转体20、下臂部30、上臂部32、手腕部24)分别内置有多个伺服电动机38(图2)。各个伺服电动机38根据来自控制装置16的指令,使机器人12的各可动要素(旋转体20、下臂部30、上臂部32、手腕部24)绕驱动轴转动。
作业设备14设置于机器人12的外部。作业设备14例如是工件保持台、工件台装置或机床。工件保持台固定于作业单元,在作业时固定工件。工件台装置具有固定工件的工件台和使该工件台移动的移动机构(滚珠丝杠机构等)。
机床是车床、铣床或能够执行多种加工的加工中心等,具有固定工件的工件保持机构(夹具、工件台、卡盘机构等)、对固定于该工件保持机构的工件进行加工的工具、以及使工件保持机构与工具相对移动的移动机构(滚珠丝杠机构等)。
在作业设备14的面42以从该面42向外侧突出的方式固定设置有抵接部44。如图4所示,抵接部44具有第一部分46以及第二部分48。第一部分46向一方向呈直线状地延伸,具有与面42大致正交的内表面46a。另一方面,第二部分48以与第一部分46正交的方式从该第一部分46的一端呈直线状地延展,具有与该第一部分46的内表面46a及面42大致正交的内表面48a。
参照图2,控制装置16控制机器人12的动作。具体而言,控制装置16是具有处理器50、存储器52以及I/O接口54的计算机。处理器50具有CPU或GPU等,经由总线56可通信地与存储器52及I/O接口54连接。处理器50与存储器52以及I/O接口54进行通信,并且进行用于实现后述的各种功能的运算处理。
存储器52具有RAM或ROM等,暂时或永久地存储各种数据。I/O接口54例如具有以太网(注册商标)端口、USB端口、光纤连接器或HDMI(注册商标)端子,在来自处理器50的指令下,在与外部设备之间以有线或无线方式对数据进行通信。上述的伺服电动机38以能够通过有线或无线进行通信的方式与I/O接口54连接。
如图1所示,对机器人12设定机器人坐标系C1。机器人坐标系C1是用于自动控制机器人12的各可动要素的动作的坐标系,相对于机器人基座18(或者支承机构28)固定地设定。在本实施方式中,机器人坐标系C1以其原点配置于机器人基座18的中心且其z轴与旋转体20的旋转轴一致的方式对机器人12进行设定。
另一方面,如图3所示,对手前部40设定机械接口(MIF)坐标系C2。MIF坐标系C2是规定机器人坐标系C1中的手前部40(具体而言,末端执行器26)的位置以及姿势的坐标系。在本实施方式中,MIF坐标系C2以其原点配置于手腕部24的前端部的中心且其z轴与手腕轴A1一致的方式,对手前部40进行设定。
在使手前部40(末端执行器26)移动时,处理器50对机器人坐标系C1设定MIF坐标系C2,控制机器人12的各伺服电动机38,以将手前部40定位于由所设定的MIF坐标系C2表示的位置以及姿势。这样,处理器50能够将手前部40定位于机器人坐标系C1中的任意的位置以及姿势。因此,MIF坐标系C2相对于机器人坐标系C1的位置关系(即,原点位置以及各轴的方向)是已知的。
另一方面,对末端执行器26在规定的把持位置把持的工件WP1设定用户坐标系C3。在本实施方式中,用户坐标系C3以其原点配置于末端执行器26把持的工件WP1的底面B1和侧面B4及B5形成的顶点F,且其x-z平面与末端执行器26把持的工件WP1的侧面B5平行,且其y-z平面与末端执行器26把持的工件WP1的侧面B3及B4(或末端执行器26的把持面36a)平行的方式,对工件WP1进行设定。
在此,如上所述,末端执行器26在规定的把持位置把持的工件WP1能够视为与该末端执行器26一体的工件(即,末端执行器26的一部分),因此,如果工件WP1的形状和该把持位置是已知的,则对末端执行器26在该把持位置把持的工件WP1设定的用户坐标系C3相对于MIF坐标系C2的位置关系(原点位置以及各轴的方向)是已知的。
因此,用户坐标系C3相对于机器人坐标系C1的位置关系经由MIF坐标系C2而成为已知。更具体而言,用户坐标系C3相对于机器人坐标系C1的位置关系能够表示为机器人坐标系C1的坐标D(X,Y,Z,W,P,R)。
在此,坐标D(X,Y,Z)表示用户坐标系C3的原点在机器人坐标系C1中的坐标。另一方面,坐标D(W,P,R)表示用户坐标系C3的x轴、y轴以及z轴相对于机器人坐标系C1的x轴、y轴以及z轴的倾斜(所谓的偏航、俯仰、滚动)。从机器人坐标系C1向用户坐标系C3的坐标变换矩阵M13为已知的齐次变换矩阵,该坐标变换矩阵M13的各参数根据坐标D(X,Y,Z,W,P,R)确定。
如图1所示,对作业设备14设定作业设备坐标系C4。作业设备坐标系C4规定作业设备14的各构成要素的位置以及姿势,该作业设备14的各构成要素表示为作业设备坐标系C4的坐标。在本实施方式中,作业设备坐标系C4以其原点配置于作业设备14的底面的一端点且其z轴方向与作业设备14的高度方向(例如,铅垂方向)平行的方式对作业设备14固定地设定。
作业设备14的面42和抵接部44配置于作业设备坐标系C4的已知的位置。在本实施方式中,以作业设备14的面42与作业设备坐标系C4的x-y平面平行,抵接部44的内表面46a与作业设备坐标系C4的x-z平面平行,抵接部44的内表面48a与作业设备坐标系C4的y-z平面平行的方式配置于作业设备坐标系C4的已知的位置。因此,由面42、内表面46a以及内表面48a形成的顶点G表示为作业设备坐标系C4的已知的坐标。
在此,在本实施方式中,机器人坐标系C1(即,机器人12)与作业设备坐标系C4(即,作业设备14)的位置关系是未知的。处理器50作为取得机器人坐标系C1与作业设备坐标系C4的位置关系的装置60发挥功能。以下,对装置60的功能进行说明。
首先,如图1、图5以及图6所示,机器人12使末端执行器26在规定的把持位置把持的工件WP1与抵接部44抵接。此时,工件WP1的底面B1与作业设备14的面42面接触,工件WP1的侧面B5与抵接部44的内表面46a面接触,且工件WP1的侧面B4与抵接部44的内表面48a面接触。这样,手前部40相对于作业设备14静止地配置为规定的位置PS1及姿势OR1
此时的用户坐标系C3相对于作业设备坐标系C4的位置关系是已知的。具体而言,能够视为用户坐标系C3的原点与上述的顶点G的位置一致,用户坐标系C3的x-y平面与作业设备14的面42平行,用户坐标系C3的x-z平面与抵接部44的内表面46a平行,且用户坐标系C3的y-z平面与抵接部44的内表面48a平行。
因此,此时的作业设备坐标系C4中的用户坐标系C3的坐标能够表示为已知的坐标E1(x1,y1,z1,w1,p1,r1)。坐标E1(x1,y1,z1)表示用户坐标系C3的原点(即,顶点G)在作业设备坐标系C4中的坐标。另一方面,坐标E1(w1,p1,r1)表示用户坐标系C3的x轴、y轴以及z轴相对于作业设备坐标系C4的x轴、y轴以及z轴的倾斜(所谓的偏航、俯仰、滚动)。
另外,从作业设备坐标系C4向用户坐标系C3的坐标变换矩阵M43_1为已知的齐次变换矩阵,该坐标变换矩阵M43_1的各参数根据坐标E1(x1,y1,z1,w1,p1,r1)决定。这样,能够将作业设备坐标系C4与用户坐标系C3的位置关系设为已知。
这样,通过使手前部40(具体而言为工件WP1)与抵接部44抵接,该手前部40相对于作业设备14静止地配置为规定的位置PS1以及姿势OR1,此时的手前部40相对于作业设备坐标系C4的位置PS1以及姿势OR1表示为用户坐标系C3的坐标E1(x1,y1,z1,w1,p1,r1)。因此,抵接部44作为用于将手前部40的位置PS1以及姿势OR1表示于作业设备坐标系C4的要素发挥功能。
处理器50取得表示将手前部40配置为位置PS1及姿势OR1时的、相对于作业设备坐标系C4的该位置PS1及姿势OR1的第二位置数据β1。作为一例,处理器50取得上述的坐标E1(x1,y1,z1,w1,p1,r1)或者坐标变换矩阵M43_1作为第二位置数据β1
作为另一例,处理器50也可以取得将手前部40配置为位置PS1及姿势OR1时的从用户坐标系C3向作业设备坐标系C4的坐标变换矩阵M34_1,作为第二位置数据β1。求出该坐标变换矩阵M34_1作为上述的坐标变换矩阵M43_1的逆变换矩阵:inv(M43_1)。
作为另外的其他例子,处理器50也可以取得将手前部40配置为位置PS1及姿势OR1时的用户坐标系C3中的作业设备坐标系C4的坐标E1’(x1’,y1’,z1’,w1’,p1’,r1’)作为第二位置数据β1。能够根据坐标变换矩阵M34_1(=inv(M43_1))决定坐标E1’。
这样,在本实施方式中,坐标E1(x1,y1,z1,w1,p1,r1)、坐标E1’(x1’,y1’,z1’,w1’,p1’,r1’)、坐标变换矩阵M43_1、以及坐标变换矩阵M34_1构成第二位置数据β1,处理器50作为取得该第二位置数据β1的位置数据取得部62(图2)发挥功能。
另一方面,处理器50取得表示将手前部40配置为位置PS1及姿势OR1时的、相对于机器人坐标系C1的该位置PS1及姿势OR1的第一位置数据α1。在此,在手前部40配置为位置PS1以及姿势OR1时,机器人坐标系C1中的用户坐标系C3的坐标表示为已知的坐标D1(X1,Y1,Z1,W1,P1,R1),根据坐标D1(X1,Y1,Z1,W1,P1,R1)决定此时的从机器人坐标系C1向用户坐标系C3的坐标变换矩阵M13_1的各参数。
作为一例,处理器50取得上述的坐标D1(X1,Y1,Z1,W1,P1,R1)或坐标变换矩阵M13_1作为第一位置数据α1。作为其他例子,处理器50也可以取得将手前部40配置为位置PS1及姿势OR1时的从用户坐标系C3向机器人坐标系C1的坐标变换矩阵M31_1作为第一位置数据α1。求出该坐标变换矩阵M31_1作为上述的坐标变换矩阵M13_1的逆变换矩阵:inv(M13_1)。
作为另外的其他例子,处理器50也可以取得将手前部40配置为位置PS1及姿势OR1时的用户坐标系C3中的机器人坐标系C1的坐标D1’(X1’,Y1’,Z1’,W1’,P1’,R1’)作为第一位置数据α1。能够根据坐标变换矩阵M31_1(=inv(M13_1))决定坐标D1’。
这样,在本实施方式中,坐标D1(X1,Y1,Z1,W1,P1,R1)、坐标D1’(X1’,Y1’,Z1’,W1’,P1’,R1’)、坐标变换矩阵M13_1、以及坐标变换矩阵M31_1构成第一位置数据α1,处理器50作为位置数据取得部62(图2)发挥功能,取得第一位置数据α1
接下来,处理器50使用所取得的第一位置数据α1以及第二位置数据β1,取得表示机器人坐标系C1与作业设备坐标系C4的位置关系的第三位置数据γ1。作为一例,处理器50取得从机器人坐标系C1向作业设备坐标系C4的坐标变换矩阵M14_1作为第三位置数据γ1。具体而言,处理器50能够使用作为第一位置数据α1的坐标变换矩阵M13_1和作为第二位置数据β1的坐标变换矩阵M34_1(或M43_1),根据M14_1=M13_1·M34_1=M13_1·inv(M43_1)的式子,通过运算求出坐标变换矩阵M14_1
作为其他例子,处理器50也可以取得机器人坐标系C1中的作业设备坐标系C4的坐标D2(X2,Y2,Z2,W2,P2,R2)作为第三位置数据γ1。能够根据已知的坐标变换矩阵M14_1的各参数决定该坐标D2(X2,Y2,Z2,W2,P2,R2)。
作为另外的其他例子,处理器50也可以取得从作业设备坐标系C4向机器人坐标系C1的坐标变换矩阵M41_1作为第三位置数据γ1。求出该坐标变换矩阵M41_1能够作为上述的坐标变换矩阵M14_1的逆变换矩阵:inv(M14_1)。或者,也能够使用作为第一位置数据α1的坐标变换矩阵M31_1(或M13_1)和作为第二位置数据β1的坐标变换矩阵M43_1,根据M41_1=M43_1·M31_1=M43_1·inv(M13_1)的式子来决定坐标变换矩阵M41_1
作为另外的其他例子,处理器50也可以取得作业设备坐标系C4中的机器人坐标系C1的坐标E2(x2,y2,z2,w2,p2,r2)作为第三位置数据γ1。能够根据上述的坐标变换矩阵M41_1的各参数来决定坐标E2
这样,在本实施方式中,处理器50作为使用第一位置数据α1以及第二位置数据β1来取得第三位置数据γ1(坐标变换矩阵M14_1、坐标变换矩阵M41_1、坐标D2、或者坐标E2)的位置关系取得部64(图2)发挥功能。
如上所述,处理器50作为具有位置数据取得部62以及位置关系取得部64的装置60发挥功能,从第一位置数据α1以及第二位置数据β1取得表示机器人坐标系C1与作业设备坐标系C4的位置关系的第三位置数据γ1。根据该结构,不执行利用手前部40对设定于作业设备14的多个点进行触摸释放的过程,而将手前部40配置为1个位置PS1以及姿势OR1,由此,能够取得第三位置数据γ1。由此,能够大幅简化求出机器人坐标系C1与作业设备坐标系C4的位置关系的过程。
另外,在本实施方式中,通过使该手前部40与用于将手前部40的位置PS1以及姿势OR1表示于作业设备坐标系C4的抵接部44抵接,从而将该手前部40配置为位置PS1以及姿势OR1。根据该结构,通过仅使手前部40与抵接部44抵接,就能够使手前部40相对于作业设备坐标系C4的位置PS1以及姿势OR1(具体而言,用户坐标系C3的位置关系)为已知,因此,能够容易且高精度地取得第二位置数据β1
另外,在本实施方式中,装置60构成为根据使机器人12(具体而言,手前部40)与抵接部44抵接时的、机器人12相对于作业设备14的位置以及姿势(具体而言,第二位置数据β1),取得机器人12与作业设备14的位置关系(具体而言,第三位置数据γ1)。根据该结构,通过仅使机器人12与抵接部44抵接,就能够取得机器人12与作业设备14的位置关系(第三位置数据γ1)。
此外,抵接部44不限于图4所示的方式,例如,只要是形成于作业设备14的孔、凹部、凸部、或者固定工件WP1的工件保持机构(卡盘机构、夹具)等、通过使手前部40(例如,工件WP1)抵接而将该手前部40静止地配置从而能够使该手前部40相对于作业设备坐标系C4的位置PS1以及姿势OR1(用户坐标系C3的位置关系)为已知的结构,可以是任意的结构。
接下来,参照图7以及图8,对其他实施方式的系统70进行说明。系统70与上述的系统10的不同点在于,还具有示教装置72。示教装置72是所谓的示教器、或者平板式终端装置等计算机,以能够通过有线或无线进行通信的方式与控制装置16的I/O接口54连接。
示教装置72具有处理器(未图示)、存储器(未图示)、显示装置74以及输入装置76。显示装置74具有液晶显示器或有机EL显示器等,显示各种数据。输入装置76具有按钮或触摸面板等,受理来自操作员的输入操作。
在系统70中,操作员通过操作示教装置72,对机器人12示教将机器人12的手前部40定位为位置PS1以及姿势OR1的动作。具体而言,操作员目视确认显示于显示装置74的数据,并且操作输入装置76,由此,将用于使机器人12的手前部40在机器人坐标系C1中进行点动动作的输入数据输入到输入装置76。
示教装置72根据向输入装置76的输入数据,生成用于使机器人12进行点动动作的示教指令TC,发送给控制装置16的I/O接口54。控制装置16的处理器50通过I/O接口54受理示教指令TC。
这样,在本实施方式中,处理器50作为受理示教指令TC的示教指令受理部78(图8)发挥功能。处理器50根据所受理的示教指令TC,生成对机器人12的各伺服电动机38的指令,由此使机器人12的手前部40进行点动(jog)动作。
操作员操作示教装置72的输入装置76,直至使末端执行器26在规定的把持位置把持的工件WP1与抵接部44抵接为止,处理器50根据来自示教装置72的示教指令TC使机器人12的手前部40进行点动动作。
其结果,以工件WP1的底面B1与作业设备14的面42面接触,工件WP1的侧面B5与抵接部44的内表面46a面接触,且工件WP1的侧面B4与抵接部44的内表面48a面接触的方式,手前部40(工件WP1)与抵接部44抵接而定位为位置PS1及姿势OR1。这样,处理器50作为使机器人12动作的机器人控制部79(图8)发挥功能,以便通过使手前部40(具体而言,工件WP1)与抵接部44抵接而将该手前部40定位为位置PS1以及姿势OR1
如上所述,在本实施方式中,装置60具有位置数据取得部62、位置关系取得部64、示教指令受理部78以及机器人控制部79,处理器50作为装置60的位置数据取得部62、位置关系取得部64、示教指令受理部78以及机器人控制部79发挥功能。
根据本实施方式,操作员确认实际的手前部40及抵接部44的配置,并且操作示教装置72来对机器人12进行示教,由此,能够将手前部40定位为位置PS1及姿势OR1。由此,能够缩短将手前部40定位为位置PS1以及姿势OR1的动作所需的时间。
接下来,参照图9,对另外其他实施方式的系统80进行说明。系统80与上述的系统70的不同点在于,代替示教装置72而具有力传感器82。作为一例,力传感器82具有分别设置于机器人12的伺服电动机38的多个转矩传感器。该情况下,力传感器82检测施加于各伺服电动机38的驱动轴的转矩T作为检测数据DF。
作为其他例,力传感器82设置于机器人12的机器人基座18、旋转体20、下臂部30、上臂部32或手腕部24,具有6轴力觉传感器,该6轴力觉传感器具有多个应变仪。该情况下,力传感器82检测作用于机器人12的力F作为检测数据DF。此外,力传感器82也可以是基于副编码器(secondary encoder)的转矩检测方式的力传感器、或者静电电容式的力觉传感器等任意类型的力传感器。
处理器50根据力传感器82的检测数据DF(即,转矩T或力F),确定施加于机器人12的外力EF的大小及方向、被施加了该外力EF的机器人12的部位(旋转体20、下臂部30、上臂部32、手腕部24、手前部40)。
并且,处理器50根据施加于机器人12的任意部位的外力EF,使该机器人12的该部位向外力EF的方向移动。利用该功能,操作员对机器人12示教使机器人12的手前部40与抵接部44抵接而定位为位置PS1及姿势OR1的动作(所谓的直接示教)。
具体而言,操作员在将基于控制装置16的机器人12的动作模式切换为示教模式之后,对机器人12的任意部位(例如手前部40)施加示教用的外力EFT。于是,力传感器82检测外力EFT作为检测数据DFT,供给至处理器50。
处理器50在向示教模式的切换后,根据力传感器82检测出的检测数据DFT,确定被施加了外力EFT的机器人12的部位(手前部40),并且确定外力EFT的大小以及方向。并且,处理器50使确定为被施加了外力EFT的机器人12的部位(手前部40)向确定出的外力EFT的方向进行点动动作。
这样,操作员按照施加于机器人12的任意部位的外力EFT使机器人12进行点动动作,对机器人12示教使手前部40与抵接部44抵接而定位为位置PS1和姿势OR1的动作。即,在本实施方式中,处理器50将在施加了外力EFT时力传感器82检测到的检测数据DFT设为示教指令,根据该检测数据DFT使机器人12进行点动动作。
因此,检测数据DFT构成示教指令(具体而言,用于根据外力EFT使手前部40移动的直接示教指令),处理器50作为受理该示教指令(检测数据DFT)的示教指令受理部78、以及使机器人12动作的机器人控制部79发挥功能。此外,在示教模式中,处理器50也可以根据从检测数据DFT确定出的外力EFT的大小,变更使机器人12的部位进行点动动作的移动距离或者移动速度(例如,与外力EFT的大小成比例地增加)。
此外,上述的直接示教包含不使用力传感器82,例如通过对操作部(操纵杆(Joystick)等)进行操作来赋予针对伺服电动机38的动作指令的示教。该情况下,对伺服电动机38的动作指令构成示教指令(直接示教指令)。或者,操作员也能够在将该机器人12保持为不对机器人12的各轴施加转矩的状态时,对机器人12的部位(例如,下臂部30、上臂部32或者手前部40)施加外力EFT,通过该EFT手动地使该部位移动,由此,执行直接示教。
接下来,参照图10以及图11,对另外其他实施方式的系统90进行说明。系统90与上述的系统10的不同点在于,还具有接触检测传感器92。接触检测传感器92检测手前部40与抵接部44接触的情况。
具体而言,接触检测传感器92具有:第一传感器元件94、第二传感器元件96以及第三传感器元件98。第一传感器元件94、第二传感器元件96以及第三传感器元件98分别例如是接近传感器(静电电容式接近传感器、接近开关等)、测距传感器、压力传感器、压电元件、或者应变仪等,检测物体的接近或者接触。第一传感器元件94设置于作业设备14的面42。另外,第二传感器元件96设置于抵接部44的内表面46a,另一方面,第三传感器元件98设置于抵接部44的内表面48a。
如图6所示,在手前部40与抵接部44抵接而配置为规定的位置PS1以及姿势OR1时,第一传感器元件94的检测数据DA为表示工件WP1的底面B1与面42的面接触的值DA0,第二传感器元件96的检测数据DB为表示工件WP1的侧面B5与抵接部44的内表面46a的面接触的值DB0,第三传感器元件98的检测数据DC为表示工件WP1的侧面B4与抵接部44的内表面48a的面接触的值DC0
换言之,在第一传感器元件94检测到检测数据DA0,第二传感器元件96检测到检测数据DB0,且第三传感器元件98检测到检测数据DC0的情况下,能够视为手前部40与抵接部44抵接而配置为位置PS1以及姿势OR1
接着,参照图12,对系统90的功能进行说明。图12所示的流程在处理器50从操作员、上位控制器或计算机程序受理了位置关系取得指令时开始。在图12所示的流程开始时,机器人12的手前部40在规定的把持位置把持工件WP1。
在步骤S1中,处理器50作为机器人控制部79发挥功能使机器人12动作,将手前部40配置为预先决定的初始位置PS0及初始姿势OR0。例如,初始位置PS0能够由操作员确定为将手前部40的工件WP1配置于抵接部44的附近的位置。
另外,初始姿势OR0能够由操作员根据机器人12以及作业设备14的设计尺寸(CAD数据)等确定为如下姿势:推定为用户坐标系C3的z轴方向与作业设备14的面42大致正交,推定为用户坐标系C3的y轴方向与抵接部44的内表面46a大致正交,且推定为用户坐标系C3的x轴方向与抵接部44的内表面48a大致正交。此外,该初始位置PS0以及初始姿势OR0也可以通过对机器人12示教将工件WP1配置于抵接部44的附近的动作来确定。
在步骤S2中,处理器50使机器人12动作,使手前部40沿着第一轴移动。例如,处理器50使手前部40从初始位置PS0及初始姿势OR0向用户坐标系C3的z轴方向(即,推定为与面42正交的方向)移动。
在步骤S3中,处理器50判定在该时间点第一传感器元件94检测出的检测数据DA是否收敛于预先决定的允许范围[DAth1,DAth2]内。划定该允许范围[DAth1,DAth2]的阈值DAth1以及DAth2能够以上述的值DA0为基准(例如,以包含值DA0的方式),由操作员预先决定。
处理器50在检测数据DA为允许范围内(即,DAth1≤DA≤DAth2)的情况下判定为“是”,前进到步骤S4,另一方面,在检测数据DA为允许范围外(即,DA<DAth1,或者,DA>DAth2)的情况下判定为“否”,返回到步骤S2。
这样,处理器50循环进行步骤S2以及S3,直到在步骤S3中判定为“是”为止。在步骤S3中判定为“是”时,能够视为工件WP1的底面B1与面42面接触。此外,处理器50也可以在每次执行步骤S2时,将在该步骤S2中使手前部40移动的方向作为能够使检测数据DA接近允许范围的方向,从用户坐标系C3的z轴正方向以及z轴负方向中决定。
例如,在第n次的步骤S3中使用的检测数据DAn与在第n-1次的步骤S3中取得的检测数据DAn-1相比,小于阈值DAth1或者大于阈值DAth2的情况下,也可以使在第n+1次执行的步骤S2中使手前部40移动的方向从在第n次执行的步骤S2中使手前部40移动的方向反转。根据该结构,能够使检测数据DA更迅速地收敛于允许范围内。
此外,处理器50也可以在步骤S2中,根据最近取得的检测数据DA来使手前部40的姿势变化。例如,处理器50通过使手前部40向用户坐标系C3的绕x轴、y轴或z轴的方向转动,能够使该手前部40的姿势变化。
该情况下,处理器50也可以将使手前部40移动的方向作为能够使检测数据DA接近允许范围的方向(例如,使工件WP1的底面B1与面42平行的方向),从用户坐标系C3的绕x轴、y轴或z轴的方向中决定。
在步骤S4中,处理器50使机器人12动作,使手前部40沿着第二轴移动。例如,处理器50使手前部40从在步骤S3中判定为“是”的时间点的位置以及姿势,向用户坐标系C3的y轴方向(即,推定为与内表面46a正交的方向)移动。
在步骤S5中,处理器50判定在该时间点第二传感器元件96检测出的检测数据DB是否收敛于预先决定的允许范围[DBth1,DBth2]内。划定该允许范围[DBth1,DBth2]的阈值DBth1以及DBth2能够以上述的值DB0为基准(例如,以包含值DB0的方式),由操作员预先决定。
处理器50在检测数据DB为允许范围内(即,DBth1≤DB≤DBth2)的情况下判定为“是”,前进到步骤S6,另一方面,在检测数据DB为允许范围外(即,DB<DBth1,或者,DB>DBth2)的情况下判定为“否”,返回到步骤S4。
这样,处理器50循环进行步骤S4以及S5,直到在步骤S5中判定为“是”为止。在步骤S5中判定为“是”时,能够视为工件WP1的侧面B5与内表面46a面接触。此外,处理器50也可以在每次执行步骤S4时,将在该步骤S4中使手前部40移动的方向作为能够使检测数据DB接近允许范围的方向,从用户坐标系C3的y轴正方向以及y轴负方向中决定。
另外,处理器50也可以在步骤S4中,根据最近取得的检测数据DB使手前部40的姿势变化。该情况下,处理器50也可以将使手前部40移动的方向作为能够使检测数据DB接近允许范围的方向(例如,使工件WP1的侧面B5与抵接部44的内表面46a平行的方向),从用户坐标系C3的绕x轴、y轴或z轴的方向中决定。
在步骤S6中,处理器50使机器人12动作,使手前部40沿着第三轴移动。例如,处理器50使手前部40根据在步骤S5中判定为“是”的时间点的位置以及姿势,向用户坐标系C3的x轴方向(即,推定为与内表面48a正交的方向)移动。
在步骤S7中,处理器50判定在该时间点第三传感器元件98检测出的检测数据DC是否收敛于预先决定的允许范围[DCth1,DCth2]内。划定该允许范围[DCth1,DCth2]的阈值DCth1和DCth2能够以上述的值DC0为基准(例如,以包含值DC0的方式),由操作员预先决定。
处理器50在检测数据DC为允许范围内(即,DCth1≤DC≤DCth2)的情况下判定为“是”,前进到步骤S8,另一方面,在检测数据DB为允许范围外(即,DC<DCth1,或者,DC>DCth2)的情况下判定为“否”,返回到步骤S6。这样,处理器50循环进行步骤S6以及S7,直到在步骤S7中判定为“是”为止。
在步骤S7中判定为“是”时,能够视为工件WP1的侧面B4与抵接部44的内表面48a面接触。此外,处理器50也可以在每次执行步骤S6时,将在该步骤S6中使手前部40移动的方向作为能够使检测数据DC接近允许范围的方向,从用户坐标系C3的x轴正方向以及x轴负方向中决定。
另外,处理器50也可以在步骤S6中,根据最近取得的检测数据DC使手前部40的姿势变化。该情况下,处理器50也可以将使手前部40移动的方向作为能够使检测数据DC接近允许范围的方向(例如,使工件WP1的侧面B4与抵接部44的内表面48a平行的方向),从用户坐标系C3的绕x轴、y轴或z轴的方向中决定。
这样,处理器50根据接触检测传感器92的检测数据DA、DB及DC执行步骤S2~S7,从而能够自动地进行使手前部40如图6所示那样与抵接部44抵接而定位为位置PS1及姿势OR1的动作。
在步骤S8中,处理器50作为位置数据取得部62发挥功能,与上述的实施方式一样地,取得第一位置数据α1以及第二位置数据β1。然后,在步骤S9中,处理器50作为位置关系取得部64发挥功能,与上述的实施方式同样地取得第三位置数据γ1
如上所述,在本实施方式中,处理器50作为机器人控制部79发挥功能,自动执行使手前部40与抵接部44抵接而定位为位置PS1及姿势OR1的动作。根据该结构,能够使取得第三位置数据γ1的过程自动化,因此,能够实现该过程的简化和迅速化。
另外,在本实施方式中,系统90具有检测手前部40与抵接部44接触的接触检测传感器92。根据该结构,能够自动且高精度地检测手前部40与抵接部44的适当的接触,因此,能够自动且高精度地执行将手前部40定位为位置PS1以及姿势OR1的动作。另外,能够以比较简单的算法使图12所示的流程自动化。
此外,接触检测传感器92也可以设置于机器人12。例如,也可以将第一传感器元件94设置于构成手前部40的工件WP1的底面B1,将第二传感器元件96设置于该工件WP1的侧面B5,将第三传感器元件98设置于该工件WP1的侧面B4。该情况下,处理器50也能够通过执行图12中的步骤S1~S7,使手前部40适当地与抵接部44抵接而定位为位置PS1以及姿势OR1
取而代之,接触检测传感器92也能够由上述的力传感器82构成。具体而言,处理器50根据在执行图12中的步骤S2时力传感器82检测出的检测数据DFS2,求出从作业设备14的面42施加于手前部40的外力EFS2的大小:|EFS2|。
然后,处理器50在步骤S3中判定|EFS2|是否收敛于预先决定的允许范围[EFS2_th1,FS2_th2]内。该允许范围[EFS2_th1,FS2_th2]能够以工件WP1的底面B1与面42适当地面接触时力传感器82检测出的外力EFS2的大小为基准来决定。
同样地,处理器50能够根据在执行图12中的步骤S4时力传感器82检测出的检测数据DFS4,求出从抵接部44的内表面46a施加于手前部40的外力EFS4的大小:|EFS4|。然后,处理器50在步骤S5中判定|EFS4|是否收敛于预先决定的允许范围[EFS4_th1,FS4_th2]内。
另外,处理器50能够根据在执行图12中的步骤S6时力传感器82检测出的检测数据DFS6,求出从抵接部44的内表面46a施加于手前部40的外力EFS6的大小:|EFS6|。然后,处理器50在步骤S5中判定|EFS6|是否收敛于预先决定的允许范围[EFS6_th1,FS6_th2]内。在该方式中,设置于机器人12的力传感器82作为检测手前部40与抵接部44接触的接触检测传感器92发挥功能。
接下来,参照图13,对另外其他实施方式的系统100进行说明。系统100与上述的系统10的不同点在于,还具有设计辅助装置102。设计辅助装置102具有CAD装置104以及CAM装置106。CAD装置104根据来自操作员的输入,制作将图1所示的机器人12模型化后的机器人模型102M、以及将作业设备14模型化后的作业设备模型14M的图形数据(三维CAD数据)。
此外,在以下的说明中,在实际空间中的部件的名称为“XX”的情况下,将其构成要素的模型称为“XX模型”。因此,机器人模型102M具有:机器人基座模型18M、旋转体模型20M、机械臂模型22M(下臂部模型30M、上臂部模型32M)、手腕部模型24M以及末端执行器模型26M。
CAM装置106根据CAD装置104制作出的图形数据,制作机器人12或作业设备14的动作程序OP。具体而言,CAM装置106根据来自操作员的输入,将机器人模型102M以及作业设备模型14M与机器人坐标系C1以及作业设备坐标系C4一起配置在虚拟空间内。此时,机器人模型102M和作业设备模型14M在虚拟空间中配置于设计尺寸上的相对位置RP1。
然后,CAM装置106在虚拟空间中通过模拟来执行如下动作:通过机器人模型102M的动作,使末端执行器模型26M在规定的把持位置把持的工件模型WM与设置于作业设备模型14M的抵接部模型44M模拟地抵接,将手手前部模型40M定位为规定的位置PS1_V和姿势OR1_V。手前部模型40M被模拟地配置为位置PS1_V及姿势OR1_V时的、机器人坐标系C1中的用户坐标系C3的坐标D1_V(X1_V,Y1_V,Z1_V,W1_V,P1_V,R1_V)是能够通过模拟而已知的。
通过该模拟,CAM装置106制作执行将手前部模型40M定位为位置PS1_V以及姿势OR1_V的动作的动作程序OP1。动作程序OP1包含使手前部模型40M向位置PS1_V以及姿势OR1_V移动时的成为该手前部模型40M(具体而言,MIF坐标系C2的原点)的通过点的多个示教点TPn(n=1、2、3、…、nMAX)、以及2个示教点TPn和TPn+1之间的移动路径。
此外,多个示教点TPn中的最后的示教点TPnMAX也可以规定用于将手前部模型40M定位为位置PS1_V以及姿势OR1_V的该手前部模型40M(MIF坐标系C2的原点)的位置。将制作出的动作程序OP1储存在存储器52中。
在此,在实际空间中,在构建了以与设计上的相对位置RP1对应的方式配置有机器人12以及作业设备14的系统100的情况下,在设计上的相对位置RP1与实际空间中的机器人12和作业设备14的相对位置RP2之间可能产生差(换言之,可能产生从相对位置RP1向相对位置RP2的变化)。该情况下,在实际空间中,即使按照通过模拟制作出的动作程序OP1使机器人12动作,也可能无法使手前部40适当地与抵接部44抵接而准确地定位为位置PS1以及姿势OR1
因此,在本实施方式中,处理器50取得表示相对位置RP1与相对位置RP2之差的位移数据,使用该位移数据来校正动作程序OP1。具体而言,在实际空间中构建了系统100之后,处理器50作为位置数据取得部62发挥功能,与上述的实施方式同样地,取得相对位置RP2处的第一位置数据α1。例如,处理器50取得坐标D1(X1,Y1,Z1,W1,P1,R1)作为第一位置数据α1
另一方面,处理器50取得在上述的模拟中在相对位置RP1取得的坐标D1_V(X1_V,Y1_V,Z1_V,W1_V,P1_V,R1_V)。然后,处理器50取得坐标D1与坐标D1_V之差ΔD1=D1﹣D1_V作为表示相对位置RP1与相对位置RP2之差的位移数据ΔD1。这样,在本实施方式中,处理器50作为位移数据取得部108发挥功能,该位移数据取得部108根据在相对位置RP变化之前(即,相对位置RP1)和之后(即,相对位置RP2)取得的第一位置数据α1(坐标D1、D1_V)来取得位移数据ΔD1
接着,处理器50使用所取得的位移数据ΔD1来校正动作程序OP1。例如,处理器50通过位移数据ΔD1对动作程序OP1所规定的示教点TPn(例如,最后的示教点TPnMAX)进行校正,由此,制作新的动作程序OP2。
这样,在本实施方式中,处理器50作为使用位移数据ΔD1来校正动作程序OP1的校正部110发挥功能。之后,处理器50与上述的实施方式同样地,作为位置数据取得部62发挥功能而取得第二位置数据β1,作为位置关系取得部64发挥功能而取得第三位置数据γ1
如上所述,在本实施方式中,装置60具有:位置数据取得部62、位置关系取得部64、位移数据取得部108以及校正部110,处理器50作为装置60的位置数据取得部62、位置关系取得部64、位移数据取得部108以及校正部110发挥功能。
根据本实施方式,能够制作用于使机器人12执行如下动作的动作程序OP2:对通过模拟制作出的动作程序OP1的数据的一部分(例如,示教点TPn)进行校正,另一方面,利用该动作程序OP1的数据的其他部分,在实际空间中将手前部40定位为位置PS1以及姿势OR1。因此,能够大幅减少制作实际空间用的动作程序OP2的作业。
此外,在系统100中,处理器50也能够使用第二位置数据β1来取得位移数据。具体而言,处理器50取得在上述的模拟中将手前部模型40M模拟地配置为位置PS1_V以及姿势OR1_V时的、作业坐标系C4中的用户坐标系C3的坐标E1_V(X1_V,Y1_V,Z1_V,W1_V,P1_V,R1_V)。
在实际空间中构建了系统100之后,处理器50与上述的实施方式同样地作为位置数据取得部62发挥功能,取得作为第二位置数据β1的上述的坐标E1(x1,y1,z1,w1,p1,r1)。并且,处理器50作为位移数据取得部108发挥功能,取得坐标E1与坐标E1_V之差ΔE1=E1﹣E1_V作为表示相对位置RP1与相对位置RP2之差的位移数据。并且,处理器50作为校正部110发挥功能,使用位移数据ΔE1来校正动作程序OP1。
另外,在系统100中,处理器50也能够使用第三位置数据γ1来取得位移数据。具体而言,处理器50取得CAM装置106为了模拟而配置在虚拟空间中的机器人坐标系C1中的作业设备坐标系C4的坐标D2_V(X2_V,Y2_V,Z2_V,W2_V,P2_V,R2_V)。
在实际空间中构建了系统100之后,处理器50与上述的实施方式同样地作为位置关系取得部64发挥功能,取得作为第三位置数据γ1的上述的坐标D2(X2,Y2,Z2,W2,P2,R2)。并且,处理器50作为位移数据取得部108发挥功能,取得坐标D2与坐标D2_V之差ΔD2=D2﹣D2_V作为位移数据。并且,处理器50作为校正部110发挥功能,使用位移数据ΔD2来校正动作程序OP1。
同样地,处理器50也能够根据作为第三位置数据γ1的上述坐标E2(X2,Y2,Z2,W2,P2,R2)和配置于虚拟空间的作业设备坐标系C4中的机器人坐标系C1的坐标E2_V(x2_V,y2_V,z2_V,w2_V,p2_V,r2_V),取得位移数据ΔE2=E2﹣E2_V,使用位移数据ΔE2来校正动作程序OP1。
此外,也可以在上述系统70中应用位移数据取得部108和校正部110。在图7和图14中表示这样的方式。在图7以及图14所示的系统70’中,装置60具有:位置数据取得部62、位置关系取得部64、示教指令受理部78、机器人控制部79、位移数据取得部108以及校正部110。
以下,对系统70’的功能进行说明。首先,操作员在实际空间中构建将机器人12和作业设备14配置于相对位置RP3的系统70’。在该相对位置RP3,操作员操作示教装置72,对机器人12示教使机器人12的手前部40与抵接部44抵接而定位为位置PS1_3及姿势OR1_3的动作。
处理器50作为示教指令受理部78发挥功能,接受来自示教装置72的示教指令TC,作为机器人控制部79发挥功能,根据该示教指令TC使机器人12动作,将手前部40定位为位置PS1_3及姿势OR1_3。通过该示教过程,示教装置72(或处理器50)制作执行将手前部40定位为位置PS1_3及姿势OR1_3的动作的动作程序OP3。动作程序OP3包含使手前部40向位置PS1_3及姿势OR1_3移动时的该手前部40(或MIF坐标系C2的原点)的示教点TPn(n=1、2、3、…、nMAX)、和2个示教点TPn以及TPn+1之间的移动路径。
接着,处理器50作为位置数据取得部62发挥功能,取得手前部40配置为位置PS1_3及姿势OR1_3时的机器人坐标系C1中的用户坐标系C3的坐标D1_3(X1_3,Y1_3,Z1_3,W1_3,P1_3,R1_3)作为第一位置数据α1_3。另外,处理器50作为位置数据取得部62发挥功能而取得第二位置数据β1_3,作为位置关系取得部64发挥功能而取得表示相对位置RP3处的机器人坐标系C1与作业设备坐标系C4的位置关系的第三位置数据γ1_3
在此,有时将系统70’移设到其他生产线,或者在系统70’中更换机器人12和作业设备14中的至少一个。该情况下,在系统70’中,机器人12与作业设备14的相对位置能够从移设或者更换前的相对位置RP3向移设或者更换后的相对位置RP4变化。于是,在相对位置RP4,即使按照动作程序OP3使机器人12动作,也可能无法使手前部40适当地与抵接部44抵接。
因此,操作员在移设或者更换后的相对位置RP4再次操作示教装置72,对机器人12示教使机器人12的手前部40与抵接部44抵接而定位为位置PS1_4以及姿势OR1_4的动作。并且,处理器50作为位置数据取得部62发挥功能,取得手前部40配置为位置PS1_4及姿势OR1_4时的机器人坐标系C1中的用户坐标系C3的坐标D1_4(X1_4,Y1_4,Z1_4,W1_4,P1_4,R1_4)作为第一位置数据α1_4
接着,处理器50作为位移数据取得部108发挥功能,取得在相对位置RP3取得的坐标D1_3与在相对位置RP4取得的坐标D1_4之差ΔD1=D1_4﹣D1_3,作为表示相对位置RP3与相对位置RP4之差的位移数据ΔD1。接着,处理器50作为校正部110发挥功能,使用所取得的位移数据ΔD1来校正动作程序OP3。例如,处理器50通过位移数据ΔD1对动作程序OP3所规定的示教点TPn(例如,最后的示教点TPnMAX)进行校正,来制作新的动作程序OP4。
这样,根据本实施方式,能够对在相对位置RP3制作的动作程序OP3的数据的一部分(例如,示教点TPn)进行校正,另一方面,能够利用该动作程序OP3的数据的其他部分,制作用于使机器人12在相对位置RP4动作的动作程序OP4。因此,能够大幅减少制作动作程序OP4的作业。
此外,在系统70’中,处理器50不限于位移数据ΔD1,使用上述的系统100中叙述的方法,取得基于第二位置数据β1的位移数据ΔE1、或基于第三位置数据γ1的位移数据ΔD2或ΔE2,能够使用该位移数据ΔE1、ΔD2或ΔE2来校正动作程序OP3。
另外,在系统70’中,也能够代替示教装置72而应用上述的系统80的力传感器82,操作员使用与该系统80一样的方法,按照施加于机器人12的外力EFT使机器人12动作,由此,对机器人12示教使手前部40与抵接部44抵接而定位的动作。
接下来,参照图15和图16,对另外其他实施方式的系统120进行说明。系统120与上述的系统10在以下的结构上不同。具体而言,系统120还具有位置检测传感器122。位置检测传感器122在手前部40配置为规定的位置PS2以及姿势OR2时,检测作业设备坐标系C4中的该手前部40的位置。在本实施方式中,位置检测传感器122由接触式探头构成,该接触式探头通过设置于其前端的检测点122a与物体接触来检测该物体。
另一方面,作业设备14具有:主体部124(图16)、可动部126以及移动机构128。可动部126例如是工件台、工件保持机构(卡盘机构等)或机床的主轴,可动地设置于主体部124。上述的位置检测传感器122以从可动部126向一方向笔直地延展的方式固定设置于该可动部126。
移动机构128例如具有滚珠丝杠机构和驱动该滚珠丝杠机构的伺服电动机(均未图示),在来自控制装置16的指令之下,使可动部126向作业设备坐标系C4的x轴、y轴以及z轴方向移动。在可动部126(或位置检测传感器122)设定有移动坐标系C5。移动坐标系C5用于控制作业设备坐标系C4中的可动部126的位置,在作业设备坐标系C4中与可动部126一起移动。
具体而言,在使可动部126移动时,处理器50在作业设备坐标系C4中设定移动坐标系C5,以将可动部126定位于由设定的移动坐标系C5规定的位置的方式生成对移动机构128的指令。这样,处理器50能够将可动部126定位于作业设备坐标系C4中的任意的位置。因此,移动坐标系C5相对于作业设备坐标系C4的位置关系(即,原点位置以及各轴的方向)是已知的。
另一方面,位置检测传感器122的检测点122a配置于移动坐标系C5中的已知的位置。因此,位置检测传感器122的检测点122a在作业设备坐标系C4中的位置(具体而言,坐标)经由移动坐标系C5而成为已知。
接着,对系统120的功能进行说明。首先,处理器50使机器人12动作,将手前部40配置为规定的位置PS2及姿势OR2。该位置PS2由操作员预先确定,以便在手前部40配置于该位置PS2时,该手前部40(例如,末端执行器26把持的工件WP1)的至少一部分包含在基于移动机构128的检测点122a的移动范围内。
接着,处理器50使移动机构128动作而使位置检测传感器122移动,在该位置检测传感器122的检测点122a,对手前部40的多个位置进行触摸释放(接触)。具体而言,处理器50使移动机构128动作,通过检测点122a,依次对末端执行器26把持的工件WP1的侧面B4上的3个点PT1、PT2及PT3进行触摸释放。该3个点PT1、PT2以及PT3是以不排列成一条直线的方式分散配置在侧面B4上的点。
每当检测点122a触摸释放点PT1、PT2以及PT3时,位置检测传感器122将检测数据DP1、DP2以及DP3向处理器50发送。处理器50分别取得接收到检测数据DP1、DP2以及DP3时的作业设备坐标系C4中的检测点122a的位置(坐标)H1、H2以及H3。根据这些位置H1、H2以及H3,处理器50能够确定作业设备坐标系C4中的侧面B4的位置。
接着,处理器50使移动机构128动作而使位置检测传感器122移动,在该位置检测传感器122的检测点122a,依次对与触摸释放了3点的侧面B4正交的工件WP1的侧面B5上的2个点PT4以及PT5进行触摸释放。每当检测点122a触摸释放(touch up)点PT4以及PT5时,位置检测传感器122将检测数据DP4以及DP5向处理器50发送。
处理器50分别取得接收到检测数据DP4以及DP5时的作业设备坐标系C4中的检测点122a的位置(坐标)H4以及H5。根据这些位置H4以及H3,处理器50能够确定作业设备坐标系C4中的侧面B5的位置。
接着,处理器50使移动机构128动作而使位置检测传感器122移动,在检测点122a,对与触摸释放了3点的侧面B4以及触摸释放了2点的侧面B5正交的、工件WP1的底面B1上的1个点PT6进行触摸释放。在检测点122a触摸释放了点PT6时,位置检测传感器122向处理器50发送检测数据DP6。处理器50取得接收到检测数据DP6时的作业设备坐标系C4中的检测点122a的位置(坐标)H6。根据该位置H6,处理器50能够确定作业设备坐标系C4中的底面B1的位置。
这样,处理器50能够根据检测数据DP1~DP6来确定作业设备坐标系C4中的侧面B4及B5、以及底面B1的位置,因此,能够确定作业设备坐标系C4中的工件WP1(手前部40)的位置及姿势(即,用户坐标系C3的原点位置及各轴的方向)。
此时的作业设备坐标系C4中的用户坐标系C3的坐标能够表示为已知的坐标E3(x3,y3,z3,w3,p3,r3)。另外,从作业设备坐标系C4向用户坐标系C3的坐标变换矩阵M43_2为已知的齐次变换矩阵,该坐标变换矩阵M43_2的各参数根据坐标E3(x3,y3,z3,w3,p3,r3)确定。这样,作业设备坐标系C4与用户坐标系C3的位置关系是已知的。
并且,处理器50作为位置数据取得部62发挥功能,取得表示将手前部40配置为位置PS2及姿势OR2时的作业设备坐标系C4中的该位置PS2及姿势OR2的第二位置数据β2。例如,处理器50取得上述的坐标变换矩阵M43_2作为第二位置数据β2
另一方面,处理器50取得表示将手前部40配置为位置PS2及姿势OR2时的机器人坐标系C1中的该位置PS2及姿势OR2的第一位置数据α2。在此,在手前部40配置为位置PS2以及姿势OR2时,机器人坐标系C1中的用户坐标系C3的坐标表示为已知的坐标D3(X3,Y3,Z3,W3,P3,R3),此时的从机器人坐标系C1向用户坐标系C3的坐标变换矩阵M13_2的各参数能够根据坐标D3(X3,Y3,Z3,W3,P3,R3)求出。例如,处理器50取得坐标变换矩阵M13_2作为第一位置数据α2
接下来,处理器50使用所取得的第一位置数据α2以及第二位置数据β2,取得表示机器人坐标系C1与作业设备坐标系C4的位置关系的第三位置数据γ2。例如,处理器50取得从机器人坐标系C1向作业设备坐标系C4的坐标变换矩阵M14_2作为第三位置数据γ2。具体而言,处理器50能够使用作为第一位置数据α2的坐标变换矩阵M13_2和作为第二位置数据β2的坐标变换矩阵M43_2,根据式子M14_2=M13_2·inv(M43_2),通过运算求出坐标变换矩阵M14_2
如上所述,在本实施方式中,处理器50根据检测手前部40(具体而言,工件WP1)在作业设备坐标系C中的位置的位置检测传感器122的检测数据DP1~DP6,取得第二位置数据β2。根据该结构,能够在不使用上述的抵接部44的情况下,使手前部40相对于作业设备坐标系C4的位置以及姿势(即,用户坐标系C3的位置关系)已知。
另外,在本实施方式中,位置检测传感器122由接触式探头构成,通过移动机构128移动而与配置为规定的位置PS2以及姿势OR2的手前部40(工件WP1)接触,由此,检测作业设备坐标系C4中的手前部40的位置。
根据该结构,在作业设备14具有定位精度高的移动机构128的情况下,能够通过位置检测传感器122高精度地检测手前部40的位置,因此,能够提高第二位置数据β2的精度。另外,也能够使取得第二位置数据β2的过程自动化。
此外,在本实施方式中,对处理器50通过位置检测传感器122对工件W的侧面B4、侧面B5以及底面B1进行触摸释放的情况进行了叙述。然而,并不限定于此,处理器50也可以通过位置检测传感器122使手前部40的任意面(例如,相互正交的爪部36的3个面)触摸释放。
另外,位置检测传感器122也可以代替上述的接触式探头(或在接触式探头的基础上)而具有拍摄手前部40(工件WP1)的图像数据的视觉传感器(三维视觉传感器或二维照相机)。若作业设备坐标系C4中的视觉传感器的位置及姿势是已知的,则处理器50能够根据视觉传感器拍摄到的图像数据(检测数据)来确定作业设备坐标系C4中的手前部40(工件WP1)的位置及姿势(即,用户坐标系C3的原点位置及各轴的方向)。
另外,在系统120中,处理器50也可以与上述的系统10同样地取得上述的坐标D3(X3,Y3,Z3,W3,P3,R3)、将手前部40配置为位置PS2以及姿势OR2时的从用户坐标系C3向机器人坐标系C1的坐标变换矩阵M31_2、或者用户坐标系C3中的机器人坐标系C1的坐标D3’(X3’,Y3’,Z3’,W3’,P3’,R3’)作为第一位置数据α2
另外,与上述的系统10同样地,处理器50也可以取得上述的坐标E3(x3,y3,z3,w3,p3,r3)、将手前部40配置为位置PS2和姿势OR2时的从用户坐标系C3向作业设备坐标系C4的坐标变换矩阵M34_2、或者用户坐标系C3中的作业设备坐标系C4的坐标E3’(x3’,y3’,z3’,w3’,p3’,r3’)作为第二位置数据β2
另外,与上述的系统10同样地,处理器50也可以取得机器人坐标系C1中的作业设备坐标系C4的坐标D4(X4,Y4,Z4,W4,P4,R4)、从作业设备坐标系C4向机器人坐标系C1的坐标变换矩阵M41_2、或者作业设备坐标系C4中的机器人坐标系C1的坐标E4(x4,y4,z4,w4,p4,r4)作为第三位置数据γ2
另外,也可以将图7所示的示教装置72或图9所示的力传感器82应用于系统120,操作员对机器人12示教将手前部40定位为规定的位置PS2及姿势OR2的动作。该情况下,系统120的处理器50作为上述的示教指令受理部78、以及以将手前部40定位为位置PS2以及姿势OR2的方式使机器人12动作的机器人控制部79发挥功能。
接下来,参照图17~图22对另外其他实施方式的系统130进行说明。系统130具有:机器人132、作业设备134以及控制装置16。控制装置16控制机器人132以及作业设备134的动作。另外,与上述的实施方式同样地,对机器人132以及作业设备134分别设定机器人坐标系C1以及作业设备坐标系C4。
机器人132与上述的机器人12的不同点在于末端执行器136。末端执行器136是能够把持工件WP2的机械手,以能够装卸的方式安装于手腕部24的前端部(手腕凸缘)。作为一例,末端执行器136具有能够开闭的多个爪部和驱动该爪部的爪驱动部(均未图示)。作为另一例,末端执行器136也可以具有能够吸附工件WP2的吸附部(负压产生装置、电磁铁或吸盘等),通过吸附该工件WP2来进行把持。
如图20所示,在本实施方式中,工件WP2具有圆柱状(或圆筒状)的主体部WA和从该主体部WA突出的四棱柱状的突出部WB。更具体而言,主体部WA具有分别为大致平面的一对端面J1以及J2、在该端面J1以及J2之间延展的圆筒状的外周面J3。
突出部WB形成于主体部WA的端面J2。更具体而言,突出部WB具有分别大致平面的底面B6、侧面B7、B8、B9以及B10。侧面B7及B8相互平行地对置配置,与底面B6正交。另外,侧面B9以及B10相互平行地对置配置,与底面B6、侧面B7以及B8正交。
末端执行器136通过把持主体部WA的预先决定的位置,而在规定的把持位置把持工件WP2。如图17、图19以及图22所示,末端执行器136在规定的把持位置把持的工件WP2能够视为与该末端执行器136一体的工件,换言之,能够视为该末端执行器136的一部分。因此,手腕部24的前端部(手腕凸缘)、末端执行器136、以及该末端执行器136在规定的把持位置把持的工件WP2构成机器人132的手前部140。
针对末端执行器136在规定的把持位置把持的工件WP2,设定用户坐标系C3。在本实施方式中,用户坐标系C3以其原点配置于末端执行器26把持的工件WP2的底面B6(图20)的中心点,其x-z平面与末端执行器26把持的工件WP2的底面B6平行,且其y-z平面与末端执行器26把持的工件WP2的侧面B7及B8平行的方式,对工件WP2进行设定。
如上所述,末端执行器136在规定的把持位置把持的工件WP2能够视为与该末端执行器136一体的工件(即,末端执行器136的一部分),因此,如果该把持位置和工件WP2的形状是已知的,则对末端执行器136把持的工件WP2设定的用户坐标系C3相对于MIF坐标系C2的位置关系(原点位置和各轴的方向)成为已知。
因此,用户坐标系C3相对于机器人坐标系C1的位置关系经由MIF坐标系C2成为已知。因此,与上述的实施方式同样地,用户坐标系C3相对于机器人坐标系C1的位置关系表示为机器人坐标系C1的坐标D(X,Y,Z,W,P,R),另外,从机器人坐标系C1向用户坐标系C3的坐标变换矩阵M13(及其逆变换矩阵:M31)成为已知的齐次变换矩阵。
作业设备134例如是机床,具有:主体部142、工件保持机构144以及移动机构146。工件保持机构144可动地设置于主体部142的面148。在本实施方式中,工件保持机构144是卡盘机构。具体而言,如图19、图21以及图22所示,工件保持机构144具有:卡盘基座150、以能够开闭的方式设置于该卡盘基座150的多个卡盘爪152、以及驱动卡盘爪152的卡盘驱动部(未图示)。
卡盘基座150是具有中心轴线A2的圆柱状的部件,具有朝向外侧的大致平面的保持面150a。卡盘爪152以相对于轴线A2接近以及背离的方式可动地设置于卡盘基座150。在本实施方式中,共计3个卡盘爪152被配置成在轴线A2的周围大致等间隔地排列。卡盘驱动部例如是气压式或者液压式的缸、或者电动机,在来自控制装置16的指令之下,使卡盘爪152开闭。在卡盘爪152把持物体时,该物体被保持为与轴线A2同轴。
如图21及图22所示,在本实施方式中,使卡盘爪152预先把持抵接部154。抵接部154是圆筒状的部件,具有分别为大致平面的一对端面156及158、在该端面156及158之间延展的圆筒面即外周面160、以及在轴向上贯通抵接部154的贯通孔162。
贯通孔162具有与工件WP2的突出部WB相同的外形,如后述那样能够滑动地容纳该突出部WB。更具体而言,贯通孔162由分别为大致平面的内表面162a、162b、162c及162d划定。内表面162a和162b相互平行地对置配置。内表面162c及162d与内表面162a及162b正交,相互平行地对置配置。
移动机构146例如具有滚珠丝杠机构和驱动该滚珠丝杠机构的伺服电动机(均未图示),在来自控制装置16的指令之下,使工件保持机构144向作业设备坐标系C4的x轴、y轴及z轴方向移动。对工件保持机构144设定移动坐标系C5。
移动坐标系C5用于控制作业设备坐标系C4中的工件保持机构144的位置,在作业设备坐标系C4中与工件保持机构144一起移动。在本实施方式中,移动坐标系C5以其原点配置于轴线A2与保持面150a的交点(即,保持面150a的中心点)且其y轴与保持面150a正交的方式,对工件保持机构144进行设定。
在此,在本实施方式中,抵接部154以其内表面162a和162b与移动坐标系C5的y-z平面平行且其内表面162c和162d与移动坐标系C5的x-y平面平行的姿势被卡盘爪152把持。这样,抵接部154以与轴线A2为同轴的方式保持于工件保持机构144,工件保持机构144与抵接部154一体地移动。
在使工件保持机构144移动时,处理器50在作业设备坐标系C4中设定移动坐标系C5,以将工件保持机构144定位于由设定的移动坐标系C5规定的位置的方式控制移动机构146。这样,处理器50能够将工件保持机构144定位于作业设备坐标系C4中的任意位置。
因此,移动坐标系C5相对于作业设备坐标系C4的位置关系(即,原点位置以及各轴的方向)是已知的,移动坐标系C5表示为作业设备坐标系C4的坐标E(x,y,z,w,p,r)。另外,工件保持机构144及抵接部154相对于移动坐标系C5的位置是已知的。因此,工件保持机构144及抵接部154在作业设备坐标系C4中的位置经由移动坐标系C5而成为已知。
接着,对系统130的功能进行说明。首先,作业设备134使移动机构146动作,将工件保持机构144(即,抵接部154)配置于规定的位置PSW。此时的作业设备坐标系C4与移动坐标系C5的位置关系如上所述是已知的,作业设备坐标系C4中的移动坐标系C5的坐标表示为坐标E5(x5,y5,z5,w5,p5,r5)。另外,从作业设备坐标系C4向移动坐标系C5的坐标变换矩阵M45_3为已知的齐次变换矩阵,该坐标变换矩阵M45_3的各参数根据坐标E5(x5,y5,z5,w5,p5,r5)决定。
接下来,如图17、图19以及图21所示,机器人132使末端执行器136在规定的把持位置把持的工件WP2与抵接部154抵接。此时,工件WP2的突出部WB嵌入到抵接部154的贯通孔162,突出部WB的底面B6与保持面150a面接触,突出部WB的侧面B7以及B8与抵接部154的内表面162a以及162b分别面接触,且突出部WB的侧面B9以及B10与抵接部154的内表面162c以及162d分别面接触。
这样,手前部140相对于作业设备134静止地配置为规定的位置PS3以及姿势OR3。此时,能够视为用户坐标系C3与移动坐标系C5相互一致。即,能够视为用户坐标系C3以及移动坐标系C5的原点位置、以及x轴、y轴和z轴方向相互一致。
因此,此时的用户坐标系C3相对于作业设备坐标系C4的位置关系为已知,作业设备坐标系C4中的用户坐标系C3的坐标表示为上述的坐标E5(x5,y5,z5,w5,p5,r5),另外,从作业设备坐标系C4向用户坐标系C3的坐标变换矩阵M43_3与上述的坐标变换矩阵M45_3相等。
这样,通过使手前部140(具体而言为工件WP2)与抵接部154抵接,该手前部140相对于作业设备134静止地配置为规定的位置PS3以及姿势OR3,此时的用户坐标系C3相对于作业设备坐标系C4的位置关系(即,手前部140的位置PS3以及姿势OR3)为已知。因此,抵接部154作为用于将手前部140的位置PS3以及姿势OR3表示于作业设备坐标系C4的要素发挥功能。
并且,处理器50作为位置数据取得部62发挥功能,取得将手前部140配置为位置PS3及姿势OR3时的、表示作业设备坐标系C4中的该位置PS3及姿势OR3的第二位置数据β3。作为一例,处理器50取得上述的坐标E5(x5,y5,z5,w5,p5,r5)或坐标变换矩阵M43_3作为第二位置数据β3
作为另一例,处理器50也可以取得将手前部140配置为位置PS3及姿势OR3时的从用户坐标系C3向作业设备坐标系C4的坐标变换矩阵M34_3=inv(M43_3)、或用户坐标系C3中的作业设备坐标系C4的坐标E5’(x5’,y5’,z5’,w5’,p5’,r5’)作为第二位置数据β3
另一方面,处理器50取得表示将手前部140配置为位置PS3及姿势OR3时的机器人坐标系C1中的该位置PS3及姿势OR3的第一位置数据α3。作为一例,处理器50取得将手前部140配置为位置PS3及姿势OR3时的机器人坐标系C1中的用户坐标系C3的坐标D5(X5,Y5,Z5,W5,P5,R5)、或从该机器人坐标系C1向该用户坐标系C3的坐标变换矩阵M13_3,作为第一位置数据α3
作为另一例,处理器50也可以取得将手前部140配置为位置PS3及姿势OR3时的用户坐标系C3中的机器人坐标系C1的坐标D5’(X5’,Y5’,Z5’,W5’,P5’,R5’)、或从该用户坐标系C3向该机器人坐标系C1的坐标变换矩阵M31_3,作为第一位置数据α3
接下来,处理器50作为位置关系取得部64发挥功能,使用所取得的第一位置数据α3以及第二位置数据β3来取得表示机器人坐标系C1与作业设备坐标系C4的位置关系的第三位置数据γ3。作为一例,处理器50根据式M14_3=M13_3·M34_3=M13_3·inv(M43_3)通过运算来求出从机器人坐标系C1向作业设备坐标系C4的坐标变换矩阵M14_3,作为第三位置数据γ3
作为其他例子,处理器50也可以取得从作业设备坐标系C4向机器人坐标系C1的坐标变换矩阵M41_3(=inv(M14_3))、机器人坐标系C1中的作业设备坐标系C4的坐标D6(X6,Y6,Z6,W6,P6,R6)、或者作业设备坐标系C4中的机器人坐标系C1的坐标E6(x6,y6,z6,w6,p6,r6)作为第三位置数据γ3
如以上那样,根据本实施方式,处理器50不执行通过手前部140触摸释放设定于作业设备134的多个点的过程,而将手前部140配置为1个位置PS3以及姿势OR3,由此,能够取得第三位置数据γ3。由此,能够大幅简化求出机器人坐标系C1与作业设备坐标系C4的位置关系的过程。
另外,在系统130中也能够应用上述的接触检测传感器92。例如,将接触检测传感器92的第一传感器元件94设置于工件保持机构144的保持面150a(或工件WP2的底面B6)的中心部,将第二传感器元件96设置于抵接部154的内表面162a或162b(或工件WP2的侧面B7或B8),将第三传感器元件98设置于抵接部154的内表面162c或162d(或工件WP2的侧面B9或B10)。
该情况下,处理器50也可以执行图12所示的流程。例如,处理器50也可以在步骤S1中配置为工件WP2的突出部WB的至少一部分嵌入到抵接部154的贯通孔162那样的初始位置PS0以及初始姿势OR0。另外,处理器50也可以在步骤S2中使手前部140向该时间点的用户坐标系C3的y轴方向(即,推定为与保持面150a正交的方向)移动。
另外,处理器50也可以在步骤S4中使手前部140向该时间点的用户坐标系C3的x轴方向(即,推定为与内表面162a以及162b正交的方向)移动。另外,处理器50也可以在步骤S6中使手前部140向该时间点的用户坐标系C3的z轴方向(即,推定为与内表面162c以及162d正交的方向)移动。这样,处理器50通过执行图12所示的流程,能够自动地执行使手前部140与抵接部154抵接而定位为规定的位置PS3及姿势OR3的动作。
此外,上述的位移数据取得部108和校正部110也能够应用于系统130。例如,处理器50在系统130的移设、或者机器人132或作业设备134的更换的前后(或者将模拟应用于实机时),取得第一位置数据α3(例如坐标D5)、或者第二位置数据β3(例如坐标E5)。
并且,处理器50也可以作为位移数据取得部108发挥功能,使用与上述的系统100同样的方法,计算在移设或更换的前后取得的2个位置数据之差,由此,取得表示移设或更换前的相对位置RP5与移设或更换后的相对位置RP6之差的位移数据Δ。并且,处理器50也可以作为校正部110发挥功能,使用所取得的位移数据Δ来校正移设或更换前制作出的动作程序OP。
此外,上述的位置检测传感器122(接触式探头)也能够应用于系统130。具体而言,将位置检测传感器122固定于作业设备134的工件保持机构144(例如,使卡盘爪152把持)。并且,处理器50使手前部140配置为规定的位置PS4以及姿势OR4
接着,处理器50使移动机构146动作而使位置检测传感器122移动,在该位置检测传感器122的检测点122a,对手前部140(工件WP2)的多个位置进行触摸释放(接触)。例如,处理器50使移动机构146动作,通过检测点122a,依次对末端执行器136把持的工件WP2的侧面B7(或B8)上的3个点PT1、PT2及PT3进行触摸释放。
接着,处理器50使移动机构146动作,通过检测点122a,依次对末端执行器136把持的工件WP2的侧面B9(或B10)上的2个点PT4及PT5进行触摸释放。接着,处理器50使移动机构146动作,通过检测点122a对末端执行器136把持的工件WP2的底面B6上的1个点P6进行触摸释放。
并且,与上述的系统120同样地,处理器50根据每当在检测点122a触摸释放6个点PT1~PT6时从位置检测传感器122受理到的检测数据DP1~DP6,确定作业设备坐标系C4中的工件WP2(手前部140)的位置以及姿势(即,用户坐标系C3的原点位置以及各轴的方向),因此,能够取得第二位置数据β4
这样,在将位置检测传感器122应用于系统130的情况下,处理器50也可以在系统130的移设、或者机器人132或作业设备134的更换的前后(或者将模拟应用于实机时),使用位置检测传感器122来取得第二位置数据β4(例如,作业设备坐标系C4中的用户坐标系C3的坐标E)。
并且,处理器50也可以作为位移数据取得部108发挥功能,使用与上述的系统100同样的方法,计算在移设或者更换的前后(或者,将模拟应用于实机时)取得的2个第二位置数据β4之差,来取得表示移设或者更换前的相对位置RP5(或者,模拟执行时的相对位置RP1)与移设或者更换后的相对位置RP6(或者,在实际空间中构建了系统130后的相对位置RP2)之差的位移数据ΔE3(或者,ΔE1)。
例如,处理器50在移设或更换前(或模拟执行时)的相对位置RP5,取得作业设备坐标系C4中的用户坐标系C3的坐标E7(x7,y7,z7,w7,p7,r7)作为第二位置数据β4,并且在移设或更换后(或在实际空间中构建了系统130之后)的相对位置RP6,取得作业设备坐标系C4中的用户坐标系C3的坐标E8(x8,y8,z8,w8,p8,r8)作为第二位置数据β4
并且,处理器50作为位移数据取得部108发挥功能,取得坐标E7与坐标E8之差ΔE3=E8﹣E7作为位移数据ΔE3。并且,处理器50也可以作为校正部110发挥功能,使用所取得的位移数据ΔE3(=E8﹣E7),对在移设或者更换前(或者模拟执行时)制作出的作业设备134的动作程序OP5进行校正。具体而言,处理器50也可以使用取得的位移数据Δ,对作业设备134的动作程序OP5所规定的上述的位置PSW的示教点进行校正,来制作新的动作程序OP6。
此外,在系统130中对手前部140进行定位的位置PS3以及姿势OR3也可以是在实际的制造过程中机器人132对作业设备134进行规定的作业(工件处理等)时的目标位置以及目标姿势。例如,在实际的制造过程中,处理器50使作业设备134的移动机构146动作,将工件保持机构144定位于规定的位置PSW
然后,处理器50使机器人132动作,使定位在位置PSW的工件保持机构144的卡盘爪152把持末端执行器136在规定的把持位置把持的工件,交接给该工件保持机构144。接着,处理器50使作业设备134动作,通过移动机构146使工件保持机构144保持的工件移动,并且通过工具对该工件进行加工。
在工件的加工结束后,处理器50使作业设备134的移动机构146动作,将工件保持机构144再次定位于位置PSW,使机器人132动作,利用末端执行器136接收工件保持机构144保持的加工完成工件。
在这样的一系列的制造过程中,也可以以机器人132对作业设备134进行工件处理作业(即,向工件保持机构144交接工件、以及从工件保持机构144接收工件)时的目标位置以及目标姿势与上述的规定的位置PS3以及姿势OR3一致的方式,设定该规定的位置PS3以及姿势OR3。另外,处理器50也可以使用该规定的位置PS3以及姿势OR3的位置数据和所取得的第三位置数据γ3,制作使机器人132以及作业设备134协作地执行一系列的制造过程的动作程序OP7。
根据该结构,能够在将手前部140(末端执行器136)定位为目标位置以及目标姿势的状态下取得第三位置数据γ3,因此,在实际的制造过程中,能够使机器人132高精度地执行对作业设备134的作业(工件处理等)。此外,上述的系统10中的规定的位置PS1以及姿势OR1、或者系统120中的规定的位置PS2以及姿势OR2也同样地,也可以设定为机器人12对作业设备14进行规定的作业时的目标位置以及目标姿势。
此外,在系统130中,也可以省略移动机构146,工件保持机构144固定于作业设备坐标系C4中的已知的位置PSW。该情况下,使手前部140的工件WP2与抵接部154抵接时的、用户坐标系C3相对于作业设备坐标系C4的位置关系作为图21所示的位置关系能够设为已知。
另外,在从系统130省略了移动机构146的情况下,作业设备134还具有对保持于工件保持机构144的工件进行加工的工具和使该工具相对于工件保持机构144移动的移动机构(均未图示),也可以将上述的位置检测传感器122(接触式探头)相对于该工具固定,通过该移动机构使位置检测传感器122移动。
该情况下,处理器50也可以在将机器人132的手前部140定位为规定的位置PS3以及姿势OR3的状态下,通过该移动机构使位置检测传感器122移动,在检测点122a触摸释放手前部140的任意的点PT1~PT6,从而取得第二位置数据β4。此时,定位手前部140的位置PS3及姿势OR3也可以是上述的目标位置及目标姿势。
此外,在系统130中,如图21所示,也可以以相互嵌合的抵接部154与工件WP2的组装体为与在实际的制造过程中成为作业对象的工件WP3相同的形状(尺寸)的方式构成抵接部154和工件WP2。该情况下,与使用在实际的制造过程中使用的工件WP3来取得第三位置数据γ3是同义的,因此,能够进一步提高实际的制造过程中的机器人132的工件处理的精度。
另外,在系统130中,也可以代替抵接部154和工件WP2而使用在实际的制造过程中成为作业对象的工件WP3来取得第三位置数据γ3。以下,参照图23及图24,对该功能进行说明。工件WP3是圆柱状的部件,具有一对端面K1和K2以及外周面K3。
末端执行器136通过把持工件WP3的预先决定的位置,在规定的把持位置把持该工件WP3。此时,手腕部24的前端部(手腕凸缘)、末端执行器136、以及该末端执行器136在规定的把持位置把持的工件WP3构成机器人132的手前部140’。
对末端执行器136在规定的把持位置把持的工件WP3设定用户坐标系C3。在本实施方式中,用户坐标系C3以其原点配置于末端执行器26把持的工件WP3的端面K2的中心点,且其x-z平面与末端执行器26把持的工件WP3的端面K2平行的方式,对工件WP3进行设定。
处理器50使机器人132动作,使工件WP3的端面K2与工件保持机构144的保持面150a抵接,并且使卡盘驱动部动作,利用卡盘爪152把持工件WP3。其结果,手前部140’由工件保持机构144保持,静止地定位为规定的位置PS3以及姿势OR3
此时,用户坐标系C3的原点配置于保持面150a的中心点(即,移动坐标系C5的原点),用户坐标系C3的y轴为与保持面150a正交的方向。在此,在本实施方式中,处理器50将使工件WP3的端面K2与保持面150a抵接时的手前部140’的姿势维持为作业坐标系C4中的已知的姿势。
例如,处理器50将使工件WP3与保持面150a抵接时的手前部140’的姿势维持为用户坐标系C3的z轴正方向与铅垂上方一致的姿势。该情况下,在工件WP3由卡盘爪152把持而手前部140’被定位为位置PS3以及姿势OR3时,将该手前部140’的姿势维持为用户坐标系C3的z轴正方向与铅垂上方一致的姿势。
另一方面,在作业坐标系C4中,能够确定铅垂上方(例如,作业坐标系C4的z轴正方向),因此,能够确定将手前部140’配置为位置PS3以及姿势OR3时的作业坐标系C4中的用户坐标系C3的z轴方向。这样,能够确定作业坐标系C4中的用户坐标系C3的原点位置、y轴方向以及z轴方向,因此,能够使用户坐标系C3相对于作业坐标系C4的位置关系(即,手前部140’的位置以及姿势)已知。
根据本实施方式,通过将手前部140’定位为位置PS3及姿势OR3时的该手前部140’的姿势决定为作业坐标系C4中的已知的姿势,能够在不使用图21所示的抵接部154及工件WP2的情况下取得表示作业坐标系C4中的手前部140’的位置及姿势的第二位置数据β3
此外,处理器50可以将使工件WP3与保持面150a抵接时的手前部140’的姿势维持为用户坐标系C3的z轴正方向与在作业坐标系C4中已知的铅垂下方一致的姿势,或者,也可以维持为用户坐标系C3的x轴正方向与在作业坐标系C4中已知的水平方向左方(或右方)一致的姿势。
此外,在图23所示的状态下,工件WP3的外周面K3与卡盘爪152抵接,工件WP3的端面K2与保持面150a抵接,由此,手前部140’静止地配置为位置PS3以及姿势OR3,由此作业坐标系C4中的手前部140’的位置以及姿势成为已知。因此,在本实施方式中,工件保持机构144的卡盘爪152和保持面150a作为抵接部发挥功能。
此外,也可以将图7所示的示教装置72或图9所示的力传感器82应用于系统130,操作员对机器人132示教使手前部140(或140’)与抵接部154(或工件保持机构144)抵接而定位为规定的位置PS3及姿势OR3的动作。该情况下,系统130的处理器50作为上述的示教指令受理部78以及机器人控制部79发挥功能。
另外,系统130也可以具有:第一控制装置16A,其控制机器人132;以及第二控制装置16B,其以能够通信的方式与该第一控制装置16A连接,控制作业设备134。该情况下,控制装置16A以及16B中的任一方的处理器50可以作为位置数据取得部62以及位置关系取得部64发挥功能,或者,第一控制装置16A的处理器50可以作为位置数据取得部62以及位置关系取得部64中的一方发挥功能,第二控制装置16B的处理器50可以作为位置数据取得部62以及位置关系取得部64中的另一方发挥功能。
此外,在上述的系统10、70、70’、80、90、100、120或130中,处理器50也可以按照计算机程序自动地执行取得第一位置数据α、第二位置数据β以及第三位置数据γ的过程。该情况下,该计算机程序使处理器50作为位置数据取得部62以及位置关系取得部64发挥功能。
另外,在上述的实施方式中,对末端执行器26以及136是能够把持工件的机械手的情况进行了叙述。然而,不限于此,末端执行器26或136也可以是能够执行规定的作业(例如加工、焊接、涂料涂敷等)的任何类型的末端执行器。
另外,在上述的实施方式中,对手腕部24的前端部、末端执行器26、136、以及该末端执行器26、136把持的工件WP1、WP2、WP3构成手前部40、140、140’的情况进行了叙述。然而,末端执行器26、136也可以未必把持工件WP1、WP2、WP3。该情况下,手腕部24的前端部以及末端执行器26、136构成手前部40B、140B。
关于手前部40B,例如,在图3所示的末端执行器26中,用户坐标系C3也可以以其原点配置于一方的把持面36a的一顶点,其y-z平面与该一方的把持面36a平行的方式对末端执行器26进行设定。该情况下,也可以通过使末端执行器26的爪部36与抵接部44抵接,而将手前部40B配置为规定的位置以及姿势。该情况下,也能够以与上述的实施方式相同的原理,使用户坐标系C3相对于作业设备坐标系C4的位置关系(手前部40B的位置以及姿势)已知。
另外,关于手前部140B,例如,在图19所示的末端执行器136中,用户坐标系C3也可以以其原点配置于把持物体的位置(例如,多个指部之间的位置、或者吸附部的吸附面的中心)且其z轴与手腕轴A1(图1)平行(具体而言,一致)的方式,对末端执行器136进行设定。
该情况下,也可以使末端执行器136的任意部位(指部或吸附部)与作为抵接部的工件保持机构144抵接而保持于该工件保持机构144,从而将手前部140B配置为规定的位置及姿势。该情况下,也能够以与上述的实施方式相同的原理,使用户坐标系C3相对于作业设备坐标系C4的位置关系(手前部140B的位置以及姿势)已知。
关于手前部40B、140B,也可以将上述的传感器元件94、96、98设置于手腕部24的前端部或末端执行器26、136,使手前部40B、140B与抵接部44、154抵接而定位为规定的位置及姿势。另外,手前部40、140、140’例如可以仅由手腕部24的前端部(手腕凸缘)构成,或者可以定义为机器人12的任何部位。
另外,上述的抵接部44、154是用于使机器人12的手前部40、40B、140、140B相对于作业设备坐标系C4的位置PS以及姿势OR已知的一例,只要能够使机器人12的手前部40、40B、140、140B相对于作业设备坐标系C4的位置PS以及姿势OR已知,则可以具有任何形状。
另外,也可以代替抵接部44、154,使手前部40、40B、140、140B与作业设备坐标系C4中的位置已知的机器人12或作业设备14的任意部位(孔、凹部或凸部)抵接,由此,定位为规定的位置PS及姿势OR。
另外,用户坐标系C3不限于上述的实施方式,也可以设定在相对于MIF坐标系C2的位置关系已知的任何位置。例如,在图3所示的方式中,用户坐标系C3的原点也可以设定为工件WP1的顶点F以外的顶点、或者底面B1或顶面B2的中心点。
另外,在上述的实施方式中,对处理器50取得表示用户坐标系C3相对于作业设备坐标系C4的位置关系的数据作为第二位置数据β的情况进行了叙述。但是,不限于此,处理器50也可以取得表示MIF坐标系C3相对于作业设备坐标系C4的位置关系的数据作为第二位置数据β。如果工件WP1、WP2、WP3的形状和末端执行器26、136把持工件WP1、WP2、WP3的位置是已知的,则能够使用上述的方法,使MIF坐标系C3相对于作业设备坐标系C4的位置关系已知。
以上,通过实施方式对本公开进行了说明,但上述的实施方式并不限定请求专利保护的范围所涉及的发明。
符号说明
10、70、70’、80、90、100、120、130系统
12、132 机器人
14、134 作业设备
16 控制装置
40、140、140’手前部
44、154 抵接部
60 装置
62 位置数据取得部
64 位置关系取得部
78 示教指令受理部
79 机器人控制部
92 接触检测传感器
108 位移数据取得部
110 校正部
122 位置检测传感器。

Claims (17)

1.一种装置,其取得设定于机器人的机器人坐标系与设定于作业设备的作业设备坐标系的位置关系,所述作业设备设置于所述机器人的外部,其特征在于,所述装置具备:
位置数据取得部,其取得将所述机器人的手前部相对于所述作业设备配置为规定的位置以及姿势时的、表示该手前部相对于所述机器人坐标系的位置以及姿势的第一位置数据、以及表示该手前部相对于所述作业设备坐标系的位置以及姿势的第二位置数据;以及
位置关系取得部,其根据所述第一位置数据以及所述第二位置数据,取得所述位置关系。
2.根据权利要求1所述的装置,其特征在于,
所述装置还具备:机器人控制部,其使所述机器人动作,以便使该手前部与为了在所述作业设备坐标系中表示所述规定的位置以及姿势而设置于该作业设备坐标系的已知的位置的抵接部抵接,而将该手前部定位为该规定的位置以及姿势。
3.根据权利要求2所述的装置,其特征在于,
所述机器人或者所述作业设备具有:接触检测传感器,其检测所述手前部与所述抵接部的接触,
所述机器人控制部根据所述接触检测传感器的检测数据,执行将所述手前部定位为所述规定的位置以及姿势的动作。
4.根据权利要求1所述的装置,其特征在于,
所述位置数据取得部根据检测所述手前部在所述作业设备坐标系中的位置的位置检测传感器的检测数据,取得所述第二位置数据。
5.根据权利要求4所述的装置,其特征在于,
所述作业设备具有移动机构,
所述位置检测传感器具有:接触式探头,其通过所述移动机构移动而与配置为所述规定的位置以及姿势的所述手前部接触,来检测该手前部在所述作业设备坐标系中的位置。
6.根据权利要求1至5中的任一项所述的装置,其特征在于,
所述装置还具备:示教指令受理部,其受理用于将所述手前部定位为所述规定的位置以及姿势的示教指令。
7.根据权利要求6所述的装置,其特征在于,
所述示教指令包含用于根据施加于所述机器人的外力使所述手前部移动的直接示教指令。
8.根据权利要求1至7中的任一项所述的装置,其特征在于,
所述规定的位置以及姿势是所述机器人相对于所述作业设备进行规定的作业时的目标位置以及目标姿势。
9.根据权利要求1至8中的任一项所述的装置,其特征在于,
所述装置还具备:位移数据取得部,其根据在所述机器人与所述作业设备的相对位置变化之前和之后由所述位置数据取得部取得的所述第一位置数据或所述第二位置数据,取得表示变化前的所述相对位置与变化后的所述相对位置之差的位移数据。
10.根据权利要求9所述的装置,其特征在于,
所述装置还具备:校正部,其使用所述位移数据取得部取得的所述位移数据,对用于在变化前的所述相对位置使所述机器人或所述作业设备执行规定的动作的动作程序进行校正。
11.一种装置,其取得机器人与作业设备的位置关系,其特征在于,
所述装置构成为,根据使所述机器人与设置于所述作业设备的已知的位置的抵接部抵接时的、所述机器人相对于所述作业设备的位置以及姿势,取得所述位置关系。
12.一种机器人或作业设备的控制装置,其特征在于,所述控制装置具备:权利要求1至11中的任一项所述的装置。
13.一种系统,其特征在于,具备:
机器人;
作业设备,其设置于所述机器人的外部;以及
权利要求12所述的控制装置。
14.一种方法,取得设定于机器人的机器人坐标系与设定于作业设备的作业设备坐标系的位置关系,所述作业设备设置于所述机器人的外部,其特征在于,
取得将所述机器人的手前部相对于所述作业设备配置为规定的位置以及姿势时的、表示该手前部相对于所述机器人坐标系的位置以及姿势的第一位置数据、以及表示该手前部相对于所述作业设备坐标系的位置以及姿势的第二位置数据;以及
根据所取得的所述第一位置数据以及所述第二位置数据,取得所述位置关系。
15.一种取得机器人与作业设备的位置关系的方法,其特征在于,
根据使所述机器人与设置于所述作业设备的已知的位置的抵接部抵接时的、所述机器人相对于所述作业设备的位置以及姿势,取得所述位置关系。
16.一种计算机程序,其特征在于,
为了取得设定于机器人的机器人坐标系与设定于作业设备的作业设备坐标系的位置关系,使处理器作为以下部分发挥功能,其中,所述作业设备设置于所述机器人的外部:
位置数据取得部,其取得将所述机器人的手前部相对于所述作业设备配置为规定的位置以及姿势时的、表示该手前部相对于所述机器人坐标系的位置以及姿势的第一位置数据、以及表示该手前部相对于所述作业设备坐标系的位置以及姿势的第二位置数据;以及
位置关系取得部,其根据所述第一位置数据以及所述第二位置数据,取得所述位置关系。
17.一种计算机程序,其特征在于,使处理器执行权利要求15所述的方法。
CN202180065079.4A 2020-09-30 2021-09-28 取得机器人与作业设备的位置关系的装置、控制装置、系统、方法以及计算机程序 Pending CN116419826A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-165446 2020-09-30
JP2020165446 2020-09-30
PCT/JP2021/035679 WO2022071333A1 (ja) 2020-09-30 2021-09-28 ロボットと作業機器との位置関係を取得する装置、制御装置、システム、方法、及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
CN116419826A true CN116419826A (zh) 2023-07-11

Family

ID=80950435

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180065079.4A Pending CN116419826A (zh) 2020-09-30 2021-09-28 取得机器人与作业设备的位置关系的装置、控制装置、系统、方法以及计算机程序

Country Status (5)

Country Link
US (1) US20230373083A1 (zh)
JP (1) JPWO2022071333A1 (zh)
CN (1) CN116419826A (zh)
DE (1) DE112021004097T5 (zh)
WO (1) WO2022071333A1 (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05111897A (ja) * 1991-10-21 1993-05-07 Fanuc Ltd 複数台のロボツトの相対位置関係取得方式
JP5272617B2 (ja) 2008-09-26 2013-08-28 株式会社Ihi ロボット装置及びロボット装置の制御方法
JP2014176940A (ja) * 2013-03-15 2014-09-25 Yaskawa Electric Corp ロボットシステム、ロボット制御方法及び被加工物の製造方法
JP6126183B2 (ja) * 2015-10-05 2017-05-10 ファナック株式会社 ターゲットマークを撮像するカメラを備えたロボットシステム

Also Published As

Publication number Publication date
WO2022071333A1 (ja) 2022-04-07
DE112021004097T5 (de) 2023-07-20
JPWO2022071333A1 (zh) 2022-04-07
US20230373083A1 (en) 2023-11-23

Similar Documents

Publication Publication Date Title
KR102353178B1 (ko) 로봇을 지시하는 시스템 및 방법
JP6924145B2 (ja) ロボット教示方法及びロボットアーム制御装置
JP4271232B2 (ja) ロボットのオフラインプログラミングを実行するための装置、方法、プログラム及び記録媒体
CN106493711B (zh) 控制装置、机器人以及机器人系统
KR101498836B1 (ko) 7축 다관절 로봇의 제어 장치 및 교시 방법
US20190022864A1 (en) Robot control device, robot system, and simulation device
JP2018043320A (ja) 制御装置、ロボットおよびロボットシステム
Kansal et al. Vision-based kinematic analysis of the Delta robot for object catching
CN108145702B (zh) 用于设置边界面的设备和设置边界面的方法
JP2015085499A (ja) ロボット、ロボットシステム、制御装置及び制御方法
Abdelaal A study of robot control programing for an industrial robotic arm
CN116419826A (zh) 取得机器人与作业设备的位置关系的装置、控制装置、系统、方法以及计算机程序
Zhang et al. Vision-guided robotic assembly using uncalibrated vision
Kawasaki et al. Virtual robot teaching for humanoid hand robot using muti-fingered haptic interface
JP2014018878A (ja) ロボットシステム並びにロボット制御装置及び方法
Hanh et al. Implement contour following task of objects with unknown geometric models by using combination of two visual servoing techniques
JP2015100874A (ja) ロボットシステム
JP2021186929A (ja) 多軸ロボットの制御方法
Wahab et al. Automation of Pick and Place Operation in Contact Lens Manufacturing
KR102474838B1 (ko) 로봇의 교시 장치, 방법 및 시스템
WO2022210186A1 (ja) ロボットの位置および姿勢を制御するパラメータを算出する制御装置
Kawasaki et al. Virtual robot teaching based on motion analysis and hand manipulability for multi-fingered robot
KR100244758B1 (ko) 수직 다관절 용접 로봇의 캘리브레이션 방법 및 그 장치
US11712803B2 (en) Teaching method
KR102591942B1 (ko) 강성 모델과 절삭력 모델을 이용한 로봇 제어 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination