CN104057447B - 机器人拾取系统以及被加工物的制造方法 - Google Patents
机器人拾取系统以及被加工物的制造方法 Download PDFInfo
- Publication number
- CN104057447B CN104057447B CN201410062122.3A CN201410062122A CN104057447B CN 104057447 B CN104057447 B CN 104057447B CN 201410062122 A CN201410062122 A CN 201410062122A CN 104057447 B CN104057447 B CN 104057447B
- Authority
- CN
- China
- Prior art keywords
- workpiece
- data
- robot
- candidate
- generating unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明提供机器人拾取系统、被加工物的制造方法。机器人拾取系统(1)具有:机器人(R),拾取收容有多个工件(W)的第一储料器(2)内的工件(W);控制装置(4),控制机器人(R)的动作;以及图像获取装置(6),获取包含有与工件(W)相关的信息的图像数据。控制装置(4)具有:候补数据生成部(13),利用图像数据,生成包含作为拾取对象的候补的候补工件(WC)的信息的候补数据;以及对象工件选择部(19),利用候补数据,从候补工件(WC)中选择作为拾取对象的对象工件(WO)。
Description
技术领域
本发明涉及机器人拾取系统以及被加工物的制造方法。
背景技术
存在从随机地收容有如螺栓那样的同一形状的工件的储料器中取出该工件平移保持的拾取技术。在日本特开2011-183537号公报中,公开了利用拾取技术的机器人拾取系统。该机器人拾取系统检查机器人所取出的工件的保持状态,并仅将检查结果满足规定条件的工件向下一工序供给。
发明内容
然而,在拾取技术中,根据对多个工件摄像得到的图像数据选择成为拾取对象的一个工件,并将与该工件相关的信息提供给机器人。机器人根据所提供的信息执行取出工件的动作(拾取动作)。
但是,仅根据图像数据所选择出的工件有时不是在结合机器人的作业状态的情况下在合适的条件下能够取出的工件。
因此,本发明的目的在于,提供一种能够选择在更合适的条件下能够拾取的工件的机器人拾取系统以及被加工物的制造方法。
为了解决上述问题,本发明的机器人拾取系统具有:机器人,所述机器人拾取收容有多个工件的储料器内的工件;控制装置,所述控制装置控制机器人的动作;图像获取装置,所述图像获取装置获取包含有与工件相关的信息的图像数据,控制装置具有:候补数据生成部,所述候补数据生成部利用图像数据,生成包含作为拾取对象的候补的候补工件的信息的候补数据;以及对象工件选择部,所述对象工件选择部利用候补数据,从候补工件中选择作为拾取对象的对象工件。
根据本发明的机器人拾取系统,能够选择在更合适的条件下能够拾取的工件。
附图说明
图1是表示本实施方式的机器人拾取系统的图。
图2是用于说明机器人的图。
图3是用于说明实现控制装置的计算机的图。
图4是控制装置的功能框图。
图5是用于说明执行拾取动作的主要的工序的图。
图6是用于说明对轨迹进行计算的方法的图。
图7是用于说明对轨迹进行计算的方法的图。
图8的(a)是表示基于关节空间的角速度指令的一个例子的图,图8的(b)是表示基于正交空间的速度指令的一个例子的图,图8的(c)是表示基于关节空间的角速度指令的一个例子的图。
具体实施方式
以下,参照附图,详细地说明机器人拾取系统以及被加工物的制造方法的多个实施方式。在附图说明中对同一要素标记相同的附图标记,并省略重复的说明。
<机器人拾取系统>
图1是表示本实施方式的机器人拾取系统1的图。如图1所示,机器人拾取系统1是一个一个地拾取(取出)第一储料器2内的工件W,并移送至第二储料器3的系统。第一储料器2是树脂制或者金属制的箱体,多个工件W以所谓的散装的状态被收容在第一储料器2的内部。收容于第一储料器2的工件W例如是螺栓那样的具有同一形状的部件。从第一储料器2拾取出的工件W例如按照预先确定的配置或姿态被收容于第二储料器3内。
机器人拾取系统1具有:机器人R,从第一储料器2中拾取工件W并将工件W移送至第二储料器3;控制装置4,控制机器人R的动作;以及图像获取装置6,获取包含有工件W的图像数据的图像。
<机器人>
图2是用于说明机器人R的图。如图2所示,机器人R是所谓的多关节机器人,其具有基部7、臂8、以及机械爪(机器人末端执行器)11。基部7是机器人R的基础部,被固定于地面12。臂8具有多个臂部8a以及将臂部8a彼此连结的多个旋转关节J1~J7。从而,机器人R具有在三维空间的动作所需的6自由度的结构中进一步增加了冗余自由度而形成的7自由度的结构。但是,本发明的机器人拾取系统的应用对象机器人并不限于7自由度机构,对于6自由度或除此之外的机构,无论轴结构如何,也能够应用。在臂部8a中,内置有用于对旋转关节J1~J7进行旋转驱动的伺服电机(未图示),通过从控制装置4输入的控制信号控制该伺服电机。另外,在旋转关节J1~J7中,内置有用于检测旋转角度的传感器9。传感器9将所检测到的角度值作为传感器数据输出至控制装置4(参照图4)。机械爪11被安装于机器人R的臂8的前端。机械爪11通过使一对部件进行开闭动作来保持工件W。该机械爪11的开闭动作通过从控制装置4输入的控制信号来控制。
机器人R中设定有机器人坐标系C。例如,机器人坐标系C将与配置有机器人R的地面12垂直的方向设为Z方向,将与地面12平行的方向设为X方向。另外,将与X方向以及Z方向正交的方向(与纸面垂直的方向)设为Y方向。另外,例如,将机器人R固定于地面12上的点设为固定点P,将固定点P设为机器人坐标系C的原点。
<图像获取装置>
如图1所示,在机器人R的臂8的前端安装有图像获取装置6。图像获取装置6获取包含与工件W相关的信息的图像数据,并将图像数据输出至控制装置4。图像数据包括:包含第一储料器2内的多个工件W的摄像数据的图像信息;以及在图像上反映的物体的距离信息。对于能够获取这样的图像数据的图像获取装置6,例如,可使用立体摄像机、距离图像传感器、或者组合有图像传感器和距离测量传感器的装置。
<控制装置>
控制装置4将控制信号输出至机器人R并控制机器人R的动作。控制装置4由与机器人R能够相互通信地连接的计算机构成。图3是用于说明实现控制装置4的计算机100的图。另外,图4是控制装置4的功能框图。如图3所示,计算机100是构成本实施方式的控制装置4的硬件的一个例子。计算机100包括具有CPU并进行基于软件的处理或控制的个人计算机等信息处理装置。计算机100被构成为计算机系统,该计算机系统包括CPU101、作为主存储装置的RAM102以及ROM103、键盘、鼠标以及编程器等输入装置104、显示器等显示部105、硬盘等辅助存储装置106等。通过在CPU101、RAM102等硬件中读入规定的计算机软件,基于CPU101的控制,使输入装置104、显示部105动作,并进行RAM102或辅助存储装置106中数据的读出及写入,来实现图4所示的功能性构成要素。
如图4所示,控制装置4具有:候补数据生成部13、姿态数据生成部14、轨迹数据生成部16、所需时间数据生成部17、形状数据生成部18、以及对象工件选择部19。
<候补数据生成部>
图像数据从图像获取装置6被输入到候补数据生成部13中。候补数据生成部13利用图像数据,生成后述的候补数据,并将候补数据输出至轨迹数据生成部16、所需时间数据生成部17、形状数据生成部18、以及对象工件选择部19。在此,所谓候补数据是指包含用于从被拍摄成图像数据的多个工件W中确定候补工件WC(参照图1)的信息的数据。另外,所谓候补工件WC是指收容于第一储料器2的多个工件W中成为拾取动作(取出动作)的候补的工件。候补工件WC例如计算从图像获取装置6的位置到各个工件W的距离并按照距离由近到远的顺序被排序。并且,从顺位高的工件中选择规定数量的工件W作为候补工件WC。在此,关于从图像获取装置6的位置到各个工件W的距离,具体而言,根据通过图像获取装置6获得的对象工件WO的重心位置(三维空间上的平移移动量的三个变量)与机器人R的机械爪11的把持位置(同样地,平移移动量的三个变量)之差的欧几里得范数(距离)来计算。或者,更简单地,也可以设为机器人坐标系C上的平移移动量的三个变量的欧几里得范数(距离)。
<姿态数据生成部>
角度数据从多个传感器9被输入到姿态数据生成部14中。然后,姿态数据生成部14利用角度数据生成后述的姿态数据之后,将姿态数据输出至轨迹数据生成部16。在此,所谓姿态数据是指包含机器人R的各臂部8a、机械爪11的姿态以及位置的信息的数据。这些姿态以及位置以机器人坐标系C为基准坐标被规定。姿态数据根据当前角度以及机器人R的连接信息,通过基于正运动学的计算而被计算出,所述当前角度基于机器人R的传感器9的角度数据。
<轨迹数据生成部>
候补数据从候补数据生成部13被输入到轨迹数据生成部16中,并且姿态数据从姿态数据生成部14被输入到轨迹数据生成部16中。然后,轨迹数据生成部16利用姿态数据以及候补数据生成后述的轨迹数据之后,将轨迹数据输出至对象工件选择部19以及所需时间数据生成部17。在此,所谓轨迹数据是指包含拾取动作开始的时刻上的机械爪11到达各个候补工件WC的轨迹的信息的数据。关于轨迹的信息,根据姿态数据来确定拾取动作开始的时刻上的机械爪11的初始状态,计算从该初始状态到各个候补工件WC的轨迹,从而能够求出轨迹的信息。对轨迹进行计算的方法在下面叙述。
<所需时间数据生成部>
候补数据从候补数据生成部13被输入到所需时间数据生成部17中,并且轨迹数据从轨迹数据生成部16被输入到所需时间数据生成部17中。然后,所需时间数据生成部17利用候补数据以及轨迹数据计算所需时间(节拍时间)并生成所需时间数据,并将所需时间数据输出至对象工件选择部19。在此,所谓所需时间数据是指包含处于初始状态的机械爪11到达候补工件WC的每一个所需的所需时间的信息的数据。另外,所谓所需时间是指处于初始状态的机械爪11沿着轨迹到达候补工件WC的时间。所需时间的详细的计算方法后述。
<形状数据生成部>
图像数据从图像获取装置6被输入到形状数据生成部18中,并且候补数据从候补数据生成部13被输入到形状数据生成部18中。然后,形状数据生成部18利用图像数据生成形状数据之后,将形状数据输出至对象工件选择部19。在此,所谓形状数据是指基于候补工件WC的形状的形状信息。在形状信息中,例如,具有候补工件WC的轮廓形状或一个候补工件WC的图像所占的像素数。这些形状信息能够通过应用公知的图像处理的方法来获得。
<对象工件选择部>
对象工件选择部19综合地评价各种数据,从候补工件WC中选择最适于拾取的一个工件W作为成为拾取对象(取出对象)的对象工件WO(参照图1)。关于对象工件WO的选择,针对每个候补工件WC计算后述的评价值Ev,将评价值Ev最高的候补工件WC选择作为对象工件WO。然后,对象工件选择部19向机器人R输出控制信号使其执行拾取动作。候补数据从候补数据生成部13被输入到对象工件选择部19中,轨迹数据从轨迹数据生成部16被输入到对象工件选择部19中,所需时间数据从所需时间数据生成部17被输入到对象工件选择部19中,形状数据从形状数据生成部18被输入到对象工件选择部19中。该对象工件选择部19包含有干涉确认部21、可动范围确认部22、指标获取部23、评价值计算部24、以及选择部26。
针对干涉确认部21进行说明。在机器人R以及候补工件WC的周围,有时存在成为拾取动作的障碍物的物体。在成为拾取动作的障碍物的物体中,例如,具有第一储料器2的侧壁等。干涉确认部21判断沿着轨迹的机械爪11的动作由于与这些障碍物干涉是否被妨碍。在此,轨迹数据以机器人坐标系C为基准而被规定。作为障碍物的第一储料器2也以机器人坐标系C为基准坐标而被数据化。这样,轨迹与障碍物被规定于同一机器人坐标系C的空间内,因此,能够通过公知的计算方法来确认有无干涉。例如,通过在妨碍机械爪11的动作时对候补数据赋予“0”的符号、在不妨碍机械爪11的动作时对候补数据赋予“1”的符号来记录判断的结果。
针对可动范围确认部22进行说明。轨迹数据、各旋转关节J1~J7的可动范围的信息、以及臂部8a的长度信息被输入到可动范围确认部22。然后,可动范围确认部22利用这些变量,判断是否能够不超过可动范围地沿着轨迹进行动作。在机器人R的旋转关节J1~J7中分别设定有可动范围。根据这些旋转关节J1~J7的可动范围以及臂部8a的长度,设定机器人R整体能够可动的范围。另外,本实施方式的可动范围也可以是对机器人R整体能够可动的范围进一步增加了安全余量所得到的范围。另外,可动范围除了旋转关节J1~J7的可动范围之外,也可以是考虑臂8所具有的特殊点而设定的范围。关于可动范围确认部22的判断的结果,例如,通过在判断为不能进行动作时对候补数据赋予“0”的符号、在判断为能够进行动作时对候补数据赋予“1”的符号来记录判断的结果。
针对指标获取部23进行说明。第一储料器2所收容的工件W的位置、姿态以及工件W彼此的相对关系不一样。因此,在根据来自图像获取装置6的距离选择出的候补工件WC中,存在通过机械爪11易于拾取的状态的工件和难以拾取的状态的工件。因此,指标获取部23利用形状数据,获取表示候补工件WC各自的拾取难易度(取出难易度)的指标。例如,当形状信息是候补工件WC的轮廓形状时,通过使用将轮廓形状和表示拾取难易度的值建立了关联的数据库,使检测到的轮廓形状与数据库内的轮廓形状相匹配,从而获得表示拾取难易度的指标。另外,当形状信息是一候补工件WC的图像所占的像素数时,通过使用将像素数和表示拾取难易度的值建立了关联的数据库,使像素数与数据库内的信息相匹配,来获取表示拾取难易度的指标。
评价值计算部24例如利用所需时间数据、表示拾取难易度的指标值、干涉确认部21以及可动范围确认部22的判断的结果,计算由下述式(1)规定的评价值Ev。
Ev(n)=f1((α/T),βD)×f2(A(0,1),B(0,1))…(1)
在此,Ev(n)是第n个候补工件WC所具有的评价值。函数f1是将所需时间和指标值作为变量的函数。T是所需时间,所需时间T越小,评价值Ev是越高的分数。D是表示拾取难易度的指标值,指标值D越大,评价值Ev是越高的分数。函数f2是将干涉的确认结果和动作的确认结果作为变量的函数。A是表示有无干涉的变量,被规定为“0:存在干涉”或者“1:不存在干涉”。B是表示可动范围内的动作是否能够进行的变量,被赋予“0:不能进行动作”或者“1:能够进行动作”。根据这些函数f2、变量A以及变量B,当存在干涉或者动作不能进行时,能够将Ev的分数设为0以表示无法取出工件。
另外,α是用于对所需时间加权的第一加权系数,将通过第一加权系数被加权的评价时间(α/T)称为第一评价数据。另外,β是用于对指标值加权的第二加权系数,将通过第二加权系数被加权的指标值(βD)称为第二评价数据。在机器人R的拾取动作中,存在重视缩短所需时间的情况或重视可靠地进行拾取动作的情况等。因此,作为对所需时间以及指标值对评价值Ev带来的影响进行调整的系数,使用加权系数α、β。从而,在上述式(1)中,使用第一评价数据(α/T)以及第二评价数据(βD)来计算评价值Ev。
选择部26对候补工件WC的各个评价值Ev排序,选择评价值Ev最高的候补工件WC作为应该拾取的对象工件WO。
接着,针对由机器人拾取系统1执行的拾取动作的工序进行说明。图5是用于说明执行拾取动作的主要的工序的图。如图5所示,首先,使用图像获取装置6获取第一储料器2内的图像数据,并将图像数据输出至控制装置4(工序S1)。接着,在候补数据生成部13中生成候补数据(工序S2)。接着,在姿态数据生成部14中生成姿态数据(工序S3)。
接着,生成轨迹数据(工序S4)。该工序S4由轨迹数据生成部16来执行。图6至图8是用于说明对轨迹进行计算的方法的图。如图6所示,以机械爪11位于初始点Pr时求解到达具有目标点Pd1的候补工件WC1的轨迹的情况为例进行说明。在此,根据从姿态数据生成部14输入的姿态数据,生成初始点Pr。这样,在轨迹数据的生成中,通过使用根据姿态数据生成的初始点Pr,能够生成与机器人R的作业状态对应的精度高的轨迹。
首先,说明在关节空间中插补从初始点Pr到目标点Pd1的两点之间的关系来获得轨迹L1(参照图7)的方法。在此,所谓关节空间是指形成能动关节向量的空间。在基于关节空间的插补方法中,根据初始点Pr上的机器人R的关节角度与目标点Pd1上的机器人R的关节角度的差来生成各旋转关节J1~J7的角速度指令。即,根据从初始点Pr到目标点Pd1的距离以及预先设定的角速度来生成各旋转关节J1~J7的角速度指令。图8的(a)是对各旋转关节J1~J7赋予的角速度指令的一个例子。G1是对旋转关节J2赋予的角速度指令,G2是对旋转关节J3赋予的角速度指令,G3是对旋转关节J5赋予的角速度指令,G4是对旋转关节J6赋予的角速度指令。如图8的(a)所示,以使机器人R的旋转关节J2、J3、J5、J6的角速度除了动作开始以及结束时之外为恒定值的方式,生成角速度指令。另外,图8的(a)所示的角速度指令的例子是假定机器人坐标系C中的XZ平面内的动作的角速度指令的例子。从而,赋予臂8向Z方向的动作的旋转关节J1、J4以及J7的角速度为0。
接着,说明在正交空间(例如,机器人坐标系C)中插补从初始点Pr到目标点Pd1的两点之间的关系来获得轨迹L2(参照图7)的方法。在基于正交空间的插补方法中,根据初始点Pr上的机械爪11的姿态及位置与目标点Pd1上的机械爪11的姿态及位置之差,生成机器人坐标系C中的X轴方向和Z轴方向的平移速度以及围绕Z轴的旋转速度的正交速度指令。即,根据从初始点Pr到目标点Pd1的距离以及预先设定的规定速度,生成平移速度以及旋转速度的记录。图8的(b)是X轴和Z轴方向的平移速度以及围绕Z轴的旋转速度的记录的一个例子。G7是向X轴方向的平移速度的记录,G8是向Z轴方向的平移速度的记录,G9是围绕Z轴的旋转速度的记录。如图8的(b)所示,以除了动作开始时以及结束时以外平移速度以及旋转速度为恒定的方式,生成正交速度指令。并且,将图8的(b)所示的正交速度指令转换成向各旋转关节J1~J7的角速度指令。在该转换中实施基于逆运动学的计算。图8的(c)表示将正交速度指令转换成角速度指令的结果。G9是对旋转关节J2赋予的角速度的指令,G10是对旋转关节J3赋予的角速度的指令,G11是对旋转关节J5赋予的角速度的指令,G12是对旋转关节J6赋予的角速度的指令。
另外,在工序S4中,也可以采用根据上述的关节空间生成的轨迹L1或者根据正交空间生成的轨迹L2的任一个。
返回到图5,工序S4的下一工序生成所需时间数据(工序S5)。该工序S5通过所需时间数据生成部17执行。所需时间数据生成部17利用轨迹数据,生成所需时间数据。以下,对根据关节空间计算所需时间的方法和根据正交空间计算所需时间的方法进行说明。
根据基于关节空间的方法,首先,通过逆运动计算来计算到达目标点Pd1时各旋转关节J1~J7的旋转角度的目标值。接着,求解初始点Pr上的各旋转关节J1~J7的旋转角度的当前值。然后,通过根据旋转角度的目标值计算旋转角度的当前值的差分值(即距离),将该差分值除以预先指定的角速度,得到所需时间。根据该方法,能够通过单纯的计算得到所需时间。即,通过计算旋转角度的目标值的反转换计算、以及求解旋转角度的目标值与当前值的差分值的减法、以及将差分值除以角速度的除法,来得到所需时间。另外,也可以对于图8的(a)所示的角速度指令,包含机器人R的伺服系统的延迟或机器人R的动态特性在内执行动作仿真,来计算更准确的所需时间。
另一方面,根据基于正交空间的方法,首先,计算目标点Pd1上的机械爪11的位置以及姿态。接着,计算初始点Pr上的机械爪11的位置以及姿态。然后,能够通过计算目标点Pd1上的位置及姿态与初始点Pr上的位置及姿态的差分值(即距离),并将该差分值除以预先指定的正交速度来得到所需时间。根据该方法,能够通过求解差分值的减法和将差分值除以正交速度这样的简单的计算来估算所需时间。另外,也可以实施从图8的(b)所示的基于正交空间的速度指令向图8的(c)所示的基于关节空间的角速度指令的切换,进一步,对图8的(c)所示的角速度指令,包含机器人R的伺服系统的延迟或机器人R的动态特性在内执行动作仿真,从而计算更准确的所需时间。
另外,在工序S45中,也可以采用根据上述的关节空间生成的所需时间或者根据正交空间生成的所需时间的任一个。
接着,生成形状数据(工序S6)。该工序S6通过形状数据生成部18来执行。在该工序S6中,例如,根据图像数据,计算候补工件WC的轮廓形状作为形状数据。
接着,获取指标值(工序S7)。该工序S7通过指标获取部23来执行。例如,在该工序S7中,使形状数据所包含的候补工件WC的轮廓形状和数据库所保持的轮廓形状相匹配,获取与数据库所保持的轮廓形状建立了关联的指标值。
接着,确认有无干涉(工序S8)。该工序S8根据轨迹数据以及障碍物的模型数据通过干涉确认部21来执行。
接着,确认可动范围内的动作能否进行(工序S9)。该工序S9根据轨迹数据以及机器人R的可动范围信息通过可动范围确认部22来执行。
接着,计算评价值Ev(工序S10)。该工序S10通过评价值计算部24根据上述式(1)来执行。
接着,判断有无未处理的候补工件WC(工序S11)。当存在未处理的候补工件WC时(工序S11:是),对未处理的候补工件WC实施上述工序S4~S10。另一方面,当不存在未处理的候补工件WC时,转移到下一工序S12(工序S11:否)。如上所述,在本实施方式中针对一候补工件WC重复进行连续地实施工序S4~工序S10的处理,针对所有的候补工件WC计算评价值Ev。
然后,从候补工件WC中选择一对象工件WO(工序S12)。该工序S12通过对象工件选择部19来执行。在该工序S12中,在各个候补工件WC所具有的评价值Ev中,选择具有最高的分数的候补工件WC作为对象工件WO。
最后,拾取对象工件WO(工序S13)。控制装置4向机器人R输出控制信号使其执行用于拾取对象工件WO的动作。机器人R根据控制信号驱动伺服电机,并使机械爪11按照轨迹进行动作。当机械爪11到达对象工件WO的拾取位置(取出位置)时,控制装置4向机械爪11输出控制信号使其执行保持对象工件WO的动作。然后,控制装置4使保持有对象工件WO的机械爪11进行移动,从而将对象工件WO移送到第二储料器3。通过实施以上的工序S1~S13,将一工件W从第一储料器2移送到第二储料器3。
根据本实施方式的机器人拾取系统1,控制装置4具有对象工件选择部19,对象工件选择部19根据图像数据来选择应该拾取的对象工件WO。这样,由于控制机器人R的动作的控制装置4选择对象工件WO,因此,在对象工件WO的选择中,能够结合机器人R的动作状态进行选择。从而,根据机器人拾取系统1,能够选择以更合适的条件能够拾取的对象工件WO。
另外,对象工件选择部19利用所需时间数据来选择对象工件WO。根据利用所需时间数据进行的对象工件WO的选择,能够进行在拾取动作中使拾取所需的时间优先化的控制。
另外,对象工件选择部19利用干涉确认部21中的判断结果来选择对象工件WO。根据利用干涉确认部21的判断结果进行的对象工件WO的选择,当在机器人R与候补工件WC之间进行插补的轨迹上存在障碍物时,能够判断为不能进行沿着该轨迹的拾取。从而,能够结合在机器人R与候补工件WC之间是否存在障碍物来选择能够拾取的对象工件WO。
另外,对象工件选择部19利用拾取难易度的指标值来选择对象工件WO。根据利用拾取难易度的指标值所作的选择,能够进行使可靠地进行拾取的工序优先化的控制。
另外,对象工件选择部19利用第一以及第二加权系数α、β来选择对象工件WO。根据利用第一以及第二加权系数α、β所作的选择,在拾取动作中,能够调整所需时间以及拾取动作的可靠度的优先程度,因此能够进行与作业目的对应的极精细的控制。
另外,所需时间数据生成部17利用轨迹数据生成所需时间数据。通过在所需时间数据的生成中使用轨迹数据,能够生成与机器人R的作业状态对应的精度高的所需时间数据。
以上,对本发明的实施方式进行了说明,但本发明并不一定限定于上述的实施方式,在未脱离其主旨的范围内能够进行各种变更。例如,也可以不需要将图像获取装置6安装在机器人R的臂8的前端,而是将图像获取装置6配置在能够对第一储料器2的工件W进行摄影的任意的位置。
另外,在上述实施方式中,针对一个候补工件WC连续地实施工序S4至工序S10,但并不限于该处理方法。例如,也可以针对一个候补工件WC实施干涉的确认(工序S8)和能否动作的确认(工序S9),仅针对这些确认结果良好的候补工件WC计算评价值。
另外,在上述实施方式中,选择候补工件WC的方法、对轨迹进行计算的方法、计算所需时间的方法、确认有无干涉的方法、确认可动范围中能够动作的方法以及评价值的定义是一个例子,并不限于本实施方式所记载的方法。
另外,也可以使用上述的机器人拾取系统1来制造所希望的产品(被加工物)。
Claims (9)
1.一种机器人拾取系统,具有:
机器人,所述机器人拾取收容有多个工件的储料器内的所述工件;
控制装置,所述控制装置控制所述机器人的动作;以及
图像获取装置,所述图像获取装置获取包含有与所述工件相关的信息的图像数据,
所述控制装置具有:
候补数据生成部,所述候补数据生成部利用所述图像数据,生成包含作为拾取对象的候补的候补工件的信息的候补数据;
对象工件选择部,所述对象工件选择部利用所述候补数据,从所述候补工件中选择作为拾取对象的对象工件;
姿态数据生成部,所述姿态数据生成部生成包含所述机器人的姿态的信息的姿态数据;以及
轨迹数据生成部,所述轨迹数据生成部利用所述姿态数据以及所述候补数据,生成包含到达各个所述候补工件的轨迹的信息的轨迹数据,
所述对象工件选择部判断沿着所述轨迹的所述机器人的动作是否被妨碍,并利用所述判断的结果来选择所述对象工件。
2.根据权利要求1所述的机器人拾取系统,其特征在于,
所述控制装置还具有所需时间数据生成部,所述所需时间数据生成部利用所述候补数据,生成包含到达所述候补工件的每一个所需的所需时间的信息的所需时间数据,
所述对象工件选择部利用所述所需时间数据来选择所述对象工件。
3.根据权利要求2所述的机器人拾取系统,其特征在于,
所述所需时间数据生成部利用所述轨迹数据来生成所述所需时间数据。
4.根据权利要求2所述的机器人拾取系统,其特征在于,
所述控制装置还具有形状数据生成部,所述形状数据生成部利用所述图像数据,生成包含基于所述工件的形状的形状信息的形状数据,
所述对象工件选择部根据所述形状数据获取表示所述候补工件的拾取难易度的指标,并利用所述指标来选择所述对象工件。
5.根据权利要求4所述的机器人拾取系统,其特征在于,
所述对象工件选择部利用对所述所需时间数据使用第一加权系数加权得到的第一评价数据、以及对所述形状数据使用第二加权系数加权得到的第二评价数据,来选择所述对象工件。
6.一种被加工物的制造方法,所述制造方法使用权利要求1所述的机器人拾取系统来制造被加工物。
7.一种机器人拾取系统,具有:
机器人,所述机器人拾取收容有多个工件的储料器内的所述工件;
控制装置,所述控制装置控制所述机器人的动作;以及
图像获取装置,所述图像获取装置获取包含有与所述工件相关的信息的图像数据,
所述控制装置利用所述图像数据,生成包含作为拾取对象的候补的候补工件的信息的候补数据,
所述控制装置利用所述候补数据,从所述候补工件中选择作为拾取对象的对象工件,
所述控制装置生成包含所述机器人的姿态的信息的姿态数据,
所述控制装置利用所述姿态数据以及所述候补数据,生成包含到达各个所述候补工件的轨迹的信息的轨迹数据,
所述控制装置判断沿着所述轨迹的所述机器人的动作是否被妨碍,并利用所述判断的结果来选择所述对象工件。
8.一种控制装置,对拾取收容有多个工件的储料器内的所述工件的机器人的动作,利用包含与所述工件相关的信息的图像数据进行控制,其特征在于,具有:
候补数据生成部,所述候补数据生成部利用所述图像数据,生成包含作为拾取对象的候补的候补工件的信息的候补数据;
对象工件选择部,所述对象工件选择部利用所述候补数据,从所述候补工件中选择作为拾取对象的对象工件;
姿态数据生成部,所述姿态数据生成部生成包含所述机器人的姿态的信息的姿态数据;以及
轨迹数据生成部,所述轨迹数据生成部利用所述姿态数据以及所述候补数据,生成包含到达各个所述候补工件的轨迹的信息的轨迹数据,
所述对象工件选择部判断沿着所述轨迹的所述机器人的动作是否被妨碍,并利用所述判断的结果来选择所述对象工件。
9.一种被加工物的制造方法,所述制造方法使用权利要求2至5中任一项所述的机器人拾取系统来制造被加工物。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-055221 | 2013-03-18 | ||
JP2013055221A JP5754454B2 (ja) | 2013-03-18 | 2013-03-18 | ロボットピッキングシステム及び被加工物の製造方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104057447A CN104057447A (zh) | 2014-09-24 |
CN104057447B true CN104057447B (zh) | 2016-01-06 |
Family
ID=50023454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410062122.3A Expired - Fee Related CN104057447B (zh) | 2013-03-18 | 2014-02-24 | 机器人拾取系统以及被加工物的制造方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9149932B2 (zh) |
EP (1) | EP2781314A1 (zh) |
JP (1) | JP5754454B2 (zh) |
CN (1) | CN104057447B (zh) |
IN (1) | IN2014CH00968A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11845194B2 (en) | 2017-09-25 | 2023-12-19 | Fanuc Corporation | Robot system and workpiece picking method |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6357785B2 (ja) * | 2014-02-04 | 2018-07-18 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置および制御方法 |
JP5778311B1 (ja) * | 2014-05-08 | 2015-09-16 | 東芝機械株式会社 | ピッキング装置およびピッキング方法 |
CN105382839A (zh) * | 2014-08-25 | 2016-03-09 | 精工爱普生株式会社 | 机器人以及机器人系统 |
CN104459260B (zh) * | 2014-11-13 | 2016-04-20 | 国家电网公司 | 电能计量器具智能挂载系统及其挂载检测方法 |
US10751871B2 (en) * | 2015-07-30 | 2020-08-25 | Kawasaki Jukogyo Kabushiki Kaisha | Robot and method of controlling the same |
WO2017045716A1 (en) * | 2015-09-17 | 2017-03-23 | Abb Schweiz Ag | A component feeder and a system for picking components comprising the component feeder |
CN109863459A (zh) * | 2016-09-08 | 2019-06-07 | 法孚里内机床有限公司 | 加工站、工件保持系统和工件加工方法 |
CN106679563B (zh) * | 2016-12-13 | 2019-05-07 | 广州视源电子科技股份有限公司 | 待测板卡的针盒位置的确定方法和装置 |
EP3366433B1 (en) * | 2017-02-09 | 2022-03-09 | Canon Kabushiki Kaisha | Method of controlling robot, method of teaching robot, and robot system |
JP7145146B2 (ja) * | 2017-03-06 | 2022-09-30 | 株式会社Fuji | 画像処理データ作成方法 |
JP6831739B2 (ja) * | 2017-04-03 | 2021-02-17 | 川崎重工業株式会社 | 蓋閉じ装置及び蓋閉じ方法 |
JP6258556B1 (ja) * | 2017-04-04 | 2018-01-10 | 株式会社Mujin | 制御装置、ピッキングシステム、物流システム、プログラム、制御方法、及び、生産方法 |
CN110494259B (zh) | 2017-04-04 | 2020-11-10 | 牧今科技 | 控制装置、拾取系统、物流系统、程序、控制方法以及生产方法 |
CN110520259B (zh) | 2017-04-04 | 2021-09-21 | 牧今科技 | 控制装置、拾取系统、物流系统、存储介质以及控制方法 |
CN110621451B (zh) | 2017-04-04 | 2021-07-06 | 牧今科技 | 信息处理装置、拾取系统、物流系统、程序以及信息处理方法 |
WO2018185858A1 (ja) | 2017-04-04 | 2018-10-11 | 株式会社Mujin | 制御装置、ピッキングシステム、物流システム、プログラム、制御方法、及び、生産方法 |
JP6828572B2 (ja) * | 2017-04-18 | 2021-02-10 | 富士通株式会社 | ロボット移動時間推定プログラム及びロボット移動時間推定方法 |
JP6487495B2 (ja) * | 2017-05-19 | 2019-03-20 | ファナック株式会社 | ワーク取出しシステム |
JP6931457B2 (ja) | 2017-07-14 | 2021-09-08 | オムロン株式会社 | モーション生成方法、モーション生成装置、システム及びコンピュータプログラム |
JP7116901B2 (ja) | 2017-08-01 | 2022-08-12 | オムロン株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
CN107564065B (zh) * | 2017-09-22 | 2019-10-22 | 东南大学 | 一种协作环境下人机最小距离的测算方法 |
JP6676030B2 (ja) | 2017-11-20 | 2020-04-08 | 株式会社安川電機 | 把持システム、学習装置、把持方法、及び、モデルの製造方法 |
US10933526B2 (en) * | 2018-04-23 | 2021-03-02 | General Electric Company | Method and robotic system for manipulating instruments |
JP7072851B2 (ja) * | 2018-06-15 | 2022-05-23 | 株式会社エヌテック | コンテナ折り畳み方法及びコンテナ折り畳み装置 |
JP7028151B2 (ja) * | 2018-12-14 | 2022-03-02 | トヨタ自動車株式会社 | 軌道生成装置 |
US11270717B2 (en) * | 2019-05-08 | 2022-03-08 | Microsoft Technology Licensing, Llc | Noise reduction in robot human communication |
JP7021160B2 (ja) * | 2019-09-18 | 2022-02-16 | 株式会社東芝 | ハンドリング装置、ハンドリング方法及びプログラム |
CN112870595B (zh) * | 2020-12-30 | 2022-07-08 | 国电南瑞科技股份有限公司 | 一种举高消防机器人控制方法、装置及系统 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4305130A (en) * | 1979-05-29 | 1981-12-08 | University Of Rhode Island | Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces |
US4402053A (en) * | 1980-09-25 | 1983-08-30 | Board Of Regents For Education For The State Of Rhode Island | Estimating workpiece pose using the feature points method |
JPH10128686A (ja) * | 1996-10-30 | 1998-05-19 | Nippon Telegr & Teleph Corp <Ntt> | ロボットマニピュレータの制御方法およびロボットマニピュレータの制御装置 |
JP3751309B2 (ja) | 2002-12-12 | 2006-03-01 | 松下電器産業株式会社 | ロボット制御装置 |
JP3834307B2 (ja) | 2003-09-29 | 2006-10-18 | ファナック株式会社 | ロボットシステム |
JP4041837B2 (ja) * | 2004-07-13 | 2008-02-06 | 松下電器産業株式会社 | 物品保持システム、ロボット及びロボット制御方法 |
US20060017720A1 (en) * | 2004-07-15 | 2006-01-26 | Li You F | System and method for 3D measurement and surface reconstruction |
JP2006035397A (ja) | 2004-07-29 | 2006-02-09 | Fanuc Ltd | 搬送ロボットシステム |
JP4348276B2 (ja) * | 2004-11-02 | 2009-10-21 | 本田技研工業株式会社 | ロボット制御装置 |
FR2896441B1 (fr) * | 2006-01-23 | 2009-07-03 | Jerome Grosbois | Procede et systeme permettant la prehension automatisee de piece(s) |
JP4962123B2 (ja) * | 2007-04-27 | 2012-06-27 | 日産自動車株式会社 | 把持候補位置選出装置、把持候補位置選出方法、把持経路生成装置、および把持経路生成方法 |
CN100591202C (zh) | 2008-05-05 | 2010-02-24 | 江苏大学 | 柑橘采摘机器人的柔性采摘装置和方法 |
JP5265296B2 (ja) * | 2008-10-10 | 2013-08-14 | 本田技研工業株式会社 | ワーク取り出し方法 |
JP5229253B2 (ja) * | 2010-03-11 | 2013-07-03 | 株式会社安川電機 | ロボットシステム及びロボット装置並びにワーク取り出し方法 |
JP4938115B2 (ja) | 2010-07-27 | 2012-05-23 | ファナック株式会社 | ワーク取出し装置およびワーク取出し方法 |
JP5767464B2 (ja) * | 2010-12-15 | 2015-08-19 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
-
2013
- 2013-03-18 JP JP2013055221A patent/JP5754454B2/ja active Active
-
2014
- 2014-01-30 EP EP14153188.9A patent/EP2781314A1/en not_active Withdrawn
- 2014-02-17 US US14/181,725 patent/US9149932B2/en not_active Expired - Fee Related
- 2014-02-24 CN CN201410062122.3A patent/CN104057447B/zh not_active Expired - Fee Related
- 2014-02-26 IN IN968CH2014 patent/IN2014CH00968A/en unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11845194B2 (en) | 2017-09-25 | 2023-12-19 | Fanuc Corporation | Robot system and workpiece picking method |
Also Published As
Publication number | Publication date |
---|---|
CN104057447A (zh) | 2014-09-24 |
IN2014CH00968A (zh) | 2015-05-08 |
JP2014180704A (ja) | 2014-09-29 |
JP5754454B2 (ja) | 2015-07-29 |
US20140277731A1 (en) | 2014-09-18 |
US9149932B2 (en) | 2015-10-06 |
EP2781314A1 (en) | 2014-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104057447B (zh) | 机器人拾取系统以及被加工物的制造方法 | |
JP7116901B2 (ja) | ロボット制御装置、ロボット制御方法及びロボット制御プログラム | |
US11420330B2 (en) | Robot control device, robot, and simulation device | |
CN104057456A (zh) | 机器人拾取系统及被加工物的制造方法 | |
US8918215B2 (en) | Telematic interface with control signal scaling based on force sensor feedback | |
JP5743499B2 (ja) | 画像生成装置、画像生成方法、およびプログラム | |
US8280837B2 (en) | Contact state estimation for multi-finger robot hands using particle filters | |
CN104589354A (zh) | 机器人控制装置、机器人系统以及机器人 | |
Xu et al. | Visual-haptic aid teleoperation based on 3-D environment modeling and updating | |
JP2019018272A (ja) | モーション生成方法、モーション生成装置、システム及びコンピュータプログラム | |
CN102744727A (zh) | 预测机器人的着眼部位与周边物的干涉的方法及装置 | |
EP3495098B1 (en) | Interference determination method, interference determination system, and computer program | |
CN109202864B (zh) | 评价信息输出装置、评价信息输出方法以及存储介质 | |
Zwiener et al. | Contact point localization for articulated manipulators with proprioceptive sensors and machine learning | |
CN105892658A (zh) | 基于头戴显示设备预测头部姿态的方法和头戴显示设备 | |
JP6322949B2 (ja) | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム | |
JP2020110885A (ja) | 経路生成装置、経路生成方法、及び経路生成プログラム | |
CN111721391B (zh) | 用机器人推定负荷的重量及重心位置的装置、方法及计算机可读记录介质 | |
CN109983299A (zh) | 工业机器人的测量系统和方法 | |
Moll et al. | Reconstructing the shape and motion of unknown objects with active tactile sensors | |
JP2008200763A (ja) | 作業用マニピュレータの制御装置 | |
CN113263496A (zh) | 一种六自由度机械臂优化路径的方法和计算机设备 | |
CN113752236B (zh) | 机械臂示教的装置、标定杆和方法 | |
KR20130017123A (ko) | 로봇 파지 지능 학습 지원 시스템 및 방법 | |
WO2018180298A1 (ja) | ロボット教示装置、ロボット教示装置の制御方法及びロボット教示プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160106 Termination date: 20170224 |