CN111163907B - 抓持位置姿态示教装置、抓持位置姿态示教方法及机器人系统 - Google Patents
抓持位置姿态示教装置、抓持位置姿态示教方法及机器人系统 Download PDFInfo
- Publication number
- CN111163907B CN111163907B CN201780095375.2A CN201780095375A CN111163907B CN 111163907 B CN111163907 B CN 111163907B CN 201780095375 A CN201780095375 A CN 201780095375A CN 111163907 B CN111163907 B CN 111163907B
- Authority
- CN
- China
- Prior art keywords
- posture
- hand
- component
- grasping
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39543—Recognize object and plan hand shapes in grasping movements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40395—Compose movement with primitive movement segments from database
Abstract
本发明提供一种能够针对可由部件摆出的每个姿态而生成机器人的抓持位置姿态的抓持位置姿态示教装置。抓持位置姿态示教装置具有:部件投入姿态计算部,其对可由部件摆出的投入姿态进行计算;抓持姿态选定部,其选定与部件的投入姿态对应的手部的抓持姿态;抓持位置区域提取部,其将成为同一抓持类别的位置汇总得到的区域,作为抓持位置区域进行提取;以及抓持位置姿态输出部,其决定由抓持位置区域提取部提取出的抓持位置区域内的抓持位置,针对每个投入姿态作为抓持位置姿态而进行输出。
Description
技术领域
本发明涉及对部件进行抓持的工业用机器人的抓持位置姿态示教装置、抓持位置姿态示教方法及机器人系统。
背景技术
以往,已知一种工业用机器人,其具有对部件进行抓持而使部件整齐排列为规定的位置及姿态的手部。为了使如上所述的机器人执行规定的动作而预先将抓持动作示教给该机器人,但该示教作业花费大量的时间,因此要求示教作业的自动化、缩短。作为该方法,开发了下述技术,即,基于预先在机器人中登记的部件的形状数据、和手部相对于各部件的抓持位置及抓持姿态(下面,汇总地记述为抓持位置姿态)的数据,使机器人执行抓持动作。
在专利文献1中,具有对多个部件的形状数据、和手部相对于各部件的抓持位置姿态进行了登记的数据库,从数据库对与抓持对象的部件类似形状的部件的形状数据进行检索,使机器人执行与类似形状的部件对应的抓持位置姿态。另外,在专利文献2中,具有对多个典型形状模型、和手部相对于各典型形状模型的抓持位置姿态进行了登记的数据库,将抓持对象的部件拟合为典型形状模型,决定出手部的抓持位置姿态。在这里作为典型形状,例如是圆柱、四棱柱、圆筒等3维几何要素的模型。
专利文献1:日本特开2008-15683号公报
专利文献2:国际公开第2009/113339号公报
发明内容
但是,在部件以杂乱地堆叠的散装状态被投入的情况下,难以预先将相对于可由部件摆出的各姿态能够应用的手部的抓持位置姿态登记于数据库,在抓持位置姿态没有登记于数据库的情况下,存在机器人无法执行抓持动作这样的问题。例如,在具有设想为被机器人抓持的手柄部分的部件以倾斜的状态被投入,该手柄部分与平面接触的情况下,无法以预先在数据库中登记的用于对该手柄部分进行抓持的抓持位置姿态执行抓持动作。
本发明就是为了解决上述这样的问题而提出的,其目的在于,提供能够生成手部的抓持位置姿态的抓持位置姿态示教装置,该手部的抓持位置姿态相对于可由被投入的部件摆出的各姿态能够应用。另外,目的在于提供抓持位置姿态示教方法。并且,目的在于提供应用了抓持位置姿态示教装置的机器人系统。
本发明所涉及的抓持位置姿态示教装置,其特征在于,具有:部件投入姿态计算部,其根据表示部件的形状的部件形状数据而对部件的投入姿态进行计算;抓持姿态选定部,其根据表示手部的形状的手部数据而选定与投入姿态对应的手部的抓持姿态;抓持位置区域提取部,其将以抓持姿态抓持部件的手部的抓持部及被手部抓持的部件的被抓持部分别一致的位置汇总得到的区域,作为抓持位置区域进行提取;以及抓持位置姿态输出部,其选定在抓持位置区域内由手部抓持部件的抓持位置,将抓持姿态下的抓持位置作为手部的抓持位置姿态而针对每个投入姿态至少输出1个。
另外,本发明所涉及的抓持位置姿态示教方法,其特征在于,具有下述步骤:部件投入姿态计算步骤,根据表示部件的形状的部件形状数据而对部件的投入姿态进行计算;抓持姿态选定步骤,根据表示手部的形状的手部数据而选定与投入姿态对应的手部的抓持姿态;抓持位置区域提取步骤,将以抓持姿态抓持部件的手部的抓持部及被手部抓持的部件的被抓持部分别一致的位置汇总得到的区域,作为抓持位置区域进行提取;以及抓持位置姿态输出步骤,选定在抓持位置区域内由手部抓持部件的抓持位置,将抓持姿态下的抓持位置作为手部的抓持位置姿态而针对每个投入姿态至少输出1个。
另外,本发明所涉及的机器人系统,其特征在于,具有:抓持位置姿态示教装置,其根据部件形状数据及手部数据而生成手部的抓持位置姿态;传感器,其对与被投入的部件的位置及姿态相关的信息进行识别;以及机器人,其基于来自传感器的信息及由抓持位置姿态示教装置生成的抓持位置姿态而对部件进行抓持。
发明的效果
根据本发明,能够生成相对于可由部件摆出的各姿态能够应用的抓持位置姿态,即使在抓持位置姿态没有登记于数据库的情况下,也能够将抓持位置姿态示教给机器人。
附图说明
图1是具有本发明的实施方式1所涉及的抓持位置姿态示教装置的机器人系统的概略结构图。
图2是本发明的实施方式1所涉及的抓持位置姿态示教装置的概略结构图。
图3是表示本发明的实施方式1所涉及的部件的抓持位置姿态的一个例子的示意图。
图4是表示本发明的实施方式1所涉及的部件的抓持位置姿态的一个例子的示意图。
图5是表示本发明的实施方式1所涉及的部件的抓持位置姿态的一个例子的示意图。
图6是表示本发明的实施方式1所涉及的部件的抓持位置姿态的一个例子的示意图。
图7是表示本发明的实施方式1所涉及的手部和部件的一个例子的示意图。
图8是表示本发明的实施方式1所涉及的部件的抓持位置姿态的一个例子的示意图。
图9是表示本发明的实施方式1所涉及的部件的抓持位置姿态的一个例子的示意图。
图10是表示本发明的实施方式1所涉及的部件的抓持位置姿态的一个例子的示意图。
图11是表示本发明的实施方式1所涉及的抓持位置姿态示教装置的处理工序的一个例子的工序图。
图12是表示本发明的实施方式1所涉及的抓持位置姿态示教装置的处理工序的一个例子的示意图。
图13是表示本发明的实施方式1所涉及的手部的一个例子的示意图。
图14是表示本发明的实施方式1所涉及的部件的抓持位置姿态的一个例子的示意图。
图15是表示应用本发明的实施方式2所涉及的抓持位置姿态示教装置的机器人系统的一个例子的示意图。
图16是本发明的实施方式3所涉及的抓持位置姿态示教装置的概略结构图。
图17是本发明的实施方式4所涉及的抓持位置姿态示教装置的概略结构图。
图18是本发明的实施方式5所涉及的抓持位置姿态示教装置的概略结构图。
图19是表示本发明的实施方式所涉及的吸附手部的一个例子的示意图。
具体实施方式
使用附图,对本发明的实施方式所涉及的抓持位置姿态示教装置、抓持位置姿态示教方法及具有抓持位置姿态示教装置的机器人系统具体地进行说明。
实施方式1.
图1是具有本发明的实施方式1所涉及的抓持位置姿态示教装置的机器人系统的概略结构图。如图1所示,机器人系统100包含机器人200、抓持位置姿态示教装置300、传感器50而构成,彼此能够通信地连接。机器人系统100使机器人200以由抓持位置姿态示教装置300生成的抓持位置姿态进行动作。
机器人200例如为垂直多关节型机器人,具有机器人主体201和机器人控制部202。机器人主体201具有任意形状的手部20,该手部20具有对部件10(未图示)进行抓持的抓持面。手部20例如具有能够开闭的指部21,朝向由主体201旋转驱动的手腕部22的旋转轴方向进行安装。机器人控制部202具有记述了机器人200的动作的控制程序,基于从传感器50、抓持位置姿态示教装置300等取得的信息而进行机器人200的驱动控制。
传感器50对要抓持的部件10的2维图像、3维数据进行测量,对部件10的位置及姿态进行识别。部件10的识别结果在传感器50或机器人控制部202中,变换为表现机器人200的位置姿态的坐标系的数据。基于由抓持位置姿态示教装置300生成的手部20的抓持位置姿态及来自传感器50的识别结果,对由传感器50识别出的部件10的位置姿态进行计算。
接下来,对将抓持位置姿态示教给机器人200的抓持位置姿态示教装置300的结构进行说明。抓持位置姿态示教装置300例如是具有存储部31、处理部32等的运算处理装置。在抓持位置姿态示教装置300中,除了上述以外,更优选设置具有对部件10及手部20进行显示的3D显示画面、输入按钮等的GUI(Graphical User Interface)。
在存储部31中,例如收容有部件形状数据301、手部数据302、生成抓持位置姿态的程序等。处理部32基于在存储部31中收容的部件形状数据301及手部数据302而进行程序的运算处理。部件形状数据301是与部件10相关的3维形状数据。另外,手部数据302例如是与手部20相关的3维形状数据。在手部数据302中,除了3维形状数据以外,还优选包含许可与部件10接触的手部20的抓持面、指部21的动作方向、从手部20的向机器人200的安装部朝向手部20的前端的方向(下面,简记为安装方向)等与手部20相关的附加信息。
在以下记载的抓持位置姿态示教装置300的说明中,部件10及手部20并没有特别的记载,示出通过3维形状数据规定出的虚拟的空间上的部件模型及手部模型。另外,抓持位置姿态示出虚拟的空间上的手部20相对于部件10的相对性的位置及姿态。位置能够通过任意的3维坐标系表现,姿态例如能够作为绕各轴的旋转量的参数而表现。
接下来,对执行抓持位置姿态示教装置300的功能的结构进行说明。图2是表示抓持位置姿态示教装置300的概略结构图。
部件投入姿态计算部310取得在存储部31中收容的部件形状数据301,对向机器人系统100投入的部件10的姿态进行分类,分别对分类出的投入姿态进行计算。对投入姿态进行分类及计算的方法,在部件10以散装状态投入的情况下和不是整齐排列姿态而是以在平面上部件10彼此不重叠的方式投入的情况下,设为是不同的方法。
在部件10以散装状态投入的情况下,例如,将相对于手部20向部件10接近的方向的反方向作为部件10的方向而对投入姿态进行分类。例如,如图3所示,将固定于部件10的正交坐标系P的坐标轴设为(Px,Py,Pz),将机器人系统100的正交坐标系W的坐标轴设为(Wx,Wy,Wz)。此时,在手部20的接近方向为Wz的负方向的情况下,通过固定于部件10的正交坐标系P表示Wz的正方向的矢量A是部件10的方向。如上所述,在以散装状态投入的情况下,通过相对于接近方向的部件10的方向对投入姿态进行分类。
在不是整齐排列姿态而是以在平面上部件10彼此不重叠的方式投入的情况下,通过部件10的稳定姿态对部件10的投入姿态进行分类。在这里稳定姿态是指部件10在平面上稳定地静止的姿态。针对在各个情况下分类出的每个投入姿态对部件10的姿态进行计算。
抓持姿态选定部320取得在存储部31中收容的手部数据302,针对由部件投入姿态计算部310计算出的每个投入姿态对手部20的抓持姿态进行选定。
在这里,被选定的抓持姿态需要考虑实际抓持部件10时的机器人200的机械性的限制。例如,如图4所示,设想下述情况,即,与部件10相比在Wx的负方向设置的机器人200(未图示)从矢量B的方向对投入至正交坐标系W的机器人系统100的部件10进行抓持。如图5所示,在从图4的状态起绕Wz轴将部件10旋转后的情况下,如果应用与图4相同的部件10的抓持位置所对应的手部20的抓持姿态,则需要使手部20的安装部在Wx的正方向大幅地移动,由于机器人200到达不了部件10,因此无法执行抓持动作。如图6所示,如果应用部件10进行旋转的轴向Wz和通过手部数据302规定的手部20的安装方向(矢量B)的角度小的抓持姿态,则即使部件10旋转,通过使手腕部22旋转,从而也不会大幅地改变手部20的位置,机器人200能够执行抓持动作。在这里,手部20相对于部件10的接近方向在大多情况下是部件10进行旋转的轴向Wz。因此,在抓持姿态选定部320中,将手部20相对于部件10的接近方向、和表示从手部20的安装部至前端为止的方向的安装方向处于规定的角度以内的手部20的姿态选定为抓持姿态。
抓持位置区域提取部330针对由抓持姿态选定部320选定出的每个抓持姿态,将对成为同一抓持类别的位置进行汇总得到的区域,作为抓持位置区域进行提取。在这里同一抓持类别定义为下述情况,即,与部件10的投入姿态对应的手部20的抓持姿态相同,且与手部20的抓持部对应的部件10的被抓持部一致。例如,如图7所示,在使用具有指部21的手部20对部件10进行抓持的情况下,手部20的抓持部是指部21的内侧的侧面20a、20b,部件10的被抓持部是部件10的各侧面10a~10d。此时图8和图9是与部件10的投入姿态对应的抓持姿态相同,与手部20的抓持部20a、20b对应的部件10的被抓持部10a、10b分别一致,因此是同一抓持类别。另一方面,图10是与图8相同的抓持姿态,但与手部20的抓持部20a、20b对应的部件10的被抓持部为10c、10d,由于与图8不一致,因此是不同的抓持类别。
抓持位置姿态输出部340决定由抓持位置区域提取部330提取出的抓持位置区域中的抓持位置,针对部件10的每个投入姿态而作为抓持位置姿态进行输出。
通过上述的结构,本实施方式所涉及的抓持位置姿态示教装置300能够根据部件形状数据301和手部数据302,至少生成1个针对部件10的每个投入姿态的抓持位置姿态。
接下来,参照图11,对使用上述的结构而执行功能的处理工序的一个例子进行说明。图11是表示作为处理工序的一个例子的步骤S1至S4的工序图。
在步骤S1中,在部件投入姿态计算部310中,取得部件形状数据301,对部件10的投入姿态进行分类及计算。投入姿态的分类及计算方法在部件10以散装的状态投入的情况下和不是整齐排列姿态而是以在平面上部件10彼此不重叠的方式投入的情况下,采取不同的方法。
在部件10以散装状态投入的情况下,例如存在通过极坐标空间进行表现,对投入姿态进行分类的方法。如图3所示,在手部20的接近方向为Wz的负方向的情况下,在固定于部件10的正交坐标系P中将与接近方向的反方向即矢量A设为部件10的方向。此时,将矢量A通过固定于部件10的极坐标空间进行表现,在其角度成分(θ,φ)的范围进行分类。例如,在将θ和φ以30°刻度进行了分类的情况下,能够分类为12×12种的144种。对部件10进行识别,将该部件10的姿态下的矢量A的朝向通过极坐标空间进行表现,对是处于预先分类出的144种之中的哪个范围进行判断,作为部件10的投入姿态进行计算。
在不是整齐排列姿态而是以在平面上部件10彼此不重叠的方式投入的情况下,部件10针对每个稳定姿态被分类。作为稳定姿态的计算方法,例如,首先部件投入姿态计算部310取得部件10的部件形状数据301,对将部件10包围的最小体积的凸多面体进行计算。而且,在将部件10的重心投影于部件10所设置的平面上时,对投影的点是否位于凸多面体的表面内进行判断,将位于表面内的姿态计算为部件10的稳定姿态。此时的手部20的接近方向例如是部件10的设置平面的法线方向。稳定姿态的计算方法并不限定于此,只要是对在平面上部件10稳定地静止的姿态进行计算,则并不限定其方法。如上所述,在步骤S1中,至少计算1个部件10的投入姿态。
接下来,在步骤S2中,在抓持姿态选定部320中,取得手部数据302,对针对通过步骤S1导出的每个投入姿态的抓持姿态进行选定。使用图12对抓持姿态的选定方法的一个例子进行说明。如图12所示,首先,基于将手部20的接近方向设为Wz轴的机器人系统100的正交坐标系W(Wx,Wy,Wz)、及在将手部20的安装方向设为Qz轴的手部20固定的坐标系Q(Qx,Qy,Qz),使Wz轴及Qz轴一致。而且,将手部20的抓持面的法线(矢量V)和部件10的各面的法线(矢量W)所成的角度处于容许角度以内的部件10的面作为被抓持面进行提取。并且,以提取出的部件10的被抓持面和手部20的抓持面平行地相对的方式将手部20的抓持面的法线和部件10的被抓持面的法线重合,将此时的手部20的姿态作为与部件10的投入姿态对应的抓持姿态进行选定。通过如上所述的选定方法,抓持姿态选定部320能够对考虑了实际抓持部件10时的机器人200的机械性的限制后的抓持姿态进行选定。此时,在部件10以散装状态投入的情况下,优选将对容许角度或投入姿态进行分类的刻度大小、或者将其两者适当地设定,以使得能够针对任意的投入姿态而导出容许角度以内的抓持姿态。
在这里,手部20的安装方向例如可以通过手部数据302进行指定。另外,手部20的抓持面可以通过手部数据302进行指定,可以将指部21的开闭方向的面作为抓持面。另外,手部20的抓持面的法线和部件10的被抓持面的法线的容许角度可以通过手部数据302、其他输入数据进行指定,例如可以设定为5°这样的固定值。
另外,在手部20的抓持面存在多个的情况下,针对各个手部20的抓持面而提取部件10的被抓持面。另外,在部件10的被抓持面没有被提取的情况下,例如,在图12中,将使手部20的接近方向即Wz轴和手部20的安装方向即Qz轴重合的情况下的手部20的姿态中的1个选定为抓持姿态。此时,在抓持姿态下,手部20的绕Qz轴的旋转方向变得不定,但该旋转方向设为是机器人系统100的坐标系W的Wx轴或Wy轴、和手部20的通过3维形状数据规定的坐标系Q的Qx轴或Qy轴方向一致的方向。除此以外,也可以使用适当的坐标轴、基准而决定。如上所述,在步骤S2中,针对部件10的每个投入姿态而至少选定1个抓持姿态。
接下来,在步骤S3中,在抓持位置区域提取部330中,将由抓持姿态选定部320选定出的抓持姿态下的手部20的抓持部和部件10的被抓持部分别一致的、即成为同一抓持类别的位置汇总得到的区域,作为抓持位置区域进行提取。作为抓持位置区域的提取方法,例如存在下述方法,即,对将手部20的指部21开闭而抓持部件10的动作进行仿真。在这里,抓持的仿真能够使用各种已知的方法。作为一个例子,首先,以规定的抓持姿态,一边使手部20相对于部件10的相对性的位置变更、一边使指部21开闭,对能够抓持部件10的范围进行探索。而且,在能够抓持的范围内使部件10和手部20的面进行了接触的情况下,将成为同一抓持类别的位置汇总为1个抓持位置区域而进行提取。
成为同一抓持类别的抓持位置区域,除此以外,也可以基于部件形状数据301,根据边界条件计算抓持类别被变更的位置。如上所述,在步骤S3中,针对部件10的每个投入姿态而至少提取1个抓持位置区域。
接下来,在步骤S4中,在抓持位置姿态输出部340中,从通过步骤S3提取出的抓持位置区域选定抓持位置。作为抓持位置的选定方法,例如,首先根据由抓持位置区域提取部330提取出的多个抓持位置区域对各个区域的范围进行计算,针对每个投入姿态而选定1个范围最广的抓持位置区域。而且,对选定出的抓持位置区域的重心进行计算而作为抓持位置。将计算出的抓持位置作为针对部件10的每个投入姿态的抓持位置姿态而输出。
抓持位置姿态例如作为部件10和手部20的相对性的位置及姿态的数据而输出至对机器人控制部202的控制程序进行编辑的工具。另外,也可以使用GUI的显示部等,输出至用户以实现可视化,也可以将它们进行组合。另外,也可以对表示设为基准的部件10的位置和抓持部件10的时刻下的机器人200的位置姿态之间的关系的数据进行存储。在这里,表示设为基准的部件10的位置和机器人200的位置姿态之间的关系的数据,可以利用从传感器50等取得的设为基准的部件10的位置的数据,也可以设置输入部等而由用户适当输入,也可以输入通过机器人系统100的仿真而得到的数据。另外,也可以从对机器人控制部202的控制程序进行编辑的工具输入,也可以将它们进行组合。
如以上所述,通过执行步骤S1至步骤S4的处理,从而能够根据部件形状数据301和手部数据302,针对部件10的每个投入姿态而至少输出1个抓持位置姿态。
此外,在这里为了使说明变得简单,对各功能的处理进行了限定式说明,但本发明所涉及的处理并不限定于此。
例如,在抓持位置姿态输出部340中,设为是对范围最广的抓持位置区域进行选定,但作为抓持位置区域也可以对部件10和手部20的接触面的数量多的区域进行选定。如图13所示,对于在指部21存在切口部23的手部20、具有多个指部的手部20的情况,优选接触面的数量多。其原因在于,在抓持部件10而移动的情况下难以脱落,以及通过由多个接触面实现的部件10的拉入,由此抓持后的部件10的位置姿态容易收敛。
另外,在抓持位置姿态输出部340中,示出了将抓持位置区域的重心设为抓持位置的例子,但也可以将与部件10的重心接近的抓持位置区域内的位置选定为抓持位置。除此以外,也可以通过对抓持着部件10时的稳定性进行判断,从而选定此抓持位置。作为该稳定性的判断方法,例如可以以选定出的抓持姿态及在抓持位置区域对部件10进行抓持,对向部件10赋予了外力的情况下的部件10的位移进行计算,将位移小的位置选定为抓持位置。通过设为如上所述的抓持位置的选定方法,从而手部20能够稳定地抓持部件10。
并且,在抓持位置姿态输出部340中,示出了针对部件10的每个投入姿态而输出1个抓持位置姿态的例子,但也可以输出多个。例如,可以针对由抓持位置区域提取部330导出的多个抓持位置区域的每个抓持位置区域而导出抓持位置,全部作为抓持位置姿态而输出。
另外,也可以不全部作为抓持位置姿态而输出,而是基于优先级选定一部分。例如,具有下述方法,即,关于抓持位置姿态而实施评价,将上位3件进行输出的方法;将得到了大于或等于一定值的评价的抓持位置姿态进行输出的方法;以及将它们组合的方法。作为评价方法,也可以是部件10和手部20的接触面的数量、抓持位置区域的大小、部件10的重心和直至抓持位置为止的距离等独立的评价基准,也可以将它们组合。
并且,作为从由抓持位置姿态输出部340输出的多个抓持位置姿态中选定1个使机器人200动作的抓持位置姿态的方法,存在下述方法,即,在抓持位置姿态示教装置300设置显示部,向显示部输出全部抓持位置姿态,提示用户进行选择的方法;以及以能够在机器人控制部202的控制程序内进行选择的方式输出的方法。
并且,也可以将手部20的接近方向根据部件10被投入的位置而进行变更。例如,在部件10向具有壁的箱形状的物体投入的情况下,接近方向要考虑手部20的尺寸等,优选进行设定以使得不与壁发生干涉。例如,如图14所示,在由传感器50识别出的部件10位于与箱的壁接近的位置的情况下,使手部20的接近方向向壁的位置的反方向倾斜。在该情况下,在部件投入姿态计算部310中,使接近方向和反方向的矢量A与其相关联,对部件10的投入姿态进行分类。在多个壁接近的情况下,以与两方的壁的位置成为反方向的方式倾斜。并且在部件10与壁接近而位于壁的情况下,可以进一步将接近方向设定得狭窄,计算抓持位置姿态。
如上所述,根据本发明的抓持位置姿态示教装置300,具有:部件投入姿态计算部310,其对部件10的投入姿态进行分类及计算;抓持姿态选定部320,其选定针对每个投入姿态的手部20的抓持姿态;抓持位置区域提取部330,其提取针对每个抓持姿态而成为同一抓持类别的抓持位置区域;以及抓持位置姿态输出部340,其从抓持位置区域选定抓持位置,将选定出的抓持姿态下的抓持位置作为手部20的抓持位置姿态而进行输出,由此能够针对每个投入姿态至少生成1个手部20的抓持位置姿态。
实施方式2.
参照图15对用于实施本发明的实施方式2所涉及的机器人系统进行说明。图15是表示本发明的实施方式2所涉及的使散装部件整齐排列的机器人系统的一个例子的示意图。在图15中,与图1及图2相同的标号表示相同或相当的部分。本实施方式中的机器人系统应用于使实施方式1所涉及的抓持位置姿态示教装置将散装的部件整齐排列的系统。
如图15所示,机器人系统100具有3维视觉传感器150、2维视觉传感器160、机器人200、抓持位置姿态示教装置300。抓持位置姿态示教装置300在机器人200进行抓持动作前预先通过实施方式1所示的方法而生成部件10的抓持位置姿态,示教给机器人200。
部件10以散装的状态投入至部件投入台110。作为将部件10向部件投入台110投入的方法,除了向固定于部件投入台110的托盘将部件10依次投入的方法以外,还具有将堆满部件10的托盘进行更换的方法及将它们组合的方法。
3维视觉传感器150是用于对在部件投入台110散装的部件10的位置进行识别的传感器。利用3维视觉传感器150的识别结果,从部件投入台110取出1个部件10,直接整齐排列于整齐排列台140,或在无法直接整齐排列的情况下,以部件10彼此不接触的方式设置于临时载置台120。
在这里,无法直接整齐排列的情况是指下述情况,即,部件10的识别结果的精度低,无法进行用于整齐排列的准确的抓持。例如是下述情况,即,部件10的特征点被隐藏,对识别出的部件10的位置姿态产生疑义。另外,是下述情况,即,选择出的抓持位置姿态是不稳定的方法,在通过手部20进行抓持时部件10移动。除此以外,是下述情况,即,部件10的位置姿态没有被识别出,识别能够抓持的空间而进行了抓持。作为能够抓持的空间,如果是抓捏型的手部20,则是供手部20的指部21进入、且在指部21之间存在抓持对象的部件10的空间,如果是吸附型的手部20,则是大于或等于物体的一定面积的平面。另外,根据抓持位置姿态的关系,是手部20及机器人200与周围的设备发生干涉的情况、机器人200由于机械性的限制而无法实现位置姿态的情况。
在上述这样的情况下,判断为无法直接移动至整齐排列台140,部件10设置为在临时载置台120成为稳定姿态。2维视觉传感器160对在临时载置台120上设置的部件10的位置姿态高精度地进行识别。机器人200使用由抓持位置姿态示教装置300生成的抓持位置姿态对部件10进行抓持。机器人200执行动作以使得部件10以预先决定的最终姿态整齐排列于整齐排列台140。
在无法以由抓持位置姿态示教装置300示教的抓持位置姿态使部件10移动至整齐排列台140的情况下,利用倒手夹具130,机器人200将部件10倒手,然后以成为最终姿态的方式移动至整齐排列台140。无法移动的情况是指手部20、机器人200与周围的设备发生干涉的情况、机器人200无法实现位置姿态的情况等。也可以不仅使用倒手夹具130,而是将部件10再次重新载置而倒手于临时载置台120。
根据上述这样的结构,机器人系统100能够将散装的部件10以由抓持位置姿态示教装置300生成的抓持位置姿态进行抓持,整齐排列为所决定出的位置姿态。
此外,在本实施方式中,对将抓持位置姿态示教装置300应用于投入散装的部件10的系统的例子进行了说明,但也能够应用于除此以外的系统,例如不将部件10的姿态进行整齐排列而是以部件10彼此不重叠的方式投入的系统、将部件10的姿态进行整齐排列而投入的系统等。
实施方式3.
参照图16,对用于实施本发明的实施方式3所涉及的抓持位置姿态示教装置进行说明。图16是本实施方式中的抓持位置姿态示教装置300的概略结构图。在图16中,与图1及图2相同的标号表示相同或相当的部分。除了追加了抓持位置姿态数据303及数据库检索部311以外与实施方式1相同。
在本实施方式中,构成为具有数据库检索部311,其将记述有手部20相对于主要的部件10的相对性的位置及姿态的抓持位置姿态数据303收容于存储部31,能够对存储部31的数据库进行检索。
数据库检索部311取得由部件投入姿态计算部310计算出的部件10的投入姿态的数据。而且,对收容有主要的部件10的抓持位置姿态数据303的数据库进行检索。在提取出被判断为能够针对计算出的部件10的投入姿态进行应用的抓持位置姿态数据303的情况下,对投入姿态下的手部20的接近方向和抓持位置姿态数据303的手部20的安装方向之间的角度是否处于容许角度以内进行判定。在判定为抓持位置姿态数据303的抓持位置姿态处于容许角度以内的情况下,将其作为抓持位置姿态而由抓持位置姿态输出部340输出。
在如上所述的结构中,也与实施方式1同样地,能够针对部件10的每个投入姿态而至少生成1个抓持位置姿态。并且在本实施方式中,具有数据库检索部311,其将抓持位置姿态数据303收容于存储部31,对存储部31的数据库进行检索,因此在能够应用于部件10的抓持位置姿态数据303登记于数据库的情况下,能够将该抓持位置姿态数据303作为部件10的抓持位置姿态进行输出。
作为处理工序,通过部件投入姿态计算部310计算投入姿态(步骤S1),通过数据库检索部311对包含抓持位置姿态数据303的数据库进行检索(步骤S2)。在能够应用的抓持位置姿态数据303被提取出的情况下,省略抓持姿态选定部320、抓持位置区域提取部330及抓持位置姿态输出部340的处理,通过抓持位置姿态输出部340进行输出(步骤S3)。在能够应用的抓持位置姿态数据303没有被提取的情况下,进行与实施方式1相同的处理。
通过执行以上的处理工序,从而能够与实施方式1同样地根据部件形状数据301和手部数据302,针对部件10的每个投入姿态而生成1个抓持位置姿态。并且,在能够应用于部件10的抓持位置姿态数据303已被登记的情况下,能够省略抓持姿态选定部320、抓持位置区域提取部330及抓持位置姿态输出部340中的处理,将该抓持位置姿态数据303从抓持位置姿态输出部340进行输出。
实施方式4.
参照图17,对用于实施本发明的实施方式4所涉及的抓持位置姿态示教装置进行说明。图17是本实施方式中的概略结构图。在图17中,与图1及图2相同的标号表示相同或相当的部分。抓持位置姿态示教装置300除了追加了抓持姿态数据304和抓持姿态输入部321以外与实施方式1相同。
在本实施方式中,如图17所示,构成为具有抓持姿态输入部321,其输入抓持姿态数据304。
抓持姿态数据304是记述有手部20相对于部件10的抓持姿态的数据。抓持姿态数据304的数据形式可以与由抓持姿态选定部320输出的姿态相同,也可以是单独的形式。在是单独的形式的情况下,能够通过抓持姿态输入部321变更为与抓持姿态选定部320相同的数据形式。
抓持姿态输入部321可以导入抓持姿态数据304,也可以使用GUI而使用户进行输入。GUI例如具有部件10、手部20的3D显示画面、进行抓持姿态的输入的输入按钮等。
在如上所述的结构中,也与实施方式1同样地,能够针对部件10的每个投入姿态而至少生成1个抓持位置姿态。并且,根据本实施方式,具有抓持姿态输入部321,由此能够根据要处理的部件10、手部20的特征而由用户直接指定抓持姿态。
作为处理工序,通过部件投入姿态计算部310计算投入姿态(步骤S1),针对每个投入姿态而通过抓持姿态输入部321输入抓持姿态数据304(步骤S2)。在输入了抓持姿态数据304的情况下,省略抓持姿态选定部320,通过抓持位置区域提取部330、抓持位置姿态输出部340按照实施方式1中记载的方法进行处理,通过抓持位置姿态输出部进行输出(步骤S3)。在没有输入抓持姿态数据304的情况下,进行与实施方式1相同的处理。
通过执行以上的处理工序,从而能够与实施方式1同样地根据部件形状数据301和手部数据302,针对部件10的每个投入姿态而生成1个抓持位置姿态并输出。并且,在通过抓持姿态输入部321输入了抓持姿态数据304的情况下,能够省略抓持姿态选定部320的处理,生成抓持位置姿态。
实施方式5.
参照图18,对用于实施本发明的实施方式5所涉及的抓持位置姿态示教装置进行说明。图18是本实施方式中的概略结构图。在图18中,与图1及图2相同的标号表示相同或相当的部分。除了追加了抓持位置姿态调整部341以外与实施方式1相同。
在本实施方式中,如图18所示,构成为具有抓持位置姿态调整部341,其对抓持位置姿态进行调整。抓持位置姿态调整部341将抓持位置姿态提示给用户,并且用户基于被提示的信息对抓持位置姿态进行调整。
作为公布抓持位置姿态及对其进行调整的方法,可以使用GUI。GUI例如具有部件10、手部20的3D显示画面、进行手部20的位置姿态的变更及抓持位置姿态的输入的输入按钮等。在抓持位置姿态调整部341中,可以设为将特定的抓持位置区域提示给用户,仅能够对其范围内位置进行调整。
在如上所述的结构中,也能够与实施方式1同样地,针对部件10的每个投入姿态而至少生成1个抓持位置姿态。并且,根据本实施方式,由于具有抓持位置姿态调整部341,因此能够由用户对输出的抓持位置姿态进行调整。
此外,在实施方式1至5中,对手部20具有夹着部件10而抓持的多个手指的指部21的情况进行了说明,但也可以设为吸附而抓持部件10的吸附手部。在图19示出吸附手部的一个例子。吸附手部20的上部安装于机器人200的手腕部22。在吸附手部20的下部具有对部件10进行吸附的圆状的吸附部24,通过吸附部24将部件10吸附而抓持。在抓持姿态选定部320中,将手部20的抓持面作为吸附部24而选定抓持姿态。在抓持位置区域提取部330及抓持位置姿态输出部340中,也与具有上述指部21的手部20同样地进行处理。
另外,在实施方式1至5中,示出了将机器人200和抓持位置姿态示教装置300分体地设置的例子,但也可以构成为将具有与抓持位置姿态示教装置300同等功能的示教部装入至机器人控制部202。
标号的说明
100机器人系统,200机器人,300抓持位置姿态示教装置,10部件,20手部,310部件投入姿态计算部,320抓持姿态选定部,330抓持位置区域提取部,340抓持位置姿态输出部。
Claims (11)
1.一种抓持位置姿态示教装置,其特征在于,具有:
部件投入姿态计算部,其根据表示部件的形状的部件形状数据而对所述部件的姿态进行分类及计算,生成为多个投入姿态;
抓持姿态选定部,其根据表示手部的形状的手部数据而针对每个所述投入姿态对所述手部的抓持姿态进行选定;
抓持位置区域提取部,其将以所述抓持姿态抓持所述部件的所述手部的抓持面及被所述手部抓持的所述部件的被抓持面分别一致的位置汇总得到的区域,作为抓持位置区域进行提取;以及
抓持位置姿态输出部,其选定在所述抓持位置区域内由所述手部抓持所述部件的抓持位置,将所述抓持姿态下的所述抓持位置作为所述手部的抓持位置姿态而针对每个所述投入姿态至少输出1个,
所述抓持姿态选定部在针对所述部件的每个所述投入姿态使所述手部的接近方向及从所述手部的安装部朝向所述手部的前端的方向一致时,将所述手部的所述抓持面的法线和所述部件的各面的法线所成的角度处于规定的容许角度以内的所述部件的面作为所述被抓持面进行提取,将所述手部的所述抓持面的法线和所述部件的所述被抓持面的法线重合时的所述手部的姿态作为所述抓持姿态而针对每个所述投入姿态进行选定。
2.根据权利要求1所述的抓持位置姿态示教装置,其特征在于,
所述部件投入姿态计算部在所述部件的朝向的范围对所述部件的姿态进行分类,生成为所述投入姿态。
3.根据权利要求1或2所述的抓持位置姿态示教装置,其特征在于,
所述部件投入姿态计算部针对每个稳定姿态对所述部件的姿态进行分类,生成为所述投入姿态。
4.根据权利要求1或2所述的抓持位置姿态示教装置,其特征在于,
所述抓持位置姿态输出部使提示进行所述投入姿态下的所述抓持位置的选择的显示在显示部进行显示,将由用户选择出的所述投入姿态下的抓持位置作为所述抓持位置姿态进行选定。
5.根据权利要求1或2所述的抓持位置姿态示教装置,其特征在于,
所述抓持位置姿态输出部,在从所述抓持位置区域提取部提取出的多个所述抓持位置区域中,将最广的所述抓持位置区域或与所述手部的接触面的数量多的所述抓持位置区域,作为所述抓持位置区域进行选定。
6.根据权利要求1或2所述的抓持位置姿态示教装置,其特征在于,
所述抓持位置姿态输出部,将所述抓持位置区域的重心或与所述部件的重心接近的所述抓持位置区域内的位置,作为所述抓持位置进行选定。
7.根据权利要求1或2所述的抓持位置姿态示教装置,其特征在于,
具有数据库检索部,该数据库检索部对具有表示所述手部相对于所述部件的位置姿态的抓持位置姿态数据的数据库进行检索,在相对于由所述部件投入姿态计算部计算出的所述投入姿态能够应用的所述抓持位置姿态数据被提取出的情况下,将所述抓持位置姿态数据作为所述手部的所述抓持位置姿态进行输出。
8.根据权利要求1或2所述的抓持位置姿态示教装置,其特征在于,
具有抓持姿态输入部,该抓持姿态输入部被输入表示所述手部相对于所述部件的姿态的抓持姿态数据。
9.根据权利要求1或2所述的抓持位置姿态示教装置,其特征在于,
具有抓持位置姿态调整部,该抓持位置姿态调整部对由所述抓持位置姿态输出部输出的所述手部的所述抓持位置姿态进行调整。
10.一种抓持位置姿态示教方法,其特征在于,具有下述步骤:
部件投入姿态计算步骤,根据表示部件的形状的部件形状数据而对所述部件的姿态进行分类及计算,生成为多个投入姿态;
抓持姿态选定步骤,根据表示手部的形状的手部数据而针对每个所述投入姿态对所述手部的抓持姿态进行选定;
抓持位置区域提取步骤,将以所述抓持姿态抓持所述部件的所述手部的抓持面及被所述手部抓持的所述部件的被抓持面分别一致的位置汇总得到的区域,作为抓持位置区域进行提取;以及
抓持位置姿态输出步骤,选定在所述抓持位置区域内由所述手部抓持所述部件的抓持位置,将所述抓持姿态下的所述抓持位置作为所述手部的抓持位置姿态而针对每个所述投入姿态至少输出1个,
所述抓持姿态选定步骤在针对所述部件的每个所述投入姿态使所述手部的接近方向及从所述手部的安装部朝向所述手部的前端的方向一致时,将所述手部的所述抓持面的法线和所述部件的各面的法线所成的角度处于规定的容许角度以内的所述部件的面作为所述被抓持面进行提取,将所述手部的所述抓持面的法线和所述部件的所述被抓持面的法线重合时的所述手部的姿态作为所述抓持姿态而针对每个所述投入姿态进行选定。
11.一种机器人系统,其特征在于,具有:
权利要求1至9中任一项所述的抓持位置姿态示教装置,其根据部件形状数据及手部数据而生成手部的抓持位置姿态;
传感器,其对与被投入的部件的位置及姿态相关的信息进行识别;以及
机器人,其基于来自所述传感器的信息及由所述抓持位置姿态示教装置生成的所述抓持位置姿态而对所述部件进行抓持。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/035937 WO2019069361A1 (ja) | 2017-10-03 | 2017-10-03 | 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111163907A CN111163907A (zh) | 2020-05-15 |
CN111163907B true CN111163907B (zh) | 2022-11-25 |
Family
ID=65037057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780095375.2A Active CN111163907B (zh) | 2017-10-03 | 2017-10-03 | 抓持位置姿态示教装置、抓持位置姿态示教方法及机器人系统 |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP6456557B1 (zh) |
CN (1) | CN111163907B (zh) |
DE (1) | DE112017007903B4 (zh) |
TW (1) | TWI649169B (zh) |
WO (1) | WO2019069361A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021177239A1 (ja) * | 2020-03-05 | 2021-09-10 | ファナック株式会社 | 取り出しシステム及び方法 |
DE102022203410A1 (de) | 2022-04-06 | 2023-10-12 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Steuern einer Robotervorrichtung |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3782679B2 (ja) | 2001-05-09 | 2006-06-07 | ファナック株式会社 | 干渉回避装置 |
JP4235214B2 (ja) * | 2006-07-04 | 2009-03-11 | ファナック株式会社 | ロボットプログラムを作成するための装置、プログラム、記録媒体及び方法 |
JP4226623B2 (ja) | 2006-09-29 | 2009-02-18 | ファナック株式会社 | ワーク取り出し装置 |
JP2009078310A (ja) * | 2007-09-25 | 2009-04-16 | Seiko Epson Corp | ロボット用ハンド及びロボット用ハンドの制御方法並びにロボット用ハンドの制御システム |
JP4835616B2 (ja) | 2008-03-10 | 2011-12-14 | トヨタ自動車株式会社 | 動作教示システム及び動作教示方法 |
WO2010092981A1 (ja) * | 2009-02-12 | 2010-08-19 | 三菱電機株式会社 | 産業用ロボットシステム |
JP5685027B2 (ja) | 2010-09-07 | 2015-03-18 | キヤノン株式会社 | 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム |
JP5879704B2 (ja) * | 2011-03-10 | 2016-03-08 | 富士電機株式会社 | ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法 |
CN104245243B (zh) * | 2012-04-25 | 2016-05-25 | 松下知识产权经营株式会社 | 多关节机器人的机构误差的校正方法 |
JP5620445B2 (ja) | 2012-09-13 | 2014-11-05 | ファナック株式会社 | 選択条件に基づいてロボットの保持位置姿勢を決定する物品取出装置 |
JP2016093879A (ja) * | 2014-11-17 | 2016-05-26 | 富士通株式会社 | 把持計画決定プログラム、把持計画決定方法および設計支援装置 |
CN105598965B (zh) * | 2015-11-26 | 2018-03-16 | 哈尔滨工业大学 | 基于立体视觉的机器人欠驱动手自主抓取方法 |
-
2017
- 2017-10-03 JP JP2018519496A patent/JP6456557B1/ja active Active
- 2017-10-03 CN CN201780095375.2A patent/CN111163907B/zh active Active
- 2017-10-03 DE DE112017007903.9T patent/DE112017007903B4/de active Active
- 2017-10-03 WO PCT/JP2017/035937 patent/WO2019069361A1/ja active Application Filing
-
2018
- 2018-01-30 TW TW107103224A patent/TWI649169B/zh not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
JPWO2019069361A1 (ja) | 2019-11-14 |
JP6456557B1 (ja) | 2019-01-23 |
WO2019069361A1 (ja) | 2019-04-11 |
DE112017007903B4 (de) | 2022-04-14 |
DE112017007903T5 (de) | 2020-05-14 |
CN111163907A (zh) | 2020-05-15 |
TWI649169B (zh) | 2019-02-01 |
TW201914782A (zh) | 2019-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6429450B2 (ja) | 情報処理装置、情報処理方法 | |
US11511415B2 (en) | System and method for robotic bin picking | |
US10286557B2 (en) | Workpiece position/posture calculation system and handling system | |
JP6892286B2 (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
EP2302581A1 (en) | Finger shape estimating device, and finger shape estimating method and program | |
US20110122228A1 (en) | Three-dimensional visual sensor | |
JP2014161965A (ja) | 物品取り出し装置 | |
KR20130102080A (ko) | 워크 취출 장치 | |
US20130054030A1 (en) | Object gripping apparatus, object gripping method, and object gripping program | |
WO2020190166A1 (ru) | Способ и система захвата объекта с помощью роботизированного устройства | |
Wada et al. | Reorientbot: Learning object reorientation for specific-posed placement | |
Suzuki et al. | Grasping of unknown objects on a planar surface using a single depth image | |
JP2018051652A (ja) | ロボットシステム | |
JP6598814B2 (ja) | 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法 | |
Jiang et al. | Learning hardware agnostic grasps for a universal jamming gripper | |
JP7275759B2 (ja) | 物体検出方法、物体検出装置およびロボットシステム | |
JP2017124450A (ja) | ピックアップ装置 | |
JP6902369B2 (ja) | 提示装置、提示方法およびプログラム、ならびに作業システム | |
CN111163907B (zh) | 抓持位置姿态示教装置、抓持位置姿态示教方法及机器人系统 | |
WO2022014312A1 (ja) | ロボット制御装置、およびロボット制御方法、並びにプログラム | |
TW202122225A (zh) | 使用先進掃描技術之用於機器人箱揀取的系統及方法 | |
WO2017119088A1 (ja) | ロボットシステムおよび制御方法 | |
JP2017202549A (ja) | ロボット制御装置、ロボット、及びロボットシステム | |
Hafiane et al. | 3D hand recognition for telerobotics | |
WO2018135326A1 (ja) | 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |