CN1754666A - 机器人程序生成装置以及解析装置 - Google Patents
机器人程序生成装置以及解析装置 Download PDFInfo
- Publication number
- CN1754666A CN1754666A CNA2005101082512A CN200510108251A CN1754666A CN 1754666 A CN1754666 A CN 1754666A CN A2005101082512 A CNA2005101082512 A CN A2005101082512A CN 200510108251 A CN200510108251 A CN 200510108251A CN 1754666 A CN1754666 A CN 1754666A
- Authority
- CN
- China
- Prior art keywords
- workpiece
- unit
- measuring
- measuring point
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35346—VMMC: virtual machining measuring cell simulate machining process with modeled errors, error prediction
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37205—Compare measured, vision data with computer model, cad data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37208—Vision, visual inspection of workpiece
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
在机器人模拟器的画面上显示工件模型(或图像)(201)并通过指定测量部位/方法(202、203)、指定工件形状、装载状态等(204)来判定测量部位/方法的优劣(205)。如果为优则生成程序并结束处理(207、208)。如果为劣则发警告(206)并指示继续进行处理(207)或进行修改(201)。在程序解析时,进行安装(101)、解析并显示测量部位/测量方法(102、103)、指定工件信息(104),然后判定已解析的测量部位/测量方法的优劣(105)。如果为优则结束处理(107),如果为劣则发警告(106)并选择结束处理(107)或修正程序(201)。由此,可减轻视觉传感器机器人系统的启动/维护管理负担。
Description
技术领域
本发明涉及一种进行机器人程序生成以及解析的装置。若进一步详述的话,本发明涉及一种机器人程序生成装置,其生成用于高效启动使用机器人和视觉传感器的生产系统的机器人程序,或者生成用于启动后的维持管理的机器人程序,,以及涉及解析这样的机器人程序的机器人程序解析装置。
背景技术
将固定的摄像机,或者安装在机器人上的摄像机作为视觉传感器的摄像单元与机器人一起使用,依次取出尚未排列的多个部件,并搬运到下一个工序,在包含这些过程的生产系统中,目前在顺利地设定了各种条件的条件下,部分已经被实用化了。特别是最近,这样对尚未排列的多个部件进行处理的机器人视觉传感器系统已经从试验阶段进入普及阶段,可以看到其适用范围在向各种各样的应用领域扩大。比如,像特开2003-34430号公报所公布的那样,以往实现困难的系统也已开始实际地运行。
但是,在使用了上述视觉传感器的应用中,必须在考虑其作业的目的、工件的大小、形状的同时,选择视觉传感器的测量部位或测量方法,该负担变大。比如,为了进行由机械手把持长度为2m的工件的两端的作业,假设使用以视野角度表示的测量精度为0.5度的视觉传感器的情况。在使用测量精度为0.5度的视觉传感器仅测量工件的一端后抓紧工件两端的情况下,另一端的抓紧误差为大于等于17mm(2000mm×2×π×0.5/360)。所以,选择这样的测量部位乃至测量方法,在不使用可吸收误差的机械手机构的情况下是不适当的,进行工件的另一端的测量,也必须减轻测量的误差。
而且,在作为测量部位的特征部分的形状的个体差别很大,在无法保障检测精度的情况下,必须将该特征部分排除在测量部位之外,必须将其他的特征部分设定为测量部位。
这样,为了适当地确定测量部位或者测量方法,就必须考虑工件的大小、形状以及他们的参差不齐、视觉传感器的精度、机械手机构的特性等诸多条件。但实际的情况为,目前在现场启动系统时,需要反复地进行尝试。而且,在用户不能对这些考虑的必要条件和测量部位或者测量方法的关系进行正确的理解就启动系统的情况下,即便是最初由于运气好系统可以正常地进行动作,也会在以后发生故障(比如一天系统停止一次等)并会产生难以确定其故障产生的原因的问题。这样的问题加重了用户的负担,也成为阻碍引进视觉传感器机器人系统的原因。
发明内容
本发明的目的在于提供一种可以解决现有技术上的这些问题的机器人程序生成装置或对生成的机器人程序进行解析的机器人程序解析装置。即,本发明,比如在机器人模拟器那样的进行机器人的示教程序的生成、解析的装置中加入使用视觉传感器时的经验,通过对工件尺寸、测量位置、测量条件、修正方法等进行提案和判断,将减轻用户的示教负担。
本发明首先通过生成机器人的动作程序的机器人程序生成装置来解决上述课题。
在方式1的机器人程序生成装置中,设有:显示工件的模型的单元;在所述被显示的模型上,指定视觉传感器的测量部位的单元;指定对所述测量部位的测量方法的单元;指定关于所述工件的信息的单元;对应该被指定的信息,对用于判定测量部位的优劣以及/或者测量方法的优劣的基准信息进行存储的单元;根据该基准信息,判定所述被指定的测量部位以及/或者测量方法的优劣的单元;根据所述被指定的测量部位以及/或者测量方法,生成机器人程序的单元,所述机器人程序包含执行所述被指定的测量部位的测量的测量命令、以及/或者执行遵照所述被指定的测量方法的测量的测量命令。
在方式2的机器人程序生成装置中,设有:显示预先摄制的工件的图像的单元;在所述被显示的图像上,指定视觉传感器的测量部位的单元;指定对上述测量部位的测量方法的单元;指定关于上述工件的信息的单元;对应关于该工件的信息,对用于判定测量部位的优劣以及/或者测量方法的优劣的基准信息进行存储的单元;根据该基准信息,判定所述被指定的测量部位以及/或者测量方法的优劣的单元;和根据所述被指定的测量部位以及/或者测量方法,生成机器人程序的单元,所述机器人程序包含执行所述被指定的测量部位的测量的测量命令、以及/或者遵照所述被指定的测量方法执行测量的测量命令。
在这些发明中,关于所述工件的信息可以至少包含工件的尺寸、工件的材质、工件的把持方法、工件的装载状态中的一种(方式3)。而且,作为机器人程序生成装置,可以采用具备执行机器人程序的模拟功能的机器人模拟器(方式4)。
然后,本发明通过解析机器人的动作程序的机器人程序解析装置来解决上述课题。
在方式5的机器人程序解析装置中,设有:输入机器人程序并进行解析的单元;显示工件的模型的单元;在所述被显示的模型上通过所述解析的程序,显示视觉传感器的测量部位的单元;显示对所述测量部位的测量方法的单元;指定关于所述工件的信息的单元;与关于该工件的信息相对应地对用于判定测量部位的优劣以及/或者测量方法的优劣的基准信息进行存储的单元;根据该基准信息,判断所述程序的测量部位以及/或者测量方法的优劣的单元。
而且,在方式6的机器人程序解析装置中,设有:输入机器人程序并进行解析的单元;显示预先摄制的工件的图像的单元;在所述工件的图像上通过所述解析的程序,显示视觉传感器的测量部位的单元;显示对所述测量部位的测量方法的单元;指定关于所述工件的信息的单元;与关于该工件的信息相对应地对用于判定测量部位的优劣以及/或者测量方法的优劣的基准信息进行存储的单元;根据该基准信息,判定所述程序的测量部位以及/或者测量方法的优劣的单元。
对于这些机器人程序解析装置,关于所述工件的信息可以至少包含工件的尺寸、工件的材质、工件的把持方法、工件的装载状态中的一种(方式7)。
而且,可以将具备执行机器人程序的模拟的功能的机器人模拟器作为机器人解析装置来使用(方式8)。
如果要说明本发明的大概作用,则如下所述。
本发明的机器人程序生成装置(方式1~4)对工件的模型图,或者摄制的工件的图像进行显示,并在其上指定工件的测量方法或测量部位,而且,通过指定关于工件的信息,来判定工件的测量方法或测量部位是否合适。而且,如果这些合适,则生成包含进行测量的命令的机器人程序。
而且,本发明的机器人程序解析装置(方式5~8),读入机器人程序并进行解析,显示工件的模型图,或者显示摄制的工件的图像,并在其上显示工件的测量方法或测量部位。而且,通过指定关于工件的信息,来判定工件的测量方法或测量部位是否合适。
根据本发明的机器人程序生成装置,用户可以事先进行以往在现场通过尝试进行的测量部位或测量方法的妥当性的判断。而且,根据本发明的机器人程序解析装置,在构筑系统之后也可以进行该妥当性的验证,从而可以容易地确定运行中的系统的故障原因。
而且,通过以上各种各样的效果,可以减轻使用视觉传感器的系统的用户负担,期待产生促进系统引进的效果。
下面,参照附图和实施方式对本发明的特性和优点进行更为详细的说明。
附图说明
图1是表示本发明实施方式的全体结构的概要图。
图2表示在实施方式中执行的处理的流程图。
图3表示在实施方式中图像显示的工件模型(或者工件图像)与测量部位的例子。
图4是实施方式中关于工件信息的指定例子的说明图。
图5a、图5b是实施方式中用于对测量误差进行诊断的处理的流程图。
图6是实施方式中用于对把持偏移进行诊断的处理的流程图。
图7是实施方式中用于对工件弯曲的影响进行诊断的处理的流程图。
图8是对实施方式中的诊断全体的流程的概要进行记述的流程图。
图9是在【其他项1】中,对最大把持误差的计算方法进行说明的图。
图10是在【其他项2】中,对最大把持误差的计算方法进行说明的图。
图11是将计算机作为机器人程序生成装置使用时的方框图。
图12是将计算机作为机器人程序解析装置使用时的方框图。
具体实施方式
图1表示本发明一实施方式的全体结构的概要。在该图中,符号1是对工件等物品(省略图示)进行搬运的机器人,将摄像机2以及机械手6安装在其手腕的前端附近。摄像机2作为视觉传感器的传感头发挥作用,由个人计算机3(以下简称为计算机)进行其摄像动作等控制以及摄像图像的处理。机器人1与机器人控制器4连接,机器人控制器4与计算机3由网络线路5连接。
计算机3在联机情况下,作为视觉传感器的控制器发挥作用,而在脱机情况下,作为兼用机器人程序生成装置与机器人程序解析装置的机器人模拟器发挥作用。此外,在计算机3上以周知的形态设置有监视器90(比如液晶显示装置)和手动操作部91(键盘、鼠标等)。监视器90用于在联机以及脱机的情况下显示摄像的画面或者显示对其进行了处理后的图像。而且,监视器90也可以在脱机情况下,用于显示在脱机编程中使用的工件模型以及机器人模型等图像,以及用于显示预先由摄像机2摄制的图像。手动操作部91用于在显示这样的图像的画面上,进行各种画面的输入等。即,手动操作部91起到作为指定测量部位的测量部位指定单元91a、指定测量方法的测量方法指定单元91b、以及指定后述的工件信息的工件信息指定单元91c的作用。
这里,视觉传感器是将摄像机2作为传感头的设备,但根据需要也可以替换为其他种类的视觉传感器,例如使用投射狭缝光那样的参照光,可以识别对象物的三维空间位置、姿势的三维视觉传感器来替换。
图2是把作为机器人模拟器使用的计算机3作为机器人程序生成装置以及机器人程序解析装置发挥作用来实施本发明时的处理概要的流程图。另外,101~107的处理步骤的编号对应作为机器人程序解析装置的功能,201~208的步骤编号对应作为机器人生成装置的功能。另外,为了方便说明,先从标记了200号以上的步骤编号的处理(机器人程序生成装置的功能)开始说明。此时,可以适当参照图11,图11为将计算机作为机器人程序生成装置使用时的方框图。
首先,在机器人模拟器(这里为计算机3;以下相同)的监视器90上进行工件模型的显示(步骤201)。众所周知,这样的显示模型例如可以使用将CAD等设计数据模型化的模型。此外,也可以替代模型,使用摄像机2对与该模型对应的工件进行摄像并获得该数据,将其在监视器90上进行显示(以下也包括显示的模型为图像的情况,使其代表模型)。
然后,在显示的模型上指定测量的部位(步骤202)。该指定由操作者使用鼠标等手动操作部91来进行。但是,在进行指定时,除了操作者任意进行选择的方式以外,也可以采用如下的方式:由机器人模拟器自动地选定判定为设计模型上陡峭的高度差、孔等对比明显的部位,并将其在图像上进行提示,操作者从所提示的部位中进行选择。而且,在使用拍摄的图像时,也可以通过闪烁强调等方式在实际的图像中提示对比明确的部位,操作者从被强调的部位中进行选择。
然后,指定对上述测量部位的测量方法(步骤203)。通常,选择由摄像机2进行的二维测量,或者由三维视觉传感器进行的三维测量中的一种。该制定通过操作者使用键盘等手动操作部91来进行。另外,也可以根据需要反复进行这些(步骤202)、(步骤203)的处理,对多个点进行测量。
然后,使用手动操作部91指定关于工件的信息(以下简称为“工件信息”)(步骤204)。典型的工件信息是通过数值、种类指定的工件尺寸、工件材质、工件的把持方法以及工件的装载状态等数据(具体例子在后面进行叙述)。
然后,对测量部位以及测量方法的优劣进行判定(步骤205)。例如用于测量部位优劣判定的规则为是否可以在该测量部位得到通过视觉传感器可稳定检测的对比。而且,用于测量部位优劣判定的其他规则为例如在工件材质为薄金属板的情况下,由于工件端部容易弯曲,所以将工件端部作为测量部位是不适当的。用于测量方法优劣判定的规则在工件的装载状态稳定的情况下可以是二维测量,但如果装载状态不稳定则必须指定三维测量。而且,用于测量方法优劣判定的其他规则为在大尺寸工件(例如最大直径大于等于1m)的情况下,必须对相互距离为50cm以上的至少两个部位进行测量。而且,用于测量方法优劣判定的其他规则为在把持方法的误差吸收程度较大的情况下,即使是所述大尺寸工件,一个测量部位就足够了。这些规则作为用于判定测量部位以及/或者测量方法优劣的基准信息,被存储在计算机3的存储部92中。而且,根据这些规则由计算机3的优劣判定单元93来判定测量部位以及/或者测量方法的优劣。
在测量部位以及/或者测量方法被判定为优的情况下,使用机器人模拟器的功能脱机生成除了测量动作以外的机器人动作,进而施加与上述设定的测量部位相对的测量方法的读出命令,由计算机3的机器人程序生成单元94生成机器人程序(步骤207)。然后,结束处理(步骤208)。
另一方面,在测量部位以及/或者测量方法被判断为劣的情况下,向操作者发出当前设定不恰当的警告(步骤206),指示是继续进行处理还是进行修改。如果操作者指示“继续进行处理”,则将处理转移到(步骤207)。如果指示“修改处理”,则将处理转移到(步骤201),从头开始进行修改。另外,对于优劣判定的更具体的例子以后再叙述。
然后,对附加了100号以上的步骤编号的处理(机器人程序解析装置的功能)进行说明。此时,可以适当地参照图12,图12为将计算机作为机器人程序解析装置使用时的方框图。
首先,将机器人程序安装到机器人模拟器中(步骤101)。该机器人程序例如为经由上述的处理生成的程序,或者为在实际的系统中试用过但在系统中发生了故障的程序。
然后,机器人模拟器(计算机3的解析装置95)通过已安装的程序对通过怎样的测量方法测量工件的哪个部位进行解析(步骤102)。然后,在监视器90上显示工件的模型,然后,使用测量部位显示单元90a以及测量方法显示单元90b,将已解析的测量位置、测量方法显示在监视器90的模型上(步骤103)。与步骤201一样,被显示的模型例如可以认为是将CAD等设计数据模型化的模型。也可以取代模型显示由摄像机摄制的图像。为了使模型与解析的位置顺利地重叠,例如可以另外存储由机器人模拟器生成该程序时的画面。
然后,制定与工件有关的信息(步骤104)。如前所述,工件信息是预先对工件尺寸、材质、把持方法、装载状态等进行了编码的数据。在步骤104中,操作者通过适当的组合来指定工件信息。
然后,使用优劣判定单元93对已解析的测量部位以及/或者测量方法的优劣进行判定(步骤105)。关于该判定,与上述(步骤205)一样,使用存储在存储部92中的规则(基准信息)来判定优或劣。在判定为优时,原样地结束处理(步骤107)。在判定为劣时,向操作者发出当前程序不恰当的警告(步骤106),并由操作者指示是否修正程序。如果操作者指示“不修正”,则就这样结束(步骤107)。如果操作者指示“进行修正”(步骤201),则将处理转移到(步骤201),并使用与程序生成同样的过程,对程序进行修正。
如上所述,在本发明中,在程序生成(包括修正的情况)、程序解析的任意一种情况下,都要对测量部位/测量方法进行优劣判定。因此,以下的叙述中对该优劣判定进行更为具体地介绍。
【关于测量误差的诊断】
这里的检测项目为是否选择了适合于装载状态的测量方法,以及由所估算的测量误差与设定的允许误差的比较,适当的部位是否为测量的部位。图3表示了具体的工件模型(或者图像;以下相同)。在图3中,由符号W来表示图像显示的工件模型的全体,由符号M表示的测量部位(这里是摄像机2的摄像部位)相当于在所述步骤202中指定的测量部位或者相当于步骤103中的“已解析的测量部位”。点M0是代表测量部位M的点(比如图像重心)。
而且,在图4的右半部表示关于的工件信息。即,通过使用手动操作部91对工件尺寸、工件材质、工件的把持方法、工件的装载指定数值或者种类来进行工件信息的指定。关于工件的尺寸,如图4的左半部广义表示的那样,通过图像处理求出与工件模型外接的长方形,再将显示倍率考虑进去求出纵横尺寸,并使用该数值。另外,在这里记入的数值62mm、112mm是简单的示例。
对于工件的材质,例如指定为像薄金属板那样容易弯曲的材质,或是像铸造件那样不易弯曲的材质的种类。这里作为一个例子,指定了前者。
关于工件的把持方法,在由视觉传感器进行位置检测时,在可以允许的位置误差存在(比如图3中的点M0的检测位置的误差)界限或者可以允许的倾斜误差(比如图3中的工件W的倾斜的检测误差)存在界限的情况下,操作者输入关于这些界限的数值。另外,这些数值根据机械手机构的性能而决定。如果可以通过足够大的误差吸收能力进行工件的定位,那么如同在这里举例表示的那样,指定“机械手定位”的种类。
关于工件的装载状态,根据工件的安放方法的不规则的程度,可以指定三种类别,即:“偏差在误差之内”(各个工件被大体正确地定位);“偏差在允许误差之内”(各个工件被大体正确地定位);“存在允许误差以上的二维的偏差”(高度位置大体一定,但平面上的位置不确定);“存在允许误差以上的三维偏差”(所谓散乱装载状态)。这里作为一个例子,指定了“存在允许误差以上的三维偏差”。
图5a、图5b是用于进行关于测量误差的诊断的处理的流程图。首先,作为准备读取指定了哪几个测量部位,然后,根据包含在工件信息中的装载状态的设定内容来区别以后的处理(步骤301)。如果装载状态的设定状态为“允许误差内的偏差”(步骤302),则就这样结束(步骤319)。
如果装载状态的设定为“允许误差以上的二维的偏差”(步骤303),则根据预先估算的测量精度和工件尺寸来计算把持误差(步骤305)。这里,可以只考虑位置误差。计算方法的例子由【其他项1】以后再介绍。将把持误差与在把持方法的设定中已设定的允许误差(位置误差以及倾斜误差的界限)进行比较(步骤306)。如果把持误差不大于允许误差,则就这样结束(步骤319)。如果把持误差大于允许误差,则进入到步骤307,判定是否存在第二点的测量部位,如果没有第二点的测量部位,则在设置错误标志2之后(步骤318)结束处理(步骤319)。
如果存在第二点的测量部位,则根据第一点以及第二点的测量部位(代表点)的位置、测量的精度以及工件的尺寸,计算抓紧工件两端时的最大把持误差(步骤308)。计算方法的例子,由【其他项1】以后再介绍。将把持误差与在把持方法的设定中已设定的允许误差(位置误差以及倾斜误差的界限)进行比较(步骤309)。如果把持误差不大于允许误差,则就这样结束(步骤319)。如果不是这样,则在设置错误标志2之后(步骤318)结束处理(步骤319)。
如果在步骤301中,如果装载状态的设定为“允许误差以上的三维偏差”(步骤304),则检查第一点的测量部位的测量方法是否为3D测量(三维测量)(步骤310),如过不是3D测量的测量,即如果是2D测量,则建立错误标志1(步骤311),根据预先估算的测量精度和工件尺寸来计算抓紧工件两端时的最大把持误差(步骤312)。如果第一点的测量部位的测量方法是3D测量,则不建立错误标志1而进入到步骤312,并同样地计算把持误差。此时,对位置误差和倾斜误差的任意一种都必须进行诊断。这种情况的计算方法的例子在【其他项2】中介绍。
然后,将把持误差与在把持方法的设定中已设定的允许误差(位置误差以及倾斜误差的界限)进行比较(步骤313),在把持误差不大于允许误差的情况下,就这样结束处理(步骤319)。
在把持误差大于允许误差的情况下,检查有没有第二点以后的测量部位(步骤314)。如果没有第二点以后的测量部位,则建立错误标志2(步骤318),并结束处理(步骤319)。在把持误差大于允许误差,并且存在第二点以后的测量部位的情况下,检查这些测量部位的测量方法是否为3D测量(步骤315)。如果这些测量部位的测量方法中的某一个不是3D测量,则建立错误标志2(步骤318),并结束处理(步骤319)。如果这些测量部位的测量方法全部是3D测量,则对于这些点根据预先估算的测量精度和工件尺寸,来计算抓紧工件两端时的最大的把持误差(步骤316)。
然后,将把持误差与在把持方法的设定中已设定的允许误差(位置误差以及倾斜误差的界限)进行比较(步骤317),当把持误差不大于允许误差的情况下,就这样结束处理(步骤319)。在把持误差大于允许误差的情况下,则建立错误标志2(步骤318),并结束处理(步骤319)。
通过以上,关于测量误差的诊断结束。如果没有建立错误标志1、2中的任何一个则诊断结果为『优』,如果建立了错误标志1、2中的任何一个则诊断结果为『劣』。
“关于把持偏差的诊断”
在把持工件后工件与机械手产生偏移的情况下,不管能否正确地抓紧工件,在将工件搬运到下一个工序时,发生故障的可能性升高。因此,通过图6的流程图所表示的顺序进行其诊断。即,判定是否设定了把持方法的“在机器手具有定位机构”(参照图4)(步骤401),如果已经设定,则就这样结束处理(步骤403)。如果没有设定,则在设定错误标志3之后(步骤402)结束处理(步骤403)。
“有关工件弯曲的影响的诊断”
比如由薄金属板那样的材料形成的工件,其周边部分容易弯曲。这样的弯曲在每次的测量中会产生无法预测的误差。因此,通过图7的流程图所表示的顺序对这些弯曲产生影响的可能性进行诊断。
即,判断在工件材料的设定中是否选择了”容易弯曲”(步骤501)(参照图4)。如果没有选择,则结束处理(步骤505)。在选择了”容易弯曲”的情况下,判断工件的大小是否比一定值大(步骤502)。作为判断方法,可以将工件的纵横分别与各自的一定值(预先设定的上限值)进行比较,也可以将纵×横与其上限值进行比较。如果没有超过,则结束处理(步骤505)。
在工件的大小大于一定值时,对所有的测量部位检查这些测量部位是否与工件的周围很近(步骤503)。例如,可以对所有的测量部位判断与边缘线的距离是否未达到一定值(预先设定的下限值)。如果为一定值以上(即,距离周边部较远),就认为该测量部位很难受到弯曲的影响,结束处理(步骤505)。如果为一定值以下(即,距离周边部较近),则认为该测量部位容易受到弯曲的影响,建立错误标志4(步骤504)且结束处理(步骤505)。
然后,使用图8的流程图对包含上述所有诊断的诊断全体的流程进行说明。
首先,清除所有的错误标志(步骤601)。然后输入预先估算的测量精度的数据(步骤602)。接着,进行上述与测量误差有关的诊断(步骤603)、与把持偏差有关的诊断(步骤604)、与测量部位(弯曲影响)有关的诊断(步骤605)。由于已经对这些诊断的内容进行了说明,因此不再重复。
在所有的诊断结束后,显示其结果。即,按顺序检查是否建立了错误标志1~4(步骤606、608、610、612),如果建立了错误标志,就将与其对应的消息显示到监视器90上(步骤607、609、611、613),结束处理。
即,如果建立了错误标志1,就意味着本来必须进行3D测量的部位却进行了2D测量。在其部位为点A时,例如显示“点A的测量不是3D测量”这样的消息。
而且,如果建立了错误标志2,则意味着在现在的测量部位上没有满足允许精度,例如显示“请将测量部位再离开一些”的消息。
在建立了错误标志3时,意味着即便抓紧工件,但在将工件放置到其后的工序之前能够完全偏移,所以例如显示“在放置之前请再次使用视觉传感器进行修正,或者在机械手设置定位机构”这样的消息。
然后,在建立了错误标志4时,意味着正在测量的部位由于弯曲的影响可能会产生每次无法预测的误差,所以例如显示“请将测量部位从周边部再离开一些”的消息。
最后,设置“其他项1”、“其他项2”对所述步骤305、312等(参照图5a、图5b)最大把持误差的计算方法,进行说明。
“其他项1”
如图9所示,在工件尺寸的设定中,将工件的纵、横的数值中大的一方设为a。估算的测量误差设为由位置误差Ep、旋转(倾斜)误差Er组成。由测量误差产生的把持误差实际上依存于测量部位和把持部位,但在这里将问题简单化,设测量部位为工件的单侧,在由机械手抓紧工件的相反侧的一端时,对将会产生多大的误差进行估算。在该假定下求出的误差在几乎所有情况下,都比实际的把持误差要大,将其作为用于进行误差允许量比较的值来使用是没有问题的。另外,这里仅仅涉及到二维的误差,因此与倾斜误差没有关系。
(1)在测量部位只有一个部位的情况下
将测量中没有误差时的把持位置设为P(矢量;以下同),将含有误差时的把持位置设为P’(矢量;以下同),如果认为旋转误差Er是极小的量,那么
|P-P’|=|Ep|+a|Er|为要求出的值。另外,记号| |表示绝对值。
(2)在测量部位为多个部位时
在多个部位中,选择这些多个部位之间的距离最大的组,将该距离设为D。与上述(1)的情况相同,如果将测量中没有误差时的把持位置设为P、将包含误差时的把持位置设为P’,那么这里仅与Ep有关系,
|P-P’|=|Ep|(2a/D-1)或者|P-P’|=|Ep|中较大的一方为要求出的值。
“其他项2”
如图10所示,在工件尺寸的设定中,将纵、横的数值中大的一方设为a。估算的测量误差设为由位置误差Ep、倾斜误差Ei、旋转误差Er组成。与其他项1的叙述相同,由测量误差产生的把持误差实际上依存于测量部位和把持部位,但在这里将问题简单化,设测量部位为工件的单侧,对在抓紧工件的相反侧的一端时将会产生多大的误差进行估算。该误差在几乎所有情况下,都比实际的把持误差要大,将其作为用于进行误差允许量比较的值来使用是没有问题的。
例如,即使位置正确,倾斜误差也和在没有与工件表面相垂直地把持工件时无法顺利地抓紧工件的情况有关。倾斜误差根据上述的定义设为|Ei|。
(1)在测量部位只有一个部位的情况下
将测量中没有误差时的把持位置设为P,将含有误差时的把持位置设为P’,如果认为倾斜误差Ei、旋转误差Er是极小的量,那么,
|P-P’|=|Ep|+a{(Er)2+(Ei)2}1/2为要求出的值。
(2)在测量部位为多个部位时
在多个部位中,选择这些多个部位之间的距离最大的组,将该距离设为D。如果将测量中没有误差时的把持位置设为P、将包含误差时的把持位置设为P’,那么这里只有Ep与要求出的最大把持误差有关系,
|P-P’|=|Ep|(2a/D-1)或者|P-P’|=|Ep|中的大的一方为要求出的值。
以上,通过具体的例子描述和展示了本发明,可以看出基于这些技术和各种其他的变化,只要不违反和超出本发明的主旨和范围,具体的实施方式可以进行各种删除和添加。
Claims (8)
1.一种机器人程序生成装置(3),生成机器人(1)的动作程序,其特征在于,
具有:
显示工件(W)的模型的单元(90);
在所述被显示的模型上,指定视觉传感器(6)的测量部位的单元(91a);
指定对所述测量部位的测量方法的单元(91b);
指定关于所述工件(W)的信息的单元(91c);
与该指定的信息相对应地对用于判定测量部位的优劣以及/或者测量方法的优劣的基准信息进行存储的单元(92);
根据该基准信息,对所述被指定的测量部位以及/或者测量方法的优劣进行判定的单元(93);和
根据所述被指定的测量部位以及/或者测量方法,生成包含实行所述被指定的测量部位的测量的测量命令、以及/或者遵照所述被指定的测量方法实行测量的测量命令的机器人程序的单元(94)。
2.一种机器人程序生成装置(3),生成机器人(1)的动作程序,其特征在于,
具有:
显示预先摄制的工件(W)的图像的单元(90);
在所述被显示的图像上,指定视觉传感器(6)的测量部位的单元(91a);
指定对所述测量部位的测量方法的单元(91b);
指定关于所述工件(W)的信息的单元(91c);
与关于该工件(W)的信息相对应地对用于判定测量部位的优劣以及/或者测量方法的优劣的基准信息进行存储的单元(92);和
根据该基准信息,对所述被指定的测量部位以及/或者测量方法的优劣进行判定的单元(93);
根据所述被指定的测量部位以及/或者测量方法,生成包含实行所述被指定的测量部位的测量的测量命令、以及/或者遵照所述被指定的测量方法而实行测量的测量命令的机器人程序的单元(94)。
3.根据权利要求1或2所述的机器人程序生成装置,其特征在于,关于所述工件(W)的信息是至少包含工件的尺寸、工件的材质、工件的把持方法、工件的装载状态中的一种的信息。
4.根据权利要求1~3中的任一项所述的机器人程序生成装置,其特征在于,所述机器人程序生成装置(3)是具备实行机器人程序模拟的功能的机器人模拟器。
5.一种机器人程序解析装置(3),解析机器人(1)的动作程序,其特征在于,
具有:
输入机器人程序并进行解析的单元(95);
显示工件(W)的模型的单元(90);
在所述被显示的模型上,根据所述已解析的程序,显示视觉传感器(6)的测量部位的单元(90a);
显示对所述测量部位的测量方法的单元(90b);
指定关于所述工件(W)的信息的单元(91c);
与关于该工件(W)的信息相对应地对用于判定测量部位的优劣以及/或者测量方法的优劣的基准信息进行存储的单元(92);和
根据该基准信息,对所述程序的测量部位以及/或者测量方法的优劣进行判定的单元(93)。
6.一种机器人程序解析装置(3),解析机器人(1)的动作程序,其特征在于,
具有:
输入机器人程序并进行解析的单元(95);
显示预先摄制的工件(W)的图像的单元(90);
在所述工件的图像上,根据所述已解析的程序,显示视觉传感器(6)的测量部位的单元(90a);
显示对所述测量部位的测量方法的单元(90b);
指定关于所述工件(W)的信息的单元(91c);
与该工件(W)的信息相对应地对用于判定测量部位的优劣以及/或者测量方法的优劣的基准信息进行存储的单元(92);
根据该基准信息,对所述程序的测量部位以及/或者测量方法的优劣进行判定的单元(93)。
7.根据权利要求5或6所述的机器人程序解析装置,其特征在于,关于所述工件(W)的信息,是至少包含工件的尺寸、工件的材质、工件的把持方法、工件的装载状态之中的一种的信息。
8.根据权利要求5~7中的任一项所述的机器人程序解析装置,其特征在于,所述机器人程序解析装置(3)是具备实行机器人程序模拟的功能的机器人模拟器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004289822 | 2004-10-01 | ||
JP2004289822A JP3977369B2 (ja) | 2004-10-01 | 2004-10-01 | ロボットプログラム生成装置及び解析装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1754666A true CN1754666A (zh) | 2006-04-05 |
CN100415459C CN100415459C (zh) | 2008-09-03 |
Family
ID=35431176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2005101082512A Expired - Fee Related CN100415459C (zh) | 2004-10-01 | 2005-10-08 | 机器人程序生成装置以及解析装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7684897B2 (zh) |
EP (1) | EP1642692B1 (zh) |
JP (1) | JP3977369B2 (zh) |
CN (1) | CN100415459C (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104108103A (zh) * | 2013-04-18 | 2014-10-22 | 发那科株式会社 | 具备搬运工件的机器人的机器人系统 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3930482B2 (ja) * | 2004-01-19 | 2007-06-13 | ファナック株式会社 | 3次元視覚センサ |
JP5333344B2 (ja) | 2009-06-19 | 2013-11-06 | 株式会社安川電機 | 形状検出装置及びロボットシステム |
CN103358307A (zh) * | 2012-04-09 | 2013-10-23 | 长毅技研股份有限公司 | 机械手臂操控动作重现方法 |
US9555549B2 (en) * | 2013-10-31 | 2017-01-31 | Seiko Epson Corporation | Control device, robot, robot system, and control method |
JP6459227B2 (ja) | 2014-06-02 | 2019-01-30 | セイコーエプソン株式会社 | ロボットシステム |
JP2015226963A (ja) * | 2014-06-02 | 2015-12-17 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
JP7124509B2 (ja) * | 2018-07-19 | 2022-08-24 | オムロン株式会社 | シミュレーション装置、シミュレーションプログラムおよびシミュレーション方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4620436A (en) * | 1984-10-09 | 1986-11-04 | Hitachi, Ltd. | Method and apparatus for calibrating transformation matrix of force sensor |
GB2174216B (en) * | 1985-03-19 | 1988-10-26 | Mitutoyo Mfg Co Ltd | Method of operating a coordinate measuring instrument |
JP2710850B2 (ja) * | 1989-03-27 | 1998-02-10 | キヤノン株式会社 | ワーク把持装置、ワーク及びその収納ケース |
KR920002268A (ko) * | 1990-07-17 | 1992-02-28 | 유끼노리 가까즈 | 인텔리젠트가공장치 |
CN1118297A (zh) * | 1994-09-06 | 1996-03-13 | 叶洪源 | 自动定位焊接机器人系统 |
US5552992A (en) * | 1994-11-01 | 1996-09-03 | Larry J. Winget | Method and system for reproduction of an article from a physical model |
JPH08221132A (ja) * | 1995-02-10 | 1996-08-30 | Fanuc Ltd | サーボパラメータの自動調整方法及び自動調整装置 |
DE19637554B4 (de) * | 1995-09-19 | 2004-01-08 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Vorrichtung zum Meßfehlerausgleich bei Meßrobotern |
JP3079186B2 (ja) * | 1995-09-28 | 2000-08-21 | 株式会社小松製作所 | 構造物計測システム |
SE509505C2 (sv) * | 1996-02-20 | 1999-02-01 | Neos Robotics Ab | Positioneringsmetod och positioneringsanordning f ör ett produktionssystem |
US6272479B1 (en) * | 1997-07-21 | 2001-08-07 | Kristin Ann Farry | Method of evolving classifier programs for signal processing and control |
JP3047890B2 (ja) * | 1998-05-27 | 2000-06-05 | 松下電器産業株式会社 | 溶接ロボット |
JPH11347985A (ja) * | 1998-06-10 | 1999-12-21 | Honda Motor Co Ltd | 視覚センサ付ロボットシステムのトラブル診断方法 |
DE10013137B4 (de) | 2000-03-17 | 2005-11-24 | Edelmann, Peter, Dr. | Verfahren zur bildgesteuerten Prüfung und Bearbeitung von Produkten |
SE0001312D0 (sv) * | 2000-04-10 | 2000-04-10 | Abb Ab | Industrirobot |
US6825856B1 (en) | 2000-07-26 | 2004-11-30 | Agilent Technologies, Inc. | Method and apparatus for extracting measurement information and setting specifications using three dimensional visualization |
JP3703411B2 (ja) * | 2001-07-19 | 2005-10-05 | ファナック株式会社 | ワーク取り出し装置 |
US7236963B1 (en) * | 2002-03-25 | 2007-06-26 | John E. LaMuth | Inductive inference affective language analyzer simulating transitional artificial intelligence |
JP3805302B2 (ja) * | 2002-12-13 | 2006-08-02 | ファナック株式会社 | ワーク取出し装置 |
SE524818C2 (sv) * | 2003-02-13 | 2004-10-05 | Abb Ab | En metod och ett system för att programmera en industrirobot att förflytta sig relativt definierade positioner på ett objekt |
JP3708083B2 (ja) * | 2003-02-28 | 2005-10-19 | ファナック株式会社 | ロボット教示装置 |
US6836702B1 (en) * | 2003-06-11 | 2004-12-28 | Abb Ab | Method for fine tuning of a robot program |
-
2004
- 2004-10-01 JP JP2004289822A patent/JP3977369B2/ja not_active Expired - Fee Related
-
2005
- 2005-09-30 US US11/239,672 patent/US7684897B2/en active Active
- 2005-09-30 EP EP05021498.0A patent/EP1642692B1/en not_active Expired - Fee Related
- 2005-10-08 CN CNB2005101082512A patent/CN100415459C/zh not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104108103A (zh) * | 2013-04-18 | 2014-10-22 | 发那科株式会社 | 具备搬运工件的机器人的机器人系统 |
CN104108103B (zh) * | 2013-04-18 | 2015-07-22 | 发那科株式会社 | 具备搬运工件的机器人的机器人系统 |
Also Published As
Publication number | Publication date |
---|---|
US7684897B2 (en) | 2010-03-23 |
EP1642692A2 (en) | 2006-04-05 |
CN100415459C (zh) | 2008-09-03 |
EP1642692A3 (en) | 2011-09-28 |
JP3977369B2 (ja) | 2007-09-19 |
US20060074526A1 (en) | 2006-04-06 |
JP2006106927A (ja) | 2006-04-20 |
EP1642692B1 (en) | 2019-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1754666A (zh) | 机器人程序生成装置以及解析装置 | |
US10551821B2 (en) | Robot, robot control apparatus and robot system | |
JP2008021092A (ja) | ロボットシステムのシミュレーション装置 | |
CN101927494B (zh) | 形状检测系统 | |
DE102018213985B4 (de) | Robotersystem | |
JP4508252B2 (ja) | ロボット教示装置 | |
CN1680774A (zh) | 计量装置 | |
JP4266946B2 (ja) | オフライン教示装置 | |
EP1769890A2 (en) | Robot simulation device | |
US11446822B2 (en) | Simulation device that simulates operation of robot | |
US10724963B2 (en) | Device and method for calculating area to be out of inspection target of inspection system | |
JP2010042466A (ja) | ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法 | |
CN114599488A (zh) | 机器学习数据生成装置、机器学习装置、作业系统、计算机程序、机器学习数据生成方法及作业机的制造方法 | |
JP2003214829A (ja) | 外壁検査装置および外壁検査方法並びに外壁検査診断システム | |
JP2010182210A (ja) | ロボット教示プログラム修正装置 | |
JPH05196432A (ja) | 三次元座標計測装置 | |
JP2020123042A (ja) | 情報処理装置、情報処理方法及びシステム | |
JP2013184242A (ja) | 産業用機械の干渉判定装置、干渉判定方法、コンピュータプログラムおよび記録媒体 | |
JP2006335142A (ja) | 車両損傷記録表の作成システム及び車両修理シュミレーター | |
CN116159778A (zh) | 一种基于3d打印技术的质量检测方法及系统 | |
JP2005078441A (ja) | 比較検定装置 | |
JP2014020968A (ja) | 歯科実習用評価装置及び当該評価装置を用いた評価システム | |
JP2013052498A (ja) | マニピュレータの制御装置 | |
WO2022163580A1 (ja) | 視覚センサにて取得される3次元の位置情報から断面画像を生成する処理装置および処理方法 | |
JP2527233Y2 (ja) | ワーク位置検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20080903 Termination date: 20101008 |